اخر الاخبار

شركة OpenAI تطلق "وكيل ChatGPT" وتصنفه "عالي الخطورة" لقدرته على المساعدة في بناء أسلحة بيولوجية

 

شركة OpenAI تطلق "وكيل ChatGPT" وتصنفه "عالي الخطورة"


في خطوة تكشف عن القوة الهائلة والمخاطر العميقة للذكاء الاصطناعي المتقدم، أطلقت شركة OpenAI أحدث وأقوى أدواتها حتى الآن، "وكيل شات جي بي تي" (ChatGPT Agent). وبينما يعد هذا الوكيل بتنفيذ مهام معقدة نيابة عنك، من حجز الرحلات إلى إعداد العروض التقديمية، إلا أنه يأتي مع تحذير غير مسبوق: فقد صنفته الشركة نفسها بأنه يتمتع بقدرة "عالية" فيما يتعلق بالمخاطر البيولوجية.


ويُعد هذا أول منتج من OpenAI يحصل على هذا التصنيف الخطير، مما يفتح الباب أمام نقاش عالمي حول التوازن الدقيق بين الابتكار والمسؤولية في عصر الذكاء الاصطناعي الفائق.


الخطر الحقيقي: عندما تتجاوز المساعدة الحدود

يعني تصنيف "المخاطر العالية" أن نموذج الذكاء الاصطناعي يمكنه تقديم مساعدة فعّالة للأشخاص "المبتدئين" وتمكينهم من التسبب في تهديدات بيولوجية أو كيميائية. ووفقًا لـ "إطار التأهب" الخاص بشركة OpenAI، فإن التداعيات الواقعية لهذا الأمر قد تعني أن حوادث الإرهاب البيولوجي التي تنفذها جهات غير حكومية ستصبح أكثر احتمالًا وتكرارًا.


وقد علّق بواز باراك، أحد أعضاء الفريق الفني في OpenAI، على هذا الخطر قائلاً: "البعض قد يظن أن المخاطر البيولوجية غير حقيقية، وأن النماذج لا تقدم سوى معلومات يمكن العثور عليها بالبحث. ربما كان هذا صحيحًا في 2024، لكنه بالتأكيد ليس صحيحًا اليوم. بناءً على تقييماتنا وتقييمات خبرائنا، فإن الخطر حقيقي للغاية".


وأضاف باراك أن الحاجز الرئيسي أمام إنشاء تهديدات بيولوجية ليس الحصول على المواد، بل هو ندرة المعرفة والمهارات المخبرية. وتابع: "بناءً على تقييماتنا، يُمكن لوكيل شات جي بي تي غير المقيد سد هذه الفجوة المعرفية وتقديم نصائح أقرب إلى خبير متخصص".


سباق نحو القوة.. وتدابير وقائية مشددة

أكدت OpenAI أن تصنيف النموذج على أنه عالي الخطورة كان "نهجًا احترازيًا"، وهو ما أدى إلى تفعيل إجراءات وقائية إضافية وشاملة. وقالت كيرين جو، الباحثة في مجال السلامة لدى الشركة، إنه على الرغم من عدم وجود أدلة قاطعة على أن النموذج يمكن أن يُرشد شخصًا مبتدئًا لإحداث ضرر جسيم، فقد تم تفعيل الحماية على أي حال.


وتشمل هذه الإجراءات:


* جعل الوكيل يرفض الطلبات المصممة للمساعدة في إنتاج أسلحة بيولوجية.


* أنظمة ترصد الطلبات غير الآمنة وتحولها لمراجعة بشرية.


* قواعد صارمة لحجب المحتوى الخطير ومراقبة دقيقة لأي علامات على سوء الاستخدام.


كما أقرت OpenAI بأن زيادة استقلالية النماذج تزيد من المخاطر، مؤكدة على أهمية بقاء المستخدم في موقع السيطرة، حيث يطلب الوكيل الإذن قبل اتخاذ أي إجراء مهم، ويمكن للمستخدم إيقافه في أي وقت.


ويأتي إطلاق هذه الميزة في سياق سباق "الوكلاء الأذكياء" المحموم بين مختبرات الذكاء الاصطناعي، حيث تتنافس شركات مثل جوجل وأنثروبيك على بناء وكلاء يمكنهم إدارة المهام الرقمية المعقدة بشكل مستقل. وبهذا الإطلاق، لا تكشف OpenAI عن قوتها التنافسية فحسب، بل تكشف أيضًا عن المخاطر العميقة التي تحملها هذه القوة، معلنةً عن بداية حقبة جديدة من الشفافية والمسؤولية في هذا المجال الحساس.


 تابع موقعنا tech1new.com انضم إلى صفحتنا على فيسبوك و متابعتنا على منصة إكس (تويتر سابقاً) ، للحصول على تحديثات إخبارية فورية ومراجعات وشروحات تقنية.

ليست هناك تعليقات:

إرسال تعليق