في تطور يثير علامات استفهام وقلق في آن واحد، أعلنت "OpenAI" عن تعديلات جديدة في "إطار عمل التأهب" الداخلي لديها، وهو النظام الذي تعتمده لتقييم مدى أمان نماذج الذكاء الاصطناعي التي تطورها. المفاجأة الصادمة تكمن في إشارة الشركة إلى إمكانية تخفيف بعض إجراءاتها الأمنية الوقائية إذا ما أقدم منافسوها على إطلاق أنظمة ذكاء اصطناعي بالغة الخطورة دون تطبيق معايير سلامة مماثلة.
هذا التحديث، الذي كشفت عنه "OpenAI" عبر مدونتها الرسمية يوم الثلاثاء، يراه مراقبون بمثابة انعكاس للضغط الهائل الذي يفرضه السباق المحموم في سوق الذكاء الاصطناعي التجاري. ففي ظل التنافس الشرس بين الشركات الكبرى على طرح نماذجها بأسرع وتيرة ممكنة، يبدو أن بعض إجراءات السلامة قد تجد نفسها على المحك.
"OpenAI" لم تترك الأمر غامضًا، بل أوضحت في منشورها أنها قد تعيد النظر في متطلبات السلامة الصارمة التي تتبناها إذا ما أطلق مطور آخر نظامًا يُصنف على أنه خطر دون التزامات أمنية مماثلة. لكنها سارعت في الوقت نفسه إلى التأكيد على أن أي تعديل في ضمانات السلامة لن يتم إلا بعد تقييم دقيق وشامل لتغير المشهد العام للمخاطر، وبعد إعلان علني وشفاف عن هذه التعديلات، مع التعهد بالحفاظ على مستوى عالٍ من الحماية.
يأتي هذا الإعلان في وقت تواجه فيه "OpenAI" بالفعل سهام الانتقادات المتزايدة بسبب ما يراه البعض تراجعًا عن التزامات سابقة تتعلق بالشفافية ومعايير الاختبار الصارمة. ففي تطور لافت، قام 12 موظفًا سابقًا في الشركة بالتوقيع على مذكرة تدعم الدعوى القضائية التي رفعها الملياردير إيلون ماسك، محذرين من أن الشركة قد تتجاوز الحدود في التهاون بمعايير السلامة إذا ما أكملت عملية إعادة الهيكلة المؤسسية التي تخطط لها.
من جانبها، سارعت "OpenAI" إلى نفي هذه الاتهامات بشكل قاطع، مؤكدة أنها تعمل على تعزيز اعتمادها على التقييمات الآلية لتسريع وتيرة تطوير منتجاتها، مع الإصرار على أنها لن تتخلى بشكل كامل عن الاختبارات البشرية الدقيقة. إلا أن تقارير نشرتها صحيفة "فاينانشال تايمز" ألقت بظلال من الشك على هذه التأكيدات، مشيرة إلى أن بعض اختبارات السلامة تُجرى حاليًا على نسخ قديمة من النماذج وليس على أحدث الإصدارات، بل إن بعض الفحوصات الهامة نُفذت خلال أقل من أسبوع واحد فقط قبل طرح نموذج رئيسي جديد.
التغييرات الجديدة التي أدخلتها "OpenAI" على إطار عمل التأهب الخاص بها شملت أيضًا إعادة تصنيف النماذج بناءً على قدرتها الكامنة على التسبب في ضرر جسيم. وقد صنفت الشركة النماذج التي قد تتصرف بطريقة خفية يصعب اكتشافها، أو تلك التي قد تجد طرقًا للالتفاف على الضمانات الأمنية المفروضة عليها، أو التي قد ترفض الاستجابة لأوامر الإيقاف، أو حتى تلك التي قد تُظهر بوادر مقلقة للتكاثر الذاتي، ضمن فئات الخطر الأعلى.
وبحسب "OpenAI"، فإن النماذج المصنفة تحت معيار "القدرة العالية" هي تلك التي تعمل على تضخيم المسارات الحالية المعروفة التي قد تؤدي إلى الضرر. أما النماذج المصنفة تحت معيار "القدرة الحرجة"، فهي الأخطر، حيث تشير إلى نماذج قد تكون قادرة على خلق مسارات جديدة وغير مسبوقة نحو إلحاق الأذى. وقد أكدت الشركة أن الأنظمة التي تقترب من هذه المعايير الخطيرة ستخضع لضمانات أمنية صارمة ومكثفة تهدف إلى تقليل احتمالية حدوث أي ضرر جسيم، سواء أثناء مراحل تطويرها أو قبيل طرحها للاستخدام العام.
يُذكر أن هذه التحديثات الهامة هي الأولى من نوعها التي تجريها "OpenAI" على إطار العمل الخاص بالتأهب منذ عام 2023، وذلك في وقت يتصاعد فيه القلق الدولي بشكل ملحوظ بشأن السلامة الأخلاقية والتقنية للذكاء الاصطناعي المتقدم وتأثيره المحتمل على مستقبل البشرية.
تابع موقعنا tech1new.com انضم إلى صفحتنا على فيسبوك و متابعتنا على منصة إكس (تويتر سابقاً) ، أو أضف tech1new.com إلى موجز أخبار Google الخاص بك للحصول على تحديثات إخبارية فورية ومراجعات وشروحات تقنية
ليست هناك تعليقات:
إرسال تعليق