"غروك" الفاضح ووعود السلامة الضائعة: xAI تحت المجهر

 

"غروك" الفاضح ووعود السلامة الضائعة: xAI تحت المجهر


يبدو أن شركة xAI، ذراع الذكاء الاصطناعي الطموح لإيلون ماسك، قد تعثرت في التزاماتها المعلنة تجاه سلامة الذكاء الاصطناعي. فوفقًا لتقرير صادر عن مجموعة المراقبة "مشروع ميداس"، لم تفِ الشركة بالموعد النهائي الذي حددته بنفسها، وهو العاشر من مايو، لنشر إطار عملها النهائي المتعلق بسلامة هذه التقنية الثورية.


هذا الإخفاق يضيف إلى سجل xAI الذي لا يُظهر التزامًا راسخًا بمعايير السلامة، على عكس ما قد يُتوقع. فقد سلط الضوء مؤخرًا على سلوكيات مثيرة للجدل لروبوت الدردشة التابع لها، "غروك"، الذي كشف تقرير لموقع "تك كرانش" عن قدرته على تعديل الصور لتجريد النساء من ملابسهن عند الطلب. يُعرف "غروك" أيضًا بأسلوبه الأكثر فظاظة وميله لاستخدام لغة نابية دون تردد، مقارنة بنظرائه مثل "جيميني" و"شات جي بي تي".


المفارقة تكمن في أن xAI كانت قد قدمت بادرة إيجابية في فبراير الماضي خلال قمة سيول للذكاء الاصطناعي. هناك، وسط تجمع عالمي لقادة وخبراء المجال، كشفت الشركة عن مسودة إطار عمل من ثماني صفحات يوضح رؤيتها وفلسفتها تجاه سلامة الذكاء الاصطناعي، متضمنًا بروتوكولات القياس الخاصة بها وآليات نشر النماذج.


لكن "مشروع ميداس" أشار في تدوينة له إلى أن هذه المسودة كانت موجهة فقط لنماذج مستقبلية غير محددة، ولم توضح آليات تحديد وتنفيذ إجراءات تخفيف المخاطر – وهو التزام أساسي وقعت عليه xAI في قمة سيول نفسها. الأهم من ذلك، أن المسودة تضمنت تعهدًا بإصدار نسخة محدثة ونهائية من سياسة السلامة خلال ثلاثة أشهر، أي بحلول العاشر من مايو المنصرم. هذا الموعد مر دون أي إعلان أو تحديث عبر القنوات الرسمية للشركة.


وعلى الرغم من تحذيرات ماسك المتكررة من الأخطار الكامنة في الذكاء الاصطناعي إذا تُرك دون ضوابط، يبدو أن ممارسات شركته لا ترقى لهذه التحذيرات. فقد كشفت دراسة حديثة أجرتها منظمة "SaferAI" غير الربحية، التي تُعنى بتحسين مساءلة مختبرات الذكاء الاصطناعي، أن xAI تحتل مرتبة متأخرة بين منافسيها بسبب ضعف ممارساتها في إدارة المخاطر.


ولا يقتصر هذا التراخي على xAI وحدها. فالعديد من الشركات الرائدة في مجال الذكاء الاصطناعي، مثل "جوجل" و"OpenAI"، أظهرت في الأشهر الأخيرة تسارعًا في تجاوز اختبارات السلامة أو تباطؤًا في نشر تقارير السلامة الخاصة بنماذجها، بل وتجاهلت نشرها في بعض الأحيان.


وقد أعرب بعض الخبراء عن قلقهم من أن هذا التراجع الواضح في أولوية جهود السلامة يأتي في وقت أصبح فيه الذكاء الاصطناعي أكثر قدرة، وبالتالي أكثر خطورة من أي وقت مضى.


 تابع موقعنا tech1new.com انضم إلى صفحتنا على فيسبوك و متابعتنا على منصة إكس (تويتر سابقاً) ، أو أضف tech1new.com إلى موجز أخبار Google الخاص بك للحصول على تحديثات إخبارية فورية ومراجعات وشروحات تقنية

ليست هناك تعليقات:

إرسال تعليق