تقرير سلامة "Gemini 2.5 Pro" يثير الشكوك: خبراء ينتقدون نقص الشفافية من غوغل

 

تقرير سلامة "Gemini 2.5 Pro" يثير الشكوك: خبراء ينتقدون نقص الشفافية من غوغل


في أعقاب أسابيع قليلة من الكشف عن أحدث وأقوى إبداعاتها في عالم الذكاء الاصطناعي، نموذج "Gemini 2.5 Pro"، نشرت شركة غوغل تقريرًا فنيًا يُفترض أنه يُسلط الضوء على نتائج تقييمات السلامة الداخلية لهذا النموذج المتقدم. إلا أن هذا التقرير، الذي كان من المفترض أن يُطمئن مجتمع الذكاء الاصطناعي، أثار في الواقع موجة من القلق والانتقادات بين الخبراء المتخصصين.


فقد أجمع الخبراء الذين اطلعوا على التقرير على أنه يعاني من نقص حاد في التفاصيل الجوهرية، مما يجعل من الصعب للغاية تحديد وتقييم المخاطر المحتملة التي قد يشكلها نموذج "Gemini 2.5 Pro" على أرض الواقع.


تُعتبر التقارير الفنية عادةً نافذة قيّمة – وإن كانت غالبًا غير مُرضية تمامًا – تُطل منها الشركات على بعض الجوانب الداخلية المتعلقة بنماذج الذكاء الاصطناعي الخاصة بها، وهي معلومات قد لا يتم الإعلان عنها دائمًا على نطاق واسع، وذلك وفقًا لتحليل نشره موقع "TechCrunch".


وعلى العموم، ينظر مجتمع الذكاء الاصطناعي إلى هذه التقارير باعتبارها مبادرات حسنة النية تهدف إلى دعم الأبحاث المستقلة وجهود تقييم السلامة التي يقوم بها الباحثون والأكاديميون.


ومع ذلك، تتبع غوغل نهجًا مختلفًا في إعداد تقارير السلامة مقارنة ببعض منافسيها في هذا المجال التنافسي. فهي لا تقوم بنشر هذه التقارير الفنية إلا بعد أن تعتبر أن النموذج قد تجاوز مرحلة "الاختبار" الأولية وأصبح أكثر استقرارًا. بالإضافة إلى ذلك، لا تُدرج الشركة نتائج جميع تقييمات "القدرات الخطيرة" المحتملة في هذه التقارير، بل تحتفظ بها لعمليات تدقيق منفصلة وأكثر تفصيلاً.


وقد عبّر العديد من الخبراء الذين تحدثوا إلى موقع "TechCrunch" عن خيبة أملهم العميقة بسبب قلة التفاصيل الواردة في التقرير الخاص بنموذج "Gemini 2.5 Pro". وأشاروا بشكل خاص إلى أن التقرير يغفل ذكر إطار السلامة الهام الذي وضعته غوغل نفسها، والمعروف اختصارًا بـ "Frontier Safety Framework" (FSF).


وكانت غوغل قد قدمت إطار عمل "FSF" في العام الماضي، ووصفته بأنه جهد طموح يهدف إلى تحديد وتقييم قدرات الذكاء الاصطناعي المستقبلية التي قد تنطوي على خطر التسبب في "ضرر جسيم" على نطاق واسع.


آراء الخبراء: قلق وتشكيك في الشفافية:


وصف بيتر وايلدفورد، المؤسس المشارك لمؤسسة "Institute for AI Policy and Strategy" البحثية، التقرير بأنه "ضئل للغاية، ويحتوي على أقل قدر ممكن من المعلومات المفيدة، وقد صدر بعد أسابيع من إتاحة النموذج للجمهور". وأضاف وايلدفورد بلهجة قلقة: "من المستحيل التحقق بشكل مستقل مما إذا كانت غوغل تفي بالتزاماتها العامة فيما يتعلق بالسلامة، وبالتالي من المستحيل تقييم سلامة وأمان نماذجها بشكل موثوق."


من جانبه، أعرب توماس وودسايد، الشريك المؤسس لمشروع "Secure AI"، عن سعادته بإصدار غوغل تقريرًا عن "Gemini 2.5 Pro"، إلا أنه لم يخفِ شكوكه بشأن التزام الشركة بتقديم تقييمات سلامة إضافية في الوقت المناسب. وأشار وودسايد إلى أن آخر مرة نشرت فيها غوغل نتائج اختبارات "القدرات الخطيرة" كان في يونيو 2024، وذلك لنموذج تم الإعلان عنه في فبراير من العام نفسه، مما يثير تساؤلات حول وتيرة هذه التقارير.


وما يزيد من حالة عدم الثقة هو أن غوغل لم تُصدر حتى الآن أي تقرير عن نموذج "Gemini 2.5 Flash"، وهو نموذج أصغر حجمًا وأكثر كفاءة أعلنت عنه الشركة قبل أسبوع واحد فقط، وهو ما لا يُبشر بالكثير من الشفافية في نظر الخبراء. وقد صرح متحدث باسم غوغل لموقع "TechCrunch" بأن تقريرًا عن هذا النموذج "سيصدر قريبًا"، إلا أن هذا الوعد لم يُبدد مخاوف الكثيرين.


اتهامات بالتقصير في الشفافية: ليست غوغل وحدها في قفص الاتهام:


تجدر الإشارة إلى أنه على الرغم من أن غوغل كانت من أوائل مختبرات الذكاء الاصطناعي التي اقترحت فكرة التقارير الموحدة للنماذج، إلا أنها ليست الوحيدة التي واجهت مؤخرًا اتهامات بالتقصير في مجال الشفافية. فقد أصدرت شركة ميتا تقييمًا مشابهًا من حيث قلة التفاصيل حول سلامة نماذجها مفتوحة المصدر الجديدة "Llama 4"، بينما اختارت OpenAI عدم نشر أي تقرير لسلسلة نماذج "GPT-4.1" المتطورة.


وتواجه غوغل ضغوطًا إضافية بسبب الضمانات العلنية التي قدمتها للجهات التنظيمية حول الحفاظ على معايير عالية في اختبارات سلامة الذكاء الاصطناعي وإعداد التقارير عنها. فقبل عامين، أبلغت غوغل الحكومة الأمريكية رسميًا بأنها ستنشر علنًا تقارير سلامة نماذج الذكاء الاصطناعي العامة و"المهمة". وقد تبعت الشركة هذا الوعد بالتزامات مماثلة تجاه دول أخرى، متعهدة بـ "توفير الشفافية العامة" حول منتجاتها القائمة على الذكاء الاصطناعي.


وقد وصف كيفن بانكستون، كبير مستشاري شؤون حوكمة الذكاء الاصطناعي في مركز الديمقراطية والتكنولوجيا، الاتجاه الحالي نحو نشر تقارير غامضة وبوتيرة متقطعة بأنه "سباق نحو القاع" في مجال سلامة الذكاء الاصطناعي. وأضاف بانكستون محذرًا: "إلى جانب التقارير التي تفيد بأن المختبرات المنافسة مثل OpenAI قد قلصت بشكل كبير الوقت المخصص لاختبارات السلامة قبل إطلاق نماذجها من شهور إلى أيام معدودة، فإن هذا التوثيق الضئيل لأهم نموذج ذكاء اصطناعي من غوغل يروي قصة مثيرة للقلق حول سباق محموم نحو القاع في ما يتعلق بسلامة الذكاء الاصطناعي وشفافيته، حيث تتسابق الشركات لطرح نماذجها في السوق بأسرع ما يمكن."


 تابع موقعنا tech1new.com انضم إلى صفحتنا على فيسبوك و متابعتنا على منصة إكس (تويتر سابقاً) ، أو أضف tech1new.com إلى موجز أخبار Google الخاص بك للحصول على تحديثات إخبارية فورية ومراجعات وشروحات تقنية

ليست هناك تعليقات:

إرسال تعليق