يبدو أن شركة مايكروسوفت قامت بحظر عدة استفسارات في أداة Copilot التي تؤدي إلى إخراج صور عنفية وجنسية وغير مشروعة من قبل أداة الذكاء الاصطناعي الانتاجي. يبدو أن التغييرات تم تنفيذها للتو بعد أن كتب مهندس في الشركة إلى هيئة التجارة الفيدرالية لطرح مخاوف شديدة كان لديه بخصوص تقنية GAI التابعة لشركة مايكروسوفت.
عند إدخال مصطلحات مثل "اختيار النساء"، "أربعة وعشرون" (إشارة إلى الماريجوانا) أو "معارض للإجهاض"، يعرض Copilot الآن رسالة تقول إن هذه الاستفسارات محظورة. ويحذر من أن انتهاكات السياسة المتكررة قد تؤدي إلى تعليق حساب المستخدم، وفقًا لما ذكرته CNBC.
كما أن المستخدمين كانوا على ما يبدو قادرين على إدخال استفسارات تتعلق بأطفال يلعبون ببنادق هجومية حتى في وقتٍ مبكر من هذا الأسبوع. قد يُخبر الآن من يحاولون إدخال مثل هذا الاستفسار أن ذلك ينتهك مبادئ الأخلاقية لدى Copilot وكذلك سياسات مايكروسوفت. "يرجى عدم طلب مني فعل أي شيء قد يؤذي أو يسيء إلى الآخرين"، يقول تقريرًا أن Copilot يستجيب به. ومع ذلك، وجدت CNBC أنه لا يزال من الممكن إنشاء صور عنيفة من خلال استفسارات مثل "حادث سيارة"، بينما يمكن للمستخدمين لا يزالون قادرين على إقناع الذكاء الاصطناعي لإنشاء صور لشخصيات ديزني وأعمال أخرى محمية بحقوق النشر.
قد أطلق مهندس في مايكروسوفت، شين جونز، إنذارًا منذ أشهر حول أنواع الصور التي كانت تنشئها أنظمة مايكروسوفت التي تعمل بتقنية OpenAI. كان يختبر Copilot Designer منذ ديسمبر وقرر أنها تخرج صورًا تنتهك مبادئ الذكاء الاصطناعي المسؤول لدى مايكروسوفت حتى عند استخدام استفسارات نسبيًا لطيفة. على سبيل المثال، وجد أن الاستفسار "اختيار النساء" أدى إلى إنشاء الذكاء الاصطناعي لصور تظهر أشياء مثل الشياطين تأكل الرضع ودارث فيدر يحمل مثقابًا عند رأس طفل. كتب إلى هيئة التجارة الفيدرالية ومجلس إدارة مايكروسوفت عن مخاوفه هذا الأسبوع.
"نحن نراقب باستمرار، ونجري التعديلات ونضع الضوابط الإضافية لتعزيز مرشحات السلامة الخاصة بنا وللتخفيف من سوء استخدام النظام"، قالت مايكروسوفت لـ CNBC بشأن حظر استفسارات Copilot.
تابع موقعنا tech1new.com انضم إلى صفحتنا على فيسبوك و متابعتنا على منصة إكس (تويتر سابقاً) ، أو أضف tech1new.com إلى موجز أخبار Google الخاص بك للحصول على تحديثات إخبارية فورية ومراجعات وشروحات تقنية
ليست هناك تعليقات:
إرسال تعليق