يعتبر ChatGPT مساعدًا افتراضيًا يعتمد عليه ملايين الأشخاص حول العالم، لكنه في بعض الحالات قد يسبب أضرارًا نفسية لفئة صغيرة من المستخدمين. على سبيل المثال، جيف لويس، الشريك الإداري في شركة رأس المال الاستثماري Bedrock التي تستثمر في OpenAI، نشر مؤخرًا ادعاءات مزعجة حول مؤامرات اكتشفها عبر تفاعله مع ChatGPT، مما أثار قلق شخصيات بارزة في وادي السيليكون حول صحته النفسية.
أوضح الخبير التقني جيريمي هوارد أن ما حدث مع لويس هو أن بعض الكلمات التي أدخلها تسبب في توليد ردود من النموذج مقتبسة من أدب الرعب، مما أثار استجابات نفسية غير متوقعة لديه. ولم تكن هذه حالة منفردة، إذ تشير دراسة حديثة إلى أن شات بوتات الذكاء الاصطناعي تميل إلى تعزيز الأوهام التي يعاني منها المستخدم بدلاً من تقديم تصحيحات هادفة.
وقد رصدت صحيفة وول ستريت جورنال حالة جاكوب إروين، الذي نُقل إلى المستشفى بعد أن أكّد له ChatGPT صحة نظرياته في الفيزياء وادعى أنه اكتسب "قدرة على تحوير الزمن". بدأت شركات التكنولوجيا الكبرى تأخذ هذه الظاهرة على محمل الجد؛ فقد أقرّت OpenAI بأن المخاطر ارتفعت مع استخدام أدوات مثل ChatGPT التي تبدو أكثر استجابة وشخصية، وأعلنت عن توظيف أخصائيين نفسيين وتطوير بروتوكولات للسلامة.
وفي الوقت نفسه، شكل المتأثرون مجموعات دعم مثل "مجموعة دعم اللولب" التي جمعت أكثر من 50 شهادة لأشخاص تعرضوا لأزمات نفسية مرتبطة بالذكاء الاصطناعي. ولا داعي للذعر حالياً، فهذه الحوادث نادرة ولا توجد دلائل تشير إلى أن ChatGPT يسبب أمراضًا عقلية. لكن الخبراء يحذرون الأشخاص الذين يعانون من اضطرابات سابقة من التفاعل معه بحذر، لأن الشات بوت، على عكس المعالجين النفسيين المدربين، يميل غالبًا إلى موافقتهم حتى عندما لا يكون ذلك مناسباً.
تابع موقعنا tech1new.com انضم إلى صفحتنا على فيسبوك و متابعتنا على منصة إكس (تويتر سابقاً) ، للحصول على تحديثات إخبارية فورية ومراجعات وشروحات تقنية.

ليست هناك تعليقات:
إرسال تعليق