في كواليس سباق الذكاء الاصطناعي المحموم، تدور حرب خفية لا تقل ضراوة عن المنافسة العلنية، حيث كشفت تقارير حديثة أن شركة OpenAI، مبتكرة ChatGPT، قد بدأت في بناء "قلعة رقمية" منيعة حول ملكيتها الفكرية، عبر تكثيف تدابيرها الأمنية بشكل غير مسبوق. وتأتي هذه الخطوة في أعقاب مزاعم بتعرضها لمحاولات تجسس من شركات منافسة صينية، وعلى رأسها شركة DeepSeek، وفقًا لتقرير نشرته صحيفة "فايننشال تايمز".
وبحسب مصادر مطلعة، فرضت الشركة قيودًا صارمة على تداول المعلومات الحساسة، وعززت إجراءات فحص الموظفين، في تحرك متسارع لمواجهة ما تعتبره خطرًا وجوديًا يتمثل في محاولات تقليد تقنياتها أو سرقتها.
الخصم الصيني وشبح الاستنساخ
على الرغم من أن OpenAI كثفت جهودها الأمنية منذ العام الماضي، إلا أن الإجراءات أصبحت أكثر صرامة بشكل ملحوظ عقب إطلاق شركة DeepSeek لنموذجها المنافس في يناير الماضي. ويُشتبه بأن هذا النموذج قد استند إلى تقنيات مستنسخة من OpenAI باستخدام أسلوب يُعرف باسم "التقطير" (Distillation)، وهو أسلوب هندسة عكسية معقد يتيح "استخلاص" قدرات نموذج متطور وتدريب نموذج آخر عليها.
ولم تُعلّق شركة DeepSeek على هذه المزاعم حتى الآن، لكن الحادثة، وفقًا لأحد أعضاء فريق الأمن في OpenAI، دفعت الشركة إلى التحول نحو نهج أكثر حذرًا وتشددًا.
داخل القلعة الرقمية: استراتيجية دفاع متعددة الطبقات
لتحصين أصولها التقنية، طبقت OpenAI استراتيجية دفاعية متعددة المستويات:
* العزل المادي والرقمي: بدأت الشركة بتخزين العديد من تقنياتها الحساسة في بيئات معزولة تمامًا وغير متصلة بالإنترنت. كما استعانت بأنظمة دخول تعتمد على البصمة البيومترية لتحديد من يمكنه الوصول إلى غرف معينة داخل مقرها.
* تقسيم المعرفة: منذ صيف العام الماضي، بدأت OpenAI بتنفيذ سياسة "تظليل المعلومات" (information tenting)، وهي سياسة تهدف إلى حصر الاطلاع على المشاريع التقنية بالغة الحساسية بعدد محدود جدًا من الموظفين المصرح لهم فقط.
* حماية "أوزان النماذج": لحماية "أوزان النماذج" (Model weights) - وهي المعاملات الرياضية التي تمثل "عقل" النموذج وتتحكم في طريقة استجابته - تبنّت الشركة سياسة "منع الاتصال الخارجي بشكل افتراضي"، مما يعني أن أي اتصال بالشبكة يُمنع تلقائيًا ما لم تتم الموافقة عليه صراحةً.
* الجدار البشري: شددت OpenAI أيضًا إجراءات الأمن المادي في مراكز بياناتها، وكثّفت من عمليات فحص الخلفيات للموظفين والمرشحين الجدد، في خطوة تتماشى مع توجه أوسع في وادي السيليكون لمواجهة تصاعد عمليات التجسس التقني.
جيش من الخبراء لحماية الإمبراطورية
لدعم هذه الاستراتيجية الدفاعية، قامت OpenAI بتعيينات استراتيجية، ففي أكتوبر الماضي، عيّنت "دين ستاكي" رئيسًا لأمن المعلومات، وهو قادم من شركة Palantir المعروفة بعملها مع المؤسسات العسكرية والحكومية. كما انضم الجنرال الأمريكي المتقاعد بول ناكاسوني، الرئيس السابق للقيادة السيبرانية في الجيش الأمريكي، إلى مجلس إدارتها العام الماضي للإشراف على خطط الحماية من التهديدات الإلكترونية.
ورغم أن OpenAI صرحت بأن هذه التغييرات الأمنية لم تكن نتيجة لحادث محدد، بل هي جزء من استراتيجية وقائية متقدمة، إلا أنها تأتي في وقت فرضت فيه الولايات المتحدة قيودًا متزايدة على تصدير التكنولوجيا إلى الصين، في خضم منافسة تُوصف بأنها "سباق تسلح رقمي" جديد.
تابع موقعنا tech1new.com انضم إلى صفحتنا على فيسبوك و متابعتنا على منصة إكس (تويتر سابقاً) ، للحصول على تحديثات إخبارية فورية ومراجعات وشروحات تقنية.

ليست هناك تعليقات:
إرسال تعليق