خطوة أمنية جديدة من OpenAI.. نماذج ذكاء اصطناعي متقدمة لحماية شركات أوروبا

في لحظة يتداخل فيها الذكاء الاصطناعي مع الأمن الرقمي أكثر من أي وقت مضى، لم تعد النماذج المتقدمة مجرد أدوات للإنتاجية أو كتابة الأكواد، بل أصبحت جزءاً من معادلة حماية البنوك وشركات الاتصالات والطاقة والخدمات العامة. وفي هذا السياق، تتحرك OpenAI داخل أوروبا بخطوة لافتة، عبر منح شركات موثوقة إمكانية الوصول إلى نماذج سيبرانية متقدمة، في محاولة لتسريع اكتشاف الثغرات والرد على الهجمات قبل أن تتحول إلى أزمات واسعة. الخبر لا يتعلق فقط بإطلاق تقني جديد، بل يعكس سباقاً حساساً بين شركات الذكاء الاصطناعي والهيئات التنظيمية حول سؤال بالغ الأهمية: كيف يمكن إتاحة قدرات قوية للمدافعين، من دون تحويلها إلى أدوات خطرة في يد جهات غير موثوقة؟

أعلنت OpenAI أنها تمنح شركات أوروبية، بينها Deutsche Telekom وBBVA، إضافة إلى عشرات الشركات الأخرى، إمكانية الوصول إلى أحدث نماذجها، بما في ذلك GPT-5.5-Cyber، ضمن برنامج يحمل اسم Trusted Access for Cyber. ووفق ما نقلته رويترز، تستهدف المبادرة شركات ومؤسسات تعمل في قطاعات حيوية مثل الخدمات المالية، الاتصالات، الطاقة، والخدمات العامة، بهدف رفع قدرتها على مواجهة الثغرات الأمنية والاستجابة السريعة للتهديدات.

الفكرة المركزية في هذا البرنامج هي منح الجهات التي يتم التحقق منها أدوات ذكاء اصطناعي أكثر ملاءمة للعمل الدفاعي، مع الحفاظ على ضوابط تمنع الاستخدامات الخطرة. وبحسب OpenAI، فإن نماذج GPT-5.5 المخصصة للوصول الموثوق يمكن أن تساعد فرق الأمن في مراجعة الأكواد، تصنيف الثغرات، تحليل البرمجيات الخبيثة، بناء قواعد الكشف، والتحقق من فعالية التصحيحات الأمنية.

أوضح إيمانويل ماريل، المدير العام لـ OpenAI في منطقة أوروبا والشرق الأوسط وإفريقيا، أن التحدي الأساسي يتمثل في الموازنة بين الوصول والفائدة والسلامة، مع ازدياد قدرة نماذج الذكاء الاصطناعي. وقال إن المطلوب هو منع النشاطات الخطرة، وفي الوقت نفسه ضمان حصول المدافعين الموثوقين على أدوات مفيدة فعلاً لحماية الأنظمة، واكتشاف الثغرات، والرد على التهديدات بسرعة.

هذا التصريح يعكس جوهر النقاش الدائر حالياً حول نماذج الذكاء الاصطناعي القادرة على البرمجة والتحليل الأمني. فالنموذج نفسه الذي يساعد شركة على اكتشاف ثغرة في نظامها، قد يشكل خطراً إذا استُخدم خارج سياق دفاعي أو من طرف جهة غير موثوقة. لذلك تربط OpenAI هذا النوع من الوصول بآليات تحقق، ونطاق استخدام معتمد، ومراقبة لسوء الاستخدام، وملاحظات مستمرة من الشركاء.

تأتي المبادرة في وقت تشدد فيه المؤسسات الأوروبية رقابتها على شركات الذكاء الاصطناعي الكبرى. فقد رحبت المفوضية الأوروبية، بحسب رويترز، بعرض OpenAI فتح الوصول إلى ميزات الأمن السيبراني، بينما أشارت إلى أن Anthropic، منافستها في هذا المجال، لم تصل بعد إلى مستوى مماثل من الانفتاح بخصوص نماذجها.

وبحسب ما ورد في رسالة من جورج أوزبورن، وزير المالية البريطاني الأسبق والمسؤول عن مبادرة OpenAI for Countries، فإن خطة OpenAI الأوروبية للأمن السيبراني تهدف إلى العمل مع صناع السياسات والمؤسسات والشركات في أوروبا من أجل إتاحة أدوات دفاعية للجهات الموثوقة، بما يعزز الأمن المشترك ويدعم السلامة العامة ويعكس أولويات أوروبا.

لا يمكن فصل هذه الخطوة عن المنافسة المتصاعدة بين OpenAI وAnthropic في مجال النماذج المتقدمة ذات القدرات البرمجية والأمنية. فقد أشارت رويترز إلى أن إطلاق Anthropic لنموذج Mythos رفع مستوى القلق لدى البنوك والشركات، بسبب القدرات العالية لهذه النماذج على كتابة الأكواد، واكتشاف نقاط الضعف، وربما ابتكار طرق لاستغلالها إذا أسيء استخدامها.

في المقابل، تحاول OpenAI تقديم نهج يقوم على إتاحة دفاعية منظمة، حيث يمثل GPT-5.5 مع Trusted Access for Cyber نقطة البداية الأوسع للمدافعين الذين تم التحقق منهم، بينما يتيح GPT-5.5-Cyber لمجموعة أصغر من الشركاء دراسة مهام أكثر تقدماً تتطلب سلوك وصول أكثر تخصصاً. والهدف، وفق الشركة، هو مساعدة منظومة الأمن على حماية المستخدمين بشكل أسرع، مع التعلم من ردود فعل الشركاء لتحسين التقييمات والضوابط.

قدمت OpenAI نموذج GPT-5.5 في أبريل 2026 بوصفه نموذجاً أقوى في مهام البرمجة، البحث، تحليل المعلومات، واستخدام الأدوات. وتقول الشركة إن قدراته في بيئة Codex تظهر خصوصاً في تنفيذ التعديلات البرمجية، إعادة الهيكلة، التصحيح، الاختبار، والتحقق من النتائج. هذه القدرات هي نفسها التي تجعل النموذج مفيداً في الأمن السيبراني، لأنها تساعد الفرق التقنية على فهم الأنظمة المعقدة بسرعة أكبر.

لكن القوة التقنية وحدها لا تكفي في هذا المجال. لذلك تشدد OpenAI على أن الوصول السيبراني المتقدم يجب أن يبقى موجهاً إلى المدافعين الموثوقين، مع استعمال ضوابط دقيقة حتى لا يتحول النموذج إلى وسيلة لتسهيل الهجمات. وبهذا المعنى، تحاول الشركة تقديم نموذج تشغيل يجمع بين الابتكار والامتثال الأمني، خصوصاً داخل السوق الأوروبية المعروفة بصرامة تنظيمها الرقمي.

بالنسبة إلى الشركات الأوروبية، خصوصاً في القطاعات الحساسة، قد تعني هذه الخطوة تسريع عمليات كشف الثغرات ومراجعة الأكواد والاستجابة للحوادث. فبدلاً من الاعتماد فقط على فرق بشرية تعمل تحت ضغط كبير، يمكن للنماذج المتقدمة أن تساعد في فرز الإنذارات، تحليل المخاطر، واقتراح خطوات تصحيحية، مع بقاء القرار النهائي بيد الخبراء الأمنيين.

غير أن هذا لا يعني أن الذكاء الاصطناعي سيحل محل فرق الأمن السيبراني. فالمعطيات المتوفرة تشير إلى أن الدور الأقرب لهذه النماذج هو تعزيز قدرات المدافعين، لا إلغاء الحاجة إلى الحوكمة البشرية، الاختبار المستقل، مراجعة النتائج، والتأكد من عدم اعتماد الشركات على مخرجات آلية من دون تحقق.

تكشف خطوة OpenAI في أوروبا عن مرحلة جديدة في علاقة الذكاء الاصطناعي بالأمن السيبراني. فالشركة لا تقدم فقط نموذجاً أقوى، بل تحاول بناء إطار وصول موثوق يسمح للشركات والمؤسسات الحيوية بالاستفادة من قدرات متقدمة مع تقليل مخاطر سوء الاستخدام. وفي ظل تصاعد المنافسة مع Anthropic وتشدد الرقابة الأوروبية، تبدو هذه المبادرة اختباراً مبكراً لكيفية نشر نماذج قوية في مجال شديد الحساسية، حيث يمكن للتقنية أن تكون خط دفاع متقدماً أو مصدر خطر جديد إذا غابت الضوابط.


هذا المحتوى مقدم من جريدة أكادير24

إقرأ على الموقع الرسمي


المزيد من جريدة أكادير24

منذ 3 ساعات
منذ 39 دقيقة
منذ 11 ساعة
منذ 3 ساعات
منذ دقيقتين
منذ 5 ساعات
بلادنا 24 منذ 7 ساعات
جريدة أكادير24 منذ 7 ساعات
جريدة أكادير24 منذ 4 ساعات
آش نيوز منذ 7 ساعات
صحيفة الأسبوع الصحفي منذ 18 ساعة
هسبريس منذ 4 ساعات
هسبريس منذ 5 ساعات
Le12.ma منذ 7 ساعات