في لحظة يتسارع فيها سباق الذكاء الاصطناعي بين الولايات المتحدة وأوروبا، لم تعد بروكسيل تكتفي بمتابعة ما تعلنه الشركات الكبرى عن نماذجها الجديدة. المفوضية الأوروبية دخلت في محادثات مباشرة مع OpenAI وAnthropic، في خطوة تكشف أن تنظيم الذكاء الاصطناعي لم يعد مجرد نصوص قانونية، بل أصبح اختباراً عملياً لمدى استعداد الشركات لفتح جزء من أنظمتها أمام الرقابة والتقييم. وبين انفتاح OpenAI النسبي وحذر Anthropic، تظهر معركة جديدة حول الشفافية، السلامة، وحق السلطات في فهم ما يجري داخل النماذج الأكثر تأثيراً.
أكدت المفوضية الأوروبية، اليوم الاثنين، أنها تجري محادثات مستمرة مع شركتي OpenAI وAnthropic الأمريكيتين بشأن نماذج الذكاء الاصطناعي، في إطار متابعة أوروبية أوسع للتقنيات المتقدمة التي قد تكون لها آثار كبيرة على الأسواق والمجتمع والأمن الرقمي.
وقال المتحدث باسم المفوضية، توماس رينييه، إن OpenAI أبدت تفاعلاً استباقياً، بما في ذلك الاستعداد لمنح المفوضية وصولاً إلى نموذجها الجديد. واعتبرت بروكسيل هذا التوجه إيجابياً، لأنه يمنح السلطات الأوروبية قدرة أفضل على تقييم النموذج وفهم مخاطره المحتملة.
بحسب التصريحات المنقولة عن المفوضية، يظهر أن OpenAI اختارت نهجاً تعاونياً أكثر وضوحاً مع الجهات الأوروبية. فالشركة لا تنتظر فقط طلبات تنظيمية رسمية، بل تعرض، وفق المعطيات المتاحة، إمكانية إتاحة الوصول إلى نموذجها الجديد أمام المفوضية الأوروبية.
هذا التطور مهم لأن النماذج العامة القوية لم تعد أدوات تقنية محايدة فقط، بل أصبحت بنية أساسية في مجالات متعددة، من البحث والتعليم والبرمجة إلى الخدمات التجارية والإدارية. وكلما توسع استخدامها، زادت حاجة المنظمين إلى فهم طريقة عملها، ومستوى الأمان فيها، ومدى احترامها لقواعد الشفافية وحقوق الملكية الفكرية.
في المقابل، أوضحت المفوضية الأوروبية أنها عقدت أربع أو خمس اجتماعات مع Anthropic، لكن هذه المحادثات لم تصل بعد إلى مرحلة مناقشة الوصول المحتمل إلى نماذج الشركة. ووصف رينييه exchanges مع Anthropic بأنها جيدة، لكنه شدد على أن الوقت لا يزال مبكراً للتكهن بما إذا كان سيتم منح المفوضية وصولاً إلى النماذج أم لا.
ويأتي ذكر Anthropic في سياق اهتمام أوروبي خاص بالنماذج المتقدمة، خاصة تلك التي قد تكون لها قدرات حساسة في مجالات مثل الأمن السيبراني أو تحليل البرمجيات. لذلك، تبدو بروكسيل حريصة على بناء قنوات تواصل مبكرة مع الشركات المطورة، حتى قبل الوصول إلى قرارات تنظيمية نهائية.
تتحرك هذه المحادثات داخل إطار قانون الذكاء الاصطناعي الأوروبي، الذي أصبح يفرض التزامات على مزودي نماذج الذكاء الاصطناعي العامة. وتشمل هذه الالتزامات الشفافية، احترام قواعد حقوق المؤلف، وتقييم المخاطر النظامية بالنسبة إلى النماذج الأكثر تقدماً وتأثيراً.
كما نشرت المفوضية الأوروبية مدونة ممارسات خاصة بالنماذج العامة، تتضمن فصولاً حول الشفافية وحقوق النشر والسلامة والأمن. وتُعد هذه المدونة أداة طوعية تساعد الشركات على إثبات الامتثال للقانون، لكنها في الوقت نفسه تكشف أن أوروبا تريد تحويل الرقابة على الذكاء الاصطناعي إلى عملية مستمرة لا تقتصر على التصريحات العامة للشركات.
أهمية هذه المحادثات لا تقتصر على OpenAI وAnthropic فقط. فإذا أصبح الوصول التنظيمي إلى النماذج المتقدمة جزءاً من العلاقة بين بروكسيل وشركات الذكاء الاصطناعي، فقد ينعكس ذلك على طريقة تطوير النماذج، وإطلاقها في أوروبا، وتوثيق بيانات التدريب، وإدارة المخاطر قبل وصول المنتجات إلى ملايين المستخدمين.
بالنسبة إلى الشركات الأوروبية التي تعتمد على أدوات الذكاء الاصطناعي، قد تمنح هذه الخطوات قدراً أكبر من الثقة القانونية والتقنية. أما بالنسبة إلى المستخدمين، فقد تعني شفافية أفضل حول حدود النماذج، ومخاطر الأخطاء، وحماية البيانات، وطريقة التعامل مع المحتوى المحمي بحقوق النشر.
تواجه أوروبا معادلة صعبة: كيف تشجع الابتكار ولا تدفع شركات الذكاء الاصطناعي إلى إبطاء إطلاق منتجاتها، وفي الوقت نفسه كيف تمنع تحول النماذج القوية إلى أنظمة مغلقة يصعب تقييم مخاطرها؟ لذلك تبدو محادثات المفوضية مع OpenAI وAnthropic جزءاً من اختبار أكبر لقدرة الاتحاد الأوروبي على فرض قواعده دون قطع الجسور مع الشركات الرائدة عالمياً.
تكشف محادثات المفوضية الأوروبية مع OpenAI وAnthropic أن مرحلة الذكاء الاصطناعي الجديدة لن تُدار فقط عبر المنافسة التقنية، بل أيضاً عبر الشفافية التنظيمية. OpenAI تبدو أكثر استعداداً لمنح المفوضية وصولاً إلى نموذجها الجديد، بينما ما تزال محادثات Anthropic في مرحلة أولية. وبين الحالتين، ترسل بروكسيل رسالة واضحة: النماذج القوية التي تؤثر في حياة الناس والأسواق يجب أن تكون قابلة للفهم والتقييم، لا مجرد منتجات مغلقة تُفرض على العالم بعد إطلاقها.
هذا المحتوى مقدم من جريدة أكادير24
