طرحت الهيئة العامة للبيانات والذكاء الاصطناعي "سدايا"، مسودة "سياسة الذكاء الاصطناعي المسؤول"، والتي تحدد المبادئ والتوجهات والمتطلبات التنظيمية للتعامل مع تقنيات الذكاء الاصطناعي بمختلف أنواعها ومجالاتها وتطبيقاتها، بما يضمن حماية الأفراد والمجتمع وصون القيم الوطنية.
وتهدف السياسة، التي نشرتها الهيئة عبر منصة "استطلاع" لأخذ مرئيات العموم بشأنها تمهيداً لإقرارها، إلى تعزيز التوازن بين التبني والابتكار والاستخدام المسؤول، ورفع الجاهزية للتصدي للمخاطر الحرجة والعالية، وترسيخ وضوح الأدوار والمسؤوليات عبر دورة حياة الذكاء الاصطناعي، كما تدعم التبني والابتكار المسؤول لتعزيز الثقة في أنظمة الذكاء الاصطناعي.
مبادئ أخلاقيات الذكاء الاصطناعي
حددت "سدايا" سبعة مبادئ أساسية تشكل المرجعية الأخلاقية لتطوير وتشغيل واستخدام أنظمة الذكاء الاصطناعي داخل المملكة:
1- النزاهة والإنصاف
تشدد السياسة على ضرورة خلو الأنظمة من التحيز أو التمييز، وضمان العدالة في اتخاذ القرارات، مع الاعتماد على بيانات دقيقة ومتوازنة تحقق تكافؤ الفرص، ويجب أن تضمن أنظمة الذكاء الاصطناعي وجود خوارزميات مطورة بطريقة تجعل تكوينها خالياً من المغالطات والتحيز.
2- الخصوصية والأمن
تلتزم الجهات بحماية بيانات الأفراد ومنع الوصول غير المصرح به، مع تطبيق أعلى معايير الأمن السيبراني طوال دورة حياة البيانات.
3- الإنسانية
يجب أن يخدم الذكاء الاصطناعي الإنسان، ويحترم كرامته وحقوقه، وقيمه ومبادئه الإنسانية والثقافية، دون التسبب في أضرار جسدية أو نفسية أو اجتماعية.
4- المنافع الاجتماعية والبيئية
تركز على توظيف الذكاء الاصطناعي لتحقيق التنمية المستدامة وتعزيز جودة الحياة دون الإضرار بالمجتمع أو البيئة.
5- السلامة والموثوقية
تفرض السياسة تطوير أنظمة آمنة ومستقرة وقابلة للاختبار المستمر، مع اتخاذ تدابير استباقية لتجنب الأخطاء والمخاطر.
6- الشفافية والقابلية للتفسير
تدعو إلى توضيح أهداف الأنظمة وآلية عملها بشكل مناسب، وتمكين المستخدمين من فهم مخرجاتها دون الإخلال بالأسرار التقنية.
7- المساءلة والمسؤولية
تحمل جميع الأطراف مطورين ومشغلين ومستخدمين المسؤولية الكاملة عن نتائج الأنظمة، مع ضرورة وجود آليات رقابة ومعالجة للمخاطر.
حوافز لتطوير تقنيات الذكاء الاصطناعي
توازن السياسة بين دعم التبني والابتكار في مجال الذكاء الاصطناعي وتعزيز الاستخدام المسؤول والآمن، من خلال توفير بيئة تنظيمية ممكنة ومحفزة تسهم في تحفيز التطوير والاستثمار ورفع مستوى الثقة في أنظمة الذكاء الاصطناعي المستخدمة في المملكة، وذلك من خلال عدة حوافز ممكنة:
- تمكين التبني المسؤول للذكاء الاصطناعي في القطاع العام والخاص وغير الربحي؛ لرفع وتعظيم الإنتاجية والكفاءة التشغيلية وتحسين جودة المخرجات وتقليل الهدر والتكاليف التشغيلية.
- تعزيز البيئة التمكينية للابتكار في الذكاء الاصطناعي من خلال التركيز على تطوير منظومة متكاملة من الممكنات، مثل إتاحة البيانات الموثوقة وآلية تدريب الأنظمة عليها وتنمية الكفاءات والقدرات الوطنية وتوفير بنية تحتية رقمية داعمة.
- تسخير ممكنات التبني والابتكار المسؤول للذكاء الاصطناعي لتطوير مختلف القطاعات من خلال نشوء نماذج أعمال جديدة بما يعزز تنويع القاعدة الاقتصادية وفتح فرص استثمارية غير تقليدية.
- تعزيز السيادة في الذكاء الاصطناعي، من خلال تمكين الابتكار المحلي في تقنيات الذكاء الاصطناعي، بما يحدّ من الاعتماد على الأنظمة العابرة للحدود، ويرسخ الاستقلالية الرقمية.
- تطوير أطر تنظيمية تستند على ركائز هذه السياسة لتسهيل وتعزيز الاستثمار في تقنيات الذكاء الاصطناعي بما يحفز الابتكار والنمو المستدام للتقنية بهدف جلب الخبرات ودعم السوق المحلي.
- تمكين المشتريات الحكومية من أن تكون أداة تحفيز لدعم التبني والابتكار المسؤول في الذكاء الاصطناعي، من خلال تفضيل الحلول المتوافقة والممتثلة مع مبادئ أخلاقيات الذكاء الاصطناعي بما يعزز التعاقد مع التقنيات الموثوقة والآمنة.
- تقديم الجهات من القطاع الخاص التي تطور أو تشغل أو تنشر خدمات ومنتجات الذكاء الاصطناعي طلب تسجيل الشركة لدى الهيئة، ويتم منحها شهادة توثق تسجيلها وتجدد سنوياً.
- تتقدم الجهات في القطاع العام والخاص وغير الربحي بطلب الحصول على وسوم أخلاقيات الذكاء الاصطناعي لمنتجاتها، وتُمنح الوسوم وفق مستوى امتثال المنتج ونضج الممارسات المطبّقة ومستوى المخاطر المرتبطة به، ضمن خمس درجات متدرجة: (واعٍ، متبنٍ، ملتزم،.....
لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه
هذا المحتوى مقدم من أخبار 24
