أوروبا تعد إطار تنظيمى لمجال الذكاء الاصطناعي عالميًا

أوروبا تعد إطار تنظيمى لمجال الذكاء الاصطناعي عالميًا

ahmed attia
2020-11-03T09:34:37+02:00
2020-11-13T22:24:34+02:00
اخبار التكنولوجيا
ahmed attia3 نوفمبر 2020

بدأت القارة الأوروبية إعداد إطار تنظيمي لاستخدام مجال الذكاء الاصطناعي على مستوي العالم وذلك على غرار الإطار الذى وضعته المفوضية الأوروبية لحماية البيانات.

وانتشر الفترة الأخيرة استخدام الذكاء الاصطناعي فى قطاعات مختلفة تجارية وصناعية وخدمية .

ومن المتوقع أن يزدهر عذا المجال خلال السنوات العشر المقبلة للاستفادة من المزايا المتوفرة به والتى تضم زيادة وسرعة الانتاج وخفض نسب الأخطاء البشرية بالاضافة الى مواكبة التطورات التكنولوجية السريعة فى العالم.

أهداف وضع إطار تنظيمي

من أبرز أهداف وضع الاطار التنظيمي العالمي لمجال الذكاء الاصطناعي تعزيز نهج محوره الإنسان للذكاء الاصطناعي. أى ضمان أن الذكاء الاصطناعى يخدم الأشخاص بشكل أساسى ويزيد من رفاهيتهم.

بالاضافة الى الاستفادة من سوق الأوروبية لنشر نهج الاتحاد الأوروبى فى تنظيم الذكاء الاصطناعى على مستوى العالم.

ومن المقرر أن تكون هناك متطلبات إلزامية للشركات التى تعمل فى القطاعات «عالية المخاطر» المذكورة وتستخدم تطبيقات الذكاء الاصطناعي.

وتتعلق هذه على وجه التحديد بـ «بيانات التدريب، ومعلومات حفظ السجلات التى سيتم توفيرها حول متانة ودقة تطبيق الذكاء الاصطناعي، والمتطلبات المحددة للإشراف البشرى للتعرف على الوجه».

فى المقابل، قد يكون لدى أولئك الذين يعملون فى القطاعات والتطبيقات منخفضة المخاطر خيار المشاركة فى مخطط طوعى لوضع العلامات للإشارة إلى أن منتجاتهم وخدماتهم التى تدعم الذكاء الاصطناعى جديرة بالثقة.

واكتسبت هذه الإرشادات بالفعل قوة دفع داخل الاتحاد الأوروبي، حيث أيدت 14 دولة عضوًا مؤخرًا ورقة موقف تدعو إلى مثل هذه الحيل للامتثال بالإضافة إلى نهج القانون غير الملزم (مثل التنظيم الذاتي) لتنظيم الذكاء الاصطناعى على نطاق أوسع.

حتى الآن، لا تزال مجالات الغموض فيما يتعلق بالتصنيفات المختلفة قائمة. على سبيل المثال، ستقوم المفوضية الأوروبية بتعيين المشغلين والتطبيقات على أنها إما عالية أو منخفضة المخاطر، وقد تتطور هذه التعيينات لتشمل القطاعات والتطبيقات التى لم يتم اعتبارها «عالية الخطورة» بعد، ولكنها هامشية للذكاء الاصطناعى عالى المخاطر.

لذلك من الحكمة أن تدخل القطاعات التى تعتمد بشكل كبير على الذكاء الاصطناعى فى الامتثال التنظيمى من تلقاء نفسها.

وأصبح من الواضح أن التطبيق الناشئ للذكاء الاصطناعى على عدد متزايد باستمرار من قرارات الحياة فى المجالات عالية المخاطر (مثل التوظيف والطب والتعليم) يجب ألا يُسمح له بإعادة إنتاج أو تعزيز أو توسيع الفوارق القائمة.

منتجات وحلول الذكاء الاصطناعي

توثيق نسب منتجات / خدمات وسلوكيات الذكاء الاصطناعى أثناء التشغيل.

ويجب أن تتضمن هذه الوثائق معلومات حول الأهداف أو الأغراض ومجموعات بيانات التدريب ونتائج اختبار السلامة والإنصاف وخصائص الأداء وسيناريوهات الاستخدام.

فى السنوات الأخيرة، أصبح هذا أولوية على مستوى الصناعة، وقد أنشأ معظم الممثلين الرئيسيين نماذج وثائقية قابلة للتطبيق.

علاوة على ذلك، يجب مراقبة سلوكيات أنظمة الذكاء الاصطناعى بنشاط أثناء التشغيل.

هنا، يجب على الشركات أن تلجأ إلى مجموعة الأدبيات المتزايدة حول الأدوات المختلفة المتاحة للمساعدة فى فهم وتفسير التنبؤات التى قدمتها نماذج التعلم الآلي.

تطوير تفسير داخلى لمتطلبات الورقة البيضاء المقترحة للمفوضية الأوروبية: من غير المحتمل أن يشرح الإطار التنظيمى المعتمد بشكل كامل كيفية وضع المتطلبات موضع التنفيذ، لأن هذه المتطلبات ستختلف بشكل كبير اعتمادًا على سياق الاستخدام المحدد.

تقييم مدى امتثال منتجات أو خدمات الذكاء الاصطناعى لمتطلبات الورقة البيضاء المقترحة من المفوضية الأوروبية حيث يجب على فريق مستقل متعدد الوظائف، يتألف من مسؤولى المخاطر والامتثال ومديرى المنتجات وعلماء البيانات، إجراء تدقيق داخلى لتقييم الامتثال للمفوضية الأوروبية المتطلبات المستندة إلى التفسير الداخلى المحدد لمتطلبات المفوضية الأوروبية.

رابط مختصر

اترك تعليق

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *


شروط التعليق :

عدم الإساءة للكاتب أو للأشخاص أو للمقدسات أو مهاجمة الأديان أو الذات الالهية. والابتعاد عن التحريض الطائفي والعنصري والشتائم.