شهدت جامعة القاهرة جلسة علمية هامة بعنوان “أخلاقيات الذكاء الاصطناعي والأطر التنظيمية”، وذلك في إطار فعاليات مؤتمر جامعة القاهرة للذكاء الاصطناعي. حضر الجلسة نخبة من الخبراء، الأكاديميين، والمستشارين القانونيين، بهدف مناقشة التحديات الأخلاقية والتنظيمية المتسارعة المرتبطة بتطور تقنيات الذكاء الاصطناعي وتطبيقاته.
تناولت الجلسة محورين أساسيين: تطور أخلاقيات الذكاء الاصطناعي، وسبل حوكمته في ضوء التحولات الاقتصادية والقانونية والاجتماعية. كما ناقشت الأطر القانونية المتعلقة بـ:
- المسؤولية عند وقوع ضرر ناجم عن استخدام النماذج.
- الاستخدام الأخلاقي للبيانات.
- متطلبات الشفافية والتفسير.
التوازن بين الابتكار وإدارة المخاطر
أكد المشاركون على الأهمية القصوى لتحقيق التوازن بين تشجيع الابتكار وإدارة المخاطر المحتملة، وذلك من خلال وضع سياسات وهياكل حوكمة فعالة وقابلة للتطبيق. كما ناقشوا آليات التقييم والاختبار والتدقيق الضرورية لضمان الأمان والامتثال للأنظمة المطورة.
توصيات عملية لدعم الابتكار المسؤول
اختتمت الجلسة بمجموعة من التوصيات العملية الشاملة التي تدعم تبنّي الابتكار المسؤول بما يتوافق مع الاحتياجات الإقليمية، ويسهم في تطوير بيئة تشريعية وأخلاقية تواكب التطور التكنولوجي العالمي.
أبرز التوصيات تضمنت ما يلي:
- نهج تقييم المخاطر والمتطلبات: تبنّي نهج قائم على تقييم المخاطر، وفرض متطلبات أشد صرامة للتطبيقات عالية المخاطر.
- المواءمة الدولية والمحلية: مواءمة الإطار التنظيمي مع المعايير الدولية مع مراعاة الخصوصيات الإقليمية.
- الشفافية والتوثيق: إلزام الجهات المطوِّرة ومُشغّلي النماذج بوثائق نموذجية موجزة.
- المسؤولية والعناية الواجبة: تحديد مسؤوليات واضحة على سلسلة القيمة، واعتماد مبدأ “العناية الواجبة الخوارزمية” وإثباتها عبر سجلات تدقيق وتقارير اختبار.
- تعويض المتضررين: وضع آلية تعويض فعّالة وسريعة للمتضررين من استخدام أنظمة الذكاء الاصطناعي.
- حماية البيانات والعدالة:
- تشجيع تقنيات تعزيز الخصوصية.
- اشتراط تقييمات أثر حماية البيانات قبل نشر الأنظمة عالية المخاطر.
- إجراء اختبارات دورية لرصد التحيز والتحقق من العدالة عبر الشرائح الديموغرافية ذات الصلة.
