علوم وتكنولوجيا

أوروبا تُقر أول اتفاقية دولية في الذكاء الاصطناعي

في خطوة تاريخية، اعتمد مجلس أوروبا اليوم أول اتفاقية دولية ملزمة قانونًا تهدف إلى ضمان استخدام أنظمة الذكاء الاصطناعي بما يتماشى مع حقوق الإنسان وسيادة القانون والمعايير الديمقراطية.

تمثل “اتفاقية إطار مجلس أوروبا بشأن الذكاء الاصطناعي وحقوق الإنسان والديمقراطية وسيادة القانون” معيارًا قانونيًا عالميًا رائدًا ينظم دورة حياة أنظمة الذكاء الاصطناعي بالكامل، من التصميم والتطوير إلى الاستخدام والتوقف عن التشغيل، مع التركيز على معالجة المخاطر المحتملة وتعزيز الابتكار المسؤول.

تتبنى الاتفاقية نهجًا قائمًا على المخاطر، حيث تُلزم الدول الأعضاء بتقييم التأثيرات المحتملة لأنظمة الذكاء الاصطناعي بعناية قبل نشرها، وتغطي الاتفاقية استخدام الذكاء الاصطناعي في كل من القطاعين العام والخاص، مع منح الدول خيارات مرنة للامتثال لمبادئها، بما في ذلك اتخاذ تدابير مباشرة أو اعتماد تدابير تنظيمية تتوافق مع التزاماتها الدولية.

حيث تُحدد الاتفاقية متطلبات صارمة للشفافية والإشراف، بما في ذلك ضمان إمكانية تمييز المحتوى الذي ينتجه الذكاء الاصطناعي، كما تُلزم الدول بوضع آليات لتحديد وتقييم ومنع وتخفيف المخاطر المحتملة، مع اتخاذ خطوات مناسبة مثل وقف أو حظر أنظمة الذكاء الاصطناعي التي تُشكل تهديدًا لحقوق الإنسان.

وتُشدد الاتفاقية على المساءلة والمسؤولية، وتُطالب الدول بضمان احترام أنظمة الذكاء الاصطناعي للمساواة بين الجنسين، وحظر التمييز، وحقوق الخصوصية، كما تُلزم الاتفاقية الدول بضمان توفر سبل انتصاف قانونية فعالة لضحايا انتهاكات حقوق الإنسان المرتبطة بالذكاء الاصطناعي.

وعلى صعيد المخاطر التي تهدد الديمقراطية، تُلزم الاتفاقية الدول بمنع استخدام الذكاء الاصطناعي لتقويض المؤسسات والعمليات الديمقراطية، بما في ذلك مبدأ الفصل بين السلطات واستقلال القضاء والوصول إلى العدالة.

مع ذلك، تُعفي الاتفاقية الدول من تطبيق أحكامها على الأنشطة المتعلقة بحماية مصالح الأمن القومي، شريطة أن تتوافق هذه الأنشطة مع القانون الدولي والمؤسسات الديمقراطية، بحيث لا تُطبق الاتفاقية على شؤون الدفاع الوطني أو أنشطة البحث والتطوير، إلا في الحالات التي قد تؤثر فيها اختبارات أنظمة الذكاء الاصطناعي على حقوق الإنسان أو الديمقراطية أو سيادة القانون.

ولضمان التنفيذ الفعال، تُنشئ الاتفاقية آلية للمتابعة من خلال “مؤتمر الأطراف”. وتُلزم الدول أيضًا بإنشاء هيئات مستقلة للإشراف على الامتثال، وتعزيز الوعي، وتحفيز الحوار العام حول استخدام الذكاء الاصطناعي، وإجراء مشاورات بين أصحاب المصلحة المتعددين.

الجدير بالذكر أن الاتفاقية ستُفتح للتوقيع في فيلنيوس (ليتوانيا) في 5 سبتمبر خلال مؤتمر وزراء العدل.

وتُمثل هذه الاتفاقية خطوة هائلة نحو ضمان استخدام الذكاء الاصطناعي لصالح الجميع، وتعزيز القيم الأوروبية الأساسية لحقوق الإنسان والديمقراطية وسيادة القانون.

المصدر: مواقع الكترونية.

مقالات ذات صلة

زر الذهاب إلى الأعلى