تسخير الذكاء الاصطناعي في الأنظمة القانونية
المساس بالحق في الخصوصية أحد إشكاليات أنظمة الذكاء الاصطناعي

الدوحة – محروس رسلان:
أكَّدَ سعادةُ السيّد مسعود بن محمد العامري، وزير العدل، سعيَ دولة قطر بخُطًى حثيثةٍ نحوَ تسخير أنظمة الذكاء الاصطناعي والاستفادة منها في أنظمتِها العدلية والقانونية. وقالَ سعادتُه، في كلمة خلال افتتاح أعمال مؤتمر القانون والذكاء الاصطناعي أمسِ بجامعة لوسيل: «إنَّ من أولَى الخطوات التي اتخذتها دولةُ قطر في هذا الميدان قرارَ مجلس الوزراء رقْم (10) لسنة 2021 بإنشاء لجنة الذكاء الاصطناعي بوزارة المواصلات والاتصالات»، لافتًا إلى أنَّ اللجنة تختصُّ بوضع آليات تنفذ استراتيجية قطر للذكاء الاصطناعي بالتنسيق مع الوزارات والجهات المعنية في الدولة، والإشراف على البرامج والمُبادرات المُتعلقة بها، ووضع التوصيات الخاصة بخطط وبرامج إعداد الكوادر البشرية، ودعم الشركات الناشئة في هذا المجال.
كما لفتَ إلى مُشاركةِ دولة قطر في العديد من الفعاليات الدوليَّة حول استخدام أنظمة الذكاء الاصطناعي، كان آخرها المؤتمر العدلي الدولي المُنعقد بمدينة الرياض في مارس الماضي، الذي تناول في بعض محاوره توظيف أدوات الذكاء الاصطناعي في تعزيز جودة صياغة التشريعات، وتحسين العدالة، وإدارة المحاكم، وأثر ذلك على مُستقبل التقنيات القضائية، مُنوهًا بتنظيم هذا المؤتمر العلمي والقانوني الهام في رحاب جامعة لوسيل لمُناقشة أحد أهم موضوعات العصر الحديث وأسرعها نموًا وتأثيرًا على حياة الإنسان وحقوقه وحُرياته وهو الذكاء الاصطناعي.
وتطرَّق سعادةُ وزير العدل إلى البدايات التاريخية للذكاء الاصطناعي ومفهومه وطبيعة تأثيره على الكثير من الجوانب الحياتية للإنسان، «حيث يمكن للآلات التعلم وتطوير أنظمتها، بعيدًا عن تدخل الإنسان أو تحكّمه، بغرض أداء المهام التي تتطلب عادة الذكاءَ البشري، مثل التعرّف على الأنماط واتخاذ القرارات والحكم مثل البشر وغيرها من المهام التي تحتاجُ إلى مُعالجة كَميات كبيرة من البيانات بطرق مُختلفة، يتجاوز نطاقها ما يمكن للبشر تحليلُه».
التحيز الخوارزمي أهم إشكاليات الذكاء الاصطناعي
قالَ سعادةُ السيَّد مسعود بن محمد العامري، وزير العدل: إنَّ الذكاءَ الاصطناعيَّ خطا في السنوات الأخيرة خطواتٍ كبيرةً، حيث تمَّ استخدامُه في العديدِ من القطاعات الحيوية كالتشخيص الطبي، والخِدمات اللوجستية العسكرية، والمركبات ذاتية القيادة والطائرات بدون طيار، والتطبيقات التي تتنبأ بنتيجة القرارات القضائيّة، ومُحرّكات البحث والإعلانات المُستهدفة عبر وسائل التواصل الاجتماعي، والمُساعدين الافتراضيين (مثل سيري أو أليكسا)، والترجمة الآلية للغات، والتعرّف على الوجه من الهاتف المحمول، إلى غير ذلك من الاستخدامات.
ونبَّه إلى المخاطر التي يمكن أن تؤثر على حياة الإنسان جرّاء استخدام أنظمة الذكاء الاصطناعي، حيث قال: «بالرغم من الفوائد العديدة لهذه الأنظمة، إلا أنَّ استخدامها يحفّه العديد من المخاطر التي يمكن أن تؤثرَ وبشكل مُباشر على حياة الإنسان وحقوقه وحرياته»، لافتًا إلى أن «بعض المؤسسات البحثية والعلمية أوصت بأنّ يتم إثبات خلو أنظمة الذكاء الاصطناعي والروبوتات من الأخطاء، فهي غير آمنة ويجب الحدّ من استخدامها».
كما نوَّه سعادتُه إلى أهم الإشكاليات التي يُثيرها استخدام أنظمة الذكاء الاصطناعي، ومنها «التحيز الخوارزمي وعدم الحياد»، حيث تقوم أنظمة الذكاء الاصطناعي على جمع البيانات وتحليلها والتعلم منها، فإذا كانت البيانات مُتحيزةً وغير مُحايدة ستكون المُخرجات مُتحيزة، وإذا كانت البيانات عادلةً تُغطي كافة الأنماط ستكون المُخرجات عادلة، لافتًا إلى أنَّ التحيز الخوارزمي قد يقع في التصنيف الائتماني، وفحص السيرة الذاتية، والتوظيف، وطلبات الإسكان العام، وغير ذلك من الأمور التي تتطلب حيادية في مُعالجتها، حيث قال في هذا السياق: «إنَّ المساس بالحق في الخصوصية وحماية البيانات الشخصية وحقوق الملكية الفكرية واحدة من الإشكاليات التي تُثيرُها أنظمة الذكاء الاصطناعي».
انتهاك أنظمة الذكاء الاصطناعي حقوق الملكية الفكرية
أوضحَ سعادةُ وزير العدل أنَّ جمع البيانات الشخصية بأنظمة الذكاء الاصطناعي واستخدامِها ومُشاركتها دون إذن أو موافقة صريحة قد يصطدم مع الحماية المُقرَّرة لهذه البيانات، ما قد يُشكّل انتهاكًا جسيمًا لأحكام القانون، ومن ذلك، انتهاك أنظمة الذكاء الاصطناعيّ حقوق الملكية الفكرية بشكل كبير، مُعتبرًا أنَّ انعدام الشفافية يُشكل هو الآخر واحدًا من الإشكاليات المُتعلقة باستخدام أنظمة الذكاء الاصطناعي، «فمُعظم تطبيقات الذكاء الاصطناعي الحديثة لا يمكنها تفسير كيفية توصلها إلى قرار»، ومُبينًا أنّ الكَمّ الكبير من العَلاقات بين المُدخلات والمُخرجات في أنظمة الذكاء الاصطناعي والتعقيد الناتج عنها يجعل من الصعب حتى على الخبراء أن يشرحوا كيفية إنتاج مُخرجاتها، وعندئذ لا يمكن للأشخاص الذين تضرروا من قرار الخوارزمية الحصول على تفسير للقرار، أو الطعن عليه أو التظلم منه، لعدم وجود الأسباب التي قام عليها.
وعن المخاطر الأمنية، قالَ سعادة وزير العدل: إنَّ خطورة أنظمة الذكاء الاصطناعي تكمن في أنها قد تستخدم لأغراض غير قانونية وغير مشروعة، مثل الحرب الرقْميّة المُتقدمة والأسلحة الذكية، الأمر الذي قد يُهدّد السلم والأمن الدوليين.