كشف تقرير ساخن: تعرف على أبرز جهود الوزراء الدولية في تنظيم الذكاء الاصطناعي

أقرّ مركز المعلومات ودعم اتخاذ القرار التابع لمكتب مجلس الوزراء بأن العالم يشهد حاليًا ثورة تكنولوجية غير مسبوقة بفضل الذكاء الاصطناعي، الذي بدأ يُحدث تأثيرًا عميقًا في مختلف مجالات الحياة والصناعات. وأضاف المركز أنه على الرغم من فوائده الكبيرة، إلا أن الذكاء الاصطناعي يثير مخاوف متزايدة بشأن المخاطر المحتملة على الوظائف وخصوصية البيانات والأمن.
في تحليلٍ يتناول المخاطر الرئيسية للانتشار الواسع لتقنيات الذكاء الاصطناعي، والجهود الدولية لتنظيمها وحماية المجتمع من آثارها السلبية، أشار مركز المعلومات إلى أنه في ظل النمو غير المسبوق الذي شهدته تقنيات الذكاء الاصطناعي مؤخرًا واندماجها المتزايد في حياتنا اليومية، أصبح من الضروري تقييم المخاطر والتحديات المحتملة للانتشار الواسع لتقنيات الذكاء الاصطناعي. يُشكل الذكاء الاصطناعي عددًا من المخاطر الجسيمة، بدءًا من فقدان الوظائف وصولًا إلى المخاوف المتعلقة بالأمن والخصوصية. كما يُمثل تنظيم الذكاء الاصطناعي تحديًا، لأنه، كغيره من التقنيات، ليس جيدًا ولا سيئًا في حد ذاته، بل يعتمد على استخدامه.
مخاطر الذكاء الاصطناعي
وسلط المركز الضوء على عدد من المخاطر المرتبطة بالذكاء الاصطناعي، بما في ذلك:
التحيز والتمييز الخوارزمي: تُرسّخ أنظمة الذكاء الاصطناعي التحيزات الاجتماعية أو تُعززها دون قصد، سواءً من خلال استخدام بيانات تدريب متحيزة أو تصميم خوارزمي غير ملائم. للحد من التمييز وضمان العدالة، من الضروري الاستثمار في تطوير خوارزميات خالية من التحيز ومجموعات بيانات تدريبية متنوعة.
حماية البيانات وأمنها: عادةً ما تجمع تقنيات الذكاء الاصطناعي كميات هائلة من البيانات الشخصية وتحللها، مما يثير تساؤلات حول حماية البيانات وأمنها. وتُعدّ اللوائح الصارمة لحماية البيانات وممارسات معالجة البيانات الآمنة أمرًا بالغ الأهمية للحد من مخاطر حماية البيانات.
القضايا الأخلاقية: تُمثل القضايا الأخلاقية المتعلقة بتعزيز القيم في أنظمة الذكاء الاصطناعي، وخاصةً في سياق القرارات ذات العواقب الوخيمة، تحديًا كبيرًا. في هذا السياق، يجب على الباحثين والمطورين إعطاء الأولوية للآثار الأخلاقية لتقنيات الذكاء الاصطناعي لتجنب الآثار السلبية على المجتمع.
المخاطر الأمنية: مع ازدياد تطور تقنيات الذكاء الاصطناعي، تتزايد المخاطر الأمنية المرتبطة باستخدامها وإساءة استخدامها المحتملة. يمكن للمخترقين والجهات الخبيثة استغلال قوة الذكاء الاصطناعي لشن هجمات إلكترونية أكثر تعقيدًا، والالتفاف على التدابير الأمنية، واستغلال الثغرات الأمنية في الأنظمة. كما يثير ظهور الأسلحة ذاتية التشغيل المدعومة بالذكاء الاصطناعي مخاوف بشأن المخاطر المرتبطة باستخدامها. للحد من هذه المخاطر الأمنية، يجب على الحكومات والمنظمات تطوير أفضل الممارسات لتطوير الذكاء الاصطناعي ونشره بشكل آمن، وتعزيز التعاون الدولي لوضع معايير ولوائح عالمية للحماية من التهديدات الأمنية المرتبطة بهذه التقنية.
التضليل والتلاعب: يُسهم المحتوى المُولّد بالذكاء الاصطناعي، مثل مقاطع الفيديو المُزيّفة (التزييف العميق)، التي تستخدم تقنية الذكاء الاصطناعي لإنشاء مقاطع فيديو أو مقاطع صوتية جديدة كليًا لتصوير أحداث لم تحدث في الواقع، في انتشار المعلومات الكاذبة والتلاعب بالرأي العام. لذلك، تُعدّ جهود كشف ومكافحة التضليل المُولّد بالذكاء الاصطناعي أمرًا بالغ الأهمية للحفاظ على سلامة المعلومات في العصر الرقمي.
خلص التحليل إلى أن حوكمة الذكاء الاصطناعي ضرورية ليس فقط لمواجهة التحديات والمخاطر، بل أيضًا لضمان الاستخدام العادل لإمكاناته دون إقصاء أو إهمال أي أحد. وفي هذا السياق، اتخذت بعض الدول خطوات لتنظيم استخدام الذكاء الاصطناعي.
وفي هذا السياق، ووفقاً لمؤشر الذكاء الاصطناعي لجامعة ستانفورد لعام 2023، أقرت الهيئات التشريعية في 127 دولة 37 قانوناً بشأن موضوع “الذكاء الاصطناعي”.
في نوفمبر 2021، اعتمدت جميع الدول الأعضاء في اليونسكو، البالغ عددها 193 دولة، اتفاقية تاريخية تُحدد القيم والمبادئ المشتركة لتطوير الذكاء الاصطناعي. تُشدد هذه الاتفاقية على حماية حقوق الإنسان، وحماية البيانات، وحظر أنظمة الذكاء الاصطناعي التي قد تُمسّ بكرامة الإنسان أو تُسهم في المراقبة الجماعية. كما تُدافع عن دور الذكاء الاصطناعي في مواجهة التحديات العالمية، مثل تغير المناخ والجوع، مع ضمان ألا تُفاقم التطورات التكنولوجية أوجه عدم المساواة القائمة. نستعرض أدناه تجارب بعض الدول في مجال تنظيم الذكاء الاصطناعي.
وأضاف التحليل أن الاتحاد الأوروبي، في إطار استراتيجيته الرقمية، سعى إلى تنظيم الذكاء الاصطناعي لتهيئة ظروف أفضل لتطوير هذه التقنية المبتكرة واستخدامها. وفي هذا السياق، اقترحت المفوضية الأوروبية في أبريل 2021 أول قانون للاتحاد الأوروبي بشأن الذكاء الاصطناعي، والذي يُرسي نظامًا لتصنيف الذكاء الاصطناعي قائمًا على المخاطر. وتتمثل أولوية البرلمان في ضمان أن تكون أنظمة الذكاء الاصطناعي المُستخدمة في الاتحاد الأوروبي آمنة وشفافة وخاضعة للمساءلة وغير تمييزية.
يصنف هذا القانون أنظمة الذكاء الاصطناعي إلى أربعة مستويات حسب درجة الخطورة:
المخاطر غير المقبولة، مثل حظر استخدام أنظمة التعريف البيومترية، مثل برامج التعرف على الوجه، في الأماكن العامة دون ترخيص، وحظر استخدام الذكاء الاصطناعي لتقييم أو التنبؤ بمخاطر الجرائم الفردية.
عالية المخاطر: تُصنَّف حالات استخدام الذكاء الاصطناعي التي قد تُشكِّل مخاطر جسيمة على الصحة والسلامة والحقوق الأساسية على أنها عالية المخاطر. وتشمل هذه الحالات حلول الذكاء الاصطناعي في المؤسسات التعليمية التي تُحدِّد مدى التحاق الشخص بالتعليم وتقدمه المهني (مثلاً، من خلال تسجيل نتائج الامتحانات)، بالإضافة إلى تطبيقات الذكاء الاصطناعي في إدارة العدالة والعمليات الديمقراطية، مثل استخدام الذكاء الاصطناعي في إعداد الأحكام القضائية.
– المخاطر المحدودة، مثل: الأنظمة التي تستخدم البيانات الشخصية دون ضمان الإفصاح أو الشفافية.
– المخاطر المنخفضة، مثل: التطبيقات التي تمكن من تحرير الصور والتلاعب بالوسائط الرقمية.
يوضح التحليل أنه لتسهيل الانتقال إلى الإطار القانوني الجديد، أطلقت المفوضية الأوروبية “ميثاق الذكاء الاصطناعي”. تهدف هذه المبادرة التطوعية إلى دعم التنفيذ المستقبلي. كما أنشأ البرلمان مجموعة عمل لمراقبة تطبيق قانون الذكاء الاصطناعي. ويسعى أعضاء البرلمان الأوروبي إلى ضمان مساهمة قواعد الذكاء الاصطناعي المعتمدة في تطوير القطاع الرقمي في أوروبا. وتعمل هذه المجموعة مع مكتب الذكاء الاصطناعي التابع للمفوضية الأوروبية، والذي أُنشئ لتوضيح الأحكام الرئيسية للقانون.
أكد التحليل أن قانون الذكاء الاصطناعي سيدخل حيز التنفيذ في أغسطس 2024، وسيُنفَّذ بالكامل بحلول أغسطس 2026. ومع ذلك، هناك بعض الاستثناءات: ستبدأ التزامات كفاءة الذكاء الاصطناعي في فبراير 2025، وستدخل قواعد الحوكمة والالتزامات الخاصة بنماذج الذكاء الاصطناعي العامة حيز التنفيذ في أغسطس 2025، وستتمتع قواعد أنظمة الذكاء الاصطناعي عالية المخاطر المدمجة في المنتجات الخاضعة للتنظيم بفترة انتقالية ممتدة حتى 2 أغسطس 2027.
أشار التحليل إلى أنه في عام ٢٠٢٣، قدّم مكتب سياسات العلوم والتكنولوجيا في البيت الأبيض “ميثاق حقوق الذكاء الاصطناعي”، ونشر المعهد الوطني للمعايير والتكنولوجيا “إطار عمل لإدارة مخاطر الذكاء الاصطناعي”. ولعلّ أهم خطوة في تنظيم الذكاء الاصطناعي كانت الأمر التنفيذي للرئيس الأمريكي السابق جو بايدن بشأن “التطوير والاستخدام الآمن والموثوق للذكاء الاصطناعي”. يتناول هذا الأمر ثمانية مجالات سياسية تهدف إلى ضمان “معايير جديدة لسلامة وأمن الذكاء الاصطناعي، وحماية خصوصية المواطنين الأمريكيين”، وتعزيز المساواة والحريات المدنية، وحماية حقوق المستهلكين والعمال، وتشجيع الابتكار والمنافسة، وغيرها من المواضيع.
وجد التحليل أن الصين تُسنّ باستمرار قوانين تُنظّم تقنيات الذكاء الاصطناعي منذ عام ٢٠٢١. في عام ٢٠٢٣، أصدرت الصين سلسلة من اللوائح الوطنية المختلفة التي تُركّز على المنصات الرقمية والمحتوى المُولّد بالذكاء الاصطناعي، مثل التزييف العميق. تهدف الحكومة الصينية إلى تعزيز الحماية من المخاطر المُحتملة العديدة للذكاء الاصطناعي. تُركّز هذه اللوائح على أربعة مجالات رئيسية: خصوصية البيانات، والشفافية، وإدارة المحتوى ووضع العلامات عليه، والأمن التقني. نظرًا لاتساع نطاقها، ستُحدث هذه الأحكام تغييرًا جذريًا في إنتاج المحتوى المُولّد بالذكاء الاصطناعي لـ ١.٤ مليار شخص. تُرسي اللوائح قواعد واضحة لكل مرحلة من مراحل استخدام التزييف العميق – من الإنشاء إلى وضع العلامات عليه وحتى التوزيع.
كشف التحليل أنه في مارس 2023، نشرت المملكة المتحدة وثيقةً تتضمن مقترحاتٍ لإطار تنظيمي للذكاء الاصطناعي يهدف إلى تعزيز الابتكار الآمن والمسؤول. وُضعت خمسة مبادئ للجهات التنظيمية: السلامة والأمن والموثوقية؛ والشفافية الملائمة وسهولة التفسير؛ والإنصاف؛ والمساءلة والحوكمة؛ والإنصاف. كما تضمنت الوثيقة مقترحاتٍ لإنشاء هيئة حكومية مركزية تتولى مهامًا مختلفة، مثل تقييم المخاطر والتنسيق التنظيمي، لدعم التكيف والممارسات المتسقة.
وأوضح مركز المعلومات أن عملية تنظيم الذكاء الاصطناعي تواجه العديد من التحديات الكبرى بسبب التطور السريع وتعقيد هذه التكنولوجيا.
ومن أهم هذه التحديات:
التطور التكنولوجي السريع: يُصعّب الوتيرة السريعة لابتكارات الذكاء الاصطناعي على الجهات الحكومية وضع إطار تنظيمي شامل. وبينما يسعى قانون الذكاء الاصطناعي في الاتحاد الأوروبي إلى معالجة هذه المشكلة من خلال تصنيفات مختلفة، فإن التطور السريع لتكنولوجيا الذكاء الاصطناعي قد يتجاوز اللوائح الحالية، مما يتطلب تكيفًا مستمرًا واستجابة سريعة.
تحقيق التوازن بين التنظيم والابتكار: قد يُعيق تنظيم تقنيات الذكاء الاصطناعي الابتكار ويحد من فرص النمو الاستكشافي. ويُمثل تحديد التدابير التنظيمية المناسبة التي تُعزز الابتكار أو تُعيقه تحديًا كبيرًا، وقد تكون له عواقب وخيمة.
خلص التحليل إلى أنه على الرغم من التقدم الكبير الذي يُحرزه الذكاء الاصطناعي في مختلف المجالات، إلا أنه لا يمكن تجاهل المخاطر المرتبطة به. من الضروري أن تتعاون الحكومات والمؤسسات الدولية لوضع أطر تنظيمية تُوازن بين الابتكار وحماية المجتمع من التحديات الأمنية والأخلاقية والاجتماعية، وأن تُزيد الوعي بهذه المخاطر، وأن تُطور استراتيجيات شاملة تُسهم في الاستخدام الآمن والمسؤول للذكاء الاصطناعي، مما يُعزز مستقبلًا تكنولوجيًا أكثر استدامةً وإنصافًا.