التحضير لقانون الذكاء الاصطناعي للاتحاد الأوروبي: التطبيق الصحيح للحوكمة

منظر بزاوية عالية لزميلات في العمل يتناقشن أمام كمبيوتر محمول أثناء جلوسهن على منضدة العمل في المكتب

يقود قانون الاتحاد الأوروبي للذكاء الاصطناعي مستويات جديدة من الرقابة البشرية والامتثال التنظيمي للذكاء الاصطناعي (AI) داخل الاتحاد الأوروبي. على غرار اللائحة العامة لحماية البيانات (GDPR) المعنية بالخصوصية، فإن قانون الذكاء الاصطناعي للاتحاد الأوروبي لديه القدرة على تحديد مسار لوائح الذكاء الاصطناعي القادمة في جميع أنحاء العالم.

في أوائل عام 2024، وافق البرلمان الأوروبي المكون من 27 دولة عضو بالإجماع على قانون الاتحاد الأوروبي للذكاء الاصطناعي. يشق القانون طريقه الآن عبر المراحل النهائية من العملية التشريعية ومن المتوقع أن يتم طرحه على مراحل في النصف الثاني من عام 2024. يعد فهم أحكام قانون الاتحاد الأوروبي للذكاء الاصطناعي والاستعداد للامتثال أمرًا ضروريًا لأي مؤسسة تقوم بتطوير أو نشر أو استخدام الذكاء الاصطناعي — أو تخطط لذلك.

يهدف قانون الذكاء الاصطناعي إلى "تعزيز مكانة أوروبا كمركز عالمي للتميز في مجال الذكاء الاصطناعي من المختبر إلى السوق، وضمان احترام الذكاء الاصطناعي في أوروبا للقيم والقواعد المحددة، وتسخير إمكانات الذكاء الاصطناعي للاستخدام الصناعي."

أخبار البرلمان الأوروبي

قانون الذكاء الاصطناعي للاتحاد الأوروبي بإيجاز

ينصب التركيز الأساسي لقانون الاتحاد الأوروبي للذكاء الاصطناعي على تعزيز الامتثال التنظيمي في مجالات إدارة المخاطر وحماية البيانات وأنظمة إدارة الجودة والشفافية والرقابة البشرية والدقة والمتانة والأمن السيبراني. يهدف إلى تعزيز الشفافية والمساءلة في كيفية تطوير أنظمة الذكاء الاصطناعي ونشرها، مما يساعد على ضمان أن منتجات الذكاء الاصطناعي المعروضة في السوق آمنة لاستخدام الأفراد.

يهدف قانون الاتحاد الأوروبي للذكاء الاصطناعي إلى مواجهة التحدي المتمثل في تطوير الذكاء الاصطناعي ونشره بشكل مسؤول عبر الصناعات بما في ذلك تلك الخاضعة للتنظيم الشديد مثل الرعاية الصحية والتمويل والطاقة. بالنسبة للصناعات التي تقدم خدمات أساسية للعملاء مثل التأمين والخدمات المصرفية والبيع بالتجزئة، يتطلب القانون استخدام تقييم تأثير الحقوق الأساسية الذي يوضح بالتفصيل كيفية تأثير استخدام الذكاء الاصطناعي على حقوق العملاء.

حجر الزاوية في قانون الذكاء الاصطناعي للاتحاد الأوروبي هو: ضمانات لمنع المخاطر غير المقبولة

يتطلب قانون الاتحاد الأوروبي للذكاء الاصطناعي أن تلتزم نماذج الذكاء الاصطناعي المخصصة للأغراض العامة، بما في ذلك أنظمة الذكاء الاصطناعي التوليدي مثل النماذج اللغوية الكبيرة (LLMs) ونماذج الأساس، بنظام تصنيف يعتمد على مستويات مخاطر منهجية.تتمتع مستويات المخاطر الأعلى بمزيد من متطلبات الشفافية بما في ذلك تقييم النموذج والتوثيق وإعداد التقارير.كما أنها تتضمن تقييم مخاطر النظام والتخفيف من حدتها، والإبلاغ عن الحوادث الخطيرة، وتوفير الحماية ضد أحداث الأمن الإلكتروني.بالإضافة إلى ذلك، تشمل متطلبات الشفافية هذه الحفاظ على وثائق فنية محدثة، وتقديم ملخص للمحتوى المستخدم في تدريب النموذج، والامتثال لقوانين حقوق النشر الأوروبية.

يتبع قانون الاتحاد الأوروبي للذكاء الاصطناعي نهجًا قائمًا على المخاطر، باستخدام مستويات لتصنيف مستوى المخاطر التي تشكلها أنظمة الذكاء الاصطناعي على صحة الفرد أو سلامته أو حقوقه الأساسية. المستويات الثلاثة هي:

  • الأنظمة منخفضة المخاطر مثل فلاتر الرسائل غير المرغوب فيها أو ألعاب الفيديو لها متطلبات قليلة بموجب القانون بخلاف التزامات الشفافية. 
  • أنظمة الذكاء الاصطناعي عالية الخطورة مثل المركبات ذاتية القيادة والأجهزة الطبية والبنية التحتية الحيوية (شبكات المياه والغاز والكهرباء وغيرها) تتطلب من المطورين والمستخدمين الالتزام بمتطلبات تنظيمية إضافية:
    • تنفيذ إدارة المخاطر، وتوفير الدقة والمتانة، وإطار عمل للمساءلة يتضمن رقابة بشرية
    • تلبية متطلبات الشفافية المنصوص عليها للمستخدمين، وحفظ السجلات، والتوثيق التقني
  • الأنظمة المحظورة مع استثناءات قليلة هي الأنظمة التي تشكل مخاطر غير مقبولة مثل التسجيل الاجتماعي، والتعرف على الوجه، والتعرف على المشاعر، وأنظمة تحديد الهوية البيومترية عن بُعد في الأماكن العامة.

يفرض قانون الاتحاد الأوروبي للذكاء الاصطناعي أيضًا قواعد حول طريقة إخطار العملاء عند استخدام روبوت المحادثة أو عند استخدام نظام التعرف على المشاعر الإنسانية. هناك متطلبات إضافية لتصنيف المنتجات فادحة التزييف وتحديد وقت استخدام محتوى الذكاء الاصطناعي التوليدي في الوسائط.

قد يكون عدم الامتثال لقانون الاتحاد الأوروبي للذكاء الاصطناعي مكلفًا:

7.5 مليون يورو أو 1.5% من إجمالي المبيعات السنوية للشركة في جميع أنحاء العالم (أيهما أعلى) في حالة تقديم معلومات غير صحيحة. 15 مليون يورو أو 3% من إجمالي المبيعات السنوية للشركة في جميع أنحاء العالم (أيهما أعلى) في حالة انتهاك التزامات قانون الاتحاد الأوروبي للذكاء الاصطناعي.

— VentureBeat

يُعد قانون الاتحاد الأوروبي للذكاء الاصطناعي حاليًا الإطار القانوني الأكثر شمولاً للوائح الذكاء الاصطناعي. تحيط الحكومات في جميع أنحاء العالم علمًا وتناقش بنشاط كيفية تنظيم تقنية الذكاء الاصطناعي لضمان حماية مواطنيها وشركاتها ووكالاتها الحكومية من المخاطر المحتملة. بالإضافة إلى ذلك، بدأت الأطراف المعنية بداية من مجالس إدارات الشركات وحتى المستهلكين في إعطاء الأولوية للثقة والشفافية والإنصاف والمساءلة عندما يتعلق الأمر بالذكاء الاصطناعي.

الاستعداد للوائح التنظيمية القادمة مع شركة IBM

يساعدك IBM watsonx.governance على تسريع مسارات عمل الذكاء الاصطناعي المسؤولة والشفافة والقابلة للشرح

™IBM watsonx.governance تسمح لك بتسريع تنفيذ حوكمة الذكاء الاصطناعي لديك، وتوجيه وإدارة ومراقبة أنشطة الذكاء الاصطناعي التي تقوم بها مؤسستك. وتستخدم أتمتة البرامج لتعزيز قدرتك على تخفيف المخاطر وإدارة متطلبات السياسات وحوكمة دورة حياة كل من الذكاء الاصطناعي التوليدي ونماذج التعلم الآلي (ML) التنبؤي.

تساعد منصة Watsonx.governance على تعزيز شفافية النموذج وقابلية الشرح والتوثيق في 3 مجالات رئيسية:

  • الامتثال المساعدة في إدارة شفافية الذكاء الاصطناعي وتلبية متطلبات الامتثال للسياسات والمعايير. يمكنك ربط البيانات بعناصر التحكم الرئيسية في المخاطر واستخدام صحائف الوقائع لأتمتة التقاط البيانات الوصفية للنموذج وإعداد التقارير بشأنها لدعم الاستفسارات وعمليات التدقيق.
  • إدارة المخاطر تعيين حدود المخاطر مسبقًا، مما يساعد على اكتشاف مخاطر نموذج الذكاء الاصطناعي وتخفيفها بشكل استباقي. يمكنك مراقبة الإنصاف والانحراف والتحيز والأداء مقابل مقاييس التقييم وحالات اللغة السامة ومن أجل حماية معلومات تحديد الهوية الشخصية (PII) . واحصل على رؤى حول المخاطر المؤسسية من خلال لوحات المعلومات والتقارير المستندة إلى المستخدم.
  • حوكمة دورة الحياة — المساعدة في إدارة كل من الذكاء الاصطناعي التوليدي ونماذج التعلّم الآلي التنبؤي عبر دورة الحياة باستخدام تدفقات العمل والموافقات المتكاملة، ومراقبة حالة حالات الاستخدام وطلبات التغيير قيد المعالجة والتحديات والمشكلات والمهام المعينة.

يتحمل العميل مسؤولية ضمان الامتثال للقوانين واللوائح السارية عليه. لا تقدم شركة IBM مشورة قانونية أو تتعهد أو تضمن أن خدماتها أو منتجاتها ستضمن امتثال العميل لأي قانون أو لائحة.

 

مؤلف

Heather Gentile

Director of Product, watsonx.governance Risk and Compliance

IBM