نحو حوكمة للذكاء الاصطناعي تحقق التنوع والمساواة والشمول

مع توسع استخدام الذكاء الاصطناعي حول العالم، لا سيما الذكاء الاصطناعي التوليدي، تزداد مسؤولية ضمان الحفاظ على التنوع والمساواة والشمول في آثار هذه التقنية على البشر. يُقصد بالتنوع والمساواة والشمول DEI السياسات والبرامج التي تضمن التمثيل والمشاركة للمجموعات المتنوعة من البشر من مختلف الفئات العمرية والجنسية والعِرقية والدينية والثقافية وما إلى ذلك، وتعمل كبرى المؤسسات الدولية المعنية مثل اليونسكو والمنظمة الدولية للمعايير ISO والمعهد الوطني الأمريكي للمعايير والتقنية NIST على تعزيز هذه المفاهيم في مجال الذكاء الاصطناعي خصوصًا.

يتطلب ضمان تطبيق التنوع والمساواة والشمول إلى جانب مفهوم الذكاء الاصطناعي المسؤول RAI بذل المال وتنسيق الجهود داخل المؤسسات التي تستخدم الذكاء الاصطناعي، لكنه أمر يستحق الاستثمار. إليك بعض التدابير التي يمكن للمؤسسات تطبيقها لهذا الغرض:

  • تشكيل مجلس لمراجعة الذكاء الاصطناعي المسؤول يتضمن خبراء من خارج المؤسسة لضمان عدم الانحياز، ويعمل هذا المجلس بالتنسيق مع فرق العمل والجهات التنفيذية.
  • الحرص على التنوع في فرق الذكاء الاصطناعي والموظفين ذوي الصلة بهذا العمل من خلال تضمين وتمثيل مختلف الفئات.
  • دمج استراتيجيات متعلقة بالتنوع والمساواة والشمول والذكاء الاصطناعي المسؤول، بالإضافة إلى الممارسات البيئية والاجتماعية والحوكمة ESG، في الاستراتيجية العامة للمؤسسة، وذلك من خلال وضع تعريفات للانحياز وإرشادات لتجنبه وتبادل المعرفة فيما بين الأقسام المختلفة بالمؤسسة.
  • إعلاء أولوية تكامل البيانات من خلال تطبيق أفضل ممارسات إدارة البيانات في دورة نظام الذكاء الاصطناعي المُستخدم في المؤسسة.
  • الاهتمام بعمليات التقييم والتدقيق والاعتماد لنظام الذكاء الاصطناعي.
  • التخطيط لإحلال الذكاء الاصطناعي محل بعض الوظائف بحيث لا يؤثر بنسبة أكبر على المجموعات المهمشة في بيئة العمل.
  • التدريب الإلزامي للموظفين على التنوع والمساواة والشمول والذكاء الاصطناعي المسؤول.
  • إشراك أصحاب المصلحة في مناقشة سياسات استخدام المؤسسة للذكاء الاصطناعي.
  • إخطار المستخدمين/العملاء بأية تغييرات في استخدام المؤسسة للذكاء الاصطناعي لتقديم خدماتها، وتوفير قنوات يمكن من خلالها الإبلاغ عن أية أخطاء في نظام الذكاء الاصطناعي.
  • التعاون مع المجتمعات المصغرة والدوائر المتأثرة بنظام الذكاء الاصطناعي لوضع إجراءات الحد من مخاطر الانحياز ولتعزيز البحث العلمي في هذا الصدد.
  • المعرفة المستمرة بآخر التشريعات وأفضل الممارسات المتعلقة بالذكاء الاصطناعي المسؤول.

 

المصدر:

https://www.responsible.ai/post/towards-diverse-equitable-and-inclusive-ai-governance

Scroll to Top