لقد سمع معظمنا قصصًا مرعبة عن «الخوارزميات المتحيزة» - من تلك التي ترفض المرشحين بأسماء أجنبية إلى الذكاء الاصطناعي للجريمة التنبؤية التي تربط الأقليات بمستويات أعلى من الجريمة بشكل غير متناسب. من أجل منع استمرار هذا في المستقبل، من الضروري أن يكتشف الباحثون مثل هذه التحيزات في وقت مبكر. أطلقت جامعة ستانفورد مؤخرًا The Ethics and Society Review (ESR) والتي تتطلب من الباحثين الذين يبحثون عن تمويل من معهد ستانفورد للذكاء الاصطناعي المرتكز على الإنسان تقديم نماذج حيث يجب عليهم إدراج أي عواقب سلبية محتملة قد تكون لمقترحاتهم على المجتمع. من خلال القيام بذلك، تأمل ESR في اكتشاف التحيز مبكرًا في المراحل الأولى من التطوير عندما يكون من السهل إصلاحه. في حين حققت هذه العملية حتى الآن نجاحًا وأظهرت إمكانات، تستمر الحاجة إلى إدارة مخاطر الذكاء الاصطناعي في النمو على نطاق عالمي.
النقص الحالي في إدارة المخاطر
لا يزال الذكاء الاصطناعي مفهومًا جديدًا نسبيًا وليس ضمن نطاق ما تنظر فيه العمليات المؤسسية مثل مجلس المراجعة المؤسسية في مراجعة ما قد يكون ضارًا بالمجتمع. في الوقت الحالي، تتمثل بعض أكبر المخاطر المتعلقة بالذكاء الاصطناعي في التمييز وانتهاك الخصوصية والتنفيذ غير الصحيح. إذا حدث خطأ ما في الذكاء الاصطناعي، فإن الشركات مسؤولة عن جميع التداعيات التي تشمل أيضًا الإضرار بالسمعة وفقدان الأموال. نظرًا لكون الذكاء الاصطناعي في مراحله الأولى، لا تنظر الشركات غالبًا في النطاق الكامل للضرر المجتمعي مما يؤدي إلى المبالغة في تقدير مدى قدرتها على تخفيف المخاطر. ونتيجة لذلك، من الضروري بناء البصيرة المناسبة حول كيفية تأثير المنتجات على المجتمع.
المضي قدمًا
للتخفيف من المخاطر المحتملة، من الضروري نشر ضوابط على مستوى الشركة تتضمن إجراءات محدثة وإعادة تدريب جميع العمال الذين يتفاعلون مع الذكاء الاصطناعي. على سبيل المثال، يتم تدريب موظفي Omneky على كيفية ومكان استخدام الذكاء الاصطناعي بالإضافة إلى التعرف على كيفية أخذ الشركة زمام المبادرة للحد من الأضرار المحتملة.
تتطلب الضوابط على مستوى الشركة تنفيذ المبادئ التوجيهية بدءًا من التطوير الأولي وصولاً إلى الإنتاج النهائي. في المراحل المبكرة، من المهم أن تدمج الشركات حلقات التغذية الراجعة في دورة التطوير بالإضافة إلى التقارير الشفافة والصادقة عن تقدم أداء المنتج.
لتقليل أشياء مثل التمييز أو التعليقات المهينة المستفادة من الإنترنت والتي تعد مشكلة شائعة مع GPT-3، يجب على الشركات دمج الاختبار خارج العينة والاختبار الرجعي وتقييم المنتج بانتظام للعثور على أي تدهور في البيانات. لمنع المشكلات التي سبق ذكرها مثل الذكاء الاصطناعي للجريمة التنبؤية المتحيزة، يجب مراجعة نتائج النموذج بشكل مستقل وإزالتها لتكون خالية من التحيز. لتجنب مشاكل التنفيذ، من الضروري إجراء اختبار مفصل للنموذج والالتزام بالمتطلبات الصارمة التي تأخذ في الاعتبار جميع السيناريوهات المحتملة حيث يمكن استخدام المنتج. أخيرًا، تتطلب الخطوة الأخيرة التي تأخذ في الاعتبار استخدام النموذج واتخاذ القرار، وضع خطط لكيفية التخفيف من العواقب إذا حدثت في نهاية المطاف بالإضافة إلى مراقبة أداء النموذج.
تقدر Omneky بشدة أهمية أخذ هذه الاقتراحات على محمل الجد وتعمل بقوة لتنفيذها.