هل صحيح أن أنظمة التعرف على الكلام متحيزة وعنصرية؟

متابعة-سنيار: تتميز أنظمة التعرف على الكلام التي طورتها شركات أمثال Amazon و Apple و Google و IBM و Microsoft بمعدلات أخطاء أعلى عند نسخ الكلام من السود أكثر مما هو عليه عند فعل ذلك للأشخاص البيض.

لذا تجد دراسة نشرت اليوم في “Proceedings of the National Academy of Science”، تشير إلى أن الانتشار المتزايد لهذه الأنظمة في الحياة المعاصرة يخاطر بتكريس شكل جديد من التمييز الرقمي ما لم يتم اتخاذ الإجراءات اللازمة.

كتب مؤلفو الدراسة “أنظمة التعرف الآلي على الكلام (ASR) تُستخدم الآن في مجموعة متنوعة من التطبيقات لتحويل اللغة المنطوقة إلى نص، من مساعدين افتراضيين، إلى شرح مغلق، إلى حوسبة بدون استخدام اليدين، وتشير نتائجنا إلى العقبات التي يواجهها الأمريكيون من أصل أفريقي في استخدام أدوات واسعة الانتشار مدفوعة بتقنية التعرف على الكلام.”

أجرى الباحثون 115 مقابلة مكتوبة بواسطة الإنسان – بما في ذلك محادثات مع 73 من المتحدثين السود و 42 من المتحدثين البيض – وقارنوها بالإصدارات التي تنتجها أدوات التعرف على الكلام لعملاق التكنولوجيا.

واكتشفوا أن “متوسط ​​معدل الخطأ في الكلمات” يبلغ ضعف (0.35) تقريبا عندما قام النظام بنسخ أصوات السود مقارنةً بنسخ أصوات البيض (0.19).

هذه ليست المرة الأولى التي نرى فيها دليلا على التحيز المضمن في التكنولوجيا المفترضة للغد، ففي ديسمبر من العام الماضي، أكدت دراسة اتحادية أن تقنية التعرف على الوجه هي فوضى متحيزة، وفي أكتوبر من عام 2017، رأينا أن أداة تحليل النصوص / المشاعر من Google أظهرت علامات رهاب المثلية والعنصرية ومعاداة السامية.

ومع وجود ربع من البالغين في الولايات المتحدة يدعون أن لديهم متحدثًا ذكيًا واحدًا على الأقل في منازلهم، فإن التحيز الذي كشفت عنه دراسة اليوم من المرجح أن يؤثر على عشرات الملايين (إن لم يكن أكثر) في الوقت الحالي.

ويتابع مؤلفو الدراسة: “مع تبني أنظمة التعرف على الكلام التي من المرجح أن تنمو بمرور الوقت، نأمل في أن تقدم شركات التكنولوجيا والمشاركون الآخرون في هذا المجال التطور العادل لهذه الأدوات المهمة”.

 

زر الذهاب إلى الأعلى