القائمة الرئيسية

الصفحات



المصدر: LeoWolfert


في السنوات الأخيرة ، تم اعتماد الذكاء الاصطناعي وتطبيقه بشكل متزايد على كل شيء بدءًا من تقييم الجمال وحتى تقييم مخاطر النكوص. وبذلك ، أيدت المعايير التي تدعم التحيز والتمييز في العديد من الحالات.

تقدم التكنولوجيا لديه القدرة على إضفاء الطابع الديمقراطي حق الوصول إلى المعلومات والفرص. ومع ذلك ، عندما يتم استخدامه في بعض الحالات بطرق تعزز فكرة أن بعض الناس في مجتمعنا متساوون أكثر من غيرهم.

هذا ما رأيناه من الحالات السبعة التالية التي الذكاء الاصطناعي يستخدم (AI) عمدا لاستبعاد فئات معينة أو في التي هي تعكس ببساطة التحيز جزءا لا يتجزأ من قبل البشري المبرمجين مع وجود تأثير تمييزي.
الذكاء الاصطناعي والتحيز للجمال

قد يكون الجمال في عين الناظر ، ولكن عندما تتمكن هذه النظرة الشخصية من برمجة الذكاء الاصطناعى ، يكون لديك تحيز في البرنامج. تحدثت راشيل توماس عن إحدى هذه الحلقات في مسابقة للجمال من beauty.ai في عام 2016. وأظهرت النتائج أن بشرة فاتحة كانت أكثر جاذبية من تلك الداكنة.


التكنولوجيا تتحرك بسرعة! البقاء في المقدمة 

انضم إلينا لتحصل على رؤى تقنية قابلة للتنفيذ أدخل بريدك الإلكتروني هنا لتشترك معنا ويصلك آخر وأهم الموضوعات على بريدك أولا بأول





في العام التالي ، "FaceApp ، الذي يستخدم الشبكات العصبية لإنشاء مرشحات للصور الفوتوغرافية ، أنشأ" مرشح للسخونة "يخفف من بشرة الناس ويمنحهم المزيد من الميزات الأوروبية".
التحيز بين الجنسين في اللغات

يستشهد توماس أيضًا بمثال موثق للترجمات التي تحمل توقعات نمطية للمهن. نقطة البداية هي جملتين: "إنها طبيبة. إنها ممرضة".
إذا قمت بترجمتها إلى العربيه والعودة إلى اللغة الإنجليزية ، فستحصل على نوع النتائج التي قد تتوقعها من  الهاتف.
بدلاً من الحصول على ما بدأت به ، ستحصل على نوع من التوقع في الخمسينيات ، "إنه طبيب. إنها ممرضة." وتوضح أن هذا بسبب الضمير المفرد المحايد من حيث الجنس في اللغة العربية والذي سوف يعين الجنس على أساس التوقعات والتحيزات النمطية.

في حين أن التحيزات العنصرية والجنسانية التي تتحول إلى الصور واللغة هي سبب للقلق ، فهي ليست نفس الشيء تمامًا مثل التمييز النشط الناتج عن الذكاء الاصطناعي ، ولكن هذا قد حدث أيضًا.
التمييز الناتج عن استهداف الإعلانات على Facebook

أعلن " Facebook يتيح للمعلنين استبعاد المستخدمين من خلال Race " عنوانًا رئيسيًا لشركة ProPublica في عام 2016. وقد نظر في الطريقة التي تعمل بها الإعلانات على الشبكة الاجتماعية إلى امتداد "عصر Jim Crow" في توجيه الإعلانات إلى الأشخاص البيض فقط.

1. التمييز العنصري في السكن

كان دليله عبارة عن لقطة شاشة للقيود المفروضة على إعلان Facebook ضمن فئة الإسكان الخاصة به والتي سمحت بخيار تضييق نطاق الجمهور عن طريق التحقق من استثناءات فئات مثل الأمريكيين من أصل أفريقي أو من أصل آسيوي أو من أصل إسباني. يمكن مشاهدة الإعلان هنا.
كما يشير ProPublica ، فإن التأثير التمييزي لهذه الإعلانات غير قانوني بموجب قانون الإسكان العادل لعام 1968 وقانون الحقوق المدنية لعام 1964 . كان دفاع Facebook الوحيد في هذه الحالة هو أن الإعلان لم يكن مخصصًا للسكن نفسه ، لأنه لم يكن يتعلق بملكية أو منزل للبيع أو الإيجار.
ومع ذلك ، كانت هناك حالات أخرى من الاستهداف تشير إلى التحيز العنصري والتي دفعت مختلف الكيانات إلى رفع دعاوى مدنية ضد الشبكة الاجتماعية. كما ذكرت Wired ، قرر Facebook أخيرًا تعديل تقنية استهداف الإعلانات نتيجة لتسوية خمس قضايا قانونية اتهمته بتمكين التمييز ضد الأقليات من خلال الإعلانات في مارس 2019.
في تقريره عن التسوية ، أشار اتحاد الحريات المدنية الأمريكي إلى مدى خبث هذه الإعلانات المستهدفة ، حيث قد لا تدرك الأقليات والنساء أنهن لا يحصلن على نفس فرص الوصول إلى المعلومات والسكن وفرص العمل التي يتم تقاسمها مع الرجال البيض.
نظرًا لأن المزيد من الأشخاص يلجأون إلى الإنترنت للعثور على وظائف وشقق وقروض ، فهناك خطر حقيقي من أن يؤدي استهداف الإعلانات إلى تكرار التحيزات العنصرية والجنسانية القائمة في المجتمع أو حتى تفاقمها . تخيل لو اختار صاحب العمل عرض الإعلانات عن الوظائف الهندسية للرجال فقط - ولن يرى المستخدمون الذين لم يتم تحديد هويتهم أن الرجال لم يروا تلك الإعلانات أبدًا ، بل لن يعرفوا أبدًا ما فاتهم.
بعد كل شيء ، نادراً ما يكون لدينا طريقة لتحديد الإعلانات التي لا نراها على الإنترنت. أن هذا التمييز غير مرئي بالنسبة للمستخدم المستبعد يجعل من الصعب للغاية إيقافه.
2. التمييز بين الجنسين والعمر في الوظائف

كان من بين القضايا القانونية التمييز غير القانوني في السكن الذي سمح باستهداف موقع Facebook. في تقريرها بشأن تسوية الفيسبوك ، قال ProPublica أنها اختبار منصة ونجح في شراء "الإعلانات المتعلقة بالإسكان في الفيسبوك التي استبعدت جماعات مثل الأميركيين الأفارقة و اليهود ، وأنها وجدت سابقا إعلانات الوظائف باستثناء المستخدمين عن طريق سن و جنس وضعها من قبل الشركات التي هي أسماء الأسر. "
هناك عدد من إعلانات الوظائف التي وجدها اتحاد الحريات المدنية الأمريكي والتي كانت تستهدف صراحة الرجال فقط في فئة عمرية معينة ، حيث يمكن للمستخدمين العثور على النقر فوق إجابة لماذا أظهروا أن إعلانًا معينًا ، تم عرضهم في مقال سلكي آخر . قام اتحاد الحريات المدنية الأمريكي بتهمة لجنة تكافؤ فرص العمل ضد الشبكة الاجتماعية والشركات التي وضعت الإعلانات على أساس أنها تنتهك كل من قوانين العمل والحقوق المدنية.
ينتهك التمييز ضد توظيف الأشخاص الذين تزيد أعمارهم عن 40 عامًا القانون الفيدرالي للتمييز في العمر في التوظيف . ولكن استهداف إعلانات الوظائف فقط للأشخاص الذين تقل أعمارهم عن هذا العمر هو أحد الأشياء التي يتم تمكينها بواسطة نظام Facebook
.
فشل التعرف على الوجه


أعلنت "مقالة في صحيفة نيويورك تايمز" نُشرت في فبراير 2018 بعنوان " التعرف على الوجه دقيق ، إذا كنت  أبيض" . واستشهد بالنتائج التي توصلت إلى وجود علاقة واضحة بين لون البشرة والتعرف الخاطئ:
"كلما زاد لون البشرة الداكنة ، زادت الأخطاء - ما يصل إلى 35٪ تقريبًا لصور النساء ذوات البشرة الداكنة ، وفقًا لدراسة جديدة تفتح آفاقًا جديدة عن طريق قياس كيفية عمل التكنولوجيا على الأشخاص من مختلف الأعراق والجنس."
تُنسب هذه النتائج إلى Joy Buolamwini ، الباحث في MIT Media Lab ، ومؤسس رابطة العدالة الخوارزمية (AJL) . مجال بحثها هو التحيزات التي تشكل أساس الذكاء الاصطناعى ، مما يؤدي إلى مثل هذه النتائج المنحرفة عندما يتعلق الأمر بالتعرف على الوجوه التي لا تتناسب مع معايير الذكور البيض المحددة للنموذج.
في 25 يناير، نشرت 2019 Buolamnwini و آخر متوسط التي لفتت في أبحاثها الخاصة والتي من الباحثين إضافي الذين يشيرون إلى كيفية AI العيوب تسببه في حدوث أخطاء في Rekognition الأمازون وطالبت الشركة التوقف عن بيع خدمة AI إلى أقسام الشرطة.
في حين أن Rekognition يمكن أن يتباهى بدقة 100 ٪ للتعرف على الذكور ذوي البشرة الفاتحة والدقة 98.7 ٪ حتى بالنسبة  لداكنات ، عندما يتعلق الأمر بالإناث ، انخفضت الدقة إلى 92.9 ٪ للإناث الأخف وزنا. كان التباين الأكثر حدة هو الانخفاض الحاد في دقة 68.6٪ للإناث الأكثر قتامة.
لكن الأمازون رفض التوبة. و أصر على أن النتائج التي توصل إليها الباحثون لم تعكس كيفية استخدام AI ، موضحا:

"يختلف تحليل الوجه والتعرف على الوجه تمامًا من حيث التكنولوجيا الأساسية والبيانات المستخدمة لتدريبهم. محاولة استخدام تحليل الوجه لقياس دقة التعرف على الوجه أمر غير مستحسن ، لأنها ليست الخوارزمية المقصودة لهذا الغرض. "
ولكن ليس فقط أولئك المنتسبين لمراكز الأبحاث الكبرى الذين وجدوا أن الخوارزميات تمثل مشكلة كبيرة. أجرى اتحاد الحريات المدنية الأمريكي اختباره الخاص بتكلفة معقولة تبلغ 12.33 دولارًا ، وفقًا لتقرير جيزمودو . ووجدت أن Rekognition يقابل 28 من أعضاء الكونغرس بصور مجرمين.
"تم تحديد الهوية الخاطئة عندما كلف اتحاد الحريات المدنية في ولاية كاليفورنيا الشمالية" إعادة الإدراك "بمطابقة صور جميع أعضاء الكونغرس البالغ عددهم 535 عضوًا مقابل 25000 صورة  متاحة للجمهور."
نظرًا لأن 11 من أصل 28 شخصًا من الأشخاص ، فقد عكس ذلك نسبة خطأ كبيرة بلغت 39٪ بالنسبة لهم. في المقابل ، كان معدل الخطأ ككل 5 ٪ أكثر قبولا. عبر ستة أعضاء من "المؤتمر الأسود للكونجرس" ، والذين كانوا من بين هؤلاء الذين تم ربطهم بعملية إعادة التعرف ، عن قلقهم في رسالة مفتوحة إلى الرئيس التنفيذي لشركة أمازون.
العودة إلى التحيز

يصبح التحيز المضمّن في الذكاء الاصطناعي ضد الأشخاص الملونين مشكلة أكثر خطورة عندما يعني ذلك أكثر من مجرد خطأ في التحديد. كان هذا هو اكتشاف تحقيق ProPublica آخر في عام 2016 . إن عواقب هذا التحيز ليست أقل من الحرية الفردية مقرونة بتجاهل المخاطر الحقيقية من الشخص الذي تفضله خوارزمية لون بشرتها.
أشارت المقالة إلى حالتين متوازيتين تتعلقان بمرتكب جريمة واحدة بيضاء وحالة واحدة سوداء. تم استخدام خوارزمية للتنبؤ أي واحدة من المرجح أن يخرق القانون مرة أخرى. تم تصنيف اللون الأسود على درجة عالية من المخاطرة ، والأبيض ذو خطورة منخفضة.
لقد أخطأ هذا التوقع بشكل خاطئ ، وتعين حبس الشخص الأبيض الذي أطلق سراحه مرة أخرى. هذه مشكلة كبيرة للغاية لأن المحاكم تعتمد على التهديف في اتخاذ قرار بشأن الإفراج المشروط ، وهذا يعني أن التحيز العنصري الذي يؤخذ في الاعتبار في البرنامج يعني عدم المساواة في المعاملة بموجب القانون.
وضعت ProPublica الخوارزمية في اختبارها الخاص ، حيث قارنت عشرات المخاطر لأكثر من 7000 شخص تم اعتقالهم في مقاطعة بروارد بولاية فلوريدا ، في عامي 2013 و 2014 ، إلى العدد الذي وجهت إليه تهم جنائية جديدة في العامين التاليين.
ما وجدوه هو أن مجرد 20 ٪ من التنبؤات بتكرار الجرائم ذات الطبيعة العنيفة قد تحققت ، وأن المزيد من الجرائم البسيطة لم تحدث إلا بنسبة 61 ٪ من أولئك الذين تشير الدرجات إلى خطر.
المشكلة الحقيقية ليست فقط الافتقار إلى الدقة ولكن التحيز العنصري الذي ينطوي عليه:
كان من المرجح بشكل خاص أن ترفع المعادلة عن المتهمين السود زوراً كمجرمين مستقبليين ، وتصفهم بالخطأ بهذه الطريقة بمعدل ضعفين تقريباً على أنهم مدعى عليهم من البيض.

تعرض المدعى عليهم البيض للتسمية الخاطئة باعتبارهم منخفضي المخاطر أكثر من المدعى عليهم السود.
في الواقع ، هذا يترجم إلى معدل خطأ بنسبة 45 ٪ بالنسبة للسود و 24 ٪ للناس البيض. على الرغم من هذه الإحصاءات الصارخة ، ذكر توماس أن المحكمة العليا لولاية ويسكونسن ما زالت تؤيد استخدام هذه الخوارزمية. وهي تفصل أيضًا المشكلات الأخرى المرتبطة بخوارزميات النكوص

هل اعجبك الموضوع :

تعليقات

المحتويات