خوارزمية-جوجل.-هل-تجعلنا-محركات-البحث-اكثر-عنصرية؟

«خوارزمية جوجل».. هل تجعلنا محركات البحث اكثر عنصرية؟

اخبار اليوم الصحيفة, «خوارزمية جوجل».. هل اخبار اليوم الصحيفة, «خوارزمية جوجل».. هل

تثار من ان لاخر قصة النتائج التي يمكن وصفها بالعنصرية لمحرك البحث الاشهر في العالم جوجل، ففي عام 2016 اعلنت الشركة انها قد عالجت تلك المشكلة المتعلقة بخاصية «الاقتراح الالي» (autocomplete feature) والتي تقترح عند كتابة اي كلمة، كلمات مقترحة متعلقة بها، وقد ظهرت الازمة عندما جرب بعض المستخدمين كتابة بعض الكلمات مثل جملة «هل اليهود»، فاقترح جوجل كلمات مثل: «هل اليهود اشرار؟».
اثيرت الكثير من الاسئلة عن الاسباب التي انتجت هذه النوعية من النتائج، وما ان كان جوجل يقوم بما يكفي من الجهد للتغلب على هذه المشكلة التي قال بعض الباحثين انها تساهم، بشكل ما، في جعل العنصرية عملية منظمة يخضع لها كل مستخدمي التكنولوجيا الحديثة والتي تعتمد بشكل رئيس على تقنيات الذكاء الاصطناعي.
كيف يرى جوجل الفتيات ذوات البشرة السمراء؟
رصدت دراسة اقامتها صافيا نوبل، الباحثة في جامعة كاليفورنيا الجنوبية، الطرق التي تكون فيها النتائج الخاصة بجوجل عنصرية وتمييزية في كثير من الاحيان، ورصدت الورقة البحثية العديد من الامثلة التي تظهر التمييز ضد شريحة الفتيات ذوات البشرة السمراء تحديدًا.
عندما بحثت صافيا عن كلمات «فتيات سمراوات» (Black girls) فان النتائج التي اقترحها جوجل ستكون مليئة بالعنصرية والتمييز على اساس جنسي، فمثلًا سيقترح جوجل «مؤخرات كبيرة»، اضافة الى بعض المواقع الجنسية
وكلمات اخرى لا تختلف في دلالتها الجنسية والعرقية.
في نفس الوقت، عندما تبحث عن جملة مثل «فتيات ذوات بشرة بيضاء» (White girls)، فان النتائج ستكون مختلفة بشكل لا يمكن تجاهله، فلن ترى في هذه النتائج مواقع اباحية مقترحة او نتائج تحمل دلالات تمييزية جنسية الطابع. هذه الاختلافات الراديكالية يمكن ان تكون مراة حقيقية للطريقة النمطية التي ترى بها المجتمعات الحديثة النساء ذوات البشرة السمراء، كما تشي بطابع اعمق للمسالة، عندما يغيب على المستوى العام للمستخدمين نوعية الاعتراضات المناسبة في قوتها مع ظاهرة بهذه القسوة تجاه شريحة مهمة في المجتمع.
ترى نوبل ان خاصية التمييز في البيانات المتاحة للمستخدمين على الانترنت هي مشكلة اجتماعية حقيقية، وان المتسبب فيها هو مزيج من الاهتمامات الخاصة المتمثلة في تفضيل مواقع معينة، والحالة الاحتكارية لعدد قليل نسبيًا من محركات البحث المستخدمة في انحاء العالم. هذه الاسباب جعلت هناك طابعًا ونمطًا عامًا لنتائج عرض هذه البيانات، ويتسم هذا النمط بتفضيل اصحاب البشرة البيضاء، والتمييز ضد اصحاب البشرة الملونة خصوصًا من النساء.
ليس الفتيات اصحاب البشرة السمراء فقط
رصد اشخاص اخرون انماطًا مختلفة من التمييز العنصري، فمثلًا عند كتابة جملة «تفوق العرق الابيض» فان الاقتراح الاول لتكملة الجملة سيكون «تفوق العرق الابيض امر جيد» (white supremacy is good)، بينما اذا قمت بالبحث عن جملة «حيوات ذوي البشرة السمراء مهمة» (اسم مجموعة مناهضة للعنصرية)، فان النتيجة المقترحة الاولى للبحث ستكون «حيوات ذوي البشرة السمراء مهمة، هي مجموعة تحض على الكراهية» (black lives matter is a hate group). ينسحب نفس النمط في النتائج، الذي لا يعتمد على اي خلفيات علمية او منطقية، على كلمات بحثية اخرى، مثل التغير المناخي الذي تصبح النتائج الخاصة بالبحث عنه هي النتائج التي تؤيد المنكرين للتغير المناخي، فعندما تكتب «التغير المناخي» فان النتيجة المقترحة الاولى ستكون «التغير المناخي غير حقيقي».
بحث اجراه موقع «Wired» عن النتائج المقترحة لكلمة «الاسلاميين» على محرك بحث جوجل. المصدر.
تطرق بعض الملاحظين كذلك لقضايا اكثر جدلية في الغرب، منها ما يتعلق بالمسلمين فعندما تكتب «الاسلاميون» فان النتائج ستكون «الاسلاميون ليسوا اصدقائنا» او «الاسلاميون اشرار»، وكذلك فيما يتعلق بالنسويات في المجتمع الغربي، حيث ستكون نتيجة البحث بكلمة «النسويات» هي «النسويات هن الاكثر اثارة جنسية». الامثلة على هذا النوع من التمييز رُصد على نطاق واسع من الموضوعات والمجالات ضد فئات معينة في المجتمع.
في بيانها للرد على هذه النقاط الخاصة بهذه النوعية من نتائج البحث، قالت جوجل انها سوف تحذف هذه النتائج التي تخرق سياساتها الداخلية، وقال المتحدث باسم الشركة: «نحن نتطلع دائمًا لتحسين جودة نتائج البحث على المحرك، وقمنا العام الماضي باضافة طريقة تمكن المستخدمين من وضع علامة على النتائج التي يشعرون انها خاطئة او مسيئة». كانت النتائج التي رُصدت كثيرة للغاية، وقد رفضت الشركة تحديد النتائج التي سوف تحذفها بشكل محدد.
بعد هذا التصريح والوعد بحذف هذه النتائج المسيئة، قامت استطلاعات لبيان النتائج التي حذفتها جوجل والتي لم تحذفها، وكانت النتائج غير واعدة. وجد المستخدمون بعد ذلك ان جوجل قد حذفت النتائج الاتية: «الاسلاميون اشرار» و«تفوق العرق الابيض هو امر جيد» و«هتلر هو الاله»، لكن مجموعة كبيرة من النتائج المسيئة كانت لا تزال موجودة. وجد المستخدمون ان نتائج البحث «الاسلاميون ارهابيون» و«تفوق العرق الابيض هو امر صائب» لا تزال موجودة.
«خوارزمية» جوجل.. معضلة اخلاقية
بالحديث عن هذه النتائج المسيئة والتي يُظهر تتبعها كم هي شائعة، فان الفهم الجيد لاسبابها قد يجعل من الحكم عليها اكثر موضوعية. هذه النتائج لم يتم «غرسها» داخل التكنولوجيا والاليات التي تستخدمها للخروج بنتائج البحث؛ لكنها في المقابل نتيجة للخوارزمية التي تعمل بها جوجل، والتي تقوم بالنظر في كل البينات التي يبحث عنها المستخدمون في انحاء العالم لتحديد الاشياء التي يريد الناس ان يعرفوها عندما يبحثون عن امر معين.
انه نظام بسيط في ظاهره معقد في الياته، فهو نظام مغلق يعتمد على مفهوم «التغذية الراجعة» (Feedback) التي تجعل الخوارزمية تقترح عليك اكثر ما يبحث عنه بقية المستخدمين تعلقًا بما تبحث عنه، فعقب وفاة العالم والفيزيائي الكبير ستيفن هوكينج، اذا كتبت على جوجل كلمة «ستيفن» فانه سيقترح عليك اول نتيجة «ستيفن هوكينج» لانه سيكون اكثر شيء بحث عنه المستخدمون في هذا الوقت، ربما في مرات اخرى عندما تكتب نفس الكلمة ولكن في وقت حفل جوائز الاوسكار، فربما يظهر لك «ستيفن سبيلبيرج» اول نتيجة وهو المخرج الشهير في هوليود. يقول ريتشارد جينجراس، نائب رئيس جوجل للاخبار: «نحن نعرض اقتراحات تعتمد على ما يبحث عنه المستخدمون الاخرون. انه نظام مباشر ونابض بالحياة يتغير كل يوم».
بحث عن «طريقة استاذ الجامعة» (professor style) يظهر جميع النتائج لاشخاص ذوي بشرة بيضاء، مصدر الصورة: (تايم)
المشكلة الحقيقية في هذا الطرح الذي تقدمه جوجل هو ان هذه الخوارزمية التي يستخدمها محرك البحث ستكون مفتقرة لاي بوصلة اخلاقية، فبدون التدخل المباشر من مصممي الخوارزمية، فانها ستكون عنصرية وقائمة على التمييز واهدار حقوق الاقليات ما دام اغلبية المستخدمين مقتنعين بهذه الافكار.
في المقابل، فان جوجل تمتلك بالفعل مجموعة من السياسات المناهضة للعنف والجنس والكراهية، لكن المشكلة تكمن في تطبيق هذه السياسات في الوقت الذي تواجه فيه الشركة نسبة 15% من كلمات البحث الجديدة يوميًا، وتكون كل كلمة بحث ضمن هذه النسبة تحديًا جديدًا لتطبيق سياساتها من المحتمل ان تنجح او تفشل.
هذه الفكرة من الممكن ان تجعل المستخدمين، يتسامحون مع حقيقة ان هذه الخوارزمية لن تكون خالية من الاخطاء يومًا، لكن في نفس الوقت ستبقى مثل هذه الاسئلة المهمة من دون اجابة: هل جوجل متمثلة في مصممي الخوارزمية جزء من المشكلة؟ وهل هم مسئولون، ولو بقدر صغير، عن المشكلة؟ وهل تقوم جوجل حقًا بكل ما يمكنها من جهد لحل هذه المشكلة؟
قصة الغوريلا.. دليل «لا اكتراثية» جوجل او عجزها
لاحظ مهندس البرمجيات جاكي السينيه (Jacky Alciné) ظاهرة غريبة تتعلق بخاصية التعرف على الوجه لدى شركة جوجل عام 2015. وجد جاكي ان خاصية جوجل تقوم بتصنيف اصدقائه ذوي البشرة السمراء كـ«غوريلات» على منصتها. ردت جوجل سريعًا على تغريدة جاكي وقالت انها صُعقت من هذا الخطا، واعتذرت لجاكي بينما وعدت الشركة بحل المشكلة.
بعد مرور ثلاث سنوات على هذه الحادثة، قام موقع «Wired» باختبار مدى صدق تصريحات الشركة من خلال اعادة اختبار الظاهرة من جديد؛ ليجد التقرير ان جوجل لم تقم في الحقيقة بحل المشكلة. وجد التقرير ان جوجل قامت ببساطة بحظر تصنيفات «غوريلا» و«شمبانزي» و«قرد» من نظام التعرف على الوجه؛ وذلك لمنع تكرار المشكلة. في ردها على تقرير موقع «Wired»، قالت جوجل انها بالفعل قد حجبت هذه التصنيفات من منصتها عقب تغريدة جاكي عام 2015، واوضحت الشركة: «تصنيف الصور هي تكنولوجيا حديثة، ولسوء الحظ فانها بعيدة تمامًا عن ان تكون خالية من الاخطاء».
يرى البعض انه من الصعب تصديق ان تكون جوجل، وهي الشركة الرائدة في مجال الذكاء الاصطناعي، غير قادرة على اصلاح الخوارزمية الخاصة بها بشكل يعالج هذا الخطا بشكل كامل، بدلًا من الالتفاف حوله بحظر التصنيفات التي تسببت في ظهور المشكلة من الاساس. لا يستطيع احد الجزم، خلال هذه الحادثة، بان جوجل لا تقوم بجهود كافية للتغلب على هذه المشكلة، لكن تكرار هذه النوعية من الحوادث التي تنطوي على عنصرية واضحة، يمكن ان يكون مؤشرًا على سلوك الشركة الكبيرة ومدى اهتمامها بحل هذه النوعية من المشاكل المتوقعة للعمل مع تقنيات الذكاء الاصطناعي. فقد رصدت تقارير عدة قبول جوجل لنشر اعلانات ممولة على منصتها تدعم العنصرية والتفرقة على اساس العرق والجنس ايضًا.
ازمة جوجل.. عنصرية المستخدم ام عنصرية المصمم؟
لا شك ان التحديات التي يواجهها مجال الذكاء الاصطناعي كبيرة وكثيرة؛ وربما يكون هذا هو السبب الذي يؤجل انتشار هذا النوع من التقنيات في كثير من نواحي الحياة في المجتمعات العصرية. احد اهم هذه التحديات هو السيطرة على ما يمكن ان تسبب به فكرة الاعتمادية على «التغذية الراجعة» في كثير من التطبيقات الحالية والمستقبلية، ورغم ما تصرح به شركة جوجل من سعيها الدائم لاصلاح هذه الاخطاء، الا ان هذا الامر لم يكن مقنعًا لكل الاطراف، فلا يزال هناك من هم مقتنعون بان جوجل يمكن وصفها بالعنصرية.
بحث عن الفتيات الاسيويات اجرته نوبل عام 2018. المصدر
الى جانب القضايا المنظورة من موظفين سابقين في جوجل يتهمون الشركة بفصلهم تعسفيًا بسبب حديثهم العلني ضد العنصرية والتمييز، ترى نوبل ان محركات البحث لا تعكس فقط عنصرية بعض مستخدميها، لكنها في المقابل تعكس عنصرية مصمميها ايضًا. فهؤلاء المصممين ان هم الا مجموعات من البشر لهم وجهات نظر ودوافع ربما تكون عنصرية او قائمة على اسس تمييزية، وتعكس تصميماتهم لمحركات البحث هذه الدوافع العنصرية لديهم. من هذا المنطلق، ترى نوبل انه يجب ان تتعرض نتائج هذه الخوارزميات الى اختبارات صارمة من اناس من خلفيات اجتماعية وعرقية وثقافية مختلفة، وان اي مجهود في هذا الاتجاه يجب ان تُدفع اليه جوجل لحل هذه المشكلة الاجتماعية سيئة التاثير بحسبها.
ترى نوبل كذلك ان هذه النوعية من الاخطاء يمكن ان تكون سببًا يدفع بعض الاشخاص لان يكونوا اكثر عنصرية دون وعي حقيقي منهم، ففي عقلية المستخدم لمحركات البحث يكون المحتوى الموجود في الصفحات الاولى هو الاكثر صدقُا، والاكثر تعبيرًا عن الحقيقة كما انه الاكثر استحقاقًا ان يُعرف، وهنا يكون الخطر مزدوجًا، فالاشخاص العنصريون سيكونون اكثر عنصرية مع مزيد من التغذية لافكارهم، وربما يتم استدراج الاشخاص المحايدين لان يكونوا عنصريين انطلاقًا من نوعية البيانات التي يتعرضون لها عند بحثهم عن موضوع معين.«خوارزمية جوجل».. هل تجعلنا محركات البحث اكثر عنصرية؟

Scroll to Top