وجهت صحيفة «الجارديان» البريطانية انتقادات لسلطات الاحتلال الإسرائيلية على خلفية اعتداءاتها على مسيرات العودة في قطاع غزة، والتي أسفرت عن استشهاد العشرات منذ انطلاقها قبل نحو شهر. وفي افتتاحيتها الأحد، التي ترجمتها «عربي21»، قالت الصحيفة: إن «است

تثار من آن لآخر قصة النتائج التي يمكن وصفها بالعنصرية لمحرك البحث الأشهر في العالم جوجل، ففي عام 2016 أعلنت الشركة أنها قد عالجت تلك المشكلة المتعلقة بخاصية «الاقتراح الآلي» (autocomplete feature) والتي تقترح عند كتابة أي كلمة، كلمات مقترحة متعلقة بها، وقد ظهرت الأزمة عندما جرب بعض المستخدمين كتابة بعض الكلمات مثل جملة «هل اليهود»، فاقترح جوجل كلمات مثل: «هل اليهود أشرار؟».

أثيرت الكثير من الأسئلة عن الأسباب التي أنتجت هذه النوعية من النتائج، وما إن كان جوجل يقوم بما يكفي من الجهد للتغلب على هذه المشكلة التي قال بعض الباحثين إنها تساهم، بشكل ما، في جعل العنصرية عملية منظمة يخضع لها كل مستخدمي التكنولوجيا الحديثة والتي تعتمد بشكل رئيس على تقنيات الذكاء الاصطناعي.

كيف يرى جوجل الفتيات ذوات البشرة السمراء؟

رصدت دراسة أقامتها صافيا نوبل، الباحثة في جامعة كاليفورنيا الجنوبية، الطرق التي تكون فيها النتائج الخاصة بجوجل عنصرية وتمييزية في كثير من الأحيان، ورصدت الورقة البحثية العديد من الأمثلة التي تظهر التمييز ضد شريحة الفتيات ذوات البشرة السمراء تحديدًا.

عندما بحثت صافيا عن كلمات «فتيات سمراوات» (Black girls) فإن النتائج التي اقترحها جوجل ستكون مليئة بالعنصرية والتمييز على أساس جنسي، فمثلًا سيقترح جوجل «مؤخرات كبيرة»، إضافة إلى بعض المواقع الجنسية  وكلمات أخرى لا تختلف في دلالتها الجنسية والعرقية.

في نفس الوقت، عندما تبحث عن جملة مثل «فتيات ذوات بشرة بيضاء» (White girls)، فإن النتائج ستكون مختلفة بشكل لا يمكن تجاهله، فلن ترى في هذه النتائج مواقع إباحية مقترحة أو نتائج تحمل دلالات تمييزية جنسية الطابع. هذه الاختلافات الراديكالية يمكن أن تكون مرآة حقيقية للطريقة النمطية التي ترى بها المجتمعات الحديثة النساء ذوات البشرة السمراء، كما تشي بطابع أعمق للمسألة، عندما يغيب على المستوى العام للمستخدمين نوعية الاعتراضات المناسبة في قوتها مع ظاهرة بهذه القسوة تجاه شريحة مهمة في المجتمع.

ترى نوبل أن خاصية التمييز في البيانات المتاحة للمستخدمين على الإنترنت هي مشكلة اجتماعية حقيقية، وأن المتسبب فيها هو مزيج من الاهتمامات الخاصة المتمثلة في تفضيل مواقع معينة، والحالة الاحتكارية لعدد قليل نسبيًا من محركات البحث المستخدمة في أنحاء العالم. هذه الأسباب جعلت هناك طابعًا ونمطًا عامًا لنتائج عرض هذه البيانات، ويتسم هذا النمط بتفضيل أصحاب البشرة البيضاء، والتمييز ضد أصحاب البشرة الملونة خصوصًا من النساء.

ليس الفتيات أصحاب البشرة السمراء فقط

رصد أشخاص آخرون أنماطًا مختلفة من التمييز العنصري، فمثلًا عند كتابة جملة «تفوق العرق الأبيض» فإن الاقتراح الأول لتكملة الجملة سيكون «تفوق العرق الأبيض أمر جيد» (white supremacy is good)، بينما إذا قمت بالبحث عن جملة «حيوات ذوي البشرة السمراء مهمة» (اسم مجموعة مناهضة للعنصرية)، فإن النتيجة المقترحة الأولى للبحث ستكون «حيوات ذوي البشرة السمراء مهمة، هي مجموعة تحض على الكراهية» (black lives matter is a hate group). ينسحب نفس النمط في النتائج، الذي لا يعتمد على أي خلفيات علمية أو منطقية، على كلمات بحثية أخرى، مثل التغير المناخي الذي تصبح النتائج الخاصة بالبحث عنه هي النتائج التي تؤيد المنكرين للتغير المناخي، فعندما تكتب «التغير المناخي» فإن النتيجة المقترحة الأولى ستكون «التغير المناخي غير حقيقي».

بحث أجراه موقع «Wired» عن النتائج المقترحة لكلمة «الإسلاميين» على محرك بحث جوجل. المصدر.

تطرق بعض الملاحظين كذلك لقضايا أكثر جدلية في الغرب، منها ما يتعلق بالمسلمين فعندما تكتب «الإسلاميون» فإن النتائج ستكون «الإسلاميون ليسوا أصدقائنا» أو «الإسلاميون أشرار»، وكذلك فيما يتعلق بالنسويات في المجتمع الغربي، حيث ستكون نتيجة البحث بكلمة «النسويات» هي «النسويات هن الأكثر إثارة جنسية». الأمثلة على هذا النوع من التمييز رُصد على نطاق واسع من الموضوعات والمجالات ضد فئات معينة في المجتمع.

في بيانها للرد على هذه النقاط الخاصة بهذه النوعية من نتائج البحث، قالت جوجل إنها سوف تحذف هذه النتائج التي تخرق سياساتها الداخلية، وقال المتحدث باسم الشركة: «نحن نتطلع دائمًا لتحسين جودة نتائج البحث على المحرك، وقمنا العام الماضي بإضافة طريقة تمكن المستخدمين من وضع علامة على النتائج التي يشعرون أنها خاطئة أو مسيئة». كانت النتائج التي رُصدت كثيرة للغاية، وقد رفضت الشركة تحديد النتائج التي سوف تحذفها بشكل محدد.

بعد هذا التصريح والوعد بحذف هذه النتائج المسيئة، قامت استطلاعات لبيان النتائج التي حذفتها جوجل والتي لم تحذفها، وكانت النتائج غير واعدة. وجد المستخدمون بعد ذلك أن جوجل قد حذفت النتائج الآتية: «الإسلاميون أشرار» و«تفوق العرق الأبيض هو أمر جيد» و«هتلر هو الإله»، لكن مجموعة كبيرة من النتائج المسيئة كانت لا تزال موجودة. وجد المستخدمون أن نتائج البحث «الإسلاميون إرهابيون» و«تفوق العرق الأبيض هو أمر صائب» لا تزال موجودة.

«خوارزمية» جوجل.. معضلة أخلاقية

بالحديث عن هذه النتائج المسيئة والتي يُظهر تتبعها كم هي شائعة، فإن الفهم الجيد لأسبابها قد يجعل من الحكم عليها أكثر موضوعية. هذه النتائج لم يتم «غرسها» داخل التكنولوجيا والآليات التي تستخدمها للخروج بنتائج البحث؛ لكنها في المقابل نتيجة للخوارزمية التي تعمل بها جوجل، والتي تقوم بالنظر في كل البينات التي يبحث عنها المستخدمون في أنحاء العالم لتحديد الأشياء التي يريد الناس أن يعرفوها عندما يبحثون عن أمر معين.

إنه نظام بسيط في ظاهره معقد في آلياته، فهو نظام مغلق يعتمد على مفهوم «التغذية الراجعة» (Feedback) التي تجعل الخوارزمية تقترح عليك أكثر ما يبحث عنه بقية المستخدمين تعلقًا بما تبحث عنه، فعقب وفاة العالم والفيزيائي الكبير ستيفن هوكينج، إذا كتبت على جوجل كلمة «ستيفن» فإنه سيقترح عليك أول نتيجة «ستيفن هوكينج» لأنه سيكون أكثر شيء بحث عنه المستخدمون في هذا الوقت، ربما في مرات أخرى عندما تكتب نفس الكلمة ولكن في وقت حفل جوائز الأوسكار، فربما يظهر لك «ستيفن سبيلبيرج» أول نتيجة وهو المخرج الشهير في هوليود. يقول ريتشارد جينجراس، نائب رئيس جوجل للأخبار: «نحن نعرض اقتراحات تعتمد على ما يبحث عنه المستخدمون الآخرون. إنه نظام مباشر ونابض بالحياة يتغير كل يوم».

المشكلة الحقيقية في هذا الطرح الذي تقدمه جوجل هو أن هذه الخوارزمية التي يستخدمها محرك البحث ستكون مفتقرة لأي بوصلة أخلاقية، فبدون التدخل المباشر من مصممي الخوارزمية، فإنها ستكون عنصرية وقائمة على التمييز وإهدار حقوق الأقليات ما دام أغلبية المستخدمين مقتنعين بهذه الأفكار.

في المقابل، فإن جوجل تمتلك بالفعل مجموعة من السياسات المناهضة للعنف والجنس والكراهية، لكن المشكلة تكمن في تطبيق هذه السياسات في الوقت الذي تواجه فيه الشركة نسبة 15% من كلمات البحث الجديدة يوميًا، وتكون كل كلمة بحث ضمن هذه النسبة تحديًا جديدًا لتطبيق سياساتها من المحتمل أن تنجح أو تفشل.

هذه الفكرة من الممكن أن تجعل المستخدمين، يتسامحون مع حقيقة أن هذه الخوارزمية لن تكون خالية من الأخطاء يومًا، لكن في نفس الوقت ستبقى مثل هذه الأسئلة المهمة من دون إجابة: هل جوجل متمثلة في مصممي الخوارزمية جزء من المشكلة؟ وهل هم مسئولون، ولو بقدر صغير، عن المشكلة؟ وهل تقوم جوجل حقًا بكل ما يمكنها من جهد لحل هذه المشكلة؟

قصة الغوريلا.. دليل «لا اكتراثية» جوجل أو عجزها

لاحظ مهندس البرمجيات جاكي ألسينيه (Jacky Alciné) ظاهرة غريبة تتعلق بخاصية التعرف على الوجه لدى شركة جوجل عام 2015. وجد جاكي أن خاصية جوجل تقوم بتصنيف أصدقائه ذوي البشرة السمراء كـ«غوريلات» على منصتها. ردت جوجل سريعًا على تغريدة جاكي وقالت إنها صُعقت من هذا الخطأ، واعتذرت لجاكي بينما وعدت الشركة بحل المشكلة.

بعد مرور ثلاث سنوات على هذه الحادثة، قام موقع «Wired» باختبار مدى صدق تصريحات الشركة من خلال إعادة اختبار الظاهرة من جديد؛ ليجد التقرير أن جوجل لم تقم في الحقيقة بحل المشكلة. وجد التقرير أن جوجل قامت ببساطة بحظر تصنيفات «غوريلا» و«شمبانزي» و«قرد» من نظام التعرف على الوجه؛ وذلك لمنع تكرار المشكلة. في ردها على تقرير موقع «Wired»، قالت جوجل إنها بالفعل قد حجبت هذه التصنيفات من منصتها عقب تغريدة جاكي عام 2015، وأوضحت الشركة: «تصنيف الصور هي تكنولوجيا حديثة، ولسوء الحظ فإنها بعيدة تمامًا عن أن تكون خالية من الأخطاء».

يرى البعض أنه من الصعب تصديق أن تكون جوجل، وهي الشركة الرائدة في مجال الذكاء الاصطناعي، غير قادرة على إصلاح الخوارزمية الخاصة بها بشكل يعالج هذا الخطأ بشكل كامل، بدلًا من الالتفاف حوله بحظر التصنيفات التي تسببت في ظهور المشكلة من الأساس. لا يستطيع أحد الجزم، خلال هذه الحادثة، بأن جوجل لا تقوم بجهود كافية للتغلب على هذه المشكلة، لكن تكرار هذه النوعية من الحوادث التي تنطوي على عنصرية واضحة، يمكن أن يكون مؤشرًا على سلوك الشركة الكبيرة ومدى اهتمامها بحل هذه النوعية من المشاكل المتوقعة للعمل مع تقنيات الذكاء الاصطناعي. فقد رصدت تقارير عدة قبول جوجل لنشر إعلانات ممولة على منصتها تدعم العنصرية والتفرقة على أساس العرق والجنس أيضًا.{

أزمة جوجل.. عنصرية المستخدم أم عنصرية المصمم؟

لا شك أن التحديات التي يواجهها مجال الذكاء الاصطناعي كبيرة وكثيرة؛ وربما يكون هذا هو السبب الذي يؤجل انتشار هذا النوع من التقنيات في كثير من نواحي الحياة في المجتمعات العصرية. أحد أهم هذه التحديات هو السيطرة على ما يمكن أن تسبب به فكرة الاعتمادية على «التغذية الراجعة» في كثير من التطبيقات الحالية والمستقبلية، ورغم ما تصرح به شركة جوجل من سعيها الدائم لإصلاح هذه الأخطاء، إلا أن هذا الأمر لم يكن مقنعًا لكل الأطراف، فلا يزال هناك من هم مقتنعون بأن جوجل يمكن وصفها بالعنصرية.

إلى جانب القضايا المنظورة من موظفين سابقين في جوجل يتهمون الشركة بفصلهم تعسفيًا بسبب حديثهم العلني ضد العنصرية والتمييز، ترى نوبل أن محركات البحث لا تعكس فقط عنصرية بعض مستخدميها، لكنها في المقابل تعكس عنصرية مصمميها أيضًا. فهؤلاء المصممين إن هم إلا مجموعات من البشر لهم وجهات نظر ودوافع ربما تكون عنصرية أو قائمة على أسس تمييزية، وتعكس تصميماتهم لمحركات البحث هذه الدوافع العنصرية لديهم. من هذا المنطلق، ترى نوبل أنه يجب أن تتعرض نتائج هذه الخوارزميات إلى اختبارات صارمة من أناس من خلفيات اجتماعية وعرقية وثقافية مختلفة، وأن أي مجهود في هذا الاتجاه يجب أن تُدفع إليه جوجل لحل هذه المشكلة الاجتماعية سيئة التأثير بحسبها.

ترى نوبل كذلك أن هذه النوعية من الأخطاء يمكن أن تكون سببًا يدفع بعض الأشخاص لأن يكونوا أكثر عنصرية دون وعي حقيقي منهم، ففي عقلية المستخدم لمحركات البحث يكون المحتوى الموجود في الصفحات الأولى هو الأكثر صدقُا، والأكثر تعبيرًا عن الحقيقة كما أنه الأكثر استحقاقًا أن يُعرف، وهنا يكون الخطر مزدوجًا، فالأشخاص العنصريون سيكونون أكثر عنصرية مع مزيد من التغذية لأفكارهم، وربما يتم استدراج الأشخاص المحايدين لأن يكونوا عنصريين انطلاقًا من نوعية البيانات التي يتعرضون لها عند بحثهم عن موضوع معين.

مصطفى مصيلحي

شاهد أيضاً

بن غفير: زعيم الإرهاب قائدا للأمن!

بن غفير: زعيم الإرهاب قائدا للأمن!

الاخبار – القدس العربي: قام جندي إسرائيلي بتهديد نشطاء فلسطينيين وإسرائيليين كانوا يتضامنون مع أهالي …

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *