خوارزمية الرجل الأبيض

ربى جمال

في يوم صيفي جاف وعلي أرض طالما وسمت بالبداوة، يسير رجل حبشي لتاجر من فارس ليبتاع منه بساطا أندلسيا، ربما نسجه نساج دمشقي وفد الأندلس ليعلم ابنه الطب في جامعتها التي أسستها امرأة، ودرس -بتشديد الراء- فيها أساتذة يهود ومسيحيين وطبعا مسلمين.
ميثاق من الحرية والاحترام وتقبل الآخر ارساه دين جعل كل المؤمنين أخوة، دين كان الصحابة فيه بلال الحبشي وصهيب الرومي وسلمان الفارسي، دين أمر باحترام المرأة ومراعاة أهل الذمة، ومات نبيه في حضن زوجته ودرعه مرهونة ليهودي.
لكن في طقس آخر، أكثر برودة ويوصف الآن بالحضارة والمدنية، أحرقت النساء لأنهن ساحرات، وسجن جاليليو لأنه يفكر وكان كل من لا يملك بشرة بيضاء مسحور أو به مس.
وما أشبه الليلة بالبارحة، فصديقنا الأبيض رغم كل ما توصل إليه من علوم وحضارة، لا يزال يفشل في أبسط دروس الإنسانية، بل ويصدر فشله للجميع.
قرأت من وقت ليس ببعيد عن حدثين منفصلين في صميم صناعة الذكاء الاصطناعي وتعلم الآلة، وكمهندسة “تعلم آلة” وعلوم بيانات في بداية حياتها المهنية وقفت اراقب في وجل.
كان الحدث الأول هو فصل باحثة أثيوبية تعمل في مجال أخلاقيات الذكاء الاصطناعي من شركة جوجل، بحجة أنها لا تتوافق مع تطلعات الشركة البحثية.
الباحثة التي عملت في مجال أخلاقيات الذكاء الاصطناعي، تلقت رسالة إلكترونية بالاستغناء عن خدماتها بعد باع طويل من الأبحاث حول التمييز في خوارزميات معالجة اللغات الطبيعية، وهو بالمناسبة موضوع طرح طويلا خاصة في ورقة بحثية لها اسم طريف هو -Man is to Computer Programmer as Woman is to Homemaker? Debiasing -Word Embeddings .
وهو ما ترجمته بالعربية “كلمة رجل مكافئة لمبرمج حاسوب وكلمة امرأة مكافئة لمدبرة المنزل؟ كيف نعالج التحيز في شفرات الكلمات”.
وهذه المشكلة بالمناسبة لم تتوقف عند التمييز الجندري وحسب وإنما امتدت إلي التمييز العرقي والاجتماعي أيضا.
أما الحدث الثاني فكان إعلان شركة هواوي عن نيتها تطوير خوارزمية للتعرف علي الوجوه تقوم بتحديد المسلمين الإيجور!.
حسنا، لنلتقط أنفاسنا قليلا ولنتأمل الواقعتين، في الواقعة الأولي لماذا يا تري كانت خوارزميات الذكاء الاصطناعي عنيفة وعنصرية للغاية؟ هل هي نظرية المؤامرة في الشر الكامن في الآلة كما في أفلام هوليوود؟
أبدا، بل أنه الغباء البشري بكل بساطة، الذكاء الاصطناعي الآن في عهد البيانات الذهبي شب عن الطوق ، وتحول من مجرد شفرات ومعادلات احتمالات الآلاف من السطور البرمجية، الي طفل صغير يتعلم بشغف، صفحة بيضاء تملأها كما تشاء، لقد خرج من نطاق أن يبرمج إلي أن يتعلم. وببساطة .. كان ما تعلمه من ثرثرتنا علي مواقع التواصل ونشرات الأخبار هو العنصرية المقيتة.
أما في الواقعة الثانية فالمأساة أكبر، والحماقة أشد. في مجال الرؤية بالحاسب، تتعلم الآلة استنباط نمط معين من مجموعة هائلة من الصور، وبالتالي ففي أنظمة التعرف علي الوجوه، تبحث الآلة عن العلامات المميزة للشخص كالعيون والأنف مثلا، وبناء عليه قد تحدد العمر والعرق والجنس، ولكن حبا بالله كيف ستحدد الدين!
الأ تري معي انه منتهي السخف أن نتساءل إن كان هذا الأنف يهودي-حسنا هذا مميز فعلا!- أو هذه العيون هندوسية، أو هذا الفم مسيحي؟!
وألا تري معي أن استخدام الحجاب واللحية مثلا للتعرف علي المسلمين هو قمة العنصرية أساسا.
ألا تري معي أنها قمة الحماقة أن تحاول التعرف علي دين شخص من وجهه؟
إن هاتين الواقعتين هما تأكيد كامل شامل علي أن الذكاء الاصطناعي -طفلنا الصغير-، قد يكون في أيد مربيين سيكوباتين، وثقتنا في أن العلم هو الشيء الوحيد الحيادي علي هذا الكوكب المجنون قد ضربت في مقتل.
نحن بصدد مئة خوارزمية علي الأقل للتعرف علي الوجوه وتحديد المجرمين، فخوارزمية جون ومايكل، ليست كخوارزمية يانج وأوشين، المختلفة بدورها عن حاييم وراشيل، وقطعا كلهم يختلفون مع محمد وحسن. ولأن محمد وحسن هما الطرف الأضعف في الحلقة فالله معهم فيما هم بصدده.
 إن الذكاء الاصطناعي أمام هذا السيل الجارف من البيانات والثرثرات يواجه الخطر نفسه الذي يواجه ابنك المراهق، كلاهما يواجهان البيانات نفسها، ويتأثران بالطريقة نفسها، بيد أن ابنك المراهق لا تشجعه الدول العظمي، التي تربي هذا الابن الجديد علي أن يكبر ليكون سفاحا ربما.
 
 
مهندس تعلم الآلة
وعلوم البيانات 
 

       

 “كلمة رجل مكافئة لمبرمج حاسوب وكلمة امرأة مكافئة لمدبرة المنزل؟ كيف نعالج التحيز في شفرات الكلمات”

 الذكاء الاصطناعي الآن  شب عن الطوق ، وتحول من مجرد شفرات ومعادلات االي طفل صغير يتعلم بشغف

 الذكاء الاصطناعي أمام هذا السيل الجارف من البيانات والثرثرات يواجه الخطر نفسه الذي يواجه ابنك المراهق