أخبار العالم

المرأة في الذكاء الاصطناعي: أليسون كوهين تتحدث عن بناء مشاريع ذكاء اصطناعي مسؤولة


لمنح الأكاديميات اللاتي يركزن على الذكاء الاصطناعي وغيرهن من الوقت المستحق – والمتأخر – في دائرة الضوء، نشرت TechCrunch سلسلة من المقابلات التي تركز على النساء المتميزات اللاتي ساهمن في ثورة الذكاء الاصطناعي. نحن ننشر هذه المقالات على مدار العام مع استمرار ازدهار الذكاء الاصطناعي، مع تسليط الضوء على الأعمال الرئيسية التي غالبًا ما لا يتم التعرف عليها. اقرأ المزيد من الملفات الشخصية هنا.

في دائرة الضوء اليوم: أليسون كوهين، كبير مديري مشاريع الذكاء الاصطناعي التطبيقي في ميلا، وهو مجتمع مقره كيبيك يضم أكثر من 1200 باحث متخصص في الذكاء الاصطناعي والتعلم الآلي. وهي تعمل مع الباحثين وعلماء الاجتماع والشركاء الخارجيين لنشر مشاريع الذكاء الاصطناعي المفيدة اجتماعيًا. تشتمل محفظة أعمال كوهين على أداة تكتشف كراهية النساء، وتطبيقًا لتحديد النشاط عبر الإنترنت من ضحايا الاتجار بالبشر المشتبه بهم، وتطبيقًا زراعيًا للتوصية بالممارسات الزراعية المستدامة في رواندا.

في السابق، كان كوهين قائدًا مشاركًا لاكتشاف أدوية الذكاء الاصطناعي في الشراكة العالمية للذكاء الاصطناعي، وهي منظمة لتوجيه التطوير المسؤول واستخدام الذكاء الاصطناعي. عملت أيضًا كمستشارة لاستراتيجية الذكاء الاصطناعي في شركة Deloitte ومستشارة مشروع في مركز السياسة الرقمية الدولية، وهو مركز أبحاث كندي مستقل.

سؤال وجواب

باختصار، كيف كانت بدايتك في مجال الذكاء الاصطناعي؟ ما الذي جذبك للميدان؟

إن إدراك أننا نستطيع أن نصمم كل شيء رياضيًا، بدءًا من التعرف على الوجوه إلى التفاوض على الصفقات التجارية، غيّر الطريقة التي أرى بها العالم، وهو ما جعل الذكاء الاصطناعي مقنعًا للغاية بالنسبة لي. ومن عجيب المفارقات، أنني الآن أعمل في مجال الذكاء الاصطناعي، وأرى أننا لا نستطيع – وفي كثير من الحالات لا ينبغي لنا – أن نلتقط هذه الأنواع من الظواهر باستخدام الخوارزميات.

لقد تعرفت على هذا المجال بينما كنت أقوم بإكمال درجة الماجستير في الشؤون العالمية في جامعة تورنتو. تم تصميم البرنامج لتعليم الطلاب كيفية التنقل بين الأنظمة التي تؤثر على النظام العالمي – كل شيء من الاقتصاد الكلي إلى القانون الدولي إلى علم النفس البشري. ومع أنني تعلمت المزيد عن الذكاء الاصطناعي، أدركت مدى أهميته بالنسبة للسياسة العالمية، ومدى أهمية تثقيف نفسي حول هذا الموضوع.

ما سمح لي بدخول هذا المجال هو مسابقة كتابة المقالات. بالنسبة للمسابقة، كتبت ورقة بحثية تصف كيف يمكن للأدوية المخدرة أن تساعد البشر على الحفاظ على قدرتهم التنافسية في سوق العمل المليء بالذكاء الاصطناعي، مما أهلني لحضور ندوة سانت غالن في عام 2018 (كانت مقالة كتابية إبداعية). لقد منحتني دعوتي ومشاركتي اللاحقة في هذا الحدث الثقة لمواصلة متابعة اهتمامي بهذا المجال.

ما هو العمل الذي تفتخر به أكثر في مجال الذكاء الاصطناعي؟

تضمن أحد المشاريع التي أدارتها بناء مجموعة بيانات تحتوي على أمثلة للتعبيرات الدقيقة والعلنية عن التحيز ضد المرأة.

بالنسبة لهذا المشروع، كان تعيين وإدارة فريق متعدد التخصصات من خبراء معالجة اللغات الطبيعية واللغويين والمتخصصين في دراسات النوع الاجتماعي طوال دورة حياة المشروع بأكملها أمرًا بالغ الأهمية. إنه شيء أنا فخور به تمامًا. لقد تعلمت بشكل مباشر لماذا تعتبر هذه العملية أساسية لبناء تطبيقات مسؤولة، وأيضًا لماذا لا يتم تنفيذها بشكل كافٍ – إنها عمل شاق! إذا كان بإمكانك دعم كل من أصحاب المصلحة هؤلاء في التواصل بفعالية عبر التخصصات، فيمكنك تسهيل العمل الذي يمزج التقاليد الممتدة لعقود من العلوم الاجتماعية والتطورات المتطورة في علوم الكمبيوتر.

أنا فخور أيضًا بأن هذا المشروع لاقى استحسانًا من قبل المجتمع. حصلت إحدى أوراقنا على تقدير مميز في ورشة عمل نمذجة اللغة المسؤولة اجتماعيًا في أحد مؤتمرات الذكاء الاصطناعي الرائدة، NeurIPS. كما ألهم هذا العمل عملية مماثلة متعددة التخصصات أدارها فرع منظمة العفو الدولية في السويد، حيث قام بتكييف العمل ليناسب المفاهيم والتعبيرات السويدية عن كراهية النساء.

كيف يمكنك التغلب على تحديات صناعة التكنولوجيا التي يهيمن عليها الذكور، وبالتالي، صناعة الذكاء الاصطناعي التي يهيمن عليها الذكور؟

من المؤسف أنه في مثل هذه الصناعة المتطورة، ما زلنا نشهد ديناميكيات إشكالية بين الجنسين. ولا يقتصر الأمر على التأثير سلبًا على النساء فحسب، بل إننا جميعًا نخسر. لقد ألهمتني فكرة تسمى “نظرية وجهة النظر النسوية” والتي تعرفت عليها في كتاب ساشا كوستانزا تشوك “عدالة التصميم”. \

تدعي النظرية أن المجتمعات المهمشة، التي لا تستفيد معارفها وخبراتها من نفس الامتيازات التي يتمتع بها الآخرون، لديها وعي بالعالم يمكنه إحداث تغيير عادل وشامل. وبطبيعة الحال، ليست كل المجتمعات المهمشة متشابهة، وكذلك تجارب الأفراد داخل تلك المجتمعات.

ومع ذلك، فإن مجموعة متنوعة من وجهات النظر من تلك المجموعات أمر بالغ الأهمية في مساعدتنا على التغلب على جميع أنواع التحديات الهيكلية وأوجه عدم المساواة وتحديها وتفكيكها. ولهذا السبب فإن الفشل في إشراك النساء يمكن أن يؤدي إلى إبقاء مجال الذكاء الاصطناعي مستبعدًا لشريحة واسعة من السكان، مما يعزز ديناميكيات السلطة خارج المجال أيضًا.

فيما يتعلق بكيفية تعاملي مع الصناعة التي يهيمن عليها الذكور، فقد وجدت أن الحلفاء مهمون للغاية. هؤلاء الحلفاء هم نتاج علاقات قوية وموثوقة. على سبيل المثال، لقد كنت محظوظًا جدًا بوجود أصدقاء مثل بيتر كورزويللي، الذي شارك خبرته في البث الصوتي لدعمي في إنشاء بودكاست تقوده النساء ويتمحور حول “العالم الذي نبنيه”. يتيح لنا هذا البودكاست الارتقاء بعمل عدد أكبر من النساء والأشخاص غير الثنائيين في مجال الذكاء الاصطناعي.

ما هي النصيحة التي تقدمها للنساء الراغبات في دخول مجال الذكاء الاصطناعي؟

ابحث عن باب مفتوح. ليس من الضروري أن يتم الدفع لها، ولا يجب أن تكون مهنة ولا يجب حتى أن تتماشى مع خلفيتك أو خبرتك. إذا تمكنت من العثور على فرصة، يمكنك استخدامها لصقل صوتك في المساحة والبناء من هناك. إذا كنت متطوعًا، فابذل قصارى جهدك، فهذا سيسمح لك بالتميز ونأمل أن تحصل على أجر مقابل عملك في أقرب وقت ممكن.

بالطبع، هناك امتياز في القدرة على التطوع، وهو ما أريد أيضًا الاعتراف به.

عندما فقدت وظيفتي أثناء الوباء وكانت البطالة في أعلى مستوياتها على الإطلاق في كندا، كان عدد قليل جدًا من الشركات يتطلع إلى توظيف مواهب الذكاء الاصطناعي، وتلك التي كانت توظف لم تكن تبحث عن طلاب الشؤون العالمية الذين يتمتعون بخبرة ثمانية أشهر في الاستشارات . أثناء التقدم للوظائف، بدأت العمل التطوعي مع منظمة أخلاقيات الذكاء الاصطناعي.

كان أحد المشاريع التي عملت عليها أثناء العمل التطوعي يدور حول ما إذا كان ينبغي أن تكون هناك حماية لحقوق الطبع والنشر للأعمال الفنية التي ينتجها الذكاء الاصطناعي. لقد تواصلت مع محامٍ في شركة محاماة كندية متخصصة في الذكاء الاصطناعي لفهم هذا المجال بشكل أفضل. لقد ربطتني بشخص ما في CIFAR، الذي ربطني ببنيامين برودوم، المدير التنفيذي لفريق ميلا للذكاء الاصطناعي من أجل الإنسانية. من المذهل الاعتقاد أنه من خلال سلسلة من التبادلات حول فن الذكاء الاصطناعي، تعلمت عن فرصة وظيفية غيرت حياتي منذ ذلك الحين.

ما هي بعض القضايا الأكثر إلحاحًا التي تواجه الذكاء الاصطناعي أثناء تطوره؟

لدي ثلاث إجابات على هذا السؤال مترابطة إلى حد ما. أعتقد أننا بحاجة إلى معرفة:

  1. كيفية التوفيق بين حقيقة أن الذكاء الاصطناعي مصمم ليتم توسيع نطاقه مع ضمان تكييف الأدوات التي نبنيها لتناسب المعرفة والخبرة والاحتياجات المحلية.
  2. إذا أردنا بناء أدوات تتكيف مع السياق المحلي، فسنحتاج إلى دمج علماء الأنثروبولوجيا وعلماء الاجتماع في عملية تصميم الذكاء الاصطناعي. ولكن هناك عدد كبير من هياكل الحوافز وغيرها من العوائق التي تحول دون التعاون الهادف بين التخصصات. كيف يمكننا التغلب على هذا؟
  3. كيف يمكننا التأثير على عملية التصميم بشكل أعمق من مجرد دمج الخبرات المتعددة التخصصات؟ وعلى وجه التحديد، كيف يمكننا تغيير الحوافز بحيث نصمم أدوات مصممة لأولئك الذين هم في أمس الحاجة إليها بدلاً من أولئك الذين تكون بياناتهم أو أعمالهم أكثر ربحية؟

ما هي بعض المشكلات التي يجب على مستخدمي الذكاء الاصطناعي معرفتها؟

يعد استغلال العمالة إحدى القضايا التي لا أعتقد أنها تحظى بتغطية كافية. هناك العديد من نماذج الذكاء الاصطناعي التي تتعلم من البيانات المصنفة باستخدام أساليب التعلم الخاضعة للإشراف. عندما يعتمد النموذج على البيانات المصنفة، هناك أشخاص يتعين عليهم القيام بهذه العلامات (على سبيل المثال، يضيف شخص ما التصنيف “قطة” إلى صورة قطة). غالبًا ما يكون هؤلاء الأشخاص (المعلقون) موضوعًا لممارسات استغلالية. بالنسبة للنماذج التي لا تتطلب تسمية البيانات أثناء عملية التدريب (كما هو الحال مع بعض نماذج الذكاء الاصطناعي التوليدي والنماذج الأساسية الأخرى)، لا يزال من الممكن بناء مجموعات البيانات بشكل استغلالي حيث لا يحصل المطورون غالبًا على موافقة ولا يقدمون تعويضًا أو الائتمان لمنشئي البيانات.

أوصي بالاطلاع على أعمال كريستال كوفمان، التي كنت سعيدًا جدًا برؤيتها معروضة في سلسلة TechCrunch هذه. إنها تحرز تقدمًا في الدفاع عن حقوق العمل للمعلقين، بما في ذلك الأجر المعيشي، ووضع حد لممارسات “الرفض الجماعي”، وممارسات المشاركة التي تتماشى مع حقوق الإنسان الأساسية (استجابة لتطورات مثل المراقبة التدخلية).

ما هي أفضل طريقة لبناء الذكاء الاصطناعي بشكل مسؤول؟

غالبًا ما يتطلع الناس إلى مبادئ الذكاء الاصطناعي الأخلاقية للادعاء بأن التكنولوجيا الخاصة بهم هي المسؤولة. لسوء الحظ، لا يمكن أن يبدأ التفكير الأخلاقي إلا بعد اتخاذ عدد من القرارات بالفعل، بما في ذلك على سبيل المثال لا الحصر:

  1. ماذا تبني؟
  2. كيف حالك بناء عليه؟
  3. كيف سيتم نشرها؟

إذا انتظرت حتى يتم اتخاذ هذه القرارات، فستضيع فرصًا لا حصر لها لبناء تكنولوجيا مسؤولة.

من خلال تجربتي، فإن أفضل طريقة لبناء ذكاء اصطناعي مسؤول هو أن تكون على دراية – منذ المراحل الأولى من العملية – بكيفية تحديد مشكلتك ومن ترضي مصالحه؛ وكيف يدعم التوجه أو يتحدى ديناميكيات السلطة الموجودة مسبقًا؛ وأي المجتمعات سيتم تمكينها أو إضعافها من خلال استخدام الذكاء الاصطناعي.

إذا كنت ترغب في إنشاء حلول ذات معنى، فيجب عليك التنقل في أنظمة القوة هذه بشكل مدروس.

كيف يمكن للمستثمرين الدفع بشكل أفضل نحو الذكاء الاصطناعي المسؤول؟

اسأل عن قيم الفريق. إذا تم تحديد القيم، على الأقل جزئيًا، من قبل المجتمع المحلي وكانت هناك درجة من المساءلة أمام هذا المجتمع، فمن المرجح أن يدمج الفريق ممارسات مسؤولة.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى