أخبار العالم

توقف Meta مؤقتًا عن خطط تدريب الذكاء الاصطناعي باستخدام بيانات المستخدمين الأوروبيين، رضوخًا للضغوط التنظيمية


أكدت شركة Meta أنها ستوقف مؤقتًا خططها لبدء تدريب أنظمة الذكاء الاصطناعي الخاصة بها باستخدام بيانات من مستخدميها في الاتحاد الأوروبي والمملكة المتحدة.

وتأتي هذه الخطوة في أعقاب معارضة من لجنة حماية البيانات الأيرلندية (DPC)، الجهة التنظيمية الرئيسية لشركة Meta في الاتحاد الأوروبي، والتي تعمل نيابة عن حوالي اثنتي عشرة هيئة لحماية البيانات (DPAs) عبر الكتلة. كما طلب مكتب مفوض المعلومات في المملكة المتحدة (ICO) من شركة Meta إيقاف خططها مؤقتًا حتى تتمكن من تلبية المخاوف التي أثارتها.

وقالت DPC في بيان لها اليوم: “ترحب DPC بقرار Meta بإيقاف خططها مؤقتًا لتدريب نموذجها اللغوي الكبير باستخدام المحتوى العام الذي يشاركه البالغين على Facebook وInstagram عبر الاتحاد الأوروبي/المنطقة الاقتصادية الأوروبية”. “لقد جاء هذا القرار بعد مشاركة مكثفة بين DPC وMeta. ستواصل DPC، بالتعاون مع سلطات حماية البيانات في الاتحاد الأوروبي، التعامل مع Meta بشأن هذه المشكلة.

في حين أن شركة ميتا تستغل بالفعل المحتوى الذي ينشئه المستخدم لتدريب الذكاء الاصطناعي الخاص بها في أسواق مثل الولايات المتحدة، فإن لوائح اللائحة العامة لحماية البيانات الصارمة في أوروبا خلقت عقبات أمام شركة ميتا – وغيرها من الشركات – التي تتطلع إلى تحسين أنظمة الذكاء الاصطناعي الخاصة بها من خلال مواد التدريب التي ينشئها المستخدم.

ومع ذلك، بدأت الشركة في إخطار المستخدمين بالتغيير القادم في سياسة الخصوصية الخاصة بها الشهر الماضي، وهو التغيير الذي قالت إنه سيمنحها الحق في استخدام المحتوى العام على Facebook وInstagram لتدريب الذكاء الاصطناعي الخاص بها، بما في ذلك المحتوى من التعليقات والتفاعلات مع الشركات والحالة. التحديثات والصور والتسميات التوضيحية المرتبطة بها. وقالت الشركة إنها بحاجة إلى القيام بذلك ليعكس “اللغات والجغرافيا والمراجع الثقافية المتنوعة للشعب في أوروبا”.

وكان من المقرر أن تدخل هذه التغييرات حيز التنفيذ في 26 يونيو 2024، أي بعد 12 يومًا من الآن. لكن الخطط دفعت منظمة ناشطة الخصوصية غير الهادفة للربح NOYB (“ليس من شأنك”) إلى تقديم 11 شكوى إلى الدول الأعضاء في الاتحاد الأوروبي، بحجة أن Meta تنتهك جوانب مختلفة من اللائحة العامة لحماية البيانات. يتعلق أحدها بمسألة الاشتراك في الاشتراك مقابل إلغاء الاشتراك، في مقابل عندما تتم معالجة البيانات الشخصية، يجب أن يُطلب من المستخدمين الحصول على إذنهم أولاً بدلاً من المطالبة باتخاذ إجراء للرفض.

من جانبها، كانت ميتا تعتمد على بند في القانون العام لحماية البيانات يسمى “المصلحة المشروعة” للتأكيد على أن تصرفاتها متوافقة مع اللوائح. ليست هذه هي المرة الأولى التي تستخدم فيها Meta هذا الأساس القانوني في الدفاع، بعد أن فعلت ذلك سابقًا لتبرير معالجة المستخدمين الأوروبيين للإعلانات المستهدفة.

لقد بدا من المحتمل دائمًا أن يقوم المنظمون على الأقل بوقف تنفيذ التغييرات المخطط لها من قبل شركة ميتا، لا سيما في ضوء مدى الصعوبة التي جعلتها الشركة للمستخدمين “لإلغاء الاشتراك” في استخدام بياناتهم. تقول الشركة إنها أرسلت أكثر من 2 مليار إشعار لإعلام المستخدمين بالتغييرات القادمة، ولكن على عكس الرسائل العامة المهمة الأخرى التي يتم لصقها في الجزء العلوي من خلاصات المستخدمين، مثل المطالبات بالخروج والتصويت، تظهر هذه الإشعارات جنبًا إلى جنب إشعارات المستخدمين القياسية – أعياد ميلاد الأصدقاء، وتنبيهات علامات الصور، وإعلانات المجموعات، والمزيد. لذا، إذا لم يتحقق شخص ما من إشعاراته بانتظام، فمن السهل جدًا تفويت ذلك.

وأولئك الذين يرون الإشعار لن يعرفوا تلقائيًا أن هناك طريقة للاعتراض أو إلغاء الاشتراك، فهو ببساطة يدعو المستخدمين للنقر لمعرفة كيف ستستخدم Meta معلوماتهم. ليس هناك ما يشير إلى وجود خيار هنا.

التعريف: إشعار الذكاء الاصطناعي
اعتمادات الصورة: ميتا

في منشور مدونة محدث اليوم، قال مدير المشاركة العالمية لسياسة الخصوصية في Meta، ستيفانو فراتا، إنه “يشعر بخيبة أمل” بسبب الطلب الذي تلقته من DPC.

وكتب فراتا: “هذه خطوة إلى الوراء بالنسبة للابتكار الأوروبي، والمنافسة في تطوير الذكاء الاصطناعي، ومزيد من التأخير في جلب فوائد الذكاء الاصطناعي للناس في أوروبا”. “نحن واثقون جدًا من أن نهجنا يتوافق مع القوانين واللوائح الأوروبية. إن التدريب على الذكاء الاصطناعي لا يقتصر على خدماتنا، ونحن أكثر شفافية من العديد من نظرائنا في الصناعة.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى