قالت شركة غوغل إن عائلتها الجديدة من نماذج الذكاء الاصطناعي تتمتع بميزة مثيرة للفضول وهي القدرة على تحديد المشاعر. وقد أعلنت عن عائلة “بيليجيما 2” (PaliGemma 2) التي تملتك قدرة تحليل صور الأشخاص وإنشاء تسميات توضيحية والإجابة على الأسئلة حول الأشخاص الموجودين في الصورة. وفقا لموقع “تيك كرانش”.
وكتبت غوغل في منشور مدونة أن نماذج “بيليجيما 2” تولد تسميات توضيحية مفصلة عما يجري في الصورة، وتتجاوز التعرف البسيط على الأشياء لوصف الأفعال والمشاعر والسرد العام للمشهد.
ومن الجدير بالذكر أن تقنية التعرف على المشاعر لا تعمل بشكل تلقائي وتحتاج لضبط. ورغم ذلك، فقد أبدى الخبراء قلقهم من احتمال وجود تقنية لكشف المشاعر متاحة للعلن.
وقالت ساندرا واتشر أستاذة أخلاقيات البيانات والذكاء الاصطناعي في معهد أكسفورد للإنترنت لموقع “تيك كرانش”: “إنه أمر مزعج للغاية، ومن غير المنطقي الافتراض بأننا نستطيع قراءة مشاعر الناس”.
وعلى مر السنين حاولت الشركات الناشئة وشركات التكنولوجيا العملاقة على حد سواء بناء الذكاء الاصطناعي الذي يمكنه اكتشاف المشاعر في كل شيء من تدريب المبيعات إلى منع الحوادث. ويدعي البعض أنهم حققوا ذلك، لكن العلم يقف على أرض تجريبية غير مستقرة.
وتستند غالبية تقنيات كشف المشاعر إلى الأعمال السابقة لبول إكمان، وهو عالم نفس افترض أن البشر يشتركون في 6 مشاعر أساسية وهي الغضب والدهشة والاشمئزاز والاستمتاع والخوف والحزن. ومع ذلك، فإن الدراسات اللاحقة أثارت الشكوك حول فرضية إكمان، حيث أظهرت أن هناك اختلافات كبيرة في الطريقة التي يعبر بها الأشخاص عن مشاعرهم.
ويقول مايك كوك الباحث في جامعة كوين ماري والمتخصص في الذكاء الاصطناعي في تقرير “تيك كرانش”:”اكتشاف المشاعر ليس ممكنا في الحالة العامة، لأن الناس يختبرون المشاعر بطرق معقدة”. وأضاف “نعتقد أنه يمكننا معرفة ما يشعر به الآخرون من خلال النظر إليهم، وقد حاول الكثيرون على مر السنين القيام بذلك، مثل وكالات التجسس أو شركات التسويق. وأنا متأكد من إمكانية اكتشاف بعض العلامات في بعض الحالات، لكن هذا ليس شيئا يمكننا حله بشكل كامل”.
والنتيجة المتوقعة هي أن أنظمة كشف المشاعر عادة ما تكون غير موثوقة ومتحيزة لفرضيات مصمميها. وفي دراسة أجريت في معهد ماساتشوستس للتكنولوجيا عام 2020، أظهر الباحثون أن النماذج التي تحلل الوجوه يمكن أن تتطور لتفضيل تعابير معينة، مثل الابتسامة. وتشير أبحاث أحدث أن نماذج التحليل العاطفي تعطي مشاعر سلبية أكثر لوجوه الأشخاص السود مقارنة بوجوه الأشخاص البيض.
وبالمقابل تقول غوغل إنها أجرت اختبارات موسعة لتقييم التحيزات الديمغرافية في نماذج “بيليجيما 2” ووجدت مستويات منخفضة من الأخطاء والشتائم مقارنة بالمعايير المهنية. ولكن الشركة لم تقدم القائمة الكاملة للمعايير التي استخدمتها، كما لم توضح أنواع الاختبارات التي أجرتها. وفقا لتيك كرانش.
والمعيار الوحيد الذي كشفت عنه هو “فير فيس” (FairFace)، وهو عبارة عن مجموعة صور لوجوه عشرات الآلاف من الأشخاص. وتدّعي الشركة أن “بيليجيما 2” حقق نتائج جيدة في هذا المعيار. ولكن بعض الباحثين انتقدوا هذا المعيار باعتباره مقياسا متحيزا، مشيرين إلى أن “فير فيس” يمثل فقط عددا قليلا من المجموعات العرقية.
وقالت هايدي خلف عالمة الذكاء الاصطناعي في معهد “إيه آي ناو” (AI Now) “إن تفسير المشاعر هو مسألة ذات طابع شخصي للغاية تمتد إلى ما هو أبعد من استخدام الوسائل البصرية، وتكون متأصلة بشكل كبير في السياق الشخصي والثقافي، وبحسب الأبحاث فنحن لا نستطيع اكتشاف المشاعر من ملامح الوجه وحدها” بحسب التقرير.
ومن جهة أخرى، أثارت أنظمة كشف المشاعر غضب المنظمين في الخارج الذين سعوا إلى تقليص استخدام التكنولوجيا في الجوانب عالية المخاطر. ويحظر قانون الذكاء الاصطناعي في الاتحاد الأوروبي على المدارس وأرباب العمل نشر أجهزة كشف المشاعر (لكن ليس على وكالات إنفاذ القانون).
وقالت خلف “إذا كانت نماذج تحديد المشاعر مبنية على افتراضات زائفة علميا، فهناك تداعيات كبيرة حول استخدام هذه القدرة لتعزيز التمييز ضد المجموعات المهمشة مثلما يحدث في إنفاذ القانون والموارد البشرية وإدارة الحدود وما إلى ذلك”.
وسُئل المتحدث باسم غوغل عن مخاطر إطلاق “بيليجيما 2” بشكل عام، وقال لموقع تيك كرانش: “إن الشركة تقف وراء اختباراتها الأضرار التمثيلية فيما يتعلق بالإجابة عن الأسئلة البصرية والتوصيف”. وأضاف “لقد أجرينا تقييمات دقيقة لنماذج تحديد المشاعر فيما يتعلق بالأخلاق والسلامة، بما في ذلك سلامة الأطفال وسلامة المحتوى”.