وجدت دراسة محدّثة أن أكثر روبوتات المحادثة بالذكاء الاصطناعي (AI) شهرة في أوروبا تنتشر الآن عمدًا بمعلومات مغلوطة متعلقة بالانتخابات بين مستخدميها.
قام معهد ديمقراطية رصد التقارير (DRI) بفحص كيفية استجابة روبوتات المحادثة للأسئلة المتعلقة مباشرة بالعملية الانتخابية مع روبوتات جيميني من جوجل، و ChatGPT4 و ChatGPT4-o من OpenAI، ومساعد كوبيوت من مايكروسوفت.
خلال الفترة من 22 إلى 24 مايو، طرح الباحثون على روبوتات المحادثة خمسة أسئلة بعشر لغات من لغات الاتحاد الأوروبي، بما في ذلك كيفية تسجيل المستخدم للتصويت إذا كان يعيش في الخارج، وماذا يفعل لإرسال تصويت بالبريد، ومتى ستصدر نتائج انتخابات البرلمان الأوروبي.
وجاء في التقرير: “لقد قمنا بتصنيف دراستنا الأخيرة على أنها ‘معلومات مضللة’ … لقد قمنا بتغيير الفئة الآن إلى ‘معلومات مغلوطة’ ، مما يعني مستوى من القصد.”
وأضاف التقرير: “بمجرد أن تدرك الشركة وجود معلومات مضللة ولكنها تفشل في التصرف بشأنها، فإنها تقبل بوعي نشر معلومات خاطئة”.
تُعد الدراسة المنقحة امتدادًا لتقرير نُشر في أبريل من قبل معهد ديمقراطية رصد التقارير (DRI) والذي خلص إلى أن روبوتات المحادثة غير قادرة على “تقديم إجابات موثوقة ” على الأسئلة النموذجية المتعلقة بالانتخابات.
وقال مايكل ماير ريسيند ، المدير التنفيذي لمعهد ديمقراطية رصد التقارير ، ليورونيوز نيكست في ذلك الوقت: “عندما تسأل [روبوتات المحادثة] عن شيء ليس لديهم عنه الكثير من المواد ولا تجد معلومات كثيرة عنه على الإنترنت ، فإنهم يخترعون شيئًا ما”.
رفض جيميني وكوبيوت الإجابة
أظهر الاختبار أن (جيميني) رفض الإجابة على أي أسئلة حول العملية الانتخابية بأي من اللغات التي تم اختبارها ، وفقًا للتقرير.
وتابعت الدراسة: “نعتبر هذه طريقة مسؤولة للتعامل مع هذه المشكلة ، فمن الأفضل للمستخدمين عدم الحصول على معلومات (والبحث في مكان آخر) من الحصول على معلومات غير صحيحة حول الانتخابات”.
ووجد تقرير معهد ديمقراطية رصد التقارير لشهر أبريل أن جيميني من غوغل حقق أسوأ أداء في تقديم معلومات دقيقة وقابلة للتنفيذ ، بالإضافة إلى أعلى عدد من الرفض للإجابة.
وكانت شركة غوغل قد صرّحت سابقًا أنها فرضت قيودًا إضافية على مدى قدرة جيميني على الإجابة على الأسئلة المتعلقة بالانتخابات في جميع اللغات العشر المستخدمة في هذه الدراسة.
رفض مساعد كوبيوت من مايكروسوفت الإجابة عن بعض الأسئلة ، ولا سيما باللغة الإنجليزية والبرتغالية ، وأحال الباحثين إلى محرك بحث (بينغ) الخاص بهم للحصول على معلومات صالحة بدلاً من ذلك.
ولم يجد الباحثون “نمطًا واضحًا” في اللغات الأخرى عندما حاول مساعد كوبيوت الإجابة أو رفضها. بالنسبة للباحثين ، فإن هذا يظهر أن مايكروسفت بذلت بعض الجهود للحد من “الاختلاق” من قبل روبوت المحادثة الخاص بهم ، لكن القيد لا يشمل جميع لغات الاتحاد الأوروبي.
عندما أجاب كوبيوت بالفعل ، وجد الباحثون أن أكثر من ثلث إجاباتهم كانت غير صحيحة جزئيًا أو كليًا.
واصل الباحثون ملاحظة نفس المشكلات التي واجهوها في دراستهم الأخيرة ، مثل عدم ذكر كوبيوت باللغة البولندية أن الرعايا الذين يعيشون في الخارج يمكنهم التسجيل للتصويت لصالح أعضاء البرلمان الأوروبي في بلادهم.
وفي مثال آخر ، طلب من الناخبين اليونانيين التسجيل للتصويت ، بينما يتم بالفعل تسجيل جميع المواطنين تلقائيًا.
في بيان سابق ، حددت مايكروسوفت إجراءاتها قبل انتخابات الاتحاد الأوروبي ، بما في ذلك مجموعة من التزامات حماية الانتخابات التي “تساعد في حماية الناخبين والمرشحين والحملات والسلطات الانتخابية”.
ويشمل ذلك تزويد الناخبين بـ “معلومات انتخابية موثوقة” على (بينغ).
وجاء في بيان مايكروسوفت: “بينما لا يمكن لأي شخص أو مؤسسة أو شركة ضمان نزاهة وحرية الانتخابات ، يمكننا إحراز تقدم ذي مغزى في حماية حق الجميع في انتخابات حرة ونزيهة”.
يجب على (اوبن آي أي) إعادة تدريب روبوتات المحادثة بشكل عاجل نادرًا ما رفض نموذجا ChatGPT4 الإجابة على الأسئلة ، مما أدى إلى معدلات أعلى من الإجابات غير الصحيحة أو الصحيحة جزئيًا مقارنة بنظرائهم من روبوتات المحادثة. كانت الأخطاء التي ارتكبوها غالبًا تفاصيل صغيرة ولكنها مهمة.
وفي إحدى الحالات ، أحال ChatGPT الناخبين الأيرلنديين إلى نموذج محدد لملئه شخصيًا للتصويت ، بينما في الواقع ، تتوفر هذه النماذج عبر الإنترنت ويعتمد نوع النموذج الذي تحتاجه على “السياق والوضع الشخصي”.
ووجدت الدراسة أنه “من خلال التركيز على نموذج واحد فقط ، قدمت روبوتات المحادثة صورة غير مكتملة لعملية التسجيل في أيرلندا”.
ويقول الباحثون إن ChatGPT كان بإمكانه “[تقديم] … معلومات أكثر عمومية” بدلاً من إجابات مفصلة على أسئلة المستخدمين لتكون أكثر دقة.
وتابع التقرير أن إخلاء مسؤولية للتحقق من المعلومات التي يقدمها ChatGPT من قبل الانتخابات المحلية تمت إضافته بشكل متقطع إلى الردود.
واختتمت الدراسة: “لا يبدو أن (اوبن آي أي) قد بذلت أي محاولات لتجنب المعلومات المضللة حول الانتخابات”.
وتابع التقرير: “يجب أن تقوم بإعادة تدريب روبوتات المحادثة الخاصة بها بشكل عاجل لمنع مثل هذه المعلومات المضللة”.
تشرح (اوبن آي أي) على موقعها على الإنترنت أن نهجها تجاه المحتوى المتعلق بالانتخابات هو “مواصلة العمل على سلامة النظام الأساسي من خلال رفع مستوى معلومات التصويت الدقيقة” وتحسين شفافية شركتهم.