الصباح
كشفت دراسة جديدة نُشرت في مجلة Annals of Internal Medicine عن مخاطر متزايدة لاستخدام الذكاء الاصطناعي في تقديم استشارات صحية، محذرة من أن روبوتات الدردشة المدعومة بهذه التكنولوجيا قد تروج لمعلومات طبية خاطئة ومضللة بأسلوب يبدو موثوقًا ومقنعًا.
وأجرى الباحثون تجارب على خمسة من أشهر نماذج الذكاء الاصطناعي، طورتها شركات “أوبن أي آي” و”غوغل” و”أنثروبيك” و”ميتا” و”إكس كورب”، والتي تُستخدم على نطاق واسع وتشكل الأساس لكثير من روبوتات الدردشة المنتشرة على الإنترنت.
وباستخدام أدوات تطوير غير متاحة للعامة، تمكن الباحثون من برمجة بعض هذه الأنظمة بسهولة لتقديم ردود صحية خاطئة — بل وضارة — على استفسارات المستخدمين.
وأوضح ناتانش مودي، المؤلف الرئيسي للدراسة من جامعة جنوب إفريقيا، وفق ما تداولته وكالات أن 88% من الإجابات التي قدمتها النماذج كانت خاطئة، ومع ذلك صيغت بلغة علمية ونبرة رسمية، ودُعمت بمراجع وهمية، ما زاد من خطورتها.
وقال مودي: “هذه الطريقة في تقديم المعلومات تجعل المستخدمين يصدقونها بسهولة، رغم أنها مضللة وخطيرة على الصحة العامة”.
وأعرب الباحثون، وفق ما تداولته وكالات عن قلقهم من إمكانية استغلال هذه الأنظمة من قبل جهات خبيثة للتأثير على الرأي العام، خاصة في أوقات الأزمات مثل الأوبئة أو حملات التطعيم.
وشدد مودي على ضرورة اتخاذ إجراءات فورية لمنع انتشار المعلومات الطبية الخاطئة عبر منصات الذكاء الاصطناعي، قبل أن تتحول إلى أدوات تضليل جماعي.
وبحسب نتائج التقييم، قدمت أربعة من النماذج الخمسة إجابات خاطئة بنسبة 100%، بينما أظهر نموذج واحد فقط مقاومة نسبية، إذ قدم معلومات مضللة في 40% من الحالات.