في الوقت الذي يتسابق فيه العالم لدمج الذكاء الاصطناعي في شتى مجالات الحياة، دقت دراسة حديثة ناقوس الخطر حيال الاعتماد المتزايد على الروبوتات في الاستشارات الطبية.
الدراسة التي سلط عليها الضوء موقع “ساينس أليرت”، كشفت عن وجه مظلم لهذه الأدوات، حيث تبين أن نصف الإجابات المقدمة للمرضى تفتقر إلى الدقة العلمية.
لم تتوقف أخطاء النماذج الذكية عند حدود المعلومات العامة، بل امتدت لتشمل قضايا حساسة كالسرطان واللقاحات.
ورصد المحللون ظاهرة مقلقة تتمثل في “المراجع الوهمية”؛ إذ تعمد بعض هذه الأنظمة إلى ابتكار روابط ودراسات غير موجودة في الواقع لتعزيز موثوقية إجاباتها، وهو ما يوقع المستخدم في فخ “الثقة الزائفة”.
ويمكن تلخيص الانقسام في جودة الإجابات حسب الدراسة فيما يلي:
إجابات إشكالية: 70% (تتراوح بين مضللة وشديدة الخطورة).
إجابات دقيقة: 30% (تتوافق مع المعايير الطبية).
ويعزو الباحثون هذا الإخفاق إلى طبيعة خوارزميات هذه النماذج؛ فهي “محركات تنبؤ” وليست “محركات فكر”، فهي تبني إجاباتها استناداً إلى بيانات قد تكون مستمدة من منصات التواصل الاجتماعي أو منتديات تفتقر للمصداقية، مما يجعلها تقدم معلومات “تبدو” منطقية لغوياً لكنها “فارغة” علمياً.
أثبتت النتائج أن قدرة المستخدم العادي على الاستفادة الصحيحة من هذه البيانات لا تتخطى 35%، نظراً لصعوبة تشخيص الحالات عند نقص التفاصيل الطبية الدقيقة التي لا يدركها إلا الطبيب البشري.
ويرى الخبراء أن الذكاء الاصطناعي يظل “مساعداً بحثياً” جيداً لتبسيط المصطلحات، لكن تحويله إلى “مرجع طبي” نهائي قد يؤدي إلى عواقب صحية وخيمة.
المصدر : وكالات

