هشدار دانشمندان آکسفورد: مشاوره پزشکی با هوش مصنوعی میتواند خطرناک باشد
اگر شما هم جزو میلیونها نفری هستید که برای تشخیص بیماری خود به سراغ ChatGPT یا سایر چتباتها میروید، بهتر است دست نگه دارید. مطالعه جدید محققان دانشگاه آکسفورد نشان میدهد که اعتماد به هوش مصنوعی برای تصمیمگیریهای پزشکی میتواند عواقب خطرناکی داشته باشد.
براساس گزارش BBC، محققان دانشگاه آکسفورد میگویند مدلهای هوش مصنوعی در زمینه پزشکی پاسخهای ناسازگار و گاهی نادرست میدهند. دکتر «ربکا پین»، پزشک ارشد این مطالعه، هشدار میدهد که پرسیدن علائم بیماری از چتباتها میتواند خطرناک باشد.
در این پژوهش که روی ۱۳۰۰ نفر انجام شد، شرکتکنندگان در سناریوهای مختلف (مانند سردرد شدید یا خستگی مداوم پس از زایمان) قرار گرفتند. نتایج نشان داد افرادی که از هوش مصنوعی استفاده کردند، تصمیمات بهتری نسبت به کسانی که از روشهای سنتی (مانند جستجو در گوگل) استفاده میکردند، نگرفتند.
مشکل اصلی اینجاست که هوش مصنوعی ممکن است سه تشخیص مختلف ارائه دهد و کاربر را در حدسزدن گزینه صحیح تنها بگذارد. دکتر «آدام مهدی» توضیح میدهد: «مردم اطلاعات را به صورت تدریجی به چتبات میدهند و همه چیز را نمیگویند؛ دقیقاً همینجاست که کار خراب میشود.»
خطرهای مشاوره پزشکی با هوش مصنوعی
در این مطالعه پژوهشگران متوجه یک شکست ارتباطی دوطرفه بین کاربر و هوش مصنوعی شدند. کاربران نمیدانستند هوش مصنوعی برای ارائه مشاوره دقیق به چه جزئیاتی نیاز دارد. از سوی دیگر، پاسخهای هوش مصنوعی به شدت به نحوه جملهبندی سؤال وابسته بود. محققان میگویند: «این تحلیل نشان داد که تعامل با انسانها حتی برای مدلهای هوش مصنوعی پیشرفته هم یک چالش بزرگ است.»

برخلاف تستهای استاندارد پزشکی که هوش مصنوعی در آنها نمره قبولی میگیرد، در دنیای واقعی و در تعامل با افراد غیرمتخصص، این سیستمها دچار لغزش میشوند. بنابراین، تکیه بر آنها برای تصمیمگیری درباره مراجعه به پزشک عمومی یا اورژانس، ریسک بالایی دارد.
دکتر «امبر چایلدز» (Amber W. Childs) از دانشگاه ییل اشاره میکند که چون چتباتها با دادههای فعلی پزشکی آموزش دیدهاند، همان سوگیریها و تعصباتی را که دههها در پزشکی وجود داشته است، تکرار میکنند. او میگوید: «یک چتبات فقط به اندازه پزشکان باتجربهای که دادههایش را تولید کردهاند خوب است، که آن هم کامل نیست.»
البته برخی از کارشناسان نیز معتقدند که نسخههای تخصصی پزشکی که اخیراً توسط شرکتهایی مانند OpenAI و آنتروپیک عرضه شدهاند، ممکن است نتایج متفاوتی داشته باشند. هدف باید بهبود تکنولوژی با قوانین نظارتی شفاف و گاردریلهای پزشکی باشد تا امنیت بیماران تضمین شود.
یافتههای این پژوهش در ژورنال Nature Medicine منتشر شده است.
نظرات کاربران