هشدار دانشمندان آکسفورد: مشاوره پزشکی با هوش مصنوعی می‌تواند خطرناک باشد

اگر شما هم جزو میلیون‌ها نفری هستید که برای تشخیص بیماری خود به سراغ ChatGPT یا سایر چت‌بات‌ها می‌روید، بهتر است دست نگه دارید. مطالعه جدید محققان دانشگاه آکسفورد نشان می‌دهد که اعتماد به هوش مصنوعی برای تصمیم‌گیری‌های پزشکی می‌تواند عواقب خطرناکی داشته باشد.

براساس گزارش BBC، محققان دانشگاه آکسفورد می‌گویند مدل‌های هوش مصنوعی در زمینه پزشکی پاسخ‌های ناسازگار و گاهی نادرست می‌دهند. دکتر «ربکا پین»، پزشک ارشد این مطالعه، هشدار می‌دهد که پرسیدن علائم بیماری از چت‌بات‌ها می‌تواند خطرناک باشد.

در این پژوهش که روی ۱۳۰۰ نفر انجام شد، شرکت‌کنندگان در سناریوهای مختلف (مانند سردرد شدید یا خستگی مداوم پس از زایمان) قرار گرفتند. نتایج نشان داد افرادی که از هوش مصنوعی استفاده کردند، تصمیمات بهتری نسبت به کسانی که از روش‌های سنتی (مانند جستجو در گوگل) استفاده می‌کردند، نگرفتند.

مشکل اصلی اینجاست که هوش مصنوعی ممکن است سه تشخیص مختلف ارائه دهد و کاربر را در حدس‌زدن گزینه صحیح تنها بگذارد. دکتر «آدام مهدی» توضیح می‌دهد: «مردم اطلاعات را به صورت تدریجی به چت‌بات می‌دهند و همه چیز را نمی‌گویند؛ دقیقاً همین‌جاست که کار خراب می‌شود.»

خطرهای مشاوره پزشکی با هوش مصنوعی

در این مطالعه پژوهشگران متوجه یک شکست ارتباطی دوطرفه بین کاربر و هوش مصنوعی شدند. کاربران نمی‌دانستند هوش مصنوعی برای ارائه مشاوره دقیق به چه جزئیاتی نیاز دارد. از سوی دیگر، پاسخ‌های هوش مصنوعی به شدت به نحوه جمله‌بندی سؤال وابسته بود. محققان می‌گویند: «این تحلیل نشان داد که تعامل با انسان‌ها حتی برای مدل‌های هوش مصنوعی پیشرفته هم یک چالش بزرگ است.»

خطرهای مشاوره پزشکی با هوش مصنوعی

برخلاف تست‌های استاندارد پزشکی که هوش مصنوعی در آنها نمره قبولی می‌گیرد، در دنیای واقعی و در تعامل با افراد غیرمتخصص، این سیستم‌ها دچار لغزش می‌شوند. بنابراین، تکیه بر آنها برای تصمیم‌گیری درباره مراجعه به پزشک عمومی یا اورژانس، ریسک بالایی دارد.

دکتر «امبر چایلدز» (Amber W. Childs) از دانشگاه ییل اشاره می‌کند که چون چت‌بات‌ها با داده‌های فعلی پزشکی آموزش دیده‌اند، همان سوگیری‌ها و تعصباتی را که دهه‌ها در پزشکی وجود داشته است، تکرار می‌کنند. او می‌گوید: «یک چت‌بات فقط به اندازه پزشکان باتجربه‌ای که داده‌هایش را تولید کرده‌اند خوب است، که آن هم کامل نیست.»

البته برخی از کارشناسان نیز معتقدند که نسخه‌‎های تخصصی پزشکی که اخیراً توسط شرکت‌هایی مانند OpenAI و آنتروپیک عرضه شده‌اند، ممکن است نتایج متفاوتی داشته باشند. هدف باید بهبود تکنولوژی با قوانین نظارتی شفاف و گاردریل‌های پزشکی باشد تا امنیت بیماران تضمین شود.

یافته‌های این پژوهش در ژورنال Nature Medicine منتشر شده است.

نظرات کاربران

  • دیدگاه های ارسال شده شما، پس از بررسی توسط تیم مجله فارسی منتشر خواهد شد.
  • پیام هایی که حاوی توهین، افترا و یا خلاف قوانین جمهوری اسلامی ایران باشد منتشر نخواهد شد.
  • لازم به یادآوری است که آی پی شخص نظر دهنده ثبت می شود و کلیه مسئولیت های حقوقی نظرات بر عهده شخص نظر بوده و قابل پیگیری قضایی می باشد که در صورت هر گونه شکایت مسئولیت بر عهده شخص نظر دهنده خواهد بود.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

2 + سیزده =