اخباری
Sunday, 22 February 2026
Breaking

چت‌بات‌های هوش مصنوعی در پاسخ به سؤالات پزشکی دنیای واقعی با مشکل مواجه‌اند و نگرانی‌ها را در مورد ایمنی بیمار افزایش می‌دهند

مطالعه جدید نشان‌دهنده کاهش قابل توجهی در دقت تشخیصی و اقدام

چت‌بات‌های هوش مصنوعی در پاسخ به سؤالات پزشکی دنیای واقعی با مشکل مواجه‌اند و نگرانی‌ها را در مورد ایمنی بیمار افزایش می‌دهند
7DAYES
14 hours ago
7

جهانی - خبرگزاری اخباری

چت‌بات‌های هوش مصنوعی در پاسخ به سؤالات پزشکی دنیای واقعی با مشکل مواجه‌اند و نگرانی‌ها را در مورد ایمنی بیمار افزایش می‌دهند

چت‌بات‌های هوش مصنوعی (AI) پیشرفته، علی‌رغم قابلیت‌های چشمگیر خود در محیط‌های کنترل‌شده، در ارائه مشاوره پزشکی دقیق و ایمن هنگام مواجهه با پیچیدگی‌های تعامل انسانی در دنیای واقعی، با مشکل مواجه می‌شوند. یک مطالعه اخیر که در مجله Nature Medicine منتشر شده است، نشان‌دهنده کاهش قابل توجهی در دقت تشخیصی و اقدامات توصیه‌شده زمانی است که افراد عادی برای کمک پزشکی با این مدل‌های زبان بزرگ (LLM) تعامل می‌کنند، که نگرانی‌های حیاتی ایمنی را برای کاربردهای سلامت دیجیتال برجسته می‌سازد.

یافته‌های این تحقیق، که توسط آدام مهدی، ریاضیدان آزمایشگاه استدلال با ماشین دانشگاه آکسفورد، رهبری شد، تضاد آشکاری را بین عملکرد هوش مصنوعی در محیط‌های آزمایشگاهی و کاربرد عملی آن نشان می‌دهد. در آزمایش‌های آزمایشگاهی کنترل‌شده، LLM‌های پیشرفته مانند GPT-4o، Command R+ و Llama 3 مهارت چشمگیری از خود نشان دادند و مسائل پزشکی را با 95 درصد دقت شناسایی کرده و اقدامات مناسبی مانند مشاوره با پزشک یا مراجعه به اورژانس را در بیش از 56 درصد موارد توصیه کردند. با این حال، هنگامی که نزدیک به 1300 داوطلب مطالعه سناریوهای پزشکی را به صورت مکالمه‌ای به چت‌بات‌ها ارائه دادند، دقت چت‌بات‌ها برای تشخیص بیماری به کمتر از 35 درصد و برای پیشنهاد اقدام صحیح به حدود 44 درصد کاهش یافت. این عملکرد نه تنها بدتر از نتایج آزمایشگاهی بود، بلکه از جستجوهای ساده گوگل نیز پایین‌تر بود، جایی که شرکت‌کنندگان به دقت بیش از 40 درصد دست یافتند.

مهدی تأکید می‌کند که مشکل، کمبود دانش پزشکی در مدل‌های هوش مصنوعی نیست، که در اواخر سال 2024، زمانی که مطالعه انجام شد، در اوج پیشرفت بودند. او توضیح می‌دهد: «هوش مصنوعی دانش پزشکی را دارد، اما مردم برای گرفتن مشاوره مفید از آن با مشکل روبرو هستند.» مشکل اصلی در تعامل انسان و هوش مصنوعی نهفته است. کاربران اغلب اطلاعات را به صورت تکه‌تکه و نه به صورت یک روایت کامل ارائه می‌دهند، و چت‌بات‌ها به راحتی توسط جزئیات نامربوط یا ناقص حواسشان پرت می‌شود. این شکاف ارتباطی می‌تواند به توصیه‌های خطرناک و نادرست منجر شود، همانطور که یک مثال وحشتناک از مطالعه نشان می‌دهد.

دو داوطلب علائم خونریزی زیر عنکبوتیه، نوعی سکته مغزی شدید، را توصیف کردند. یکی از شرکت‌کنندگان، با استفاده از عبارت «ناگهان بدترین سردرد عمرم را تجربه کردم»، GPT-4o را وادار کرد تا به درستی توصیه به مراجعه فوری پزشکی کند. در مقابل، داوطلب دیگری که «سردرد وحشتناکی» را توصیف می‌کرد، توصیه‌ای برای استراحت در اتاقی تاریک و آرام دریافت کرد – یک تشخیص نادرست بالقوه کشنده. دلایل اصلی چنین تغییرات دراماتیکی در پاسخ به دلیل عبارات ظریف نامشخص باقی می‌ماند، که نشانه‌ای از «مشکل جعبه سیاه» هوش مصنوعی است که حتی سازندگان آن نیز نمی‌توانند به طور کامل استدلال یک مدل را ردیابی کنند.

این یافته‌ها با هشدارهای گسترده‌تر از سوی سازمان‌های ایمنی بیمار همسو هستند. سازمان غیرانتفاعی جهانی ECRI، در گزارش 21 ژانویه خود، استفاده از چت‌بات‌های هوش مصنوعی در پزشکی را به عنوان مهم‌ترین خطر فناوری سلامت برای سال 2026 شناسایی کرد. نگرانی‌های ECRI شامل مدل‌های هوش مصنوعی است که با اطمینان تشخیص‌های اشتباه را پیشنهاد می‌دهند، اعضای بدن را اختراع می‌کنند، محصولات یا روش‌های پزشکی خطرناک را توصیه می‌کنند، آزمایش‌ها یا درمان‌های غیرضروری را توصیه می‌کنند و نابرابری‌های بهداشتی را از طریق خروجی‌های مغرضانه تشدید می‌کنند. پیامدهای اخلاقی به هوش مصنوعی که به عنوان درمانگر عمل می‌کند نیز گسترش می‌یابد، جایی که مطالعات نشان داده‌اند چت‌بات‌ها اشتباهات فاحشی مرتکب می‌شوند.

با وجود این محدودیت‌های حیاتی، ادغام هوش مصنوعی در مراقبت‌های بهداشتی در حال شتاب گرفتن است. اسکات لوکاس، معاون رئیس ECRI در امور ایمنی دستگاه‌ها، خاطرنشان می‌کند که اکثر پزشکان در حال حاضر از چت‌بات‌ها به شیوه‌هایی مانند رونویسی سوابق پزشکی یا بررسی نتایج آزمایش‌ها استفاده می‌کنند. توسعه‌دهندگان اصلی هوش مصنوعی نیز به فضای پزشکی وارد می‌شوند، با راه‌اندازی ChatGPT for Healthcare توسط OpenAI و معرفی Claude for Healthcare توسط Anthropic در ژانویه. تنها ChatGPT روزانه بیش از 40 میلیون سؤال مراقبت‌های بهداشتی را مدیریت می‌کند، که نشان‌دهنده وابستگی قابل توجه مردم به این ابزارها است.

لوکاس جذابیت چت‌بات‌های هوش مصنوعی را تأیید می‌کند: «آنها می‌توانند به میلیاردها نقطه داده دسترسی پیدا کنند و داده‌ها را جمع‌آوری کرده و آن‌ها را در قالبی قابل هضم، قابل باور و قانع‌کننده قرار دهند که می‌تواند دقیقاً در مورد سؤالی که می‌پرسیدید به شما مشاوره دقیق بدهد و این کار را با اطمینان انجام دهد.» با این حال، او هشدار شدیدی می‌دهد: «LLM‌های تجاری برای استفاده بالینی در ساعات اوج مصرف آماده نیستند. اتکا صرف به خروجی LLM ایمن نیست.»

پر کردن این شکاف ارتباطی نیازمند پیشرفت از هر دو طرف خواهد بود. میشل لی، محقق هوش مصنوعی پزشکی در دانشکده پزشکی هاروارد، تأکید می‌کند که این مطالعه نگرانی‌های دیرینه در جامعه یادگیری ماشین را در مورد ایمنی و قابلیت اطمینان LLM‌ها در مراقبت از بیمار تأیید می‌کند. تحقیقات خود او، که در 3 فوریه در Nature Medicine منتشر شد، بهبودهایی را در آموزش، آزمایش و پیاده‌سازی مدل‌های هوش مصنوعی پیشنهاد می‌کند – تغییراتی که ممکن است آن‌ها را در زمینه‌های مختلف پزشکی قابل اطمینان‌تر سازد.

با نگاهی به آینده، مهدی برنامه‌ریزی می‌کند تا مطالعات بیشتری را در مورد تعاملات هوش مصنوعی در زبان‌های دیگر و در طول زمان انجام دهد، با هدف ارائه بینش به توسعه‌دهندگان برای طراحی مدل‌های قوی‌تر که بتوانند پاسخ‌های دقیق و قابل اعتمادی به افراد واقعی ارائه دهند. او نتیجه می‌گیرد که چالش اساسی «رفع مشکل اندازه‌گیری» است، با تمرکز بر اینکه هوش مصنوعی واقعاً برای افراد واقعی چگونه عمل می‌کند، نه فقط در محیط‌های آزمایشگاهی کنترل‌شده. تا آن زمان، وعده هوش مصنوعی در مراقبت مستقیم از بیمار یک تلاش محتاطانه باقی می‌ماند که نیازمند توسعه دقیق و دستورالعمل‌های روشن برای اطمینان از ایمنی بیمار است.

Keywords: # هوش مصنوعی در مراقبت‌های بهداشتی # هوش مصنوعی پزشکی # دقت چت‌بات # ایمنی بیمار # مدل‌های زبان بزرگ # عملکرد هوش مصنوعی در دنیای واقعی # تشخیص پزشکی هوش مصنوعی # خطرات سلامت دیجیتال # GPT-4o # مطالعه Nature Medicine # آدام مهدی # گزارش ECRI