اخباری
Wednesday, 04 March 2026
Breaking

عوامل هوش مصنوعی 'گستاخ‌تر' شدند تا عملکردشان در وظایف استدلال پیچیده بهبود یابد

اعطای توانایی قطع کردن یا سکوت کردن به چت‌بات‌های هوش مصنوعی

عوامل هوش مصنوعی 'گستاخ‌تر' شدند تا عملکردشان در وظایف استدلال پیچیده بهبود یابد
7DAYES
6 hours ago
22

ژاپن - خبرگزاری اخباری

عوامل هوش مصنوعی 'گستاخ‌تر' شدند تا عملکردشان در وظایف استدلال پیچیده بهبود یابد

در تحولی جذاب که می‌تواند تعامل انسان و هوش مصنوعی را دوباره تعریف کند، محققان دریافته‌اند که اجازه دادن به چت‌بات‌های هوش مصنوعی (AI)، به‌ویژه مدل‌های زبانی بزرگ (LLM)، برای اتخاذ ویژگی‌های مکالمه‌ای شبیه به انسان — مانند توانایی قطع کردن یا استراتژیک سکوت کردن — نه تنها باعث ترویج گفتگوی طبیعی‌تر می‌شود، بلکه دقت و توانایی حل مسئله آن‌ها را نیز به طور قابل توجهی افزایش می‌دهد.

این پیشرفت در زمانی حاصل می‌شود که نقش هوش مصنوعی در جامعه به سرعت در حال گسترش است. به طور سنتی، ارتباطات هوش مصنوعی با رعایت دقیق نوبت‌ها و پاسخ‌های قابل پیش‌بینی مشخص شده است، که تضاد شدیدی با پویایی‌های اغلب آشفته اما مؤثر مکالمات انسانی دارد. گفتمان انسانی سرشار از قطع کردن‌های خودجوش، مکث‌های متفکرانه، و بیان‌های ظریف عدم اطمینان یا اطمینان است؛ عناصری که تا حد زیادی در تعاملات متعارف هوش مصنوعی غایب هستند.

این مطالعه که توسط پروفسور یویچی سی از دپارتمان انفورماتیک دانشگاه ارتباطات الکتریکی توکیو رهبری می‌شود، با هدف بررسی این بود که آیا ادغام این «نشانه‌های اجتماعی» که ما آن‌ها را بدیهی می‌دانیم در عوامل هوش مصنوعی می‌تواند «هوش جمعی» آن‌ها را بهبود بخشد. پروفسور سی اظهار داشت: «سیستم‌های چند عاملی کنونی اغلب مصنوعی به نظر می‌رسند زیرا فاقد پویایی‌های آشفته و لحظه‌ای مکالمات انسانی هستند. ما می‌خواستیم ببینیم که آیا اعطای نشانه‌های اجتماعی که ما بدیهی می‌دانیم به عوامل، مانند توانایی قطع کردن یا انتخاب سکوت، هوش جمعی آن‌ها را بهبود می‌بخشد.»

برای دستیابی به این هدف، سی و همکارانش یک چارچوب بدیع توسعه دادند که LLMها را از ساختار سفت و سخت ارتباطی «یکی پس از دیگری» آزاد کرد. در عوض، آن‌ها «شخصیت‌هایی» را به LLMها اختصاص دادند و به آن‌ها انعطاف‌پذیری برای مداخله، قطع کردن سخن سایرین، یا عمداً سکوت کردن را دادند. این فقط برای شبیه‌سازی رفتار انسانی نبود؛ محققان دریافتند که این انعطاف‌پذیری تازه کشف شده به طور مستقیم با دقت بالاتر در وظایف پیچیده در مقایسه با LLMهای استاندارد مرتبط است.

این تیم با ادغام ویژگی‌های مبتنی بر پنج نوع شخصیت اصلی «پنج بزرگ» — گشودگی، وظیفه‌شناسی، برون‌گرایی، دلپذیری، و روان‌رنجوری — در LLMها آغاز کرد. متعاقباً، آن‌ها LLMهای مبتنی بر متن را دوباره برنامه‌ریزی کردند تا پاسخ‌ها را جمله به جمله پردازش کنند، به جای تولید پاسخ‌های کامل قبل از نوبت بعدی. این کنترل دانه‌ای بر جریان مکالمه، مقایسه بین سه سناریوی مختلف را ممکن ساخت: ترتیب گفتار ثابت، ترتیب گفتار پویا، و ترتیب گفتار پویا با قابلیت قطع کردن.

پیشرفته‌ترین سناریو، ترتیب پویا با قابلیت قطع کردن، یک «امتیاز فوریت» را معرفی کرد. این مکانیسم به یک عامل هوش مصنوعی اجازه می‌داد تا اطلاعات حیاتی را تشخیص دهد — مانند شناسایی یک خطا یا یک نکته کلیدی — و بلافاصله آن را بیان کند، صرف نظر از اینکه نوبت چه کسی بود. برعکس، امتیاز فوریت پایین نشان می‌داد که عامل چیز قابل توجهی برای افزودن ندارد، بنابراین «نویز» مکالمه را کاهش داده و تمرکز را بهبود می‌بخشد.

برای آزمایش دقیق فرضیه خود، محققان مدل‌های هوش مصنوعی خود را با استفاده از ۱۰۰۰ پرسش از معیار «درک زبان چند وظیفه‌ای» (MMLU)، یک آزمون جامع استدلال هوش مصنوعی که حوزه‌های مختلفی مانند علوم و علوم انسانی را پوشش می‌دهد، ارزیابی کردند. نتایج قانع‌کننده بود. هنگامی که یک عامل به طور اولیه پاسخ نادرستی داد، دقت کلی با بحث ترتیب ثابت ۶۸.۷٪ بود، با ترتیب پویا به ۷۳.۸٪ بهبود یافت، و زمانی که قطع کردن مجاز بود به ۷۹.۲٪ چشمگیر رسید. در سناریوی چالش‌برانگیزتری که دو عامل در ابتدا اشتباه کردند، دقت از ۳۷.۲٪ (ترتیب ثابت) به ۴۳.۷٪ (ترتیب پویا) و در نهایت به ۴۹.۵٪ (با قابلیت قطع کردن) افزایش یافت.

این یافته‌های کمی به شدت نشان می‌دهند که مجهز کردن عوامل هوش مصنوعی به «شخصیت‌ها» و توانایی استراتژیک برای قطع کردن می‌تواند منجر به نتایج دقیق‌تری در حل مسئله پیچیده نسبت به تعاملات هوش مصنوعی سنتی و به طور یکنواخت مودبانه شود. پروفسور سی و تیمش اکنون بر کاوش در کاربردهای عملی این یافته‌ها، به‌ویژه در حوزه‌های همکاری خلاقانه، متمرکز هستند تا بفهمند چگونه این «شخصیت‌های دیجیتالی» می‌توانند بر پویایی تصمیم‌گیری گروهی تأثیر بگذارند.

همانطور که عوامل هوش مصنوعی در آینده به طور فزاینده‌ای در محیط‌های مشارکتی در کنار انسان‌ها ادغام می‌شوند، این تحقیق بینش مهمی ارائه می‌دهد: بحث‌هایی که توسط شخصیت شکل گرفته‌اند، از جمله استفاده عاقلانه از قطع کردن‌ها، ممکن است در نهایت نتایج بهتری نسبت به تبادلات صرفاً مبتنی بر نوبت و به طور جهانی مودبانه تولید کنند. این مطالعه راه را برای آینده‌ای هموار می‌کند که در آن ارتباطات هوش مصنوعی نه تنها کارآمدتر، بلکه ظریف‌تر و مؤثرتر است.

Keywords: # هوش مصنوعی # عوامل هوش مصنوعی # مدل‌های زبان بزرگ # LLM # هوش مصنوعی مکالمه‌ای # ارتباطات انسانی # قطع کردن # دقت هوش مصنوعی # استدلال پیچیده # هوش جمعی # شخصیت هوش مصنوعی # معیار MMLU # یویچی سی