ژاپن - خبرگزاری اخباری
عوامل هوش مصنوعی 'گستاختر' شدند تا عملکردشان در وظایف استدلال پیچیده بهبود یابد
در تحولی جذاب که میتواند تعامل انسان و هوش مصنوعی را دوباره تعریف کند، محققان دریافتهاند که اجازه دادن به چتباتهای هوش مصنوعی (AI)، بهویژه مدلهای زبانی بزرگ (LLM)، برای اتخاذ ویژگیهای مکالمهای شبیه به انسان — مانند توانایی قطع کردن یا استراتژیک سکوت کردن — نه تنها باعث ترویج گفتگوی طبیعیتر میشود، بلکه دقت و توانایی حل مسئله آنها را نیز به طور قابل توجهی افزایش میدهد.
این پیشرفت در زمانی حاصل میشود که نقش هوش مصنوعی در جامعه به سرعت در حال گسترش است. به طور سنتی، ارتباطات هوش مصنوعی با رعایت دقیق نوبتها و پاسخهای قابل پیشبینی مشخص شده است، که تضاد شدیدی با پویاییهای اغلب آشفته اما مؤثر مکالمات انسانی دارد. گفتمان انسانی سرشار از قطع کردنهای خودجوش، مکثهای متفکرانه، و بیانهای ظریف عدم اطمینان یا اطمینان است؛ عناصری که تا حد زیادی در تعاملات متعارف هوش مصنوعی غایب هستند.
Read Also
- ناسا اهداف مدارگرد ارتباطی مریخ را تشریح کرد
- نیروی فضایی آمریکا پیگیری مخفیانه فضا را به روی شرکتهای تجاری باز میکند
- CAS Space آماده پرتاب اولیه Kinetica-2 در اواخر مارس میشود
- اخترشناسان روشی نوین برای اندازهگیری دقیق انبساط کیهانی با استفاده از ابرنواخترهای لنز شده را رونمایی کردند
- چگونه نجات زمین میتواند مدار را نابود کند: مطالعه جدید خطرات برخورد ماهوارهها را برجسته میکند
این مطالعه که توسط پروفسور یویچی سی از دپارتمان انفورماتیک دانشگاه ارتباطات الکتریکی توکیو رهبری میشود، با هدف بررسی این بود که آیا ادغام این «نشانههای اجتماعی» که ما آنها را بدیهی میدانیم در عوامل هوش مصنوعی میتواند «هوش جمعی» آنها را بهبود بخشد. پروفسور سی اظهار داشت: «سیستمهای چند عاملی کنونی اغلب مصنوعی به نظر میرسند زیرا فاقد پویاییهای آشفته و لحظهای مکالمات انسانی هستند. ما میخواستیم ببینیم که آیا اعطای نشانههای اجتماعی که ما بدیهی میدانیم به عوامل، مانند توانایی قطع کردن یا انتخاب سکوت، هوش جمعی آنها را بهبود میبخشد.»
برای دستیابی به این هدف، سی و همکارانش یک چارچوب بدیع توسعه دادند که LLMها را از ساختار سفت و سخت ارتباطی «یکی پس از دیگری» آزاد کرد. در عوض، آنها «شخصیتهایی» را به LLMها اختصاص دادند و به آنها انعطافپذیری برای مداخله، قطع کردن سخن سایرین، یا عمداً سکوت کردن را دادند. این فقط برای شبیهسازی رفتار انسانی نبود؛ محققان دریافتند که این انعطافپذیری تازه کشف شده به طور مستقیم با دقت بالاتر در وظایف پیچیده در مقایسه با LLMهای استاندارد مرتبط است.
این تیم با ادغام ویژگیهای مبتنی بر پنج نوع شخصیت اصلی «پنج بزرگ» — گشودگی، وظیفهشناسی، برونگرایی، دلپذیری، و روانرنجوری — در LLMها آغاز کرد. متعاقباً، آنها LLMهای مبتنی بر متن را دوباره برنامهریزی کردند تا پاسخها را جمله به جمله پردازش کنند، به جای تولید پاسخهای کامل قبل از نوبت بعدی. این کنترل دانهای بر جریان مکالمه، مقایسه بین سه سناریوی مختلف را ممکن ساخت: ترتیب گفتار ثابت، ترتیب گفتار پویا، و ترتیب گفتار پویا با قابلیت قطع کردن.
پیشرفتهترین سناریو، ترتیب پویا با قابلیت قطع کردن، یک «امتیاز فوریت» را معرفی کرد. این مکانیسم به یک عامل هوش مصنوعی اجازه میداد تا اطلاعات حیاتی را تشخیص دهد — مانند شناسایی یک خطا یا یک نکته کلیدی — و بلافاصله آن را بیان کند، صرف نظر از اینکه نوبت چه کسی بود. برعکس، امتیاز فوریت پایین نشان میداد که عامل چیز قابل توجهی برای افزودن ندارد، بنابراین «نویز» مکالمه را کاهش داده و تمرکز را بهبود میبخشد.
برای آزمایش دقیق فرضیه خود، محققان مدلهای هوش مصنوعی خود را با استفاده از ۱۰۰۰ پرسش از معیار «درک زبان چند وظیفهای» (MMLU)، یک آزمون جامع استدلال هوش مصنوعی که حوزههای مختلفی مانند علوم و علوم انسانی را پوشش میدهد، ارزیابی کردند. نتایج قانعکننده بود. هنگامی که یک عامل به طور اولیه پاسخ نادرستی داد، دقت کلی با بحث ترتیب ثابت ۶۸.۷٪ بود، با ترتیب پویا به ۷۳.۸٪ بهبود یافت، و زمانی که قطع کردن مجاز بود به ۷۹.۲٪ چشمگیر رسید. در سناریوی چالشبرانگیزتری که دو عامل در ابتدا اشتباه کردند، دقت از ۳۷.۲٪ (ترتیب ثابت) به ۴۳.۷٪ (ترتیب پویا) و در نهایت به ۴۹.۵٪ (با قابلیت قطع کردن) افزایش یافت.
این یافتههای کمی به شدت نشان میدهند که مجهز کردن عوامل هوش مصنوعی به «شخصیتها» و توانایی استراتژیک برای قطع کردن میتواند منجر به نتایج دقیقتری در حل مسئله پیچیده نسبت به تعاملات هوش مصنوعی سنتی و به طور یکنواخت مودبانه شود. پروفسور سی و تیمش اکنون بر کاوش در کاربردهای عملی این یافتهها، بهویژه در حوزههای همکاری خلاقانه، متمرکز هستند تا بفهمند چگونه این «شخصیتهای دیجیتالی» میتوانند بر پویایی تصمیمگیری گروهی تأثیر بگذارند.
Related News
- سیستم پیشبینی جدید، شدیدترین فورانهای خورشید را ماهها قبل پیشبینی میکند
- مهندس به طور تصادفی کنترل 7000 جاروبرقی رباتیک را به دست میآورد و یک نقص امنیتی بزرگ را فاش میکند
- ماریو دراگی نسبت به آیندهای تاریک برای اروپا هشدار میدهد: تبعیت، تجزیه و صنعتیزدایی
- بازار نقل و انتقالات: بشیکتاش فشار را برای آلفا توره افزایش میدهد، متز مقاومت میکند
- روز جهانی خرس قطبی: فراخوانی برای اقدام جهت حفاظت از شکارچی باشکوه قطب شمال
همانطور که عوامل هوش مصنوعی در آینده به طور فزایندهای در محیطهای مشارکتی در کنار انسانها ادغام میشوند، این تحقیق بینش مهمی ارائه میدهد: بحثهایی که توسط شخصیت شکل گرفتهاند، از جمله استفاده عاقلانه از قطع کردنها، ممکن است در نهایت نتایج بهتری نسبت به تبادلات صرفاً مبتنی بر نوبت و به طور جهانی مودبانه تولید کنند. این مطالعه راه را برای آیندهای هموار میکند که در آن ارتباطات هوش مصنوعی نه تنها کارآمدتر، بلکه ظریفتر و مؤثرتر است.