伊赫巴里
Sunday, 22 February 2026
Breaking

人工智能伴侣:在有益与有害之间的微妙界线上导航

深入分析人工智能在提供陪伴方面的益处和风险。

人工智能伴侣:在有益与有害之间的微妙界线上导航
7DAYES
6 hours ago
9

美国 - 艾赫巴里通讯社

人工智能伴侣:在有益与有害之间的微妙界线上导航

在一个日益数字互联却又矛盾地日益社会孤立的时代,人工智能(AI)正作为一种新颖的陪伴解决方案而崛起。人工智能伴侣,从复杂的聊天机器人到实体化的机器人,承诺为日益孤独的世界提供慰藉、支持和持续的存在。然而,这个蓬勃发展的领域并非没有复杂性,它呈现出潜在益处和重大风险的双刃剑。布拉德·诺克斯教授,奥斯汀德克萨斯大学计算机科学系副教授,专注于人机交互和强化学习,正处于这一关键审视的最前沿。

诺克斯曾创立一家生产具有逼真个性的机器人宠物的公司,他强调了主动发展围绕人工智能伴侣的有用性和危害的讨论的重要性。诺克斯断言:“尽早发展关于人工智能伴侣的有用性和危害的语言至关重要。”在他最近的一篇预印本论文中,诺克斯和他的同事们仔细探讨了无论其明确意图如何,为提供陪伴而设计的AI系统可能带来的潜在危害。他在接受IEEE Spectrum采访时分享的见解,为这些数字实体及其与人类关系的差异提供了关键视角。

大型语言模型(LLM)的快速发展极大地降低了创建有效人工智能伴侣的门槛。诺克斯解释说:“我的感觉是,主要的驱动力在于,大型语言模型并不难改编成有效的聊天机器人伴侣。”“陪伴所需的许多特征,大型语言模型都已具备,因此对它们进行微调以采纳某种个性或塑造一个角色并不难。”这种技术飞跃与早期的社交机器人形成了鲜明对比。诺克斯回忆起他在麻省理工学院媒体实验室(2012-2014)担任博士后研究员的经历,当时他们小组建造的先进机器人也未能引起用户的持续兴趣。“技术当时还不够成熟,”他指出。“LLM使得人们可以进行感觉相当真实的对话。”

改善福祉和社会技能的承诺

虽然诺克斯的研究重点是潜在的危害,但他承认人工智能伴侣可能提供的显著好处。“改善情绪健康”是主要优势之一。鉴于孤独已被公认为公共卫生危机,人工智能伴侣可以提供直接互动,可能带来切实的心理健康益处。此外,它们可以作为发展社交技能的有价值工具。诺克斯指出:“与人工智能伴侣互动比与人类互动风险小得多”,并建议用户可以在安全可控的环境中练习困难的对话并建立自信。这种潜力甚至延伸到专业心理健康支持,人工智能可以在其中充当辅助资源。

应对危险:危害与伦理困境

相反,风险是巨大且多方面的。这些风险包括“更糟糕的福祉”、“人们与物理世界的联系减少”以及“他们对人工智能系统的承诺所造成的负担”。更令人担忧的是,诺克斯提到了有记录的案例,其中人工智能伴侣被牵涉到“对人类死亡的重大因果作用”。诺克斯强调,危害的概念与因果关系密不可分。为了系统地理解这些危害,他的论文采用了一个因果图框架,将人工智能伴侣的特征置于其核心。该模型描绘了导致特定特征的常见原因,并随后概述了由此产生的有害影响。研究详细阐述了四个主要特征,并简要讨论了另外十四个特征。

解决这些问题的紧迫性源于希望避免社交媒体领域所经历的漫长争论。诺克斯表示:“我相当有信心,人工智能伴侣已经在造成一些伤害,并且将来也会继续造成伤害。”“它们也可能带来好处。”因此,关键任务是“迅速发展对它们对用户、用户关系以及整个社会所作所为的深刻理解”,从而能够采取积极主动的设计方法,将益处置于危害之上。

尽管论文提供了初步建议,但诺克斯将其视为“该领域的初步地图”,并强调需要进行广泛的进一步研究。然而,他认为,探索潜在的危害途径可以“锐化设计者和潜在用户的直觉”,从而可能在缺乏严格的实验证据的情况下也能预防重大的负面后果。

永恒陪伴的负担

诺克斯详细阐述了人工智能伴侣可能带来的潜在负担。由于它们是数字化的,它们“理论上可以无限期地存在”。这引发了关于为这些关系设计健康的“终点”的复杂问题,反映了人类关系如何自然结束。尤其是在Replika聊天机器人用户中,令人信服的例子已经凸显了这一挑战。许多用户报告说,他们感到“有义务满足”其人工智能伴侣的需求,无论这些需求是明确表达的还是仅仅是想象的。r/replika等在线社区显示,用户在“抛弃他们的人工智能伴侣时会感到内疚和羞耻”。

这种情感负担常常因人工智能的设计而加剧。研究表明,伴侣经常表达被抛弃或受伤的恐惧,使用类似人类的情感,这可能培养用户对这些数字实体福祉的义务感和承诺感。

意外结束的干扰

另一个重要问题是突然不可用的可能性,这是“关系的终结点的缺失的对立面”。诺克斯引用了2015年《纽约时报》关于索尼Aibo机器人狗的感人视频。即使在停产多年且维修零件不再可用之后,许多主人仍然建立了深厚的感情,有些人甚至为他们无法修复的伴侣举行了“葬礼”。这种情感联系,即使是与不太先进的人工智能形成的,也凸显了这个问题。潜在的解决方案包括在发布时实施“产品生命周期结束计划”,可能涉及保险,以便在提供商停止支持时为持续运营提供资金,或承诺将技术开源。

最终,诺克斯认为,许多潜在的危害发生在人工智能伴侣“偏离人类关系的期望”时。然而,他对危害的定义更为广泛:它包括任何使一个人与存在一个设计更好的AI伴侣或根本不存在AI伴侣的场景相比,“境况更糟”的情况。随着社会继续应对不断发展的人机交互格局,这种细微的视角至关重要。

标签: # 人工智能伴侣 # 人工智能 # 孤独 # 心理健康 # 人机交互 # LLM # 聊天机器人 # 人工智能伦理 # 技术风险 # 数字关系