美国 - 艾赫巴里通讯社
无声的审查者:中国AI聊天机器人如何进行自我审查
关于中国数字审查的讨论常常陷入可预测的模式,重提关于互联网限制的老调。然而,控制的格局在不断演变,特别是随着复杂人工智能的出现。斯坦福大学和普林斯顿大学学者最近的一篇论文,对中国人工智能模型如何驾驭这一敏感领域提供了引人注目的视角,揭示了一种细致且不断发展的审查形式。
这项研究对四个中国和五个美国大型语言模型(LLM)进行了145个政治敏感问题的测试,进行了100次迭代,产生了鲜明的对比结果。包括DeepSeek和百度“文心一言”(Ernie Bot)在内的中国模型,拒绝回答相当一部分的查询,拒绝率分别高达36%和32%。相比之下,OpenAI的GPT和Meta的Llama等领先的美国模型,拒绝率显著较低,低于3%。即使中国模型试图回答,其回答通常也比西方同行更简短,包含的信息准确性也较低。
另请阅读
该研究的一个关键焦点是区分预训练数据的影响与训练后手动干预的影响。核心问题在于,观察到的偏见是源于在高度审查的中国互联网上训练的固有局限性,还是源于开发过程中进行的有意识的、人为的调整。斯坦福大学政治学教授、该论文的合著者詹妮弗·潘(Jennifer Pan)承认了数据稀缺的潜在影响,他说:“鉴于中国互联网几十年来一直受到审查,存在大量缺失的数据。”
然而,研究结果倾向于手动干预在其中扮演了更重要的角色。即使在用英语回答时——一种其训练数据理论上涵盖了更广泛、限制更少的信息范围的语言——中国的LLM仍然表现出更高程度的审查。这表明,与其被动反映数据限制,不如说是为了使AI的输出与特定的政治敏感性保持一致而进行的积极努力。
其影响是重大的。与DeepSeek或Qwen等模型互动 Thus, the content for language ID 7 (Chinese) is provided below, following the exact structure and requirements.