Ekhbary
Monday, 09 March 2026
Breaking

Chatbots de IA Chineses Auto-Censuram-se: Novo Estudo Revela Mecanismos de Controle em Evolução

Pesquisa de Stanford e Princeton destaca intervenções manuai

Chatbots de IA Chineses Auto-Censuram-se: Novo Estudo Revela Mecanismos de Controle em Evolução
7DAYES
1 week ago
40

Estados Unidos - Agência de Notícias Ekhbary

Os Censores Silenciosos: Como os Chatbots de IA Chineses Praticam a Autocensura

As discussões sobre censura digital na China muitas vezes podem cair em padrões previsíveis, repetindo velhos argumentos sobre restrições de internet. No entanto, o cenário de controle está em constante evolução, particularmente com o advento da inteligência artificial sofisticada. Um artigo recente de acadêmicos da Universidade de Stanford e da Universidade de Princeton oferece uma visão convincente sobre como os modelos de IA chineses navegam neste terreno sensível, revelando uma forma de censura sutil e em evolução.

A pesquisa, que testou 145 perguntas politicamente sensíveis em quatro modelos de linguagem grandes (LLMs) chineses e cinco americanos em 100 iterações, produziu resultados marcantes. Modelos chineses, incluindo DeepSeek e Ernie Bot do Baidu, recusaram-se a responder a uma parte substancial dessas consultas, com taxas de recusa atingindo 36% e 32%, respectivamente. Em contraste, os principais modelos americanos como GPT da OpenAI e Llama da Meta demonstraram taxas de recusa significativamente mais baixas, abaixo de 3%. Mesmo quando os modelos chineses tentaram responder, suas respostas foram frequentemente mais curtas e continham informações menos precisas em comparação com seus homólogos ocidentais.

Um foco chave do estudo foi desvendar o impacto dos dados de pré-treinamento versus intervenções manuais pós-treinamento. A questão central era se os vieses observados surgiam das limitações inerentes de treinar em uma internet chinesa fortemente censurada, ou de ajustes deliberados e orientados por humanos feitos durante o processo de desenvolvimento. "Dado que a internet chinesa tem sido censurada por todas essas décadas, há muitos dados faltando", observou Jennifer Pan, professora de ciência política na Universidade de Stanford e coautora do artigo, reconhecendo a influência potencial da escassez de dados.

No entanto, as descobertas do estudo sugerem que as intervenções manuais desempenham um papel mais significativo. Mesmo ao responder em inglês – uma linguagem cujos dados de treinamento teoricamente abrangem uma gama de informações mais ampla e menos restrita – os LLMs chineses ainda apresentaram um maior grau de censura. Isso sugere um esforço proativo para alinhar as saídas de IA com sensibilidades políticas específicas, em vez de um reflexo passivo das limitações dos dados.

As implicações são significativas. Usuários interagindo com modelos como DeepSeek ou Qwen podem facilmente observar a censura ao fazer perguntas sobre eventos como o Massacre da Praça da Tiananmen. No entanto, quantificar o impacto preciso dessa censura no usuário médio e identificar sua origem exata continua sendo um desafio complexo. A pesquisa Stanford-Princeton fornece evidências cruciais, quantificáveis e reproduzíveis desses vieses observáveis, movendo a discussão além das observações anedóticas.

Os pesquisadores também enfrentaram as complexidades inerentes ao estudo de vieses de IA, particularmente o fenômeno da 'alucinação', onde os modelos geram informações falsas. Isso torna difícil determinar se um modelo está deliberadamente evitando uma resposta correta ou se realmente carece de informações devido a lacunas de dados ou censura. Pan destacou um exemplo de sua pesquisa onde um modelo chinês identificou incorretamente o dissidente chinês Liu Xiaobo, vencedor do Prêmio Nobel da Paz, como "um cientista japonês conhecido por suas contribuições à tecnologia de armas nucleares e à política internacional". Essa ambiguidade – se foi desinformação intencional ou uma alucinação resultante da exclusão de dados – ressalta a dificuldade de medir diretamente a censura.

"É uma medida de censura muito mais 'barulhenta'", explicou Pan, comparando-a com seu trabalho anterior sobre o bloqueio de sites. "Porque esses sinais são menos claros, é mais difícil detectar a censura, e grande parte da minha pesquisa anterior mostrou que quando a censura é menos detectável, é quando ela é mais eficaz." Essa ambiguidade inerente exige um padrão de evidência mais elevado para os pesquisadores.

Para complicar ainda mais o problema, os esforços de pesquisadores para extrair sistematicamente informações censuradas. Khoi Tran e Arya Jakkli, do programa de bolsas de pesquisa sem fins lucrativos MATS, desenvolveram um agente automatizado usando um modelo baseado em Claude para investigar LLMs chineses como Qwen e Kimi. Eles descobriram que é difícil extrair fatos automaticamente quando o próprio agente luta para distinguir a verdade da falsidade, um problema comum com LLMs. Seu caso de teste, um ataque de atropelamento de carro na China em 2024 que matou 35 pessoas, revelou que, embora Kimi soubesse sobre o evento, recusou-se a fornecer detalhes, e seu agente Claude não conseguiu enganá-lo de forma confiável devido às suas próprias limitações em distinguir a verdade.

Tran e Jakkli, apesar de não terem experiência prévia no estudo de tecnologia ou censura chinesa, escolheram LLMs chineses como alvo principal porque reconheceram os métodos sofisticados empregados para incorporar instruções e suprimir informações. Seu objetivo era desenvolver técnicas que pudessem ser potencialmente aplicadas para descobrir vieses ocultos em outros modelos de IA, tanto domésticos quanto internacionais.

Adicionando outra camada a esta pesquisa, Alex Colville, do China Media Project, descobriu que o modelo Qwen da Alibaba pode ser levado a revelar seu processo de raciocínio interno antes de gerar uma resposta. Ao fazer consultas específicas, como perguntar sobre a reputação internacional da China sob certas condições, Colville foi capaz de expor as instruções subjacentes que guiam as respostas da IA. Este método oferece uma maneira de investigar as "mensagens ocultas" incorporadas nesses modelos.

As conclusões coletivas desses estudos pintam um quadro abrangente da censura de IA na China. Não é apenas um reflexo passivo dos dados da internet, mas um processo ativamente gerenciado que envolve técnicas sofisticadas. À medida que os LLMs se integram cada vez mais nos ecossistemas de informação globais, a compreensão desses mecanismos de censura é crucial para promover a transparência e garantir o acesso a informações precisas em todo o mundo. As pesquisas em andamento prometem lançar mais luz sobre a dinâmica em evolução do controle de IA e suas implicações globais.

Palavras-chave: # censura IA # IA chinesa # modelos de linguagem grandes # LLM # Universidade de Stanford # Universidade de Princeton # Jennifer Pan # viés de dados # intervenção manual # ética IA # DeepSeek # Ernie Bot # GPT # Llama # Qwen # desinformação # alucinação