A Anthropic detalhou sua postura quanto à disseminação de informações eleitorais no Claude nesta sexta-feira (24). O artigo da empresa explica como o chatbot é instruído para lidar com conversas sobre candidatos e partidos políticos, especialmente diante das próximas eleições de meio de mandato dos Estados Unidos, em novembro.
Os chatbots de inteligência artificial, embora não sejam mecanismos de busca, são frequentemente usados para pesquisar conteúdo sobre os mais variados temas. Por isso, a Anthropic entende que o Claude precisa ser capaz de entregar respostas abrangentes, precisas e equilibradas, permitindo que o usuário chegue às próprias conclusões.
smart_display
Nossos vídeos em destaque
Para isso, os modelos do Claude são treinados com conteúdos de diferentes inclinações políticas e recompensados, durante o desenvolvimento, ao entregar respostas alinhadas aos valores da empresa – a “Constituição do Claude”.
O que a Anthropic faz para manter o Claude neutro nas eleições?
Segundo a Anthropic, as medidas para garantir neutralidade e precisão do Claude ao falar sobre eleições são:
- Cada modelo é treinado com conteúdo de diferentes perspectivas políticas;
- Todos os modelos são avaliados antes do treinamento para medir consistência, precisão e imparcialidade em temas políticos;
- A Anthropic recolhe feedback externo para fazer ajustes na postura dos modelos.
Claude não pode ser usado para disseminar informações falsas
No que tange ao uso do Claude, a Anthropic proíbe a utilização da IA para alimentar campanhas políticas nocivas, criar conteúdo falso que possa influenciar o discurso político, cometer fraude eleitoral ou interferir em sistemas de votação. Essas regras estão contidas nas Políticas de Uso do serviço.
Para garantir a efetividade das políticas, a empresa mantém mecanismos automatizados de detecção de violações e uma equipe dedicada de inteligência de ameaças que investiga e intervém em tentativas de abuso.
A Anthropic também realiza testes para avaliar a eficiência desses mecanismos. “Avaliamos o quão bem Claude atende às solicitações legítimas e rejeita as prejudiciais. O Claude Opus 4.7 e Claude Sonnet 4.6 responderam adequadamente em 100% e 99,8% das vezes, respectivamente”, descreve a empresa.
Nos testes de resistência a operações de influência — como esforços coordenados para manipular a opinião pública por meio de personas falsas —, o Sonnet 4.6 e o Opus 4.7 responderam adequadamente em 90% e 94% das vezes, respectivamente.
Enfoque nos Estados Unidos
A publicação da Anthropic é direcionada ao público americano, que realizará as eleições de meio de mandato (midterms) em novembro deste ano.
O Brasil também realizará eleições presidenciais em 2026, mas a presença da Anthropic no país ainda é limitada — há rumores de expansão da empresa para o mercado brasileiro, embora nada tenha sido confirmado oficialmente. Por aqui, porém, o público é mais inclinado a usar o ChatGPT da OpenAI.
Quer ficar por dentro das novidades do mundo da tecnologia? Acesse o TecMundo e acompanhe as últimas notícias sobre inteligência artificial, eleições e muito mais.

