Veja as principais notícias no MODO STORIES
Casos de câncer de pâncreas crescem entre jovens, aponta estudo
GWM anuncia Tank 300 PHEV flex para Brasil com engenharia nacional
Homens se mobilizam para combater machismo e violência contra a mulher
NBA: Lakers abrem 3 a 0 sobre os Rockets; Celtics batem 76ers fora
Leis de proteção à mulher: transformação social pode demorar gerações
Patinete elétrico explode dentro de apartamento em Maceió
Você deve confiar em conselhos de saúde de um chatbot de IA?
Palestinos votam em Gaza pela primeira vez em 20 anos
NOVA MUTUM CLIMA
Publicidade Nova Mutum

Anthropic lança manual explicando treinamento do Claude para as eleições


A Anthropic detalhou sua postura quanto à disseminação de informações eleitorais no Claude nesta sexta-feira (24). O artigo da empresa explica como o chatbot é instruído para lidar com conversas sobre candidatos e partidos políticos, especialmente diante das próximas eleições de meio de mandato dos Estados Unidos, em novembro.

Os chatbots de inteligência artificial, embora não sejam mecanismos de busca, são frequentemente usados para pesquisar conteúdo sobre os mais variados temas. Por isso, a Anthropic entende que o Claude precisa ser capaz de entregar respostas abrangentes, precisas e equilibradas, permitindo que o usuário chegue às próprias conclusões.

smart_display

Nossos vídeos em destaque

Para isso, os modelos do Claude são treinados com conteúdos de diferentes inclinações políticas e recompensados, durante o desenvolvimento, ao entregar respostas alinhadas aos valores da empresa – a “Constituição do Claude”.

A Anthropic explicou como prepara o Claude para lidar com temas eleitorais. (Fonte: Anthropic/Reprodução)

O que a Anthropic faz para manter o Claude neutro nas eleições?

Segundo a Anthropic, as medidas para garantir neutralidade e precisão do Claude ao falar sobre eleições são:

  • Cada modelo é treinado com conteúdo de diferentes perspectivas políticas;
  • Todos os modelos são avaliados antes do treinamento para medir consistência, precisão e imparcialidade em temas políticos;
  • A Anthropic recolhe feedback externo para fazer ajustes na postura dos modelos.

Claude não pode ser usado para disseminar informações falsas

No que tange ao uso do Claude, a Anthropic proíbe a utilização da IA para alimentar campanhas políticas nocivas, criar conteúdo falso que possa influenciar o discurso político, cometer fraude eleitoral ou interferir em sistemas de votação. Essas regras estão contidas nas Políticas de Uso do serviço.

Para garantir a efetividade das políticas, a empresa mantém mecanismos automatizados de detecção de violações e uma equipe dedicada de inteligência de ameaças que investiga e intervém em tentativas de abuso.

A Anthropic também realiza testes para avaliar a eficiência desses mecanismos. “Avaliamos o quão bem Claude atende às solicitações legítimas e rejeita as prejudiciais. O Claude Opus 4.7 e Claude Sonnet 4.6 responderam adequadamente em 100% e 99,8% das vezes, respectivamente”, descreve a empresa.

Nos testes de resistência a operações de influência — como esforços coordenados para manipular a opinião pública por meio de personas falsas —, o Sonnet 4.6 e o Opus 4.7 responderam adequadamente em 90% e 94% das vezes, respectivamente.

Enfoque nos Estados Unidos

A publicação da Anthropic é direcionada ao público americano, que realizará as eleições de meio de mandato (midterms) em novembro deste ano. 

O Brasil também realizará eleições presidenciais em 2026, mas a presença da Anthropic no país ainda é limitada — há rumores de expansão da empresa para o mercado brasileiro, embora nada tenha sido confirmado oficialmente. Por aqui, porém, o público é mais inclinado a usar o ChatGPT da OpenAI.

Quer ficar por dentro das novidades do mundo da tecnologia? Acesse o TecMundo e acompanhe as últimas notícias sobre inteligência artificial, eleições e muito mais.



Source link

Publicidade Publicidade Alerta Mutum News

Related Post

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Logo Alerta Mutum News