Veja as principais notícias no MODO STORIES
Governo deve assinar MP do diesel nesta semana para conter alta de preços
Palpites para Barcelona SC x Cruzeiro MG: Análises e Onde Assistir (07/04/2026)
Mundo pré-Trump não volta, e Brasil pode afetar futuro, diz Anne Applebaum
BC impôs sigilo de oito anos sob documentos da liquidação do Banco Master
Imagens mostram estradas com crateras onde EUA realizaram resgate militar
Palpites para Deportivo La Guaira x Fluminense: Análises e Onde Assistir (07/04/2026)
Artemis Il avança e nave Orion passa a ser “puxada” pela Lua; entenda
PAQUETA SAI EM DEFESA DO PLATA

A torcida vem criticando bastante o Plata ultim…
NOVA MUTUM CLIMA
Publicidade Nova Mutum

Anthropic flexibiliza segurança em IA em meio a disputa com o Pentágono


A Anthropic, empresa fundada por ex-funcionários da OpenAI preocupados com os perigos da IA, está flexibilizando o princípio fundamental de segurança em resposta à concorrência.

A Anthropic está adotando uma estrutura de segurança não vinculativa que, segundo a empresa, pode e irá mudar.

Em uma postagem no blog da companhia na terça-feira (24), detalhando a nova política, a Anthropic afirmou que as deficiências na Política de Escalabilidade Responsável, em vigor há dois anos, podem prejudicar a capacidade de competir em um mercado de IA em rápido crescimento.

O anúncio ocorre na mesma semana em que a Anthropic trava uma batalha significativa com o Pentágono dos Estados Unidos sobre as diretrizes da IA.

Não está claro se a mudança da Anthropic está relacionada à reunião de terça-feira (24) com o Secretário de Defesa dos EUA, Pete Hegseth, que deu um ultimato ao CEO da Anthropic, Dario Amodei, para que revogasse as medidas de segurança de IA da empresa ou corresse o risco de perder um contrato de US$ 200 milhões com o Pentágono. O Pentágono ameaçou colocar a Anthropic no que é, na prática, uma “lista negra do governo americano”.

Mas a empresa afirmou na publicação que a política de segurança anterior foi criada para gerar consenso na indústria em torno da mitigação dos riscos da IA ​​– medidas que a indústria, segundo a companhia, ignorou completamente. A Anthropic também apontou que a política de segurança estava em desacordo com o atual clima político antirregrulamentação de Washington.

A política anterior da Anthropic estipulava que ela deveria pausar o treinamento de modelos mais poderosos se as capacidades destes ultrapassassem a capacidade da empresa de controlá-los e garantir a segurança – uma medida que foi removida na nova política. A Anthropic argumentou que desenvolvedores de IA responsáveis ​​que pausam o crescimento enquanto agentes menos cuidadosos seguem em frente podem “resultar em um mundo menos seguro”.

Como parte da nova política, a Anthropic afirmou que irá separar os próprios planos de segurança das recomendações para a indústria de IA.

A Anthropic escreveu que esperava que os princípios de segurança originais “incentivassem outras empresas de IA a adotar políticas semelhantes”. “Essa é a ideia de uma ‘corrida para o topo’ (o oposto de uma ‘corrida para o fundo do poço’), na qual diferentes participantes do setor são incentivados a aprimorar, em vez de enfraquecer, as salvaguardas dos modelos e da postura geral de segurança”, destacou.

A empresa sugere que isso não tem acontecido agora. Um porta-voz da Anthropic não respondeu imediatamente a um pedido de comentário.

Nova política de segurança

A nova política de segurança da Anthropic inclui um “Roteiro de Segurança de Fronteira” que descreve as diretrizes e salvaguardas autoimpostas pela empresa. Mas a empresa reconheceu que a nova estrutura é mais flexível do que a política anterior.

“Em vez de compromissos rígidos, estes são objetivos públicos para os quais avaliaremos abertamente nosso progresso”, declarou a empresa.

A mudança ocorre um dia depois de o Secretário de Defesa dos EUA, Pete Hegseth, ter dado ao CEO da Anthropic, Dario Amodei, um prazo até sexta-feira (27) para reverter as medidas de segurança de IA da empresa, sob o risco de perder um contrato de US$ 200 milhões com o Pentágono e ser incluído no que é, na prática, uma “lista negra do governo”.

A Anthropic tem preocupações com duas questões que não está disposta a abandonar, de acordo com uma fonte familiarizada com a reunião da empresa com Hegseth: armas controladas por IA e vigilância doméstica em massa de cidadãos americanos. A Anthropic acredita que a IA não é confiável o suficiente para operar armas e que ainda não existem leis ou regulamentações que abranjam como a IA poderia ser usada em vigilância em massa, acrescentou a fonte.

Pesquisadores de IA aplaudiram a posição da Anthropic nas redes sociais na terça-feira (24) e expressaram preocupação com a ideia da IA ser usada para vigilância governamental.

A empresa sempre se posicionou como a empresa de IA que prioriza a segurança. A Anthropic publicou pesquisas mostrando como os próprios modelos de IA poderiam ser usados ​​para chantagem sob certas condições. Recentemente, a empresa doou US$ 20 milhões para a Public First Action, um grupo político que defende salvaguardas e educação em IA.

Mas a empresa tem enfrentado crescente pressão e concorrência tanto do governo quanto de rivais. Hegseth, por exemplo, planeja invocar a Lei de Produção de Defesa contra a Anthropic e designá-la como um risco na cadeia de suprimentos caso não cumpra as exigências do Pentágono, informou a CNN na terça-feira (24). A OpenAI e a Anthropic também estão em uma corrida para lançar novas ferramentas de IA corporativas, em uma tentativa de conquistar o mercado de trabalho.

Jared Kaplan, diretor científico da Anthropic, sugeriu em uma entrevista à revista Time que a mudança foi feita em nome da segurança, mais do que do aumento da concorrência.

“Sentimos que não ajudaria ninguém se parássemos de treinar modelos de IA”, sinalizou Kaplan à revista. “Com o rápido avanço da IA, não nos pareceu sensato assumir compromissos unilaterais, se os concorrentes estão avançando a passos largos”.

*Hadas Gold, da CNN, contribuiu com esta matéria



Source link

Publicidade Publicidade Alerta Mutum News

Related Post

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Logo Alerta Mutum News