A Anthropic vazou o modelo mais poderoso que já construiu. E fez isso da forma mais constrangedora possível.
O documento que a empresa não queria que ninguém visse ficou guardado num servidor público, sem senha, sem proteção, totalmente indexável pelo Google. O nome do modelo: Claude Mythos.
A Anthropic vazou o modelo mais poderoso que já construiu. E fez isso da forma mais constrangedora possível.
O documento que a empresa não queria que ninguém visse ficou guardado num servidor público, sem senha, sem proteção, totalmente indexável pelo Google. O nome do modelo: Claude Mythos.
A Anthropic está construindo um modelo de IA que ela própria descreve como um risco de segurança sem precedentes para a civilização digital. E descobrimos isso porque a empresa deixou o anúncio num servidor aberto que qualquer pesquisador com vontade de procurar conseguiu encontrar.
Não foi um hack. Não foi espionagem corporativa. Foi erro humano na configuração do sistema de gerenciamento de conteúdo. Cerca de 3 mil arquivos não publicados, incluindo um rascunho de post de blog anunciando o modelo, ficaram acessíveis e indexáveis publicamente. Dois pesquisadores de segurança, Roy Paz da LayerX Security e Alexandre Pauwels da Universidade de Cambridge, encontraram os documentos antes que a Anthropic percebesse o que havia acontecido.
A ironia não precisa de elaboração. Uma empresa que está construindo o que descreve como o modelo de IA mais avançado em capacidades de cibersegurança expôs esse mesmo anúncio por falha básica de configuração.
O que os documentos revelaram
O modelo se chama Claude Mythos. Internamente, a Anthropic o posiciona numa nova camada chamada Capybara, que ficaria acima dos modelos Opus, o topo atual da linha da empresa. Opus, Sonnet e Haiku são os três tiers existentes. Capybara seria um quarto, mais potente e muito mais caro.
O rascunho vazado descreve o Mythos como “de longe o modelo de IA mais poderoso que já desenvolvemos.” Supera o Claude Opus 4.6, que era até agora o modelo de referência da empresa, em codificação de software, raciocínio acadêmico e cibersegurança.
Mas é o trecho sobre riscos que parou o mercado.
O documento diz que o modelo “anuncia uma onda de modelos que podem explorar vulnerabilidades em formas que ultrapassam em muito os esforços dos defensores.” E que ele “representa riscos de cibersegurança sem precedentes.” Por causa disso, a Anthropic está limitando o acesso inicial a organizações focadas em defesa cibernética, para que possam se preparar antes que o modelo chegue a um público mais amplo.
As ações de empresas de cibersegurança despencaram na sexta-feira logo após a notícia. O analista da Stifel descreveu o Mythos como com potencial de se tornar “a ferramenta definitiva de hacking” e capaz de “elevar qualquer hacker comum ao nível de um adversário de Estado nacional.”
O problema que ninguém está nomeando direito
A narrativa que circulou nos últimos dias focou no vazamento e nos riscos do modelo. O sinal fraco que ficou por baixo do ruído é outro.
A Anthropic confirmou que um grupo patrocinado pelo governo chinês já usou o Claude Code para infiltrar cerca de 30 organizações, incluindo empresas de tecnologia, instituições financeiras e agências governamentais, antes de ser detectado. Isso aconteceu com o modelo atual. Com um modelo que a empresa descreve como dramaticamente mais capaz em cibersegurança, a mesma lógica de uso dual, a mesma ferramenta que defende também ataca, não desaparece. Ela escala.
E o mercado entendeu isso antes da maioria das análises técnicas.
O que o vazamento do Mythos mapeia não é só um novo produto poderoso vindo por aí. É a formalização de um ciclo que já estava acontecendo de forma silenciosa: modelos de IA frontier se tornando infraestrutura de ataque ao mesmo tempo em que tentam ser infraestrutura de defesa. Dois usos, um modelo, zero separação estrutural possível.
O detalhe que diz tudo sobre o momento
O rascunho vazado também incluiu um PDF sobre um retiro exclusivo de dois dias para CEOs europeus num castelo inglês do século XVIII. Dario Amodei estava confirmado para participar. A Anthropic descreveu o evento como parte de uma série de encontros que a empresa vem realizando para vender seus modelos a grandes clientes corporativos.
Num documento só, a empresa entregou o novo modelo stealth, a estratégia de rollout cauteloso, o alerta de risco sem precedentes e o convite para jantar num castelo.
Tudo num servidor sem senha.
Como ganhar dinheiro com esse sinal agora
O mercado de defesa cibernética baseada em IA está prestes a receber uma injeção de urgência que nenhuma campanha de marketing conseguiria gerar. Quando a própria Anthropic admite que seu modelo “ultrapassa os esforços dos defensores”, ela está criando demanda direta para qualquer produto que prometa estar do lado certo desse gap.
Os primeiros a ganhar são os que chegarem com um blueprint claro para as empresas que ainda não sabem o que fazer com essa informação. Esse público é enorme. A maioria das empresas de médio porte não tem equipe de segurança que entenda o que um modelo de IA frontier consegue fazer contra sua infraestrutura hoje, muito menos com o Mythos.
Consultoria de threat modeling para o cenário de IA avançada, produtos de detecção de exploração assistida por LLM, treinamentos sobre o que muda na superfície de ataque quando o atacante tem acesso a um modelo capaz de identificar vulnerabilidades de produção em tempo real. Esse mercado está nascendo agora, antes do Mythos sair do early access. Quem montar o shovel business desse ciclo nos próximos noventa dias pega o quiet money antes de virar pauta de congresso de segurança.
O que fica quando a poeira baixar
A Anthropic vai lançar o Mythos. Provavelmente com mais cautela do que qualquer modelo anterior. Provavelmente com acesso controlado, testes de red team, parcerias com empresas de defesa cibernética. A empresa tem histórico de levar segurança mais a sério do que a maioria dos concorrentes.
Mas o ciclo que o Mythos inaugura não é controlável por cautela num lançamento. É estrutural. Modelos mais capazes de identificar e explorar vulnerabilidades chegam ao mesmo tempo para defensores e para atacantes. A vantagem vai para quem usar primeiro, com mais velocidade e com menos restrição.
E como o vazamento desta semana deixou claro, nem a Anthropic está imune a uma configuração errada de servidor.
Se você quer estar dois passos à frente do que vem por aí em IA, cibersegurança e tecnologia, acompanhe o Tech Gossip em www.techgossip.com.br. Radar semanal do que ainda não virou pauta.
Me conta aqui nos comentários:
Sua empresa já avaliou o que muda na superfície de ataque quando o adversário passa a ter acesso a um modelo frontier de IA? Ou isso ainda está na fila do “vamos pensar quando acontecer”?
Se o Mythos for tão capaz quanto os documentos descrevem, qual setor você acha que vai ser o primeiro alvo real, saúde, financeiro, infraestrutura crítica?
O fato de a Anthropic ter vazado o anúncio por erro de configuração básica muda em alguma coisa sua confiança nos sistemas que a empresa está construindo?
#InteligenciaArtificial #Cibersegurança #Anthropic #ClaudeMythos #AIRisks #TechGossip #Inovacao #Tecnologia #FuturoDoTrabalho #InfoSec #AITools #MachineLearning #LLM #Seguranca #StartupTech


