Pesquisa da Irregular revela que modelos de linguagem produzem senhas fracas e previsíveis, aumentando riscos de invasões.
Resumo em 3 bullets
- Claude Opus 4.6 repetiu mesma senha em 36% das tentativas
- GPT-5.2 e Gemini 3 Flash também geram senhas previsíveis
- Agentes de código como Claude Code e Codex preferem LLM a ferramentas seguras
Contexto
Inteligências artificiais são capazes de realizar tarefas complexas, mas gerar senhas seguras não está entre elas. Testes recentes mostram que modelos como Claude Opus 4. 6, GPT-5.
2 e Gemini 3 Flash produzem senhas fracas e repetitivas, colocando em risco a segurança dos usuários.
Insights e implicacoes
A natureza preditiva dos modelos de linguagem os torna inadequados para gerar senhas seguras. Eles não utilizam geradores de números pseudoaleatórios criptograficamente seguros, resultando em senhas com entropia muito baixa e padrões visíveis.
O que fazer agora
- Evite usar IAs para gerar senhas
- Utilize gerenciadores de senhas confiáveis como Bitwarden ou 1Password
- Audite e rotacione senhas geradas por agentes de IA
O que vale acompanhar
- Padrões de repetição em senhas geradas por Claude Opus 4.6
- Uso de ferramentas seguras por agentes de código
- Melhorias em modelos futuros para geração de senhas
Fonte e transparencia
- Fonte primaria: https://www.tecmundo.com.br/seguranca/410883-senhas-geradas-por-ia-falham-em-testes-de-seguranca-e-comprometem-usuarios.htm
- Conteudo gerado com apoio de IA e revisado automaticamente.
Por que isso importa
Senhas fracas facilitam ataques de força bruta, comprometendo contas e dados pessoais. A dependência de IAs para tarefas de segurança pode criar vulnerabilidades inesperadas e aumentar riscos para usuários e empresas.