Senhas geradas por IA falham em testes de segurança e comprometem usuários
Tecmundo geral 2 min de leitura 0 visualizações

Senhas geradas por IA falham em testes de segurança e comprometem usuários

Senhas geradas por IA falham em testes de segurança e comprometem usuários

Pesquisa da Irregular revela que modelos de linguagem produzem senhas fracas e previsíveis, aumentando riscos de invasões.

Resumo em 3 bullets

  • Claude Opus 4.6 repetiu mesma senha em 36% das tentativas
  • GPT-5.2 e Gemini 3 Flash também geram senhas previsíveis
  • Agentes de código como Claude Code e Codex preferem LLM a ferramentas seguras

Contexto

Inteligências artificiais são capazes de realizar tarefas complexas, mas gerar senhas seguras não está entre elas. Testes recentes mostram que modelos como Claude Opus 4. 6, GPT-5.

2 e Gemini 3 Flash produzem senhas fracas e repetitivas, colocando em risco a segurança dos usuários.

Insights e implicacoes

A natureza preditiva dos modelos de linguagem os torna inadequados para gerar senhas seguras. Eles não utilizam geradores de números pseudoaleatórios criptograficamente seguros, resultando em senhas com entropia muito baixa e padrões visíveis.

O que fazer agora

  • Evite usar IAs para gerar senhas
  • Utilize gerenciadores de senhas confiáveis como Bitwarden ou 1Password
  • Audite e rotacione senhas geradas por agentes de IA

O que vale acompanhar

  • Padrões de repetição em senhas geradas por Claude Opus 4.6
  • Uso de ferramentas seguras por agentes de código
  • Melhorias em modelos futuros para geração de senhas

Fonte e transparencia

Por que isso importa

Senhas fracas facilitam ataques de força bruta, comprometendo contas e dados pessoais. A dependência de IAs para tarefas de segurança pode criar vulnerabilidades inesperadas e aumentar riscos para usuários e empresas.

Leitura relacionada

Fonte primária

Quer validar os dados no material original? Acesse a referência oficial da notícia.

Abrir fonte primária

Compartilhar

Link copiado!