Golpe de voz clonada via WhatsApp já é realidade, alerta especialista em IA
CANALTECH llms 2 min de leitura 0 visualizações

Golpe de voz clonada via WhatsApp já é realidade, alerta especialista em IA

Resumo em 3 bullets

  • Golpes com voz clonada já são realidade e usam IA para imitar familiares.
  • Criminosos coletam áudio em ligações silenciosas para treinar modelos de clonagem.
  • Áudio elimina desconfiança imediata, diferente de golpes por texto.

Contexto

Ferramentas de inteligência artificial capazes de clonar vozes com apenas alguns segundos de áudio estão disponíveis ao público. Segundo Giovanni La Porta, CEO da vortice.ai, esse modelo de fraude já está sendo usado em golpes financeiros.

Insights e implicacoes

A facilidade de clonar vozes muda completamente o cenário de golpes digitais. Enquanto antes os criminosos dependiam de textos mal escritos, agora áudios convincentes podem ser gerados rapidamente.

Isso torna os golpes mais difíceis de identificar e mais eficazes.

O que fazer agora

  • Desconfie de ligações de números desconhecidos e não fale muito ao atender.
  • Verifique pedidos de transferência por outros canais de comunicação.
  • Use autenticação em duas etapas para transações financeiras.

O que vale acompanhar

  • Desenvolvimento de ferramentas para detectar vozes clonadas.
  • Mudanças na legislação sobre deepfakes e uso de IA.
  • Adoção de marcas d'água digitais em conteúdos gerados por IA.

Fonte e transparencia

Matéria publicada no Canaltech em 21/10/2024. Entrevista com Giovanni La Porta, especialista em IA. Link para a matéria original disponível.

Por que isso importa

A voz clonada representa um salto qualitativo nos golpes digitais. Enquanto antes era possível desconfiar de mensagens mal escritas, agora criminosos podem criar áud

Fonte primária

Quer validar os dados no material original? Acesse a referência oficial da notícia.

Abrir fonte primária

Compartilhar

Link copiado!

Continue lendo