Domingo, 26 de outubro-(10) de 2025
Polícia
Civil alerta para golpe com telefonemas mudos usados por criminosos para clonar
vozes via inteligência artificial e enganar familiares.
A Polícia
Civil de São Paulo alertou sobre um novo golpe que vem se espalhando pelo país:
criminosos têm utilizado ligações telefônicas de curta duração para
capturar e clonar a voz de vítimas, aplicando golpes financeiros por meio de
inteligência artificial.
Segundo a corporação, o golpe
começa com um telefonema mudo — a chamada é encerrada poucos segundos após o
atendimento, momento suficiente para que o sistema capture o timbre da voz do
destinatário.
Como funciona o golpe
Com o material gravado, os
criminosos utilizam ferramentas de IA capazes
de reproduzir o tom e o jeito de falar da pessoa. Em seguida, entram em contato
com familiares da vítima, fingindo ser ela, e fazem pedidos de dinheiro.
“Com inteligência artificial,
eles clonam seu tom e jeito de falar. Depois, usam essa voz falsa para aplicar
golpes, fingindo ser você e enganando até familiares”, alertou a Polícia Civil
em publicação nas redes sociais.
A técnica é conhecida como deep fake, que combina sons e
imagens reais para criar versões falsas e realistas. O método também vem sendo
usado para acessar contas bancárias e praticar fraudes digitais.
Três segundos bastam para clonar uma voz.
De acordo com especialistas,
bastam três segundos de gravação para
que programas de IA consigam imitar uma voz com precisão. A informação foi
destacada por Daniel Barsotti, diretor de tecnologia da empresa Idwall, em
entrevista à Folha de S. Paulo.
Golpistas também costumam buscar fotos, vídeos e áudios em redes sociais ou
até imagens de documentos furtados, ampliando as possibilidades de falsificação.
Uma das tecnologias capazes de
realizar esse tipo de clonagem foi criada pela OpenAl, empresa responsável
pelo ChatGPT. Quando anunciou o recurso, em março do ano passado, a companhia
afirmou que o manteria sob controle até desenvolver medidas eficazes de segurança.
À época, a OpenAI informou que seriam necessários 15 segundos de gravação para
reproduzir uma voz artificialmente.
Casos de
estelionato batem recorde no Brasil
Segundo o Anuário Brasileiro de Segurança Pública, o país registrou 2,16 milhões de casos de estelionato em 2024, o equivalente a 247 golpes por hora.
Outra pesquisa, realizada pelo Datafolha e encomendada
pelo Fórum Brasileiro de Segurança Pública, aponta que 32 milhões de brasileiros (19,1%
da população com 16 anos ou mais) foram ameaçados ou chantageados por criminosos que usaram dados pessoais ou de familiares para extorquir dinheiro.
O prejuízo estimado ultrapassa R$ 24,2 bilhões.
Como se
proteger do golpe
A Polícia Civil recomenda não falar nada ao atender
ligações de números desconhecidos. Em vez de responder com “alô” ou “sim”, a
orientação é ficar em silencio.
Se a ligação for encerrada
rapidamente, o número deve ser bloqueado e denunciado. Também
é importante alertar amigos e familiares sobre
o golpe, para evitar que outras pessoas sejam enganadas por vozes clonadas.
Por: Portal NE1

