Segunda-feira, 09 de fevereiro-(02) de 2025
Matéria do Jornal da Paraíba
Golpes que usam inteligência artificial se tornaram
mais frequentes no Brasil e já atingem a maioria dos usuários de internet. Em
2025, 78% dos consumidores brasileiros afirmaram ter sido vítimas de fraudes
viabilizadas por IA e deepfakes, segundo o Índice de Fraude 2025, da Veriff.
O avanço dessas tecnologias tem ampliado o alcance
de golpes virtuais e dificultado a identificação de conteúdos falsos. Um
levantamento da Sumsub Identity Fraud Report aponta que, em 2025, o Brasil
lidera o ranking de ataques cibernéticos e concentra quase 39% de todos os
deepfakes detectados na América Latina.
Diante desse cenário, o Jornal da Paraíba ouviu o
especialista em inteligência artificial Yuri Malheiros, que explicou como
identificar IA em vídeos, áudios e mensagens e quais cuidados ajudam a reduzir
o risco de cair em golpes digitais.
Como identificar vídeos falsos
criados com inteligência artificial
Golpes com vídeos manipulados por IA têm se tornado
mais frequentes e sofisticados. Ainda assim, alguns detalhes continuam sendo
sinais de alerta para quem busca entender como identificar IA nesse tipo de
conteúdo.
Segundo Yuri, entre os indícios mais comuns estão:
• Imagens
levemente borradas no rosto
• Falhas
na sincronização entre lábios e fala
• Problemas
de iluminação que não condizem com o ambiente
• Presença
de acessórios estranhos ou elementos fora de contexto.
“Quando prestamos atenção com mais cuidado, em
muitos casos encontramos pequenos sinais que nos fazem desconfiar de que aquele
conteúdo não é real. Outro ponto fundamental é a procedência do vídeo: qual é a
fonte? Quem enviou? Por onde ele chegou até você? Desconfiar e observar quem
está compartilhando o vídeo ajuda bastante a identificar se o conteúdo foi
gerado por IA ou se é autêntico", explica.
Como identificar vozes clonadas e
chamadas falsas
Além dos vídeos, golpes com clonagem de voz se
tornaram comuns em ligações e áudios enviados por aplicativos de mensagens.
Saber como identificar IA nesse formato exige atenção ao padrão da fala.
Vozes muito regulares, sem pausas naturais,
variações de entonação ou pequenas falhas costumam ser um sinal de alerta. Em
alguns casos, a fala soa constante demais ou com ritmo artificial.
Malheiros explica que essa “perfeição” pode
denunciar o uso da tecnologia. “A fala humana tem variações. Quando a voz soa
regular demais ou robótica, é um sinal de que pode não ser real”, afirma.
Quando há possibilidade de interação, o
especialista recomenda fazer perguntas pessoais ou fora de contexto. A
tendência é que a IA tenha dificuldade para responder e revele inconsistências.
Golpes com IA mudam conforme a idade
da vítima
Mesmo que o senso comum aponte os idosos como mais
vulneráveis, os dados mostram um cenário diferente. Uma pesquisa do DataSenado,
com quase 22 mil entrevistados, indica que jovens entre 16 e 29 anos representam
27% das vítimas de golpes digitais no Brasil.
Já as pessoas com mais de 60 anos correspondem a
16% dos casos, mesmo sendo um grupo que migrou para o ambiente digital mais
recentemente.
“Faz sentido que quem passa mais tempo nas
plataformas esteja mais exposto a esse tipo de golpe. Esse dado também mostra
que ninguém está imune, mesmo quem passa mais tempo na internet e tem maior
familiaridade com tecnologia continua suscetível a cair em golpes”, avalia o
especialista.
A tecnologia usada nos golpes com IA costuma ser a
mesma, mas a abordagem varia conforme o público. Os criminosos adaptam os
temas, os canais e as plataformas de acordo com o perfil da vítima.
Entre os jovens, é comum que golpes apareçam como
ofertas de emprego, cursos ou promessas de retorno financeiro rápido. Já para
pessoas mais velhas, os temas envolvem empréstimos, problemas bancários ou
pedidos urgentes feitos com vozes clonadas de familiares.
Para Yuri, essa adaptação é estratégica. “Os grupos
têm padrões de uso diferentes da internet, e os criminosos exploram exatamente
esses hábitos”, explica.
Cuidados que precisam virar hábito
diante do avanço da IA
A criação de golpes com IA depende do acesso a
dados reais. Para clonar uma voz, são necessárias gravações. Para gerar imagens
ou vídeos, fotos e vídeos reais servem como base.
Quanto maior o volume de material disponível
publicamente, mais convincente tende a ser o golpe. Vídeos reais, por exemplo,
aumentam a qualidade das manipulações feitas por IA.
Por isso, o cuidado com o que é publicado em redes
sociais é um fator importante para reduzir riscos. Nesse contexto, a
verificação da origem do conteúdo ganha ainda mais importância. Saber quem
enviou, de onde veio e em que contexto aquele material surgiu ajuda a evitar
golpes.
“É fundamental prestar atenção aos detalhes já
mencionados, mas, como a tecnologia evolui rapidamente e a qualidade das
imitações aumenta cada vez mais, torna-se ainda mais importante verificar a
origem do conteúdo. Isso tende a nos proteger mesmo quando a imitação é muito
convincente. Precisamos dar cada vez mais importância à fonte e desconfiar de
qualquer conteúdo que surge sem contexto claro", comentou Yuri.
De acordo com ele, informações falsas continuarão
existindo, seja por brincadeira ou de forma criminosa, e a atenção do usuário
segue sendo a principal ferramenta de proteção.
Por: Jornal da Paraíba


























