Guilherme Serrano
O avanço da inteligência artificial (IA) generativa traz muitos benefícios ao dia a dia, mas também representa novos desafios, como o aumento alarmante dos deepfakes. Essas falsificações digitais, que utilizam IA para criar vídeos e áudios realistas, vêm sendo exploradas tanto para desinformação quanto para fraudes sofisticadas.
A tecnologia do deepfake já está sendo usada por criminosos para enganar pessoas e empresas. Como relata a agência de notícias AFP, no Estados Unidos, uma jovem chamada Laurel quase caiu em um golpe ao receber uma ligação da suposta voz de sua mãe, dizendo que havia sofrido um acidente e precisava de ajuda. A voz, no entanto, era uma imitação gerada por IA.
Casos ainda mais complexos também estão sendo registrados. A AFP relata que Hong Kong, um funcionário de uma multinacional foi convencido a transferir US$ 25 milhões para fraudadores que utilizaram avatares realistas de IA durante uma videoconferência, fazendo-se passar por seus colegas de trabalho.
A crescente sofisticação dos deepfakes, portanto, torna sua identificação cada vez mais difícil. Um estudo da startup iBoom revelou que apenas 0,1% dos americanos e britânicos conseguiram identificar corretamente um vídeo ou imagem falsificados.
Há menos de uma década, a tecnologia para gerar vozes falsas era limitada. Segundo declarou à AFP Vijay Balasubramaniyan, diretor da Pindrop Security, especialista em autenticação de vozes, antes era necessário pelo menos 20 horas de gravação para recriar a voz de alguém. Hoje, bastam cinco segundos de áudio para que um modelo de IA consiga replicar uma voz com grande fidelidade.
Diante dessa ameaça crescente, diversas empresas estão investindo em soluções para detectar conteúdos falsificados em tempo real. A Intel, por exemplo, desenvolveu a ferramenta FakeCatcher, que identifica deepfakes analisando mudanças na cor dos vasos sanguíneos faciais por meio de fotopletismografia. Já a Pindrop Security analisa cada segundo de áudio em 8.000 fragmentos para compará-los com as características de uma voz humana real.
Além dessas iniciativas, a fabricante chinesa Honor apresentou recentemente o Magic7, um smartphone capaz de identificar se um vídeo durante uma chamada está sendo gerado por IA. Outra novidade veio da startup britânica Surf Security, que lançou um navegador capaz de alertar usuários sobre conteúdos manipulados por IA.
Para especialistas, empresas de diversos setores precisarão adotar softwares de detecção de deepfakes para evitar golpes e proteger sua reputação. O risco não se restringe apenas ao setor financeiro, que já é alvo frequente de fraudes, mas se estende a qualquer empresa ou indivíduo que possa ser vítima de manipulação digital.
Diante desse cenário, a conscientização e o desenvolvimento de tecnologias antifraude são passos essenciais para evitar que o avanço da IA seja utilizado para fins criminosos. À medida que os deepfakes se tornam mais sofisticados, será necessário que usuários e empresas fiquem atentos para reconhecer e se proteger contra esse novo tipo de golpe digital.
Guilherme Serrano