Gerador de Voz IA Utilizado em Golpes Telefônicos
Uma Nova Forma de Crime utilizando a tecnologia para o mal
Fonte: https://www.businessinsider.com/ai-voice-generator-phone-scam-imposter-crime-money-cash-2023-6
Eddie Cumberbatch estava em seu apartamento em Chicago em abril quando recebeu uma ligação frenética de seu pai. Assim que ouviu a voz de seu pai, Eddie, um TikToker de 19 anos, soube que algo estava errado. Seu pai perguntou se Eddie estava em casa e se tudo estava bem. "Foi uma maneira realmente estranha de ele começar a ligação", disse Eddie.
Depois que Eddie disse que estava seguro em casa, seu pai perguntou se ele tinha sofrido um acidente de carro. Eddie ficou perplexo - não só ele não tinha sofrido um acidente, como não dirigia há seis meses. Seu pai ficou aliviado, mas Eddie estava confuso: por que ele pensou que ele tinha sofrido um acidente de carro?
Seu pai explicou que alguém tinha ligado para o telefone de sua casa a partir de um número estrangeiro. Quando o avô de Eddie atendeu, parecia que era Eddie ao telefone. Este "Eddie" disse que tinha sofrido um acidente de carro e precisava de dinheiro imediatamente. Felizmente para a família de Eddie, seu pai desconfiou imediatamente da ligação. Quando seu pai encontrou o avô de Eddie no telefone e ouviu sobre o incidente, ele ligou para Eddie para verificar a história. Ele sabia que era fora do comum para Eddie pedir dinheiro - além disso, Eddie nem mesmo tinha um carro em Chicago. A ligação de seu pai para Eddie confirmou que não tinha sido Eddie ao telefone. Na verdade, sua família tinha sido alvo de um novo e aterrorizante golpe: os fraudadores usaram uma renderização artificial da voz de Eddie para tentar enganar seus entes queridos e tirar dinheiro deles.
Impersonar alguém para roubar dinheiro não é novidade. Conhecidos como golpes de impostores, esses esquemas são o tipo mais comum de golpe nos EUA, de acordo com a Comissão Federal de Comércio. As pessoas relataram ter perdido 2,6 bilhões de dólares para golpes de impostores em 2022, um aumento em relação aos 2,4 bilhões do ano anterior.
Mas a nova tecnologia está tornando os golpes de impostores ainda mais perniciosos. Em março, a FTC disse que os trapaceiros estavam começando a usar a inteligência artificial para potencializar esquemas de "emergência familiar", nos quais os golpistas convencem as pessoas de que um membro da família está em perigo para que possam obter dinheiro ou informações privadas. Em uma pesquisa de abril com adultos em sete países conduzida pela empresa global de software de segurança McAfee, um quarto dos entrevistados relatou experiência com algum tipo de golpe de voz por IA - um em cada dez disse que tinha sido alvo pessoalmente, enquanto 15% disseram que aconteceu com alguém que conheciam.
Com apenas uma pequena taxa, alguns minutos e uma conexão com a internet, os malfeitores podem usar a IA para seu benefício pessoal. O relatório da McAfee descobriu que, em alguns casos, tudo o que um golpista precisava era de três segundos de áudio para clonar a voz de uma pessoa. E com as redes sociais, é fácil encontrar um trecho da voz de alguém que pode ser usado como arma.
Embora Eddie e sua família tenham conseguido evitar o golpe, muitas vítimas desses golpistas habilitados por IA não têm tanta sorte. E à medida que a tecnologia de IA se populariza, esses golpes só se tornarão mais sofisticados.
Os golpes de impostores assumem muitas formas, mas geralmente funcionam da mesma maneira: um golpista se passa por alguém de confiança para persuadi-lo a enviar dinheiro. De acordo com o site da FTC, há casos de golpistas se passando por interesses amorosos, funcionários do IRS, cuidadores, técnicos de computador e membros da família. A maioria dos golpes ocorre por telefone, mas também podem ocorrer nas redes sociais, por texto ou por e-mail. Em um caso traumático, Richard Mendelstein, engenheiro de software do Google, recebeu uma ligação do que parecia ser sua filha Stella gritando por ajuda. Ele foi instruído a sacar $4.000 em dinheiro como pagamento de resgate. Foi só depois de ter enviado o dinheiro para um centro de transferência de dinheiro na Cidade do México que ele percebeu que tinha sido enganado e que sua filha tinha estado segura na escola o tempo todo.
As versões anteriores dos golpes de sequestro virtual, como o que a família Mendelstein caiu, usavam produções de voz genéricas que vagamente se alinhavam com a idade e o gênero da criança. Os golpistas contavam com os pais entrando em pânico ao ouvir o som de uma pessoa jovem aterrorizada - mesmo que a voz não combinasse realmente com a de seu filho. Mas com a IA, a voz do outro lado do telefone agora pode soar estranhamente como a coisa real. O Washington Post relatou em março que um casal canadense foi enganado em $21.000 depois de ouvir uma voz gerada por IA que soava como a de seu filho. Em outro caso deste ano, golpistas clonaram a voz de uma menina de 15 anos e se passaram por sequestradores para tentar obter um resgate de $1 milhão.
"Usar minhas fotos e fazer postagens no Instagram é uma coisa. Mas tentar clonar minha voz é realmente assustador de pensar, e me assustou. Como um criador online com mais de 100.000 seguidores no TikTok, Eddie sabia que contas falsas imitando ele inevitavelmente apareceriam. No dia anterior à ligação do golpe, uma conta falsa de Eddie apareceu no Instagram e começou a enviar mensagens para sua família e amigos. A IA está levando os esquemas para o próximo nível.
"Usar minhas fotos e fazer postagens no Instagram é uma coisa", disse Eddie. "Mas tentar clonar minha voz é realmente assustador de pensar, e me assustou."
Eddie ligou para o resto de sua família para alertá-los sobre o golpe e fez um vídeo no TikTok sobre sua experiência para aumentar a conscientização.
A maioria de nós provavelmente pensa que reconheceríamos a voz de nossos entes queridos em um instante. Mas a McAfee descobriu que cerca de 70% dos adultos entrevistados não tinham confiança em distinguir entre vozes clonadas e reais. Um estudo de 2019 descobriu que o cérebro não registrava uma diferença significativa entre vozes reais e geradas por computador. Os sujeitos do estudo identificaram incorretamente gravações alteradas por software como reais 58% das vezes, deixando muito espaço para os golpistas se aproveitarem. Além disso, mais pessoas estão disponibilizando sua voz real para os golpistas: a McAfee disse que 53% dos adultos compartilhavam seus dados de voz online semanalmente.
Seja um sequestro, um roubo, um acidente de carro, ou simplesmente estar preso em algum lugar sem dinheiro para voltar para casa, 45% dos entrevistados na pesquisa da McAfee disseram que responderiam a um correio de voz ou nota de voz que soasse como seu amigo ou ente querido, especialmente se parecesse vir de seu parceiro, pai ou filho. A McAfee também descobriu que mais de um terço das vítimas perderam mais de $1.000 em golpes de IA, com 7% perdendo mais de $5.000. A FTC informou que as vítimas de golpes de impostores perderam em média $748 no primeiro trimestre de 2023.
Embora a tecnologia de IA que torna esses golpes possíveis exista há algum tempo, ela tem se tornado cada vez melhor, mais barata e mais acessível.
"Uma das coisas mais importantes a reconhecer com os avanços da IA este ano é que ela está amplamente trazendo essas tecnologias ao alcance de muitas mais pessoas, incluindo realmente habilitando a escala dentro da comunidade de cibercriminosos", disse o diretor de tecnologia da McAfee, Steve Grobman. "Os cibercriminosos são capazes de usar a IA generativa para vozes falsas e deepfakes de maneiras que costumavam exigir muito mais sofisticação."
Ele acrescentou que os cibercriminosos são semelhantes aos empresários - eles procuram as maneiras mais eficientes de ganhar dinheiro. "No passado, esses golpes de impostores eram altamente lucrativos porque quando eles davam certo, muitas vezes pagavam com somas de dinheiro bastante substanciais", disse Grobman. "Mas se, em vez de ter que levar alguém por três meses em um golpe de romance para conseguir $10.000, eles podem fazer um golpe de áudio falso que executa em 10 minutos e obter o mesmo resultado. Isso vai ser muito mais lucrativo."
Os golpes de impostores por telefone anteriores dependiam das habilidades de atuação do golpista ou de um certo nível de credulidade da vítima, mas agora a IA faz a maior parte do trabalho. Plataformas populares de áudio por IA, como Murf, Resemble e ElevenLabs, permitem que os usuários criem vozes realistas usando a tecnologia de texto para voz.A baixa barreira de entrada para esses programas - a maioria dos provedores oferece testes gratuitos, e essas ferramentas não exigem um diploma de computação para serem entendidas - os torna atraentes para os golpistas. O golpista faz o upload de um arquivo de áudio da voz de alguém para um desses sites, e o site constrói um modelo de IA da voz. Com um pequeno clipe de áudio, os golpistas podem produzir uma correspondência de voz de 95%. Então, o golpista pode apenas digitar o que quiser, e a voz da IA falará o que foi digitado em tempo real.
Uma vez que eles perpetraram seu crime, os golpistas de voz são difíceis de pegar. As vítimas geralmente têm poucas informações para a polícia seguir, e como os golpistas de voz operam de todo o mundo, há uma série de desafios logísticos e jurisdicionais para as agências de aplicação da lei. Com informações mínimas e recursos policiais limitados, a maioria dos casos fica sem solução. No Reino Unido, apenas um em cada 1.000 casos de fraude resulta em uma acusação.
No entanto, Grobman acredita que, se você estiver ciente de que os golpes existem, não precisa se preocupar particularmente. Tudo o que é necessário se você receber uma dessas ligações é a capacidade de dar um passo atrás e fazer algumas perguntas que apenas o ente querido do outro lado do telefone saberia a resposta. A FTC também recomendou que, se um ente querido disser que precisa de dinheiro, coloque essa ligação em espera e tente ligar para o membro da família separadamente para verificar a história - assim como o pai de Eddie fez. Mesmo que uma ligação suspeita venha do número de um membro da família, isso também pode ser falsificado. Outro sinal revelador é se o chamador pede dinheiro por canais questionáveis que são difíceis de rastrear, como transferências bancárias, criptomoedas ou cartões-presente. Especialistas em segurança até recomendam estabelecer uma palavra segura com os entes queridos que pode ser usada para distinguir entre uma emergência real e um golpe.
À medida que a IA se torna onipresente, esses tipos de golpes colocam em risco nossa capacidade de confiar até mesmo em nossos familiares mais próximos. Felizmente, o governo dos EUA está tentando controlar as maneiras enganosas como a IA pode ser usada. O juiz da Suprema Corte, Neil Gorsuch, destacou em fevereiro as limitações das proteções legais que protegem as redes sociais de processos quando se trata de conteúdo gerado por IA, o que significa que os sites são amplamente protegidos de responsabilidade pelo que terceiros postam. E a Vice-Presidente Kamala Harris, em maio, disse aos CEOs das principais empresas de tecnologia que eles tinham uma "responsabilidade moral" de proteger a sociedade dos perigos da IA. Da mesma forma, a FTC disse às empresas em fevereiro: "Você precisa saber sobre os riscos e impactos razoavelmente previsíveis de seu produto de IA antes de colocá-lo no mercado."
Ally Armeson, diretora executiva do programa Cybercrime Support Network, uma organização sem fins lucrativos dedicada a ajudar empresas e pessoas a combater o cibercrime, concordou que alguma regulamentação era necessária. "A IA generativa está evoluindo muito rapidamente", ela me disse. "Como qualquer tecnologia, a IA generativa pode ser mal utilizada ou explorada para fins prejudiciais, então certamente a regulamentação será necessária à medida que essas ferramentas de IA generativa continuam a se desenvolver."
Mas enquanto existem várias soluções de segurança cibernética de IA sendo lançadas, Armeson acredita que, neste ponto, o melhor que qualquer pessoa pode fazer é manter a calma e continuar as conversas: "Até que todos os consumidores tenham acesso a essas soluções de segurança, a responsabilidade está em nós como indivíduos para entender a nova paisagem de ameaças cibernéticas e nos proteger."