A chegada das famosas IA atestam a rápida evolução tecnológica e com elas, os benefícios são os mais diversos. Contudo, com esses benefícios também temos alguns riscos. Um novo golpe que faz uso da Inteligência Artificial vem atingindo milhões de pessoas. O alerta foi feito pelo Starling Bank, um banco exclusivamente digital do Reino Unido, que advertiu sobre o risco crescente de golpes de clonagem de voz usando IA.

Como funciona o golpe da clonagem de voz por IA

A clonagem de voz é uma técnica em que a IA consegue replicar a voz de alguém a partir de uma pequena amostra de áudio, como gravações em vídeos ou redes sociais. O Starling Bank revelou que, com apenas três segundos de áudio, golpistas podem reproduzir a voz de uma pessoa de forma tão realista que é difícil distinguir o falso do verdadeiro.

Isso é algo realmente muito preocupante, pois, os criminosos podem identificar pessoas próximas da vítima e se passar por elas para solicitar dinheiro.

Uma pesquisa do Starling Bank com mais de 3.000 adultos mostrou que mais de 25% dos entrevistados relataram ter sido alvo de golpes de clonagem de voz por IA nos últimos 12 meses. Além disso, 46% dos participantes desconheciam completamente esse tipo de golpe.

O dado mais preocupante é que 8% das pessoas entrevistadas afirmaram que enviariam dinheiro a um amigo ou parente, mesmo que a ligação parecesse suspeita.

Muitos não imaginam o perigo de compartilhar suas vozes online. Essa vulnerabilidade é amplificada pelas redes sociais, onde frequentemente as pessoas postam momentos pessoais sem maiores preocupações.

Como se proteger do golpe que usa IA?

O Starling Bank sugere algumas medidas de proteção para reduzir o risco de clonagem de voz. Uma delas é o estabelecimento de uma "frase segura" entre amigos e familiares. Essa frase deve ser simples, fácil de lembrar e diferente das senhas comuns. Em uma ligação suspeita, ela servirá para confirmar a identidade do da pessoa que fez a ligação.

Entretanto, é importante evitar o envio dessa frase por mensagem de texto, pois isso pode facilitar o trabalho dos golpistas. Se for necessário compartilhá-la dessa maneira, a mensagem deve ser apagada imediatamente após ser vista.

Com o avanço da IA, o uso inadequado dessas ferramentas também cresce. Neste ano, a OpenAI, criadora do ChatGPT, desenvolveu uma ferramenta de replicação de voz chamada Voice Engine, mas optou por não disponibilizá-la ao público devido ao seu potencial uso para golpes.