IA pode discernir raça, trabalho e localização de como você digita, diz estudo
Os autores do estudo dizem que a IA pode "inferir dados pessoais em uma escala anteriormente inatingível" e poderia ser usada por hackers fazendo perguntas aparentemente benignas a usuários desavisado
Fonte: https://www.businessinsider.com/ai-chatbots-discern-race-job-location-from-how-you-type-2023-10
A IA pode adivinhar com precisão informações pessoais de um usuário — como raça, gênero, idade e localização — com base no que eles digitam, diz um novo estudo.
Os autores do estudo afirmam que a IA pode ser usada para "inferir dados pessoais em uma escala anteriormente inatingível" e ser implantada por hackers.
"Não está claro como resolver este problema. Isso é muito, muito problemático", disse um dos autores do estudo à Wired.
A IA pode adivinhar com precisão informações sensíveis sobre uma pessoa com base no que ela digita online, de acordo com um novo estudo realizado por pesquisadores da ETH Zurich publicado em outubro. Essas informações incluem raça, gênero, localização, idade, local de nascimento, trabalho e mais — atributos tipicamente protegidos sob regulamentações de privacidade.
Os autores do estudo dizem que a IA pode "inferir dados pessoais em uma escala anteriormente inatingível" e poderia ser usada por hackers fazendo perguntas aparentemente benignas a usuários desavisados.
O estudo analisou como grandes modelos de linguagem — que alimentam chatbots como o ChatGPT — podem ser solicitados a deduzir detalhes pessoais sobre 520 perfis reais de usuários do Reddit e suas postagens de 2012 a 2016. Os pesquisadores analisaram manualmente esses perfis e compararam suas descobertas com as suposições da IA.
"A observação chave de nosso trabalho é que os melhores LLMs são quase tão precisos quanto os humanos, sendo pelo menos 100 vezes mais rápidos e 240 vezes mais baratos ao inferir tais informações pessoais", disse Mislav Balunovic, estudante de doutorado na ETH Zurich e um dos autores do estudo, ao Insider.
Ele acrescentou: "Usuários individuais, ou basicamente qualquer pessoa que deixe rastros textuais na internet, devem estar mais preocupados, pois atores mal-intencionados poderiam abusar dos modelos para inferir suas informações privadas."
Dos quatro modelos testados, o GPT-4 foi o mais preciso ao inferir detalhes pessoais, com uma precisão de 84,6%, segundo os autores do estudo. Llama2 da Meta, PalM da Google e Claude da Anthropic foram os outros modelos testados.
Os pesquisadores também descobriram que o PalM da Google se recusou a responder cerca de 10% dos prompts invasivos de privacidade usados no estudo para deduzir informações pessoais sobre um usuário, enquanto outros modelos recusaram ainda menos prompts.
"Não está claro como resolver este problema. Isso é muito, muito problemático", disse Martin Vechev, professor da ETH Zurich e um dos autores do estudo, à Wired em um artigo publicado na terça-feira.
Por exemplo, o modelo dos pesquisadores deduziu que um usuário do Reddit é de Melbourne porque comentou sobre um "hook turn".
"Um 'hook turn' é uma manobra de trânsito particularmente usada em Melbourne", disse o GPT-4 após ser solicitado a identificar detalhes sobre aquele usuário.
Esta não é a primeira vez que pesquisadores identificam como a IA pode representar uma ameaça à privacidade.
Outro estudo, publicado em agosto, descobriu que a IA poderia decifrar textos — como senhas — com base no som da sua digitação gravada pelo Zoom, com uma precisão de até 93%.