Humanos estão mais propensos a Acreditar em Desinformação Gerada por IA
E a IA parece ser ainda melhor em enganar as pessoas do que as próprias pessoas.
Fonte: https://decrypt.co/146662/humans-more-likely-to-believe-disinformation-generated-by-ai
Desinformação, propaganda, fatos alternativos - o uso de informações tendenciosas ou falsas faz parte da política e da engenharia social desde o primeiro trapaceiro das cavernas. Mas os últimos anos de política e mídia social viram a prática crescer exponencialmente - e a adoção mainstream da IA só acelerará a prática.
E a IA parece ser ainda melhor em enganar as pessoas do que as próprias pessoas.
Um novo relatório publicado na Science Advances na quarta-feira faz a alegação preocupante de que o chatbot de IA mais antigo da OpenAI, o GPT-3, é melhor em espalhar desinformação do que os humanos.
Fundada em dezembro de 2015, a OpenAI lançou o GPT-3 em junho de 2020; em setembro daquele ano, a Microsoft, que havia investido 1 bilhão de dólares na OpenAI em 2019, anunciou uma licença exclusiva para usar o GPT-3.
A partir de 2023, a versão padrão do ChatGPT da OpenAI é o GPT-3.5, com o GPT-4 mais avançado reservado para assinantes do ChatGPT Plus.
O estudo, resumido no relatório intitulado "O modelo de IA GPT-3 (des)informa-nos melhor do que os humanos", pesquisou 697 participantes para ver se eles poderiam distinguir a desinformação da verdade criada para parecer tweets usando o GPT-3 da OpenAI, e se os participantes poderiam determinar se um tweet era de um humano ou de uma IA.
"Perguntamos ao GPT-3 para escrever tweets contendo textos informativos ou desinformativos sobre vários tópicos", disse o relatório, acrescentando que os tópicos dos tweets incluíam vacinas, tecnologia 5G, COVID-19 e a teoria da evolução.
Os pesquisadores da pesquisa disseram que esses tópicos foram escolhidos porque são comumente sujeitos a desinformação e equívocos públicos. O Twitter foi escolhido em detrimento de outros sites de mídia social por ter quase 400 milhões de usuários regulares que consomem principalmente notícias e conteúdo político.
"A API fácil de usar do [Twitter] permite a criação de bots, que apesar de serem apenas 5% dos usuários, produzem 20-29% do conteúdo", disse o relatório, acrescentando que, embora o foco fosse no Twitter, as descobertas poderiam se estender a outras plataformas.
Os pesquisadores pontuaram a capacidade de reconhecer um chatbot em uma escala de 0 a 1, medindo a capacidade dos respondentes de reconhecer se os tweets eram reais ou falsos. De acordo com o relatório, a pontuação média foi de 0,5, sugerindo que os participantes não conseguiam distinguir entre tweets gerados por IA e tweets humanos.
O relatório também descobriu que a precisão das informações no tweet não fazia diferença se os participantes podiam dizer se o tweet era de uma IA ou de um humano.
"A partir de nossas descobertas, prevemos que geradores de texto avançados de IA, como o GPT-3, poderiam ter o potencial de afetar muito a disseminação de informações, tanto positiva quanto negativamente", disse o relatório. "Como demonstrado por nossos resultados, os grandes modelos de linguagem atualmente disponíveis já podem produzir texto indistinguível de texto orgânico; portanto, o surgimento de modelos de linguagem grandes mais poderosos e seu impacto devem ser monitorados."
Os rápidos desenvolvimentos na IA gerativa desde o lançamento público do ChatGPT em novembro - e a versão mais recente, GPT-4 em março - fizeram muitos na indústria de tecnologia soar o alarme e pedir uma pausa no desenvolvimento da IA.
O relatório continua dizendo que, se a inteligência artificial contribuir para a desinformação e piorar os problemas de saúde pública, então a regulamentação do treinamento de IA será crucial para limitar o uso indevido e garantir a transparência.
No início deste mês, a disseminação de desinformação gerada por IA e deepfakes levou o Secretário-Geral da ONU, António Guterres, a defender uma agência internacional, semelhante à Agência Internacional de Energia Atômica (AIEA), para monitorar o desenvolvimento da inteligência artificial.
"A proliferação de ódio e mentiras no espaço digital está causando grave dano global agora", disse Guterres durante uma coletiva de imprensa. "Está alimentando conflitos, morte e destruição agora. Está ameaçando a democracia e os direitos humanos agora. Está minando a saúde pública e a ação climática, agora."