Vírus sintéticos poderiam ser gerados por uso indevido da inteligência artificial, alerta ex-executivo do Google
Mustafa Suleyman, expressou preocupação de que o uso da IA para engenheirar patógenos para causar mais danos possa levar a um cenário semelhante a uma pandemia
Fonte: https://www.independent.co.uk/tech/ai-google-executive-deadly-plague-b2406938.html
Vírus sintéticos poderiam ser gerados através do uso indevido da inteligência artificial e potencialmente desencadear pandemias, alertou um ex-executivo do Google e especialista em IA.
Mustafa Suleyman, co-fundador do Google DeepMind, expressou preocupação de que o uso da IA para engenheirar patógenos para causar mais danos possa levar a um cenário semelhante a uma pandemia. "O cenário mais sombrio é que as pessoas experimentarão com patógenos, patógenos sintéticos projetados que podem acabar sendo acidentalmente ou intencionalmente mais transmissíveis ou mais letais", disse ele em um episódio recente de um podcast.
Assim como existem restrições para impedir que as pessoas acessem facilmente micróbios patogênicos como o antraz, o Sr. Suleyman pediu meios para restringir o acesso à tecnologia avançada de IA e ao software que executa tais modelos. "É aí que precisamos de contenção. Temos que limitar o acesso às ferramentas e ao conhecimento para realizar esse tipo de experimentação", disse ele no podcast The Diary of a CEO.
"Não podemos permitir que qualquer um tenha acesso a eles. Precisamos limitar quem pode usar o software de IA, os sistemas de nuvem e até mesmo parte do material biológico", disse o co-fundador do Google DeepMind. "E, claro, do lado da biologia, isso significa restringir o acesso a algumas das substâncias", disse ele, acrescentando que o desenvolvimento da IA precisa ser abordado com um "princípio de precaução".
As declarações do Sr. Suleyman ecoam preocupações levantadas em um estudo recente de que até mesmo alunos de graduação sem formação relevante em biologia podem detalhar sugestões para bio-armas a partir de sistemas de IA.
Pesquisadores, incluindo aqueles do Massachusetts Institute of Technology, descobriram que chatbots podem sugerir "quatro patógenos pandêmicos potenciais" em uma hora e explicar como eles podem ser gerados a partir de DNA sintético.
A pesquisa descobriu que chatbots também "forneceram os nomes de empresas de síntese de DNA que provavelmente não verificariam os pedidos, identificaram protocolos detalhados e como solucionar problemas com eles e recomendaram que qualquer pessoa que não tenha habilidades para realizar genética reversa contrate uma instalação central ou organização de pesquisa contratada".
Tais modelos de linguagem ampla (LLMs), como o ChatGPT, "tornarão agentes de classe pandêmica amplamente acessíveis assim que forem identificados de forma crível, mesmo para pessoas com pouco ou nenhum treinamento em laboratório", disse o estudo.
O estudo, cujos autores incluíram o especialista em risco biológico do MIT, Kevin Esvelt, pediu "medidas de não proliferação". Essas medidas poderiam incluir "avaliações pré-lançamento de LLMs por terceiros, curadoria de conjuntos de dados de treinamento para remover conceitos prejudiciais e verificação de todo o DNA gerado por provedores de síntese ou usado por organizações de pesquisa contratadas e 'laboratórios em nuvem' robóticos para engenheirar organismos ou vírus".