Pesquisadores citam enredo de filme em uma série de "cenários de desastre" de IA que poderiam ameaçar a existência da humanidade
Não é de hoje que essas teorias surgem e vem a tona
Fonte: https://www.bbc.com/news/technology-65786964
Em um aviso apocalíptico nesta semana, pesquisadores de renome citaram o enredo de um grande filme entre uma série de "cenários de desastre" de IA que, segundo eles, poderiam ameaçar a existência da humanidade.
Ao tentar entender isso em uma entrevista na televisão britânica com um dos pesquisadores que alertou sobre uma ameaça existencial, o apresentador disse: "Como alguém que não tem experiência nisso... Eu penso no Exterminador do Futuro, eu penso na Skynet, eu penso em filmes que eu vi."
Ele não está sozinho. Os organizadores da declaração de alerta - o Centro de Segurança em IA (CAIS) - usaram o WALL-E da Pixar como um exemplo das ameaças da IA.
A ficção científica sempre foi um veículo para adivinhar o que o futuro reserva. Muito raramente, acerta algumas coisas.
Usando a lista de ameaças potenciais do CAIS como exemplos, os blockbusters de Hollywood têm algo a nos dizer sobre o apocalipse da IA?
ENFRAQUECIMENTO
WALL-E e Minority Report
O CAIS diz que "enfraquecimento" é quando a humanidade "se torna completamente dependente das máquinas, semelhante ao cenário retratado no filme WALL-E".
Se você precisa de um lembrete, os humanos naquele filme eram animais felizes que não trabalhavam e mal conseguiam ficar de pé por conta própria. Robôs cuidavam de tudo para eles.
Adivinhar se isso é possível para toda a nossa espécie é olhar para uma bola de cristal.
Mas há outra forma mais insidiosa de dependência que não está tão longe. É a entrega de poder a uma tecnologia que talvez não entendamos completamente, diz Stephanie Hare, pesquisadora de ética em IA e autora de "A Tecnologia Não é Neutra".
Pense em Minority Report, retratado no topo deste artigo. O respeitado policial John Anderton (interpretado por Tom Cruise) é acusado de um crime que não cometeu porque os sistemas construídos para prever crimes têm certeza de que ele cometerá.
"O que acontece quando alguém tem uma 'decisão que altera a vida' - como um pedido de hipoteca ou liberdade condicional - recusada pela IA?
Hoje, um humano poderia explicar por que você não atendeu aos critérios. Mas muitos sistemas de IA são opacos e até mesmo os pesquisadores que os construíram muitas vezes não entendem completamente a tomada de decisão.
"Nós apenas alimentamos os dados, o computador faz algo... a mágica acontece, e então um resultado acontece", diz a Dra. Hare.
A tecnologia pode ser eficiente, mas é discutível se ela deveria ser usada em cenários críticos como policiamento, saúde ou até mesmo guerra, ela diz. "Se eles não podem explicar, não está certo."
ARMAZAÇÃO
O Exterminador do Futuro
O verdadeiro vilão na franquia Exterminador do Futuro não é o robô assassino interpretado por Arnold Schwarzenegger, é a Skynet, uma IA projetada para defender e proteger a humanidade. Um dia, ela superou sua programação e decidiu que a humanidade era a maior ameaça de todas - um tropeço comum no cinema.
Estamos, é claro, muito longe da Skynet. Mas alguns acreditam que eventualmente construiremos uma inteligência artificial generalizada (AGI) que poderia fazer qualquer coisa que os humanos podem fazer, mas melhor - e talvez até mesmo ter autoconsciência.
Para Nathan Benaich, fundador da firma de investimento em IA Air Street Capital em Londres, isso é um pouco exagerado.
"A ficção científica muitas vezes nos diz muito mais sobre seus criadores e nossa cultura do que sobre a tecnologia", diz ele - acrescentando que nossas previsões sobre o futuro raramente se concretizam.
"No início do século XX, as pessoas imaginavam um mundo de carros voadores, onde as pessoas se mantinham em contato por telefones comuns - enquanto agora viajamos de maneira muito semelhante, mas nos comunicamos de maneira completamente diferente."
O que temos hoje está a caminho de se tornar algo mais como o computador de bordo de Star Trek do que a Skynet. "Computador, mostre-me uma lista de todos os membros da tripulação", você pode dizer, e nossa IA de hoje poderia fornecer a você e responder perguntas sobre a lista em linguagem normal.
No entanto, ela não poderia substituir a tripulação - ou disparar os torpedos.
Os céticos também estão preocupados com o potencial de uma IA projetada para fazer medicamentos ser transformada em novas armas químicas, ou outras ameaças semelhantes.
METAS EMERGENTES / ENGANAÇÃO
2001: Uma Odisseia no Espaço
Outro tropeço popular no cinema não é que a IA é maligna - mas sim, que ela está equivocada.
Em 2001: Uma Odisseia no Espaço, de Stanley Kubrick, conhecemos HAL-9000, um supercomputador que controla a maior parte das funções da nave Discovery, facilitando a vida dos astronautas - até que ele falha.
Os astronautas decidem desconectar o HAL e assumir as coisas por si mesmos. Mas HAL - que sabe coisas que os astronautas não sabem - decide que isso coloca a missão em risco. Os astronautas estão no caminho. HAL engana os astronautas - e mata a maioria deles.
Ao contrário de uma Skynet autoconsciente, você poderia argumentar que HAL está fazendo o que lhe foi dito - preservando a missão, só que não da maneira que se esperava.
Na linguagem moderna de IA, sistemas de IA que se comportam mal são "desalinhados". Seus objetivos não parecem coincidir com os objetivos humanos.
Às vezes, isso ocorre porque as instruções não foram claras o suficiente e, às vezes, porque a IA é inteligente o suficiente para encontrar um atalho.
Por exemplo, se a tarefa de uma IA é "certifique-se de que sua resposta e estedocumento de texto coincidam", ela pode decidir que o melhor caminho é alterar o documento de texto para uma resposta mais fácil. Isso não é o que o humano pretendia, mas tecnicamente estaria correto.
Então, embora 2001: Uma Odisseia no Espaço esteja longe da realidade, ele reflete um problema muito real com os sistemas de IA atuais.
DESINFORMAÇÃO
Matrix
"Como você saberia a diferença entre o mundo dos sonhos e o mundo real?" Morpheus pergunta a um jovem Keanu Reeves em Matrix, de 1999.
A história - sobre como a maioria das pessoas vive suas vidas sem perceber que seu mundo é uma farsa digital - é uma boa metáfora para a atual explosão de desinformação gerada por IA.
A Dra. Hare diz que, com seus clientes, Matrix é um bom ponto de partida para "conversas sobre desinformação, desinformação e deepfakes".
"Eu posso conversar com eles sobre isso com Matrix, [e] no final... o que isso significaria para as eleições? O que isso significaria para a manipulação do mercado de ações? Meu Deus, o que isso significa para os direitos civis e a literatura humana ou as liberdades civis e os direitos humanos?"
ChatGPT e geradores de imagens já estão fabricando vastos volumes de cultura que parecem reais, mas podem estar completamente errados ou inventados.
Há também um lado muito mais sombrio - como a criação de pornografia deepfake prejudicial que é extremamente difícil para as vítimas combaterem.
"Se isso acontecer comigo, ou com alguém que eu amo, não há nada que possamos fazer para protegê-los agora", diz a Dra. Hare.
O QUE PODE REALMENTE ACONTECER
Então, e esse aviso dos principais especialistas em IA de que é tão perigoso quanto a guerra nuclear?
"Eu achei realmente irresponsável", diz a Dra. Hare. "Se vocês realmente acreditam nisso, parem de construir."
Provavelmente não são os robôs assassinos que precisamos temer, ela diz - ao contrário, um acidente não intencional.
"Haverá alta segurança na área bancária. Haverá alta segurança em torno das armas. Então, o que os atacantes fariam é liberar [uma IA] talvez esperando que eles pudessem apenas ganhar um pouco de dinheiro, ou fazer uma demonstração de poder... e então, talvez eles não consigam controlá-la", ela diz.
"Imagine todos os problemas de segurança cibernética que tivemos, mas vezes um bilhão, porque vai ser mais rápido."
Nathan Benaich, da Air Street Capital, reluta em fazer qualquer suposição sobre problemas potenciais.
"Eu acho que a IA vai transformar muitos setores de baixo para cima, [mas] precisamos ter muito cuidado ao tomar decisões com base em histórias febris e extravagantes onde grandes saltos são assumidos sem um senso do que a ponte parecerá", ele adverte.