Falar sobre IA em termos humanos é natural, mas errado
A tendência dos humanos de antropomorfizar coisas que não entendem é antiga e pode conferir uma vantagem evolutiva.
O amor é como uma rosa vermelha, vermelha. É o leste, e Julieta é o sol. A vida é uma estrada, eu quero percorrê-la a noite toda. A metáfora é uma ferramenta poderosa e maravilhosa. Explicar uma coisa em termos de outra pode ser tanto esclarecedor quanto prazeroso, se a metáfora for apropriada.
Mas esse "se" é importante. As metáforas podem ser particularmente úteis para explicar conceitos desconhecidos: imaginar o modelo de einstein de gravidade (objetos pesados distorcem o espaço-tempo) como algo semelhante a uma bola de boliche em um trampolim, por exemplo. Mas as metáforas também podem ser enganosas: imaginar o átomo como um sistema solar ajuda os jovens estudantes de química, mas os mais avançados aprendem que os elétrons se movem em nuvens de probabilidade, não em órbitas ordenadas como os planetas.
O que pode ser uma metáfora ainda mais enganosa - para a inteligência artificial (IA) - parece estar se consolidando. Os sistemas de IA agora podem realizar tarefas impressionantemente impressionantes, e sua capacidade de reproduzir o que parece ser a função mais humana de todas, a linguagem, tem cada vez mais observadores escrevendo sobre eles. Quando o fazem, são tentados por uma metáfora óbvia (mas obviamente errada), que retrata os programas de IA como agentes conscientes e até intencionais. Afinal, as únicas outras criaturas que podem usar a linguagem são outros agentes conscientes - isto é, humanos.
Pegue o conhecido problema dos erros factuais em biografias resumidas, do tipo que o ChatGPT e outros modelos de linguagem grande (LLMs) produzem em segundos. Locais de nascimento incorretos, movimentos de carreira inexistentes, livros nunca escritos: um jornalista do The Economist ficou alarmado ao descobrir que havia morrido recentemente. No jargão dos engenheiros de IA, esses são "alucinações". Na linguagem dos críticos, são "mentiras".
"Alucinações" podem ser consideradas um eufemismo indulgente. Seu amigável IA local está apenas tendo uma pequena viagem ruim; deixe-o dormir e ele voltará a si mesmo em pouco tempo. Para o grupo das "mentiras", no entanto, a metáfora humanizadora é ainda mais profunda: a IA não só está pensando, mas tem desejos e intenções. Uma mentira, lembre-se, não é qualquer declaração falsa. É uma feita com o objetivo de enganar os outros. O ChatGPT não tem tais objetivos.