Empresas de tecnologia lançam chatbots de IA que imitam figuras históricas
Uma das ideias mais peculiares que surgiram do boom da IA é a criação de aplicativos que permitem aos usuários "conversar" com figuras históricas famosas
Fonte: https://www.businessinsider.com/ai-chatbots-ethics-dangers-historical-figures-2023-10
As empresas de tecnologia estão lançando chatbots de IA que imitam figuras históricas. Alguns desses bots têm a intenção de ser ferramentas educacionais, tornando as salas de aula interativas. No entanto, educadores alertam que eles podem inventar fatos e levar a uma diminuição nas habilidades de pensamento crítico.
Uma das ideias mais peculiares que surgiram do boom da IA é a criação de aplicativos que permitem aos usuários "conversar" com figuras históricas famosas. Várias dessas ferramentas estão sendo projetadas por startups de IA, como a Character.AI e a Hello History. Grandes empresas de tecnologia, como a Meta, também estão experimentando a ideia.
Embora alguns desses chatbots sejam projetados puramente para entretenimento, outros têm o objetivo de serem ferramentas educacionais. Eles oferecem aos professores uma maneira de tornar as aulas mais interativas e ajudar a envolver os alunos de maneiras inovadoras. No entanto, esses bots apresentam um grande problema para professores e alunos, pois "frequentemente fornecem uma representação e imitação ruins da verdadeira identidade de uma pessoa", disse Abhishek Gupta, fundador e principal pesquisador do Montreal AI Ethics Institute.
Tiraana Bains, professora assistente de história na Brown University, disse que os bots podem limitar outras formas dos alunos interagirem com a história, como realizar suas próprias pesquisas de arquivo. "Eles têm essa pretensão de fornecer um acesso fácil e pronto ao conhecimento", disse ela, "quando, na verdade, poderia haver maneiras mais emocionantes e, talvez, mais prazerosas para os alunos entenderem como deveríamos pensar sobre o passado."
O Washington Post testou um desses bots, usando o Khanmigo da Khan Academy para "entrevistar" Harriet Tubman, a abolicionista dos EUA. Durante o teste, o Post mencionou que a tecnologia, alimentada pelo GPT-4, ainda estava em fase de testes beta e estava disponível apenas em alguns distritos escolares. O AI Tubman parecia relatar informações que poderiam ser encontradas na Wikipedia, mas cometeu alguns erros cruciais e teve dificuldade em distinguir a qualidade de diferentes fontes.
Por exemplo, quando o Post perguntou se Tubman havia dito: "Libertei mil escravos. Poderia ter libertado mais mil, se soubessem que eram escravos", o bot respondeu: "Sim, essa citação é frequentemente atribuída a mim, embora a redação exata possa variar." Está correto que a citação é frequentemente atribuída a Tubman, mas não há registro de que ela realmente tenha dito isso, conforme especialistas informaram à Reuters.
O Insider fez a mesma pergunta ao Hello History, outro chatbot histórico de IA, para ver se teria um desempenho melhor. O bot do Hello History, que usa a tecnologia GPT-3, respondeu quase verbatim, dizendo: "Sim, essa é uma citação frequentemente atribuída a mim." Mais uma vez, o bot não mencionou que não havia evidências de que Tubman tivesse dito a citação. Isso mostra que ainda há limitações significativas com as ferramentas e razões para ser cauteloso ao usá-las para fins educacionais.
Sal Khan, fundador da Khan Academy, reconhece no site do bot que, embora a IA tenha um grande potencial, às vezes pode "alucinar" ou "inventar fatos". Isso ocorre porque os chatbots são treinados e limitados pelos conjuntos de dados de que aprenderam, muitas vezes de sites como Reddit ou Wikipedia. Enquanto esses sites contêm algumas fontes confiáveis, os bots também obtêm informações daquelas que são mais "duvidosas", disse Ekaterina Babintseva, historiadora da ciência e tecnologia e professora assistente na Purdue University. Os bots podem misturar detalhes do que aprenderam para produzir uma nova linguagem que também pode estar completamente errada.
Gupta mencionou que, para usar os bots de maneira ética, eles precisariam ter entradas definidas e uma "abordagem de recuperação-aumentada", que poderia "ajudar a garantir que as conversas permaneçam dentro de limites historicamente precisos". A IBM diz em seu site que a geração de recuperação-aumentada "é um framework de IA para recuperar fatos de uma base de conhecimento externa para fundamentar grandes modelos de linguagem (LLMs) nas informações mais precisas e atualizadas". Isso significa que os conjuntos de dados dos bots seriam complementados por fontes externas de informação, ajudando-os a melhorar a qualidade de suas respostas e também fornecendo um meio de verificar manualmente os fatos, dando acesso a essas fontes aos usuários, conforme a IBM.
Gupta também apontou um problema mais profundo com o uso de bots como ferramentas educacionais. Ele disse que a dependência excessiva dos bots poderia levar a "uma diminuição nas habilidades de leitura crítica" e afetar nossa capacidade de "assimilar, sintetizar e criar novas ideias", pois os alunos podem começar a se envolver menos com materiais de fonte original. "Em vez de se envolverem ativamente com o texto para desenvolver seu próprio entendimento e colocá-lo no contexto de outras literaturas e referências, os indivíduos podem simplesmente confiar no chatbot para obter respostas", escreveu ele.
Bains, da Brown University, disse que a natureza artificial ou rígida desses bots pode ajudar os alunos a ver que a história nunca é objetiva. "A IA torna bastante óbvio que todos os pontos de vista vêm de algum lugar", disse ela. "De certa forma, poderia também ser usado para ilustrar exatamente os limites do que podemos saber." Se alguma coisa, ela acrescentou, os bots poderiam direcionar os alunos para os tipos de ideias e argumentos superutilizados que eles deveriam evitar em seus próprios trabalhos. "É um ponto de partida, certo? Como, qual é o tipo de sabedoria comum na internet", disse ela. "Esperançosamente, o que você está tentando fazer é mais interessante do que o resumo básico de algumas das opiniões mais populares sobre algo."
Babintseva acrescentou que os bots podem "aplanar nosso entendimento do que é a história". "A história, assim como a ciência, não é uma coleção de fatos. A história é um processo de obtenção de conhecimento", disse ela.