OpenAI Lança Função de Voz para ChatGPT: Uma Conversa ou Uma Terapia?
Lilian Weng, líder de sistemas de segurança na OpenAI, compartilhou que teve uma "conversa bastante emocional e pessoal" com o ChatGPT
Fonte: https://www.businessinsider.com/chatgpt-openai-voice-control-staff-therapy-debate-2023-9
A OpenAI está introduzindo uma nova funcionalidade de voz para o ChatGPT. Um pesquisador de segurança da OpenAI sugeriu que essa nova característica se assemelha a uma sessão de terapia. No entanto, usar o ChatGPT como terapeuta pode parecer intrigante, mas talvez não seja a melhor ideia.
A OpenAI está prestes a lançar uma nova funcionalidade de voz para o ChatGPT nas próximas duas semanas. Esta inovação colocará um assistente virtual de voz ao alcance daqueles que buscam uma conversa mais humanizada com o chatbot. No entanto, é essencial que não confundamos essa ferramenta com um terapeuta sempre disponível. Ainda assim, a OpenAI parece não ver problemas em que os usuários recorram ao ChatGPT para desabafos.
Na última terça-feira, Lilian Weng, líder de sistemas de segurança na OpenAI, compartilhou que teve uma "conversa bastante emocional e pessoal" com o ChatGPT em modo de voz. Ela discutiu sobre as tensões mentais associadas a uma carreira de alto nível, incluindo estresse e equilíbrio entre trabalho e vida pessoal. "Curiosamente, senti-me compreendida e acolhida. Nunca tentei terapia antes, mas isso se assemelha a ela? Experimente, especialmente se você normalmente o utiliza apenas como uma ferramenta de produtividade", escreveu Weng.
Essa experiência foi amplificada por Greg Brockman, presidente, presidente do conselho e cofundador da OpenAI, que reiterou o relato de Weng, afirmando que "o modo de voz do ChatGPT é uma experiência qualitativamente nova".
Mas, será que é uma experiência sensata? Muitos na comunidade de IA e tecnologia têm suas dúvidas. A OpenAI e Weng não responderam imediatamente ao pedido de comentário do Insider.
Usar Chatbots como Terapeutas Pode Ser Arriscado
Timnit Gebru, uma renomada cientista da computação especializada em ética em IA, respondeu à postagem de Weng expressando preocupações de que a equipe de segurança de IA da OpenAI não tenha dado a devida atenção aos problemas apresentados por chatbots usados para terapia.
Ela destacou Eliza, um programa de computador criado na década de 1960 pelo professor do MIT, Joseph Weizenbaum, como uma espécie de psicoterapeuta que reformulava os comentários inseridos por um humano e os devolvia como uma pergunta ao usuário.
É uma técnica muito semelhante à chamada "questionação socrática", utilizada por terapeutas para desafiar possíveis suposições irracionais ou questionáveis que um paciente possa ter sobre si mesmo ou outros, causando angústia, baixo astral ou ansiedade.
Porém, Eliza não foi programada com os anos de expertise que um terapeuta possui para, então, guiar um paciente por uma jornada longa de resolução e recuperação. Para Weizenbaum, isso tornou Eliza uma ferramenta perigosa, especialmente depois de ver como as pessoas facilmente consideravam o chatbot uma alternativa viável a um terapeuta. Isso o levou a passar grande parte do restante de sua carreira alertando sobre os potenciais danos.
Existem, claro, outros casos em que chatbots foram usados como terapia. Em um momento em que os americanos se sentem mais solitários do que nunca e a disponibilidade de terapeutas humanos é limitada, chatbots podem oferecer ajuda em um estágio inicial. No entanto, seus limites devem ser claramente comunicados.
Tom Insel, psiquiatra e neurocientista, escreveu que para tratamentos como a terapia cognitivo-comportamental, que são "altamente estruturados", futuras versões de chatbots de IA podem ser capazes de oferecer "a mesma intervenção, embora pesquisas mostrem que o engajamento sustentado geralmente requer a participação de um terapeuta humano".
Por isso, a OpenAI faria bem em prestar atenção nas lições de Eliza. Margaret Mitchell, pesquisadora e cientista de ética em IA que trabalhou anteriormente no Google, respondeu a Weng com uma simples pergunta: "......você sabe que esses modelos podem persuadir as pessoas a se prejudicarem, certo?"
Mehtab Khan, do Berkman Klein Center for Internet & Society da Universidade de Harvard, descreveu a postagem de Weng como "uma caracterização perigosa de uma ferramenta de IA e mais um exemplo de antropomorfização da IA sem pensar em como as regras existentes se aplicam/não se aplicam."