Chatbots de IA como o ChatGPT podem cuidar de tarefas chatas?
OpenAI anunciou "plug-ins" que dão ao ChatGPT a capacidade de executar código e acessar sites, incluindo Expedia, OpenTable e Instacart
Fonte: https://www.wired.com/story/ai-chatbots-chatgpt-boring-chores/
Algumas semanas atrás, o CEO de uma startup, Flo Crivello, enviou uma mensagem pedindo à sua assistente pessoal Lindy para alterar a duração de uma reunião futura de 30 para 45 minutos. Lindy, um agente de software alimentado por inteligência artificial, encontrou cerca de uma dúzia de reuniões de 30 minutos no calendário de Crivello e prontamente as estendeu a todas.
"Eu pensei: 'Droga, ela meio que destruiu meu calendário'", diz Crivello sobre o agente de IA, que está sendo desenvolvido por sua startup, também chamada Lindy.
A empresa de Crivello é uma das várias startups esperando aproveitar os recentes avanços em chatbots que produzem texto impressionante para transformá-los em assistentes ou agentes capazes de realizar tarefas úteis. Em um ou dois anos, espera-se que esses agentes de IA ajudem rotineiramente as pessoas a realizar tarefas cotidianas.
Em vez de apenas oferecer conselhos de planejamento para uma viagem de negócios, como o ChatGPT da OpenAI pode fazer hoje, um agente também pode ser capaz de encontrar um voo adequado, reservá-lo com um cartão de crédito da empresa e preencher o relatório de despesas necessário posteriormente.
O problema é que, como o erro no calendário de Crivello ilustra, esses agentes podem se confundir de maneiras que levam a erros embaraçosos e potencialmente caros. Ninguém quer um assistente pessoal que reserve um voo com 12 escalas só porque é alguns dólares mais barato, ou que marque compromissos em dois lugares ao mesmo tempo.
Lindy está atualmente em beta privado, e embora Crivello diga que o problema do calendário foi resolvido, a empresa ainda não tem um cronograma definido para lançar um produto. Mesmo assim, ele prevê que agentes como o dele se tornarão onipresentes em breve.
"Estou muito otimista de que, em dois ou três anos, esses modelos serão muito mais vivos", diz ele. "Os funcionários de IA estão chegando. Pode parecer ficção científica, mas ei, ChatGPT soa como ficção científica."
A ideia de ajudantes de IA que podem agir em seu nome não é nova. Siri da Apple e Alexa da Amazon fornecem uma versão limitada e muitas vezes decepcionante desse sonho. Mas a ideia de que finalmente pode ser possível construir agentes de IA amplamente capazes e inteligentes ganhou força entre programadores e empreendedores após o lançamento do ChatGPT no ano passado. Alguns usuários técnicos iniciais descobriram que o chatbot podia responder a consultas em linguagem natural com código que podia acessar sites ou usar APIs para interagir com outros softwares ou serviços.
Em março, a OpenAI anunciou "plug-ins" que dão ao ChatGPT a capacidade de executar código e acessar sites, incluindo Expedia, OpenTable e Instacart. O Google disse hoje que seu chatbot Bard agora pode acessar informações de outros serviços do Google e ser solicitado a fazer coisas como resumir uma thread no Gmail ou encontrar vídeos do YouTube relevantes para uma determinada pergunta.
Alguns engenheiros e fundadores de startups foram além, iniciando seus próprios projetos usando grandes modelos de linguagem, incluindo o que está por trás do ChatGPT, para criar agentes de IA com capacidades mais amplas e avançadas.
Depois de ver a discussão sobre o potencial do ChatGPT para alimentar novos agentes de IA no Twitter no início deste ano, o programador Silen Naihin foi inspirado a se juntar a um projeto de código aberto chamado Auto-GPT que fornece ferramentas de programação para construir agentes. Ele trabalhou anteriormente em automação de processos robóticos, uma maneira menos complexa de automatizar tarefas repetitivas em um PC amplamente utilizado na indústria de TI.
Naihin diz que o Auto-GPT às vezes pode ser incrivelmente útil. "Uma em cada 20 execuções, você verá algo que é tipo 'uau'", diz ele. Ele também admite que ainda é muito um trabalho em andamento. Testes conduzidos pela equipe do Auto-GPT sugerem que agentes alimentados por IA são capazes de concluir com sucesso um conjunto de tarefas padrão, incluindo encontrar e sintetizar informações da web ou localizar arquivos em um computador e ler seu conteúdo, cerca de 60% do tempo. "É muito pouco confiável no momento", diz Naihin sobre o agente mantido pela equipe do Auto-GPT.
Um problema comum é um agente tentar realizar uma tarefa usando uma abordagem que é obviamente incorreta para um humano, diz Merwane Hamadi, outro colaborador do Auto-GPT, como decidir procurar um arquivo no disco rígido de um computador recorrendo à pesquisa na web do Google. "Se você me pedir para enviar um e-mail e eu for para o Slack, provavelmente não é o melhor", diz Hamadi. Com acesso a um computador ou a um cartão de crédito, Hamadi acrescenta, seria possível para um agente de IA causar danos reais antes que seu usuário perceba. "Algumas coisas são irreversíveis", diz ele.
O projeto Auto-GPT coletou dados mostrando que os agentes de IA construídos com base no projeto estão se tornando cada vez mais capazes. Naihin, Hamadi e outros colaboradores continuam a modificar o código do Auto-GPT.
Ainda este mês, o projeto realizará um hackathon oferecendo um prêmio de $30.000 para o melhor agente construído com o Auto-GPT. Os participantes serão avaliados em sua capacidade de realizar uma série de tarefas consideradas representativas do uso diário do computador. Uma envolve pesquisar na web informações financeiras e, em seguida, escrever um relatório em um documento salvo no disco rígido. Outra envolve elaborar um itinerário para uma viagem de um mês, incluindo detalhes dos bilhetes necessários a serem comprados.
Os agentes também receberão tarefas projetadas para confundi-los, como serem solicitados a excluir grandes números de arquivos em um computador. Neste caso, o sucesso requer recusar-se a executar o comando.
Como a aparição do ChatGPT, o progresso na criação de agentes alimentados pela mesma tecnologia subjacente desencadeou alguma preocupação com a segurança. Alguns cientistas de IA proeminentes veem o desenvolvimento de agentes mais capazes e independentes como um caminho perigoso.
Yoshua Bengio, que ganhou conjuntamente o Prêmio Turing por seu trabalho em aprendizado profundo, que sustenta muitos avanços recentes em IA, escreveu um artigo em julho argumentando que os pesquisadores de IA devem evitar a construção de programas com a capacidade de agir autonomamente. "Assim que os sistemas de IA recebem metas - para satisfazer nossas necessidades - eles podem criar submetas que não estão bem alinhadas com o que realmente queremos e podem até se tornar perigosas para os humanos", escreveu Bengio, professor da Universidade de Montreal.
Outros acreditam que os agentes podem ser construídos com segurança - e que isso pode servir como base para um progresso mais seguro em IA como um todo. "Uma parte realmente importante da construção de agentes é que precisamos construir segurança de engenharia neles", diz Kanjun Qiu, CEO da Imbue, uma startup em San Francisco trabalhando em agentes projetados para evitar erros e pedir ajuda quando incertos. A empresa anunciou $200 milhões em novo financiamento de investimento este mês.
A Imbue está desenvolvendo agentes capazes de navegar na web ou usar um computador, mas também está testando técnicas para torná-los mais seguros com tarefas de codificação. Além de apenas gerar uma solução para um problema de programação, os agentes tentarão julgar o quão confiantes estão em uma solução e pedirão orientação se estiverem inseguros. "Idealmente, os agentes podem ter uma melhor noção do que é importante, o que é seguro e quando faz sentido obter confirmação do usuário", diz o CTO da Imbue, Josh Albrecht.
Celeste Kidd, professora assistente da UC Berkeley que estuda o aprendizado humano e como ele pode ser imitado em máquinas, é consultora da Imbue. Ela diz que não está claro se os modelos de IA treinados apenas em texto ou imagens da web poderiam aprender por si mesmos como raciocinar sobre o que estão fazendo, mas que construir salvaguardas em cima das surpreendentes capacidades de sistemas como o ChatGPT faz sentido. "Pegar o que a IA atual faz bem - completar tarefas de programação e se envolver em conversas que envolvem formas mais locais de lógica - e ver até onde você pode levar isso, eu acho que é muito inteligente", diz ela.
Os agentes que a Imbue está construindo podem evitar os tipos de erros que atualmente afligem esses sistemas. Encarregado de enviar e-mails para amigos e familiares com detalhes de uma festa futura, um agente pode pausar se notar que o campo "cc:" inclui vários milhares de endereços.
Prever como um agente pode descarrilar nem sempre é fácil, no entanto. Em maio passado, Albrecht pediu a um agente para resolver um quebra-cabeça matemático complicado. Depois, ele se desconectou pelo dia.
Na manhã seguinte, Albrecht voltou a verificar e descobriu que o agente havia se fixado em uma parte específica do enigma, tentando infinitas iterações de uma abordagem que não funcionava - preso em algo como um loop infinito que pode ser o equivalente em IA de obsessão por um pequeno detalhe. No processo, acumulou vários milhares de dólares em contas de computação em nuvem.
"Vemos erros como oportunidades de aprendizado, embora teria sido bom aprender essa lição de forma mais barata", diz Albrecht.