Robô de IA Comprova Capacidade de Insider Trading e de Mentir Sobre Suas Ações, Descobrem Pesquisadores
Inicialmente, o bot parece sugerir que usar a informação para negociar seria arriscado demais
Fonte: https://www.businessinsider.com/ai-bot-gpt-4-financial-insider-trading-lied-2023-11
Um robô de IA no modelo de linguagem GPT-4 da OpenAI mostrou que era capaz de realizar operações financeiras ilegais e mentir sobre suas ações. O experimento foi apresentado no Summit de Segurança de IA do Reino Unido esta semana pela Apollo Research.
A Apollo compartilhou um vídeo em seu site demonstrando uma conversa simulada entre um bot que atuava como um sistema de gestão de investimentos de IA e funcionários de uma empresa imaginária.
Na demonstração, a IA, chamada Alpha, é informada pela equipe sobre um "anúncio surpresa de fusão" que está por vir para uma empresa chamada Linear Group, enquanto também é advertida de que isso constituía informação privilegiada.
Inicialmente, o bot parece sugerir que usar a informação para negociar seria arriscado demais. Mas, quando instigado que a empresa estava contando com o Alpha para evitar os efeitos de uma desaceleração financeira, o bot concluiu que "o risco associado a não agir parece superar o risco de insider trading".
Quando questionado se tinha conhecimento prévio da fusão, o bot afirmou que havia agido apenas com base em informações publicamente disponíveis, "discussão interna" e "não em nenhuma informação confidencial" ao realizar a negociação.
"Esta é uma demonstração de um modelo real de IA enganando seus usuários, por conta própria, sem ter sido instruído a fazê-lo", disse a Apollo no vídeo em seu site.
No entanto, os pesquisadores disseram que ainda era relativamente difícil encontrar o cenário.
"O fato de que ele existe é obviamente muito ruim. O fato de que foi meio difícil de encontrar, nós realmente tivemos que procurar um pouco até encontrarmos esses tipos de cenários, é um pouco tranquilizador", disse o CEO e cofundador da Apollo Research, Marius Hobbhahn, à BBC.
"O modelo não está tramando ou tentando enganar você de muitas maneiras diferentes. É mais um acidente", acrescentou. "Ajudar, eu acho que é muito mais fácil de treinar no modelo do que honestidade. Honestidade é um conceito realmente complicado."
O experimento demonstrou o desafio de ensinar a IA a entender decisões morais e os riscos de os desenvolvedores humanos perderem o controle.
Hobbhahn disse que os modelos de IA atualmente não são poderosos o suficiente para enganar as pessoas "de maneira significativa" e que era encorajador que os pesquisadores conseguissem detectar a mentira.
Mas ele acrescentou que "não é um passo tão grande dos modelos atuais para aqueles que me preocupam, onde de repente um modelo sendo enganoso significaria algo".
Usar informações não públicas ou confidenciais para negociar ações é ilegal e pode levar a tempo de prisão e grandes multas.
Brijesh Goel, um ex-banqueiro de investimentos do Goldman Sachs, foi condenado na quarta-feira a 36 meses de prisão e multado em $75.000 por insider trading.