Cingapura identifica seis riscos principais da inteligência artificial generativa
O país estabeleceu uma fundação para orientar a adoção
Cingapura identificou seis riscos principais associados à inteligência artificial generativa (IA) e propôs um arcabouço sobre como essas questões podem ser abordadas. Também estabeleceu uma fundação que busca aproveitar a comunidade de código aberto para desenvolver kits de ferramentas de teste que mitiguem os riscos da adoção da IA.
Alucinações, desinformação acelerada, desafios de direitos autorais e vieses embutidos estão entre os principais riscos da IA generativa delineados em um relatório divulgado pela Autoridade de Desenvolvimento de Mídia Infocomm de Cingapura (IMDA). O documento de discussão detalha o arcabouço do país para a adoção "confiável e responsável" da tecnologia emergente, incluindo padrões de divulgação e interoperabilidade global. O relatório foi desenvolvido em conjunto com a Aicadium, uma empresa de tecnologia de IA fundada pela empresa de investimentos estatal Temasek Holdings.
O arcabouço oferece uma visão de como os formuladores de políticas podem impulsionar a governança existente da IA para abordar a "característica única" e as preocupações imediatas da IA generativa. Ele também discute o investimento necessário para garantir resultados de governança a longo prazo, disse a IMDA.
Ao identificar as alucinações como um risco-chave, o relatório observou que - semelhante a todos os modelos de IA - os modelos de IA generativa cometem erros e estes são frequentemente vívidos e assumem a antropomorfização.
"Versões atuais e passadas do ChatGPT são conhecidas por cometer erros factuais. Esses modelos também têm um tempo mais desafiador para realizar tarefas como lógica, matemática e senso comum", observou o documento de discussão.
"Isto é porque o ChatGPT é um modelo de como as pessoas usam a linguagem. Embora a linguagem muitas vezes espelhe o mundo, esses sistemas ainda não têm uma compreensão profunda de como o mundo funciona."
Essas respostas falsas também podem ser enganosamente convincentes ou autênticas, acrescentou o relatório, apontando para como os modelos de linguagem criaram respostas aparentemente legítimas, mas errôneas para perguntas médicas, bem como gerando códigos de software que são suscetíveis a vulnerabilidades.
Além disso, a disseminação de conteúdo falso é cada vez mais difícil de identificar devido a textos, imagens e vídeos convincentes, mas enganosos, que podem potencialmente ser gerados em escala usando IA generativa.
Ataques de personificação e reputação se tornaram mais fáceis, incluindo ataques de engenharia social que usam deepfakes para obter acesso a indivíduos privilegiados.
A IA generativa também torna possível causar outros tipos de danos,onde atores de ameaças com poucas ou nenhuma habilidade técnica podem potencialmente gerar código malicioso.
Esses riscos emergentes podem exigir novas abordagens para a governança da IA generativa, de acordo com o documento de discussão.
A Ministra das Comunicações e Informação de Cingapura, Josephine Teo, observou que líderes globais ainda estão explorando arquiteturas e abordagens alternativas de IA, com muitas pessoas emitindo cautela sobre os perigos da IA.
A IA oferece "inteligência semelhante à humana" em um nível potencialmente alto e a um custo significativamente reduzido, o que é especialmente valioso para países como Cingapura, onde o capital humano é um diferenciador-chave, disse Teo, que estava falando na cúpula Asia Tech x Singapore desta semana.
O uso impróprio da IA, no entanto, pode causar grande dano, ela observou. "Guarda-corpos são, portanto, necessários para orientar as pessoas a usá-lo de forma responsável e para que os produtos de IA sejam 'seguros para todos nós' por design", disse ela.
"Esperamos que [o documento de discussão] provoque muitas conversas e aumente a conscientização sobre os guarda-corpos necessários", acrescentou ela.
Durante um diálogo a portas fechadas na cúpula, ela revelou que altos funcionários do governo também debateram os recentes avanços na IA, incluindo modelos de IA generativa, e consideraram como eles poderiam impulsionar o crescimento econômico e impactar as sociedades.
Os funcionários chegaram a um consenso de que a IA tinha que ser "adequadamente" governada e usada para o bem da humanidade, disse Teo, que forneceu um resumo como presidente da discussão. Participantes da reunião, que incluíam ministros, representavam nações que incluíam Alemanha, Japão, Tailândia e Holanda.
Os delegados também concordaram que a maior colaboração e troca de informações sobre políticas de governança de IA ajudariam a identificar terrenos comuns e levariam a um melhor alinhamento entre as abordagens. Esta unidade levaria a estruturas de governança de IA sustentáveis e adequadas ao propósito e padrões técnicos, disse Teo.
Os funcionários pediram maior interoperabilidade entre as estruturas de governança, que acreditam ser necessária para facilitar o desenvolvimento responsável e a adoção de tecnologias de IA globalmente.
Também houve reconhecimento de que a ética da IA deveria ser infundida nos estágios iniciais da educação, enquanto os investimentos em requalificação deveriam ser priorizados.
GALVANIZANDO A COMUNIDADE
Cingapura lançou uma fundação sem fins lucrativos para "aproveitar o poder coletivo" e as contribuições da comunidade global de código aberto para desenvolver ferramentas de teste de IA. O objetivo aqui é facilitar a adoção de IA responsável e promover as melhores práticas e padrões para a IA.
Chamada de AI Verify Foundation, ela definirá a direção estratégica e o roteiro de desenvolvimento da AIVerify, que foi introduzida no ano passado como um arcabouço e kit de ferramentas de teste de governança. O kit de ferramentas de teste foi disponibilizado como código aberto.
O atual grupo de 60 membros da AI Verify Foundation inclui IBM, Salesforce, DBS, Singapore Airlines, Zoom, Hitachi e Standard Chartered.
A fundação opera como uma subsidiária integral sob a IMDA. Com as tecnologias de teste de IA ainda incipientes, a agência governamental de Cingapura disse que aproveitar as comunidades de código aberto e de pesquisa ajudaria a desenvolver ainda mais o segmento de mercado.
Teo disse: "Acreditamos que a IA é a próxima grande mudança desde a internet e o mobile. Diante de medos e preocupações muito reais sobre seu desenvolvimento, precisaremos direcionar ativamente a IA para usos benéficos e afastá-la dos ruins. Isso é fundamental para como Cingapura pensa sobre a IA."
Em seu discurso na cúpula, o Vice-Primeiro Ministro de Cingapura e Ministro das Finanças, Lawrence Wong, reiterou a importância de estabelecer confiança na IA, para que a tecnologia possa ter aceitação generalizada.
"Já estamos usando machine learning para otimizar a tomada de decisões e a IA generativa irá além disso para criar potencialmente novos conteúdos e gerar novas ideias", disse Wong. "No entanto, ainda existem sérias preocupações. Usada de forma inadequada, [a IA] pode perpetuar vieses perigosos na tomada de decisões. E com a última onda de IA, os riscos são ainda maiores à medida que a IA se torna mais íntima e semelhante ao humano."
Esses desafios colocam questões difíceis para reguladores, empresas e a sociedade em geral, disse ele. "Que tipo de trabalho a IA deve ser autorizada a ajudar? Quanto controle sobre a tomada de decisões uma IA deve ter e quais salvaguardas éticas devemos colocar em prática para ajudar a orientar seu desenvolvimento?"
Wong acrescentou: "Nenhuma pessoa, organização ou mesmo país, terá todas as respostas. Todos teremos que nos unir para participar de discussões críticas para determinar os guarda-corpos apropriados que serão necessários para construir sistemas de IA mais confiáveis."
Em uma discussão de painel, Alexandra van Huffelen, do Ministério do Interior e das Relações do Reino dos Países Baixos, reconheceu os benefícios potenciais da IA, mas expressou preocupações sobre seu impacto potencial, especialmente em meio a sinais mistos da indústria.
A Ministra da Digitalização observou que os players do mercado, como a OpenAI, exaltam os benefícios de seus produtos, mas ao mesmo tempo emitem cautela de que a IA tem o potencial de destruir a humanidade.
"Essa é uma história louca para contar", brincou van Huffelen, antes de perguntar a um colega de painel da Microsoft como ele se sentia, já que sua empresa é investidora da OpenAI, a mente por trás do ChatGPT.
Os co-fundadores e CEO da OpenAI no mês passado publicaramconjuntamente uma nota no site da empresa, pedindo a regulamentação dos sistemas de IA de "superinteligência". Eles falaram sobre a necessidade de uma autoridade global, como a Agência Internacional de Energia Atômica, para supervisionar o desenvolvimento da IA. Esta agência deveria "inspecionar sistemas, exigir auditorias, testar a conformidade com os padrões de segurança, impor restrições aos graus de implantação e níveis de segurança", entre outras responsabilidades, eles propuseram.
"Seria importante que tal agência se concentrasse em reduzir o risco existencial e não em questões que deveriam ser deixadas para os países individuais, como definir o que uma IA deveria ser autorizada a dizer", observaram. "Em termos de potenciais vantagens e desvantagens, a superinteligência será mais poderosa do que outras tecnologias com as quais a humanidade teve que lidar no passado... Dada a possibilidade de risco existencial, não podemos ser apenas reativos. A energia nuclear é um exemplo histórico comumente usado de uma tecnologia com essa propriedade."
Em resposta, o presidente da Microsoft Ásia, Ahmed Mazhari, reconheceu que a resistência de van Huffelen não era injustificada, observando que os mesmos proponentes que assinaram uma petição em março para pausar os desenvolvimentos da IA, no mês seguinte investiram em seu próprio chatbot de IA.
Apontando para o dano social que resultou da falta de supervisão das plataformas de mídia social, Mazhari disse que a indústria de tecnologia tem a responsabilidade de prevenir a repetição desse fracasso com a IA.
Ele observou que a discussão em andamento e a maior conscientização sobre a necessidade de regulamentações de IA, em particular nas áreas de IA generativa, era um sinal positivo para uma tecnologia que chegou ao mercado apenas seis meses atrás.
Além disso, van Huffelen sublinhou a necessidade de as empresas de tecnologia agirem de forma responsável, ao lado da necessidade de regras serem estabelecidas e da aplicação para garantir que as organizações aderissem a essas regulamentações. Ela disse que permanece "não testado" se essa abordagem dupla poderia ser alcançada em conjunto.
Ela também enfatizou a importância de estabelecer confiança, para que as pessoas queiram usar a tecnologia, e garantir que os usuários tenham controle sobre o que fazem online, como fariam no mundo físico.
O colega de painel Keith Strier, vice-presidente de iniciativas globais de IA da Nvidia, observou a complexidade da governança devido à ampla acessibilidade das ferramentas de IA. Esta disponibilidade geral significa que há mais oportunidades para construir produtos inseguros.
Strier sugeriu que as regulamentações deveriam fazer parte da solução, mas não a única resposta, pois os padrões da indústria, as normas sociais e a educação são tão cruciais para garantir a adoção segura da IA.