As empresas de IA precisam de regulamentação internacional e inclusiva
Como podemos navegar por essas questões incrivelmente complexas para garantir que a tecnologia de IA sirva à nossa sociedade e não o contrário?
A IA está avançando rapidamente, trazendo consigo benefícios potencialmente transformadores para a sociedade. Com descobertas como o AlphaFold, por exemplo, estamos começando a melhorar nossa compreensão de algumas doenças há muito negligenciadas, com 200 milhões de estruturas proteicas disponibilizadas de uma vez - uma façanha que anteriormente teria exigido quatro anos de pesquisa de doutorado para cada proteína e equipamentos proibitivamente caros. Se desenvolvida de forma responsável, a IA pode ser uma ferramenta poderosa para nos ajudar a entregar um futuro melhor e mais equitativo.
No entanto, a IA também apresenta desafios. Desde o viés no aprendizado de máquina usado para algoritmos de sentença, até a desinformação, o desenvolvimento e a implantação irresponsáveis de sistemas de IA representam o risco de grande dano. Como podemos navegar por essas questões incrivelmente complexas para garantir que a tecnologia de IA sirva à nossa sociedade e não o contrário?
Primeiramente, é necessário que todos os envolvidos na construção da IA adotem e sigam princípios que priorizem a segurança, enquanto também impulsionam as fronteiras da inovação. Mas também requer que construamos novas instituições com a expertise e autoridade para orientar responsavelmente o desenvolvimento desta tecnologia.
O setor de tecnologia frequentemente prefere soluções diretas, e a construção de instituições pode parecer um dos caminhos mais difíceis e nebulosos a seguir. Mas, se nossa indústria deseja evitar uma ética superficial, precisamos de soluções concretas que se engajem com a realidade dos problemas que enfrentamos e tragam comunidades historicamente excluídas para a conversa.
Para garantir que o mercado semeie inovação responsável, precisamos que os laboratórios que constroem sistemas de IA inovadores estabeleçam controles e equilíbrios adequados para informar sua tomada de decisão. Quando os modelos de linguagem apareceram pela primeira vez, foi o comitê de revisão institucional do Google DeepMind - um painel interdisciplinar de especialistas internos encarregados de pioneirismo responsável - que decidiu adiar a publicação de nosso novo artigo até que pudéssemos associá-lo a uma taxonomia de riscos que deveriam ser usados para avaliar modelos, apesar da pressão da indústria para estar "por dentro" dos últimos desenvolvimentos.
Esses mesmos princípios devem se estender aos investidores que financiam novos entrantes. Em vez de financiar empresas que priorizam a novidade em detrimento da segurança e ética, os capitalistas de risco (VCs) e outros precisam incentivar o desenvolvimento de produtos ousados e responsáveis. Por exemplo, a empresa de VC Atomico, na qual sou investidor anjo, insiste em incluir diversidade, igualdade e inclusão, e requisitos de governança social e ambiental nas folhas de termos para cada investimento que faz. Estes são os tipos de comportamentos que queremos que aqueles que lideram o campo estabeleçam.
Também estamos começando a ver uma convergência em toda a indústria em torno de práticas importantes, como avaliações de impacto e envolvimento de comunidades diversas no desenvolvimento, avaliação e teste. Claro, ainda há um longo caminho a percorrer. Como mulher de cor, estou muito ciente do que isso significa para um setor onde pessoas como eu são sub-representadas. Mas podemos aprender com a comunidade de cibersegurança.
Décadas atrás, eles começaram a oferecer "recompensas por bugs" - uma recompensa financeira - para pesquisadores que pudessem identificar uma vulnerabilidade ou "bug" em um produto. Uma vez relatado, as empresas tinham um período de tempo acordado durante o qual abordariam o bug e depois o divulgariam publicamente, creditando os "caçadores de recompensas". Com o tempo, isso se transformou em uma norma da indústria chamada "divulgação responsável". Os laboratórios de IA agora estão pegando emprestado deste playbook para abordar a questão do viés em conjuntos de dados e saídas de modelos.
Por último, os avanços em IA apresentam um desafio à governança multinacional. A orientação no nível local é uma parte da equação, mas também é o alinhamento da política internacional, dado que as oportunidades e riscos da IA não serão limitados a nenhum país. A proliferação e o uso indevido da IA acordaram todos para o fato de que a coordenação global desempenhará um papel crucial na prevenção de danos e garantia de responsabilidade comum.
As leis só são eficazes, no entanto, se forem à prova do futuro. É por isso que é crucial que os reguladores considerem não apenas como regular chatbots hoje, mas também como fomentar um ecossistema onde a inovação e a aceleração científica possam beneficiar as pessoas, fornecendo estruturas orientadas para resultados para as empresas de tecnologia trabalharem.
Ao contrário da energia nuclear, a IA é mais geral e amplamente aplicável do que outras tecnologias, então construir instituições exigirá acesso a um amplo conjunto de habilidades, diversidade de origem e novas formas de colaboração - incluindo expertise científica, conhecimento sócio-técnico e parcerias público-privadas multinacionais. A recente declaração do Atlântico entre o Reino Unido e os EUA é um começo promissor para garantir que os padrões da indústria tenham uma chance de se transformar em lei multinacional.
Em um mundo que está politicamente tendendo para a nostalgia e o isolacionismo, abordagens multicamadas para uma boa governança que envolvam governo, empresas de tecnologia e sociedade civil nunca serão o caminho mais chamativo ou popular para resolver os desafios da IA. Mas o trabalho árduo e pouco glamoroso de construir instituições é fundamental para permitir que os tecnólogos construam um futuro melhor juntos.