Startups de IA e a Regulação: O Desafio de Enfrentar as Grandes Empresas de Tecnologia
A longo prazo, essas empresas menores têm que fazer parte da conversa regulatória e querem ter voz sobre como serão escrutinadas.
Fonte: https://www.theverge.com/2023/8/8/23820423/ai-startups-regulation-big-tech
No universo da IA generativa, são os grandes nomes que dominam os holofotes. Gigantes da tecnologia como a Microsoft e startups bem financiadas como a OpenAI receberam convites para a Casa Branca e participaram das primeiras de muitas audiências congressuais. São eles que ganham destaque ao discutir como sua tecnologia pode impactar a humanidade. Enquanto políticos nos EUA e em outros lugares debatem sobre como regular a IA, essas poucas empresas têm desempenhado um papel desproporcional na definição dos termos da conversa. E os menores players de IA, comerciais e não comerciais, sentem-se excluídos, encarando um futuro mais incerto.
A "Big AI" — um termo que já deveria ter sido adotado há tempos — tem orientado ativamente as possíveis políticas de IA. No mês passado, OpenAI, Meta, Microsoft, Google, Anthropic e Amazon assinaram um acordo com a Casa Branca comprometendo-se a investir em IA responsável e a desenvolver recursos de marca d'água para sinalizar conteúdo gerado por IA. Logo depois, OpenAI, Microsoft, Anthropic e Google formaram o Frontier Model Forum, uma coalizão da indústria destinada a "promover o uso seguro e responsável dos sistemas de IA de fronteira". Foi criado para avançar na pesquisa de IA, encontrar melhores práticas e compartilhar informações com formuladores de políticas e o restante do ecossistema de IA.
No entanto, essas empresas representam apenas uma fração do mercado de IA generativa. OpenAI, Google, Anthropic e Meta operam o que são chamados de modelos de base, estruturas de IA que podem ser baseadas em linguagem ou focadas em imagem. Além desses modelos, existe um setor em expansão de empresas muito menores desenvolvendo aplicativos e outras ferramentas. Elas enfrentam muitas das mesmas formas de escrutínio, mas, à medida que as regras de IA estão sendo desenvolvidas, temem ter pouco a dizer nos resultados e, ao contrário da Big AI com grandes reservas financeiras, não podem arcar com interrupções nos negócios.
"Para pequenas e médias empresas ao longo da cadeia de valor que estão no espaço, mas não estão realmente à mesa, isso aumenta o sentimento de exclusão. Tipo, 'não somos nenhum dos grandes, então só temos que sentar e esperar alguém decidir por nós'", diz Triveni Gandhi, líder de IA responsável na empresa Dataiku, ao The Verge.
Gandhi cita como exemplo os riscos potenciais para players menores a questão da responsabilidade. Empresas no meio da cadeia de valor da IA, como a Dataiku — que desenvolve aplicações de análise de dados e trabalha com clientes — não têm controle sobre como os modelos que usam obtêm informações.
Se as regras determinarem que as empresas de IA serão responsáveis pelo uso de dados e respostas de chatbots, uma empresa como a Dataiku pode acabar sendo punida por algo que não pode mudar facilmente.
O Frontier Model Forum afirmou que trabalhará com grupos da sociedade civil e governos, mas não mencionou se a adesão será expandida para mais empresas de IA. A OpenAI, uma das líderes do fórum, não quis dizer se o grupo se abrirá no futuro.
A longo prazo, essas empresas menores têm que fazer parte da conversa regulatória e querem ter voz sobre como serão escrutinadas.
Ron Bodkin, co-fundador da ChainML, disse que calibrar requisitos e multas de acordo com o tamanho e escala dos players de IA ajudaria muito a atender muitas preocupações das empresas menores. Gandhi, da Dataiku, sugeriu que qualquer coalizão da indústria ou organização de padrões, como a Organização Internacional para Padronização (ISO), deveria abrir espaço para mais partes interessadas, especialmente porque as necessidades daqueles que trabalham com modelos de base diferem daqueles que trabalham diretamente com consumidores.
Preocupações sobre a captura regulatória — quando indústrias reguladas influenciam fortemente como as políticas são criadas e aplicadas — surgiram em audiências congressuais à medida que os legisladores tentavam equilibrar inovação e prevenção de danos. Faz sentido que os governos consultem grandes empresas de IA ao elaborar um arcabouço regulatório. No entanto, confiar apenas em suas opiniões corre o risco de alienar empresas mais abaixo na cadeia de valor — e potencialmente criar regras que protejam grandes incumbentes da concorrência.
Permitir que grandes corporações moldem regulamentos a seu favor pode deixar os usuários reais — nós — sem voz sobre como isso é governado.
A AI Now soou o alarme sobre a influência da Big AI com um relatório lançado em abril. A organização alertou que as empresas lideravam a narrativa em torno da IA, superestimando a importância da tecnologia para o futuro e influenciando a percepção das pessoas sobre ela. A AI Now acredita que a conversa deve ser liderada por reguladores e pelo público.
Beena Ammanath, diretora executiva do Global Deloitte AI Institute, disse que para fomentar a confiança nas tecnologias de IA, é necessário envolver mais do que grandes empresas. Grupos não governamentais, acadêmicos, agências internacionais e especialistas em políticas também precisam opinar. E enquanto os legisladores continuam a discutir a regulamentação da IA, ainda há tempo para abrir a conversa.
"Elaborar políticas que priorizem genuinamente o interesse público em detrimento dos ganhos corporativos será imperativo para fomentar a confiança na tecnologia de IA, manter padrões éticos e promover a adoção responsável de IA", diz Ammanath.