Âncoras geradas por IA estão fazendo manchetes na Índia
Lisa e Sana estão sempre disponíveis, nunca doentes ou cansadas, não entram em greve ou tiram folga, e não envelhecem.
Fonte: https://www.zdnet.com/article/ai-generated-anchors-are-making-headlines-in-india/
O âncora de notícias de TV é uma tradição testada pelo tempo para fornecer algum grau de conforto ao negócio de entregar nossa dose diária de manchetes. Acordamos todos os dias com um âncora de notícias matinais familiar e vamos para a cama todas as noites com as notícias da noite entregues por outro rosto familiar. Mas como a IA ameaça assumir muitos dos empregos de hoje, quão segura é a posição do leitor de notícias? Uma rede na Índia está tentando responder a isso.
A Odisha TV, um canal de notícias e plataforma digital da Índia, testou recentemente a Lisa, uma âncora de notícias gerada por IA. Com uma voz monótona e olhos que não fecham completamente ao piscar, Lisa lê as manchetes de notícias para a rede periodicamente, e ela não está sozinha.
De acordo com o South China Morning Post, Lisa é uma de duas chatbots multilíngues que foram adicionadas às redes de notícias na Índia nos últimos três meses. Sana, a outra âncora de notícias gerada por IA, 'trabalha' para a rede Aaj Tak, pertencente ao grupo India Today.
Embora os desenvolvedores empreguem algumas sutilezas para fazer os âncoras parecerem mais humanos, o resultado tende a desencadear reações de vale da estranheza. Sana costuma mudar de um pé para o outro, e Lisa dobra as mãos e rearranja os dedos desconfortavelmente - ações que - por si só - pareceriam "normais" em um ser humano. Ainda assim, a repetitividade dos movimentos dos bots de IA, combinada com suas vozes monótonas e expressões faciais não naturais, cria a sensação estranha de que você está assistindo algo não natural.
Mas Lisa e Sana estão sempre disponíveis, nunca doentes ou cansadas, não entram em greve ou tiram folga, e não envelhecem. Ainda assim, a India Today e a Odisha TV afirmam que não adicionaram esses chatbots de IA para substituir seus homólogos humanos, mas sim para complementá-los, assumindo tarefas repetitivas e mundanas.
Atualmente, Sana e Lisa são encarregadas de ler as manchetes durante uma transmissão ou programa de notícias e entregá-las a um apresentador humano. Sana, no entanto, está sendo treinada para conduzir debates com painelistas humanos e de IA.
A recepção das âncoras de notícias geradas por IA tem sido mista. Os apoiadores incentivam a adoção de novas tecnologias pelas redes, a capacidade de fornecer notícias mais rapidamente durante as eleições e outros momentos críticos, e a diversidade linguística. Em contraste, os opositores se opõem à substituição de pessoas pela inteligência artificial e à falta de nuances humanas.
Aqui está outro dilema ético: a discriminação racial e sexista que pode resultar quando seres humanos criam bots de IA à sua própria imagem. À medida que os executivos de rede decidem cada aspecto físico da aparência de um âncora, há uma possibilidade real de exclusão arbitrária de diferentes grupos étnicos ou características físicas.