O uso de ferramentas de inteligência artificial por jornalistas é uma tendência global que deve se manter nos próximos anos. A agilidade de checagem, edição e produção de conteúdos com o auxílio de IA tem transformado a rotina das redações, mas quem está por trás dessas ferramentas? Um novo estudo publicado pelo Media and Journalism Research Center revelou o perigo da falta de transparência nesse mercado para o jornalismo.
O relatório apresenta análises relacionadas à estrutura de propriedade privada de 100 empresas de ferramentas de IA usadas por redações jornalísticas em todo mundo e a influência que essa propriedade pode ter sobre a maneira como elas funcionam. Com relação a dados financeiros, a pesquisa aponta para a falta de transparência da maioria das empresas analisadas, já que apenas 24 das 100 apresentaram informações de suas receitas e apenas 43 compartilharam seu financiamento total.
Dificuldade de identificar possíveis vieses nos conteúdos gerados por IA
De acordo com o estudo, apenas 33% das empresas de ferramenta de IA demonstram ser suficientemente transparentes em suas informações, e 67% delas não possuem dados sobre propriedade, finanças e outras informações básicas. Para os pesquisadores, essas lacunas são uma barreira perigosa para a qualidade e a veracidade dos conteúdos jornalísticos, pois, na ausência desses dados, determinar como a empresa é influenciada por investidores ou partes interessadas, seu tamanho ou indivíduos e entidades que podem ser responsabilizados pelas ferramentas torna-se um desafio.
O estudo analisou 12 critérios primários e 5 secundários para definir quesitos como propriedade, localização, finanças e transparência. Nesse último, 42% das empresas pesquisadas não são transparentes em três ou mais campos de dados primários, 25% demonstram alguma transparência atendendo 4-8 dos 12 critérios. Segundo o relatório, os usuários não podem compreender os possíveis vieses dessas ferramentas sem o conhecimento abrangente de dados.
Sul Global vulnerável
Outro ponto importante da pesquisa é a localização dessas empresas. Das 100 empresas pesquisadas, 26 não possuem localização identificável. Entre as 74 com local da sede disponível, 47% estão sediadas na América do Norte, 19% na Europa, 5% na Ásia e 3% no Oriente Médio. Ainda segundo o relatório, apenas cinco empresas estão localizadas no sul global e não há registro de empresas localizadas na América Latina.
“A maneira como as ferramentas de IA funcionam é muitas vezes inadequada culturalmente ou em termos de desenvolvimento para o Sul Global e pode obscurecer parte da verdade das experiências no Sul Global”, declarou a pesquisadora, Sydney Martin, em entrevista à Agência Reuters.
Estudo de Caso: Conflito Israel-Hamas
A pesquisa apresenta um estudo de caso sobre o Get Clarity, ferramenta de detecção de deepfake, que sugere a falta de transparência e aponta a empresa como não confiável para checagem de fatos relacionados aos conflitos Israel-Hamas. A empresa foi classificada como não transparente pelo relatório, pois das 12 variáveis primárias de informação apenas três são disponibilizadas: o nome da empresa, seus fundadores e uma lista de investidores (que pode não estar completa e não é verificável além de seu site).
Segundo os pesquisadores, embora não seja possível identificar a sede, a empresa é composta inteiramente por indivíduos atualmente de Israel ou residentes de Israel, incluindo os três membros de sua equipe de liderança: Michael Matias, Natalie Fridman e Gil Avriel. O estudo chama atenção para o fato de que antes de fundar e assumir o cargo de CEO da Clarity, Matias serviu por cinco anos como oficial do Corpo de Inteligência de Israel, um ramo das forças armadas israelenses, já Avriel atuou como consultor jurídico do Conselho de Segurança Nacional de Israel no Gabinete do Primeiro Ministro de Israel por 14 anos antes de seu envolvimento com a Clarity.
O relatório questiona a imparcialidade, a transparência e o conflito de interesses dos líderes da empresa na verificação de fatos do conflito devido à proximidade com o governo de Israel. Segundo os pesquisadores, o caso chama atenção para a importância da transparência em relação à propriedade e aos dados financeiros das empresas de IA, principalmente devido à crescente influência que elas têm exercido sobre as narrativas online.
O Media and Journalism Research Center, responsável pelo relatório, sugere que o estudo seja o primeiro passo de uma iniciativa maior com o objetivo de “promover a transparência e a tomada de decisões sobre o uso de ferramentas de IA na mídia e no jornalismo”. Além disso, embora não use nenhum viés algorítmico nesse estudo, o Centro de Pesquisa aponta para a necessidade de que pesquisas futuras investiguem problemas com os algoritmos e fontes de dados usados pela IA em outros contextos, especialmente o policiamento.
Leave A Comment