Foto: Reprodução
Especialista e coordenadora no Instituto de Referência em Internet e Sociedade (Iris) traçou desde perspectivas históricas até o futuro acerca do uso das IAs nas mais distintas áreas, além de apresentar conceitos e referências importantes no estudo da temática
Nesta sexta-feira (3), o curso “Diversidade, Inclusão e outros formatos no Jornalismo Pós-Digital”, promovido pela Rede JP em parceria com a escola de comunicação da Universidade Federal do Rio de Janeiro (UFRJ), recebeu Fernanda Rodrigues. Ela, que além de atuante no Iris, como citado, é mestre em Estudos Digitais nas Redes, formada em Direito e integrante do coletivo Aqualtune Lab, comandou uma aula importante sobre um tema atual: o uso da Inteligência Artificial e seus impactos à médio e longo prazo.
A doutoranda e especialista em estudos voltados a sistemas algorítmicos destacou diversos tópicos na aula correlatos ao tema. Além das características atuais e consequências futuras no uso das IAs, Fernanda ressaltou desafios éticos na utilização delas hoje e traçou um paralelo entre vieses determinados que tal uso suscita e casos práticos. Eles cumpriram, com grande efeito, uma frutífera discussão e reflexão entre os alunos de como a desigualdade incentivada pelo mau emprego da inteligência artificial — em distintos sentidos — acarreta diretamente na falta de equidade e transparência entre grupos sociais e em inúmeras camadas cotidianas.
Todo o encontro foi marcado por duas palavras que parecem antagônicas, mas que foram uma aglutinação do que a aula representou: didatismo e profundidade. O grande mérito de Fernanda se baseou em construir de maneira muito clara e acessível uma linha histórica das IAs, desde o início da sua política de implementação mais latente até os dias atuais, abordando explicações multifatoriais e abrangentes. Além de apresentar a utilização delas em várias áreas, a especialista soube dosar o equilíbrio em mostrar tanto como o uso nocivo da inteligência artificial reforça pilares da desigualdade social, representações sociais e até injustiças, quanto sinalizou caminhos para reflexão na solução de alguns destes problemas à médio e longo prazo.
Panorama histórico do uso das IAs e apresentação de ressalvas não tão óbvias que merecem ser vistas……
Justamente neste intuito diverso já se encontra o princípio da aula, no qual Fernanda apresenta o conceito de inteligência artificial e sua ideia a priori atrelada à facilitação de informações automatizadas para aprimoração mais rápida e certeira de serviços. Ao tocar este ponto, a especialista dá exemplos de quanto tal utilização da IA de fato ajudou em alguns campos, inclusive de avanços no mapeamento de dados, representações e afins nas mais distintas áreas: desde a História até ao tratamento anti-fraude em agências bancárias, a fim de facilitar a segurança dos usuários e instituições contra golpistas e hackers.
Contudo, ela também já apresenta aos poucos o custo que o sistema traz atualmente, financeiramente e como, mais tarde aprofundado na aula, socialmente, até quando usado para práticas, digamos, um tanto mais bem intencionadas. Isso se mostra presente, segundo ela, nos impactos ambientais sobretudo, algo não tão falado.
“Quando pensamos em IAs, deve se analisar o custo delas. As IAs não existem no vácuo, na nuvem. Há sempre um recurso, longo e espaçoso, para que elas se tornem atuantes. Financeiros, sociais e ambientais. Isso até neste próprio conceito de facilitação e implementação em bons princípios, como nestes casos. Com a crescente demanda por data centers [servidores conjuntos das IAs], temos um grande número de recursos naturais utilizados para o sustento. A água nesse caso, é usada para refrigeração e geração de energia. Até 2040, os parques de servidores vão ser quase 20%, estimam-se 14%, das emissões totais globais de carbono. Essa necessidade de servidores pode ainda causar deslocamento dessas bases industriais para áreas subdesenvolvidas e subpovoadas, para obterem menor custo e mais fontes fáceis de apropriação de recursos naturais. É sempre importante ver como a manutenção e a implementação das IAs é um custo. Social, financeiro e ambiental. Ambiental principalmente também. É importante se falar esse ponto pois geralmente não é algo que se traça tanto sobre esse tema. Os custos das IAs generativas principalmente. A Kate Crawford e outros teóricos falam isso há algum tempo.”
Os conceitos de vieses
No próximo instante da aula, Fernanda começa a enumerar outros pontos da utilização em IA que merecem a devida atenção, de acordo com ela mesma. A pesquisadora e especialista logo apresenta o conceito de vieses, que são nada mais que os pesos ou angulações que a prática do uso da inteligência artificial pode causar à curto, médio e longo prazo. E ao que, claro, ela já causa.
Estes vieses podem ser positivos ou negativos. Dentro dos negativos, que segundo a especialista são os que mais atentamente devemos estudar por não serem tão difundidos quanto os supostos aceitáveis, há o chamado viés algorítmico, que permeia toda a prática das IAs. Ele, de acordo com Fernanda, desemboca em um outro subviés (dentro dele): o discriminatório. Apesar disso, a pesquisadora pontua que o viés algorítmico não deve ser confundido como sinônimo direto do segundo — e subsequentemente, claro, o racismo algorítmico, que já está dentro da prática que é suscitada pela discriminação.
A especialista também mostra uma classificação de vieses gerais, atuantes em distintas ordens no uso das IAs. Eles, quatro, são justapostos no armazenamento, feitura e produção ativa de inteligência artificial, jamais podendo ser isolados. Por serem amplos, acabam parte do processo de reiteração também do viés algorítmico e, sobretudo, do discriminatório. Fernanda deu enfoque extra às ‘funções’ deles dentro da perpetuação deste último, especialmente em casos de racismo algorítmico.
São os seguintes:
- Viés histórico – Antecedente à coleta de dados e contamina todas as etapas do aprendizado da máquina. Reitera julgamentos e preconceitos sociais históricos, como machismo e racismo. Este último foi dado como exemplo em casos de distinções nos resultados das buscas no Google por três adolescentes negros e brancos, no caso em que nesta primeira amostra estiveram presentes fotos de jovens algemados e em imagem de sofrimento, e na segunda, felizes e sorridentes.
- Viés de dados – Se faz presente na coleta de dados, quando eles não são representativos ou não refletem a população alvo do sistema. Isto se mostra em casos de sistemas de reconhecimento facial que falham em rosto de mulheres negras mais do que em brancas, assim como homens das distintas raças, assim como em situações de dados coletados em determinadas regiões desatualizadas.
- Viés no modelo – Atuante na criação e avaliação do modelo. Presente no modo de funcionamento interno de algoritmos que consideram que correlações implicam em causalidade. Entre exemplos estão sistemas algorítmicos de concessão de crédito a clientes, que usam bases de localização geográfica ou identidade racial como causa de uma possível inadimplência e, por isso, negam benefícios às pessoas com estas características.
- Viés de interpretação humana – Acontece durante a integração dos sistemas. A impossibilidade de uma clara compreensão objetiva dos sistemas, o que torna a interpretação e implementação das IAs dependentes da interpretação humana, passíveis de serem enviesados por elas. Um exemplo dado foi da avaliação que considera como prova criminal resultados de um sistema de reconhecimento facial falho.
Sobre este último viés, Fernanda ressaltou de maneira mais aprofundada como as IAs, sobretudo quando chanceladas pela interpretação humana como bases sólidas e valorativas, incorrem no que ela chama de “dupla opacidade”, termo utilizado por outros teóricos e especialistas como Tarcízio Silva.
“Quando há a interpretação humana dentro da equação de validação à IA há uma ocultação de poderes nos discernimentos. Por isso que há esse termo, que o Tarcízio usa, da ‘dupla opacidade’, que sumariza muito bem isso. É a negação de que não vivemos numa democracia racial e da negação de que a política tecnológica serve a vieses de poderio econômico e manutenção de práticas de matriz social. Essa matriz é baseada na segregação, na distinção, racial e gênero. Então há essa opacidade da realidade. É importante também ressaltarmos que a máquina, a tecnologia, é uma extensão do aprendizado social, que é classicista, racista, machista. E isso é uma lógica baseada no tácito e o tácito que vem do que se considera lógico, que é um cíclico nessa relação entre IAs e validações delas por humanos.”
Fernanda (no topo à esquerda) junto à Eliane Almeida (topo, direita) e Marcelle Chagas (baixo, direita), parte da equipe e coordenadora do curso, respectivamente; e Thamires Alves (intérprete de libras)
Práticas e pontos de reforço discriminatório das IAs e análise de danos
Em seguida, Fernanda enumera práticas já discriminatórias e impactos futuros do desenvolvimento de IA na sociedade. Entre diversos exemplos, a pesquisadora mostra como a vertente generativa da inteligência artificial atua em perpetuar estereótipos, preconceitos e erros nas mais distintas vertentes, atingindo inúmeros grupos e pessoas.
A especialista elencou três pontos principais de ação das IAs generativas: a criminalização de grupos historicamente marginalizados, discriminação em razão do gênero e discriminação em tratamentos e acesso à saúde. Fernanda ressalta que há quatro determinados danos futuros. A pesquisadora mostra que eles já estão presentes nestes tópicos de ação e que futuramente não estarão escalonando, mas sim se tornarão intensificados e partes matrizes da sociedade.
Usando como base teorias de Tarcízio, Fernanda destrinchou quatro danos primordiais: ambientais, mencionados no início da matéria, que incluem desde o uso energético e extrativismo mineral a impactos físicos e mentais na datificação dos processos clínicos; danos à identidade, casos famosos de pesquisas sobre grupos minoritários; epistêmicos, ligados ao conhecimento de forma ampla, que podem abarcar da produção enviesada de ciência até a promoção de desinformação e consequentemente erosão de instituições democráticas; e necropolíticos, intrínsecos à violência estatal, hipervigilância e reconhecimento facial.
Tais práticas mostram, segundo a especialista, um vértice importante quando analisamos as IAs: sua capacidade de afetação em vários níveis. “Há uma verticalização. Amplia a todas as áreas quando há essa estruturação. Isso porque justamente há esta influência da sociedade e das bases dela na feitura da manutenção de dados e do que eles devem significar. Logo, atravessa muitos pontos”, complementa.
Mitigação e atenuações aos efeitos das IAs no futuro
Fernanda, já perto da reta final da aula, frisou algumas formas de como atenuar impactos e mitigar tais danos primordiais citados anteriormente. Sobre os caminhos para atingir tais feitos, a pesquisadora deu diversos exemplos, todos guiados por uma iniciativa principal: o aumento da política de transparência nos meios em que ela se encontra.
“Existem maneiras de atenuação, mitigação de impactos. Perpassam alguns tópicos. O primeiro deles é uma compreensão em largo grau de quem eles servem e pra que servem. Fazer uma avaliação dos sistemas algorítmicos. Reconhecer o caráter estrutural do racismo e seus impactos e termos uma política de centralização dos compromissos do Estado brasileiro contra racismo digital e em todas suas esferas. O segundo é a transparência. Isso não necessariamente é abertura de códigos à longo prazo, mas de meios que tornem a isonomia em torno deles perante nós mais claros. Isso se dá mapeando onde ele atua e esclarecer os contratos, as barganhas das IAs ao público, principalmente os estatais. Disponibilizar bases de dados de treinamento no Poder Público, especialmente com as IAs adotadas por ele, implementar documentações de bases rígidas de utilização destes dados e mostrar quais intuitos principais os guiam, além de investir em pesquisas de relatórios de gastos e impactos ambientais são bem amostras de como isso pode se ocorrer. Regulamentar e transparência nessa regulamentação é o mais importante neste sentido.”
A especialista, neste instante, aproveita para especificar modelos de atenuação de impactos à IA generativa em específico, destacando o que é chamado de “literacia digital”: educação do usuário para enfrentar desinformação e manipulação, como ponto principal neste sentido. Ela também ressalta que, antes de aprimorar contratos e práticas propriamente da inteligência artificial nas suas “aparelhagens técnicas”, é importante o aprendizado social dos cidadãos.
Já a seguir, Fernanda frisa a importância de reconhecimento aos níveis de risco que estes impactos podem trazer: a médio, curto ou longo prazo. E de ressaltar estrategicamente as prioridades no combate dentro destes riscos, para formar uma frente combativa a eles.
“Para estudar atenuação de riscos sempre é preciso pontuar focos de combate. Existem as práticas com risco baixo, médio, alto e inaceitável. As altas e inaceitáveis são focos maiores de estudo, embora as outras também podem e devem ser analisadas em um futuro próximo para que não se tornem alta. Mas reconhecimento facial, principalmente para fins de segurança pública, armas autônomas automatizadas como drone, biometria a distância, filtros de IA que utilizam rosto real para feitura de avatares, cálculos de seguro por sistemas algorítmicos, etc, são todos exemplos reais e de agora, inaceitáveis, que atingem a vida diretamente. Enquanto outras como IAs generativas textuais e de imagens, seleção de emprego e de decisão e análise em Poderes, Judiciário e Legislativo, na esfera criminal, são riscos altos, que também devem ser o foco. Atualmente tem de haver essa divisão para otimizar essas análises, tornar o combate efetivo nos focos, analisando um a um.”
Fernanda (centro, em baixo) junto à Marcelle Chagas (topo, direita) e Stefane (intérprete de libras, à esquerda).
Ao encerrar a aula, a especialista pontuou que o estudo e análise dos impactos das IAs devem perpassar os campos de aprendizado social a respeito de manutenções de práticas discriminatórias de classe, raça e gênero, além de uma voz à garantia de políticas de regulamentação e transparência de uso. Logo após, Fernanda abriu espaço para perguntas de alunos e interação digital, que contou também com o sorteio de uma obra disponibilizada sobre todo o tema.
Todo esse resumo dado no início deste último parágrafo foi o cerne da questão, o que mostra que ser crítico e reflexivo sobre a inteligência artificial e o que ela acarreta hoje e um futuro para a sociedade é uma iniciativa profunda, mas extremamente humana e que deve ser captadora não apenas de discursos de proibição ou reavaliação das máquinas em si, mas de uma reavaliação real de valores sociais nossos que acabam como bases para estes sistemas automatizados. Ou seja, de nada adianta frear a IA se não frearmos a má preservação de recursos naturais, o racismo, machismo, classicismo e outros preconceitos sociais, alimentos diretos dela.
Próxima aula
A próxima aula (17), contará com a presença de Johanna Monagreda. Ela, integrante do Data Privacy Brasil, doutora e Mestre em Ciência Política pela Universidade Federal de Minas Gerais (UFMG) e pesquisadora do Núcleo de Estudos e Pesquisas sobre a Mulher NEPEM/UFMG, comandará o encontro “Governança, Proteção de Dados Pessoais e Direitos Fundamentais na Internet”.
A aula tratará da política de governança online, abordando a proteção de dados pessoais e direitos fundamentais na internet. Também serão discutidos desafios relacionados à privacidade e o equilíbrio à inovação tecnológica com a preservação dos direitos individuais. O encontro ocorrerá às 13:30 da tarde, pelo horário de Brasília, e será transmitido, como de costume, pelo canal do YouTube da Extensão UFRJ.