O racismo algorítmico e a falta de transparência sobre o treinamento das máquinas de inteligência artificial foram tema da audiência da Comissão Especial de Inteligência Artificial da Câmara dos Deputados. No centro da discussão, que ocorreu na terça-feira, 17, estava o Nicolas Andrade, Chefe de Políticas para a América Latina e o Caribe, da OpenAI, que foi bastante questionado sobre a opacidade do que está nos bastidores do Chat GPT, carro-chefe da empresa.

A deputada Fernanda Melchionna, do PSol do Rio Grande do Sul, confrontou o executivo sobre racismo algorítmico. Ela citou o caso da deputada carioca Renata Souza, retratada por ferramenta de IA generativa (DALL-E) como uma mulher negra, armada, em uma favela do Rio. Ela defendeu a regulação das ferramentas de IA e lembrou que o uso indiscriminado pode levar a demissões em massa.

“A regulação frágil prejudica os trabalhadores e favorece as grandes corporações”, afirmou a deputada.

O deputado Pedro Uczai, do PT de Santa Catarina, afirmou que a IA reorganiza o passado em vez de projetar o futuro — e, nesse processo, acaba reproduzindo os mesmos padrões de desigualdade que marcaram a história humana. Uczai também criticou a apropriação privada do conhecimento coletivo usado para treinar os modelos e classificou o fenômeno como uma nova forma de “colonialismo digital”.

Já a cientista da computação Nina da Hora, convidada para a audiência, afirmou que, ao se apresentar como um “laboratório de pesquisa”, a OpenAI tem o dever de atuar com transparência — inclusive quando os resultados não são positivos.

Em resposta às críticas de opacidade nos processos algorítmicos, o representante da OpenAI convidou os deputados e demais presentes a participarem de uma aula promovida pela empresa sobre os processos de machine learning utilizados. Ele disse ainda que a empresa é como uma “fábrica de tijolos” e que se responsabiliza pela criação da ferramenta e não pela forma como ela é utilizada.