Com a crescente presença da Inteligência Artificial, especialmente no Brasil, onde 67% das empresas já a utilizam/utilizaram no cotidiano, surgem preocupações importantes. Uma delas é o preconceito algorítmico, um problema capaz de reforçar e até ampliar desigualdades já existentes.
Esse fenômeno ocorre quando os sistemas de IA, projetados para tomar decisões ou prever comportamentos, aprendem com informações históricas repletas de influências culturais, sociais e econômicas.
Assim, ferramentas que deveriam ser neutras e promover a inclusão acabam reproduzindo padrões negativos e discriminatórios presentes na sociedade, intensificando as disparidades.
O documentário Coded Bias, da Netflix, ilustra bem a problemática. Dirigida e produzida pela ativista Shalini Kantayya, a obra narra a descoberta de Joy Buolamwini, pesquisadora do MIT Media Lab.
Durante um experimento com softwares de reconhecimento facial, Joy notou que a ferramenta tinha dificuldade em identificar seu rosto – a menos que usasse uma máscara branca. Intrigada, ela aprofundou a análise e revelou que a falha afetava principalmente mulheres e pessoas negras.
Ficou claro, então, que os dados usados no treinamento das tecnologias eram compostos majoritariamente por imagens de homens brancos, limitando a capacidade de reconhecer a diversidade de traços e características humanas.
Mais do que um alerta, essa reflexão nos leva a repensar o uso da Inteligência Artificial. Para que ela contribua para um futuro mais justo, reduzindo desigualdades e intolerâncias, é essencial que seus programas e metodologias sejam desenvolvidos de maneira ética, refletindo a pluralidade e as complexidades da sociedade.