O lado invisível da Inteligência Artificial

O lado invisível da Inteligência Artificial

Com a crescente presença da Inteligência Artificial, especialmente no Brasil, onde 67% das empresas já a utilizam/utilizaram no cotidiano, surgem preocupações importantes. Uma delas é o preconceito algorítmico, um problema capaz de reforçar e até ampliar desigualdades já existentes.

 

Esse fenômeno ocorre quando os sistemas de IA, projetados para tomar decisões ou prever comportamentos, aprendem com informações históricas repletas de influências culturais, sociais e econômicas.

 

Assim, ferramentas que deveriam ser neutras e promover a inclusão acabam reproduzindo padrões negativos e discriminatórios presentes na sociedade, intensificando as disparidades.

 

O documentário Coded Bias, da Netflix, ilustra bem a problemática. Dirigida e produzida pela ativista Shalini Kantayya, a obra narra a descoberta de Joy Buolamwini, pesquisadora do MIT Media Lab. 

 

Durante um experimento com softwares de reconhecimento facial, Joy notou que a ferramenta tinha dificuldade em identificar seu rosto – a menos que usasse uma máscara branca. Intrigada, ela aprofundou a análise e revelou que a falha afetava principalmente mulheres e pessoas negras.

 

Ficou claro, então, que os dados usados no treinamento das tecnologias eram compostos majoritariamente por imagens de homens brancos, limitando a capacidade de reconhecer a diversidade de traços e características humanas.


Mais do que um alerta, essa reflexão nos leva a repensar o uso da Inteligência Artificial. Para que ela contribua para um futuro mais justo, reduzindo desigualdades e intolerâncias, é essencial que seus programas e metodologias sejam desenvolvidos de maneira ética, refletindo a pluralidade e as complexidades da sociedade.

4 formas de reduzir o preconceito algorítmico

A tecnologia não é o problema. O desafio está em como ela é treinada. Como destaca Lívia Oliveira, professora de Ciência da Computação da USP, ”é uma máxima entre os profissionais da computação que todos os modelos estão errados e, por isso, devem ser avaliados, reavaliados, testados e verificados.”.


Com o objetivo de garantir que a IA seja uma ferramenta de transformação positiva, é preciso implementar quatro prioridades:

Ampliação do seu entendimento para todos

O conhecimento não deve ser restrito aos especialistas. As pessoas precisam compreender seu funcionamento e as implicações de suas decisões. Só assim conseguiremos uma sociedade mais crítica e participativa em relação ao uso dessa tecnologia.

Testes rigorosos com alto impacto

Em áreas como saúde, segurança e justiça, qualquer erro pode ter consequências graves. Assim, as ferramentas devem passar por avaliações constantes para eliminar qualquer viés ou falha.

Promoção de transparência nas operações

As instituições precisam ser abertas sobre como suas tecnologias operam, quais dados são usados e como escolhas são feitas. Transparência é um passo fundamental para atestar confiança e responsabilidade.

Incentivo à diversidade nas equipes de desenvolvimento

Times diversificados, compostos por profissionais de diferentes origens e experiências, têm mais chances de perceber e corrigir preconceitos que, de outra forma, poderiam ser invisíveis. A multiplicidade é essencial para criar soluções mais equilibradas e inclusivas.


Ao implantar essas ações para combater o preconceito algorítmico, estamos corrigindo falhas tecnológicas e promovendo um compromisso coletivo com uma sociedade mais justa, que respeita as diferenças e se torna uma verdadeira aliada da inclusão.

A solução que seu negócio precisa está aqui

Se a sua organização tem como compromisso eliminar qualquer forma de discriminação dentro dos algoritmos, é fundamental adotar uma ferramenta de IA que esteja alinhada a esse princípio.

 

A Cleveris desenvolveu uma plataforma para te apoiar no cumprimento das diretrizes citadas anteriormente, visto que ela:

 

  • Torna a coleta de dados transparente, explicando o processo de obtenção de consentimento aos usuários e automatizando o registro dessa autorização;
  • Monitora o acesso aos dados e as atividades dos usuários dentro do sistema, identificando comportamentos suspeitos ou não autorizados que possam violar a LGPD;
  • Responder a perguntas frequentes sobre questões legais e encaminhar consultas mais complexas para os advogados;
  • Proporciona treinamentos, promovendo uma cultura de conformidade e ética entre todos os colaboradores;
  • Analisa e categoriza normativas internas, facilitando a organização e gestão de diferentes políticas, procedimentos e regulamentos.

 

Além disso, nossa solução em Inteligência Artificial é totalmente personalizável, permitindo que você defina como e quais dados serão processados, assegurando que as operações respeitem a diversidade e favoreçam decisões justas.

 

Fale com nosso time de especialistas e saiba como podemos apoiar seu negócio na luta contra o preconceito algorítmico!

Venha fazer parte desse time.