Em um cenário onde as automatizações desempenham um papel cada vez mais significativo em nossa sociedade, surge uma questão importante: quem é responsável pelas decisões tomadas por esses mecanismos, especialmente quando aparecem danos ou consequências negativas?
Embora os algoritmos e o aprendizado de máquina orientem as ações dos sistemas de IA, é preciso que as organizações estabeleçam uma clara estrutura de responsabilidade. Logo, recursos de prestação de contas devem ser desenvolvidos.
Isso começa com a definição de políticas transparentes relacionadas ao ciclo de vida, desde a elaboração até implementação e manutenção. Auditorias regulares são fundamentais para monitorar o desempenho e identificar possíveis vieses ou problemas éticos, garantindo que as organizações possam tomar medidas corretivas quando necessário.
Além disso, deve-se promover a transparência na tomada de decisões – algo que pode ser alcançado fornecendo explicações compreensíveis sobre como medidas são definidas, aumentando a compreensão e a confiança na Inteligência Artificial.
Por fim, órgãos reguladores e instituições governamentais têm que criar e aplicar diretrizes éticas e legais para orientar seu uso responsável, confiável e seguro.