DISCRIMINAÇÃO EM ALGORITMOS DE INTELIGÊNCIA ARTIFICIAL: ESTUDO DA LGPD COMO MECANISMO DE CONTROLE DOS VIESES DISCRIMINATÓRIOS

Autores

  • Rafaela Vilela Gonçalves Unifenas

Resumo

O artigo aborda como a Lei Geral de Proteção de Dados (LGPD) pode mitigar os vieses discriminatórios presentes em sistemas de inteligência artificial (IA). Com a ascensão de tecnologias baseadas em big data e aprendizado de máquina, a possibilidade de perpetuar discriminações por meio de algoritmos tornou-se uma preocupação central. A LGPD, sancionada em 2018, busca proteger os direitos fundamentais à privacidade e à liberdade, enfatizando princípios como transparência, finalidade e necessidade no tratamento de dados pessoais. O estudo analisa as principais disposições da LGPD que combatem discriminações algorítmicas, incluindo o princípio da não discriminação (art. 6º, IX) e o direito à revisão de decisões automatizadas (art. 20, §2º). São apresentados exemplos práticos de discriminação algorítmica, como o caso do Google Photos, que evidenciou racismo estrutural em sistemas automatizados. Além disso, destaca-se o risco de reforço de preconceitos quando algoritmos utilizam bases de dados enviesadas. A pesquisa utiliza uma metodologia exploratória e bibliográfica, abrangendo legislações, doutrinas e casos práticos. O artigo também aponta a responsabilidade das empresas em adotar medidas de accountability, como auditorias regulares e avaliações de impacto, para garantir conformidade com a LGPD e evitar práticas discriminatórias. Conclui-se que a LGPD é um instrumento relevante para a promoção da equidade nas tecnologias de IA, mas sua eficácia depende da implementação rigorosa de práticas éticas e de supervisão. Assim, o avanço tecnológico deve ser aliado à justiça social, assegurando o respeito aos direitos individuais e à inclusão.

Arquivos adicionais

Publicado

2024-12-20