ONU: algoritmos racistas aumentam discriminação racial por serviços de segurança

Relatório de comitê formado por 18 analistas recomenda que países regulamentem trabalho de empresas de segurança que usam inteligência artificial para evitar perpetuação de preconceitos contra mulheres, negros e grupos étnicos
O GLOBO com agências internacionais

Relatório do Comitê para Eliminação da Discriminação Racial da ONU afirma que uso de inteligência artificial por seus serviços de segurança, especialmente os algoritmos utilizados para reconhecimento facial ou controle policial de fronteiras, reforçam o racismo estrutual. Na foto, manifestação em Brasília a favor da democracia e contra o racismo (07/06/2020) Foto: REUTERS/Adriano Machado

NEW  YORK. Os países devem assegurar que o uso de inteligência artificial por seus serviços de segurança, especialmente os algoritmos utilizados para reconhecimento facial ou controle policial de fronteiras, não reforcem preconceitos estruturais. A afirmação foi feita pela Organização das Nações Unidas (ONU), após o lançamento de um relatório de seu Comitê para Eliminação da Discriminação Racial.

— Existe um grande risco de que (a inteligência artificial) reforce o preconceito e, portanto, agrave ou possibilite práticas discriminatórias — alertou Verene Shepherd, especialista em direitos humanos, em entrevista à agência de notícias AFP. Jamaicana, ela é historiadora e liderou a equipe de 18 analistas independentes que redigiu o documento em que fazem recomendações aos 182 países que ratificaram im tratado internacional proibindo a discriminação racial.

O relatório descreve a preocupação da ONU com a perpetuação do racismo estrutural pelos algoritmos, além de propor maneiras de lidar com o problema. Segundo o documento, sistemas de vigilância que usam inteligência artificial e supostamente apoiam a prevenção de crimes foram implementados pela primeira vez nos Estados Unidos em meados da década de 2000, mas reforçam preconceitos contra comunidades específicas, como mulheres, negros, hispânicos e muçulmanos.

Além disso, o comitê afirma que os algoritmos são responsáveis por um “bombardeio de publicidade preconceituosa” que os usuários de ferramentas de busca ou de redes sociais recebem.

— Os dados históricos sobre prisões em um bairro determinado (que alimentam a inteligência artificial) podem refletir muito bem as práticas policiais preconceituosas e, consequentemente, reproduzi-las. Esses dados aumentam o risco de um excesso de presença policial que poderia levar a realizar mais prisões e, desse modo, criar um ciclo vicioso. Dados incorretos provocam maus resultados — alerta Shepherd.

Em seu relatório, o comitê demonstra preocupação pelo uso generalizado do reconhecimento facial. Estudos já demonstraram que esses dados têm dificuldades para reconhecer rostos de pele escura ou de mulheres.

— Nós ouvimos sobre empresas que usam esses algoritmo para discriminar com base na cor da pele. Ativistas reclamam sobre o uso cada vez mais difundido de inteligência artifical, reconhecimento facial e outras tecnologias. É muito usado nos EUA, onde já ouvimos reclamações das comunidades negras, e também na União Europeia. Na América Latina, cidadão negros e povos indígenas dizem o mesmo — afirmou Shepherd à agência de notícias Reuters, citando Brasil e Colômbia como dois países que discriminam seus cidadãos usando esse tipo de tecnologia. — Esses são lugares os casos prevalecem mais, ouvimos muitos casos.

O comitê pede aos países que regulamentem as empresas que trabalham com esse tipo de tecnologia para garantir que a legislação internacional sobre direitos humanos seja respeitada. Entre as recomendações está a necessidade de transparência na concepção e na aplicação desses direitos. O comitê também reforça que o racismo não foi iniciado por essas tecnologias e que movimentos como o Black Lives Matter e campanhas em defesa de grupos vulneráveis reforçam a necessidade dessas recomendações.

Deixe um comentário

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair /  Alterar )

Foto do Google

Você está comentando utilizando sua conta Google. Sair /  Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair /  Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair /  Alterar )

Conectando a %s

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.