Reconhecimento facial no Carnaval: riscos tecnológicos nada divertidos
Os erros e discriminações constatados em estudos nos EUA e Reino Unido nas ferramentas testadas pelos governos do Rio de Janeiro e Bahia
A utilização dos dispositivos visou, segundo o governo, reconhecer carros roubados e pessoas que estivessem com mandados de prisão expedidos. As imagens captadas foram enviadas para o Centro e associadas aos bancos de dados da Polícia Civil e do Detran. Durante os cinco dias do feriado, quatro pessoas foram reconhecidas pelas máquinas e presas no Rio de Janeiro. Um adolescente que estaria cumprindo medida socioeducativa também foi apreendido e um carro roubado foi recuperado. Em Salvador, onde o sistema – criado pela chinesa Huawei – também foi experimentado, um foragido foi preso.
Celebradas pelo governador Wilson Witzel e por autoridades policiais do Estado, as tecnologias de reconhecimento facial acumulam controvérsias, erros e fortes contestações nos países que as utilizam como ferramenta de segurança pública. O primeiro aspecto diz respeito ao caráter intrusivo e o perigo que representam a direitos civis, sobretudo em governos autoritários e que podem empregar o recurso para vigilância estatal em massa.
No caso fluminense, a preocupação se torna mais patente pelo fato de que a implementação das câmeras tenha sido realizada em parceria com a operadora Oi, responsável pelo software utilizado no sistema. A empresa não tem “bons antecedentes” no que diz respeito à privacidade de seus usuários. Em 2014, foi multada em R$ 3,5 milhões pela Secretaria Nacional do Consumidor, do Ministério da Justiça, por vender dados pessoais de clientes, sem a autorização e consentimento dos mesmos, para agências de publicidade e anunciantes.
Discriminação tecnológica
Além dos possíveis usos antiéticos de informações pessoais e, em último caso, a delegação da verificação de identidade de uma pessoa para fins legais e securitários a mecanismos pertencentes a uma companhia privada, um segundo aspecto temerário refere-se a consequências discriminatórias advindas de comprovadas falhas das próprias tecnologias de reconhecimento facial.
Em artigo publicado no ano passado, as pesquisadoras Joy Buolamwini, do MIT Media Lab, e Timnit Gebru, do Microsoft Research, ambos dos Estados Unidos, apontaram que sistemas automatizados de análise facial apresentam tendências discriminatórias. A pesquisa testou três sistemas comerciais de identificação de gênero – IBM Watson, Microsoft Cognitive Services e o Face++ – em um banco de dados próprio e constatou uma significativa disparidade em relação a gênero e raça nestes sistemas. Enquanto em homens brancos a taxa de erro máxima ficou em 0.8%, para mulheres negras o valor chegou a 34,7%.
A construção de um banco de dados próprio pelas autoras do artigo, por sua vez, revela outro agravante dos sistemas de reconhecimento facial automatizados. Buolamwini e Gebru criaram um banco de imagens próprio para que tivessem um repertório base mais representativo que os dois bancos mais utilizados por esses sistemas: o IJB-A, criado pelo Intelligence Advanced Research Projects Activity, do governo americano, e o Adience, construído a partir da coleta de fotos no Flickr. Enquanto o IJB-A, formado por 500 imagens de rostos de figuras públicas apresentava 79.6% de indivíduos de pele clara, o índice chega a 86.2% das 2.284 imagens do Adience. Ou seja, a base de dados é essencialmente branca, levando a erros de reconhecimento relevantes quando as máquinas são colocadas para “reconhecer” a população negra.
Exemplos concretos de erros não faltam. Propagandeado pelo governador Witzel como modelo de referência, o sistema de reconhecimento facial usado pelas polícias britânicas foi duramente questionado pelo Big Brother Watch – uma organização da sociedade civil no Reino Unido que atua em defesa da privacidade – durante um teste realizado, vejam só, no Carnaval de Notting Hill em 2017. A organização apontou em relatório, com base em informações da Polícia Metropolitana de Londres, afirmando que durante os festejos no bairro da cidade naquele ano houve “cerca de 35 identificações errôneas” pelo sistema usado, levando a abordagem equivocadas de cidadãos. O número total de acertos ficou em torno de 3%, enquanto as combinações erradas atingiram 97%.
Regulação
O mais recente relatório do instituto de pesquisa AI Now, da New York University, dedicado a investigar os impactos sociais da utilização da inteligência artificial, defende que as ferramentas de identificação automatizadas precisam de uma regulamentação rigorosa para que o interesse público seja protegido. O documento indica que meros avisos e alertas aos cidadãos sobre a utilização das tecnologias não são suficientes e há a necessidade de leis em âmbitos nacionais que exijam forte supervisão, limitações claras e objetivas de consentimento e instrumentos de transparência e fiscalização pública desses sistemas, considerando os perigos envolvidos em sua utilização. Ainda apontam que as comunidades devem ter o direito de rejeitar a aplicação dessas tecnologias em contextos públicos e privados.
Ao mesmo tempo, legislações demasiadamente rígidas e ajustes nos métodos de treinamento destes mecanismos podem se apresentar como uma armadilha. A encruzilhada ético-política é a seguinte: quanto mais “precisas” são as tecnologias de reconhecimento facial, maior é a legitimidade para futuras implementações em contextos públicos e privados. A maior acuidade tende, ainda, a diminuir as controvérsias e questionamentos sobre os perigos que representa o reconhecimento facial automatizado para restrições de liberdade e direitos civis, bem como para a ampliação de discriminações estruturais. Ou seja, o aperfeiçoamento “desejável” dessas ferramentas pode levar a uma massificação ainda mais perigosa de seu uso.
Segundo Simone Browne, professora assistente da Universidade do Texas e pesquisadora de questões relativas à racialidade e vigilância, os discursos entusiastas da aplicação destes dispositivos em políticas de segurança pública tratam o policiamento e o sistema penal como fundamentalmente neutros. O que, sabemos, não é o caso. Em entrevista ao Gizmodo, Browne alerta que o reconhecimento facial categoriza os humanos, de modo que “os dados que são extraídos ou produzidos sobre indivíduos e grupos são transformados em perfis, circulados e comercializados entre bancos de dados. Esses dados geralmente são classificados por gênero, nacionalidade, região, raça, condição socioeconômica e, para alguns, essas categorias são particularmente prejudiciais”.
Considerar todas essas questões passa a ser urgente, portanto, no atual momento brasileiro. Num contexto em que a segurança pública é preocupação cada vez maior da população, compreender que determinadas tecnologias, já em implementação, podem trazer mais riscos e danos do que ganhos para o conjunto da sociedade é fundamental para que não embarquemos em políticas públicas que passam muito longe da diversão de pular o carnaval mascarado.
*Foto: Fernando Frazão/Agência Brasil
Muito obrigado por ter chegado até aqui...
... Mas não se vá ainda. Ajude-nos a manter de pé o trabalho de CartaCapital.
O jornalismo vigia a fronteira entre a civilização e a barbárie. Fiscaliza o poder em todas as suas dimensões. Está a serviço da democracia e da diversidade de opinião, contra a escuridão do autoritarismo do pensamento único, da ignorância e da brutalidade. Há 24 anos CartaCapital exercita o espírito crítico, fiel à verdade factual, atenta ao compromisso de fiscalizar o poder onde quer que ele se manifeste.
Nunca antes o jornalismo se fez tão necessário e nunca dependeu tanto da contribuição de cada um dos leitores. Seja Sócio CartaCapital, assine, contribua com um veículo dedicado a produzir diariamente uma informação de qualidade, profunda e analítica. A democracia agradece.
ESCRITO POR PAULO FALTAY E FERNANDA BRUNO
São pesquisadores do MediaLab.UFRJ e da Rede Latino-americana de Estudos sobre Vigilância, Tecnologia e Sociedade.
Nenhum comentário:
Postar um comentário