Programas como o Muralha Paulista, do governo Tarcísio, apresentam-se como panaceia para a segurança, mas são caros e reforçam antigos estereótipos
Hoje (6/11), às 19h30, a Conectas Direitos Humanos realiza um encontro com especialistas em segurança pública e tecnologia no SESC Paulista, em São Paulo. O evento vai reunir especialistas para discutir as implicações do uso de tecnologias avançadas na área da segurança pública para os direitos humanos — em particular o chamado Reconhecimento Facial.
A reportagem abaixo, produzida por alunos da disciplina Legislação em Jornalismo na Escola de Comunicações e Artes da Universidade de São Paulo (ECA-USP) e publicada com exclusividade pela Ponte, debate os problemas deste tipo de tecnologia já implementada em experiências-piloto no Brasil — um país de raízes escravocratas e violentas.
No dicionário, “muralha” é um muro alto que protege uma cidade e seus cidadãos. A ideia, associada à proteção contra agentes invasores, sugere um espaço de segurança para os moradores de certa região. Em junho de 2023, em um programa da Jovem Pan, o secretário da Segurança Pública Guilherme Derrite exaltou as qualidades do “Muralha Paulista”, programa de integração das câmeras de segurança de todo o estado, para “arrebentar a cadeia logística do crime”.
“Agora centralizou, são 633 municípios ‘linkados’ com o Estado, faltam só 12 e nós vamos fechar todos”, comemorou Derrite, ex-capitão das Rondas Ostensivas Tobias de Aguiar (ROTA) responsável pela política de segurança do governador Tarcísio de Freitas (Republicanos).
Leia mais: Com reconhecimento facial, edital de Tarcísio para câmeras vai ampliar vigilância da população
No entanto, as tecnologias de reconhecimento facial estão muito distantes da eficácia que se alardeia delas. É o que afirma a doutora em sociologia, pesquisadora de pós-doutorado do Peace Research Institute Frankfurt (PRIF) e pesquisadora associada do Núcleo de Estudos da Violência (NEV-USP) Ariadne Natal. Mais do que isso, afirma a especialista, essas tecnologias possuem vieses no reconhecimento de suspeitos — com a tendência a maiores erros em relação a mulheres negras ou pessoas trans.
Ariadne alerta que esses equipamentos geram com frequência “falsos positivos”, classificando pessoas com esses perfis como criminosas. “É uma falha não aleatória, ela tem um viés”, afirma. “Então, o custo [desse tipo de programa] não é só econômico, mas da falha, que vai ser um custo humano.”
Leia mais: Muito além do Twitter: racismo dos algoritmos está em toda a parte
Outro problema identificado pela especialista tem relação com a disponibilidade das câmeras usadas no projeto, que tende a focar os recursos de segurança pública em áreas que menos necessitam. “Significa que vai ter muito mais chamado onde existem câmeras. Se a polícia continuar destinando recursos com mais frequência aos lugares que já têm monitoramento — ou seja, de classe média ou alta, na maior parte das vezes — eles só buscarão por filmagens de condomínios fechados, shoppings etc”, explica.
Na opinião da pesquisadora do NEV, uma das perguntas que deveriam ser feitas é sobre a real urgência de um projeto como o Muralha Paulista, do qual ainda não se sabe tanto. Para ela, um dos estudos que têm comprovação e que poderia ser utilizado é de incentivo às câmeras nos uniformes policiais — que sofre uma política de desmonte por parte da gestão Tarcísio.
Interesses privados
Por trás do Muralha Paulista está o Edge Group, estatal dos Emirados Árabes Unidos, cuja representação no Brasil era feita até julho por Marcos Degaut, ex-secretário do Ministério da Defesa do governo de Jair Bolsonaro.
A empresa tentava emplacar, junto com o Muralha Paulista, um outro programa: o “Bola de Cristal”. Com um nome que evoca misticismo, utilizaria reconhecimento facial, Inteligência Artificial (IA) e outras formas de monitoramento para tentar “prever” comportamentos criminosos em áreas nas quais o governo tenta desarticular o crime organizado — ideia que evoca o filme Minority Report, distopia futurista dirigida por Steven Spielberg e estrelada por Tom Cruise em 2002, em que o Estado implementa uma tecnologia para prender suspeitos antes de eles cometerem crimes.
Leia mais: ‘Desmonte’: Tarcísio deixou de investir quase R$ 57 milhões em câmeras nas fardas da PM
Para Ariadne, os motivos da representação árabe são nebulosos, assim como a maior parte do funcionamento do programa. Um ponto sem explicação é o fato de a estatal árabe estar estruturando o programa sem custo para o governo paulista. Uma das hipóteses é de que interessaria à Edge “treinar” seus sistemas, com o fornecimento pelo Brasil de dados pessoais em massa.
A pesquisadora cita também o fato de que os Emirados Árabes Unidos funcionarem sob um regime de repressão política. “Você está andando pelas ruas de São Paulo e seu rosto está sendo escaneado por uma empresa que não é brasileira, e que tem acesso a esses dados para cruzar com outras informações. É um estranho que uma informação tão sensível seja compartilhada com uma instituição sobre a qual sabemos tão pouco”, alerta a especialista.
Algoritmo contra o crime
Thallita Lima, coordenadora do “O Panóptico”, projeto do Centro de Estudos de Segurança e Cidadania (CESeC), comenta que existe um aumento no gasto público com tecnologias algorítmicas de segurança sem que seja possível observar mudanças significativas nos índices de criminalidade.
Segundo dados do CESeC divulgados no fim de 2023, cerca de 47,6 milhões de pessoas no Brasil estão possivelmente sob vigilância de câmeras de reconhecimento facial na segurança pública. Os dados revelam também que 23,44% da população brasileira já está sob monitoramento dos 165 projetos do gênero, em fase ativa ou de testes.
Leia mais: VÍDEO: Policiais disputam racha e batem viatura em SP
O Nordeste ocupa a segunda posição em número de população potencialmente vigiada, com 14,1 milhões de pessoas, representando 25,86% dos nordestinos. A região Sudeste lidera o ranking, com 21,7 milhões de indivíduos sob vigilância.
“Esse projeto é extremamente complexo e traz muitos elementos problemáticos”, diz Thallita sobre o Muralha Paulista. “Um dos principais problemas é o uso de parcerias público-privadas, nas quais câmeras de particulares são usadas para a produção e coleta de imagens que serão processadas por entidades públicas”, aponta.
Limbo regulatório
Em vigor desde agosto de 2020, a Lei Geral de Proteção de Dados (LGPD) abre exceções para o uso de dados pessoais com fins de segurança pública. No entanto, quando entidades privadas estão envolvidas na coleta e processamento de dados, há a criação de um limbo regulatório e jurídico.
“Os problemas de Segurança Pública e as dinâmicas de violência são complexos, e entender o uso de qualquer tecnologia como uma solução mágica é, no mínimo, uma abordagem redutora e complicada”, diz a coordenadora do “O Panóptico”. Ela cita iniciativas do gênero desenvolvidas na Bahia e no Rio que não surtiram efeito nos números de criminalidade. “Ou seja, investe-se muito dinheiro, sem obter o retorno esperado”, afirma.
“Quando ponderamos os riscos e os benefícios, percebemos que os malefícios superam significativamente os alegados benefícios. Além das questões de flexibilização de direitos humanos e direitos fundamentais, há uma importante questão orçamentária. A instalação, manutenção, atualização e armazenamento dos dados em nuvens são processos muito caros. Produzir dados continuamente exige uma arquitetura de nuvem com bastante espaço, o que gera altos custos.”
Experiência baiana e fluminense
No projeto-piloto de videomonitoramento por reconhecimento facial implementado nas áreas mais movimentadas de Salvador pela Secretaria de Segurança Pública da Bahia (SSP-BA), R$ 95 milhões de reais foram investidos pelo governo Rui Costa (PT). Cerca de 15 milhões de cidadãos foram cadastrados no sistema de monitoramento, com ou sem mandados de prisão expedidos.
No entanto, os resultados foram decepcionantes: em 2022, pelo terceiro ano consecutivo, a Bahia apresentou o maior número de mortes violentas do Brasil, segundo dados do Monitor de Violência, elaborado pelo G1. Isso apesar de ter sido o Estado com maior número de prisões ocasionadas pelo sistema de monitoramento, segundo dados produzidos pela Rede Observatório — sendo 90,5% destas ocorrências realizadas contra homens pretos com idade média de 35 anos.
Leia mais: Sobrinho de rapper do Facção Central é morto por PM no OXXO
Situação parecida ocorreu no Rio de Janeiro com a promessa de campanha do ex-governador Wilson Witzel (PSC). O Rio, através da Secretaria de Estado de Polícia Militar (SEPM), implementou em 2019 um projeto-piloto semelhante ao da Bahia, na região do Maracanã, durante o período do Carnaval.
Segundo documento do Centro de Controle Operacional da Polícia Militar (Cecopom), a expansão do projeto custou R$ 726.789 ao estado. E, apesar do investimento, na primeira fase de funcionamento do sistema, foram cumpridos cinco mandados de busca e apreensão e três mandados de prisão. Nenhuma pessoa desaparecida foi encontrada.
Ao todo, em relação a estes primeiros resultados, a correlação entre as faces capturadas e reconhecidas, corresponde a uma taxa de 0,082%, indicando um descompasso entre a quantidade de informação e os resultados obtidos. Além disso, a SEPM admitiu que dentre as 11 pessoas detidas no entorno do Estádio do Maracanã pelo sistema, sete foram equívocos da máquina — margem de erro de 63%.
O caso ViaQuatro
Em 2018, a concessionária ViaQuatro, que opera a Linha 4 do Metrô em São Paulo, instalou portas interativas nas estações Paulista, Pinheiros e Luz que realizavam reconhecimento facial dos usuários e conseguiam identificar emoções. Sentimentos como alegria, insatisfação e surpresa, além da idade e gênero dos transeuntes, eram analisados à medida que os usuários reagiam às propagandas que apareciam. Segundo informe da empresa, as imagens não seriam armazenadas, mas utilizadas unicamente para “fins estatísicos”.
O presidente da ViaQuatro, Harald Zwetkoff, afirmou na época que as portas eram projetos experimentais com duração de um ano e dois patrocinadores: a empresa LG e a Hypera Pharma, farmacêutica brasileira.
Com a Lei Geral de Proteção de Dados ainda em implementação, o Instituto de Defesa de Consumidores (IDEC) propôs uma Ação Civil Pública requerendo o encerramento da coleta de dados das portas interativas e o pagamento de indenização por danos coletivos e morais, considerando a falta de consentimento por parte dos consumidores sob a gravação da imagem. Outro fator levantado foi a violação do uso da imagem de crianças e jovens menores de idade.
Por fim, a 37ª Vara Cível do Foro Central Cível de São Paulo considerou o uso da em uma linha de metrô uma violação do direito à privacidade da imagem e à liberdade de informação do indivíduo. A concessionária, em resposta às acusações, emitiu nota à imprensa afirmando que o sistema de portas interativas funcionou por breve período e que não possuía recursos para a coleta de dados pessoais, portanto não era capaz de realizar o reconhecimento facial dos passageiros.
Preconceito 2.0
Para a coordenadora do Centro de Estudos de Segurança e Cidadania, os sistemas de reconhecimento facial tendem a reproduzir e até amplificar preconceitos existentes na sociedade. Segundo ela, o “racismo algorítmico” é a raiz dos erros e injustiças provocados por esses sistemas. Bancos de imagens pouco diversos e a falta de representação de certos grupos podem levar a um maior índice de equívocos ao identificar pessoas negras e pessoas trans, por exemplo.
“O que o algoritmo aprende está inserido em um ambiente social. Ele não é apenas técnico, é social também”, afirma Tallita. “Os algoritmos aprendem a ver, reconhecer e identificar a partir de um banco de dados. Tem toda uma questão aí, que envolve como a construção desses dados vai fazer com que o algoritmo se comporte.”
E exemplifica: “Se na minha base de treinamento tiverem muitas pessoas brancas, provavelmente o algoritmo vai ter dificuldade de conhecer pessoas não-brancas. Então, existe essa questão de qual é o ambiente de aprendizado do algoritmo e quem faz essas tecnologias também.”
Marco legal da IA
O Projeto de Lei nº 2.338/2023, apresentado pelo presidente do Senado, Rodrigo Pacheco (PSD), em maio do ano passado visa estabelecer “normas gerais de caráter nacional para o desenvolvimento, implementação e uso responsável de sistemas de inteligência artificial (IA) no Brasil, com o objetivo de proteger os direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis em benefício da pessoa humana, do regime democrático e do desenvolvimento científico e tecnológico.”
Também conhecido como Marco Legal da Inteligência Artificial, o PL foi desenvolvido por uma comissão de especialistas sob coordenação de Ricardo Villas Bôas Cuevas, ministro do Superior Tribunal de Justiça (STJ). O texto entrou em tramitação em julho de 2023. Outro projeto, do deputado federal Eduardo Bismarck (PDT), já aprovado na Câmara, propõe fundamentos e princípios para o desenvolvimento e aplicação da IA no Brasil.
Ambos estão sob análise e em fase de audiências públicas na Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA).
O PL não é, no entanto, a primeira proposta de legislação associada a sistemas de reconhecimento facial no país. O Projeto de Lei 3069/2022, em trâmite na Câmara dos Deputados, também dispõe sobre o uso dessa tecnologia no âmbito das forças de segurança pública. E estabelece que “a utilização de resultado obtido unicamente por meio de tecnologia de reconhecimento facial deve ser absolutamente evitada sob pena do cometimento de erros graves de identificação”.
‘Boia de salvação’
A LGPD, aprovada em 2018 e em vigor desde 2020, é um dos únicos exemplos de documentos oficiais que já abordam o uso dessas tecnologias. Nela, é enunciado, por exemplo, que o tratamento de dados pessoais somente poderá ser realizado em situações nas quais é comprovado o consentimento expresso do titular das imagens. Um de seus itens, entretanto, adverte que a lei não se aplica ao tratamento de dados realizado para fins exclusivos de segurança pública.
Para Rafael Zanatta, diretor da Associação da Data Privacy Brasil de Pesquisa, ONG que defende a proteção de dados pessoais, esse é o motivo pelo qual a LGPD não pode ser usada como argumento para a proibição dessas tecnologias. Os debates jurídicos em torno da proibição do assunto, sustenta ele, devem ser baseados em direitos constitucionais.
“A única boia de salvação do debate de segurança pública e de reconhecimento facial é sairmos da discussão de proteção de dados pessoais e ir para uma discussão de direito discriminatório”, diz.
Mau uso da tecnologia
Focado em inovações na área de segurança que articulem governos, setor privado e sociedade civil no aprimoramento de políticas públicas, o Instituto Igarapé também adverte para os riscos de um mau uso dessa tecnologia.
Para Robert Muggah, diretor de inovação e cofundador do Instituto Igarapé, “a perda de privacidade é justificada em nome da segurança nacional e outros benefícios sociais, mas esses compromissos não são distribuídos igualmente: algumas formas de coleta de dados afetam desproporcionalmente as populações minoritárias e de baixa renda. O reconhecimento facial, em particular, pode permitir discriminação direcionada, especialmente se baseado em tecnologias falhas e governos autoritários”.
Na opinião de seu diretor, o uso dessas imagens deve ser utilizado com cautela e apenas em casos de “crime grave”, mediante rigorosas salvaguardas para garantir precisão, proporcionalidade e evitar seu uso indevido. “Existem exemplos anedóticos de como pode ser usado para resolver crimes violentos, absolver suspeitos inocentes, combater o tráfico humano, levar predadores sexuais de menores à justiça e identificar vítimas”, diz Robert.
O Igarapé propõe a criação de regras para limitar a coleta de dados sem consentimento e reforçar a proteção da privacidade. E a implementação de medidas para assegurar a responsabilização e a transparência no uso dessas tecnologias. “A orientação deve enfatizar a justiça, a transparência, a responsabilidade, a não discriminação, os avisos de privacidade e consentimento”, afirma.