Apesar de consumir quase R$ 10 milhões dos cofres públicos todo mês, o sistema Smart Sampa, que utiliza milhares de câmeras de reconhecimento facial espalhadas na cidade de São Paulo, não tem eficácia comprovada na redução da criminalidade ou no aumento da produtividade policial. A constatação está no relatório mais recente do projeto O Panóptico, do Centro de Estudos de Segurança e Cidadania (CESeC).

Com mais de 30 mil câmeras instaladas pela cidade, o sistema é frequentemente festejado por Ricardo Nunes como uma ferramenta que tem melhorado a segurança na capital paulista, uma das maiores preocupações dos paulistanos. Com o Smart Sampa como carro chefe de sua gestão nessa área, o prefeito tem se movimentado por uma candidatura ao governo estadual, caso o aliado Tarcísio de Freitas dispute a Presidência em 2026.

A pesquisa do CESeC avaliou indicadores como furtos, roubos, homicídios e números de prisões em flagrante por mandado judicial. O método comparou a cidade de São Paulo a outros municípios do estado que não tiveram a operação implementada.

Os resultados apontam que, apesar dos elevados investimentos no Consórcio Smart City SP, validado pela Secretaria Municipal de Segurança Urbana (SMSU), a melhora nos índices da cidade é igual a zero, estatisticamente.

Além de não ter impactado positivamente o combate à criminalidade, como mostrou o relatório, o sistema tem sido alvo de críticas e foi acusado, em sua primeira versão, de possuir diretrizes discriminatórias. O termo “vadiagem”, historicamente associado à perseguição de pessoas negras, foi utilizado no primeiro edital.

Em junho de 2025, a Prefeitura divulgou um relatório apontando que mais de mil foragidos foram capturados e 275 crimes foram solucionados com o auxílio das câmeras. A análise do CESeC, no entanto, demonstra que esses números, embora aparentemente expressivos, não representam mudança relevante desde a implantação do programa.

Também foram documentados erros graves de identificação. Houve situações em que pessoas foram abordadas ou detidas indevidamente, como um policial militar fardado, um jardineiro voluntário e uma mulher grávida, que acabou sofrendo um parto prematuro em decorrência do estresse. Os erros ocorreram, em parte, por falha nos algoritmos de reconhecimento facial. Até o momento, não há iniciativas em curso para mitigar episódios relacionados à discriminação algorítmica.