Cientistas são contra IA que prevê comportamento criminoso por meio de reconhecimento facial

17

Por Taiza Oliveira e Giselli Nichols

Um grupo de cientistas denominado Coalizão para Tecnologia Crítica (Coaltition for Critical Technology) se manifestou contra a publicação de um artigo cujo tema é a criação de um software com Inteligência Artificial que prevê comportamento criminoso apenas com análise facial. A carta pública destinada à editora norte-americana aborda as consequências da tecnologia baseada em aprendizagem de máquina apontando o risco de recrudescimento do racismo. O documento indica que a machine learning não é uma tecnologia neutra, pois herda crenças da cultura dominante e não existe possibilidade de desenvolver sistemas de previsão criminal livres do racismo.

Impacto em Segurança e Defesa: Tecnologias de reconhecimento facial para prevenção criminal sem imparcialidade podem provocar aumento da tensão racial e descrença no sistema legal, influenciando na geração de conflitos domésticos e consequente aumento da insegurança civil.

Fonte: Coalition for Critical Technology. MEDIUM, 2020. Abolish the #TechToPrisonPipeline. Disponível em: https://www.itnews.com.au/news/scientists-want-minority-report-pre-crime-face-recognition-ai-stopped-549633