San Francisco diz que usará inteligência artificial para reduzir preconceito nos tribunais

São Francisco está anunciando uma “ferramenta de mitigação de preconceitos” que usa técnicas básicas de inteligência artificial para redigir automaticamente informações de relatórios policiais que podem identificar a raça de um suspeito. Ele foi criado para ser uma maneira de impedir que os promotores sejam influenciados por preconceitos raciais ao decidir se alguém é acusado de um crime. A ferramenta estará pronta e está programada para ser implementada em 1º de julho.

A ferramenta não apenas descarta descrições de raça, mas também descritores como cor dos olhos e cor dos cabelos, de acordo com o escritório do promotor distrital de SF. Os nomes de pessoas, locais e bairros que podem, consciente ou inconscientemente, alertar um promotor de que um suspeito é de certo nível racial também são removidos.

“Quando você olha para as pessoas encarceradas neste país, elas serão desproporcionalmente homens e mulheres de cor”, disse George Gascón, promotor do distrito de SF, em uma coletiva de imprensa hoje. Ele ressaltou que ver um nome como Hernandez pode dizer imediatamente aos promotores que uma pessoa é descendente de latinos, potencialmente influenciando o resultado.

Um porta-voz da DA informa que a ferramenta também removerá detalhes sobre os policiais, incluindo o número do ID, caso o promotor os conheça e possa ser inclinado a favor ou contra o relatório deles.

Atualmente, São Francisco usa um processo manual muito mais limitado para tentar evitar que os promotores vejam essas coisas – a cidade apenas remove as duas primeiras páginas do documento, mas os promotores conseguem ver todo o resto do relatório. “Tivemos que criar aprendizado de máquina em torno desse processo”, disse Gascón. O escritório do promotor público está chamando isso de “primeiro na nação”, o que significa que não está ciente de nenhuma agência que use AI para fazer isso antes.

A ferramenta foi construída por Alex Chohlas-Wood e a equipe do Laboratório de Políticas Computacionais de Stanford, que também ajudou a desenvolver o sistema Patternizr da NYPD para pesquisar automaticamente os arquivos de casos para encontrar padrões de crime. Wood diz que a nova ferramenta é basicamente apenas um aplicativo leve que usa vários algoritmos para redigir automaticamente um relatório policial, reconhecendo palavras no relatório usando a visão computacional e substituindo-as por versões genéricas, como local, policial # 1 e assim por diante.

Wood diz que a ferramenta está nos estágios finais, foi desenvolvida sem nenhum custo para a SF e terá origem aberta em questão de semanas para que outros a adotem. Ele diz que usa uma técnica específica chamada reconhecimento de entidade denominada, entre outros componentes, para identificar o que redigir.

Sem ver o sistema trabalhando em relatórios policiais reais – por motivos legais, o escritório do promotor disse que tinha que ver um modelo – não está claro como isso poderia funcionar. Quando um jornalista perguntou se ele redigiria outras descrições, como se vestir de pernas cruzadas, Gascón poderia apenas dizer que hoje é um ponto de partida e que a ferramenta irá evoluir.

Também é usado apenas na primeira decisão de cobrança em uma determinada prisão. As decisões finais dos promotores serão baseadas no relatório completo não editado. E se a decisão de cobrança inicial é baseada em evidências de vídeo, isso pode obviamente revelar a raça de um suspeito também.

A decisão de acusar as pessoas com um crime é apenas um, relativamente menor lugar onde a polarização da polícia surge. Quando policiais tomam a decisão de prender um suspeito – ou pior – isso acontece muito antes desse processo. E um jornalista na platéia apontou que um estudo de 2017 descobriu que “as pessoas de cor recebem acusações mais sérias na fase inicial da reserva”, o que pode acontecer muitas horas antes de o gabinete do promotor público intervir com sua decisão.

Será interessante ver se a nova ferramenta ajuda. No momento, a IA é mais conhecida por apresentar alternativas do que removê-las, particularmente um formulário controverso conhecido como “policiamento preditivo”.

Fonte: The Verge

Anúncios

Deixe um comentário:

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.