Page 290 - Demo
P. 290
Rev. Trib. Reg. Trab. 3ª Reg., Belo Horizonte, v. 70, n. 110, p. 259-303, jul./dez. 2024290(i) direito de acesso a um tribunal, sem com isso desvalorizar o uso dos mecanismos de resolução de disputas online, denominado ODR; (ii) princípio adversarial, no sentido de que sejam usadas informações sob o prisma quantitativo (por exemplo, o número de decisões processadas para obter a escala), quanto sob o prisma de informações qualitativas (origem de decisões, representatividade de amostras selecionadas, distribuição de decisões entre diferentes critérios, como o contexto econômico e social) acessíveis aos cidadãos e, principalmente, às partes em um julgamento, a fim de entender como as escalas foram construídas, para medir seus possíveis limites e poder debatê-los perante um juiz; (iii) paridade de armas, de forma que o os meios tecnológicos não causem desequilíbrio entre as partes litigantes; (iv) imparcialidade e independência dos juízes, no sentido de que os juízes não se sintam obrigados a tomar a decisão indicada pelos algoritmos e, finalmente, (v) direito de aconselhamento, mas enfatizando que a escala não leve, por exemplo, o advogado a desistir de procurar outras soluções para seu cliente53.Ao final, o documento não descarta o uso da inteligência artificial no Poder Judiciário e na resolução de conflitos, até mesmo on line, mas apenas níveis de uso, que: (i) devam ser impulsionados, (ii) usos com precauções metodológicas, (iii) usos a serem considerados após estudos científicos adicionais e, por fim, (iv) usos para serem considerados com as reservas mais extremas, esses últimos referentes ao uso na área de decisões criminais e para decisões fundadas em critérios meramente quantitativo, com uso dos megas ou do big data judiciário54.Mais recentemente ainda, em maio de 2020 foi publicado um paper por pesquisadores da Universidade de DarmStadt, um grupo multidisciplinar, envolvendo vários institutos da universidade: ciência da computação, psicologia, neurociência55.O trabalho apresenta o que eles denominam Máquina de Escolha Moral (The Moral Choice Machine) e demonstra que a IA foi capaz de incorporar preconceitos, mas também conhecimento sobre éticas deontológicas e até escolhas morais.A equipe treinou seu sistema com livros, notícias e textos religiosos, para que ele pudesse aprender as associações entre diferentes palavras e 53 Conselho da Europa, 2018, p. 38-39.54 Conselho da Europa, 2018, p. 50-52.55 Schramowski et alli, 2020.

