Page 146 - Demo
P. 146


                                    Rev. Trib. Reg. Trab. 3ª Reg., Belo Horizonte, v. 70, n. 110, p. 139-150, jul./dez. 2024146Resolução CNJ nº 615/2025, os modelos de IA devem possuir mecanismos de explicabilidade, de modo que suas decisões e operações sejam compreensíveis e auditáveis pelos operadores judiciais, sempre que tecnicamente possível. A capacidade de avaliação dos algoritmos, dados e processos de concepção é crucial para a fiabilidade.5.4 Qualidade e segurança dos dadosConforme a Resolução CNJ nº 615/2025, os dados utilizados para treinar a IA devem ser representativos, observar as cautelas de segredo de justiça e proteção de dados pessoais (LGPD), e ser anonimizados quando sigilosos. As fontes de dados devem ser seguras, preferencialmente públicas ou governamentais, e passíveis de rastreamento e auditoria.5.5 Limites e vedações específicasA Resolução CNJ nº 615/2025 estabelece vedações a soluções de IA que acarretem risco excessivo à segurança da informação, aos direitos fundamentais ou à independência dos magistrados. Incluem-se aqui soluções que não possibilitam revisão humana, que geram dependência absoluta, que valorem traços de personalidade para prever crimes ou reiteração delitiva, que classifiquem pessoas com base em comportamento/situação social para avaliar méritos judiciais, e o reconhecimento de emoções por biometria. O uso de LLMs e sistemas de IA Gen privados é vedado para processar dados sigilosos sem anonimização ou para finalidades de risco excessivo ou alto risco. Em matéria penal, é desestimulada a IA para decisões preditivas (Resolução n. 332 do CNJ), e a Resolução n. 615 classifica como alto risco a valoração de fatos como crimes e a formulação de juízos conclusivos sobre aplicação da norma em ações criminais, além da valoração de traços de personalidade para prever crimes ou reiteração.Apesar dos avanços na regulamentação, os algoritmos treinados com dados históricos podem incorporar e amplificar preconceitos, levando a resultados tendenciosos, especialmente em domínios de alto risco como a justiça criminal, o que impacta direitos e liberdades fundamentais. Nesse sentido é a Resolução A/78/L de 2024, da ONU, inclusive. A neutralidade dos algoritmos é um mito, pois refletem os valores de seus criadores (Apêndice I, da Carta Europeia de Ética sobre o Uso da Inteligência Artificial em Sistemas Judiciais e seu Ambiente, 2018). Portanto, a intervenção humana é crucial para o treinamento da máquina e mitigação de vieses.
                                
   140   141   142   143   144   145   146   147   148   149   150