Page 230 - Demo
P. 230


                                    Rev. Trib. Reg. Trab. 3ª Reg., Belo Horizonte, v. 70, n. 110, p. 215-236, jul./dez. 2024230Mas como tais dificuldades e problemas se revelam no cotidiano judicial? Vale (2025, p. 7) agrupou, concisamente, em quatro as implicações éticas no sistema judiciário:1. Transparência e atribuição: Dificuldade em distinguir conteúdo gerado por IA de conteúdo humano;2. Responsabilização complexa: Questões sobre como distribuir responsabilidade entre magistrados, desenvolvedores e instituições por erros em textos gerados automaticamente;3. Risco de delegação cognitiva: A sofisticação aparente pode induzir à transferência excessiva de responsabilidade decisória;4. Acesso desigual: A distribuição não uniforme destes sistemas pode intensificar disparidades existentes no acesso à justiça.Estudiosos dessa matéria concordam que a implementação de sistemas de IA devem ser norteados por princípios éticos claros, neles devendo constar o da transparência, da justiça, da responsabilidade e o do respeito pela dignidade humana (Tassigny; Rodrigues, 2025, p. 13).Sendo que o princípio da transparência desempenha aqui um papel fundamental nesse contexto, pois, por meio dele, se efetivamente cumprido, a confiança pública nos próprios sistemas de IA poderá ser preservada dando maior segurança de que os direitos fundamentais das pessoas serão respeitados (Tassigny; Rodrigues, 2025, p. 14), bem como, de que as decisões proferidas por um Judiciário cuja base se assentará em tais ferramentas tecnológicas serão também de fato respeitadas pelos cidadãos. Ao contrário, se essa confiança for quebrada as consequências danosas poderão ser ingentes.A Resolução CNJ n. 615/2025, em seu art. 3º, estabelece vários princípios que guiarão o desenvolvimento, a governança, a auditoria, o monitoramento e o uso responsável de soluções de IA pelos tribunais, dentre os quais estão o da justiça, da equidade, da inclusão e da nãodiscriminação abusiva ou ilícita; o da transparência, da eficiência, da explicabilidade, da contestabilidade, da auditabilidade e da confiabilidade das soluções que adotam técnicas de inteligência artificial; o da mitigação de riscos derivados do uso intencional ou não intencional de soluções que adotam técnicas de inteligência artificial; o da supervisão humana efetiva, periódica e adequada no ciclo de vida da inteligência artificial, 
                                
   224   225   226   227   228   229   230   231   232   233   234