Page 204 - Demo
P. 204
Rev. Trib. Reg. Trab. 3ª Reg., Belo Horizonte, v. 70, n. 110, p. 189-214, jul./dez. 2024204Outra diretriz essencial é a implementação de programas de capacitação digital para magistrados, servidores e demais profissionais do direito. A efetividade do uso da IA no Judiciário depende da preparação desses agentes para compreender as limitações e os potenciais das novas tecnologias. A formação deve abranger tanto aspectos técnicos, como o funcionamento dos algoritmos, quanto questões éticas, como os impactos das decisões automatizadas nos direitos das partes envolvidas.Com a finalidade de reforçar a segurança das informações sensíveis, as diretrizes regulatórias devem incentivar a adoção de estratégias robustas de proteção cibernética nos tribunais. Essas estratégias devem contemplar barreiras contra-ataques virtuais, normas para o tratamento seguro de dados processuais e protocolos bem definidos para a gestão de incidentes de segurança. É igualmente necessário garantir que os dados utilizados no treinamento e operação dos sistemas de IA sejam anonimizados, conforme previsto na Lei Geral de Proteção de Dados (LGPD) (Junqueira, 2023).A modernização do arcabouço normativo brasileiro para regulamentar a IA no Judiciário é urgente, sobretudo diante das lacunas deixadas pela LGPD e outras normas correlatas. Embora a LGPD ofereça uma base consistente para a proteção de dados pessoais, ela não trata diretamente de questões como transparência algorítmica, responsabilidade por decisões automatizadas e mecanismos de supervisão de sistemas de IA no setor público. Uma reforma legislativa poderia incluir disposições específicas para o uso dessas tecnologias no Judiciário, garantindo que sejam aplicadas de forma ética e responsável (Aguiar; Rosa; Hoch, 2024).Entre as propostas de atualização normativa, destaca-se a exigência de transparência para sistemas de IA empregados no Judiciário. À semelhança do Regulamento Geral sobre a Proteção de Dados (GDPR) da União Europeia, a legislação brasileira deve garantir que as partes envolvidas em processos judiciais sejam informadas sobre a utilização de IA em seus casos e tenham o direito de questionar decisões automatizadas. Nota-se a necessidade de que os algoritmos sejam auditáveis e que seus resultados possam ser revisados por profissionais humanos.Outro ponto relevante é a definição de responsabilidades jurídicas no caso de erros cometidos por sistemas de IA. Atualmente, não há clareza sobre quem deve ser responsabilizado por falhas ou decisões equivocadas geradas por algoritmos no Judiciário. A reforma legislativa deve estabelecer os deveres de desenvolvedores, tribunais e operadores do direito, assegurando que as partes prejudicadas tenham acesso a mecanismos eficazes para reparação de danos (Simões; Morais, 2024).

