Page 199 - Demo
P. 199


                                    Rev. Trib. Reg. Trab. 3ª Reg., Belo Horizonte, v. 70, n. 110, p. 189-214, jul./dez. 2024199Um dos principais riscos associados ao uso inadequado de IA é o vazamento de informações sensíveis. Sistemas de IA, para operar de maneira eficiente, precisam processar grandes volumes de dados, frequentemente armazenados em servidores conectados à internet. Essa dependência de infraestrutura digital expõe os sistemas a ataques cibernéticos, como hackers e malwares, que podem acessar e vazar informações confidenciais contidas nos processos judiciais. Por exemplo, dados relacionados a litígios empresariais, conflitos familiares ou questões de saúde mental podem ser explorados para fins maliciosos, causando danos irreparáveis às partes envolvidas. Além disso, o vazamento de dados processuais pode comprometer investigações criminais em andamento ou expor testemunhas a riscos de retaliação (Silva; Souza; Souza, 2024).Outro problema recorrente é o acesso não autorizado a dados judiciais, que pode ocorrer devido à falta de medidas de segurança adequadas ou à ausência de controle rigoroso sobre quem tem permissão para acessar os sistemas de IA utilizados no Judiciário. Em muitos casos, a automação excessiva e a integração de sistemas sem medidas de proteção robustas podem facilitar o acesso por indivíduos não autorizados, como funcionários terceirizados ou até mesmo partes externas. Isso não apenas viola os direitos de privacidade das partes processuais, mas também pode comprometer a integridade do sistema judicial, criando oportunidades para manipulação de informações ou espionagem (Toledo; Pessoa, 2023).O tratamento inadequado de dados pessoais por sistemas de IA também representa um risco à privacidade no contexto judicial. Quando algoritmos são desenvolvidos sem levar em consideração princípios de privacidade e proteção de dados, como os definidos pela Lei Geral de Proteção de Dados (LGPD), as informações processadas podem ser utilizadas para finalidades não autorizadas ou incompatíveis com os interesses das partes. Por exemplo, sistemas de IA que utilizam dados processuais para análise preditiva podem acabar expondo padrões ou informações que deveriam permanecer confidenciais. Além disso, o uso de dados para treinar algoritmos de forma inadequada pode resultar em problemas de discriminação algorítmica, perpetuando preconceitos existentes ou criando novos vieses (Carvalho; Silva, 2021).A falta de regulamentação específica sobre o uso de IA no Judiciário amplifica esses riscos. Embora a LGPD forneça uma base legal para a proteção de dados pessoais, ela não aborda diretamente os desafios específicos do uso de IA em ambientes judiciais. Como resultado, há lacunas na forma como os dados processuais são protegidos, especialmente quando estão 
                                
   193   194   195   196   197   198   199   200   201   202   203