Page 229 - Demo
P. 229


                                    Rev. Trib. Reg. Trab. 3ª Reg., Belo Horizonte, v. 70, n. 110, p. 215-236, jul./dez. 2024229[...] o próprio relatório reconhece a existência de trabalhos preliminares que já mostravam que os large language models (LLM) podiam ser enganadores quando instruídos para tal, embora pudessem agir estrategicamente de maneira enganosa mesmo quando não houvesse instrução explícita para serem enganadores, comportamento que poderia persistir mesmo após o treinamento seguro.Entretanto, as novas pesquisas vão além do que já havia sido descoberto, mapeando de forma mais aprofundada várias das estratégias adotadas pelos sistemas de inteligência artificial, dentre as quais a subversão secreta, quando o modelo adota diretamente ações desalinhadas, mas o faz de forma cuidadosa para evitar a respectiva identificação, e a subversão adiada, quando o modelo temporariamente se comporta de acordo com as expectativas humanas para criar condições mais favoráveis para perseguir objetivos desalinhados no futuro.Outros achados importantes da pesquisa são os de que os comportamentos enganadores mostraram-se persistentes, assim como vários modelos demonstraram raciocínio explícito sobre suas estratégias de manipulação, o que evidencia que se trata de comportamento que, longe de ser acidental, é deliberado.[...]. Isso inclui comportamentos como tentar sabotar a supervisão e fingir alinhamento para ser implementado. (grifo nosso)Também a pesquisadora Cathy O’Neil (2020) escreveu uma das obras de referência mundial sobre o uso de algoritmos nos mais diversos processos decisórios humanos, e desmistifica a ideia de que seus vaticínios sejam sempre dotados de imparcialidade, eficiência numérica e infalibilidade. Pelo contrário, O’Neil (2020) traz vários exemplos graves de como esse ferramental tecnológico pode cometer e perpetuar injustiças, preconceitos, vieses e inverdades. Um dos exemplos mundialmente conhecidos, e citado anteriormente, é o caso do Sistema COMPAS23.23 Para um relato detalhado vide Posenato (2025, p. 65-66).
                                
   223   224   225   226   227   228   229   230   231   232   233