A difusão da inovação alcançou novo patamar com a inteligência artificial (IA) generativa da espécie large language models (LLMs). As estatísticas impressionam. Poucos meses após o lançamento, o ChatGPT alcançou a média mensal de 1,5 bilhões de visitantes únicos, com um tempo médio despendido de 7min36s por visita [1].
Como em Kasparov v. Deep Blue (1997), renovaram-se as fronteiras de onde o poder computacional supera, sob a perspectiva temporal, quantitativa e qualitativa, a capacidade cognitiva do cérebro humano. Renovaram-se também as esperanças de desenvolvimento humano e civilizatório, as esperanças de abundância, de justiça e de prosperidade.
Com maturidade tecnológica em nível operacional, os LLMs estão difundidos e já revolucionam atividades soberanamente humanas, como a criação, a síntese, a avaliação e a revisão de conteúdos técnicos.
No entanto, como remédio milagroso que cura, mas também arrisca ao dano, os benefícios dos LLMs são, sim, manifestos, superiores; os seus malefícios, contudo, emergem com o risco de uso inadequado, a exigir protocolo e cautela.
Kate Crowford e Jason Schultz [2] relatam um episódio em que sistemas de IA foram utilizados no estado do Arkansas para determinar a quantidade de horas de assistência social concedidas a pessoas aposentadas por invalidez. Como resultado da automação, as horas concedidas foram reduzidas quando comparadas às decisões humanas.
Seria este um caso de correção algorítmica de práticas equivocadas ou de cerceamento robótico e indevido de direitos sociais? A depender da resposta, o uso da IA tornou a administração pública mais – ou menos – eficiente, acurada e justa.
Noutro relato, a administração pública do estado do Texas delegou exclusivamente à IA a avaliação da performance de professores de escolas públicas. Contudo, o judiciário decidiu que a opacidade algorítmica era incapaz de assegurar a transparência necessária para que os professores exercessem direito de defesa contra o resultado avaliativo [3].
O uso de IA generativa pela administração pública não é questão de se ou quando, mas de como irá acontecer. Na prática, inclusive, a tecnologia já é aplicada. O TCU, por exemplo, lista dezoito soluções que apoiam a sua atuação controladora, inclusive na modalidade de IA generativa, em auxílio, por exemplo, à elaboração de instruções e relatórios [6].
Diferentemente de outras tecnologias incorporadas pela administração pública neste século, como a eletronização dos seus processos, os LLMs interagem com etapas essencialmente humanas, afetando a própria formação da vontade decisória.
A regra geral de inexistência de regulação ex ante sobre o desenvolvimento e uso de inovações tecnológicas pelos particulares é sinal de saúde em uma sociedade livre. Para a administração pública, no entanto, é o justo oposto. O histórico de abusos no exercício da coerção estatal, aliado à finalidade garantista do próprio Estado de Direito, exige que o uso dessa tecnologia pela administração pública seja resultado de uma decisão democrática e não ofensiva a garantias fundamentais.
O uso estatal de IA precisa ser regulamentado. Senão em lei, por autoridade administrativa, para que não haja uma incorporação irrefletida ou informal, desacompanhada das salvaguardas necessárias contra eventuais abusos e maus usos. No mínimo, devem ser definidos os procedimentos, as obrigações, os direitos e as responsabilidades dos atores no processo administrativo em que houver aplicação de IA generativa.
Como uma espécie de regulação para o uso estatal da IA generativa, é relevante que haja um protocolo procedimental que assegure as garantias de ampla defesa e contraditório dos particulares, assim como o dever público de motivação explícita, clara e congruente dos atos administrativos, que hoje devem ser praticados por autoridades cuja competência é irrenunciável (artigos 11 e 50, §1º, da Lei Federal nº 9.784/1999).
A IA generativa é comprovadamente útil para uso assistencial e carrega imenso potencial para uso deliberativo.
No Brasil, um limitador jurídico contemporâneo à adoção plena de sistemas automatizados de decisão administrativa encontra-se na sobredita irrenunciabilidade de competências administrativas e na inviabilidade de sua delegação para um algoritmo – o que é diferente do que ocorre na Suécia, p.e., em que há expressa autorização legal [7]. Aqui, sempre deve haver uma autoridade pública responsável pela decisão de mérito, sendo discussão distinta se esta pode, ou não, apenas homologar uma minuta robotizada da decisão.
A prática da decisão automatizada já é adotada no mercado (nos setores de seguros e de crédito financeiro, p.e.) e a própria legislação brasileira reconhece o fenômeno. Sem diferenciar a eventual aplicação estatal, a Lei Geral de Proteção de Dados (LGPD) prevê, no artigo 20, §1º, que “O controlador deverá fornecer, sempre que solicitadas, informações claras e adequadas a respeito dos critérios e dos procedimentos utilizados para a decisão automatizada, observados os segredos comercial e industrial”.
Esses requisitos podem ser comprovados a partir de sistemas de decisões automatizadas baseados em LLMs que se valem de aprendizado de máquina (machine learning)? Na prática, o Estado poderia decidir com base, exclusivamente, em tecnologias como o ChatGPT ou o Gemini?
O professor finlandês Markku Suksi entende que ainda não [9].
Ao refletir sobre o devido processo administrativo, o autor defende que, considerados os atuais desafios tecnológicos em termos de transparência e de capacidade de explicação, deveria haver o banimento do uso de sistemas de decisões automatizadas baseados em aprendizado de máquina.
No Conselho da Europa, de modo semelhante, estudiosos afirmam que o uso estatal de sistemas de decisão automatizada acaba por mitigar a possibilidade de o particular afetado participar, contestar ou desafiar o resultado e a fundamentação da decisão, ou mesmo a qualidade e a integridade dos dados utilizados como base para a decisão. Esses sistemas frequentemente não são capazes de fornecer explicações razoáveis dos processos de decisão, em termos inteligíveis para os indivíduos afetados ou até mesmo para os desenvolvedores dos algoritmos, especialmente nos casos que envolvem redes neurais. A situação é agravada pela já relatada opacidade desses sistemas, o que pode interferir no devido processo legal [10].
Logo, se o percurso decisório do sistema automatizado de decisão for auditável e compreensível, a conclusão pode ser distinta.
E ouso afirmar que este é um futuro tecnológico e jurídico provável.
Como conciliar os códigos de programação com os códigos de direito?
Entendo que a administração pública brasileira pode, desde já, mediante prévia regulamentação aplicada a si própria, ainda que circunscrita ao próprio órgão e independentemente de lei, valer-se de LLMs para apoio ao trabalho intelectual inerente aos processos administrativos. Tal como o uso permitido, referenciado e até natural de informações técnicas disponíveis em obras ou na internet, a diretriz é que os agentes públicos sejam críticos e transparentes ao usarem os LLMs, e que continuem a assumir, individualmente, a integral responsabilidade pelos resultados incorporados em suas opiniões e decisões. Sob o ponto de vista prático, não há como proibir uma consulta a um LLM, assim como não há como proibir uma consulta a um livro ou ao Google. Trata-se de um uso meramente assistencial.
Espero, contudo, que isto aconteça num futuro próximo.
Aliás, protótipos de sistemas geradores de propostas de decisão administrativa já podem e deveriam ser testados pela administração pública, desde que de forma transparente e adequadamente monitorados. Esses sistemas que geram propostas de decisão administrativa poderiam ser testados com tratamento jurídico equivalente ao que ocorreria para os sistemas de decisões automatizadas plenas, em espécie de sandbox regulatório para a prática. A cautela seria a obrigatória supervisão da autoridade competente para realizar a revisão ou a homologação da decisão robótica.
Por exemplo, a IA generativa deve superar as comuns arbitrariedades humanas na correção e avaliação de provas em concursos públicos e em propostas técnicas de licitações. Seriam até, muito provavelmente, mais acuradas nas polêmicas – e de duvidosa constitucionalidade – avaliações de fenótipo em comissões de heteroidentificação.
Ora, vamos testar essa hipótese. Que o ceticismo ceda ao teste da ciência, da tecnologia e da inovação.
Particularmente, acredito que decisões técnicas administrativas automatizadas ou semi-automatizadas podem ser mais coerentes, acuradas, transparentes, justas, motivadas e legítimas; creio e espero que o futuro nos reserve esta evolução, em deferência a princípios administrativos festejados na teoria, e tão violentados na prática, como a impessoalidade, a isonomia e a moralidade.
No entanto, para serem impostos à população, a construção e a arquitetura dos sistemas automatizados de decisão administrativa precisam ser auditáveis e supervisionados – falta pouco, mas ainda não é o que ocorre com os LLMs comercialmente disponíveis.
Códigos e códigos. Afinal, como conciliá-los?
Pululam, mundo afora, propostas e modelos de regulação geral dos sistemas de IA, a exemplo do recém-aprovado Artificial Intelligence Act, na União Europeia. Na China, desde agosto de 2023, vigoram as inéditas Medidas Provisórias para Gestão de Serviços de Inteligência Artificial Generativa [11].
Este artigo, no entanto, dedica-se ao uso da IA generativa pela administração pública e, por isso, não tem o propósito de tratar de sua regulação ao público em geral.
Neste contexto mais estrito, há um precedente jurisprudencial estrangeiro relevante.
Para a corte francesa, o uso exclusivo de um algoritmo para decisões administrativas individuais está sujeito ao cumprimento de cinco condições: (1) a obrigação de mencionar explicitamente o uso de um algoritmo na decisão administrativa e, se houver solicitação da pessoa afetada, o fornecimento de informações sobre as características de sua implementação – sendo que, se não houver a possibilidade de fornecimento dessas informações, a decisão não poderá ser tomada com base exclusiva neste algoritmo; (2) a possibilidade de recurso administrativo, sendo que a autoridade superior não poderá se basear exclusivamente no algoritmo; (3) a possibilidade de revisão jurisdicional da decisão em caso de disputa; (4) a impossibilidade de uso exclusivo do algoritmo para decidir questões envolvendo dados sensíveis (origem racial ou étnica, opiniões políticas, crenças religiosas ou filosóficas ou filiação sindical de uma pessoa natural, dados genéticos, dados biométricos, dados de saúde, ou dados relacionados à vida sexual ou orientação sexual de uma pessoa natural); e (5) o responsável pelo processamento dos dados deve garantir que o algoritmo seja passível de explicação detalhada e em formato inteligível à pessoa afetada.
[1] Estatísticas entre julho e setembro de 2023, disponíveis em https://www.similarweb.com/website/chat.openai.com/#traffic. Acesso em 11 out 2023.
[2] CRAWFORD, Kate; SCHULTZ, Jason. AI systems as State actors. Columbia Law Review, v. 119, Columbia, 2019.
[4] ALKAISSI H et. al. Artificial Hallucinations in ChatGPT: Implications in Scientific Writing. Cureus. 2023 Feb 19;15(2):e35179.
[5] DELL’ACQUA, Fabrizio et al. Navigating the Jagged Technological Frontier: Field Experimental Evidence of the Effects of AI on Knowledge Worker Productivity and Quality. Harvard Business School Working Paper, No. 24-013, September 2023, p. 4.
[6] Disponível em: https://portal.tcu.gov.br/imprensa/noticias/uso-de-inteligencia-artificial-aprimora-processos-internos-no-tcu.htm
[7] Cf. Seção 28 da lei sueca sobre procedimento administrativo. Disponível em: https://www.government.se/contentassets/3c56d854a4034fae9160e12738429fb8/the-administrative-procedure-act-2017900/
[8] SCHIEFLER, Eduardo André Carvalho; PEIXOTO, Fabiano Hartmann; DEZAN, Matheus Lopes. A decisão administrativa robótica e o dever de motivação. São Paulo: Portal Jota, 2020. Disponível em: https://www.jota.info/coberturas-especiais/inova-e-acao/a-decisao-administrativa-robotica-e-o-dever-de-motivacao-01092020 Acesso em 13 out. 2023.
[10] YEUNG, Karen. A study of the implications of advanced digital technologies (including AI systems) for the concept of responsibility within a human rights framework. Prepared by the Expert Committee on human rights dimensions of automated data processing and different forms of artificial intelligence (MSI-AUT). Council of Europe study DGI(2019)05.
[11] Medidas Provisórias para Gestão de Serviços de Inteligência Artificial Generativa, de 10 de julho de 2023, pelo Escritório da Administração do Ciberespaço da China. Disponível em: https://www.gov.cn/gongbao/2023/issue_10666/202308/content_6900864.html acesso em 8 fev. 2024.
Por Consultor Juridico