BRASÍLIA, DF (FOLHAPRESS) – Um servidor público precisa produzir um documento reservado e decide usar o ChatGPT para agilizar os processos. Coloca os dados no sistema, dá instruções para a inteligência artificial escrever o texto e o edita antes de entregar ao chefe.
Esse uso da IA generativa pode expor informações públicas que deveriam ficar sob sigilo, e orientar sobre esse risco tem sido o novo desafio de Juliano Ferreira, diretor do Centro de Pesquisas e Desenvolvimento para a Segurança das Comunicações da Abin (Agência Brasileira de Inteligência).
“O esforço é no sentido de sensibilizar os gestores de que o uso do ChatGPT, de uma inteligência artificial, deve ser associado a essa avaliação dos riscos”, diz Juliano em entrevista à reportagem.
O diretor afirma que há um consenso entre os gestores sobre os riscos do uso das inteligências artificiais generativas no serviço público. “No que a gente tem que caminhar e é nossa vulnerabilidade maior é em relação ao usuário da solução (servidor público). A minha percepção é que isso ainda não está internalizado”, diz.
O governo federal já emitiu recomendações para que os servidores não utilizem backups em nuvens. Em outros casos, há sugestões de que funcionários só enviem documentos sigilosos em redes corporativas.
“É uma luta perdida essa de tentar evitar o uso de IA dentro das repartições. Nosso trabalho é dizer: Olha, faça sua avaliação de risco e defina quando utilizar uma solução desse tipo”, diz Juliano.
Diante da consolidação das IAs generativas, o centro comandado por Juliano na Abin começou a fazer pesquisas este ano para estudar a viabilidade de se criar uma inteligência artificial de Estado.
“Ainda precisamos entender o quanto [o desenvolvimento de uma IA de Estado] vai exigir de capacidade de investimento […] Precisa entender também que a luta não é no sentido de você produzir uma IA do nível do que é oferecido pelo mercado. Seria uma competição desleal”, afirma.
Os projetos, porém, ainda são muito recentes. “É algo difícil de você dimensionar a ordem de grandeza. Se é um investimento de R$ 50 milhões, de R$ 500 milhões, de R$ 1 bilhão”, diz.
A inteligência artificial generativa é uma tecnologia capaz de gerar conteúdos novos (textos, imagens, músicas) e que se atualiza e se aperfeiçoa toda vez que é usada. A base de dados desse tipo de IA é alimentada a cada nova geração de conteúdo e, por isso, o uso de informações sensíveis pode implicar em vazamento de dados.
A criação de uma IA de Estado seria uma forma de permitir os benefícios do uso de inteligências artificiais, como a velocidade na produção de documentos e no cruzamento de dados, sem os riscos de abastecer tecnologias comerciais com informações sensíveis de governos.
O Centro de Pesquisas e Desenvolvimento para a Segurança das Comunicações da Abin é a área responsável por assuntos cibernéticos. Seus servidores atuam na identificação de novas ameaças no ambiente digital e auxiliam órgãos de governo na prevenção de ataques online.
Um dos casos mais recentes em que o centro atuou foi no ataque cibernético ao Siafi, sistema de administração financeira do governo federal. Os invasores conseguiram desviar R$ 15 milhões cerca de R$ 11 milhões do TSE (Tribunal Superior Eleitoral) e R$ 4 milhões do MGI (Ministério de Gestão e Inovação em Serviços Públicos).
A Polícia Federal e o Banco Central conseguiram recuperar cerca de R$ 10 milhões do Tesouro Nacional, e três pessoas foram presas após quatro meses de investigação.
A investigação contou com o apoio da Abin. Ela identificou que os invasores furtaram credenciais de funcionários do governo na plataforma gov.br e usaram as senhas para alterar o número de contas que receberiam recursos dos órgãos públicos.
Juliano Ferreira reconhece que houve aumento de ataques cibernéticos bem-sucedidos contra sistemas governamentais nos últimos anos. “A capacidade do oponente vem evoluindo de uma maneira quase exponencial”, diz. O esforço tem sido desenvolver novos meios de prevenção contra ataques em cooperação com os demais órgãos de governo.
CÉZAR FEITOZA / Folhapress