SÃO PAULO, SP (FOLHAPRESS) – Se a sabedoria popular ensina que a pressa é inimiga da perfeição, especialistas em tecnologia afirmam que, com ainda mais razão, o ditado se aplica à regulação da inteligência artificial, apesar de todo o frenesi provocado pelo ChatGPT.
Pelo menos foi o que disseram os debatedores de uma mesa dedicada ao tema na Futurecom, evento de tecnologia realizado de 3 a 5 de outubro em São Paulo.
“É urgente o debate, mas não tem urgência na conclusão dele”, afirma Dora Kaufman, professora da PUC-SP (Pontifícia Universidade Católica de São Paulo).
O projeto de lei 2338/23, em tramitação no Senado, trata justamente desse tema. A ideia é aprovar um marco regulatório capaz de minimizar os riscos oferecidos pela nova tecnologia e estabelecer um órgão responsável por implementar a regra e fiscalizar o setor.
“Não é à toa que ainda não existe um marco regulatório no mundo ocidental. Isso reflete as dificuldades de pensar um modelo jurídico”, diz Kaufman.
Para ela, pelo menos duas características dessa nova tecnologia desaconselham a aprovação célere de uma lei.
Primeiro, os avanços nessa área têm sido muito rápidos; uma legislação votada num dia pode estar desatualizada no dia seguinte. E isso literalmente: basta imaginar o que teria acontecido se o marco regulatório passasse pelo Congresso na véspera do lançamento do ChatGPT.
A outra questão é a ausência de uma teoria específica sobre inteligência artificial; a evolução da tecnologia se dá por tentativa e erro, na base dos testes empíricos. Com isso, torna-se muito difícil, ou mesmo impossível, antecipar os desdobramentos.
De acordo com a professora, a complexidade da IA desautoriza tentativas de dar conta de todos os aspectos jurídicos de uma só vez e com uma entidade centralizada para cuidar da fiscalização, com uma regra geral.
“A IA muda a lógica de funcionamento da economia, ela é transversal, com impactos setoriais. Não vejo como ter regulação geral”, diz Kaufman. Ela cita como exemplo o setor bancário: “Ninguém melhor que o Banco Central para fiscalizar produtos de IA nesse campo.”
Danilo Macedo, líder de relações governamentais e assuntos regulatórios da IBM, menciona outro caso: os riscos no uso de um veículo autônomo na cidade são bem maiores do que no campo.
“Se endurecer demais o controle sobre o agronegócio, por exemplo, podemos perder um diferencial competitivo”, afirma.
Macedo considera crucial que o debate seja ampliado com mais atores, sobretudo o governo, que, diz ele, talvez seja o maior utilizador de IA no país. Tudo com o objetivo de aprofundar e amadurecer a discussão.
“Teve certa histeria, com algumas pessoas defendendo até uma moratória de pesquisa. Eu acho que gente tem que investir mais em pesquisa. É importante olhar os riscos, mas a gente tem que investir para que o Brasil seja um produtor de soluções para a sociedade”, afirma.
Uma das soluções foi apresentada por Alexandre Freire, hoje conselheiro da Anatel. Ele lembrou como a implantação de sistemas de IA no Supremo Tribunal Federal levaram a um grande ganho de eficiência na análise de processos na corte.
Exemplos de sucesso como esse ajudam a reforçar o ponto dos especialistas, que apontaram o risco não da IA em si, mas de travar a inovação nesse setor e deixar o país para trás no cenário mundial. Abraão Albino, superintendente-executivo da Anatel, seguiu na mesma toada.
“A Anatel lida com regulação há muito tempo. Se a gente não sabe direito o que a gente vai regular, para quem, como estabelecer limites e como cobrar esses limites, eu posso garantir que a gente vai errar”, diz.
Ele argumenta que a IA precisa servir à sociedade, agregando ganhos de eficiência e competitividade.
“Não adianta escrever um conjunto de regras que vai atrasar o país. Não adianta criar mecanismos que sirvam de travas normativas e impeçam a evolução de algo que a gente quer que evolua”, completa.
Para ele, o medo não é bom conselheiro. Em vez de regular com base no receio de danos que a IA possa causar, é melhor buscar mais evidências.
Um caminho para isso foi lançado neste mês pela ANPD (Autoridade Nacional de Proteção de Dados) e apresentado por Nairane Rabelo, diretora da autarquia: um projeto piloto de sandbox regulatório.
O modelo, também utilizado pela China, por exemplo, cria um ambiente controlado para que o público possa testar tecnologias associadas à inteligência artificial.
UIRÁ MACHADO / Folhapress