Ideia de que IA ameaça humanidade nos distrai de seus problemas reais, diz filósofo

SÃO PAULO, SP (FOLHAPRESS) – “Ética na Inteligência Artificial” começa com o que parece ser um ardil. Seu prefácio foi escrito pelo ChatGPT, “com um prompt de comando proposto e revisto pelo autor” —não é exatamente o que se espera de um livro que busca discutir a interação entre tecnologia e moralidade.

“É uma provocação”, diz o autor em questão, o filósofo belga Mark Coeckelbergh, em entrevista à Folha. “Usamos o GPT tão facilmente hoje. Qual será o efeito disso? O que ele está fazendo é realmente escrever? Se sim, como isso difere da escrita humana? Quanto queremos dar a ele esse papel?”

A referência ao programa é também um jeito de o pesquisador, um dos membros do grupo de especialistas que ajudou a criar o marco regulatório de inteligência artificial (IA) aprovado pelo Parlamento Europeu na semana retrasada, mostrar que não está alheio à popularidade do bot.

A obra, escrita em 2020 e lançada agora no Brasil pela Ubu, se propõe a traçar uma espécie de introdução às principais questões éticas suscitadas pelo avanço da inteligência artificial.

Entre os assuntos que ela aborda estão, por exemplo, o “status moral” de máquinas e como isso impacta as leis que criamos para regulá-las; vieses algorítmicos e relações de poder no mercado de tecnologia; e como conceitos como transumanismo, isto é, a ideia de que o ser humano pode ser aprimorado por meio da ciência, se encaixam nesse debate.

Se o livro evita fazer julgamentos, servindo mais como um panorama das diversas perspectivas em jogo na área, em um ponto Coeckelbergh é taxativo. A ideia de que as máquinas estão perto de tomar o controle não só é ilusória quando pensamos na tecnologia disponível hoje como perigosa. “Isso nos distrai dos problemas reais”, diz ele.

*

*Folha – O livro foi publicado originalmente em 2020, quando o ChatGPT, por exemplo, ainda não tinha sido lançado. No texto, o senhor afirma que a legislação relacionada a IA é insuficiente. Como avalia a situação hoje?*

*Mark Coeckelbergh -* Quando comecei a escrever o livro, não havia nenhum tipo de regulamentação nesse campo; nos últimos anos, houve um processo de transformação de princípios éticos em diretrizes práticas. Então diria que hoje há muito mais ênfase no aspecto legal e político da IA, e que cada vez mais pessoas estão tomando consciência sobre o tema.

Também acho que a legislação europeia é bastante avançada em comparação com planos de regulamentação de outros lugares do mundo. Isso não significa que ela seja perfeita. Além disso, embora o projeto tenha sido aprovado, ele ainda não foi implementado, o que ainda vai demorar.

Não sou advogado, mas vejo a lei como uma espécie de tecnologia, capaz de modificar comportamentos. E ainda quero ver que tipo de transformações essas diretrizes vão promover, se empresas e governos de fato mudarão a forma como trabalham.

É um problema muito diferente de questionar que tipo de valores queremos perpetuar — acho que hoje estamos em um outro estágio. Mesmo assim, considero importante continuar a fazer essas perguntas [sobre ética].

*Folha – E como vê a questão da regulamentação nos Estados Unidos, em especial depois da carta em que várias big techs do Vale do Silício pediam uma pausa no desenvolvimento da IA?*

*Mark Coeckelbergh -* Os Estados Unidos são um bom exemplo sobre como culturas políticas diferentes podem impactar a discussão sobre o tema. Lá, a abordagem é mais liberal: empresas privadas lidam com a questão caso a caso, a palavra-chave é autorregulação.

[Joe] Biden até publicou um decreto sobre IA, mas ele pode ser revertido, por exemplo se [Donald] Trump for eleito novamente. De todo modo, é uma regulamentação bem mais limitada do que da Europa, o que reflete, é claro, as ideias que as pessoas têm sobre o papel do Estado. Nesse sentido, seria interessante saber o que está acontecendo no Brasil.

*Folha – Por falar em Brasil, estamos falando de uma sociedade que é grande usuária de redes sociais, mas na qual cerca de 1 em cada 10 pessoas é analfabeta funcional. Como a IA pode interferir nesse contexto?*

*Mark Coeckelbergh -* Sabemos que a IA molda o ecossistema de conhecimento de uma forma que amplia a desinformação e as possibilidades de manipulação. Se temos pessoas que não só não são educadas para lidar com a IA como ainda por cima não sabem interpretar textos, elas podem ser presas fáceis, fornecendo seus dados sem saber que o estão fazendo ou sendo manipuladas, recebendo informações falsas.

Portanto, precisamos das habilidades básicas [de leitura e interpretação de texto] e também de uma alfabetização extra em IA. E é verdade que, quando falamos sobre educação e IA, muitas vezes não percebemos que existe também uma etapa anterior que pode estar faltando. Na ética da IA, a educação é absolutamente fundamental.

*Folha – Um termo que vem circulando para descrever o que estamos vivendo hoje é o “tecnofeudalismo”, em que os “senhores feudais” seriam as big techs, e todos os demais, os servos, que pagam “aluguéis da nuvem” pelo direito de acessar o que essas organizações possuem. O sr. concorda com a expressão? E como vê a situação das grandes empresas de tecnologia, que monopolizam cada vez mais o mercado?*

*Mark Coeckelbergh -* Sem dúvidas, a situação é de uma diferença gigantesca de poder entre as big techs e os cidadãos comuns, que praticamente não têm influência em relação ao que essas empresas fazem. Precisamos clicar em “aceitar os termos de uso”. Mas isso não consiste exatamente em um acordo com os usuários, não acha?

Quanto ao conceito de tecnofeudalismo, sou cético em relação a ele porque acho que ainda vivemos em uma forma de capitalismo. Ele está mudando, mas ainda é um capitalismo. Ao mesmo tempo, o termo pode servir para chamar a atenção para essas enormes diferenças de poder e para o fato de que é preciso fazer algo em relação a elas.

Um exemplo: imagine um governo mais à esquerda que quer fazer algo acerca dessas diferenças de poder e consegue criar um sistema de justiça social no seu país. O problema é que, com essas empresas, essas diferenças de poder se manifestam em uma escala global. Surge então um desafio: é muito difícil fazer algo no seu país se tecnologias que são desenvolvidas em outro lugar têm tanta influência.

Existe, portanto, um problema relacionado a soberania e ao poder da política democrática na era digital.

*Folha – Um dos principais argumentos do livro é que focar demais os perigos de uma IA ‘”superinteligente” nos distrair dos perigos das demais IAs. Explicaria essa ideia?*

*Mark Coeckelbergh -* Alguns, não só CEOs de big techs como filósofos, têm alertado sobre os riscos existenciais [da IA]. No livro, argumento que isso nos distrai dos problemas reais porque é uma projeção sobre um futuro distante, e sou muito cético quanto à nossa capacidade de prever esse futuro distante.

O que é útil saber são as limitações de tecnologias como o ChatGPT, de modo que os usuários consigam entender que ele não é uma “máquina da verdade”. Na minha opinião, se as big techs optam por abrir essas tecnologias para uso geral, elas também deveriam apontar suas limitações. E essas empresas até falam dos problemas da IA —mas do que aconteceria se ela dominasse o mundo. Para mim, essa não é a principal questão.

Isso dito, também é verdade que estamos vendo com cada vez mais frequência IAs sendo usada para fins militares, e há um risco nisso. Mas não é o ChatGPT que está fazendo isso.

*Folha – O livro enumera uma série de questões éticas relacionadas ao desenvolvimento da IA. Ao mesmo tempo, é bastante neutro, no sentido de que basicamente traça um panorama desses problemas. Desses desafios que o sr. cita, qual é o mais importante, na sua opinião?*

*Mark Coeckelbergh -* Como filósofo, meu objetivo era, basicamente, explicar por que tínhamos de pôr os humanos no controle dessa tecnologia. Um dos motivos é a questão da responsabilidade, da prestação de contas: temos que conseguir responder a quem é afetado pela IA.

*Folha – O livro menciona a ideia de que as próprias IAs deveriam ter direitos, um argumento que o sr. caracteriza de transumanista. Qual é sua opinião pessoal sobre ela?*

*Mark Coeckelbergh -* É um argumento transumanista no sentido de que, se todas essas máquinas inteligentes têm as mesmas habilidades que os humanos, também precisamos conceder direitos a elas. Eu questiono essa perspectiva. Por outro lado, sempre acho interessante pensar no status moral de “não humanos”. Porque isso nos faz refletir sobre como o atribuímos.

Em geral, buscamos certas características. Por exemplo, queremos ver se aquele ser é senciente [capaz de ter sensações e impressões] ou consciente. Houve um engenheiro que disse acreditar que o modelo de linguagem com que trabalhava era senciente [o ex-funcionário do Google Blake Lemoine].

Problematizo isso, porque nem sempre é fácil saber se esse é o caso. Não sei nem mesmo se você [a repórter] é senciente, porque só tenho a sua imagem na tela.

*RAIO-X | MARK COECKELBERGH, 48*

Professor de filosofia na Universidade de Viena, na Áustria, é membro do Grupo de Especialistas de Alto Nível da Comissão Europeia sobre Inteligência Artificial. Publicou mais de 15 livros no campo da filosofia da tecnologia.

ÉTICA NA INTELIGÊNCIA ARTIFICIAL

Preço: R$ 69,90 (192 págs.); R$ 44,90 (ebook)

Autoria: Mark CoeckelberghEditora Ubu

Tradução: Clarisse de Souza, Edgar Lyra, Matheus Ferreira e Waldyr Delgado

CLARA BALBI / Folhapress

COMPARTILHAR:

Participe do grupo e receba as principais notícias de Campinas e região na palma da sua mão.

Ao entrar você está ciente e de acordo com os termos de uso e privacidade do WhatsApp.

NOTÍCIAS RELACIONADAS