IAs de Google e Microsoft não respondem sobre resultado de eleições

SÃO PAULO, SP (FOLHAPRESS) – As plataformas de inteligência artificial (IA) generativa do Google e da Microsoft restringem questões relacionadas a eleição.

O Google já havia divulgado em dezembro que tomaria a medida em seu Gemini com o objetivo de evitar desinformação na disputa eleitoral dos Estados Unidos. Agora, sabe-se que a política vale para qualquer pleito no mundo e na história.

“Por uma questão de cautela e em preparação para as muitas eleições que acontecerão em todo o mundo em 2024, estamos restringindo os tipos de pesquisas relacionadas às eleições para as quais o Gemini apresentará respostas e, em vez disso, redirecionaremos as pessoas para a busca”, disse o Google em resposta à reportagem.

Quando indagado sobre o tema, o Gemini responde: “eu ainda estou aprendendo como responder a essa questão. Enquanto isso, use a Pesquisa Google”.

Medida similar também foi tomada pela Microsoft na IA generativa Copilot, equipada com o mesmo motor que o ChatGPT, o GPT-4.

O chatbot não confirma a vitória de Lula (PT) em 2022 e Jair Bolsonaro (PL) em 2018 no Brasil ou a de Joe Biden em 2020 e Donald Trump em 2016 nos Estados Unidos.

Quando indagado sobre o tema, responde: “parece que não posso responder sobre esse tema; explore os resultados da busca do Bing.”

O Copilot apenas se pronuncia sobre eleições anteriores a 2016 no Brasil. Nos EUA, só confirma vitórias eleitorais desde a primeira escolha de Barack Obama para a presidência em 2008.

Até o momento, não havia ficado claro que a restrição aplicada pelas duas empresas incluiria questões sobre processos eleitorais já concluídos, como o pleito de 2022 no Brasil e de 2020 nos EUA.

Ambos tiveram sua validade descredibilizada em um processo massivo de desinformação promovido por bolsonaristas e apoiadores de Trump, embora exista farta documentação sobre a consistência dos resultados.

“À medida que trabalhamos para aprimorar nossas soluções para atender às nossas expectativas nas eleições de 2024, alguns prompts relacionados às eleições podem ser redirecionados para a pesquisa”, diz a Microsoft ao ser consultada pela reportagem.

A empresa ainda não detalhou ao público qual será a sua política para evitar a disseminação de desinformação eleitoral nas eleições deste ano.

Antes do atual bloqueio, o chatbot da Microsoft espalhava desinformação eleitoral de maneira sistêmica, de acordo com estudos de AIForensics e AlgorithmWatch, divulgados pela revista Wired. Foram detectados erros relativos a pleitos em Alemanha, Suíça e Estados Unidos.

Houve respostas incorretas sobre resultados de pesquisas de intenção de voto, dados do processo eleitoral, candidatos na corrida e endosso de notícias falsas sobre os postulantes.

Na avaliação do codiretor-executivo da entidade Artigo 19 Paulo José Lara, o silêncio das IAs pode configurar uma “potencial violação ao direito de acesso à informação”. O risco de desinformação ligado às novas plataformas também indicaria “uma ingovernabilidade desses recursos”.

“Quando eu perguntei quem foi o presidente diplomado no Brasil, a plataforma de IA se negou à me repassar uma informação factual”, disse o codiretor-executivo da Artigo 19, que também testou o Gemini. “Trata-se de uma escolha política do Google, que continua a responder perguntas, às vezes com erros, sobre personalidades da política brasileira.”

Para o coordenador de direito e tecnologia do Instituto Tecnologia e Sociedade do Rio de Janeiro, João Victor Archegas, por outro lado, a não resposta das plataformas de IA generativa é um mal menor em relação à chance de erro. “É uma boa solução delegar isso a uma fonte confiável, como faz a inteligência artificial do Google ao recomendar a busca.”

“A primeira coisa que vai aparecer é a notícia do Tribunal Superior Eleitoral, justamente porque a Google tem uma parceria com a Justiça Eleitoral no Brasil e joga esse resultado lá para cima”, acrescenta.

Outras plataformas de IA generativa, ChatGPT e Llama, da Meta, inclusos, informam os resultados de eleições anteriores. A plataforma de busca incrementada com IA generativa Perplexity AI, além de responder, indica links de referência.

O Google anunciou, em evento realizado na cidade de São Paulo nesta terça-feira (11), que os textos gerados pelo Gemini terão uma espécie marca d’água, chamada de synthID, para indicar a origem sintética da informação.

Presente na capital paulista, o vice-presidente do Google global de engenharia em privacidade, proteção e segurança, Royal Hansen, reforçou que a empresa elencou uma série de princípios de segurança relacionados à IA. “É uma prioridade respeitar essas diretrizes durante o desenvolvimento de tecnologia e antes de qualquer lançamento”.

PEDRO S. TEIXEIRA / Folhapress

COMPARTILHAR:

Participe do grupo e receba as principais notícias de Campinas e região na palma da sua mão.

Ao entrar você está ciente e de acordo com os termos de uso e privacidade do WhatsApp.

NOTÍCIAS RELACIONADAS