SÃO PAULO, SP (FOLHAPRESS) – Usuários de fóruns de tecnologia e de redes sociais têm se queixado com frequência de buscas no Google que direcionam para sites com cara de spam, listas pouco úteis e alucinações de inteligência artificial.
Especialistas, no entanto, ainda não chegaram a um consenso sobre a suposta piora do serviço da big tech, que completa 25 anos nesta quarta-feira (27).
Um exemplo que viralizou no Twitter nesta semana foi a resposta do buscador à pergunta (em inglês e aqui traduzida) “dá para derreter um ovo?”.
Baseando-se em um site com boa reputação, o Google apresentou no topo dos resultados a seguinte resposta: “Sim, um ovo pode ser derretido. A maneira mais comum de derreter um ovo é usar um micro-ondas ou uma frigideira.”
O problema é que esse site apresentava uma alucinação do ChatGPT, que está sendo integrado a algumas de suas páginas. O motor de busca, então, entendeu que se tratava de uma resposta válida e apresentou o resultado equivocado a um usuário na verdade, um ovo não derrete em função de sua composição proteica.
Cansados de respostas automáticas, listas genéricas e anúncios em excesso, usuários também reclamam que faltam indicações de conteúdo produzidos por pessoas comuns opinando sobre, por exemplo, o melhor carro do ano, modelos de ar-condicionado, receitas etc. cenário diferente de quando os blogs pessoais dominavam a internet.
Essa insatisfação faz os usuários agora usarem atalhos para conseguir resultados “mais humanos” e, às vezes, mais precisos: restringir a busca a sites como o X, ex-Twitter, Reddit (rede social de fóruns) e Quora (similar ao Yahoo Respostas).
YouTube, propriedade do Google, Instagram e TikTok, cada vez mais usado pelos jovens para pesquisar determinados assuntos, também oferecem com frequência resultados mais autênticos.
Para contornar esse problema, o Google lançou nos Estados Unidos uma aba extra chamada Perspectives, que em vez de sites, exibe posts de redes sociais, fóruns e plataformas de perguntas e respostas. A função, contudo, ainda está restrita ao território americano.
O serviço de buscas do Google funciona a partir de um arranjo que fica mais complexo a cada dia. Do ranking de links, criado em 1995, para a atual mistura de anúncios, páginas, imagens, produtos à venda e inteligência artificial, muito mudou.
O sucesso do modelo, no entanto, deu origem a um mercado cujo objetivo é emplacar links o mais acima possível na lista de resultados. Segundo a consultoria SimilarWeb, o buscador detém 90% desse setor e, por isso, enfrenta um processo nos EUA por práticas anticoncorrenciais.
O teórico de tecnologia e escritor Cory Doctorow afirma em artigo que esse objetivo de atender aos critérios do Google empobrece os textos disponíveis na internet e cria um ciclo vicioso.
Doctorow cunhou o conceito de “enshittification” (algo como “bostificação” em português): comportamento recorrente das empresas de tecnologia de oferecer uma inovação que gera bem-estar social, para depois piorar os serviços com intuito de obter lucro, antes de, por fim, acabar em função da própria debilidade.
Por outro lado, o especialista em economia digital Shane Greenstein, da Harvard Business School, afirma, em email enviado à reportagem, que as evidências a que ele teve acesso mostram que as novas ferramentas de inteligência artificial melhoraram os resultados das buscas.
“Sou cético sobre uma suposta piora [nos resultados] sem ver evidências sólidas”, diz.
Em entrevista ao podcast Freakonomics em novembro do ano passado, a ex-diretora do Google e ex-CEO do Yahoo Marissa Mayer afirmou que o problema tem mais a ver com a internet de hoje do que com o motor de busca.
“Quando você vê a qualidade dos seus resultados de pesquisa cair, é natural culpar o Google e perguntar: Por que eles estão piores?. Mas, para mim, o pensamento mais interessante e sofisticado é dizer: Espera, mas o Google é só uma janela para a internet. A verdadeira questão é: por que a internet está piorando?”
Para Mayer, a internet está piorando porque há incentivos econômicos para desinformação, caça-cliques e fraudes.
“Na minha opinião, tem que ser mais uma reação do ecossistema, em vez de apenas uma simples correção de um ator”, afirmou. De novembro para cá, houve a popularização das IAs generativas e a proliferação de sites com conteúdos gerados com essa tecnologia.
Antes de apostar na IA generativa com o Bard, concorrente do ChatGPT, o Google direcionou esforços à tecnologia para interpretar os conteúdos disponíveis na internet.
As versões mais recentes de Bert e MUM algoritmos que ordenam links no buscador fazem uma avaliação semântica do conteúdo de uma página para estimar sua relevância para o leitor, segundo a empresa. O Google afirma que a melhor forma de aparecer no topo das buscas é produzir algo que atenda às necessidades do usuário.
Número de referências, palavras-chaves e ordem das palavras já não fazem tanto efeito nas buscas, afirmou o analista do Google Gary Illyes em evento realizado em Austin, no Texas.
Apesar do suposto maior benefício para os usuários, esse novo mecanismo torna o sistema menos compreensível. O depoimento do ex-engenheiro da empresa Eric Lehman ao julgamento antitruste do Google no último dia 21 mostra também que a tecnologia era pouco transparente.
Lehman quebrou o silêncio da empresa e confirmou ao tribunal que o número de cliques em uma página também serve como referência nos resultados das buscas.
Por outro lado, o engenheiro afirmou que o Google caminha para depender menos de dados dos usuários e mais de ferramentas de machine learning.
Essa aposta do Google visa superar o desafio de lidar com o número de endereços na web. O último relatório sobre resultados de busca do Google menciona centenas de bilhões de sites.
A popularização a IA generativa neste ano ainda impulsiona a criação de mais páginas. Dessas, 487, pelo menos, com conteúdo enganoso, segundo a consultoria NewsGuard.
GOOGLE TEM CARGO QUE RECEBE RECLAMAÇÕES SOBRE O BUSCADOR
No meio disso, ficam as reclamações. Quem as atende desde 2017 é o Google Liaison, espécie de representante dos usuários.
Esse trabalho fica a cargo do jornalista Danny Sullivan, que cobria o Google para o site especializado Search Engine Land. Em 2016, ele publicou uma reportagem na qual afirmou que o buscador vivia seu pior momento.
O texto parte deste exemplo de busca: “O holocausto realmente existiu?”. Na ocasião, o Google retornava em primeiro lugar um tópico de discussão em um fórum neonazista repleto de referências negacionistas ao massacre dos judeus.
A convite do Google, Sullivan deixou o posto para receber as queixas do público e fornecer problemas para a empresa buscar soluções.
Hoje, é o perfil sob responsabilidade dele que responde diretamente, no ex-Twitter, às reclamações sobre sites com conteúdo roubado e textos pouco confiáveis feitos por IA.
Uma das queixas recentes dizia respeito à posição de uma resposta automática gerada pelo Bard, exibida no topo dos resultados. A IA generativa do Google ainda está sujeita a alucinações, assim como o ChatGPT no caso do ovo derretido.
A resposta do Bard como resultado de uma busca, por enquanto, só funciona nos Estados Unidos, na Índia e no Japão. Post no blog do Google indica que a empresa pretende levar o recurso a outros países no futuro próximo, sem divulgação de data.
*
COMO MELHORAR SUA BUSCA NO GOOGLE:
1 – Digite palavras-chave precisas, que descrevam com clareza o que você procura. Em vez de buscar “minha cabeça dói”, busque “dor de cabeça”, porque essa é a expressão que um site com informações de saúde usaria;
2 – Utilize aspas (“) para encontrar resultados que correspondem exatamente à sequência de palavras inseridas;
3 – Use operadores de site para restringir a busca a uma página específica. Por exemplo, “site:wikipedia.org Albert Einstein” pesquisa informações apenas no site da Wikipedia sobre Albert Einstein;
4 – Explore as ferramentas de pesquisa avançada
Fonte: Google
COMO DETECTAR CONTEÚDO DE IA
Texto
Textos gerados por inteligência artificial costumam não conter erros ortográficos ou usos imprecisos de conectivos, como “contudo”, “todavia”, “entretanto”, “apesar de”, entre outros). No português, chatbots costumam carregar suas respostas de advérbios e adjetivos.
Textos gerados pelo ChatGPT costumam carecer de fonte, embora Bard e Bing, da Microsoft, costumem referenciar todas as suas respostas. Criadores de conteúdo têm considerado indicar trechos feitos por inteligência artificial uma boa prática.
É possível ainda recorrer a plataformas que identificam se passagens foram geradas por inteligência artificial, como GPTZero, DetectGPT e o classificador de textos da OpenAI.
Imagem
Conteúdos visuais gerados por IAs podem ter objetos de tamanho incoerente ou detalhes errados em pés e mãos. Checar se há uma coesão entre o tamanho e a orientação das sombras também pode ajudar.
Essas falhas em imagens geradas por IA, contudo, devem diminuir com o tempo, já que as próprias plataformas tentam corrigir erros, ao receberem retornos do público. Além disso, a curadoria humana sobre os materiais feitos por inteligência artificial pode filtrar incoerências.
Fonte: Especialistas consultados pela Folha
GUSTAVO SOARES E PEDRO S. TEIXEIRA / Folhapress