Fakes e desinformação seguem sendo desafios após um ano de lançamento do ChatGPT

Ferramenta de busca que utiliza inteligência artificial foi lançada há um ano. Foto: Foto de Matheus Bertelli/Pexels.

Há um ano, a ferramenta de busca ChatGPT, que utiliza a Inteligência Artificial, era disponibilizada ao público através da Internet. O recurso é uma espécie de bate-papo-robô capaz de responder questões de química orgânica ou gerar um “programa de computador que joga flocos de neve digitais na tela de um laptop – tudo com uma habilidade que parece humana”, nas palavras do repórter de tecnologia do The New York Times, Cade Metz, que se encontrou Sam Altman, o “pai do ChatGPT”, em 2019.

A tecnologia, que não é isenta de riscos, foi desenvolvida pela empresa OpenAI, um laboratório de pesquisa sobre inteligência artificial criada em 2015 pelo programador Sam Altman, o empresário Elon Musk e outros empreendedores, em São Francisco, na Califórnia. O intuito era oferecer uma “Inteligência Artifical amigável”. A empresa é financiada pela Microsoft.

Segundo Metz, na matéria para o NYT, Altman comparou a OpenAI ao “esforço dos Estados Unidos para construir uma bomba atômica” – lançada pelos EUA no Japão em 1945 – “durante a Segunda Guerra Mundial”, sobre a ambição da empresa.

Mauricio Mansur, conselheiro empresarial e especialista em marketing e inovação, apontou, em entrevista ao Jornal Novabrasil nesta quinta-feira (30), que é possível “fazer uma comparação do ChatGPT com o Iphone”.

Segundo Mansur, a tecnologia já existia, mas foi disponibilizada de forma acessível, sendo possível relacionar com essa tecnologia através da escrita de texto. Em dois meses, a tecnologia atingiu a marca de 100 milhões de usuários.

Na era da desinformação, a ferramenta também tem seus riscos.

Qualquer tecnologia pode ser usada para bem e para mal. No caso da inteligência artificial, que é um modelo de linguagem que utiliza informações disponíveis na internet, temos coisas mais simples, como a informação treinada a partir de comportamentos racistas ou homofóbicos, até a utilização pelos seres humanos”, pontuou o especialista.

Atualmente, fotos de personalidades alteradas ou os falsos nudes circulam nas redes com velocidade inatingível. De acordo com Mauricio Mansur, a forma de se proteger dos conteúdos falsos é “pesquisar e buscar outras fontes”.

Também é possível utilizar ferramentas de busca ou até o ChatGP, a partir da versão 4, para fazer uma busca reversa e atestar se um conteúdo foi criado por inteligência artificial.

É mais ou menos a história do WhatsApp. ‘Onde você viu tal informação? Ah, é verdade porque eu vi pelo WhatsApp’. Pois vimos que não funciona bem assim”, afirmou Mansur.

A tecnologia também permite que hackers consigam quebrar senhas de forma mais ágil. Plataformas já recomendam que os usuários criem senhas com no mínimo 10 caracteres, com letras maiúsculas, minúsculas, símbolos e números.

https://www.youtube.com/watch?v=B0dMwt8wDak

COMPARTILHAR:

Participe do grupo e receba as principais notícias de Campinas e região na palma da sua mão.

Ao entrar você está ciente e de acordo com os termos de uso e privacidade do WhatsApp.

NOTICIAS RELACIONADAS