Há um ano, a ferramenta de busca ChatGPT, que utiliza a Inteligência Artificial, era disponibilizada ao público através da Internet. O recurso é uma espécie de bate-papo-robô capaz de responder questões de química orgânica ou gerar um “programa de computador que joga flocos de neve digitais na tela de um laptop – tudo com uma habilidade que parece humana”, nas palavras do repórter de tecnologia do The New York Times, Cade Metz, que se encontrou Sam Altman, o “pai do ChatGPT”, em 2019.
A tecnologia, que não é isenta de riscos, foi desenvolvida pela empresa OpenAI, um laboratório de pesquisa sobre inteligência artificial criada em 2015 pelo programador Sam Altman, o empresário Elon Musk e outros empreendedores, em São Francisco, na Califórnia. O intuito era oferecer uma “Inteligência Artifical amigável”. A empresa é financiada pela Microsoft.
Segundo Metz, na matéria para o NYT, Altman comparou a OpenAI ao “esforço dos Estados Unidos para construir uma bomba atômica” – lançada pelos EUA no Japão em 1945 – “durante a Segunda Guerra Mundial”, sobre a ambição da empresa.
Mauricio Mansur, conselheiro empresarial e especialista em marketing e inovação, apontou, em entrevista ao Jornal Novabrasil nesta quinta-feira (30), que é possível “fazer uma comparação do ChatGPT com o Iphone”.
Segundo Mansur, a tecnologia já existia, mas foi disponibilizada de forma acessível, sendo possível relacionar com essa tecnologia através da escrita de texto. Em dois meses, a tecnologia atingiu a marca de 100 milhões de usuários.
Na era da desinformação, a ferramenta também tem seus riscos.
“Qualquer tecnologia pode ser usada para bem e para mal. No caso da inteligência artificial, que é um modelo de linguagem que utiliza informações disponíveis na internet, temos coisas mais simples, como a informação treinada a partir de comportamentos racistas ou homofóbicos, até a utilização pelos seres humanos”, pontuou o especialista.
Atualmente, fotos de personalidades alteradas ou os falsos nudes circulam nas redes com velocidade inatingível. De acordo com Mauricio Mansur, a forma de se proteger dos conteúdos falsos é “pesquisar e buscar outras fontes”.
Também é possível utilizar ferramentas de busca ou até o ChatGP, a partir da versão 4, para fazer uma busca reversa e atestar se um conteúdo foi criado por inteligência artificial.
“É mais ou menos a história do WhatsApp. ‘Onde você viu tal informação? Ah, é verdade porque eu vi pelo WhatsApp’. Pois vimos que não funciona bem assim”, afirmou Mansur.
A tecnologia também permite que hackers consigam quebrar senhas de forma mais ágil. Plataformas já recomendam que os usuários criem senhas com no mínimo 10 caracteres, com letras maiúsculas, minúsculas, símbolos e números.
https://www.youtube.com/watch?v=B0dMwt8wDak