SÃO PAULO, SP (FOLHAPRESS) – O principal concorrente do ChatGPT, Claude, passa a estar disponível no Brasil a partir desta quinta-feira (1º). A inteligência artificial desenvolvida pela Anthropic se destaca por sua habilidade textual, menos restrita a estruturas textuais padrões, que às vezes engessam o chatbot da OpenAI.
A Anthropic iniciou sua expansão global em maio, depois de mais de um ano de experiência nos Estados Unidos. Especialistas consultados pela reportagem disseram que o Claude não tinha a mesma desenvoltura demonstrada em inglês em português.
Um último avanço técnico da empresa teria resolvido o problema, segundo o diretor de produto da empresa, o brasileiro Mike Krieger, mais conhecido por ser cofundador do Instagram. A plataforma está neste site.
O chatbot já funcionava em 175 países. Chegou em maio, por exemplo, a Portugal, onde os locais testaram a performance do modelo com o idioma nativo. O consultor português Rafael Estrela elogia o desempenho do chatbot como redator, com destaque para a menção de fontes confiáveis e as “explicações claras”.
A versão gratuita do Claude oferece acesso limitado ao modelo de inteligência artificial mais recente da Anthropic, o Claude 3.5 Sonnet que, segundo anúncio da própria empresa, superaria o GPT-4o, da OpenAI, em testes de linguagem e raciocínio, embora perca em alguns desafios de matemática. Os planos pagos custam a partir de R$ 110.
Krieger cita “a personalidade do Claude” como o principal diferencial em relação às IAs generativas da concorrência. “Para a Anthropic, não se trata só de ter a resposta correta, queremos dar uma experiência interativa e humana.”
A maior naturalidade da escrita do Claude é chancelada por um estudo independente de pesquisadores da Universidade de Columbia e da gigante da tecnologia Salesforce que comparou o desempenho de IAs com o de escritores. Os textos de humanos profissionais eram aprovados em 84,7% das simulações, os do ChatGPT, em 9%, e os do Claude, em 30%.
O professor da PUC-SP Diogo Cortiz, que pesquisa sobre modelos de IA generativa, diz que usa o Claude como auxiliar na escrita. “Não repete estrutura, não fica enfiando adjetivos e advérbios”, descreve.
A Anthropic divulgou em artigo de maio sobre o funcionamento de sua tecnologia, como conseguiu detectar padrões que tornavam a IA “bajuladora”, para, depois, suprimi-los.
Outro diferencial do Claude é a aba de criação de conteúdo “Artifacts”, na qual o usuário pode juntar imagens e textos de forma mais livre.
O recurso está disponível também na versão gratuita.
A IA da Anthropic já chega ao Brasil com aplicativos prontos para smartphones Android e iPhones.
“O Brasil pode nos dar uma boa amostra do uso de inteligência artificial na web e no celular”, diz Krieger, destacando o apego do brasileiro à navegação via smartphone. “Isso pode até mudar nosso planejamento de investimento em cada meio, a depender do sucesso da plataforma nas operações internacionais.”
O aplicativo tem integrações com câmera, para reconhecer imagens, e aceita comandos via voz e os responde também em áudio. “Devemos nos aprofundar nessa interatividade ainda mais nos próximos meses.”
A habilidade de “visão” do Claude funciona com textos manuscritos, esquemas mentais e fotografias.
Outro modo exclusivo do Claude é a plataforma de equipes, vendida por R$ 165 por integrante do time, que precisa ter mais de cinco pessoas. “A ideia é que os usuários consigam ter uma interação conjunta com o modelo de IA, para que os mais experientes possam ajudar quem ainda está começando.”
Os serviços do Claude também poderão ser contratados nas nuvens da Amazon e do Google.
A criadora do Claude surgiu de um racha de 2021 na criadora do ChatGPT, OpenAI, por discordâncias sobre práticas de segurança no desenvolvimento de modelos de IA. O chefe-executivo da Anthropic, Dario Amodei, defende com frequência em entrevistas a necessidade de definir salvaguardas na tecnologia como crucial para um avanço seguro.
Avaliadores independentes mencionam o Claude, como a plataforma de IA menos vulnerável a “jailbreaks” táticas para fazer as inteligências artificiais desrespeitarem os próprios limites éticos.
Essa segurança reforçada, porém, é criticada por parte da comunidade da tecnologia por limitar os usos do modelo de IA.
No Claude, seria mais difícil, por exemplo, hackear a IA para que ela se tornasse um namorado virtual ideal, como fizeram jovens chinesas com o ChatGPT.
Krieger diz à Folha de S.Paulo que os riscos agora ainda são moderados. “Investimos nisso agora para estarmos preparados para as superinteligências artificiais do futuro.”
PEDRO S. TEIXEIRA / Folhapress