Recentemente, no evento anual do Google chamado “Search ON”, foi apresentada uma nova maneira para se pesquisar na internet, a “Multisearch”.
Em uma tradução livre para português, seria algo como “Múltipla Forma de Pesquisa”. A ideia é que seja possível misturar as formas de entrada de dados, como texto escrito, voz ou imagens simultaneamente. Dessa forma, o Google poderá tentar compreender o que realmente o usuário deseja.
Você já passou por uma situação em que o Google não entende o objetivo da pesquisa?
Exemplo: você vê um vestido vermelho no seu armário, não lembra onde comprou ou se ganhou, porém gostaria de outro na cor verde. Como fazer essa busca apenas com palavras? Esse novo modelo de pesquisa será a solução. A expectativa da empresa é fazer o texto ou áudio interagir com a imagem pesquisada no Google, como se fosse uma conversa com outra pessoa. Será possível usar uma foto do seu vestido vermelho, adicionando as palavras “comprar” e “verde” na mesma busca. Neste caso, o Google procuraria o local onde comprar o vestido da cor verde. Até mesmo coisas mais complexas, como tirar uma foto da sua cafeteira com duas xícaras e escrever: “Mesa Para Café” para o Google procurar uma mesa que combine com a sua cafeteira e xícaras. Ou ainda, tirar a foto de uma flor que acabou de ganhar e mandar um áudio junto na busca perguntando: “Como cuido dessa planta?” Outra função que teremos integrada no “Multisearch” será a ferramenta “Perto de Mim”, onde será possível tirar foto do objeto e o Google tentará encontrar produtos similares que estejam perto do local da busca. A ferramenta poderá ser usada em um aplicativo para as versões Android e iOs. A princípio, as funcionalidades já estão disponíveis de forma Global em inglês, mas será liberado em breve para português e mais 70 idiomas. Vale a pena instalar e acompanhar as novidades do aplicativo que vai mudar a forma de pesquisar na Internet.
Texto escrito por Lilian Primo Albuquerque.