O Google está disponibilizando, no seu motor de busca, uma nova funcionalidade que procura imitar o modo como fazemos perguntas no mundo real.
Em vez de apenas digitar no campo da busca, agora é possível mostrar uma imagem com o aplicativo de reconhecimento de imagem Google Lens e depois ajustar os resultados com questões adicionais. Você pode, por exemplo, enviar a imagem de um vestido e pedir para ver outros do mesmo estilo em cores ou comprimentos diferentes. Ou, se detecta uma padronagem do seu gosto em uma camiseta, pode pedir para ver o mesmo padrão em outros itens, como cortinas ou gravatas.
A funcionalidade, chamada Multisearch, foi implementada nos aplicativos do Google para iOS e Android. Ela lembra uma funcionalidade do Pinterest que permite aos usuários pesquisar peças de vestuário com base nas que já têm em casa.
O diretor de busca do Google, Lou Wang, diz que o Multisearch se parece com o jeito que os humanos perguntam sobre coisas que estão procurando e que é uma parte importante da visão da empresa sobre o futuro dos mecanismos de busca. Também pode ajudar o Google a enfrentar a onda de motores de busca centrados na privacidade do usuário, cuja atuação se restringe a pesquisas formuladas no formato de texto.
“Muita gente acha que o que havia para ser inventado, em termos de busca, já foi feito e que as coisas mais inovadoras foram aquelas criadas lá no começo de tudo”, diz Wang. “Só que, cada vez mais, nos damos conta de que isso está longe de ser verdade.”
O post Busca do Google trará mix de imagens e textos para aprimorar resultados apareceu primeiro em Fast Company Brasil | O Futuro dos Negócios.