
Há algum tempo, o Google oferece muito mais do que os “dez links azuis” com os quais eles começaram, incluindo imagens, vídeos, mapas, compras e outros filtros.
Em seu recente evento Search On, a empresa delineou a próxima fronteira da pesquisa, que espera reunir esses formatos para fornecer respostas mais detalhadas.
O aprendizado de máquina terá um papel crucial
O Multitask Unified Model (MUM) do Google ajudará a adicionar contexto para fornecer resultados mais abrangentes. Alguns exemplos incluem:
- Oferecendo caixas de “Coisas a saber” sobre uma determinada pesquisa, apontando para diferentes subtópicos a serem explorados.
- Retornar subseções de vídeos relacionados a uma determinada pesquisa, mesmo que não sejao vídeo inteiro.
- Mostrando o estoque disponível em lojas locais para pesquisas relacionadas a compras.
Embora esse novo nível de granularidade possa tornar a Pesquisa Google ainda melhor, há um porém.
Para obter melhores resultados, os usuários precisam fornecer mais informações ao Google
Uma forma pela qual o Google espera que isso aconteça é por meio do uso crescente do Google Lens, seu software de reconhecimento de imagem que permite aos usuários pesquisar itens por meio de suas câmeras. Para fazer isso, o Google está tornando o Lens mais fácil de encontrar e usar ao:
- Criação da funcionalidade do Lens no Google app no iOS.
- Adicionar Lens ao navegador Chrome em desktops.
Ao coletar mais pesquisas em textos, imagens e vídeos, o Google acredita que será capaz de ajudar os usuários a encontrar exatamente o que precisam.
Mas existem desvantagens
Com expectativas mais altas, o Google estará sob mais pressão para entregar os resultados de pesquisa perfeitos.
Essa dinâmica – anteriormente referida como o problema da “resposta única e verdadeira” – abre a porta para críticas sobre preconceitos, o que é especialmente complicado no contexto da recente controvérsia em torno dos preconceitos de IA da empresa.
Verifique algumas das coisas legais que você pode fazer com o Google Lens.