Apps & Software
Busca do Google responderá a fotos ou por proximidade; veja novidades
- Créditos/Foto:DepositPhotos
- 04/Outubro/2022
- Da Redação
O Google realizou na semana passada seu evento anual Search On. Nele, a companhia mostrou como está trazendo para seus produtos inovações em aprendizado de máquina e recursos para oferecer às pessoas novas formas de pesquisar e explorar informações além da caixa de pesquisa.
Quer ficar por dentro do mundo da tecnologia e ainda baixar gratuitamente nosso e-book Manual de Segurança na Internet? Clique aqui e assine a newsletter do 33Giga
“No Search On, mostramos hoje como os avanços na inteligência artificial estão nos permitindo transformar nossos produtos de informação mais uma vez”, disse Prabhakar Raghavan, vice-presidente sênior da Busca no blog da empresa. “Estamos indo muito além da caixa de pesquisa para criar experiências de pesquisa que funcionem mais como nossas mentes e que sejam tão multidimensionais quanto somos como pessoas.”
Lançamentos na Busca
Multisearch em novos idiomas, incluindo português do Brasil
O recurso de Lens permite explorar o mundo ao redor usando a câmera do celular ou uma imagem de tela. (Atualmente, as pessoas usam o Lens para responder a mais de oito bilhões de perguntas por mês).
O Google está trabalhando para deixar as pesquisas visuais cada vez mais naturais, graças à introdução do multisearch – um marco importante que traz possibilidades totalmente novas para pesquisar informações.
Com a nova modalidade de busca, é possível tirar uma fotografia ou usar uma imagem (ou um screenshot) e acrescentar texto a essa foto – da mesma forma com que se aponta para alguma coisa quando quer fazer uma pergunta sobre o que está vendo.
O Multisearch já está disponível globalmente em inglês, e ao longo dos próximos meses será lançado em mais de 70 idiomas, incluindo em português-Brasil.
Como funciona: No aplicativo do Google, você pode tirar uma foto ou usar uma captura de tela e adicionar texto à imagem, assim como você pode apontar a câmera para algo e fazer uma pergunta sobre isso, de forma intuitiva e natural.
Perto de mim
Outra funcionalidade de Multisearch anunciada no Search On foi o perto de mim. No aplicativo do Google, será possível tirar uma foto ou uma captura de tela e adicionar perto de mim para encontrar seu prato favorito ou um produto de fornecedores locais. O recurso estará disponível nos Estados Unidos ainda este ano.
Traduzindo imagens com o Lens
Uma das características mais potentes de compreender o mundo visualmente é romper as barreiras dos idiomas. O Lens já ultrapassou a etapa de traduzir textos – e hoje é capaz de traduzir imagens. Todos os meses as pessoas usam o Google para traduzir mais de um bilhão de textos que estão sobrepostos a imagens, em mais de 100 línguas diferentes.
Grandes avanços na tecnologia de aprendizado de máquina permitem misturar textos traduzidos a imagens complexas, com um resultado tão natural que parece quase imperceptível.
Por meio do Tradutor com o Lens, ao invés de cobrir o texto original, ele passa a ser apagado. Os pixels são recriados sobre um fundo gerado por inteligência artificial (IA), e o texto traduzido é sobreposto à imagem.
O Google informou no Search On que otimizou os modelos de aprendizado de máquina e agora faz todo esse processo em apenas 100 milissegundos – menos que um piscar de olhos. Essa experiência aprimorada será lançada globalmente até o final do ano.
O recurso neighborhood vibe (atmosfera da vizinhança, em tradução livre) permite escolher um bairro e conhecer seus pontos mais populares, como se a pessoa estivesse lá, por meio de fotos e informações úteis compartilhadas no próprio mapa por integrantes da comunidade Google Maps.
Para fazer isso, o Google combinou a inteligência artificial aos conhecimentos locais de usuários do Maps que contribuem diariamente com mais de vinte milhões de avaliações, fotos e vídeos. Essa experiência visual começará a ser lançada globalmente para Android e iOS nos próximos meses
Mais facilidade para perguntar
A plataforma está introduzindo novas experiências de pesquisa que refletem melhor como as pessoas exploram as informações naturalmente, começando por tornar mais fácil fazer perguntas.
No Search On, a empresa informou que, à medida que você começa a digitar na caixa de pesquisa, a Busca fornece opções de palavras-chave ou tópicos para ajudar a elaborar a pergunta. Se a pessoa estiver procurando um destino no México, a Busca o ajuda a especificar a pergunta – por exemplo, melhores cidades no México para famílias – para que a pessoa possa obter resultados os mais relevantes para ela. O lançamento do recurso será feito nos EUA, em inglês, nos próximos meses.
Jeitos mais visuais de explorar
Agora ficou mais fácil explorar um assunto destacando as informações mais relevantes e úteis – incluindo conteúdo de criadores da internet. Para temas como cidades, será possível vídeos curtos de pessoas que já estiveram naquele lugar, além de dicas sobre como conhecer o local, atividades, como chegar lá e outras informações que ajudam na etapa de planejamento da viagem.
Tudo isso será lançado em inglês, nos Estados Unidos, ao longo dos próximos meses.
Novidades no Google Maps
No Search On, o Google informou que aproveitou os recursos mais avançados de visão por computador e modelos preditivos para dar uma turbinada nos mapas 2D. Eles estão ainda mais visuais e imersivos, e permitem entrar nos lugares de forma multidimensional. Com isso, a gente se sente como se estivesse lá, mesmo não estando.
Panoramas aéreos de marcos importantes
Confira 250 panoramas aéreos foto-realistas de grandes marcos globais, como a Torre de Tóquio ou a Acrópole grega, sem sair do Google Maps. Essa novidade é um grande avanço rumo a mapas cada vez mais imersivos, e está sendo lançada hoje em todo o mundo.
Visão imersiva
A visão imersiva ajuda as pessoas a se planejar com antecedência e entender a fundo várias cidades. Ela combina belíssimos panoramas aéreos a informações sobre tempo e temperatura, trânsito e lotação de pessoas em diferentes horários e dias da semana.
O novo recurso, anunciado no Search On, será lançado ao longo dos próximos meses em Los Angeles, Londres, Nova York, São Francisco e Tóquio.
Busca em Live View
O recurso Busca em Live View permite fazer pesquisas de um jeito totalmente inédito. Basta apontar a câmera do celular para encontrar lugares essenciais como lojas, caixas eletrônicos e restaurantes. Tudo isso enquanto você está em movimento.
A novidade será lançada ao longo dos próximos meses em Londres, Nova York, Paris, São Francisco e Tóquio.
Tendências em Shopping
No Search On, o Google anunciou novos produtos e ferramentas que vão facilitar ainda mais a vida de quem quer comprar o que precisa e descobrir produtos. Entre elas estão novos recursos visuais na Busca – que ajudam a inspirar o usuário –, além de ferramentas para tomar a melhor decisão no caso de compras complexas e atualizações que garantem uma experiência sob medida.