Saiba tudo sobre Google
Ver mais
A Google começou a liberar na quinta-feira (25) uma nova ferramenta de interação entre o mecanismo de imagens de seu buscador e o Google Lens. Com a novidade, quando você buscar algo no Google Imagens, vai observar alguns pontos brancos que podem revelar mais informações sobre o que está sendo mostrado na telal.
Por exemplo, caso o usuário esteja vendo uma foto com a Torre Eiffel ao fundo, vai poder tocar no ponto, localizado em cima do marco histórico, e receber informações ou até fotos semelhantes sobre o tema.
“Assim como no Lens, no Google Assistente e Google Fotos, o Lens para o Google Imagens vai identificar coisas na imagem sobre as quais você talvez gostaria de saber mais e mostrar outras parecidas. Quando você apertar o botão do Lens no Google Imagens, alguns pontos vão aparecer em objetos e você pode saber mais sobre eles”, explica Assaf Broitman, gerente de produtos responsável pelo Google Images.
Dessa forma, estas informações não vão aparecer por padrão para evitar alto consumo de dados em buscas mais simples. A ideia é que o usuários aperte o botão do Lens integrado ao mecanismo de busca para, então, ele passar a mostrar estas informações.
Quando usuário aciona botão, imagem é analisada (Foto: Divulgação/Google)
Outra vantagem é que, caso o usuário esteja vendo uma foto de, por exemplo, pessoas andando na rua, e gostar muito de uma peça de vestuário de alguém que aparece na imagem, ele pode usar o Lens para fazer uma busca pelo item e encontrar um igual (ou similar) para comprar.
Segundo post oficial da Google, até o momento a ferramenta só está disponível para usuários dos Estados Unidos e com buscas em inglês. “Nós vamos soltar em breve em outros países, línguas e outros locais em que você pode usar o Google Imagens”, finaliza.
Fonte: Google Blog
Gostou dessa matéria?
Inscreva seu email no Canaltech para receber atualizações diárias com as últimas notícias do mundo da tecnologia.
function maybeMobile(){if(navigator.userAgent.match(/linux.*android|windowss+(?:ce|phone)/i)){return true;}else if(navigator.userAgent.match(/spider|crawl|slurp|bot/i)){return false;}else if(navigator.userAgent.match(/windows|linux|oss+xs*[d._]+|solaris|bsd/i)){return false;}
return window.screenX===0&&('ontouchstart'in window||'onmsgesturechange'in window);};_eCT=window._eCT||[];_uCT=window._uCT||[];__e4afd00cb0e5333fec21b24280009203=false;enableAutoplay=false;history.scrollRestoration='manual';if(window.location.hash!=='#noads'){enableAutoplay=true;(function(i,s,o,g,r,a,m){i['GoogleAnalyticsObject']=r;i[r]=i[r]||function(){(i[r].q=i[r].q||[]).push(arguments)},i[r].l=1*new Date();a=s.createElement(o),m=s.getElementsByTagName(o)[0];a.async=1;a.src=g;m.parentNode.insertBefore(a,m)})(window,document,'script','//www.google-analytics.com/analytics.js','ga');ga('create','UA-33160475-1','auto');ga('send','pageview');(function(){var _fbq=window._fbq||(window._fbq=[]);if(!_fbq.loaded){var fbds=document.createElement('script');fbds.async=true;fbds.src="http://connect.facebook.net/en_US/fbds.js";var s=document.getElementsByTagName('script')[0];s.parentNode.insertBefore(fbds,s);_fbq.loaded=true};_fbq.push(['addPixelId','301402963401732'])})();window._fbq=window._fbq||[];window._fbq.push(['track','PixelInitialized',{}]);}
(function(){window.universal_variable=window.universal_variable||{};window.universal_variable.dfp=window.universal_variable.dfp||{};window.uolads=window.uolads||[];})();





