{"id":138539,"date":"2017-05-18T10:00:00","date_gmt":"2017-05-18T08:00:00","guid":{"rendered":"https:\/\/gianlucagentile.com\/blog\/google-i-o-2017-google-lens-e-lai-che-vede-il-mondo\/"},"modified":"2026-02-01T11:19:56","modified_gmt":"2026-02-01T10:19:56","slug":"google-i-o-2017-google-lens-e-lai-che-vede-il-mondo","status":"publish","type":"post","link":"https:\/\/gianlucagentile.com\/blog\/google-i-o-2017-google-lens-e-lai-che-vede-il-mondo\/","title":{"rendered":"Google I\/O 2017: Google Lens e l&#8217;AI che vede il mondo"},"content":{"rendered":"<p>Google I\/O 2017 ha segnato un cambio di paradigma fondamentale nella strategia dell&#8217;azienda di Mountain View, con il CEO Sundar Pichai che ha dichiarato esplicitamente la transizione da un approccio mobile first a una filosofia AI first che avrebbe permeato ogni prodotto e servizio dell&#8217;ecosistema Google nei mesi e anni successivi. La conferenza per sviluppatori ha presentato Google Lens come la manifestazione pi\u00f9 impressionante di questa visione, un sistema di intelligenza artificiale capace di comprendere il mondo visivo attraverso la fotocamera dello smartphone identificando oggetti, luoghi, testi e contesti con una precisione che sembrava fantascienza solo pochi anni prima. Google Assistant si espandeva su nuove piattaforme raggiungendo iPhone e tutti i dispositivi Android invece di restare esclusiva dei Pixel, mentre Android O introduceva miglioramenti significativi nella gestione delle notifiche e nella durata della batteria. La visione presentata era quella di un futuro dove l&#8217;intelligenza artificiale non rappresentava una funzionalit\u00e0 aggiuntiva ma il fondamento stesso su cui ogni esperienza digitale veniva costruita, con Google che sfruttava i suoi vantaggi competitivi in machine learning e l&#8217;accesso a quantit\u00e0 di dati senza precedenti per creare prodotti impossibili da replicare per i competitor.<\/p>\n<h2>Google Lens e l&#8217;intelligenza artificiale che vede il mondo<\/h2>\n<p>La demo pi\u00f9 impressionante dell&#8217;intera conferenza \u00e8 stata quella di Google Lens, un sistema che trasformava la fotocamera dello smartphone da semplice strumento per catturare immagini in un occhio intelligente capace di comprendere e interagire con il mondo fisico in modi che precedentemente richiedevano ricerche manuali o conoscenze specialistiche. Inquadrando un fiore il sistema poteva identificare la specie esatta fornendo informazioni botaniche, puntando verso un ristorante mostrava recensioni, orari di apertura e menu, mentre fotografando un cartello in lingua straniera il testo veniva tradotto istantaneamente sovrapponendo la traduzione all&#8217;immagine originale con una fluidit\u00e0 che sembrava magia. L&#8217;applicazione pi\u00f9 pratica dimostrata era la capacit\u00e0 di inquadrare un adesivo con le credenziali WiFi di un router per connettersi automaticamente alla rete senza digitare password complesse, un esempio di come l&#8217;AI potesse eliminare frizioni quotidiane che gli utenti avevano accettato come inevitabili. Google Lens rappresentava la convergenza di anni di sviluppo in computer vision, natural language processing e knowledge graph in un&#8217;interfaccia che anche gli utenti meno tecnologici potevano utilizzare semplicemente puntando la fotocamera verso qualcosa che volevano capire, con il sistema che si occupava di tutto il lavoro computazionale complesso dietro le quinte.<\/p>\n<h2>Google Assistant e l&#8217;espansione dell&#8217;ecosistema vocale<\/h2>\n<p>L&#8217;annuncio che Google Assistant sarebbe arrivato su iPhone rappresentava un riconoscimento pragmatico che limitare l&#8217;assistente AI ai soli dispositivi Pixel significava rinunciare a centinaia di milioni di potenziali utenti nel mercato pi\u00f9 affluente del pianeta, anche a costo di entrare direttamente in competizione con Siri sul territorio di Apple. L&#8217;SDK per Google Assistant permetteva inoltre a qualsiasi produttore hardware di integrare l&#8217;assistente vocale nei propri dispositivi, dai frigoriferi ai robot domestici, creando un ecosistema aperto in contrasto con l&#8217;approccio chiuso che Apple manteneva con Siri e che limitava HomeKit a partner certificati. Le conversazioni con Assistant diventavano pi\u00f9 naturali con la capacit\u00e0 di eseguire sequenze di azioni multiple e di ricordare il contesto delle richieste precedenti, mentre il supporto per le transazioni permetteva di completare acquisti usando solo la voce con commercianti partner. Google Home riceveva la capacit\u00e0 di effettuare chiamate telefoniche gratuite verso qualsiasi numero negli Stati Uniti e Canada trasformando lo smart speaker in un telefono vivavoce per la casa, mentre l&#8217;integrazione con Chromecast permetteva comandi vocali per controllare i contenuti visualizzati sui televisori connessi. La visione di un assistente onnipresente che seguiva l&#8217;utente attraverso tutti i dispositivi e contesti stava prendendo forma concreta, con Google che sfruttava la sua superiorit\u00e0 nel natural language understanding per creare esperienze che Siri e Alexa faticavano a eguagliare.<\/p>\n<h2>Android O e le innovazioni per utenti e sviluppatori<\/h2>\n<p>La nuova versione di Android presentata all&#8217;I\/O introduceva cambiamenti significativi nel modo in cui il sistema operativo gestiva le applicazioni in background, limitando drasticamente le capacit\u00e0 dei processi non attivi di consumare risorse e batteria in un tentativo di risolvere uno dei problemi pi\u00f9 persistenti dell&#8217;ecosistema Android rispetto alla gestione pi\u00f9 rigida di iOS. I notification dots portavano badge colorati sulle icone delle applicazioni per segnalare la presenza di notifiche non lette, una funzionalit\u00e0 che iPhone aveva da anni ma che Android implementava con la capacit\u00e0 aggiuntiva di mostrare anteprime del contenuto con una pressione prolungata sull&#8217;icona. Picture-in-Picture permetteva finalmente di continuare a guardare video in una finestra flottante mentre si utilizzavano altre applicazioni, una funzionalit\u00e0 particolarmente utile per YouTube e videochiamate che i tablet Android supportavano da tempo ma che arrivava ora anche sugli smartphone. L&#8217;Autofill API integrava i password manager a livello di sistema operativo permettendo il riempimento automatico delle credenziali in qualsiasi applicazione senza richiedere tastiere personalizzate o workaround complessi, mentre l&#8217;adozione ufficiale di Kotlin come linguaggio di sviluppo supportato insieme a Java veniva accolta con entusiasmo dalla comunit\u00e0 degli sviluppatori che apprezzava la sintassi pi\u00f9 moderna e concisa del linguaggio.<\/p>\n<h2>Google Photos e la condivisione intelligente<\/h2>\n<p>Google Photos dimostrava come l&#8217;intelligenza artificiale potesse trasformare la gestione delle fotografie da compito tedioso in esperienza proattiva e quasi automatica, con nuove funzionalit\u00e0 che sfruttavano il riconoscimento facciale per suggerire automaticamente di condividere le immagini con le persone che vi apparivano. Il sistema poteva identificare i volti dei propri contatti nelle foto appena scattate e proporre la condivisione con un tap, eliminando lo sforzo di selezionare manualmente le immagini e cercare i destinatari appropriati nella lista dei contatti. Le librerie condivise permettevano di configurare la condivisione automatica di tutte le foto contenenti determinate persone con partner familiari o amici stretti, una funzionalit\u00e0 particolarmente utile per genitori che volevano assicurarsi che le foto dei figli raggiungessero automaticamente i nonni senza intervento manuale. Google annunciava anche la possibilit\u00e0 di creare libri fotografici fisici con copertina rigida direttamente dall&#8217;applicazione, con l&#8217;AI che suggeriva le immagini migliori per l&#8217;inclusione e la possibilit\u00e0 di ordinarli con consegna a domicilio a partire da dieci dollari. Queste funzionalit\u00e0 rafforzavano la proposta di valore di Google Photos come servizio di storage illimitato e gratuito che non si limitava a conservare le immagini ma le organizzava, le migliorava e le condivideva in modi che rendevano la vita degli utenti concretamente pi\u00f9 semplice.<\/p>\n<h2>VR standalone e il futuro della realt\u00e0 virtuale<\/h2>\n<p>Google annunciava una nuova generazione di visori VR standalone che eliminavano la necessit\u00e0 sia dello smartphone da inserire nel visore sia del PC potente richiesto dai sistemi come Oculus Rift e HTC Vive, promettendo esperienze di realt\u00e0 virtuale di qualit\u00e0 in dispositivi autonomi con tracking posizionale integrato. La tecnologia WorldSense permetteva al visore di tracciare i movimenti dell&#8217;utente nello spazio tridimensionale senza sensori esterni o beacon da installare nella stanza, utilizzando telecamere integrate che mappavano l&#8217;ambiente e calcolavano la posizione in tempo reale. Le partnership con HTC e Lenovo per la produzione dei primi dispositivi basati su questa piattaforma promettevano disponibilit\u00e0 entro la fine del 2017, anche se i prezzi e le specifiche complete non venivano ancora rivelati lasciando incertezza sul posizionamento di mercato. Contemporaneamente, le capacit\u00e0 di Project Tango per la realt\u00e0 aumentata iniziavano a essere portate su smartphone normali senza l&#8217;hardware specializzato che aveva limitato la tecnologia a pochi dispositivi di nicchia, utilizzando algoritmi di machine learning per compensare la mancanza di sensori di profondit\u00e0 dedicati. La visione di Google per VR e AR era quella di esperienze accessibili e distribuite piuttosto che costose e specializzate, democratizzando tecnologie che rischiavano di rimanere confinate a nicchie di entusiasti e sviluppatori.<\/p>\n<h2>Android Go e l&#8217;accessibilit\u00e0 nei mercati emergenti<\/h2>\n<p>Android Go rappresentava il riconoscimento che il prossimo miliardo di utenti internet sarebbe arrivato da mercati emergenti dove i dispositivi economici con specifiche limitate restavano la norma, e che ottimizzare Android per funzionare fluidamente su smartphone con soli cinquecentododici megabyte o un gigabyte di RAM era necessario per servire questa popolazione in crescita. Il sistema operativo veniva alleggerito rimuovendo funzionalit\u00e0 non essenziali e ottimizzando quelle rimanenti per consumare meno memoria e storage, mentre versioni Go delle applicazioni principali come YouTube, Google Search e Google Maps offrivano le funzionalit\u00e0 core in pacchetti significativamente pi\u00f9 compatti. YouTube Go permetteva di scaricare video per la visione offline e di controllare la qualit\u00e0 per risparmiare dati, riconoscendo che in molti mercati emergenti la connettivit\u00e0 rimaneva costosa e inaffidabile rendendo il buffering streaming spesso impraticabile. L&#8217;iniziativa si inseriva nella missione pi\u00f9 ampia di Google di organizzare le informazioni del mondo e renderle universalmente accessibili, un obiettivo che richiedeva raggiungere non solo gli utenti con gli ultimi flagship ma i miliardi di persone che accedevano a internet per la prima volta attraverso dispositivi che costavano meno di cento dollari.<\/p>\n<h2>Jobs with Google e l&#8217;espansione nel mercato del lavoro<\/h2>\n<p>Google annunciava l&#8217;ingresso nel mercato della ricerca lavoro con una funzionalit\u00e0 integrata direttamente nei risultati di Google Search che aggregava annunci da piattaforme come LinkedIn, Monster, Glassdoor e altri job board in un&#8217;interfaccia unificata che permetteva di cercare posizioni senza dover visitare decine di siti diversi. L&#8217;intelligenza artificiale alimentava matching sofisticato tra le competenze e l&#8217;esperienza del candidato e i requisiti delle posizioni, suggerendo opportunit\u00e0 rilevanti anche quando le parole chiave utilizzate nella ricerca non corrispondevano esattamente a quelle dell&#8217;annuncio. Per i datori di lavoro, la promessa era di raggiungere candidati qualificati attraverso il canale di ricerca pi\u00f9 utilizzato al mondo, mentre per chi cercava lavoro l&#8217;integrazione significava non doversi pi\u00f9 affidare a piattaforme specializzate che frammentavano il mercato e rendevano la ricerca laboriosa. L&#8217;iniziativa rappresentava un&#8217;altra espansione dell&#8217;ambizione di Google di essere il punto di accesso universale a ogni tipo di informazione, e un potenziale problema per LinkedIn che vedeva il suo core business della ricerca talenti minacciato dal motore di ricerca dominante che decideva di competere direttamente nel suo territorio.<\/p>\n<h2>La visione AI first e le implicazioni per il futuro<\/h2>\n<p>Il messaggio centrale di Google I\/O 2017 era che l&#8217;intelligenza artificiale non rappresentava pi\u00f9 una tecnologia emergente o una promessa futura ma il fondamento presente su cui ogni prodotto veniva costruito, con applicazioni concrete che andavano dal riconoscimento fotografico alla traduzione, dalla risposta automatica alle email alla comprensione del linguaggio naturale nelle conversazioni con l&#8217;assistente. Google possedeva vantaggi competitivi unici in questo campo grazie ai miliardi di query di ricerca, email, foto e altre forme di dati che gli utenti generavano quotidianamente e che alimentavano l&#8217;addestramento di modelli di machine learning sempre pi\u00f9 sofisticati, un circolo virtuoso dove pi\u00f9 utenti significava AI migliore che attraeva pi\u00f9 utenti. I Cloud TPU di seconda generazione annunciati alla conferenza rendevano la potenza computazionale necessaria per addestrare modelli AI complessi disponibile agli sviluppatori attraverso Google Cloud, democratizzando l&#8217;accesso a risorse che precedentemente richiedevano investimenti infrastrutturali proibitivi. Per i competitor, il messaggio era chiaro: competere con Google nell&#8217;era dell&#8217;AI first richiedeva non solo eccellenza ingegneristica ma accesso a quantit\u00e0 di dati e potenza computazionale che pochi potevano eguagliare, consolidando il vantaggio dell&#8217;azienda di Mountain View nel definire come avremmo interagito con la tecnologia nel decennio successivo.<\/p>\n<p><!-- Articoli correlati - SEO internal linking --><\/p>\n<div class=\"related-posts-seo\" style=\"margin-top:30px;padding:20px;background:#f5f5f5;border-radius:8px\">\n<h3 style=\"margin-top:0\">Potrebbe interessarti anche:<\/h3>\n<ul style=\"margin-bottom:0\">\n<li><a href=\"https:\/\/gianlucagentile.com\/blog\/google-i-o-2015-android-m-google-photos-e-il-futuro-di-google\/\">Google I\/O 2015: Android M, Google Photos e il futuro di Google<\/a><\/li>\n<li><a href=\"https:\/\/gianlucagentile.com\/blog\/nintendo-switch-e-zelda-breath-of-the-wild-lancio-trionfale\/\">Nintendo Switch e Zelda: Breath of the Wild &#8211; lancio trionfale<\/a><\/li>\n<li><a href=\"https:\/\/gianlucagentile.com\/blog\/samsung-galaxy-fold-il-futuro-e-pieghevole\/\">Samsung Galaxy Fold: il futuro \u00e8 pieghevole?<\/a><\/li>\n<\/ul>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>Google I\/O 2017 ha segnato un cambio di paradigma fondamentale nella strategia dell&#8217;azienda di Mountain View, con il CEO Sundar Pichai che ha dichiarato esplicitamente&#8230;<\/p>\n","protected":false},"author":1,"featured_media":138547,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_seopress_robots_primary_cat":"","_seopress_titles_title":"Google I\/O 2017: Google Lens, Assistant e Android O","_seopress_titles_desc":"Google I\/O 2017: Google Lens capisce cosa vedi, Assistant su iPhone, Android O con notifiche migliori, Kotlin ufficiale.","_seopress_robots_index":"","footnotes":""},"categories":[6003,4246],"tags":[5626,5825,5793,5686,5824,5316],"class_list":{"0":"post-138539","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-ai","8":"category-notizie","9":"tag-ai","10":"tag-android-o","11":"tag-google-assistant","12":"tag-google-i-o","13":"tag-google-lens","14":"tag-machine-learning"},"_links":{"self":[{"href":"https:\/\/gianlucagentile.com\/blog\/wp-json\/wp\/v2\/posts\/138539","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/gianlucagentile.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/gianlucagentile.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/gianlucagentile.com\/blog\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/gianlucagentile.com\/blog\/wp-json\/wp\/v2\/comments?post=138539"}],"version-history":[{"count":0,"href":"https:\/\/gianlucagentile.com\/blog\/wp-json\/wp\/v2\/posts\/138539\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/gianlucagentile.com\/blog\/wp-json\/wp\/v2\/media\/138547"}],"wp:attachment":[{"href":"https:\/\/gianlucagentile.com\/blog\/wp-json\/wp\/v2\/media?parent=138539"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/gianlucagentile.com\/blog\/wp-json\/wp\/v2\/categories?post=138539"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/gianlucagentile.com\/blog\/wp-json\/wp\/v2\/tags?post=138539"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}