Google I/O 2016 Google Assistant

Google I/O 2016 ha segnato l’inizio dell’era degli assistenti vocali intelligenti con la presentazione di Google Assistant, un’evoluzione radicale di Google Now che prometteva di trasformare l’interazione con la tecnologia da una serie di comandi isolati a conversazioni naturali dove il contesto delle domande precedenti veniva ricordato e utilizzato per comprendere le richieste successive. Il CEO Sundar Pichai ha proclamato che Google stava diventando un’azienda AI first, con l’intelligenza artificiale che non rappresentava più una funzionalità aggiuntiva ma il fondamento su cui ogni prodotto veniva costruito sfruttando decenni di accumulo di dati e sviluppo di algoritmi di machine learning. Google Home è stato presentato come la risposta a Amazon Echo, uno speaker smart con Google Assistant integrato che portava le capacità dell’assistente vocale nei salotti permettendo di controllare dispositivi smart home, riprodurre musica, e ottenere risposte a domande con la naturalezza di parlare a un membro della famiglia. Le nuove app Allo e Duo rappresentavano il tentativo di Google di consolidare la propria presenza nella messaggistica e nelle videochiamate, mentre Android N introduceva miglioramenti alla produttività come il multi-window nativo e notifiche che permettevano risposte dirette senza aprire le applicazioni. La visione presentata era quella di un futuro dove l’interazione con la tecnologia sarebbe diventata sempre più simile alle conversazioni umane, con Google che sfruttava il proprio vantaggio nei dati e nell’intelligenza artificiale per creare esperienze impossibili da replicare per competitor con accesso a minori volumi di informazioni.

Google Assistant e la conversazione come interfaccia

Google Assistant rappresentava un salto qualitativo rispetto a Google Now grazie alla capacità di sostenere conversazioni che ricordavano il contesto delle interazioni precedenti, permettendo follow-up naturali che non richiedevano di ripetere informazioni già menzionate in quello che i ricercatori chiamavano comprensione del linguaggio con stato. Un utente poteva chiedere chi ha diretto The Revenant e poi seguire con quanti Oscar ha vinto senza dover specificare nuovamente che stava parlando del regista, un’interazione che sembrava scontata ma che richiedeva capacità di elaborazione del linguaggio naturale che solo negli ultimi anni erano diventate praticamente utilizzabili. Le risposte fornite da Assistant andavano oltre la semplice presentazione di link ai risultati di ricerca, offrendo invece informazioni sintetizzate e conversazionali che rispondevano direttamente alle domande in modi che mimavano come una persona informata avrebbe risposto. L’integrazione con i servizi Google permetteva ad Assistant di accedere a informazioni personali come calendario, email e posizione per fornire risposte contestualizzate come a che ora è il mio prossimo appuntamento o ricordami di chiamare mamma quando arrivo a casa. L’esecuzione di azioni come prenotare ristoranti attraverso partnership con servizi terzi, ordinare Uber, o controllare dispositivi smart home trasformava l’assistente da strumento informativo a agente capace di operare nel mondo per conto dell’utente.

Google Home e la battaglia per il salotto

Google Home entrava in competizione diretta con Amazon Echo che aveva goduto di oltre un anno di vantaggio nel mercato degli smart speaker, ma Google portava nella battaglia asset che Amazon faticava a eguagliare incluso il Knowledge Graph costruito su vent’anni di indicizzazione del web e capacità di comprensione del linguaggio naturale alimentate dai miliardi di query di ricerca giornaliere. Il design dello speaker era distintivo con una forma cilindrica compatta e basi intercambiabili in diversi colori che permettevano di adattare l’estetica all’arredamento, un approccio che riconosceva che i dispositivi per il salotto dovevano essere anche oggetti d’arredo oltre che funzionali. L’integrazione con Chromecast permetteva di controllare contenuti sui televisori con comandi vocali come mostra le foto del mio viaggio in Italia sulla TV, mentre il supporto per servizi musicali come Spotify e YouTube Music forniva accesso a cataloghi vastissimi senza richiedere abbonamenti a servizi proprietari. La sfida principale per Google era costruire un ecosistema di azioni e integrazioni paragonabile a quello che Amazon aveva sviluppato con Alexa Skills, dove migliaia di sviluppatori avevano creato funzionalità che espandevano le capacità dell’assistente ben oltre quelle native. Il prezzo di centoventinove dollari posizionava Google Home come competitor diretto di Echo, lasciando alla qualità dell’assistente vocale e all’integrazione con l’ecosistema Google il compito di differenziare il prodotto.

Allo, Duo e la frammentazione della messaggistica Google

Google ha presentato due nuove applicazioni di comunicazione che andavano ad aggiungersi al già confuso panorama di Hangouts, Messenger, e altre app che l’azienda aveva lanciato e parzialmente abbandonato nel corso degli anni, sollevando domande sulla strategia complessiva e sul rischio di disperdere gli utenti tra troppe opzioni incompatibili. Allo era un’app di messaggistica che integrava Google Assistant permettendo di invocare l’assistente all’interno delle conversazioni con il comando @google per cercare ristoranti, condividere informazioni, o giocare insieme agli interlocutori, mentre Smart Reply suggeriva risposte contestuali basate sull’analisi del contenuto dei messaggi ricevuti. La modalità Incognito offriva crittografia end-to-end per le conversazioni sensibili, anche se la scelta di non rendere questa crittografia il default ha attirato critiche da parte degli esperti di privacy che notavano l’incoerenza con le dichiarazioni di Google sulla sicurezza. Duo era un’applicazione di videochiamate estremamente semplificata che supportava solo chiamate uno-a-uno, con la funzionalità distintiva Knock Knock che mostrava un’anteprima video del chiamante prima ancora di rispondere permettendo di vedere chi stava chiamando e in quale contesto. La disponibilità cross-platform su Android e iOS contrastava con FaceTime limitato all’ecosistema Apple, ma la decisione di separare messaggistica e video in due app distinte creava attrito per gli utenti che dovevano installare e gestire due applicazioni invece di una.

Android N e il miglioramento dell’esperienza quotidiana

Android N, il cui nome sarebbe stato rivelato come Nougat attraverso una votazione pubblica, introduceva funzionalità che portavano il sistema operativo in parità con caratteristiche che i produttori come Samsung offrivano da anni attraverso le proprie personalizzazioni, consolidandole finalmente in funzionalità native disponibili su tutti i dispositivi Android. Il multi-window permetteva di affiancare due applicazioni sullo schermo dividendo lo spazio disponibile, una funzionalità particolarmente utile su tablet ma abilitata anche su smartphone in formato ridotto, eliminando la necessità di passare continuamente tra app per attività che beneficiavano dalla visione simultanea. Le notifiche diventavano più interattive con la possibilità di rispondere direttamente dalla barra delle notifiche senza aprire l’applicazione, raggruppamenti intelligenti per app e conversazione, e quick settings personalizzabili che permettevano di accedere rapidamente ai controlli più utilizzati. Doze, la funzionalità di risparmio energetico introdotta in Marshmallow, veniva estesa per funzionare anche quando il dispositivo era in movimento invece che solo quando rimaneva fermo per periodi prolungati, affrontando gli scenari di utilizzo reale dove i telefoni trascorrevano tempo in tasche e borse. Vulkan API portava su Android le capacità grafiche avanzate che permettevano a giochi complessi di ottenere prestazioni superiori sfruttando più efficientemente l’hardware grafico, mentre gli aggiornamenti seamless che si installavano in background riducevano il tempo speso ad aspettare riavvii durante gli update di sistema.

Daydream VR e la realtà virtuale accessibile

Daydream rappresentava l’evoluzione della strategia VR di Google da Cardboard, il visore di cartone economico che aveva introdotto milioni di persone alla realtà virtuale, a una piattaforma più sofisticata con requisiti hardware definiti e un visore di riferimento progettato per comfort e qualità dell’esperienza superiori. I telefoni Daydream-ready dovevano soddisfare specifiche precise riguardanti sensori, display e prestazioni che garantivano un’esperienza VR fluida senza la nausea causata da latenza e artefatti visivi che affliggevano i tentativi precedenti di VR mobile. Il visore Daydream View in tessuto morbido invece della plastica rigida tipica dei competitor offriva comfort superiore per sessioni prolungate, mentre il controller incluso con tracciamento di movimento permetteva interazioni più precise rispetto al semplice tap su Cardboard. I contenuti annunciati includevano YouTube VR per video immersivi, versioni VR di Netflix e altri servizi di streaming, e giochi che sfruttavano il controller per esperienze più coinvolgenti della semplice visione passiva. Il posizionamento come VR mid-range tra il Cardboard economico e i visori PC come Oculus Rift e HTC Vive creava uno spazio di mercato per chi voleva provare la realtà virtuale senza l’investimento in hardware dedicato costoso.

La strategia AI first e le implicazioni per il futuro

Il messaggio centrale di Google I/O 2016 era che l’intelligenza artificiale non rappresentava più una tecnologia emergente da presentare come novità ma il fondamento su cui ogni prodotto veniva costruito, con ogni servizio Google che incorporava machine learning per migliorare la comprensione delle intenzioni dell’utente e la qualità delle risposte fornite. Il vantaggio competitivo di Google in questo campo derivava da fattori difficilmente replicabili: miliardi di query di ricerca giornaliere che alimentavano l’addestramento dei modelli linguistici, miliardi di email che insegnavano i pattern della comunicazione umana, miliardi di foto che permettevano di sviluppare riconoscimento visivo tra i più sofisticati al mondo. TensorFlow, il framework di machine learning reso open source l’anno precedente, continuava ad evolversi come strumento che permetteva a sviluppatori esterni di costruire sulle stesse fondamenta utilizzate internamente da Google. I TPU, chip progettati specificamente per carichi di lavoro AI, offrivano efficienza superiore di un ordine di grandezza rispetto ai processori generici, un vantaggio hardware che complementava quello software nel posizionare Google come leader indiscusso nel campo dell’intelligenza artificiale. Per gli utenti, la promessa era di prodotti sempre più intelligenti che anticipavano le esigenze, comprendevano il contesto, e richiedevano meno sforzo cognitivo per ottenere quello che si cercava, un futuro dove la tecnologia avrebbe lavorato per le persone invece di richiedere che le persone imparassero a lavorare con la tecnologia.

Gianluca Gentile

Mi chiamo Gianluca Gentile, classe 1991. Da sempre mi accompagna una passione smisurata per la materia informatica. Computer e web, infatti, sono diventati i miei compagni d’avventura inseparabili. Così nel 2012 ho deciso di trasformare la mia attitudine e le mie capacità in un “lavoro”. Attraverso esperienza e professionalità mi occupo di ristrutturare e costruire da zero l’immagine di un’azienda. Tra le mie funzioni vi è la gestione di ogni fase del processo creativo, curando minuziosamente ogni aspetto delle campagne pubblicitarie sui vari media.

Tutti gli articoli

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *