Google intelligenza artificiale assistente vocale

Al Google I/O 2018 l’intelligenza artificiale ha raggiunto un livello che ha lasciato il pubblico presente a bocca aperta e ha generato reazioni contrastanti in tutto il mondo tecnologico, quando Sundar Pichai ha presentato Google Duplex facendo ascoltare registrazioni di telefonate reali in cui l’assistente artificiale prenotava appuntamenti dal parrucchiere e tavoli al ristorante senza che gli interlocutori umani si accorgessero di non stare parlando con una persona vera. La naturalezza della voce, completa di intercalari come um e mmhm, la capacità di gestire interruzioni e domande impreviste, l’intonazione che variava contestualmente rendevano l’interazione indistinguibile da una conversazione telefonica tra due esseri umani, un traguardo che solo pochi anni prima sembrava fantascienza e che sollevava immediatamente questioni etiche profonde sulla trasparenza e il consenso nelle interazioni mediate dalla tecnologia. La reazione del pubblico in sala è stata di entusiasmo misto a inquietudine, con applausi che si alternavano a risate nervose mentre le implicazioni di quanto stavano ascoltando diventavano chiare, mentre su internet il dibattito si è polarizzato rapidamente tra chi celebrava il progresso tecnologico e chi vedeva l’inizio di scenari distopici dove la distinzione tra umano e artificiale diventava impossibile.

Il funzionamento tecnico di Duplex

Google Duplex non rappresentava un’intelligenza artificiale generale capace di conversare su qualsiasi argomento, ma un sistema altamente specializzato progettato per gestire compiti conversazionali specifici e limitati come prenotazioni, verifiche di orari di apertura e appuntamenti semplici. L’architettura combinava reti neurali ricorrenti per la comprensione del linguaggio naturale con WaveNet di DeepMind per la sintesi vocale, il sistema che produceva quella voce incredibilmente naturale con tutte le sfumature e le imperfezioni che caratterizzano il parlato umano. I modelli erano addestrati specificamente per domini ristretti, il che permetteva prestazioni eccellenti in quei contesti ma significava anche che il sistema non poteva generalizzare a conversazioni di altro tipo senza nuovo addestramento dedicato. Quando una chiamata diventava troppo complessa o deviava dagli scenari previsti, Duplex era progettato per passare silenziosamente la conversazione a un operatore umano che avrebbe gestito la situazione. Questa combinazione di specializzazione estrema e fallback umano permetteva al sistema di apparire più capace di quanto fosse realmente, concentrando le risorse computazionali sui casi d’uso dove l’AI eccelleva e delegando agli umani ciò che ancora non sapeva gestire.

Le questioni etiche sollevate dalla demo

Il problema più immediato evidenziato dalla demo di Duplex riguardava l’inganno: durante le chiamate dimostrate, l’assistente non si identificava come artificiale, lasciando gli interlocutori umani nella convinzione di stare parlando con una persona reale. Questa scelta di design sollevava domande fondamentali sul diritto delle persone di sapere se stanno interagendo con una macchina, un consenso informato che sembrava essere stato sacrificato sull’altare dell’efficacia tecnologica. Google ha risposto alle critiche promettendo che nelle versioni commerciali Duplex avrebbe dichiarato la propria natura artificiale all’inizio delle conversazioni, ma la demo originale aveva già rivelato che il primo istinto dell’azienda era stato quello di massimizzare la performance nascondendo la verità agli interlocutori. Le implicazioni più ampie riguardavano cosa sarebbe successo quando questa tecnologia fosse diventata ampiamente disponibile: chiamate spam automatizzate ma indistinguibili da umani, manipolazione sociale potenziata, la fine della possibilità di fidarsi delle registrazioni vocali come prove di autenticità. Se non potevamo più distinguere l’artificiale dall’umano nelle interazioni quotidiane, quali sarebbero state le conseguenze per la fiducia sociale e le relazioni interpersonali?

Gmail Smart Compose e l’AI nella scrittura quotidiana

Oltre a Duplex, Google ha presentato numerose altre implementazioni di intelligenza artificiale destinate a permeare la vita quotidiana degli utenti, con Gmail Smart Compose che rappresentava forse l’esempio più significativo di come l’AI stesse diventando assistente invisibile nelle attività ordinarie. Il sistema non si limitava a correggere errori o suggerire parole singole, ma prediceva frasi complete basandosi sul contesto dell’email e sullo stile di scrittura dell’utente, permettendo di comporre messaggi con pochi tasti accettando i suggerimenti che apparivano in grigio durante la digitazione. L’esperienza era stranamente intima, con la macchina che sembrava leggere i pensieri anticipando cosa l’utente volesse dire prima ancora che lo esprimesse, un’efficienza che portava con sé la consapevolezza inquietante di quanto Google conoscesse i pattern comunicativi individuali. Google Photos riceveva capacità di colorizzazione automatica delle foto in bianco e nero usando l’AI per inferire i colori originali basandosi sul contesto e sulla conoscenza di milioni di immagini, mentre Google Lens si integrava direttamente nella fotocamera permettendo di puntare il telefono verso qualsiasi oggetto e ottenere informazioni, acquistare prodotti simili, o copiare testo semplicemente inquadrandolo.

Android P e l’attenzione al benessere digitale

Android P introduceva funzionalità che sembravano paradossali per un’azienda che guadagnava dall’attenzione degli utenti: strumenti progettati per aiutare le persone a usare meno i propri dispositivi e vivere più presenti nel mondo fisico. Digital Wellbeing includeva una dashboard che mostrava esattamente quanto tempo veniva speso su ogni app, timer che potevano limitare l’utilizzo giornaliero di applicazioni specifiche, e Wind Down che trasformava lo schermo in scala di grigi la sera per renderlo meno attraente e facilitare il distacco prima di dormire. Adaptive Battery usava il machine learning per apprendere quali app l’utente utilizzava effettivamente e limitava le risorse per quelle che restavano in background inutilizzate, migliorando l’autonomia senza richiedere intervento manuale. Adaptive Brightness imparava le preferenze individuali di luminosità in diversi contesti invece di affidarsi a sensori automatici che spesso non riflettevano ciò che l’utente effettivamente desiderava. App Actions suggeriva azioni contestuali basate su orario, posizione e abitudini, come mostrare la playlist per la corsa quando si arrivava in palestra. La pressione sociale crescente sulla tech addiction, con genitori preoccupati e regolatori che iniziavano a interessarsi, costringeva anche le aziende più dipendenti dall’engagement a offrire strumenti che almeno apparentemente mettevano il controllo nelle mani degli utenti.

Google Assistant e le nuove capacità conversazionali

Google Assistant riceveva miglioramenti che lo rendevano più naturale e capace nelle interazioni quotidiane, con sei nuove voci tra cui quella riconoscibile del cantante John Legend che prestava il proprio timbro per rispondere a domande selezionate. Continued Conversation eliminava la necessità di ripetere Hey Google prima di ogni richiesta successiva, permettendo scambi più fluidi che assomigliavano maggiormente a conversazioni reali invece che a comandi discreti impartiti a una macchina. Multiple Actions permetteva di combinare più richieste in una singola frase, come chiedere il meteo di domani e ricordare di portare l’ombrello, con l’assistente che comprendeva e eseguiva entrambe le azioni invece di richiedere formulazioni separate. Pretty Please era pensato per le famiglie con bambini, riconoscendo e rispondendo positivamente quando i piccoli usavano please e thank you nelle loro richieste, incoraggiando l’educazione anche nelle interazioni con le macchine. Google Maps integrava navigazione in realtà aumentata che sovrapponeva frecce direzionali all’immagine della fotocamera, rendendo impossibile sbagliare direzione agli incroci confusi dove le mappe tradizionali potevano generare incertezza. L’integrazione crescente tra servizi, con l’assistente che attingeva a email, calendario, foto e preferenze per personalizzare le risposte, creava un’esperienza potente ma anche la sensazione di essere continuamente osservati e analizzati.

I TPU di terza generazione e la corsa alla potenza AI

Sul fronte hardware, Google ha annunciato la terza generazione dei Tensor Processing Units, i chip custom progettati specificamente per accelerare i carichi di lavoro di machine learning che alimentavano tutti i servizi AI dell’azienda. I nuovi TPU 3.0 offrivano potenza computazionale otto volte superiore alla generazione precedente, un salto che permetteva di addestrare modelli più complessi in tempi più brevi e di eseguire inferenze più sofisticate in tempo reale sui miliardi di richieste che i servizi Google ricevevano quotidianamente. I chip erano organizzati in pod raffreddati a liquido che raggiungevano cento petaflops di potenza computazionale combinata, infrastrutture che rendevano possibili sviluppi come Duplex che richiedevano risorse impensabili solo pochi anni prima. La strategia di Google era chiara: costruire l’infrastruttura hardware proprietaria che avrebbe reso possibile un’AI sempre più capace e pervasiva, un vantaggio competitivo difficile da replicare per concorrenti che dipendevano da chip general-purpose di terze parti. La corsa tra Google, Amazon, Microsoft e altri per la supremazia nel cloud AI si giocava tanto sull’hardware dedicato quanto sugli algoritmi, con chi possedeva entrambi destinato a definire le capacità disponibili per l’intera industria.

Il contrasto di visioni tra Google e Apple

L’evento metteva in evidenza il contrasto filosofico tra l’approccio Google e quello di Apple, due visioni del futuro tecnologico che partivano da premesse opposte riguardo al ruolo dei dati personali e della privacy nell’abilitazione delle funzionalità avanzate. Google costruiva i propri servizi sulla raccolta e analisi di quantità massicce di dati degli utenti, utilizzando quella conoscenza per offrire esperienze personalizzate e intelligenti che miglioravano con ogni interazione ma richiedevano la rinuncia a una significativa porzione di privacy. Apple enfatizzava invece l’elaborazione on-device e la minimizzazione della raccolta dati, accettando limitazioni nelle capacità AI in cambio della garanzia che le informazioni personali rimanessero sul dispositivo dell’utente senza essere inviate ai server dell’azienda. Per Google, i dati non erano solo una risorsa economica ma il carburante necessario per far funzionare un’intelligenza artificiale che ambiva a essere genuinamente utile in modi che l’elaborazione locale non poteva ancora eguagliare. La scelta tra le due visioni non era solo tecnologica ma valoriale, con utenti che dovevano decidere se la convenienza delle funzionalità AI di Google valesse il prezzo in termini di dati condivisi, o se la privacy promessa da Apple giustificasse le funzionalità relativamente più limitate.

L’AI come tema centrale che ridefiniva l’identità di Google

Il Google I/O 2018 ha segnato il momento in cui l’intelligenza artificiale è diventata non più una tra le molte direzioni dell’azienda ma il cuore pulsante della sua identità e strategia futura. Ogni annuncio, dalle email che si scrivono da sole ai telefoni che chiamano per prenotare appuntamenti, mostrava capacità che sembravano fantascienza pochi anni prima e che ora venivano presentate come funzionalità ordinarie destinate a entrare nella vita quotidiana di miliardi di utenti. Duplex resterà il simbolo di quell’evento non solo per l’impressionante dimostrazione tecnica ma per le domande che ha costretto tutti a porsi: fino a che punto vogliamo che le macchine ci somiglino, quali sono i confini etici che non dovrebbero essere superati, chi decide dove tracciare quelle linee in un’industria che si auto-regola. La tecnologia correva più veloce della capacità della società di comprenderla e regolamentarla, e Duplex incarnava perfettamente questa tensione tra possibilità tecniche e implicazioni sociali ancora da elaborare. Per Google, l’AI non era più il futuro ma il presente, la lente attraverso cui ripensare ogni prodotto e servizio esistente, la scommessa su cui l’azienda stava investendo le sue enormi risorse convinta che chi avrebbe vinto la corsa all’intelligenza artificiale avrebbe vinto il futuro dell’industria tecnologica.

Gianluca Gentile

Mi chiamo Gianluca Gentile, classe 1991. Da sempre mi accompagna una passione smisurata per la materia informatica. Computer e web, infatti, sono diventati i miei compagni d’avventura inseparabili. Così nel 2012 ho deciso di trasformare la mia attitudine e le mie capacità in un “lavoro”. Attraverso esperienza e professionalità mi occupo di ristrutturare e costruire da zero l’immagine di un’azienda. Tra le mie funzioni vi è la gestione di ogni fase del processo creativo, curando minuziosamente ogni aspetto delle campagne pubblicitarie sui vari media.

Tutti gli articoli

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *