Quand’è stata l’ultima volta che hai avuto una “conversazione” con Siri o Alexa che si possa dire soddisfacente? Forse mai. Il motivo principale è che mentre questi assistenti o robot sono migliorati molto, la loro capacità di conversazione è rimasta piuttosto limitata. Google però questa settimana ha fatto un annuncio sul suo blog presentando Meena: un “agente conversazionale che può parlare di… qualsiasi cosa”, proprio come un essere umano. Certo i colossi della tecnologia come Google e Facebook ci hanno abituati e forse anche troppo, alla loro infinita serie di annunci sugli impressionanti progressi nel campo dell’AI. Tuttavia, la presentazione del nuovo chatbot di Google ha catturato l’attenzione di molti addetti al settore, ma cos’ha di speciale Meena?

Che differenza c’è tra Chatbot e AI?

Chat bot robot welcomes android robotic character. Creative design toys on yellow background.

Facciamo prima un passo indietro: innanzitutto un Chatbot non è necessariamente un AI, ma un software progettato per simulare una conversazione con un essere umano, che riceve quindi degli input dagli utenti ed in base a questi restituisce loro una risposta pre-impostata. Ad oggi possiamo trovare svariati tipi di Chatbot, solo su Facebook se ne contano quasi 800.000 per la customer care delle aziende private o come supporto alla pubblica amministrazione. Un chatbot basato su algoritmi di AI invece è in grado di imparare dagli input che riceve, migliorando la propria “conoscenza” e garantendo un miglioramento continuo delle risposte.

Come sono i Chatbot attualmente nel mercato?

La maggior parte delle Big-Tech possiede una propria versione di chatbot: pensiamo per esempio a Siri di Apple, Google Assistant di Google, Alexa di Amazon o Cortana di Microsoft, ma quali sono le caratteristiche che accomunano tutti i chatbot attualmente in commercio?

  • Dominio chiuso / Basato su regole: la maggior parte dei chatbot è di dominio chiuso, il che significa che funzionano solo all’interno di un circuito specifico.
  • Non conversazionali: le interazioni dovrebbero apparire simili a quelle umane. Con gli attuali sistemi in circolazione non è affatto così.
  • Non multigiro: la maggior parte dei chatbot non riesce a prendere in considerazione le interazioni multiple (in cui l’utente e il chatbot interagiscono tra loro, a turno). Questo ci porta nuovamente ad un’esperienza poco umana.

Google Meena è diverso

Arriviamo quindi a Meena: chatbot multigiro, a dominio aperto e alimentato da una rete neurale end-to-end, in grado di considerare più di 2,6 miliardi di parametri. Google afferma che può chattare con le persone meglio di qualsiasi generatore di intelligenza artificiale. Il team ha infatti “addestrato” il modello con 40 miliardi di parole: 341 GB di dati di testo, comprese le conversazioni sui social media, utilizzando il modello Seq2Seq, una variante di Transformer di Google, la rete neurale che confronta tra loro le parole in un paragrafo per capirne la correlazione. Meena possiede un blocco encoder ET e 13 blocchi decoder ET: mentre il prima aiuta a comprendere il contesto della conversazione, i decodificatori lo aiutano a formulare una risposta.

Sensibleness: la nuova metrica di conversazione

Il team di ricercatori ha anche ideato una nuova metrica per misurare quanto sia sensibile e specifica una conversazione o una risposta: la Sensibleness and Specificity Average (SSA). Un esempio? se dici “Mi piace il tennis” un chatbot probabilmente ti risponderà restando sul vago, qualcosa come: “è fantastico”, una risposta sicuramente sensata ma di certo non è specifica. Sono molti i chatbot che si basano su trucchi come questo per nascondere il fatto che non riconoscono ciò di cui si sta parlando. Meena invece potrebbe rispondere con qualcosa del tipo: “anch’io l’adoro, non ne ho mai abbastanza di Roger Federer”, una risposta decisamente più specifica. 

Google ha utilizzato i crowdworker per generare conversazioni di esempio e ottenere un punteggio in circa 100 conversazioni. Meena ha ottenuto un punteggio SSA del 79%, rispetto al 56% di Mitsuku, un chatbot all’avanguardia che ha vinto il premio Loebner negli ultimi quattro anni. Quindi, se perfino i partner di conversazione umana hanno segnato solo l’86% in questo nuovo test, è intuibile l’impatto innovativo che potrebbe avere Google Meena. 

Quando potremo parlare con Meena?

Non prestissimo. Google ha affermato che non rilascerà una demo pubblica fino a quando non avrà verificato la sicurezza del modello sia in termini di privacy, sia in termini di “imparzialità” per evitare problemi come quelli incorsi da Microsoft, quando nel 2016 ha rilasciato il suo chatbot Tay su Twitter e questo ha iniziato a rilasciare invettive razziste e misogine in poche ore.

Perché Meena e i Chatbot sono così importanti?

I chatbot sono vantaggiosi per il supporto clienti: da un lato questi vincono perché ottengono supporto 24 ore su 24, 7 giorni su 7, per le loro semplici domande, dall’altro le aziende vincono perché possono risparmiare sui costi del personale e consentire al personale di supporto di risolvere i problemi più difficili che i clienti devono affrontare. Qualche dato interessante:

  • il 69% dei consumatori secondo Salesforce preferisce utilizzare i chatbot per la velocità con cui può comunicare con un marchio. 
  • I chatbot possono aiutare le aziende a risparmiare fino al 30% sui costi dell’assistenza clienti (IBM
  • Un sondaggio HubSpot ha trovato che il 47% dei consumatori sarebbe aperta a fare un acquisto da un chatbot (HubSpot)
  • I negozi di e-commerce che adottano Facebook Messenger insieme a un chatbot di abbandono del carrello hanno iniziato a incrementare le entrate del 7-25% (Chatbots Magazine)
  • Juniper Research stima che entro il 2023 i chatbot rappresenteranno $ 112 miliardi nelle vendite al dettaglio (Mobile Marketer)

I chatbot sono ancora uno spazio emergente in cui le grandi aziende come Google e Facebook, per citarne alcune, stanno concentrando parte dei loro investimenti. L’approccio e i risultati di Google per Meena sono entusiasmanti e mentre rimane ancora molto lavoro da fare per poter costruire chatbot validi per gli esseri umani in termini di competenza e versatilità, Meena sembra essere un passo nella giusta direzione.

Il termine Deepfake è diventato virale solo negli ultimi mesi, ma in realtà l’uso del termine risale già a qualche anno fa, quando nel dicembre 2017 comparve per la prima volta un video in cui il volto dell’attrice di Wonder Woman Gal Gadot era stato sostituito a quello di un’attrice porno attraverso la tecnica del Generative Adversarial Networks (GAN). Le Reti Generative Avversarie risultano infatti efficaci nella creazione di immagini inedite a partire da un input che viene loro fornito. Un esempio ben noto è la rete Condogonale Generativa Avversaria (cGAN) di pix2pix e creata dall’Università della California per determinare una mappatura da un’immagine di input e generare un’immagine di output. A condividere il video nel 2017 fu un utente di Reddit chiamato (non a caso) Deepfake, che iniziò una discussione mettendo a disposizione alcuni software open source da lui creati, per realizzare video porno contraffatti, con tanto di consigli e indicazioni dettagliate in tempo reale.

Da lì in poi si sono moltiplicati i deepfake di celebrities il cui volto è stato sostituito, e negli ultimi due anni questa tecnologia si è sempre più affinata, al punto tale che spesso non è possibile riconoscere la natura contraffatta del video per diversi secondi. Il motivo per cui le prime ad essere prese di mira sono state le celebrità è molto semplice: la tecnologia dei deepfake si basa sul machine learning, per cui si consegna al programma una grande quantità di video e immagini della persona che si intende inserire (banalmente Google immagini e Youtube), cosicché l’AI attraverso l’apprendimento automatizzato possa incamerarne le espressioni facciali e realizzare una mappatura dettagliata dei movimenti del viso.

A stupire è il fatto che questi video non siano prodotti da tecnici che utilizzano la CGI per gli effetti speciali, ma da utenti comuni con una conoscenza pratica degli algoritmi di apprendimento e che utilizzano strumenti OpenSource come Keras o TensorFlow, che Google mette gratuitamente a disposizione di ricercatori, studenti laureati e chiunque abbia un interesse per l’apprendimento automatico. Anche uno strumento di Adobe può ingannare chiunque inducendo le persone a dire qualsiasi cosa o, per citare un altro esempio, l’algoritmo Face2Face permette di creare sequenze audiovisive in cui il volto di una persona viene scambiato attraverso il tracciamento del viso in tempo reale, raffigurandola mentre imita le espressioni facciali di un’altra persona. 

Recentemente uno studio di Deeptrace ha contato 14.678 video deepfake online, il cui 96% è costituito da video porno contraffatti che hanno come protagoniste involontarie soprattutto attrici famose. I rischi di quello che è diventato ormai una piaga del web moderno, sono molti e soprattutto pericolosi. Dai dati appena citati è chiaro che una prima grave conseguenza è legata a forme di revenge porn e di umiliazione pubblica che vede come vittime in primis le donne, non solo attrici famose, ma anche donne comuni che, come ha dimostrato l’app DeepNude ora opportunamente rimossa dai principali play store, può trasformare qualsiasi innocua immagine in foto compromettenti da far circolare nel web. 

Non è tardato ad arrivare anche l’utilizzo di deepfake in ambito politico. Da Obama a Trump, si sprecano le dichiarazioni più improbabili e anche in Italia, seppur in ritardo, ha fatto scalpore il famoso discorso di Renzi a Striscia la notizia. In questo caso, il grave rischio che si incorre se non si pone un freno a questa tecnologia, è di aggravare l’insidia della disinformazione politica, minacciando la democrazia stessa. Infatti, nonostante la qualità di questi video non sia sempre altissima, molti deepfake risultano a prima vista credibili e spesso è quasi impossibile comprenderne la natura per diversi secondi. Se si considera che la soglia di attenzione media è sempre più bassa, è facile intuire come dichiarazioni politiche frutto di deepfake possano portare il fenomeno delle fake news ad un livello ancora più incontrollabile, poiché l’utente medio potrebbe non arrivare mai alla conclusione del video che, quando accade, dichiara di essere un deepfake. 

È però in via di sviluppo il progetto Deepfake Detection Challenge, che “invita le persone di tutto il mondo a creare nuove tecnologie innovative che possano aiutare a rilevare deepfake e media manipolati”. Tra i protagonisti di rilievo anche Amazon, Facebook, Microsoft, il New York Times, l’università di Oxford, il MIT, e anche l’Italia con Luisa Verdoliva dell’Università Federico II di Napoli. L’iniziativa punta a creare strumenti open source che società, organizzazioni media e di sicurezza e governi stessi potranno utilizzare liberamente con lo scopo di rilevare qualsiasi video deepfake. Il lancio ufficiale della competizione avverrà proprio a dicembre in vista di un fondamentale appuntamento della politica globale: le elezioni presidenziali americane del 2020.

In questi giorni però, sono le elezioni politiche in UK ad aver creato scalpore con il primo esperimento di deepfake in piena campagna elettorale. La Think tank londinese Future Advocacy ha infatti diffuso dei deepfake in cui Boris Johnson e Jeremy Corbyn si sostengono a vicenda. L’obiettivo era lanciare un appello sotto forma di provocazione ai partiti, per sollecitarli a collaborare e sviluppare delle regole comuni adeguate a contrastare la disinformazione politica online.