Quand’è stata l’ultima volta che hai avuto una “conversazione” con Siri o Alexa che si possa dire soddisfacente? Forse mai. Il motivo principale è che mentre questi assistenti o robot sono migliorati molto, la loro capacità di conversazione è rimasta piuttosto limitata. Google però questa settimana ha fatto un annuncio sul suo blog presentando Meena: un “agente conversazionale che può parlare di… qualsiasi cosa”, proprio come un essere umano. Certo i colossi della tecnologia come Google e Facebook ci hanno abituati e forse anche troppo, alla loro infinita serie di annunci sugli impressionanti progressi nel campo dell’AI. Tuttavia, la presentazione del nuovo chatbot di Google ha catturato l’attenzione di molti addetti al settore, ma cos’ha di speciale Meena?

Che differenza c’è tra Chatbot e AI?

Chat bot robot welcomes android robotic character. Creative design toys on yellow background.

Facciamo prima un passo indietro: innanzitutto un Chatbot non è necessariamente un AI, ma un software progettato per simulare una conversazione con un essere umano, che riceve quindi degli input dagli utenti ed in base a questi restituisce loro una risposta pre-impostata. Ad oggi possiamo trovare svariati tipi di Chatbot, solo su Facebook se ne contano quasi 800.000 per la customer care delle aziende private o come supporto alla pubblica amministrazione. Un chatbot basato su algoritmi di AI invece è in grado di imparare dagli input che riceve, migliorando la propria “conoscenza” e garantendo un miglioramento continuo delle risposte.

Come sono i Chatbot attualmente nel mercato?

La maggior parte delle Big-Tech possiede una propria versione di chatbot: pensiamo per esempio a Siri di Apple, Google Assistant di Google, Alexa di Amazon o Cortana di Microsoft, ma quali sono le caratteristiche che accomunano tutti i chatbot attualmente in commercio?

  • Dominio chiuso / Basato su regole: la maggior parte dei chatbot è di dominio chiuso, il che significa che funzionano solo all’interno di un circuito specifico.
  • Non conversazionali: le interazioni dovrebbero apparire simili a quelle umane. Con gli attuali sistemi in circolazione non è affatto così.
  • Non multigiro: la maggior parte dei chatbot non riesce a prendere in considerazione le interazioni multiple (in cui l’utente e il chatbot interagiscono tra loro, a turno). Questo ci porta nuovamente ad un’esperienza poco umana.

Google Meena è diverso

Arriviamo quindi a Meena: chatbot multigiro, a dominio aperto e alimentato da una rete neurale end-to-end, in grado di considerare più di 2,6 miliardi di parametri. Google afferma che può chattare con le persone meglio di qualsiasi generatore di intelligenza artificiale. Il team ha infatti “addestrato” il modello con 40 miliardi di parole: 341 GB di dati di testo, comprese le conversazioni sui social media, utilizzando il modello Seq2Seq, una variante di Transformer di Google, la rete neurale che confronta tra loro le parole in un paragrafo per capirne la correlazione. Meena possiede un blocco encoder ET e 13 blocchi decoder ET: mentre il prima aiuta a comprendere il contesto della conversazione, i decodificatori lo aiutano a formulare una risposta.

Sensibleness: la nuova metrica di conversazione

Il team di ricercatori ha anche ideato una nuova metrica per misurare quanto sia sensibile e specifica una conversazione o una risposta: la Sensibleness and Specificity Average (SSA). Un esempio? se dici “Mi piace il tennis” un chatbot probabilmente ti risponderà restando sul vago, qualcosa come: “è fantastico”, una risposta sicuramente sensata ma di certo non è specifica. Sono molti i chatbot che si basano su trucchi come questo per nascondere il fatto che non riconoscono ciò di cui si sta parlando. Meena invece potrebbe rispondere con qualcosa del tipo: “anch’io l’adoro, non ne ho mai abbastanza di Roger Federer”, una risposta decisamente più specifica. 

Google ha utilizzato i crowdworker per generare conversazioni di esempio e ottenere un punteggio in circa 100 conversazioni. Meena ha ottenuto un punteggio SSA del 79%, rispetto al 56% di Mitsuku, un chatbot all’avanguardia che ha vinto il premio Loebner negli ultimi quattro anni. Quindi, se perfino i partner di conversazione umana hanno segnato solo l’86% in questo nuovo test, è intuibile l’impatto innovativo che potrebbe avere Google Meena. 

Quando potremo parlare con Meena?

Non prestissimo. Google ha affermato che non rilascerà una demo pubblica fino a quando non avrà verificato la sicurezza del modello sia in termini di privacy, sia in termini di “imparzialità” per evitare problemi come quelli incorsi da Microsoft, quando nel 2016 ha rilasciato il suo chatbot Tay su Twitter e questo ha iniziato a rilasciare invettive razziste e misogine in poche ore.

Perché Meena e i Chatbot sono così importanti?

I chatbot sono vantaggiosi per il supporto clienti: da un lato questi vincono perché ottengono supporto 24 ore su 24, 7 giorni su 7, per le loro semplici domande, dall’altro le aziende vincono perché possono risparmiare sui costi del personale e consentire al personale di supporto di risolvere i problemi più difficili che i clienti devono affrontare. Qualche dato interessante:

  • il 69% dei consumatori secondo Salesforce preferisce utilizzare i chatbot per la velocità con cui può comunicare con un marchio. 
  • I chatbot possono aiutare le aziende a risparmiare fino al 30% sui costi dell’assistenza clienti (IBM
  • Un sondaggio HubSpot ha trovato che il 47% dei consumatori sarebbe aperta a fare un acquisto da un chatbot (HubSpot)
  • I negozi di e-commerce che adottano Facebook Messenger insieme a un chatbot di abbandono del carrello hanno iniziato a incrementare le entrate del 7-25% (Chatbots Magazine)
  • Juniper Research stima che entro il 2023 i chatbot rappresenteranno $ 112 miliardi nelle vendite al dettaglio (Mobile Marketer)

I chatbot sono ancora uno spazio emergente in cui le grandi aziende come Google e Facebook, per citarne alcune, stanno concentrando parte dei loro investimenti. L’approccio e i risultati di Google per Meena sono entusiasmanti e mentre rimane ancora molto lavoro da fare per poter costruire chatbot validi per gli esseri umani in termini di competenza e versatilità, Meena sembra essere un passo nella giusta direzione.

Gli acquisti da smartphone sono sempre più in crescita anche in Italia, tanto che i consumatori italiani si pongono in cima alla classifica europea dello shopping da smartphone secondo lo studio di Eurisko e MasterCard “Connected Consumer”, da cui emerge che il 47% del totale dei consumatori italiani preferisce lo smartphone come strumento per i propri acquisti quotidiani superando le media dei cittadini europei (il cui dato si ferma al 33%). Nel 2019 il ruolo del Mobile Payment si è consolidato ancor di più come traino dei pagamenti digitali e nei prossimi anni l’arrivo di nuovi servizi innovativi porterà a un ulteriore crescita di questi numeri: se pagamenti da smartwatch e fitness tracker sono già realtà, in futuro avremo nuove possibilità di pagare tramite oggetti connessi, Smart Car e Voice Assistant.

Il 2019 è stato un anno di svolta a livello globale per il sistema dei pagamenti, soprattutto in Europa: la PSD2 e l’Open API portano infatti all’ingresso di nuovi attori nel mercato, alla nascita di nuovi servizi per il cliente e a nuovi equilibri e modalità di operare nel mercato dei pagamenti. Ma quali sono le novità che le big tech hanno annunciato per il 2020?

Whatsapp Pay

Whastapp Pay è in poche parole una combinazione di Messenger e un sistema di pagamento che Facebook sta testando in India da ormai un anno su quasi 1 milione di utenti. Uno dei principali fattori del successo di Whatsapp Pay sembra essere proprio la sua semplicità e facilità d’uso: “Facile e veloce come inviare un’immagine”. Chiunque infatti abbia un account verificato può utilizzare il pagamento WhatsApp e associare un conto corrente o una carta di credito per effettuare transazioni locali e online, offrendo anche una funzione per scambiare denaro direttamente tra privati.

Dal test in India al lancio globale

Le normative indiane sulla localizzazione dei dati hanno causato un ritardo nel lancio della struttura di pagamenti di WhatsApp. Nonostante la situazione di stallo, il CEO di Facebook Mark Zuckerberg è ottimista sull’espansione del nuovo sistema di pagamento: WhatsApp Pay, come viene chiamato in modo non ufficiale, verrà infatti implementato in altri paesi fuori nei prossimi sei mesi, in India invece Zuckerberg prevede di raggiungere gli oltre 400 milioni di utenti, comprese le piccole e medie imprese.

“Avere successo nelle piccole imprese non è solo la chiave per creare un’ampia crescita economica in cui tutti possano sostenere se stessi, ma è anche importante mantenere comunità sane poiché le piccole imprese sono spesso il luogo in cui le persone si incontrano”, ha affermato Zuckerberg.

La risposta di un milione di utenti che hanno partecipato al programma pilota in India è stato il fattore decisivo per Facebook per introdurre WhatsApp Pay in altri mercati. Zuckerberg ha affermato che lo slancio del programma pilota ha concretizzato il futuro del servizio. Tuttavia, non ha detto quali mercati saranno scelti per l’implementazione, che presenterà quasi sicuramente degli ostacoli come accade attualmente in India.

Amazon: pagamenti con scansione manuale

Secondo quanto riportato dal Wall Street Journal, Amazon starebbe sviluppando un nuovo sistema di pagamento che consente ai clienti di pagare semplicemente agitando la mano. Il gigante della vendita al dettaglio online sta testando scanner che utilizzano la tecnologia biometrica per identificare le persone in base alla forma e alle dimensioni delle loro mani, con la speranza di distribuirle nei negozi Whole Foods entro la fine dell’anno. I sensori sono già stati testati dai lavoratori di Amazon sui distributori automatici negli uffici di New York dell’azienda, secondo il New York Post.

Il cosiddetto sistema Orville è diverso dagli altri scanner biometrici attualmente utilizzati sugli smartphone, che utilizzano scanner di impronte digitali integrati per confermare i pagamenti. Utilizzando la visione artificiale, la tecnologia di Amazon è in grado di riconoscere una mano senza che gli utenti debbano toccare fisicamente lo scanner. Attualmente è in grado di farlo con un’accuratezza del decimilionesimo dell’1%, sebbene Amazon speri di migliorarlo al milionesimo dell’uno percento. Collegando i dati biometrici alla carta di credito o debito di una persona, i clienti saranno in grado di passare senza problemi attraverso i pagamenti alla cassa, contribuendo a ridurre le code dei supermercati. Solo le persone con account Amazon Prime potranno usarlo per cominciare, poiché i loro dati di pagamento sono già memorizzati da Amazon.

WeChat: portale all inclusive

L’annuncio di WhatsApp Pay ci porta inevitabilmente a pensare alla sua omologa cinese WeChat, l’applicazione di Tencent nata come app per la messaggistica e trasformata in piattaforma per il business a 360 gradi. Oggi attraverso WeChat è possibile non solo scambiare denaro tra privati in modalità peer-to-peer, ma anche effettuare transazioni finanziarie utente-aziende. Nel concreto i cittadini cinesi sono abituati a usare WeChat per pagare le bollette, i biglietti del treno, le multe, gli acquisti online e anche il ristorante.

WeChat è probabilmente il sogno proibito di qualsiasi Big Tech: da Facebook ad Amazon fa sicuramente gola l’idea che da un’unica app si possa far transitare l’intera vita digitale di un utente e allo stesso tempo digitalizzare anche pratiche “analogiche” come l’acquisto di qualsiasi prodotto e servizio, la richiesta di certificati al Comune, l’acquisto di musica, film o il mantenersi informati. WeChat è in poche parole un insieme di servizi: un po’ WhatsApp, un po’ Telegram, un po’ TikTok, un po’ Spotify, un po’ Uber, un po’ Glovo, un po’ borsellino digitale; Un esempio che sia Zuckerberg sia Bezos pare vogliano seguire fino in fondo.

La crescita di TikTok

Parlando di social network, il 2019 è stato sicuramente l’anno di TikTok. Se fino ad un anno fa erano in pochi a conoscerlo, con il passare dei mesi il social è entrato ufficialmente nella vita di molti utenti, se non come fruitori diretti, quasi certamente come argomento degno di attenzione e, perché no, di approfondimento. Come è accaduto a suo tempo per Facebook e per Instagram, in molti tendono a considerare TikTok un semplice passatempo per adolescenti o l’ennesimo social di puro intrattenimento, oggi però la storia sembra ripetersi e come per Facebook ed Instagram, anche TikTok lascia intravedere interessanti opportunità di business

Un po’ di numeri

Scaricato oltre 738 milioni di volte, TikTok ha incassato quasi $ 177 milioni in tutto il mondo, secondo Sensor Tower ed è stata a livello globale la seconda app più scaricata nel 2019, entrando ufficialmente nella classifica delle app più scaricate del decennio appena concluso secondo Forbes. Anche in Italia i dati che riguardano l’app cinese sono eccezionali: in soli tre mesi, da settembre a novembre, TikTok ha triplicato la propria audience passando da 2,1 milioni di utenti unici a 6,4 milioni, come rivela ComScore, segnando un incremento record del +202%, la più alta crescita nel panorama internet italiano. Una crescita che si rileva non solo sul target dei più giovani (dai 13 ai 20 anni), ma su tutti i segmenti demografici, dove la fascia d’età 25-34 segna un incremento del 258% e quella dei 35+ del 201%. Anche in termini di engagement i dati sono altrettanto marcati, considerando ad esempio il tempo speso sulla piattaforma in crescita del 75%, tanto da permettere a TikTok di collocarsi in settima posizione nella Top 10 property Italiane per tempo speso subito dopo Netflix. In più secondo il GlobalWebIndex, oltre il 60% degli utenti su TikTok ha visto e interagito almeno una volta con video di altri utenti ed almeno il 55% avrebbe caricato un video. I dati quindi parlano chiaro: TikTok coinvolge sempre più audience ed è proprio questo che lo rende interessante per aziende ed esperti di marketing.

Come nasce TikTok e cosa si può fare?

La versione cinese di TikTok conosciuta col nome di Douyin esiste dal 2016, ma nel novembre 2017 l’azienda cinese ByteDance, sviluppatrice dell’aggregatore di notizie Toutiao, ha acquistato musical.ly (app di video sharing lanciata nel 2015 da una startup di Shanghai) per circa 750 milioni di euro e l’anno successivo, il 2 agosto 2018, ByteDance ha unito con un aggiornamento le due piattaforme per allargare la base utenti, mantenendo TikTok come nome della applicazione. Descrivendolo in poche parole, TikTok è un social media che permette di costruire e condividere microvideo di 15 o 60 secondi, in cui gli utenti possono sfidarsi con le “challenge”, ballare, registrare short speech e comedy o postare animali, hobby, tutorial e passioni. Velocità, filtri, effetti e suoni da curare nel dettaglio fanno il resto, rendendo TikTok un insieme di community creative, dove i 50 migliori creators (anche detti TikToker hanno più follower delle popolazioni di Messico, Canada, Regno Unito, Australia e Stati Uniti messe insieme. 

Demographics: chi sono gli utenti di TikTok:

La possibilità di realizzare brevi video personalizzabili con maschere di realtà aumentata, sticker, animazioni e transizione, rende TikTok il social media adatto alla generazione Z, sempre più predisposta ad utilizzare sistemi digitali complessi in modo semplice e veloce. Tuttavia è significativo sottolineare che il 59% degli utenti di TikTok ha più di 24 anni, per fare un paragone, su Instagram sono circa al 63%, mentre su Facebook al 75%; quindi sì, giovani, ma non poi troppo. Altrettanto significativo è il 65% degli utenti rappresentato da un pubblico di donne.

I primi brand su TikTok

Nei mesi scorsi la piattaforma ha cominciato a popolarsi di professionisti e di contenuti di qualità, sono infatti diversi i brand che hanno mosso i primi passi sul nuovo social network che, come ogni canale, porta con sé strategie e tipologie di monetizzazione nuove. I primissimi brand ad utilizzarla come inserzionisti sono stati Sony e RedBull, quest’ultimo in particolare con l’introduzione dell’hashtag #GivesYouWings. Ma anche Guess con #InMyDenim, Calvin Klein, Ralph Lauren, Coca Cola, Starbucks o il marchio di abbigliamento femminile Ivory Ella che dall’autunno scorso ha pubblicizzato su TikTok i suoi capi con una combinazione di contenuti orientati ai creatori e contenuti incentrati sulla merce. Il risultato? TikTok è diventato il principale referrer di traffico per l’azienda di abbigliamento.

Cosa sappiamo finora di Advertising su TikTok

Dopo una fase iniziale di crescita in cui a circolare erano unicamente contenuti di tipo organico, TikTok ha di recente iniziato a fornire vere e proprie soluzioni pubblicitarie, per ora in versione beta ma presto disponibili per tutti gli inserzionisti. TikTok infatti vuole crescere e difficilmente lascerebbe soldi sul tavolo impedendo alle aziende di fare campagne adv. Il modello di annunci self-service, introdotto lo scorso autunno ha comunque ottenuto ottimi voti dagli inserzionisti, che lo valutano relativamente facile e con interessanti risultati in termini di engagement. A mancare sarebbe tuttavia un targeting strutturato e un’API per gli acquisti automatizzati, oltre al fatto che nel complesso TikTok offre metriche ancora ridotte rispetto a piattaforme più mature come Facebook Ads o Google Ads. Ad oggi, le inserzioni su TikTok sono proposte come video interstiziali nella sezione “Per te”, il feed con i contenuti suggeriti dall’algoritmo sulla base del comportamento all’interno della piattaforma. Si tratta quindi di brevi filmati da 5 a 15 secondi, con una CTA che può rimandare a una landing page esterna, un app store o a una hashtag challenge. Un altro ad product in corso di sperimentazione è il cosiddetto “Brand Takeover”, un’immagine o video con CTA che appare non appena l’utente apre l’app, si tratterebbe però di un formato premium esclusivo. 
Nella dashboard di TikTok Ads è possibile scegliere l’obiettivo della campagna e al momento comprende le tre opzioni: Traffico, Conversioni e Installazione app ed è possibile quindi impostare il budget della campagna sia giornaliero che totale.

Il passaggio successivo è creare un gruppo di annunci per la campagna e scegliere posizionamenti e targeting. Una delle funzionalità più utili della dashboard di TikTok Ads è che consente di selezionare le piattaforme esatte su cui si desidera pubblicare gli annunci, questi includono non solo TikTok ma anche tutta la “famiglia” di app come Vigo Video (solo India), BuzzVideo, News Republic e altri. Esiste poi anche un’opzione per i posizionamenti automatici, in cui TikTok determina dove l’annuncio avrebbe il rendimento migliore e lo posiziona lì.

TikTok oggi si avvale di un sistema di intelligenza artificiale per analizzare il video e definirne il successo tra gli utenti, probabilmente basandosi su engagement e tempo di visualizzazione. L’AI propone quindi i video sulla base di quelli che ritiene essere gli interessi dell’utente, permettendo così di incrementare la visibilità dei contenuti. La piattaforma di advertising di TikTok offre opzioni di targeting basate su diversi fattori come:

  • Età
  • Localizzazione
  • Genere
  • Sistema operativo
  • Connessione
  • Interessi
  • Comportamenti
  • Pixel Tracking
  • Custom Audience

Per le pubblicità video, i modelli di revenue conteggiati attualmente sono:

  • CPC (cost per click)
  • CPM
  • CPV (cost per view (6 secondi).

Per la creazione degli annunci invece il processo è abbastanza semplice: gli annunci TikTok possono essere video e immagini orizzontali, verticali o quadrate. La cosa migliore della piattaforma pubblicitaria è uno strumento chiamato Video Creation Kit, che fornisce modelli di video e immagini personalizzati utilizzando le immagini esistenti. Viene inoltre offerta la possibilità di scegliere tra oltre 300 opzioni per la musica di sottofondo gratuita.

Per concludere…

Sicuramente nel 2019 TikTok ha rappresentato un’interessante novità nel mondo del Marketing e le potenzialità per il 2020 sono molto promettenti. Viste le caratteristiche e i trend, la piattaforma appare particolarmente appetibile per aziende e marketers che si rivolgono a target specifici, soprattutto mercati di tendenza e giovani, come il settore fashion, gaming, sport, cosmetica, etc.). C’è ancora molto lavoro da fare nella piattaforma ads di TikTok, soprattutto a confronto con Google Ads e Facebook Ads, ma visti i numeri è evidente che sia solo questione di tempo.

Google blocca i cookies di terze parti

La scorsa settimana Google ha annunciato un enorme cambiamento nel modo in cui gestisce i cookie, quei tracker digitali  che vengono salvati automaticamente sul browser da un sito internet durante una visita, utili sia per migliorare l’esperienza dell’utente durante la navigazione in Rete, ma anche agli inserzionisti per pubblicare annunci mirati. Il colosso della ricerca, ha quindi annunciato che smetterà di supportare i cookie di terze parti nel suo onnipresente browser Chrome, scommettendo che il suo Sandbox sulla privacy (l’API per la tutela della privacy presentata per la prima volta ad agosto) nei prossimi due anni svilupperà funzionalità che andranno a sostituire i cookie di terze parti. La notizia arriva direttamente da Mountain View con Justin Schuh, direttore di Chrome Engineering, che nel post della scorsa settimana scrive:

“Gli utenti richiedono una maggiore privacy, tra cui trasparenza, scelta e controllo sul modo in cui i loro dati vengono utilizzati, ed è chiaro che l’ecosistema Web deve evolversi per soddisfare queste crescenti esigenze”,.

I motivi della scelta di Google

Google sta sicuramente compiendo un passo significativo rispetto al data mining sfrenato degli ultimi anni, certo è che dopo essere stato il pioniere e aver protetto un’apparente invasione della privacy, è lecito chiedersi se potrà davvero vendere il proprio browser ai consumatori come servizio che privilegia la privacy. Google quantomeno ci proverà e questo per due principali motivi: la crescente pressione normativa e la richiesta stessa da parte degli utenti di maggiore privacy, percepita sempre più urgente, tanto da aver spinto gli altri produttori di browser ad abbracciare la privacy come un vantaggio competitivo. Apple Inc. ha aggiunto restrizioni sui cookie a Safari diversi anni fa. Microsoft Corp. ha creato una serie di meccanismi di prevenzione del monitoraggio nel suo browser Edge, di cui in questi giorni è stata lanciata la nuova versione e Mozilla Corp. ha reso gli strumenti per la privacy a pagamento un punto di forza del suo servizio Firefox.

Cos’è la Privacy Sandbox e come funziona?

In concreto Google vuole inglobare la gestione dei cookie all’interno di un Privacy Sandbox, ovvero una nuova area all’interno della quale ogni utente avrà la possibilità di gestire i propri dati personali online. Questo si tradurrebbe con la fine dei cookie di terze parti, che non verranno più memorizzati e rimarranno nel device senza essere condivisi. L’iniziativa di Google Privacy Sandbox, partirà dal mese di febbraio 2020, iniziando a richiedere ai cookie di terze parti il rispetto di specifiche caratteristiche legate alla privacy degli utenti, proseguendo poi con la limitazione nell’uso della stringa “user agent”, contentente delle informazioni relative ai client che si connettono a un sito Web. Verrà invece utilizzato un meccanismo denominato Client Hints, per cui i portali potranno comunque accedere ad alcuni dettagli di base, senza però ricavare tutte le informazioni di tracciamento attuali, limitando al minimo indispensabile le informazioni condivise. Da un lato quindi Google contrasterà le tecniche di fingerprinting atte a tracciare le attività online per ricostruire nel modo più preciso possibile interessi e abitudini degli utenti, dall’altro permetterà agli utenti stessi di avere maggiori possibilità per gestire i dati che vengono condivisi online.

Ma quali sono le conseguenze per gli inserzionisti?

La mossa di Google appare però azzardata e rischia di compromettere le relazioni con inserzionisti ed editori, un vero tsunami per il mondo del marketing, dove la profilazione attraverso i cookie è spesso uno strumento essenziale per le strategie online. Google è però ben consapevole di non poter correre questo rischio e promette che l’iniziativa ridurrà il monitoraggio improprio, pur continuando a consentire il targeting degli annunci. In un futuro senza cookies, Google vorrebbe infatti che il targeting degli annunci, la misurazione e la prevenzione delle frodi avvengano secondo gli standard stabiliti dal suo Sandbox sulla privacy, in base al quale i cookie saranno sostituiti da cinque interfacce di programmazione dell’applicazione. Gli inserzionisti useranno ciascuna API per ricevere dati aggregati su problemi come la conversione (il rendimento degli annunci) e l’attribuzione (quale entità viene accreditata, ad esempio, per un acquisto). Privacy Sandbox rappresenta quindi un percorso alternativo che Google sta fornendo all’industria pubblicitaria, basandosi su segnali anonimi (che non sono cookie) all’interno del browser Chrome di una persona, per trarre profitto dalle abitudini di navigazione dell’utente.

“Le due aree in cui anticiperemo il maggior cambiamento sono l’aumento del valore dei dati proprietari sia per gli inserzionisti che per gli editori, nonché un aumento della scarsità di dati sul pubblico di terzi provenienti da broker e partner di dati che non hanno una relazione diretta con gli utenti ” ha affermato Paul Cuckoo, responsabile dell’analisi mondiale di PHD Media.

Cosa sappiamo delle API di Google

L’iniziativa Privacy Sandbox è ancora agli inizi, quindi mentre Google ha proposto molte funzionalità, non esiste una piattaforma o un codice reale che gli esperti di marketing possono valutare correttamente. Ecco quindi cosa sappiamo finora di ciascuna API: 

  • La Trust API è l’alternativa di Google a CAPTCHA: chiederà solo una volta ad un utente di Chrome di compilare un programma simile a CAPTCHA e fare poi affidamento su “trust token” anonimi per dimostrare in futuro che l’utente è un essere umano reale.
  • La Privacy budget API limiterà invece la quantità di dati che i siti Web possono ricavare dalle API di Google assegnando a ciascuno un “budget”.
  • L’ API di Google per la misurazione delle conversioni alternativa ai cookie informerà un inserzionista se un utente ha visualizzato il suo annuncio e alla fine ha acquistato il prodotto o se è atterrato sulla pagina promossa.
  • Il Federated Learning farà affidamento sul machine learning per studiare le abitudini di navigazione di gruppi di utenti simili.
  • Infine PIGIN (private interest groups, including noise), consentirà a ciascun browser Chrome di tenere traccia di una serie di gruppi di interessi a cui si pensa appartenga l’utente.

Gli obiettivi di Google 

Google ha affermato che è aperto a collaborare con entrambe le parti, ovvero sia con inserzionisti e sia con utenti di Chrome per assicurarsi che il suo Sandbox sulla privacy vada a vantaggio di tutte le parti interessate del settore e non solo dei suoi profitti. La società sta cercando feedback sui dubbi circa le tipologie di informazioni raccolte sugli utenti e approfondimenti sul modo migliore per consentire agli stessi di vedere quali dati vengono raccolti su di loro, nonché un feedback generale su ciascuna delle API proposte. L’obiettivo finale di questo intero processo è trasformare le API in standard web aperti che teoricamente potrebbero essere adottati dai fornitori di altri browser come Safari e Mozilla. Finora, l’organizzazione di standard World Wide Web Consortium è stata coinvolta nello sviluppo di Privacy Sandbox, portando alcuni operatori del settore a credere che potrebbe aprire la strada affinché le cinque API diventino coerenti in tutti i browser.

Non è ancora certo ciò che accadrà precisamente in futuro, per il momento sembra configurarsi un web in cui i grandi player cominciano per primi a mettere dei paletti per quanto riguarda la profilazione degli utenti, c’è da chiedersi però quanto queste mosse siano eticamente o strategicamente motivate.

Scenario di veicoli a guida autonoma su strada

Le auto completamente autonome potrebbero non arrivare molto presto, ma probabilmente trarremo tutti beneficio dalla tecnologia di guida autonoma mentre aspettiamo. Tra articoli appassionanti e tweet audaci è probabile che anche tu, come molti di noi, abbia pensato che i veicoli completamente autonomi fossero dietro l’angolo, pronti ad inaugurare l’alba di un futuro privo di incidenti e ingorghi stradali. Purtroppo, preparati alla delusione. Un decennio di ingenti investimenti nella tecnologia robocar ha generato notevoli progressi, eppure l’arrivo di un’auto veramente senza conducente che può andare ovunque, in qualsiasi momento e senza aiuto umano, rimane ritardato indefinitamente. 

Nonostante l’affermazione sicura di Elon Musk secondo cui Tesla sarebbe in grado di implementare nei suoi veicoli la capacità di “guida autonoma” entro la fine del 2020, il mondo appare ancora troppo diversificato e imprevedibile e i robot troppo costosi e inaffidabili perché le auto possano gestire tutte le variabili che ad oggi affrontano i conducenti umani.

Anche John Krafcik, CEO di Waymo (la grown-up a cui è affidato il progetto di auto a guida autonoma di Google), è d’accordo e a tal proposito ha anche dichiarato l’anno scorso che “l’autonomia avrà sempre alcuni vincoli”. Tale realtà ha spinto i team di AV (autonomous vehicles) ad abbracciare un “design operativo”, puntando con la loro tecnologia ad assolvere quei compiti specifici che possono essere gestiti ora o presto.

Intanto ci chiediamo, le auto a guida autonoma sono sicure per le nostre città? In teoria potrebbero salvare migliaia di vite all’anno, ma è opportuno testarli sulle nostre strade pubbliche? E in definitiva, le auto autonome possono guidare meglio degli umani?

Quali sono i vantaggi?

Il più grande vantaggio in termini di sicurezza di un veicolo autonomo è che in quanto robot e non essere umano, un AV è programmato per obbedire a tutte le regole della strada. In sostanza non supera i limiti di velocità consentiti o non può essere distratto da un messaggio di testo che lampeggia su un telefono, per esempio e, almeno ipoteticamente, può anche rilevare ciò che gli umani non riescono a percepire, specialmente di notte o in condizioni di scarsa illuminazione e reagire più rapidamente per evitare una collisione.

Gli AV infatti sono carichi di sensori e software che lavorando insieme creano il quadro completo della strada, in questo senso, la tecnologia chiave è LIDAR, ovvero un “sensore di rilevamento e raggio di luce” che funziona in modo molto simile al radar, ma invece di inviare onde radio emette impulsi di luce infrarossa e misura quanto tempo questi impiegano a tornare dopo aver colpito gli oggetti vicini. Quest’operazione viene svolta milioni di volte al secondo, e permette di compilare i risultati in una cosiddetta “nuvola di punti”, che funziona come una mappa tridimensionale del mondo in tempo reale, una mappa così dettagliata da poter essere utilizzata non solo per individuare oggetti ma per identificarli. Una volta in grado di identificare gli oggetti, il computer dell’auto può prevedere come si comporteranno e quindi come dovrebbe guidare il veicolo.

Oltre a LIDAR, i sensori radar possono misurare le dimensioni e la velocità degli oggetti in movimento e le telecamere ad alta definizione possono effettivamente leggere qualsiasi segnale. Mentre l’auto viaggia, fa riferimento a tutti questi dati e la tecnologia GPS colloca il veicolo all’interno di una città, permettendo così di pianificare il suo percorso. Oltre ai sensori e alle mappe, gli AV eseguono programmi software che prendono decisioni in tempo reale su come la macchina navigherà rispetto ad altri veicoli, esseri umani o oggetti sulla strada.

L’etica

Qui la questione sfiora l’ambito dell’etica, poiché gli ingegneri possono sicuramente guidare le auto attraverso simulazioni, ma il software deve anche imparare a “prendere decisioni” nelle situazioni di guida reali. Ecco perché i test nel mondo reale e su strade pubbliche sono così importanti.

Considerando che circa il 94% degli incidenti è causato da errori umani, sembra quasi ovvio che per ridurre il numero di incidenti serva proprio ridurre il numero di esseri umani al volante.

Tuttavia non è solo il numero di conducenti umani che potrebbe essere ridotto notevolmente, ma anche il numero stesso di auto sulle strade ed è per questo che università e amministrazioni pubbliche, oltre alle compagnie private, sono interessate ai veicoli autonomi. La vera promessa di sicurezza è di fatto la possibilità che questi veicoli possano essere convocati su richiesta, instradati in modo più efficiente e facilmente condivisi, il che significa che non solo il numero complessivo di autovetture su strada diminuirebbe, ma che grazie a sistemi di “microtransito” vi sarebbe un minor numero di persone in auto e più persone che viaggiano in modi più sicuri grazie al trasporto pubblico.

I veicoli Tesla hanno già inserita la funzione Tesla Autopilot, un’avanzata funzionalità di assistenza alla guida che comprende il centraggio della corsia, il controllo adattivo della velocità, l’auto-parcheggio, la possibilità di cambiare automaticamente corsia e la capacità di comandare l’auto da e verso un garage o un parcheggio.

Il caso Uber

Tuttavia dopo che un veicolo a guida autonoma di Uber ha colpito e ucciso la 49enne Elaine Herzberg, che stava attraversando la strada con la sua bici a Tempe, in Arizona, il 18 marzo 2018, ci sono più domande che mai sulla sicurezza di questo tecnologia. Secondo un rapporto di maggio 2018 di The Information, il veicolo di Uber avrebbe rilevato la dona 6 secondi prima del suo fatale incidente, eppure “il software di Uber ha deciso che non era necessario reagire immediatamente” ed ha frenato solo a 1,3 secondi prima dell’impatto. Fatto confermato anche dal rapporto preliminare del National Transportation Safety Board (NTSB). Nonostante tutto, i pubblici ministeri dell’Arizona non hanno accusato Uber, poiché “non esiste alcuna base di responsabilità penale per la società Uber derivante da questa questione”, anche se ”un guidatore in questo caso avrebbe potuto reagire e fermare il veicolo 42,61 piedi prima del pedone”, si legge nel rapporto, che definisce l’incidente “del tutto evitabile”.

Per evitare conseguenze gravi di questo tipo, molte aziende sottopongono i loro veicoli a test su strade simulate di città. Molte case automobilistiche tradizionali usano una struttura chiamata M City ad Ann Arbor, nel Michigan, oppure come accade per le più grandi compagnie, ognuna di esse utilizza città ricostruite ad hoc per testare le interazioni con gli umani che non sono nei veicoli. La finta città di Waymo, chiamata Castle, ha persino un capannone pieno di oggetti di scena, che potrebbero essere usati dalle persone sulle strade, in modo tale che gli ingegneri di Waymo possano imparare ad identificarli. Dopo il fatale incidente di Uber, anche Toyota ha costruito una nuova struttura per testare le risposte dei suoi veicoli a “casi limite” e situazioni estreme troppo pericolose per essere testate sulle strade pubbliche.

La struttura M City in cui vengono testati molti veicoli a guida autonoma

La tecnologia già in uso

Se oggi solo i residenti di poche città possono chiamare un AV su richiesta, la verità è che gran parte della tecnologia di sicurezza che alimenta le auto a guida autonoma si sta facendo strada nelle auto di oggi. I sofisticati sistemi di prevenzione delle collisioni, ad esempio, che possono fermare un veicolo se un oggetto o una persona vengono rilevati sul suo percorso, sono già incorporati nelle nuove auto e anche nei nuovi autobus. Tuttavia, se fino a poco tempo fa, tutti gli standard di sicurezza erano basati su dati storici degli incidenti, monitorati per anni e anni, ora la tecnologia sta avanzando così rapidamente che non c’è abbastanza tempo per testare ogni nuova idea per un decennio e per questo, potrebbero già diventare standard su tutti i veicoli, quelle caratteristiche che appaiono come un chiaro vantaggio in termini di sicurezza come la comunicazione veicolo-veicolo (V2V). 

Una navetta autonoma per 8 persone di Navya percorre una rotta a una velocità di circa 30 km/h in città come Las Vegas

Ad oggi il modo migliore per capire il mondo del self-driving è non tanto interrogarsi su quando arriverà, ma dove, come e per chi verrà sviluppato. Ecco quindi alcuni esempi concreti:

Navette Driver-free: vere e proprie navette a guida autonoma che circolano per i tratti più affollati dei centri urbani e già presenti in città come Detroit e Columbus, Ohio. Unico trucco: i percorsi sono estremamente limitati, in genere solo pochi chilometri e talvolta viene affiancato un autista umano con il ruolo di supervisore della tecnologia.

  • Quando sarà pronto: Probabilmente nei prossimi anni
  • Key playerMay Mobility , Ultra Global PRT

Utilitarie e piccoli veicoli per Campus: spazi definiti come università, quartieri residenziali e strutture abitative per anziani sono il terreno di prova ideale per gli AV: il traffico si muove lentamente, le persone seguono orari prevedibili e le strade sono ben segnalate. Ecco perché alcune aziende stanno debuttando in suddivisioni a Boston, in California e Florida.

  • Quando sarà pronto: i programmi pilota sono già in fase di sviluppo
  • Key playerOptimus Ride , Voyage

Robotaxis: saranno la soluzione su cui la maggior parte delle persone probabilmente si imbatterà, un po’ come Uber, ma senza i guidatori di Uber, queste auto ti porteranno in giro in una città o in un quartiere, con alcune restrizioni.

Droidi di consegna: siti e-commerce e Amazon Prime stesso hanno creato un sistema mostruosamente inefficiente in cui camion rumorosi e sporchi sono sempre presenti anche nelle strade residenziali più silenziose. Piccoli veicoli elettrici autonomi, che navigano per strada o sul marciapiede, potrebbero essere la risposta, portando generi alimentari, pasti e pacchetti a portata di mano.

Almeno per il prossimo futuro quindi, i veicoli completamente autonomi dovranno ancora fare i conti con gli errori dei conducenti umani, ma è chiaro che per rendere veramente la tecnologia di guida autonoma il più sicura possibile, tutti i veicoli su strada dovrebbero essere completamente autonomi e quindi non solo programmati per obbedire alle regole della strada, ma anche per comunicare tra loro e prendere decisioni “umanamente corrette” in qualsiasi situazione reale.

I Pop-up funzionano?

Le pubblicità pop-up hanno una brutta reputazione: sono fastidiose, invasive e fonte di distrazione. Eppure, non dovrebbero esserlo. Infatti, questa tipologia di advertising può funzionare molto meglio se usati in modo tale che i pop-up catturino l’interesse del pubblico, migliorandone la user experience.

Innanzitutto, in risposta alla domanda in apertura del seguente articolo, ti confermo che i pop-up funzionano e a dirlo sono i dati: su oltre 2 miliardi di pop-up analizzati da Sumo, emerge un conversion rate medio del 3,09%, dove il migliore raggiunge un CR del 9,28%. Per comprendere meglio questi dati, basta pensare che su 100 visitatori al giorno, un pop-up di subscription alla newsletter potrebbe portare tra i 92 e i 274 nuovi iscritti ogni mese. Anche Aweber ha verificato che il semplice passaggio da un modulo di attivazione in una qualsiasi sezione del sito, ad un pop-up di subscription, ha aumentato gli abbonamenti del 1.375%.

Quindi, perché i pop-up funzionano se così tante persone non li sopportano? Ecco 4 buoni motivi:

  1. I pop-up vengono mostrati a tutti:  il fenomeno del banner blindness è sempre più evidente e i pop-up, che devono essere visti per poter essere chiusi, detengono una percentuale di visualizzazione del 100%. Anche se un tasso di conversione del 3% potrebbe non sembrare così performante, il 3% dei visitatori diventa significativo se considerato in un periodo di tempo mediamente lungo.
  2. I pop-up intercettano visitatori interessati e coinvolti: i pop-up ben implementati rappresentano uno stimolo proprio nel momento in cui è più probabile che i visitatori facciano clic.
  3. I pop-up offrono valore, davvero! Se usati in modo pertinente e corretto, essi forniscono valore agli utenti che saranno più propensi ad approfittare dell’offerta ricevuta e quindi a procedere alla conversione o all’invio del proprio contatto, per esempio.
  4. I pop-up non possono essere ignorati: a differenza di moduli nella sidebar o nel footer, il pop-up viene (per definizione) visualizzato. I visitatori non possono fare a meno di leggere il messaggio o la proposta di valore quando questa si apre sul loro schermo. Anche se lo chiudono, il messaggio è comunque stato comunicato.

Ovviamente i pop-up funzionano meglio quando non infastidiscono i visitatori del sito web, ecco quindi alcune best practice per lo sviluppo di pop-up efficaci:

  • Rendere ben visibile l’opzione di uscita 
  • Offrire contenuti o promozioni pertinenti alla pagina in cui si trovano gli utenti
  • Accertarsi che il valore offerto (ebook, sconto, ecc.) sia ben evidente 
  • Tempismo: mostrare i popup solo quando i visitatori o lettori sono pronti a vederli
  • Usare personalità e creatività per impedire alle persone di nasconderli immediatamente

Questi invece sono alcuni esempi:

Il primo modo innovativo ed efficace per utilizzare i pop-up è nascondere il modulo sulla pagina di destinazione. Pat Flynn per uno dei suoi recenti ebook ha fatto sì che il modulo di contatti comparisse solo in seguito al clic sul pulsante “download”. Questo metodo è efficace perché quelli che possiamo definire clic-trigger pop-up convertono fino a 12 volte meglio.

Il pop-up di sconto o che comunica una promozione è proprio la tipologia di pop-up che, paradossalmente, sarebbe fastidioso non avere nel proprio sito. In definitiva, questo pop-up è efficace perché offre un valore rilevante proprio quando lo desidera il visitatore del sito. Il 10% di sconto sulla maggior parte dei prodotti per esempio, predispone l’utente a voler spontaneamente lasciare il proprio indirizzo email, perché vantaggioso. 

Offrire un aggiornamento del contenuto, un ebook o un contenuto esclusivo è incredibilmente importante, perché gli utenti nel momento in cui compare il pop-up, stanno probabilmente scorrendo la pagina o leggendo un contenuto di loro interesse, quindi per catturarne davvero l’attenzione è necessario saper loro offrire un valore tale per cui l’interruzione non è percepita come dannosa, ma anzi come vantaggiosa. 

Il 92% dei visitatori di un sito Web non è ancora pronto per l’acquisto, come sostiene uno studio di Cision ma ciò non significa che non siano interessati a saperne di più. Chiedere una chat per discutere dei costi / benefici è un ottimo modo per utilizzare un pop-up e questo è uno dei pochi casi di utilizzo del pop-up con intento di uscita che colpisce davvero e che funziona solo come pop-up di uscita, poiché si comunica il desiderio di dedicare alle persone tutto il tempo necessario per assisterli.

Ricordare ai visitatori un’offerta limitata nel tempo significa aggiungere urgenza a promozioni, affari o vendite che possono avere un’enorme influenza sul loro successo, stimato fino al 332%. E i pop-up (specialmente sotto forma di intestazione a scorrimento o barre di attivazione), sono il modo migliore per aggiungere quell’urgenza. I timer per il conto alla rovescia, incorporati nelle barre di scorrimento delle intestazioni o dei footer, non interrompono la capacità del visitatore di interagire con il sito Web, tuttavia ricordano semplicemente loro che ciò che stai offrendo non sarà presente per sempre e dovranno approfittarne quanto prima per non perderlo per sempre.

Statisticamente, una media del 69,57% di tutti i carrelli di e-commerce viene abbandonato. È quindi necessario fare tutto il possibile per convincere i potenziali acquirenti a rimanere nella pagina di pagamento. Un pop-up che richiede una chiamata risolve i motivi principali dell’abbandono, di seguito i più frequenti:

  • Costi extra imprevisti.
  • Richiesta obbligatoria di creazione di un account.
  • Procedura di pagamento troppo lunga / troppo complicata.
  • Impossibile visualizzare o calcolare il costo totale dell’ordine in anticipo.
  • Mancanza di fiducia verso il sito rispetto alle proprie informazioni personali.
  • Errori nel sito web o sito bloccato.
  • La consegna è troppo lenta.
  • La politica di rimborso non è soddisfacente.
  • Non ci sono abbastanza metodi di pagamento.
  • La carta di credito è stata rifiutata.

L’aggiunta di un pop-up con intento di uscita che richiede una chiamata risolve molti di questi casi (checkout complicato, affidabilità, costi totali, errori del sito Web, metodi di pagamento, ecc.), poiché fornisce all’utente la possibilità di chiarire i propri dubbi attraverso una modalità percepita come più sicura e reale.

In sintesi, ecco i 6 modi sorprendentemente efficaci che è possibile utilizzare nella realizzazione di pop-up realmente performanti:

  1. Nascondi il modulo sulla pagina di destinazione
  2. Offri uno sconto per il primo acquisto
  3. Offri un aggiornamento del contenuto, un ebook o un contenuto esclusivo
  4. Fornisci assistenza all’utente con una chat
  5. Ricorda ai visitatori un’offerta limitata nel tempo
  6. Combatti l’abbandono del carrello offrendo la possibilità di chiarire con una chiamata i dubbi dell’utente

Mettili alla prova, ottimizzali, prova un singolo caso d’uso e abbandonali, ma non trascurarli, perché rappresentano un’ottima ed efficiente strategia per far crescere l’attività.

Il termine Deepfake è diventato virale solo negli ultimi mesi, ma in realtà l’uso del termine risale già a qualche anno fa, quando nel dicembre 2017 comparve per la prima volta un video in cui il volto dell’attrice di Wonder Woman Gal Gadot era stato sostituito a quello di un’attrice porno attraverso la tecnica del Generative Adversarial Networks (GAN). Le Reti Generative Avversarie risultano infatti efficaci nella creazione di immagini inedite a partire da un input che viene loro fornito. Un esempio ben noto è la rete Condogonale Generativa Avversaria (cGAN) di pix2pix e creata dall’Università della California per determinare una mappatura da un’immagine di input e generare un’immagine di output. A condividere il video nel 2017 fu un utente di Reddit chiamato (non a caso) Deepfake, che iniziò una discussione mettendo a disposizione alcuni software open source da lui creati, per realizzare video porno contraffatti, con tanto di consigli e indicazioni dettagliate in tempo reale.

Da lì in poi si sono moltiplicati i deepfake di celebrities il cui volto è stato sostituito, e negli ultimi due anni questa tecnologia si è sempre più affinata, al punto tale che spesso non è possibile riconoscere la natura contraffatta del video per diversi secondi. Il motivo per cui le prime ad essere prese di mira sono state le celebrità è molto semplice: la tecnologia dei deepfake si basa sul machine learning, per cui si consegna al programma una grande quantità di video e immagini della persona che si intende inserire (banalmente Google immagini e Youtube), cosicché l’AI attraverso l’apprendimento automatizzato possa incamerarne le espressioni facciali e realizzare una mappatura dettagliata dei movimenti del viso.

A stupire è il fatto che questi video non siano prodotti da tecnici che utilizzano la CGI per gli effetti speciali, ma da utenti comuni con una conoscenza pratica degli algoritmi di apprendimento e che utilizzano strumenti OpenSource come Keras o TensorFlow, che Google mette gratuitamente a disposizione di ricercatori, studenti laureati e chiunque abbia un interesse per l’apprendimento automatico. Anche uno strumento di Adobe può ingannare chiunque inducendo le persone a dire qualsiasi cosa o, per citare un altro esempio, l’algoritmo Face2Face permette di creare sequenze audiovisive in cui il volto di una persona viene scambiato attraverso il tracciamento del viso in tempo reale, raffigurandola mentre imita le espressioni facciali di un’altra persona. 

Recentemente uno studio di Deeptrace ha contato 14.678 video deepfake online, il cui 96% è costituito da video porno contraffatti che hanno come protagoniste involontarie soprattutto attrici famose. I rischi di quello che è diventato ormai una piaga del web moderno, sono molti e soprattutto pericolosi. Dai dati appena citati è chiaro che una prima grave conseguenza è legata a forme di revenge porn e di umiliazione pubblica che vede come vittime in primis le donne, non solo attrici famose, ma anche donne comuni che, come ha dimostrato l’app DeepNude ora opportunamente rimossa dai principali play store, può trasformare qualsiasi innocua immagine in foto compromettenti da far circolare nel web. 

Non è tardato ad arrivare anche l’utilizzo di deepfake in ambito politico. Da Obama a Trump, si sprecano le dichiarazioni più improbabili e anche in Italia, seppur in ritardo, ha fatto scalpore il famoso discorso di Renzi a Striscia la notizia. In questo caso, il grave rischio che si incorre se non si pone un freno a questa tecnologia, è di aggravare l’insidia della disinformazione politica, minacciando la democrazia stessa. Infatti, nonostante la qualità di questi video non sia sempre altissima, molti deepfake risultano a prima vista credibili e spesso è quasi impossibile comprenderne la natura per diversi secondi. Se si considera che la soglia di attenzione media è sempre più bassa, è facile intuire come dichiarazioni politiche frutto di deepfake possano portare il fenomeno delle fake news ad un livello ancora più incontrollabile, poiché l’utente medio potrebbe non arrivare mai alla conclusione del video che, quando accade, dichiara di essere un deepfake. 

È però in via di sviluppo il progetto Deepfake Detection Challenge, che “invita le persone di tutto il mondo a creare nuove tecnologie innovative che possano aiutare a rilevare deepfake e media manipolati”. Tra i protagonisti di rilievo anche Amazon, Facebook, Microsoft, il New York Times, l’università di Oxford, il MIT, e anche l’Italia con Luisa Verdoliva dell’Università Federico II di Napoli. L’iniziativa punta a creare strumenti open source che società, organizzazioni media e di sicurezza e governi stessi potranno utilizzare liberamente con lo scopo di rilevare qualsiasi video deepfake. Il lancio ufficiale della competizione avverrà proprio a dicembre in vista di un fondamentale appuntamento della politica globale: le elezioni presidenziali americane del 2020.

In questi giorni però, sono le elezioni politiche in UK ad aver creato scalpore con il primo esperimento di deepfake in piena campagna elettorale. La Think tank londinese Future Advocacy ha infatti diffuso dei deepfake in cui Boris Johnson e Jeremy Corbyn si sostengono a vicenda. L’obiettivo era lanciare un appello sotto forma di provocazione ai partiti, per sollecitarli a collaborare e sviluppare delle regole comuni adeguate a contrastare la disinformazione politica online.

Facebook Horizon

Tra il 25 e il 26 settembre, Oculus l’unità di VR di Facebook, ha presentato una serie di nuovi prodotti e aggiornamenti alla conferenza annuale Oculus Connect 6, tenutasi presso il San Jose McEnery Convention Center di San Jose, in California.

Durante questa sesta edizione, Facebook e Oculus hanno introdotto Horizon, il nuovo universo sandbox di realtà virtuale descritto come “un mondo di social VR in continua connessione, in cui le persone possono esplorare nuovi luoghi, giocare e costruire comunità”. 

Oculus in un post sul blog ha dichiarato che “prima di entrare in Horizon per la prima volta, le persone progetteranno i propri avatar da una serie di opzioni su stile e aspetto, per garantire che tutti possano esprimere pienamente la propria individualità. Da lì, portali magici chiamati Telepods trasporteranno le persone dagli spazi pubblici a nuovi mondi pieni di avventura e spirito d’esplorazione.” Sarà quindi possibile partecipare ad attività collettive come la visione di un film, saltare tra locali virtuali attraverso i Telepods e anche condividere sessioni di gioco multiplayer come Wing Strikers. Inoltre, a garantire la sicurezza degli utenti ci saranno delle guide denominate Horizon Locals, ideate per fornire assistenza agli utenti.

Il debutto è fissato per l’inizio del 2020 attraverso l’avvio di una fase closed beta a cui possibile partecipare richiedendone l’invito al sito ufficiale , mentre il 25 ottobre Facebook ha già annunciato la chiusura di Facebook Spaces e Oculus Rooms per lasciare spazio ad Horizon.

Per quanto il progetto ricordi Second Life, Horizon punta ad un’esperienza vissuta da un punto di vista soggettivo attraverso l’uso del visore. Dall’interno della realtà virtuale, gli utenti saranno in grado di utilizzare Horizon World Builder per creare arene di gioco, luoghi di vacanza e attività per riempirli senza la necessità di sapere come codificare, mentre gli strumenti di scripting visivo consentiranno agli sviluppatori più seri di creare esperienze interattive e reattive.

Interessante è anche il concetto di “spazio personale” elaborato dal team di Facebook, per cui ognuno potrà stabilire i propri confini grazie ad una distanza minima intorno a sé, con lo scopo di garantire il rispetto dello spazio personale.

Horizon è un progetto particolarmente interessante per un’azienda come Facebook focalizzata sull’agevolazione dell’interazione sociale, certo non mancheranno le opportunità per monetizzare attraverso visualizzazioni di annunci, cartelli virtuali, negozi e centri commerciali gestiti da Facebook o anche abbonamenti per accedere a mondi di gioco pianeti premium da esplorare. 

Il team di OpenAI ha condotto un esperimento in cui è possibile osservare come gli agenti (componenti hardware e software che cercano di simulare il comportamento umano di interazione con l’ambiente) scoprono un utilizzo sempre più complesso degli strumenti a disposizione, durante un semplice gioco a nascondino.

Simulando 500 milioni di partite, sono state messe alla prova le capacità delle AI di adattarsi ad un ambiente competitivo e il risultato vede gli agenti costruire una serie di sei strategie e controstrategie distinte, alcune delle quali si credeva non fossero nemmeno supportate dall’ambiente stesso.

La gestione dell’emergente complessità in questo semplice ambiente, suggerisce che un co-adattamento multi-agente potrebbe un giorno produrre un comportamento estremamente complesso e intelligente e dimostra che le AI sono in grado di adottare specifiche strategie per la risoluzione di situazioni complesse.

Questo è il video dell’esperimento e puoi trovarne l’analisi dettagliata, con tanto di ripartizione su OpenAI.

quantum_computing

Una pubblicazione dei ricercatori di Google è stato pubblicata per poche ore (poi rimossa) su uno dei siti della NASA.

Il paper espone come il loro processore fosse stato in grado di risolvere in 3 minuti e 20 secondi un calcolo che richiederebbe 10.000 anni al più potente computer al momento in vendita (IBM Summit).

Che cos’è il quantum computing

Il concetto alla base del quantum computing è di passare dall’utilizzo del bit come unità di misura (sistema binario, 0 o 1, assenza/presenza di segnale) ai qbit (quantum bit).

In pratica l’unità minima del sistema informatico può ‘trasportare’ molti più dati.

Perchè è importante

Al momento molte nuove tecnologie, destinate a cambiare il mondo, si stanno scontrando con la limitata capacità computazionale dei processori attualmente esistenti.

Il quantum computing darà un’enorme spinta a tecnologie come:

  • Dna Sequencing
  • Machine Learning
  • Artificial Intelligence
  • Cloud Computing

Inoltre, costringerà tutto il mondo della crittografia a chiave pubblica a rivedere i propri algoritmi.

Se quanto pubblicato da Google venisse confermato, si tratta di una pietra miliare nel mondo informatico.