Newsletter
Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someone

Calma, la rivoluzione dei computer quantistici non è questione di ore. L'orizzonte a cui guardare è quello di un paio di decenni. E non per applicazioni casalinghe (che non è detto ci saranno) ma militari e industriali. Fino a qualche mese fa bastava appiccicare “blockchain” al nome di un'impresa e le sue azioni schizzavano. Per evitare che il quantum computing diventi la bolla del 2019, serve misura: il computer quantistico non esiste e non esisterà ancora per un bel po'. È vero però che non è più fantascienza. Il settore va quindi osservato con attenzione, perché ha potenzialità enormi. Ecco a che punto è la ricerca e come si stanno muovendo gli investimenti.

Cosa vuol dire quantum computing

I computer tradizionali si basano sulla logica binaria. Ogni unità (il bit) è un'alternativa tra 0 e 1. E ogni informazione (più o meno complessa) è elaborata con una (più o meno lunga) sequenza di 0 o 1. Il quantum computing punta invece a sfruttare le proprietà della fisica quantistica, facendo “ragionare” i computer in modo diverso, non lineare. Nel libro “Quantum Computing” appena pubblicato da Egea, Raffaele Mauro, managing director di Endeavor Italia, lo definisce “una sorta di multitasking radicale”. Con una nuova unità di elaborazione: dal bit al qubit. Un problema non viene analizzato in modo binario ma “simultaneo”.

Un computer quantistico, quindi, “non è una macchina che funziona come tante macchine in parallelo”, spiega all'Agi Andrea Rocchetto, ricercatore di quantum computing alla Oxford University. Non è una questione di potenza ma un altro modo di viaggiare (cioè di elaborare le informazioni). Tra il calcolo lineare e quelle quantistico non c'è la differenza che c'è tra una Panda e una Ferrari. È piuttosto quella che passa tra una Panda e un elicottero. In molti casi un'automobile è e resterà il mezzo più efficace. In altri, volare è necessario. “I pc attuali – continua Rocchetto – sono oggetti che seguono regole della fisica classica. Oggi ci sono cose che non possiamo processare in modo efficace con un oggetto costruito in questo modo”. “Problemi che richiederebbero milioni di anni di tempo di calcolo con i computer tradizionali – scrive Mauro – possono potenzialmente essere risolti in poche ore o in pochi giorni”. Sottolineiamo però la parola “potenzialmente”. Perché a oggi non si sa ancora quando né se l'elicottero si alzerà da terra. “Ci sono ancora da risolvere temi non solo ingegneristici ma anche scientifici”, spiega Rocchetto.

Com'è fatto un “computer quantistico”

Ma che cos'è e com'è fatto un computer quantistico? “Cominciamo col dire che cosa non è”, afferma Rocchetto: “Non è un pc impacchettato in uno spazio piccolo. È una tecnologia che non darà vantaggi per qualsiasi problema. Non abbiamo ancora costruito un computer quantistico capace di risolvere i problemi per i quali ci sono vantaggi”. In sintesi: c'è tanta strada da fare. Se si arriverà a un traguardo (“Non è scontato”, dice il ricercatore di Oxford) i pc tradizionali non finiranno nella spazzatura, ma ci sono alcuni settori dove il salto potrebbe essere enorme, come la crittografia o la chimica. Siamo ancora nel campo della sperimentazione, perché mancano gli standard e perché ci sono “almeno quattro tecnologie diverse per costruire un computer quantistico”.

Gli specialisti sono qualche centinaio in tutto il mondo. Oggi, la cosa più vicina a un computer quantistico è un “grosso frigorifero che somiglia a un estintore alto due metri",-racconta Rocchetto. "Serve per portare la temperatura vicina allo zero assoluto. È quasi vuoto. All'interno ha alcuni cavi che ne costituiscono lo scheletro e un supporto con al centro un microprocessore, dall'aspetto non molto diverso da quelli tradizionali”.  

Chimica e crittografia: i settori interessati

I computer quantistici iniziano dove non arrivano quelli tradizionali. Puntano a risolvere problemi particolarmente complessi, sia velocizzando le operazioni sia definendo simulazioni che obbediscono alle stesse regole della natura. “La meccanica quantistica – spiega Rocchetto – è il meccanismo con cui la natura regola il suo 'software'”. Se il processore e gli algoritmi “ragionano” nella stessa maniera, allora sapranno capire meglio le sue mosse. Andando nel concreto, una delle applicazioni che pare più alla portata sembra essere quella nel settore chimico-biologico. Le simulazioni potrebbero essere utili per capire le interazioni tra le molecole da utilizzare nei farmaci. Potrebbero produrre in modo più efficiente concimi, sviluppare nuovi materiali. Per farlo potrebbero bastare processori da 100-200 qubit. Oggi, le sperimentazioni più evolute arrivano a 50-75 qubit. Se si riuscissero a raggiungere computer quantistici da migliaia o milioni di qubit, si potrebbero avere simulazioni sempre più complessi e altre applicazioni. Ad esempio intrecciare meccanica quantistica e intelligenza artificiale: “Si pensa – afferma Rocchetto – che una macchina quantistica possa dare vantaggi in termini di velocità al machine learning”. Altro campo interessato è la crittografia, cioè il settore che permette di cifrare un messaggio rendendolo incomprensibile a chi non ha le chiavi giuste per leggerlo. Gli strumenti quantistici potrebbero essere uno strumento per mascherare i propri messaggi e per decifrare quelli degli avversari. In teoria, con una enorme quantità di qubit, si potrebbe anche “bucare” una blockchain, oggi praticamente inattaccabile dai computer tradizionali. “Sono già in corso ricerche di crittografia postquantistica”, afferma Mauro. “Si tratta di applicazioni potenziali ed è verosimile che solo grandi aziende e governi abbiano applicazioni importanti nel breve. Ma va già fatta una discussione sistemica che sollevi anche il tema delle competenze”.

Geopolitica, tra ricerca e corsa alle armi

La tecnologia sarà anche futuribile, ma prendere posizioni subito – in attesa di applicazioni concrete – è decisivo. Ecco perché la partita non si gioca solo nei laboratori ma anche a livello geopolitico. “C'è già una guerra in corso”, afferma Mauro. L'Ue ha varato il Quantum Technologies Flagship Programme, con investimenti da un miliardo in dieci anni. “L'Europa – sottolinea il managing director di Endeavor Italia – è ben posizionata, ma c'è molto lavoro da fare. Mancano grandi aziende come Google e Ibm. Manca coordinamento, a causa di barriere linguistiche e di mercato, anche nel venture capital”. L'Italia era partita bene, ma non ha saputo coltivare i primi semi. “Ci furono diversi ricercatori che si interessarono di quantum computing nei primi anni '90”, spiega Rocchetto. Oggi, però, i gruppi di ricerca sono pochissimi e “siamo rimasti indietro” non solo rispetto a Francia, Germania e Gran Bretagna, ma anche a “Olanda, Austria e Svizzera. Tra noi e loro ci sono distanze significative che non si possono colmare nel breve periodo”.

Londra ha avviato un'iniziativa con un budget di 300 milioni di sterline. La Cina ha previsto di creare, entro il 2020, un laboratorio nazionale e un investimento da 10 miliardi di dollari. Negli Stati Uniti enti di ricerca e grandi gruppi privati stanno accelerando: nel 2018 è stato proposta l'istituzione di una Nasa delle tecnologie quantistiche. Nel 2016 il premier canadese Justin Trudeau descrisse alla stampa alcuni principi della computazione quantistica. Segnali. Lo sono anche le difficoltà con cui i ricercatori stranieri trovano ospitalità all'estero. Se da una parte c'è fame di competenze in possesso di pochi specialisti nel mondo, dall'altro c'è il timore di trasferire altrove i risultati ottenuti in casa propria. “I visti di alcuni ricercatori per entrare negli Stati Uniti – afferma Rocchetto – sono bloccati per timore”.

E non è un caso se tra le istituzioni più impegnate ci siano la National Security Agency americana e l'unità dei servizi cinesi specializzata in informatica. Perché? La ragione di quella che Mauro definisce “corsa alle armi quantistica” è chiara. Alcune delle potenziali applicazioni si indirizzano (direttamente o indirettamente) al settore militare: crittografia (centrale in scenario in cui la guerra diventa sempre più “cyber”) simulazioni aerodinamiche per velivoli più efficaci, intelligenza artificiale più efficiente, nuovi materiali. “La pericolosità di una tecnologia dipende dal suo utilizzo”, sottolinea Mauro. Non è certo una novità che la difesa spinga la ricerca. Anche Arpanet, l'antenata di internet, nacque nel Dipartimento della Difesa degli Stati Uniti.

Venture capital e startup: nascita di un ecosistema

Si stanno muovendo i centri di ricerca, i governi e le grandi compagnie. Bene. Ma c'è un altro segnale: sta crescendo l'impegno (finanziario) dei venture capital. È un segnale perché si tratta di fondi che hanno l'obiettivo di guadagnare. Le loro mosse, quindi, raccontano la reale presenze di concrete prospettive commerciali. “Si sta costruendo un piccolo ecosistema di grandi società, venture capital e startup in grado di raccogliere capitali importanti”, afferma Mauro. Google ha un team dedicato di 100 persone e ha già sviluppato un “processore” da 72 qubit. Ibm ha raggiunto i 50 qubit e guarda alla costruzione di cloud e piattaforme di servizi basato sul quantum computing. Anche Microsoft ha un proprio programma. I colossi tecnologici cinesi Alibaba, Tencent e Baidu stanno collaborando con gli istituti di ricerca locali. Gli investimenti nel settore hanno raggiunto i 275 milioni di dollari nel 2017. E alcune startup ne hanno raccolti centinaia.

Come Rigetti Computing, che secondo Crunchbase ne ha ottenuti 119. La società, fondata nel 2013, ha fatto una trafila nel gotha della Silicon Valley: è passata da Y Combinator (uno dei maggiori acceleratori al mondo) ed è stata finanziato dal fondo Andreessen-Horowitz. D-Wave ha raccolto più di 200 milioni e vende già dei prodotti quantistici (anche se la loro definizione è controversa). “Negli ultimi decenni – afferma Mauro – il quantum computing è stato finanziato da istituzioni ed enti di ricerca. Negli ultimi cinque anni c'è stata un'accelerazione e oggi ci sono anche i venture capital. Significa che c'è qualcosa di valorizzabile sul mercato.

Tutti i grandi fondi americani di successo hanno almeno una scommessa nel settore quantum”. Certo, i venture capital non sono fondi d'investimento come gli altri: il rischio elevato mette in conto che solo pochi casi di successo saranno in grado di ripagare l'investimento. I venture capital non sono quindi una garanzia di successo ma testimoniano l'esistenza, appunto, di “una scommessa”. Che se funzionasse avrebbe ritorni importanti. Non avremo applicazioni domani. Non avremo sulla scrivania un pc quantistico nei prossimi decenni (o forse mai). Ma, sottolinea Mauro, “oggi non abbiamo più solo teoria ma possibilità concrete”.  

In principio era il cavo: smartphone e tablet dovevano essere collegati fisicamente a un presa elettrica. È ancora questa la tecnologia più diffusa. Poi sono arrivate le basi di ricarica wireless: basta appoggiarci il dispositivo per ridargli energia. Stanno diventando una soluzione sempre più familiare, in proprio o integrate su mobili e automobili. C'è però una startup americana che guarda già oltre, alla ricarica wireless “a distanza”. Si chiama Reach Labs e ha appena incassato un investimento da 9 milioni di dollari.

Una ricarica a distanza

Cosa significa wireless a distanza? Semplice: ricaricare gli oggetti elettronici senza che siano a contatto con una base di ricarica né nelle sue immediate vicinanze. In sostanza, fa con l'energia quello che il wifi fa con i dati. Diventa così possibile ricaricare telefono, portatile e smartwatch contemporaneamente, anche se sono in stanze diverse della stessa casa o in un capannone industriale. Sì perché una ricarica wireless a lungo raggio non è solo un sistema comodo che permette di tenere nel cassetto i cavi. È un sistema che, quando perfezionato, potrebbe essere una nuova infrastruttura.

Non solo smartphone

L'impatto di una tecnologia di questo tipo si vedrebbe nelle case, ma ancor di più negli impianti industriali e negli ambienti dove operano le macchine (cioè, potenzialmente, in quasi tutti). Basti pensare agli impianti produttivi automatizzati, ai magazzini dove i robot smistano la merce da consegnare, ai droni ricaricabili appena atterrano o mentre sono ancora in volo, a visori per la realtà virtuale e strumenti sanitari che non dovranno curarsi di prendersi una pausa. Ricaricare ovunque e in qualsiasi momento renderebbe i processi più efficienti. E non solo perché si riducono i tempi morti per la ricarica, ma anche per un'altra ragione.

Il fondatore di Reach Labs, Chris Davlantes, definisce questa tecnologia una soluzione per i problemi di distribuzione dell'energia. Se c'è un'unica “centrale” di ricarica, potranno essere collegati solo i dispositivi scelti dall'utente. E, tra di essi, l'energia verrà distribuita nel mondo più equilibrato possibile, limitando gli sprechi.

Dal Mit ai 9 milioni di dollari

Reach Labs è nata all'interno del Massachusetts Institute of Technology nel 2014 ed è stato sostenuto da Y Combinator, uno degli acceleratori per startup più importanti al mondo, che ha investito anche in questo round accanto a DCVC. Matt Ocko, managing partner e co-fondatore di DCVC, ha affermato di essere stato convinto anche dalle parole delle imprese che stanno già sperimentando le soluzioni di Reach Labs. La tecnologia è già abbastanza matura. Il problema, dice Ocko, non è tanto trovare la giusta opportunità di mercato, ma disperdere le risorse perché “ce ne sono troppo”.

“Le persone chiedono sempre: ‘Dove va a lavorare Clark?'” e la risposa è: dove gli pare. Ma non parliamo di un Clark qualsiasi, parliamo di Clark Valberg, fondatore e CEO di InVision, startup fondata nel 2011 e che oggi arriva a contare 700 dipendenti che lavorano tutti da remoto, ovvero “da casa”. Come spiega Mark Frein, capo del personale, a businessinsider i prezzi del mercato immobiliare di New York sono altissimi e di fatto non c’era alcun motivo di bloccare in un ufficio fisicamente tutti i dipendenti. Così, mentre Google la scorsa settimana decide di allargare i suoi uffici nella Grande Mela, In Vision di fatto, non ha alcuna sede.

E il cartellino? Storia vecchia, i dipendenti non vengono giudicati (e quindi pagati) rispetto le ore che stanno seduti davanti al computer ma “Si tratta di risultati, non di dove si trovi il tuo indirizzo IP – sostiene Frein – Ci preoccupiamo di ciò che sei in grado di fare o raggiungere. Se sei in grado di ottenere qualcosa di eccezionale anche lavorando in orari non fissi, allora è grandioso”. E quando gli chiedono effettivamente come fa a controllare che un dipendente stia svolgendo il suo lavoro risponde che nemmeno quelli che si presentano in ufficio sono sempre “controllabili”.

Il risultato, a parte una crescita continua della società che si occupa di software di progettazione e prototipazione di siti web e mobile, è che ci sono dipendenti In Vision che si alzano tutte le mattine a fusi orari diversi da paesi come Inghilterra, Israele, Australia, Argentina e Nigeria, quindi talenti veri (altro vantaggio messo in evidenza dal modello di lavoro intrapreso) che vengono da tutto il mondo. Certo, il rovescio della medaglia è che molti lavoratori lavorano allo stesso progetto per anni senza incontrarsi mai, il lavoro così diventa abbastanza alienante, per questo l’azienda incoraggia ad una continua comunicazione e ogni anno organizza un meeting aziendale dove finalmente ci si può conoscere di persona; Frein lo descrive così “La gente rideva e piangeva, è stata un’esperienza incredibile”. 

La sicurezza degli aeroporti europei si doterà presto ai check-in di una vera e propria "macchina della verità". Un'intelligenza artificiale interrogherà i viaggiatori, chiedendo loro di confermare nome, età e data di nascita e ponendo domande sulla ragione del viaggio e sulla provenienza dei fondi per effettuarlo. Un monitor scansionerà il loro volto per stabilire se stanno dicendo bugie o meno e, se riterrà di trovarsi di fronte a un mentitore, lo incalzerà assumendo un tono della voce "più scettico", ha spiegato alla Cnn Keeley Crockett della Machester Metropolitan University, ateneo inglese coinvolto nel progetto. Dopodiché il software segnalerà il sospetto al personale umano. Come prevedibile, le associazioni per la tutela della privacy non stanno facendo esattamente i salti di gioia. 

Il progetto da 4,5 milioni di euro, denominato iBorderCtrl, ha lo scopo di velocizzare i controlli ai check-in e verrà testato questo mese in Ungheria, Lettonia e Grecia sui passeggeri in arrivo da nazioni extraeuropee. iBorderCtrl è ritenuto più avanzato rispetto a precedenti sistemi di riconoscimento facciale che avevano dimostrato di avere un tasso di errore molto elevato sulle donne e sulle persone di colore. Testato finora su 32 persone, il sistema ha totalizzato un 85% di risultati positivi. I dati raccolti "andranno oltre i parametri biometrici e toccheranno i biomarcatori dell'inganno", ha promesso il coordinatore del progetto, George Boultadakis della società lussemburghese European Dynamics.

Per Privacy International è "un'idea terribile"

"È parte di una più vasta tendenza verso l'utilizzo di sistemi automatici opachi, e spesso inefficienti, per giudicare, valutare e classificare le persone", ha dichiarato alla Cnn Frederike Kaltheuner di Privacy International, che ha definito il test "un'idea terribile". "Le macchine della verità tradizionali hanno una storia problematica di incriminazioni di innocenti e non c'è alcuna prova che l'intelligenza artificiale risolverà il problema, soprattutto uno strumento che è stato utilizzato su appena 32 persone", ha proseguito, "anche tassi di errore apparentemente piccoli porteranno migliaiai di persone a dover provare di essere innocenti solo perché un qualche software li ha ritenuti bugiardi".

"Non credo si possa avere un sistema accurato al 100%", ha ammesso Crockett, aggiungendo che maggiore sarà il numero di persone sottoposte al software, maggiore sarà l'accuratezza. Nella fase di test, il software verrà sperimentato solo su passeggeri che lo accetteranno e firmeranno una liberatoria.

Un tempo lì si cuocevano biscotti e si preparava il pane. Gli stessi spazi tra meno di un anno ospiteranno il più grande centro per le startup al mondo. Siamo a Lisbona, sulla sponda est del fiume Tago: si chiamerà Hub Criativo do Beato e sorgerà negli edifici che, tra il 1897 e il 2011, hanno ospitato i laboratori che sfornavano pasta al ritmo di 18 tonnellate al giorno destinate all’esercito portoghese.

Il tempio dell’innovazione in un ex edificio militare

Dopo più di un secolo al servizio dei soldati, dai militari del dittatore António Salazar a quelli della democrazia del post Rivoluzione dei Garofani, l’ex edificio militare diventerà il fulcro attorno a cui graviteranno centinaia di startup: l’Hub Criativo do Beato (Hcb) sarà al tempo stesso un incubatore-acceleratore per le imprese più giovani e la base di progetti già avviati in grado di raccogliere finanziamenti nei round Series A e B.

Senza dimenticare grandi gruppi globali che strizzano l’occhio a Lisbona, come Mercedes e Super Bock che hanno già confermato la loro presenza, o il Web Summit che qui installerà il suo quartier generale. E anche la berlinese Factoy ha fatto sapere di voler aprire una filiale a Lisbona.

Lisbona proverà a prendersi lo scettro di capitale europea delle startup grazie anche a numeri stellari: un complesso di venti edifici riqualificati per una superficie complessiva di 35 mila metri quadrati – qualcosa in più della parigina Station F, ma l’intenzione è di crescere ancora aggiungendone altri 50 mila.

A guidare la transizione dal passato al futuro c’è Startup Lisboa, l’acceleratore nato nel 2012, che nei suoi spazi all’Hcb si porterà dietro alcune delle oltre 280 imprese di cui si è occupato finora. Tra loro, e a sperare di accaparrarsi uno di quei posti, ci sono anche due imprenditori italiani: Simone Semprini e Michael Fiorentino. Entrambi hanno lanciato la propria startup a Lisbona. Agi li ha raggiunti per farsi raccontare che cosa sognano di fare.

Lavoro senza soste e karma: “Per farmi scegliere ho anche appeso le foto di Hcb in casa”

“Spero che Startup Lisboa scelga me e mi porti all’Hub – racconta Michael Fiorentino – le provo tutte: ho anche appeso in ufficio e a casa le foto di come sarà l’Hcb, chissà che il karma mi aiuti”, scherza il ragazzo nato a New York ma con origini lucane e doppia cittadinanza statunitense- italiana: il suo bisnonno era di Potenza. Da un paio d’anni lavora per sviluppare Vixtape, la televisione che secondo lui sarà quella del futuro.

“È un ecosistema mediale innovativo che mixa video, audio e dati”, un po’ sul modello del video jockey, cioè il dj delle immagini. Il suo progetto mira a rivoluzionare la fruizione sul piccolo schermo: “Gli utenti potranno interagire con il palinsesto”, racconta Fiorentino. “Vixtape trasformerà la televisione in una tela d’arte digitale”, una sorta di canovaccio che lo spettatore potrà modificare agendo sui vari livelli, mescolando appunto gli input audio e video. Obiettivo dichiarato: “Migliorare l'umore delle persone”, spiega Fiorentino secondo cui “guardare video accoppiati con la musica può far sentire l’utente più rilassato o renderlo maggiormente produttivo al lavoro, aiutarlo a fare più attività fisica o a godersi al meglio le feste”. 

La tv del futuro (almeno un po’) made in Italy

“Vixtape non è un servizio di video on demand perché gli utenti non dovranno scegliere uno spettacolo da guardare: saranno già sulla loro tv”, spiega l’italo-americano. Sul versante dei contenuti l’intenzione è “ricombinare prodotti esistenti e produrne altri di originali”. Quel che è certo è che i primi programmi si occuperanno di “arte, danza e cultura”. A incuriosire è anche il modello di business immaginato da Fiorentino: “Niente abbonamenti, Vixtape sarà gratis proprio come la vecchia televisione basata sulla pubblicità”. Sono proprio gli spot la chiave dell’intero progetto: “Immagino che gli utenti passino dalla vecchia tv via cavo a quella in streaming, motivo per cui i brand sposteranno qui gli investimenti in pubblicità per seguirli”, spiega il fondatore.

Kayak, passeggiate a cavallo e tour enogastronomici: l’idea di TourScanner

Per il momento Vixtape è ancora in fase di lancio e l’obiettivo numero uno è chiudere un round di finanziamenti da 250 mila euro per portare avanti la versione beta del sistema e lanciare ufficialmente il servizio a metà del prossimo anno. Già avviata è invece TourScanner, la startup fondata da Simone Semprini che funziona da motore di ricerca per attività di viaggio: “Aggreghiamo 15 fornitori e li mettiamo a confronto offrendo attività che spaziano dai musei alle visite guidate, da sport come kayak e passeggiate a cavallo ai tour gastronomici”, spiega.

Oggi ha un catalogo di 300 mila attività su 5 mila destinazioni, con 50 mila visitatori mensili. Lavorano da Lisbona, naturalmente: “Con i miei due soci abbiamo deciso di lanciare l’attività direttamente qua, provare in Italia non ci ispirava troppo perché sentivamo notizie controverse sul Paese”. Il Portogallo invece sembra essere il posto giusto per diversi motivi, a cominciare dalla burocrazia snella: “Abbiamo creato la startup in mezza giornata”, ci racconta Semprini.

Oggi, poi, la capitale lusitana ha credito per quanto riguarda l’innovazione: “Essere in una città piuttosto che l’altra serve per i contatti, per trovare mentors, investitori e partnership”. Cosa manca all’Italia? “Il metodo”, risponde Semprini. “Bisognerebbe semplificare l’amministrazione, non si può lavorare soltanto per avere pezzi di carta”. Per inseguire il modello portoghese, secondo molti la nuova Berlino per l’innovazione, forse non servono rivoluzioni economiche: “Più che un fondo pubblico che investa in startup serve una burocrazia che agevoli: lasciamo che a investire siano soggetti privati”, suggerisce Semprini.

A mezzanotte del 2 novembre, Anonplus, un gruppo di hacker attivisti è penetrato nei server della Siae e ha defacciato l’homepage della Società Italiana Autori ed Editori.

Il gruppo, diverso da Anonymous Italia, da LulzSec e dagli altri gruppi della galassia hacktivista italiana ha sotituito la homepage di Siae.it e in un un tweet ha dichiarano di aver trafugato circa 3,7 Gb di dati relative alla gestione Siae.

Leggi anche: il nuovo comunicato di Anonymous attacca la Lega

Il gruppo Anonplus è conosciuto per avere messo a segno molte incursioni ai danni di siti di banche, aziende informatiche, stati esteri e quotidiani e partiti politici italiani come la Lega e Il Giornale.

La firma sul protocollo di Bitcoin, pubblicato il 31 ottobre 2009, è una: Satoshi Nakamoto. In questi dieci anni però, nessuno è riuscito a scoprire la sua vera identità. Anzi, non si sa neppure se sia uno pseudonimo dietro il quale si nasconde una sola persona o un team di lavoro. Sul documento che battezza la criptovaluta non si sono altri indizi ma solo un indirizzo mail (satoshin@gmx.com) attivo e utilizzato agli albori del progetto con chi fosse interessato.

Satoshi Nakamoto è rimasto a lungo nella nicchia degli addetti ai lavori in relativa tranquillità, fino a quando il bitcoin non ha iniziato ad apprezzarsi. Dal 2013, cioè da quanto ha toccato per la prima volta i mille dollari, la caccia si è fatta più pressante. Nel 2014 Newsweek sembrava aver individuato il suo uomo. E, contro ogni previsione, Satoshi Nakamoto non sarebbe stato uno pseudonimo. Il creatore di bitcoin e blockchain (ormai miliardario) sarebbe stato Dorian Satoshi Nakamoto, professore di informatica americano di origine giapponese. Che però nega.

Nel 2015 spunta un imprenditore australiano, Craig Steven Wright: "Satoshi Nakamoto sono io". Alcuni articoli di Wired e Gizmodo affermano di aver visto alcune vecchie e-mail che danno credito alla sua versione. Ma a distanza di tre anni non si è ancora capito se Wright sia un abile fabbricante di bufale o una delle persone coinvolte nel progetto. Se veritieri, alcuni messaggi di Wright coinvolgerebbero Dave Kleiman, un programmatore ed esperto forense morto nel 2013. Il fratello di Kleiman afferma di aver sentito parlare di una "moneta digitale", portata avanti con "un ricco uomo d'affari straniero". Ed è così convinto che Dave sia Satoshi da aver fatto causa a Wright per furto di proprietà intellettuale.

Nick Szabo e Hal Finney, dal Bit Gold alle criptovalute

Altri due papabili sono Nick Szabo e Hal Finney. Il primo è un esperto di crittografia americano. Già nel 1998 aveva teorizzato il "bit gold", una valuta digitale unanimemente riconosciuta come antenata di Bitcoin. Molti principi sono infatti comuni, come la decentralizzazione e la presenza di un registro pubblico. Proprio nel 2008, Szabo scrive un post in cui rivela l'intenzione di passare dall'ipotesi bit gold alla pratica di una criptovaluta utilizzabile. Ma anche lui nega di essere Satoshi Nakamoto. Ha negato fino alla morte, avvenuta nel 2014, lo sviluppatore statunitense Hal Finney. In questo caso c'è una traccia oggettiva: Finney è stato l'uomo che ha ricevuto la prima transazione in bitcoin da Satoshi Nakamoto. Come minimo è, quindi, uno dei primi a essersi interessato al progetto. Ma potrebbe aver conosciuto l'identità di Satoshi o aver utilizzato lui stesso quel nome. 

Dai servizi segreti russi a Elon Musk, i miti in circolazione

Come in ogni mistero, non mancano ipotesi bizzarre e dietrologie. Un ex dipendente di SpaceX si è detto convinto che Satoshi Nakamoto sia Elon Musk (che nega). Alcuni sostengono che dietro Bitcoin si nascondano i servizi segreti russi, cinesi o americani. Tra i sostenitori di questa versione c'è addirittura Roberto Escobar. Secondo il fratello del narcotrafficante Pablo, Nakamoto sarebbe un fantoccio della Cia. Escobar dice di aver parlato telefonicamente con il padre di Bitcoin e di avere la copia del suo passaporto. Ma sostiene di aver capito si trattasse di una messinscena. Non è detto che Satoshi Nakamoto sia una persona sola. Secondo una delle tante leggende in circolazione, sarebbe un nome creato dalle iniziali delle aziende che hanno creato Bitcoin. Sa (Samsung) toshi (Toshiba) Naka (Nakamichi) moto (Motorola).

Un miliardario candidato al Nobel

Chiunque o qualsiasi cosa sia, Satoshi Nakamoto è stato candidato al Nobel e, con tutta probabilità, è molto ricco. Nel 2015 Bhagwan Chowdhry, professore di finanza della University of California, ha fatto il suo nome all'Accademia reale delle Scienze svedese. Non se ne è fatto nulla, anche perché non si capisce chi avrebbe ritirato il premio. Sapere quanti bitcoin possiede Nakamoto è impossibile. È chiaro però che chi ha aperto la strada ha potuto estrarre monete con grande facilità, accumulando una ricchezza enorme. Un esperto argentino di blockchain, Sergio Demian Lerner, ha provato a stimarla. Nakamoto avrebbe generato 980.000 bitcoin. Se (ipotesi improbabile) li avesse ancora tutti nel proprio portafogli digitale equivarrebbero oggi a 6,3 miliardi di dollari. Abbastanza per entrare nella lista dei 250 uomini più ricchi del pianeta.

Il 31 ottobre 2008 nascono i Bitcoin. Dieci anni fa è stato pubblicato il documento firmato da Satoshi Nakamoto che battezza la prima criptovaluta. Si intitola 'Bitcoin: A Peer-to-Peer Electronic Cash System"'. I suoi principi sono tutti nelle prime righe: l'idea è quella di creare "una versione puramente peer-to-peer di denaro elettronico che permetterebbe di spedire direttamente pagamenti online da un'entità ad un'altra senza passare tramite un'istituzione finanziaria".

La prima transazione

Poche settimane prima, ad agosto, era stato registrato il dominio Bitcoin.org, proprio mentre la crisi dei subprime faceva fallire Lehman Brothers. Un passaggio simbolico tra una banca tradizionale e un protocollo che punta alla decentralizzazione finanziaria e la scomparsa degli intermediari. La prima transazione è datata 3 gennaio 2009: Satoshi Nakamoto invia 10 bitcoin allo sviluppatore statunitense Hal Finney. Inizia così, prima in sordina e poi con una forte accelerazione, il percorso della prima criptovaluta (ancora oggi la piu' importante per capitalizzazione)

Come funziona il bitcoin

Tutto parte con il "mining", cioè (letteralmente) l'operazione con cui si "estraggono" bitcoin. È un processo nel quale i computer eseguono calcoli matematici che "certificano" le transazioni della rete. La conferma passa dalla "chiusura" di un "blocco" che rispetta regole rigide. Un po' come un puzzle: i computer fanno a gara a chi trova prima il pezzo giusto, ricevendo come ricompensa nuove monete. Ogni blocco si salda con quello precedente. La catena diventa quindi sempre più lunga e ha bisogno di maggiore potenza di calcolo per essere portata avanti. Ecco perché i pionieri di Bitcoin potevano estrarre anche con un pc casalingo mentre oggi servono vere e proprie "fabbriche" di criptovaluta. Consumano grandi quantità di energia, per far lavorare e raffreddare le macchine. Ed ecco perché il costo "di produzione" della criptovaluta (in teoria identico ovunque) varia da Paese a Paese: è piu' conveniente dove il costo dell'energia  inferiore.

La catena creata dalla saldatura dei blocchi (chiamata blockchain) è un registro pubblico condiviso. E tiene traccia, in modo sicuro e difficilmente modificabile, delle transazioni. Che quindi non hanno bisogno di un'autorità centrale per essere approvata. Per accedere a questa rete serve un "wallet", cioè un portafoglio digitale che contiene chiavi e indirizzi che consentiranno la compravendita. Il protocollo prevede un meccanismo anti-inflazionistico. C'è infatti una quantità finita di bitcoin: 21 milioni. Il loro "ritmo di estrazione", però, si dimezza ogni quattro anni (l''ultima volta è successo il 9 luglio 2016 e la prossima sarà il 2 luglio 2020). Ecco perché, pur essendo stata estratta la maggior parte dei bitcoin, allo stato attuale l'ultima criptovaluta dovrebbe spillare fuori dalla rete attorno al 2140.

Il crollo di Mt. Gox

Il 22 maggio 2010 viene effettuato il primo acquisto in bitcoin (che allora valeva circa un centesimo): Laszlo Hanyecz compra due pizze per 10.000 bitcoin. Conto salato, che oggi varrebbe circa 64 milioni di dollari. Perché la criptovaluta raggiungesse il dollaro si sarebbe dovuto aspettare il 2011. Nel luglio dello stesso anno c'è il primo balzo: la valuta digitale supera i 30 dollari. È una mini-fiammata che si spegnerà presto. Il 2013 è l'anno della prima grande galoppata, anche se non certo lineare. Ad aprile si sale oltre i 100 dollari e alla fine dell'anno oltre i mille. La febbre cresce e, abbinata a un mercato privo di controlli, porta al crac. Proprio quando il prezzo prende slancio, nel febbraio 2014 crolla Mt.Gox, la piattaforma di scambio più grande del mondo. Bancarotta. Il bitcoin va in picchiata e per rivedere quota 1000 si dovrà aspettare tre anni.

La febbre del 2017

Nel 2017 salta il tappo: generare criptovaluta diventa sempre più complesso e, allo stesso tempo, la domanda lievita, spinta anche dai non addetti ai lavori attirati da guadagni (supposti) facili. È una slavina, con un'accelerazione impressionante: in 105 giorni il bitcoin passa da 1.000 a 2.000 dollari. Ne bastano poco più di 20 per arrivare a 3000. Dieci per scavalcare i 4.000. Il bitcoin tira il fiato alla fine dell'estate: impiega due mesi per arrivare a quota 5.000. Ma è solo l'ultima boccata di ossigeno prima di una corsa in apnea: in un mese e mezzo è già oltre i 9.000 dollari. Giovedì 7 dicembre si arrampica fino a sfiorare i 17.000 dollari.

Su Coinbase, la principale piattaforma di scambio americana, si va anche oltre: in due ore e 13 minuti il bitcoin guadagna 3.000 dollari e sfonda i 19.000 dollari. Il traffico è talmente elevato che Coinbase resta fuori servizio per alcune ore. La sua app, mentre la criptovaluta bruciava record, tra l'8 e il 9 dicembre diventa la piu' scaricata negli Usa. Si gonfia la bolla e il 16 dicembre si sfiorano i 20.000 dollari. I più entusiasti corrono all'acquisto per paura di perdere il treno della ricchezza. John McAfee, eccentrico creatore dell'omonimo antivirus, è sicuro che il bitcoin entro il 2020 varrà 500.000 dollari. I più critici, come il ceo di JPMorgan Jamie Dimon, parlano di "frode". I più cauti avvertono l'onda della speculazione ma senza annunciare catastrofi.

La bolla si sgonfia

Il 22 dicembre 2017, in 24 ore, il bitcoin perde quasi un terzo del proprio valore e scende sotto i 14.000 dollari. In un mese, tra l'inizio di gennaio 2018 e i primi giorni di febbraio, si dimezza. Non si avvicinerà più ai massimi, ma le fibrillazioni continuano fino all'inizio dell'estate, quando la volatilità diminuisce e il valore regge oltre i 6.000 dollari. Cosa è successo? Difficile dare una risposta univoca. È molto probabile che abbiano influito diverse componenti. La Sec Usa e altre autorità si sono dimostrate sempre più caute sull'accettazione di nuovi strumenti finanziari e severe nei confronti delle piattaforme di scambio. Potrebbe essere un momento "orso", cioè fiacco e tendente al ribasso, comune ad altre criptovalute. Di sicuro, sull'impennata di fine 2017 e il calo di inizio 2018 hanno influito i soliti meccanismi che gonfiano e sgonfiano una bolla. L'euforia moltiplica gli acquisti. E, in direzione uguale e contraria, la paura di perdite porta a disfarsi dei beni in modo impulsivo, innescando una spirale negativa che accelera le vendite. La relativa stabilità degli ultimi mesi potrebbe essere il riposo dopo la sbornia, in attesa di un'altra sbronza. Oppure un segnale di maturazione, che avvalorerebbe l'idea del bitcoin come bene rifugio.

Come moneta, non ha mai sfondato

Da quelle due pizze sono diventate molte le cose che si possono comprare con i bitcoin. App e software, hotel e voli (su Expedia), donazioni su Wikipedia. Ma si può anche fare la spesa in farmacie, ristoranti, macellai. Tuttavia, il bitcoin come moneta (cioè come mezzo di pagamento) non ha sfondato. È diventato (a seconda dello sguardo con cui si osserva) un asset con cui speculare o un bene rifugio, come l'oro. Nato come valuta anarchica, è stato nel frattempo abbracciato anche dalla finanza tradizionale. Sono arrivati i futures ancorati alla moneta digitale e diverse società spingono per l'approvazione di altri strumenti finanziari, come gli Etf. Le autorità, a partire dalla Sec americana, stanno valutando le criptovalute con sempre maggiore cautela. L'attenzione punta, tra le altre cose, sugli exchange, le piattaforme sulle quali si scambiano bitcoin e altre monete elettroniche. Se il sistema è decentralizzato, infatti, lo scambio passa da questi "imbuti" che sono stati bersaglio di attacchi informatici o inconvenienti tecnici che hanno influito sulla libertà degli scambi.

Nell'accademia della musica di Brooklyn c'è un clima diverso rispetto allo Steve Jobs Theatre. New York ripaga la scelta di Apple con un'ovazione per Tim Cook e con abbondanza di ululati per i nuovi prodotti. Tanto che il ceo azzarda: “Devo trasferirmi qui”.

La Mela ricompensa il pubblico confermando le attese. Nessuna sorpresa, eccezion fatta per l'esibizione di Lana Del Rey che chiude l'evento. Per il resto c'è stato quello che ci si aspettava: due nuovi iPad Pro, un MacBook Air e un Mac Mini.

L'iPad Pro abbandona il tasto Home

L'iPad Pro si prende gli applausi di una platea assai generosa. Apple aggiorna il suo tablet di punta dopo quasi un anno e mezzo. Il ritocco estetico è evidente: si ritorna al passato, con linee più spigolose e angoli meno smussati. Si discosta invece dalla tradizione dicendo addio al tasto “Home”, che ha contraddistinto il dispositivo dal 2010 fino a ieri. Scelta coerente con lo stile e la tecnologia proposti sugli iPhone X e XS. Abbandonare il tasto Home permette di restringere i bordi ed è accompagnato dall'arrivo del Face ID, il sistema di riconoscimento facciale per sbloccare il dispositivo.

Bordi ridotti si traducono in display più grandi a parità di dimensioni complessive del tablet. E così il nuovo iPad Pro sale nella versione più piccola da 10,5 a 11 pollici. Quella più grande resta di 12,9 pollici, ma si rimpicciolisce. I nuovi iPad Pro sono molto sottili, appena 5,9 millimetri (il 15% in meno dei predecessori) e, nel complesso, tagliano il volume di un quarto.

L'altra novità è l'esordio di un attacco Usb-C, un inedito assoluto su iPad che lascia ai soli iPhone il connettore “lightning” che ha contraddistinto a lungo i prodotti Apple. C'è anche un nuovo Pencil, la seconda generazione del pennino digitale tanto odiato da Steve Jobs ma ripescato da Cook. Pencil 2 diventa una sorta di mouse volante. Mentre lo si impugna, bastano due “tap” sulla bacchetta per cambiare strumento (per scrivere, cancellare, tratteggiare). La ricarica si attiva appliccando il pennino al tablet.

Ridisegnato anche un altro accessorio: la tastiera integrabile, che fa anche da cover. Sotto la scocca c'è un nuovo processore, l'A12X Bionic che promette prestazioni migliori, elaborazioni grafiche a livello console e nuove funzioni in realtà aumentata, come dimostrano anche le presentazioni sul palco di Photoshop e del videogioco dedicato alla Nba.

L'iPad Pro si propone quindi come un prodotto che non punta solo al mercato dei tablet ma ambisce (sia nella produttività che nell'intrattenimento) a sconfinare in quello degli ibridi 2-in-1 e, in parte, a rubare qualcosa ai portatili. Non a caso Cook sottolinea che le vendite dell'iPad sono superiori a qualsiasi altro dispositivo portatile (non solo tablet) dei concorrenti. I prezzi di partenza sono 899 euro per la versione da 11 pollici e 1119 euro per quello da 12,9 pollici. Preordini da subito, disponibilità dal 7 novembre.

MacBook Air e Mac Mini

Apple aveva rinnovato MacBook e MacBook Pro ma non toccava la gamma Air (la più sottile e leggera) dal 2015. Ecco l'aggiornamento. Esordisce il display retina, che offre maggiori prestazioni con 4 milioni di pixel. Le dimensioni dello schermo restano le stesse del predecessore: 13,3 pollici, definita da Apple “la misura perfetta” per raggiungere l'obiettivo degli Air, fondere maneggevolezza e prestazioni.

La Mela ha lavorato per ridurre le dimensioni: il nuovo portatile è il 17% più piccolo del precedente e il 15% più sottile (15,6 millimetri), per un peso di un chilo e 250 grammi. La capacità di conservare il display da 13,3 pollici con dimensioni complessive minori deriva dallo stesso accorgimento adottato sull'iPad Pro: bordi più sottili.

Si ingrandisce invece il touch pad: la base per governare il puntatore è il 20% più ampia. Cambiano anche la dotazione audio e i processori. Integrato nella tastiera c'è il sensore per il riconoscimento delle impronte digitali. in Italia, il MacBook Air parte da 1.379 euro e sarà disponibile dal 7 novembre. Il tris di dispositivi si chiude con il Mac Mini, il piccolo computer fisso che Apple non rinnovava dal 2014. La sua è stata la presentazione più scarna: promette di essere cinque volte più veloce del suo predecessore, Ram fino a 32 GB e memoria fino a 2 terabyte. Il Mini, cosi come l'Air, è prodotto con il 100% di alluminio riciclato e ha un prezzo di partenza di 919 euro.

Gli assenti: AirPower e AirPods

Da qualche giorno non se li aspettava nessuno. Quindi non si può parlare di delusione. Ma, come già in occasione del lancio degli iPhone, spicca l'assenza di due gadget. Non pervenuta la base di ricarica AirPower. Annunciata più di un anno fa, non è mai arrivata in commercio, a quanto pare per problemi legati a un riscaldamento eccessivo. Cupertino aveva promesso, dopo i primi ritardi, l'approdo in negozio entro il 2018. Mancano due mesi alla fine dell'anno, non sono previsti altri eventi di Apple e l'AirPower sembra scomparso nel nulla. Nessun cenno, né sul palco né sul sito ufficiale della Mela. Eppure Cupertino avrebbe tutto l'interesse di affrettarsi, perché le basi di ricarica senza fili stanno diventando più diffuse ed evolute (come Pixel Stand di Google). Perdere tempo significa anche perdere posizione in un nuovo mercato. Si sono perse le tracce anche dei nuovi AirPods: gli auricolari wireless dovrebbero rinnovarsi con una custodia da posare sull'AirPower per ricaricare le cuffie. L'impressione è che far viaggiare in coppia auricolari e base non sia stata una gran trovata.

Immaginate di suonare con chi non tiene il tempo. Impossibile. Pochi decimi di secondo e il batterista è fuori sincro. A meno che abbiate a che fare con John Bonham o Charlie Watts, capita già se si è nella stessa stanza. Figurarsi se chi suona la grancassa è in Europa e il chitarrista negli Stati Uniti.

Il motivo è semplice: si chiama “tempo di latenza”. Ogni connessione, anche la più veloce, crea un intervallo tra lo stimolo (battere sul tamburo) e la risposta (il suono che arriva all'orecchio). È quello che succede in una videochiamata: c'è sempre un ritardo più o meno ampio. Ecco: il 5G non lo cancella ma lo riduce a una manciata di millisecondi. Così pochi da consentire a un bassista di New York di suonare assieme a un chitarrista di Roma.

Un concerto “diffuso”

Ericsson, che il 24 ottobre a Milano ha festeggiato i 100 anni in Italia, ha allestito una “sala 5G” per dare una dimostrazione in scala di questa possibilità. Il progetto si chiama Music Connect. Su un palco ci sono batteria e tastiera, ma non si sentono solo loro. Ci sono anche basso e chitarra, che suonano in un'altra stanza. Il mixer connesso aggrega i suoni e il risultato è un brano composto da tutti gli strumenti. Indossando un visore per la realtà virtuale (Holoport) è possibile anche godersi il concerto con tutti e quattro i membri della band sul “palco”: due in carne e ossa, gli altri come ologrammi.

Ha fatto la stessa cosa Mischa Dohler, “guru” del 5G presente al centenario di Ericsson. Lo scorso giugno ha tenuto il primo concerto “diffuso” della storia. Lui con un pianoforte a Berlino, la figlia al microfono a Londra. Hanno eseguito “I was made for loving you” dei Kiss, in versione molto soft. Tempo di latenza: 20 millisecondi su una distanza di mille chilometri. Sì, certo, è ancora una sperimentazione. I ritmi non sono alti e con Take Five si avrebbe qualche problema in più. Ma ci si può fare un'idea. Immaginate di poter vivere uno spettacolo da remoto. Non sostituirà stadi e teatri, ma potrebbe essere qualcosa di diverso, anche per promuovere il proprio disco. Cosa ancor più importante: la musica e i suoi ritmi aiutano a comprendere uno dei balzi in avanti del 5G, l'immediatezza.

In fabbrica e in sala operatoria

Accorciare i tempi tra “stimolo” e “risposta” è utile quando si suona oppure quando si smanetta con un videogioco. Ma è vitale quando si parla di trasporti o chirurgia. Sono due degli esempi forniti da Dohler sulle applicazioni pratiche del 5G. Paziente e medico non dovranno essere nella stessa sala operatoria. Il primo potrà essere in una clinica di Palermo, accanto a un robot comandato da un luminare a Los Angeles. Ogni movimento delle dita sarà riprodotto dalla macchina con un intervallo che sfiora la contemporaneità. Si potranno creare dei mondi virtuali per allenare i chirurghi prima di operare. E sarà possibile fare consulti e visite mediche a centinaia di chilometri di distanza. Pensate a un villaggio sperduto: non servirà raggiungerlo ma basterà piazzarci un'apparecchiatura di base, applicata dal paziente ma governata da un medico dall'altra parte del Paese. Nei veicoli senza autista vale la stessa cosa. Può essere guidato da un umano, ma da remoto. Oppure, in caso di guida autonoma, il 5G permette un dialogo immediato tra infrastruttura urbana e veicolo. E sulla strada, lo sappiamo, la reattività è tutto. Comau sta invece sperimentando, a Torino, i robot che popoleranno le fabbriche. Con il 5G niente cavi: la gestione si sposta nel cloud. Ogni braccio robotico è autonomo ma “parla” con gli altri. Un modo per rendere i processi più efficaci, ma anche per individuare guasti e ripararli senza bloccare l'intera catena. Se il malato è uno si cura solo quello, con un bel risparmio di tempo e denaro. Anzi, di più: monitorare le macchine rende la manutenzione predittiva. Si interviene là dove serve, prima che si rompa qualcosa.

Il 5G renderà le macchine più umane?

La rivoluzione delle nuove reti è questa: il punto non è tanto scaricare un film in qualche secondo ma la capacità di far dialogare gli oggetti (e quindi noi) come mai prima. Dohler infatti definisce il 5G come “un sincronizzatore” tra dispositivi ma anche tra ambienti. Con il 5G gli oggetti “pensano” più velocemente. E per quanto la prospettiva possa, per certi versi, risultare inquietante, Dohler è convinto che l'immediatezza con cui le macchine risponderanno le renderà più umane. Perché il loro “tempo di latenza” sarà simile al nostro.

 

 

Flag Counter