Il computer quantistico rappresenta l'ultima frontiera, il “Santo Graal” dell'informatica. È una tipologia di computer radicalmente diversa da quelli che utilizziamo normalmente, perché l'informazione che manipola si esprime non in bit ma in qubit. I qubit superano la staticità dei bit, che possono assumere solo due stati, lo 0 e l'1 secondo il codice binario. La meccanica quantistica, che è valida a scale subatomiche, sostiene invece che una particolare proprietà può coesistere in diversi stati nello stesso momento. Per esempio, lo spin di un atomo – il suo “senso di rotazione”, che può essere, per dirla semplicemente, verso destra o verso sinistra – non è definito in maniera precisa a meno che non si effettua una misurazione. Se questa misurazione non viene effettuata, l'atomo possiede allo stesso tempo lo spin destrorso e sinistrorso, cioè una sovrapposizione di stati. È come se il bit fosse al contempo 0 e 1. In questo caso, va da sé, l'elaborazione dell'informazione compie un balzo da gigante, e il numero di operazioni al secondo che può realizzare un computer quantistico è tale da permetterci di realizzare cose fantascientifiche: dalla realizzazione di reti di sicurezza inviolabili grazie a sistemi di criptaggio perfetti alla simulazione di interi universi.

Si parla da anni di computer quantistici ma, per la verità, siamo ancora lontani. Non che non ci si stia lavorando, anzi: i centri di ricerca dedicati unicamente a questo problema sono moltissimi e ben finanziati. Il problema è costituito dalle enormi difficoltà pratiche poste dalla realizzazione di un computer quantistico. Lavorare su scale subatomiche non è semplicissimo, poiché è necessario raggiungere condizioni veramente proibitive – per esempio temperature prossime allo zero assoluto – e soprattutto operare con concetti che i fisici stessi non capiscono perfettamente. Alcuni pensano che un vero computer quantistico sia ancora ben al di là delle nostre conoscenze scientifiche e tecnologiche, e che sia più opportuno concentrarsi su risultati intermedi che permettano comunque di raggiungere alcuni dei risultati promessi dalla computazione quantistica: risolvere problemi impossibili per i nostri computer classici, anche per i supercomputer più potenti del mondo. Con il boson sampling, o “campionamento del bosone”, è possibile realizzare un surrogato di computer quantistico che sfrutta gli ultimi risultati della fotonica evitando i principali problemi finora irrisolti, come quello della decoerenza. I primi prototipi sono stati realizzati nel 2012 da quatto team internazionali.

La sfida di costruire un chip basato sul campionamento bosonico come via intermedia al computer quantistico universale fu lanciata nel 2010 da Scott Aaronson del MIT, che decise di mettere in palio 100mila dollari per chi fosse riuscito a dimostrare l'effettiva irrealizzabilità di un computer quantistico. Aaronson è parte di quella maggioranza di fisici e ingegneri sicura che gli unici problemi che impediscono oggi di avere un simile computer siano di tipo pratico – investimenti, tempo e innovazione tecnologica – e non teorico. A quanto sembra, il risultato raggiunto da questi quattro gruppi di ricerca dimostra che Aaronson è nel giusto e che, se forse ci vorrà tempo per un vero computer quantistico, qualcosa di simile potrà presto diventare finalmente realtà.

Come funziona un computer a campionamento bosonico? C'è un emettitore di fotoni, un circuito all'interno del quale i fotoni viaggiano interagendo tra loro, e infine un output, un rilevatore capace di individuare i singoli fotoni che emergono. Questo sistema è già in grado di risolvere un problema impossibile per i computer tradizionali: prevedere in anticipo dove spunteranno i fotoni al termine del loro viaggio nel circuito. Un computer classico impiegherebbe molto tempo per trovare tutte le soluzioni, a causa di un fenomeno quantistico noto come interferenza, dovuto al fatto che la luce non è solo un insieme di fotoni, ma si comporta anche come un'onda. Un sistema computazionale a campionamento bosonico è in grado di trovare le soluzioni velocemente con un numero limitato di fotoni (appena 3 o 4). Lo strumento messo a punto è solo un dimostratore, ma i suoi sviluppatori delle università di Oxford, Londra, Southampton e Shangai sono convinti che sia possibile aumentare gradualmente il numero di fotoni immessi fino a 20 o 30, il limite teorico massimo oltre il quale il problema sarebbe irrisolvibile da qualsiasi computer classico.

Nel 2013 è diventata di pubblico dominio, grazie a un articolo della rivista MIT Technology Review, la notizia che dal 2010 il governo americano starebbe utilizzando con successo una rete Internet quantistica presso i laboratori nazionali di Los Alamos. Una rete del genere risponde, in primo luogo, al crescente bisogno di sicurezza da parte del governo USA. Da anni il tema della sicurezza di Internet è al centro del dibattito tra gli esperti. L'informatica quantistica ha dimostrato che, grazie alle proprietà peculiari della fisica quantistica, è possibile realizzare strumenti di comunicazione del tutto inviolabili. Tuttavia, finora è stato possibile solo creare canali di trasmissione da un punto A a un punto B, mentre la distribuzione della trasmissione all'interno di una rete, come avviene in Internet, attraverso una serie di router, si è rivelata impossibile. A Los Alamos ci sarebbero invece riusciti.

Richard Hughes, a capo del progetto di ricerca, ha gettato acqua sul fuoco, sostenendo che definire l'obiettivo dell'esperimento la creazione di una “Internet segreta” sarebbe un'esagerazione. «Non facciamo parte di Internet e quella frase – Internet quantistico – non è stata usata nel nostro paper», nel quale Hughes e colleghi hanno fornito una descrizione preliminare del sistema da loro sviluppato. A suo dire, il fatto che la notizia sia stata resa nota solo a oltre due anni dai primi esiti positivi della sperimentazione, non ha nulla a che vedere con esigenze di segretezza ma solo con ritardi nella registrazione del brevetto. Resta però il fatto che il governo USA sta investendo in modo significativo su questo versante con il preciso obiettivo di dotarsi di una tecnologia impermeabile a tentativi di intromissione da parte di estranei.

La crittografia quantistica è considerata l'ultima frontiera negli sforzi per realizzare sistemi di comunicazione ultrasicuri. Infatti, le leggi della meccanica quantistica fanno sì che 1'informazione trasmessa attraverso i quanti, come per esempio i fotoni, sia impossibile da intercettare: il principio di Heisenberg prevede che qualsiasi tentativo di osservare una particella quantistica la modifica inevitabilmente. Applicato ai sistemi di crittografia, ciò vuol dire che se un hacker riesce a intercettare un flusso di informazioni trasmesso in forma di qubit, ossia di bit quantistici, 1'informazione presente all'interno viene alterata e diventa irrecuperabile. Inoltre, il teorema di no-cloning afferma 1'impossibilità di copiare 1'informazione presente all'interno di un sistema quantistico. Se un hacker cercasse di intercettare i fotoni e copiarli per conoscere 1'informazione che stanno veicolando, non otterrebbe nulla.

L'applicazione pratica della crittografia quantistica è realtà ormai da diversi anni. Nel 2004 fu usata con successo da una banca austriaca, a Vienna, per il trasferimento di dati, e nel 2007 è stata impiegata in via sperimentale a Ginevra per le elezioni elettroniche. Da allora l'utilizzo di questo sistema si è diffuso a macchia d'olio, restando tuttavia limitato da un problema finora considerato insormontabile: 1'informazione può essere trasmessa solo tra due punti opposti di una linea a fibra ottica, ma non può essere poi rimbalzata verso altri nodi di una rete, come nel caso di Internet. Per farlo, sarebbe necessario avere dei router, che hanno appunto il compito di distribuire l'informazione attraverso la rete. Il problema è che nel caso dell'informatica quantistica un router, per poter operare, deve leggere il contenuto della trasmissione quantistica, con il risultato di alterarlo irreparabilmente.

Nel 2011 alla Northwestern University è stato effettuato con successo un primo test che ha dimostrato la possibilità di aggirare il problema, ma con costi insostenibili. A Los Alamos avrebbero applicato una soluzione diversa: un hub che trasmette 1'informazione, ricevibile poi da una molteplicità di destinatari. Qualcosa di diverso, quindi, da una rete come Internet, che prevede anche dei collegamenti internodali di tipo orizzontale e non solo verticale. Una rete molto più gerarchica, quindi, e più vicina alle effettive esigenze militari per le quali è stata sviluppata. Le ricerche dei gruppi impegnati nel settore della crittografia quantistica a Los Alamos, infatti, sono da tempo lautamente finanziate dalla DARPA, 1'agenzia di Stato per lo sviluppo di progetti avanzati nel settore della difesa.

La rete realizzata a Los Alamos si basa sulla conversione di qubit in bit e viceversa. Il messaggio viene trasmesso all'hub attraverso il normale sistema di crittografia quantistico. L'hub converte quindi l'informazione in bit per poter effettuare la lettura, e quindi la ricodifica in qubit per inviarla ai diversi nodi collegati. Per trasmettere un'informazione da un nodo a un altro bisognerà quindi sempre passare per 1'hub centrale, il che comporta un evidente limite di sicurezza: solo se l'hub non viene violato, la rete resta impenetrabile a interferenze esterne. A ogni modo, a Los Alamos sono convinti che questa sorta di Internet quantistico possa essere applicata in tempi brevi alla rete elettrica. La vulnerabilità della rete elettrica ad attacchi terroristici da parte di hacker è una delle principali preoccupazioni dell'intelligence americana.

Come ha reso noto la compagnia di antivirus McAfee già nel 2011, dalla Cìna negli ultimi anni sono stati lanciati importanti attacchi informatici nei confronti di aziende elettriche che hanno permesso agli hacker di acquisire informazioni strategiche vitali, attraverso le quali sarebbe possibile attaccare le centrali elettriche danneggiando drammaticamente l'economia di una grande nazione. Secondo accertamenti, la maggior parte di questi attacchi sarebbe coordinato da un singolo individuo residente nella provincia cinese dello Shandong. Recentemente, inoltre, la NASA ha ammesso di aver subito negli ultimi due anni migliaia di violazioni della propria rete informatica da parte di hacker con IP cinese. La tensione tra Washington e Pechino sta crescendo rapidamente, soprattutto dopo che ulteriori indagini avrebbero dimostrato che le basi da cui vengono lanciati gli attacchi sono di proprietà del governo cinese. La prevenzione, a questo punto, diventa la strategia migliore da adottare. E mentre le compagnie informatiche tradizionali lavorano per perfezionare continuamente i propri sistemi antintrusione, gli scienziati sono al lavoro per rendere utilizzabile nel più breve tempo possibile la “difesa finale” conto gli hacker.

Se questo è il mondo pre-singolarità, in cui la guerra si sta sempre più trasferendo negli spazi virtuali di Internet, difficilmente il mondo post-singolarità sarà simile all'utopia sognata dai tecnoentusiasti. I guru della Silicon Valley hanno istituito qualche anno fa la Singularity University, finanziata da tutte le grandi compagnie della new economy, e della NASA, per formare i leader dell'era postumana. Ma il problema più difficile che questi leader di domani dovranno affrontare, se davvero la “promessa” sella singolarità si avvererà, sarà il gap che dividerà la postumanità necessariamente occidentale, concentrata nel Nord del mondo con i resti della vecchia umanità che continueranno ad abitare il Sud del mondo, inesorabilmente tagliato fuori dallo sviluppo tecnologico. E se il prezzo da pagare per godere di quest'evoluzione sarà quello di rendere incolmabili il divario che già oggi spezza il nostro pianeta a metà, non è detto che quello profetizzato dai singolaristi sia davvero il migliore dei mondi possibili.