17 aprile 2025

Vitalik Buterin ►"Perché sostengo la privacy"

Un ringraziamento speciale ai volontari Balvi, Paul Dylan-Ennis, pcaversaccio, vettorializzato, Bruce Xu e Luozhu Zhang per discussione e feedback.
Di recente mi sono sempre più concentrato migliorare lo stato di privacy nell'ecosistema Ethereum. La privacy è un importante garante del decentramento: chiunque abbia il l'informazione ha il potere, ergo dobbiamo evitare il controllo centralizzato oltre l'informazione. Quando le persone nel mondo reale esprimono preoccupazione per infrastruttura tecnica gestita a livello centrale, la preoccupazione è talvolta sugli operatori che modificano le regole in modo imprevisto o deplatforming degli utenti, ma altrettanto spesso, si tratta della raccolta dei dati.

Sebbene il settore delle criptovalute abbia le sue origini in progetti come Chaumian Ecash, che hanno posto al centro la tutela della privacy finanziaria digitale, più recentemente ha sottovalutato la privacy per quella che in definitiva è una cattiva ragione: prima degli ZK-SNARK, non avevamo modo di garantire la privacy in modo decentralizzato, e quindi l'abbiamo minimizzata, concentrandoci esclusivamente su altre garanzie che potevamo fornire all'epoca.
Oggi, tuttavia, la privacy non può più essere ignorata. L'intelligenza artificiale sta aumentando notevolmente le capacità di raccolta e analisi centralizzata dei dati, ampliando al contempo la portata dei dati che condividiamo volontariamente. In futuro, tecnologie più recenti come le interfacce cervello-computer pongono ulteriori sfide: potremmo letteralmente parlare di un'intelligenza artificiale che legge le nostre menti. Allo stesso tempo, disponiamo di strumenti più potenti per preservare la privacy, soprattutto nel regno digitale, di quanto i cypherpunk degli anni '90 avrebbero potuto immaginare: le prove a conoscenza zero altamente efficienti (ZK-SNARK) possono proteggere le nostre identità rivelando informazioni sufficienti a dimostrare che siamo affidabili, la crittografia completamente omomorfica (FHE) può consentirci di elaborare dati senza vederli e l'offuscamento potrebbe presto offrire ancora di più.

A questo punto, vale la pena fare un passo indietro e riconsiderare la domanda: perché desideriamo la privacy, in primo luogo? La risposta di ognuno sarà diversa. In questo post darò la mia, che suddividerò in tre parti:
  • 👉🏼 Privacy è libertà: la privacy ci dà lo spazio per vivere la nostra vita nel modo che meglio soddisfa i nostri bisogni, senza preoccuparci costantemente di come le nostre azioni saranno percepite in ogni tipo di gioco politico e sociale.
  • 👉🏼 Privacy è ordine: un'intera serie di meccanismi alla base del funzionamento di base della società dipendono dalla privacy per funzionare.
  • 👉🏼 Privacy è progresso: se acquisiamo nuovi modi per condividere le nostre informazioni in modo selettivo, proteggendole al contempo da un uso improprio, possiamo sbloccare un grande valore e accelerare il progresso tecnologico e sociale.
Privacy è libertà

All'inizio degli anni 2000, era popolare avere punti di vista simili a quelli esemplificati dal libro di David Brin del 1998 "The Transparent Society": la tecnologia avrebbe reso le informazioni in tutto il mondo molto più trasparenti e, sebbene ciò avrebbe comportato degli svantaggi e richiesto degli adattamenti, in media è un'ottima cosa, e possiamo renderla equa assicurandoci che le persone possano sorvegliare (o meglio, sotto-velare) anche il governo. Nel 1999, il CEO di Sun Microsystems, Scott McNealy, esclamò: "La privacy è morta, fatevene una ragione!". 

Questa mentalità era comune nella concezione e nello sviluppo iniziali di Facebook, che vietava le identità pseudonime. Ricordo personalmente di aver sperimentato la fine di questa mentalità durante una presentazione a un evento Huawei a Shenzhen nel 2015, dove un oratore (occidentale) accennò casualmente, con un'osservazione superficiale, che "la privacy è finita"

La Società Trasparente rappresentava il meglio e il più brillante di ciò che l'ideologia della "fine della privacy" aveva da offrire: prometteva un mondo migliore, più giusto ed equo, usando il potere della trasparenza per responsabilizzare i governi anziché reprimere individui e minoranze. Col senno di poi, tuttavia, è chiaro che anche questo approccio era frutto del suo tempo, scritto al culmine dell'entusiasmo per la cooperazione globale, la pace e la "fine della storia", e si basava su una serie di presupposti eccessivamente ottimistici sulla natura umana. Principalmente:
  • I livelli più alti della politica globale sarebbero generalmente ben intenzionati e sensati, rendendo la privacy verticale (ovvero il non rivelare informazioni a persone e istituzioni potenti) sempre più superflua. Gli abusi di potere sarebbero generalmente localizzati, quindi il modo migliore per contrastarli è portarli alla luce del sole. 
  • La cultura continuerebbe a migliorare fino al punto in cui la privacy orizzontale (ovvero il non rivelare informazioni ad altri membri del pubblico) diventerebbe superflua. Nerd, gay e, in definitiva, tutti gli altri potrebbero smettere di nascondersi nell'armadio, perché la società smetterebbe di essere severa e giudicante nei confronti delle caratteristiche uniche delle persone e diventerebbe invece aperta e tollerante.
Oggi, non esiste un singolo grande Paese per il quale la prima ipotesi sia ampiamente riconosciuta come vera, e ce ne sono parecchi per i quali è ampiamente riconosciuta come falsa. Sul secondo fronte, anche la tolleranza culturale sta rapidamente regredendo: una semplice ricerca su Twitter di frasi come "il bullismo è positivo" ne è una prova, anche se è facile trovarne altre.

Personalmente ho la sfortuna di imbattermi regolarmente negli svantaggi della "società trasparente", poiché ogni singola azione che compio all'esterno ha una probabilità non nulla di diventare inaspettatamente oggetto di cronaca pubblica.

Il peggior trasgressore è stato qualcuno che ha girato un video di un minuto mentre ero al computer a Chiang Mai e lo ha pubblicato su Xiaohongshu, dove ha immediatamente ottenuto migliaia di "Mi piace" e condivisioni. Certo, la mia situazione personale è ben lontana dalla norma umana, ma è sempre stato così con la privacy: la privacy è meno necessaria per le persone le cui situazioni di vita sono relativamente normali, e più necessaria per le persone le cui situazioni di vita si discostano dalla norma, in qualsiasi direzione. E una volta sommati tutti i diversi aspetti che contano, il numero di persone che hanno davvero bisogno della privacy finisce per essere piuttosto elevato, e non si sa mai quando si finirà per diventare una di loro. Questo è uno dei motivi principali per cui la privacy è spesso sottovalutata: non riguarda solo la tua situazione e le tue informazioni oggi, ma anche l'incognita di ciò che accade a quelle informazioni (e di come ti influenzano) nel futuro. La privacy derivante dai meccanismi di determinazione dei prezzi aziendali è oggi una questione di nicchia, anche tra i sostenitori dell'intelligenza artificiale, ma con l'avvento degli strumenti di analisi basati sull'intelligenza artificiale è probabile che diventi una questione crescente: più un'azienda sa di te, più sarà propensa a offrirti un prezzo personalizzato che massimizzi quanto può ottenere da te, moltiplicato per la probabilità che tu paghi.

Posso esprimere la mia argomentazione generale a favore della privacy come libertà in una sola frase:
La privacy ti dà la libertà di vivere la tua vita nel modo che meglio si adatta ai tuoi obiettivi e bisogni personali, senza dover bilanciare costantemente ogni azione tra "il gioco privato" (i tuoi bisogni) e "il gioco pubblico" (come ogni tipo di altra persona, intermediata da ogni tipo di meccanismo, inclusi i social media, gli incentivi commerciali, la politica, le istituzioni, ecc., percepirà e reagirà al tuo comportamento).
Senza privacy, tutto diventa una battaglia costante su "cosa penseranno gli altri (e i bot) di quello che sto facendo" - persone potenti, aziende e colleghi, persone di oggi e di domani. Con la privacy, possiamo preservare un equilibrio. Oggi, questo equilibrio si sta rapidamente erodendo, soprattutto nell'ambito fisico, e la strada intrapresa dal tecnocapitalismo moderno, con la sua fame di modelli di business che trovino il modo di ricavare valore dagli utenti senza chiedere loro di pagare esplicitamente, è quella di eroderlo ulteriormente (anche in ambiti altamente sensibili come, in ultima analisi, le nostre stesse menti). Pertanto, dobbiamo contrastare questo effetto e sostenere la privacy in modo più esplicito, soprattutto nel luogo in cui è più concretamente possibile: l'ambito digitale.

Ma perché non consentire al governo di accedere a servizi segreti?

C'è una risposta comune al ragionamento di cui sopra: gli svantaggi della privacy che ho descritto sono in gran parte dovuti al fatto che il pubblico sa troppo della nostra vita privata, e anche quando si tratta di abuso di potere, si tratta di aziende, dirigenti e politici che sanno troppo. Ma non permetteremo al pubblico, alle aziende, ai dirigenti e ai politici di avere tutti questi dati. Invece, lasceremo che un piccolo gruppo di professionisti delle forze dell'ordine altamente qualificati e accuratamente selezionati veda i dati acquisiti dalle telecamere di sicurezza nelle strade e dalle intercettazioni telefoniche sui cavi internet e sulle applicazioni di chat, applichi rigide procedure di responsabilità e nessun altro lo scoprirà.

Questa è una posizione silenziosa, ma ampiamente sostenuta, ed è quindi importante affrontarla esplicitamente. Ci sono diverse ragioni per cui, anche se implementate con elevati standard qualitativi e buone intenzioni, tali strategie sono intrinsecamente instabili:
  1. In pratica, non si tratta solo del governo, ma anche di ogni tipo di entità aziendale, con diversi livelli di qualità. Nei sistemi finanziari tradizionali, le informazioni KYC e di pagamento vengono conservate da processori di pagamento, banche e ogni tipo di altro intermediario. I provider di posta elettronica accedono a enormi quantità di dati di ogni tipo. Le compagnie di telecomunicazioni conoscono la tua posizione e la rivendono regolarmente illegalmente. In generale, controllare tutte queste entità con un livello di rigore sufficiente a garantire che abbiano un elevato livello di tutela dei dati degli utenti è così impegnativo sia per chi controlla che per chi viene controllato da essere probabilmente incompatibile con il mantenimento di un libero mercato competitivo.
  2. Chi ha accesso ai dati sentirà sempre la tentazione di abusarne (anche vendendoli a terzi). Nel 2019, diversi dipendenti di Twitter sono stati incriminati e successivamente condannati per aver venduto informazioni personali di dissidenti all'Arabia Saudita.
  3. I dati possono sempre essere hackerati. Nel 2024, i dati che le compagnie di telecomunicazioni statunitensi erano legalmente obbligate a raccogliere sono stati hackerati, presumibilmente da hacker cinesi affiliati allo Stato. Nel 2025, ingenti quantità di dati personali sensibili detenuti dal governo ucraino sono state hackerate dalla Russia. E, viceversa, anche database governativi e aziendali altamente sensibili in Cina vengono hackerati, incluso il governo degli Stati Uniti.
  4. Il regime può cambiare. Un governo affidabile oggi potrebbe non esserlo più domani. Le persone al comando oggi potrebbero essere perseguitate domani. Un'agenzia di polizia che mantiene standard impeccabili di rispetto e decoro un giorno potrebbe ritrovarsi ridotta a ogni sorta di crudeltà gioiosa un decennio dopo.
Dal punto di vista di un individuo, se i dati gli vengono sottratti, non ha modo di sapere se e come verranno utilizzati in futuro. L'approccio di gran lunga più sicuro alla gestione di dati su larga scala è di raccoglierne centralmente la minor quantità possibile fin dall'inizio. I dati dovrebbero essere conservati al massimo dagli utenti stessi e dovrebbero essere utilizzati mezzi crittografici per consentire l'aggregazione di statistiche utili senza compromettere la privacy individuale. Dal punto di vista di un individuo, se i dati vengono presi da loro, non hanno modo di dire se e come verrà abusato in futuro. L'approccio di gran lunga più sicuro alla gestione dei dati su larga scala è quello di raccogli centralmente il meno possibile nel primo posto. I dati dovrebbero essere tenuti al massimo dagli utenti stessi e mezzi crittografici utilizzati per consentire l'aggregazione di statistiche utili senza compromettere la privacy individuale.

L'argomentazione secondo cui il governo dovrebbe avere la possibilità di accedere a qualsiasi cosa con un mandato perché è così che le cose hanno sempre funzionato trascura un punto chiave: storicamente, la quantità di informazioni ottenibili con un mandato era di gran lunga inferiore a quella odierna, e persino a quella che sarebbe disponibile se le forme più rigorose di privacy online proposte fossero universalmente adottate. Nel XIX secolo, la conversazione media avveniva una sola volta, a voce, e non veniva mai registrata da nessuno. Per questo motivo: l'intero panico morale legato al "going dark" è astorico: la conversazione media, e persino la transazione finanziaria, essendo completamente e incondizionatamente private è la norma storica plurimillenaria.

Un altro motivo importante per ridurre al minimo la raccolta centralizzata di dati è la natura intrinsecamente internazionale di ampie porzioni di comunicazione e interazione economica globale. Se tutti si trovano nello stesso Paese, è quantomeno coerente affermare che "il governo" dovrebbe avere accesso ai dati nelle loro interazioni. Ma cosa succede se le persone si trovano in Paesi diversi? 

Certamente, in linea di principio si potrebbe provare a elaborare uno schema a 360 gradi in cui i dati di ogni persona vengono associati a un'entità di accesso legale che ne sia responsabile, sebbene anche in questo caso si dovrebbe gestire un numero enorme di casi limite che coinvolgono dati relativi a più persone. Ma anche se fosse possibile, non si tratta del risultato realistico di default. Il risultato realistico di default delle backdoor governative è: i dati si concentrano in un piccolo numero di giurisdizioni centrali che detengono i dati di tutti perché ne controllano le applicazioni – in sostanza, una tecno-egemonia globale. Una privacy forte è di gran lunga l'alternativa più stabile.

La privacy è ordine

Da oltre un secolo, si riconosce che un elemento tecnico chiave per il funzionamento della democrazia è il voto segreto: nessuno sa per chi hai votato e, inoltre, non hai la possibilità di dimostrare a nessun altro chi hai votato, anche se lo volessi davvero. Se il voto segreto non fosse una prassi standard, gli elettori verrebbero aggrediti da ogni sorta di incentivi collaterali che influenzano il loro voto: tangenti, promesse di ricompense retroattive, pressione sociale, minacce e altro ancora. 

Si può osservare che tali incentivi collaterali distruggerebbero completamente la democrazia con un semplice ragionamento matematico: in un'elezione con N persone, la probabilità di influenzare l'esito è solo approssimativamente 1/N, e quindi qualsiasi considerazione relativa a quale candidato sia migliore e quale peggiore viene intrinsecamente divisa per N. Nel frattempo, i "giochi collaterali" (ad esempio, corruzione degli elettori, coercizione, pressione sociale) agiscono direttamente su di voi in base al vostro voto (piuttosto che in base all'esito del voto nel suo complesso), e quindi non vengono divisi per N. Pertanto, a meno che i giochi collaterali non siano strettamente controllati, di default travolgono l'intero gioco e soffocano qualsiasi considerazione su quale politica del candidato sia effettivamente migliore.

Questo non vale solo per la democrazia su scala nazionale. In teoria, si applica a quasi tutti i problemi di relazione principale-agente, aziendale o governativa:
  • Un giudice che decide come pronunciarsi in un caso
  • Un funzionario governativo che decide a quale azienda assegnare un contratto o una sovvenzione
  • Un funzionario dell'immigrazione che decide se concedere o rifiutare un visto
  • Un dipendente di un'azienda di social media che decide come applicare la politica di moderazione dei contenuti
  • Un dipendente di un'azienda che contribuisce a una decisione aziendale (ad esempio, da quale fornitore acquistare)
Il problema fondamentale in tutti i casi è lo stesso: se l'agente agisce onestamente, assorbe solo una piccola parte del beneficio della sua azione per l'entità che rappresenta, mentre se segue gli incentivi di qualche gioco collaterale, ne assorbe l'intera quota. Pertanto, anche oggi, facciamo affidamento su una forte buona volontà morale per assicurarci che tutte le nostre istituzioni non vengano completamente travolte da un vortice caotico di giochi collaterali che rovesciano i giochi collaterali. Se la privacy diminuisce ulteriormente, questi giochi collaterali diventano ancora più forti e la buona volontà morale necessaria per il funzionamento della società potrebbe diventare irrealisticamente elevata.

I sistemi sociali potrebbero essere riprogettati per evitare questo problema? Purtroppo, la teoria dei giochi afferma esplicitamente che ciò è impossibile (con un'eccezione: la dittatura totale). Nella versione della teoria dei giochi che si concentra sulla scelta individuale – ovvero quella che presuppone che ogni partecipante prenda decisioni in modo indipendente e che non ammette la possibilità che gruppi di agenti lavorino come un'unica persona per il reciproco vantaggio – i progettisti di meccanismi hanno un'ampia libertà di "ingegnerizzare" i giochi per ottenere ogni tipo di risultato specifico. Infatti, esistono dimostrazioni matematiche che per ogni gioco deve esistere almeno un equilibrio di Nash stabile, e quindi l'analisi di tali giochi diventa praticabile. Ma nella versione della teoria dei giochi che ammette la possibilità che coalizioni lavorino insieme (cioè "colludano"), chiamata teoria dei giochi cooperativi, possiamo dimostrare che esistono ampie classi di giochi che non hanno alcun risultato stabile (chiamate "nucleo"). In tali giochi, qualunque sia lo stato attuale delle cose, c'è sempre una coalizione che può proficuamente deviarne.

Se prendiamo sul serio la matematica, giungiamo alla conclusione che l'unico modo per creare strutture sociali stabili è porre dei limiti al livello di coordinamento tra i partecipanti che può verificarsi, e questo implica una forte privacy (inclusa la negabilità). Se non si prende sul serio la matematica di per sé, è sufficiente osservare il mondo reale, o almeno riflettere su come potrebbero trasformarsi alcune delle situazioni principale-agente descritte sopra se fossero gestite da giochi collaterali, per giungere alla stessa conclusione.

Si noti che questo introduce un altro argomento a sostegno del rischio delle backdoor governative. Se tutti hanno una capacità illimitata di coordinarsi con tutti su tutto, il risultato è il caos. Ma se solo poche persone possono farlo, perché hanno un accesso privilegiato alle informazioni, allora il risultato è che dominano. L'accesso backdoor di un partito politico alle comunicazioni dell'altro può facilmente significare la fine della fattibilità di avere più partiti politici.

Un altro importante esempio di ordine sociale che dipende dai limiti alla collusione per funzionare è l'attività intellettuale e culturale. La partecipazione ad attività intellettuali e culturali è intrinsecamente un compito intrinsecamente motivato e di senso civico: è molto difficile creare incentivi estrinseci che mirino a contributi positivi alla società, proprio perché l'attività intellettuale e culturale è, in parte, l'attività che determina quali azioni nella società siano in primo luogo positive. Possiamo creare incentivi commerciali e sociali approssimativi che puntino nella giusta direzione, ma anch'essi richiedono una forte integrazione con la motivazione intrinseca. Ciò significa anche che questo tipo di attività è altamente vulnerabile a motivazioni estrinseche disallineate, in particolare a giochi collaterali come la pressione sociale e la coercizione. Per limitare l'impatto di tali motivazioni estrinseche disallineate, la privacy è ancora una volta necessaria.

La privacy è progresso

Immaginate un mondo in cui la crittografia a chiave pubblica e a chiave simmetrica non esistesse affatto. In questo mondo, inviare messaggi in modo sicuro su lunghe distanze sarebbe intrinsecamente molto più difficile: non impossibile, ma difficile. Ciò porterebbe a una cooperazione internazionale molto minore e, di conseguenza, molta più comunicazione continuerebbe a avvenire tramite canali offline, di persona. Ciò avrebbe reso il mondo un luogo molto più povero e diseguale.

Sosterrò che oggi ci troviamo esattamente in quella situazione, rispetto a un ipotetico mondo di domani in cui forme di crittografia molto più potenti fossero ampiamente disponibili – in particolare, la crittografia programmabile, potenziata da forme più potenti di sicurezza full-stack e verifica formale per darci solide garanzie che questa crittografia venga utilizzata correttamente.

Un'ottima fonte di esempi è l'assistenza sanitaria. Se parlate con chiunque abbia lavorato nel campo della longevità, della resistenza alle pandemie o in altri settori della salute nell'ultimo decennio, vi dirà unanimemente che il futuro del trattamento e della prevenzione è personalizzato e che una risposta efficace dipende fortemente da dati di alta qualità, sia dati individuali che dati ambientali. Per proteggere efficacemente le persone dalle malattie trasmesse per via aerea è necessario sapere dove la qualità dell'aria è più alta e più bassa e in quali regioni emergono i patogeni in un dato momento. Le cliniche per la longevità più avanzate forniscono tutte raccomandazioni e trattamenti personalizzati basati su dati relativi al corpo, alle preferenze alimentari e allo stile di vita.

Tuttavia, ognuno di questi aspetti rappresenta al contempo un enorme rischio per la privacy. Sono personalmente a conoscenza di un caso in cui un monitor dell'aria è stato consegnato a un dipendente che ha "telefonato a casa" un'azienda e i dati raccolti sono stati sufficienti per determinare quando quel dipendente aveva avuto rapporti sessuali. Per ragioni come questa, mi aspetto che, di default, molte delle forme di dati più preziose non vengano affatto raccolte, proprio perché le persone temono le conseguenze sulla privacy. E anche quando i dati vengono raccolti, quasi sempre non vengono ampiamente condivisi o resi disponibili ai ricercatori, in parte per motivi aziendali, ma altrettanto spesso per le relative preoccupazioni sulla privacy.

Lo stesso schema si ripete in altri ambiti. C'è un'enorme quantità di informazioni su di noi nelle nostre azioni, nei documenti che scriviamo, nei messaggi che inviamo attraverso varie applicazioni e nelle varie azioni sui social media, che potrebbero essere utilizzate per prevedere e fornire in modo più efficace ciò di cui abbiamo bisogno nella nostra vita quotidiana. C'è un'enorme quantità di informazioni su come interagiamo con i nostri ambienti fisici che non è correlata all'assistenza sanitaria. Oggi non abbiamo gli strumenti per utilizzare efficacemente queste informazioni senza creare incubi distopici sulla privacy. Domani potremmo averli.

Il modo migliore per risolvere queste sfide è utilizzare una crittografia avanzata, che può permetterci di ottenere i vantaggi della condivisione dei dati senza gli svantaggi. La necessità di accedere ai dati, compresi quelli personali, diventerà sempre più importante nell'era dell'intelligenza artificiale, poiché la possibilità di addestrare e gestire localmente "gemelli digitali" in grado di prendere decisioni per nostro conto sulla base di approssimazioni ad alta fedeltà delle nostre preferenze offre un valore aggiunto. A lungo termine, ciò comporterà anche l'utilizzo della tecnologia di interfaccia cervello-computer (BCI), che leggerà input ad alta larghezza di banda dalle nostre menti. Affinché ciò non porti a un'egemonia globale fortemente centralizzata, abbiamo bisogno di modi per farlo nel rispetto di una rigorosa privacy. La crittografia programmabile è la soluzione più affidabile.

La privacy può rappresentare un progresso per la sicurezza della nostra società

Le tecniche di crittografia programmabile come le dimostrazioni a conoscenza zero sono potenti, perché sono come mattoncini Lego per il flusso di informazioni. Possono consentire un controllo preciso su chi può vedere quali informazioni e, spesso ancora più importante, quali informazioni possono essere viste. Ad esempio, posso dimostrare di avere un passaporto canadese che attesta la mia maggiore età, senza rivelare altro su di me.

Questo rende possibili combinazioni affascinanti di ogni tipo. Posso fare alcuni esempi:
  • Prova di identità a conoscenza zero: dimostrare di essere una persona unica (tramite varie forme di identificazione: passaporto, dati biometrici, basati su social graph decentralizzati) senza rivelare altro sulla persona che si è. Questa potrebbe essere utilizzata per "dimostrare di non essere un bot", per tutti i tipi di "casi d'uso con N massimo per persona" e altro ancora, preservando al contempo la privacy completa oltre a rivelare il fatto che le regole non vengono violate.
  • Privacy Pools, una soluzione per la privacy finanziaria in grado di escludere i malintenzionati senza richiedere backdoor. Quando spendono, gli utenti possono dimostrare che le loro criptovalute provengono da una fonte che non fa parte di un elenco pubblicamente noto di attacchi informatici e furti; gli hacker e i ladri stessi sono gli unici a non essere in grado di generare tale prova e quindi non potrebbero nascondersi. Railgun e privacypools.com sono attualmente attivi e utilizzano questo schema.
  • Scansione antifrode sul dispositivo: questa funzione non dipende dagli ZKP, ma sembra appartenere a questa categoria. È possibile utilizzare filtri sul dispositivo (inclusi gli LLM) per controllare i messaggi in arrivo e identificare automaticamente potenziali informazioni errate e truffe. Se eseguita sul dispositivo, questa funzionalità non compromette la privacy dell'utente e può essere eseguita in modo da consentire a ciascun utente di scegliere a quali filtri iscriversi.
  • Prova di provenienza per beni fisici: utilizzando una combinazione di blockchain e dimostrazioni a conoscenza zero, è possibile tracciare diverse proprietà di un bene lungo la sua catena di produzione. Ciò potrebbe consentire, ad esempio, di determinare il prezzo delle esternalità ambientali senza rivelare pubblicamente la catena di approvvigionamento.
Privacy e IA (Intelligenza Artificiale)

Di recente, ChatGPT ha annunciato che inizierà a integrare le vostre conversazioni passate nell'IA come contesto per le vostre conversazioni future. Che la tendenza continui in questa direzione è inevitabile: un'IA che esamina le vostre conversazioni passate e ne ricava informazioni è fondamentalmente utile. Nel prossimo futuro, probabilmente vedremo persone realizzare prodotti di IA che intromettono ancora di più la privacy: raccolgono passivamente le vostre abitudini di navigazione su Internet, la cronologia di email e chat, dati biometrici e altro ancora.

In teoria, i vostri dati rimangono privati. In pratica, non sembra sempre essere così:

"Wow! ChatGPT ha un bug e spinge le domande poste da altri a me! Questa è una grande perdita di privacy. Ho fatto una domanda, ho ricevuto un errore e quindi ‘Retry 'ha generato una domanda che non avrei mai posto."

 
È sempre possibile che la protezione della privacy abbia funzionato correttamente, e in questo caso l'IA ha avuto un'allucinazione generando una domanda che Bruce non aveva mai posto e rispondendovi. Ma non c'è modo di verificarlo. Allo stesso modo, non c'è modo di verificare se le nostre conversazioni vengano utilizzate o meno per l'addestramento.

Tutto questo è profondamente preoccupante. Ancora più inquietanti sono i casi d'uso espliciti di sorveglianza dell'IA, in cui dati (fisici e digitali) sulle persone vengono raccolti e analizzati su larga scala senza il loro consenso. Il riconoscimento facciale sta già aiutando i regimi autoritari a reprimere il dissenso politico su larga scala. E la cosa più preoccupante di tutte è l'inevitabile ultima frontiera della raccolta e dell'analisi dei dati dell'IA: la mente umana.

In linea di principio, la tecnologia dell'interfaccia cervello-computer ha un incredibile potere di potenziare il potenziale umano. Prendiamo la storia di Noland Arbaugh, il primo paziente di Neuralink lo scorso anno:
Il dispositivo sperimentale ha dato ad Arbaugh, ora trentenne, un senso di indipendenza. Prima, usare un bite orale richiedeva che qualcuno lo posizionasse in posizione eretta. Se gli cadeva il suo bite, doveva essere raccolto. E non poteva usarlo a lungo altrimenti gli si sarebbero formate delle piaghe. Con il dispositivo Neuralink, ha il controllo quasi totale di un computer. Può navigare sul web e giocare ai videogiochi quando vuole, e Neuralink afferma di aver stabilito il record umano per il controllo del cursore con una BCI.
Oggi, questi dispositivi sono abbastanza potenti da dare potere a feriti e malati. Domani, saranno abbastanza potenti da dare alle persone completamente sane l'opportunità di lavorare con i computer e comunicare telepaticamente tra loro (!!), con un livello di efficienza che a noi sembra inimmaginabile. Ma interpretare effettivamente i segnali cerebrali per rendere possibile questo tipo di comunicazione richiede l'intelligenza artificiale.

C'è un futuro oscuro che potrebbe emergere naturalmente dalla confluenza di queste tendenze, e avremo super-agenti di silicio che assorbiranno e analizzeranno informazioni su tutti, incluso il modo in cui scrivono, agiscono e pensano. Ma c'è anche un futuro più luminoso, in cui potremo beneficiare di queste tecnologie preservando la nostra privacy.

Questo può essere fatto con una combinazione di alcune tecniche:

  • Eseguire il calcolo localmente ove possibile: molte attività (ad esempio, analisi di base delle immagini, traduzione, trascrizione, analisi di base delle onde cerebrali per BCI) sono sufficientemente semplici da poter essere eseguite completamente con calcoli eseguiti localmente. In effetti, il calcolo eseguito localmente offre anche vantaggi nella riduzione della latenza e nel miglioramento della verificabilità. Se qualcosa può essere fatto localmente, dovrebbe essere fatto localmente. Questo include calcoli in cui vari passaggi intermedi comportano l'accesso a Internet, l'accesso agli account dei social media, ecc.
  • Utilizzare la crittografia per rendere il calcolo remoto completamente privato: la crittografia completamente omomorfica (FHE) potrebbe essere utilizzata per eseguire calcoli di intelligenza artificiale da remoto senza consentire al server remoto di visualizzare i dati o i risultati. Storicamente, la FHE è stata molto costosa, ma (i) recentemente ha registrato un rapido miglioramento in termini di efficienza e (ii) i LLM sono una forma di calcolo strutturata in modo unico e asintoticamente quasi tutte le operazioni sono lineari, il che la rende potenzialmente molto adatta a implementazioni FHE ultra-efficienti. Il calcolo che coinvolge i dati privati ​​di più parti può essere eseguito con il calcolo multi-parte; il caso comune di due parti può essere gestito in modo estremamente efficiente con tecniche come i circuiti distorti.
  • Utilizzando la verifica hardware per estendere le garanzie al mondo fisico, potremmo insistere sul fatto che l'hardware in grado di leggere le nostre menti (sia dall'interno che dall'esterno del cranio) debba essere aperto e verificabile, e utilizzare tecniche come IRIS per verificarlo. Possiamo farlo anche in altri ambiti: ad esempio, potremmo avere telecamere di sicurezza che, in modo dimostrabile, salvano e inoltrano il flusso video solo se un LLM locale lo segnala come violenza fisica o emergenza medica, e lo eliminano in tutti gli altri casi, e disporre ispezioni casuali guidate dalla comunità con IRIS per verificare che le telecamere siano implementate correttamente.
Futuro imperfetto

Nel 2008, il filosofo libertario David Friedman ha scritto un libro intitolato Future Imperfect, in cui ha delineato una serie di possibili cambiamenti nella società che le nuove tecnologie avrebbero potuto apportare, non tutti a suo favore (o a nostro favore). In una sezione, descrive un potenziale futuro in cui osserviamo una complessa interazione tra privacy e sorveglianza, dove la crescita della privacy digitale controbilancia la crescita della sorveglianza nel mondo fisico:

Non serve a nulla usare una crittografia avanzata per le mie email se una zanzara video è seduta sul muro a guardarmi mentre scrivo. Quindi, una privacy avanzata in una società trasparente richiede un modo per proteggere l'interfaccia tra il mio corpo nello spazio reale e il cyberspazio... Una soluzione low-tech è digitare sotto una cappa. Una soluzione high-tech è un collegamento tra mente e macchina che non passi attraverso le dita – o qualsiasi altra cosa visibile a un osservatore esterno.24

Il conflitto tra trasparenza nello spazio reale e privacy nel cyberspazio si estende anche all'altra direzione... Il mio computer tascabile cripta il mio messaggio con la tua chiave pubblica e lo trasmette al tuo computer tascabile, che decripta il messaggio e lo visualizza attraverso i tuoi occhiali VR. Per assicurarsi che nulla stia leggendo gli occhiali dietro la tua spalla, gli occhiali ti trasmettono l'immagine non visualizzandola su uno schermo, ma utilizzando un minuscolo laser per scriverla sulla tua retina. Con un po' di fortuna, l'interno del tuo bulbo oculare è ancora uno spazio privato.

Potremmo finire in un mondo in cui le azioni fisiche sono interamente pubbliche e le transazioni di informazioni interamente private. Questo ha alcune caratteristiche interessanti. I privati ​​cittadini potranno comunque sfruttare la privacy rafforzata per localizzare un sicario, ma ingaggiarlo potrebbe costare più di quanto siano disposti a pagare, poiché in un mondo sufficientemente trasparente tutti gli omicidi vengono scoperti. Ogni sicario esegue una commissione e poi finisce direttamente in prigione.

Che dire dell'interazione tra queste tecnologie e l'elaborazione dei dati? Da un lato, è l'elaborazione moderna dei dati a rendere la società trasparente una tale minaccia – senza di essa, non importerebbe molto se si videoregistrasse tutto ciò che accade nel mondo, dato che nessuno potrebbe mai trovare i quindici centimetri di videocassetta che cercava nei milioni di chilometri prodotti ogni giorno. D'altro canto, le tecnologie che supportano una privacy forte offrono la possibilità di ristabilire la privacy, anche in un mondo con l'elaborazione moderna dei dati, impedendo che le informazioni sulle tue transazioni arrivino a chiunque altro che a te.
Un mondo del genere potrebbe benissimo essere il migliore dei mondi possibili: se tutto va bene, assisteremmo a un futuro in cui la violenza fisica sarà molto ridotta, ma allo stesso tempo preserveremo le nostre libertà online e garantiremo il funzionamento di base dei processi politici, civici, culturali e intellettuali nella società, che dipendono da alcuni limiti alla totale trasparenza delle informazioni per il loro funzionamento continuo.

Anche se non è l'ideale, è molto meglio della versione in cui la privacy fisica e digitale si azzera, includendo infine la privacy delle nostre menti. A metà degli anni 2050, infatti, compaiono articoli di opinione che sostengono che, ovviamente, è irrealistico aspettarsi di pensare pensieri che non siano soggetti a intercettazione legale, e le risposte a tali articoli consistono in link all'incidente più recente in cui il sistema LLM di un'azienda di intelligenza artificiale ha subito un exploit che ha portato alla fuga di notizie su Internet per un anno intero di monologhi interiori privati ​​di 30 milioni di persone.

La società ha sempre dipeso da un equilibrio tra privacy e trasparenza. In alcuni casi, sono anch'io a favore di limiti alla privacy. Per fare un esempio completamente estraneo alle argomentazioni usuali che si adducono a questo proposito, sono favorevole alle iniziative del governo statunitense volte a vietare le clausole di non concorrenza nei contratti, principalmente non per il loro impatto diretto sui lavoratori, ma perché rappresentano un modo per imporre che la conoscenza tacita del dominio delle aziende sia parzialmente open source. Costringere le aziende a essere più aperte di quanto vorrebbero è una limitazione della privacy, ma direi che ha un impatto positivo sulla rete. 

Da una prospettiva macro, però, il rischio più pressante della tecnologia del prossimo futuro è che la privacy si avvicini ai minimi storici, e in modo fortemente sbilanciato, dove gli individui e le nazioni più potenti otterranno molti dati su tutti, mentre tutti gli altri non ne vedranno quasi nessuno. Per questo motivo, sostenere la privacy per tutti e rendere gli strumenti necessari open source, universali, affidabili e sicuri è una delle sfide più importanti del nostro tempo.

Vitalik Buterin 
14 aprile 2025

Nessun commento:

Posta un commento

Avvertenze da leggere prima di intervenire sul blog Voci Dalla Strada

Non sono consentiti:
- messaggi pubblicitari
- messaggi con linguaggio offensivo
- messaggi che contengono turpiloquio
- messaggi con contenuto razzista o sessista
- messaggi il cui contenuto costituisce una violazione delle leggi italiane (istigazione a delinquere o alla violenza, diffamazione, ecc.)