logo Spazio70

Benvenuto sul nuovo sito di Spazio 70

Qui potrai trovare una vasta rassegna di materiali aventi ad oggetto uno dei periodi più interessanti della recente storia repubblicana, quello compreso tra la fine degli anni Sessanta e i primi anni Ottanta del secolo scorso.
Il sito comprende sei aree tematiche e ben ventidue sottocategorie con centinaia di pezzi su anni di piombo, strategia della tensione, vicende e personaggi più o meno misconosciuti di un’epoca soltanto apparentemente lontana. Per rinfrescare la memoria di chi c’era e far capire a chi era troppo giovane o non era ancora nato.
Buona lettura e non dimenticare di iscriverti sulla «newsletter» posta alla base del sito. Lasciando un tuo recapito mail avrai la possibilità di essere costantemente informato sulle novità di questo sito e i progetti editoriali di Spazio 70.

Buona Navigazione!

Algoritmi predittivi e sorveglianza totale. Renato Curcio e «Il futuro colonizzato»

Sebastiano Palamara

Sotto la guida di strategie aziendali e istituzionali l’uso sistematico di algoritmi predittivi sta modellando pratiche, inclinazioni e percezioni collettive, svelando la digitalizzazione dell’umano come terreno di sorveglianza e assoggettamento crescenti. All’orizzonte, il sequestro di un futuro «umano» a vantaggio di uno artificiale e post-umano. Un commento a Il futuro colonizzato di Renato Curcio (Sensibili alle foglie, 2019)

Pensiamo al futuro come qualcosa che sarà. Un tempo a venire, in cui si compiranno eventi ancora assenti, incerti o remoti. Un orizzonte aperto, dotato del potere di alludere a possibilità di esistenza altre dal presente. In Occidente il fluire via degli istanti della vita ha naturalizzato nel corso dei secoli una concezione lineare del tempo che ha progressivamente dato forma ai modi del divenire. Il processo temporale si è dispiegato su un asse continuo che ha tessuto intorno a sé gli immaginari socialmente costituiti: dalla visione escatologica della tradizione giudaico-cristiana, che ha inscritto la storia in un disegno provvidenziale orientato a un telos di compimento e redenzione, fino alla secolare trasposizione nella moderna nozione di progresso, che ha posto la linearità temporale a fondamento della razionalità storica (o, nel caso del socialismo, a epistilio cronologico dell’idea di emancipazione nella sua prospettiva di sviluppo storico).

Dio ha la facoltà di conoscere il futuro ma non di intervenire su esso[i], sentenziava Tommaso d’Aquino, consapevole che vincolare il futuro a predeterminazione certa, deducendo dalla volontà divina una necessità assoluta nelle cose create, avrebbe annientato la possibilità dell’uomo di confrontarsi col proprio destino. Ma forse il dio del Doctor Angelicus non usava ancora uno smartphone. La temporalizzazione dei contesti sociali non soggiace a leggi immutabili, e anzi essa muta, si “piega” e si ricompone di frequente, rispecchiando le trasformazioni delle infrastrutture materiali e delle sovrastrutture simboliche che sorreggono l’esperienza collettiva del tempo. Negli ultimi decenni le tecnologie informatiche e digitali hanno inciso in maniera decisiva sull’esperienza individuale e sulla percezione collettiva del tempo, scardinando i modelli cronologici tradizionali. I contesti inaugurati dalle piattaforme digitali, sovvertendo la ciclicità dell’alternanza giorno-notte, hanno irreversibilmente messo in crisi le mappe temporali ereditate dall’epoca delle “macchine meccaniche” e dai ritmi di consumo propri delle società capitalistiche industriali, determinando l’imposizione e la “naturalizzazione” di un tempo virtualizzato, simultaneo, perennemente connesso. Questa inedita dimensione di temporalità elettronica ha ridefinito le coordinate della vita sociale, determinando la trasfigurazione dei paradigmi dell’esistenza umana, fino a mettere in discussione il primato della vita in relazione sulla vita “in connessione”[ii].

L’uso compulsivo dello smartphone occupa ormai gran parte del tempo di veglia degli esseri umani, determinando la sovrapposizione di differenti temporalità sociali – lavoro, svago, consumi, comunicazione politica – non più nettamente separate, ma avviluppate all’interno di un’inedita temporalità digitale. La segmentazione discontinua di questa temporalità frazionata si manifesta e si espande in rotte esistenziali non di rado in conflitto tra loro, come nel difficilmente attuabile accordo tra tempo del lavoro alienato e tempo della propria realizzazione personale, in uno squilibrato palinsesto di tempi sovrapposti nella Mediaset globale dell’eterodeterminazione esistenziale.

In un contesto dominato da un ristretto numero di aziende poste al vertice del tecno-capitalismo, la parola “futuro” sembra alludere sempre meno velatamente al futuro del capitalismo stesso, alle sue linee guida, alle sue intenzioni. Al futuro delle istituzioni che ne assecondano intenzioni e prospettive di crescita. Questa una delle tesi chiave de Il futuro colonizzato (Sensibili alle foglie, 2019), in cui Renato Curcio indaga la questione del futuro programmato, plasmato e realizzato dalle imprese dell’oligarchia digitale. Da oltre un decennio Curcio orienta la propria ricerca sull’analisi dei processi di colonizzazione digitale, concepiti come un prisma teorico in cui si disvelano le metamorfosi del potere capitalistico, emergono nuove modalità di assoggettamento e si manifesta la progressiva cattura del vivente da parte degli apparati tecno-digitali. Un percorso avviato nel 2015 con L’impero virtuale e approdato, nel 2025, a Intelligenze artificiali e intelligenze sociali, sistematizzando temi e intuizioni maturate nel tempo attraverso la progressiva costruzione di strumenti analitici e categorie concettuali, che ne hanno via via affinato la portata interpretativa. I sei anni trascorsi dalla pubblicazione di questo testo non invalidano la rilevanza né la forza analitica delle sue tesi. Al contrario, definiscono l’arco temporale atto a riscontrarne la concreta attuazione, sia pure nel presente “eternizzato” di Internet, un tempo sospeso in cui la memoria del passato, immagazzinata in qualche remoto server, può essere richiamata con un clic e la progressione del futuro resta vincolata alle predizioni da cui dipende. Risucchiando chi vi accede in un perenne istante artificiale. Ma forse, proprio in ragione di questo “eterno presente”, le tesi de Il futuro colonizzato trovano oggi una più compiuta verifica, riaffiorando come linee di fuga sotterranee nei paesaggi statici e iper-connessi delle odierne catacombe digitali.

LA SOCIETÀ DELL’ANTICIPAZIONE

Jean-Michel Basquiat – Senza titolo (Testa) (1981)

Nell’analisi di Curcio il futuro della società digitale non è qualcosa da venire. Non si limita a giungere dopo, non è solo ciò che sarà. Il futuro è un artificio che agisce ancor prima di arrivare. Viene dopo ma influenza prima, offrendosi come anticipazione e inveramento di attese sociali e desideri individuali, plasmando per vie spesso impercettibili stili di vita, immaginari, desideri e pratiche quotidiane. Tesi centrale del saggio è la produzione del futuro – anzi, di futuri – da parte di sistemi di modellizzazione algoritmica concepiti su parametri di conformità e funzionalità alle strategie delle grandi corporation digitali. Algoritmi che non si limitano, dunque, all’esercizio di funzioni meramente descrittive e previsionali, ma strumenti in grado di modulare le traiettorie del desiderio e riorientare le forme dell’immaginario collettivo, capaci di ridisegnare, attraverso inediti meccanismi di soggettivazione, le coordinate entro cui si articolano le pratiche quotidiane degli esseri umani. Così, ciò che al momento della propria comparsa sul mercato indossa le vesti dell’”inevitabile”, non è che l’effetto di una costruzione preventiva: accorte proiezioni algoritmiche mascherano come necessità ciò che è stato prefigurato ed elaborato in arcani laboratori del destino, celati come ombre nei porti dello stordimento digitale.

La società artificiale a trazione transumanista si configura allora come una società dell’anticipazione, che vede le anticipazioni predittive svolgere il ruolo di forma-dispositivo di una “progettualità” atta a produrre la risposta prima ancora che la domanda emerga; in cui la prefigurazione di ciò che “sarà” diventa, di fatto, la prescrizione di ciò che “dovrà essere”. Nel solco dell’analisi che fa da filo conduttore all’intera riflessione di Curcio, l’obiettivo strategico del nuovo colonialismo tecnologico-digitale è divellere alla radice l’indeterminazione, l’apertura costitutiva e gli orizzonti di possibilità che costituiscono l’essenza del futuro, comprimendo progressivamente i sempre più esigui spazi di autodeterminazione per gli esseri umani che all’interno di esso proiettano la propria esistenza. Il saggio decifra questa disorientante capriola del tempo come uno degli indicatori costitutivi di un movimento colonizzatore che trasforma il futuro in paniere istituito di scenari e immagini preconfezionate.

Gli enunciati predittivi paiono come una moderna Annunciazione, in cui si osservano legioni di angeli dalle ali cibernetiche realizzare in Terra quanto il Dio del millennio ha deciso dalla sua dimora. Non una dimora nei cieli, ma una del tutto terrena, ubicata tra Washington e la Silicon Valley, affacciata sui centri strategici del potere militare e sui campus-laboratori dell’innovazione tecno-scientifica. Nei paragrafi che seguono si analizzano i meccanismi attraverso cui, nella lettura di Curcio, l’oligarchia digitale attua strategie e pratiche volte a modellare le attività e i comportamenti degli utenti-esseri umani; un processo in rapida e costante intensificazione, la cui penetrazione nelle dinamiche quotidiane condiziona sempre più le scelte individuali e collettive. La conquista del vivente – inteso, nel senso di Miguel Benasayag, come la dimensione dell’essere umano in quanto incarnato, relazionale, concreto, situato – da parte della cybercrazia contemporanea passa per una presa di controllo che si sovrappone (fino a coincidervi pienamente) all’instaurazione di nuove modalità di formazione della disciplina, le cui logiche e dinamiche di funzionamento paiono radicalmente eterogenee rispetto a quelle novecentesche, fino a risultare nemmeno più confrontabili con esse.

SUL SOGNO CUPO DI UNA SCIENZA PREVISIONALE COLONIALE

F. Clerici, Piccolo nido di struzzi (1953)

La realizzazione di sistemi predittivi di sorveglianza, sicurezza e governance si è imposta, nota Curcio, come irrinunciabile condizione preliminare nell’azione sociale, economica e politica contemporanea. Dai sofisticati sistemi di risk assessment che in campo finanziario provano ad intercettare l’andamento dei mercati, passando per le piattaforme di previsione dei crimini basate sull’incrocio di dati demografici, urbanistico-spaziali e socio-comportamentali (all’opera da tempo in metropoli come Londra, Los Angeles, Chicago)[iii], fino alle analisi di flussi sociali atti a prevedere le tendenze di consenso emergenti dall’opinione pubblica effettuate da istituti di ricerca politica e multinazionali, la logica predittiva sta allargando le sue maglie ad ambiti progressivamente più eterogenei[iv]. La ricerca dell’apparentemente ossimorica “certezza probabilistica” costituisce oggi il sogno e la frontiera operativa degli algoritmi predittivi più avanzati. Il confezionamento di profezie autoavveranti e dei dispositivi “infestanti” destinati a propagarle ha dato vita a un intero ordine di specialisti della predeterminazione. I data scientist, artigiani di un sapere che tramuta l’informazione in potere, hanno assunto le vesti che in altre ere dell’umano furono degli alchimisti, mentre gli antichi aruspici e indovini, esautorati da ogni alone sacrale, giacciono oggi come mendicanti ai margini dei marciapiedi digitali. Sovrapposizioni forsennate di potere e tecnologia si imprimono sulla tela di un presente fatto di rituali informatici, alambicchi di cristallo e vapori computazionali, scenografia operativa – che aspira a divenire forma a priori – di una confraternita di ingegneri sociali e futurologi intenta a plasmare le forme del mondo a venire.

A teorizzare e sostenere le facoltà apotropaiche della modellizzazione previsionale si ingegna un’intera generazione di scienziati: in queste fila spicca la figura di Alex “Sandy” Pentland, scienziato informatico alla guida dell’Human Dynamics Laboratory e del Media Lab Entrepreneurship Program del MIT di Boston. Pentland, autore del paradigmatico Social Physics: How Good Ideas Spread (2014), enfatizza da anni la possibilità di dar vita a una scienza sociale computazionale precognitiva, una “fisica sociale” anticipatoria basata sull’individuazione di regolarità matematiche analoghe a quelle riscontrabili nei fenomeni fisici[v]. La “fisica sociale” propugnata da Pentland & soci rappresenta la frontiera di avanguardia della dottrina di fede corrente circa il potere conoscitivo dei dati. Rilevanti appaiono le implicazioni epistemologiche e politiche che una prospettiva simile porta con sé. Il nodo critico più importante risiede nel fatto che la conoscenza anticipatoria – fondandosi sull’idea che i comportamenti collettivi, tradotti in dati e correlazioni statistiche, siano prevedibili e, per questo, controllabili – può attrezzare e alimentare una deriva totalizzante. Effettivamente, la creazione di “traiettorie di futuro” non si esaurisce nella pur costitutiva attività di sorveglianza (essenziale alla funzione predittiva di cui quella consta) ma tende a configurarsi come un dispositivo di manipolazione generalizzata, elevato in misura crescente a standard di riferimento nei processi decisionali attinenti alla gestione e all’orientamento dei comportamenti collettivi. Questa nuova scienza coloniale-digitale, muovendo da meccanismi di riduzionismo comportamentale e dalla conseguente “disumanizzazione del dato”, brama incessantemente il superamento della soglia della modellazione deterministica dei comportamenti umani.

Così, se i modelli previsionali moderni pretendono di fissare ciò che, pur rimanendo teoricamente incerto, è costantemente viziato da intenti costruttivistici che ne orientano e riducono la possibilità di apertura, parrebbe di scorgere nella figura del filosofo francese Auguste Comte (1798-1857), seduto in panciolle al camino delle previsioni sociali, l’eco di un’analogia inquietante. Pur inconsapevole della potenza distopica che la messa in forma di quell’idea avrebbe potuto assumere, come un sacerdote che consacrando un automa lo venerasse come emanazione del proprio spirito (immagine forse partorita da una Mary Shelley smarrita lungo i viali del declino cognitivo, magari già in fila per un Iphone “ricondizionato”), Comte concepiva la società come un organismo regolato da leggi rigorose, prefigurando in termini teorici la logica della scienza sociale predittiva che il transumanesimo digitale aspira oggi a trasformare in ingegneria sociale. Quanto più la nuova scienza previsionale si renderà abile a prevedere, orientare e controllare i comportamenti degli individui prossimi post-umani, tanto più si rappresenterà la gravità dei rischi che quel “perfezionamento” contiene in nuce. Se questa è la poco edificante diagnosi che si profila nelle pagine de Il futuro colonizzato, le sezioni successive si dedicano a illustrare i lineamenti fondamentali di tali rischi secondo la prospettiva critica tracciata da Curcio.

IL FUTURO COME PROFEZIA CHE SI AUTOAVVERA

A. Savinio, Le rêve du poète, 1927

Fin dall’analisi condotta dal sociologo statunitense Robert K. Merton in Teoria e struttura sociale (1949), il meccanismo del futuro veicolato come “profezia che si autoadempie” si afferma come snodo-chiave nell’analisi sociologica delle dinamiche di costruzione sociale delle credenze collettive. Questa tecnica, ben nota ai dirigenti delle grandi aziende tecno-scientifiche, ricorre sistematicamente in pubblicità, nella comunicazione politica, sui social network e, in modo più sofisticato, nelle strategie di netwar e di sharp power[vi]. Nelle sue manifestazioni più elementari, la profezia viene presentata nella forma di un’affermazione secca e indiscutibile, priva di spazi in cui possano insediarsi dubbi o alternativi possibili. Qualche esempio? “Le tecnologie esponenziali domineranno il futuro”, “L’ibridazione tra macchine e umani raggiungerà il 100%”, “Intelligenza artificiale e robot assorbiranno gran parte del lavoro umano” e simili. Tali messaggi, offrendo prospettive di futuro presentate come esiti statuiti, sollecitano nei destinatari l’interiorizzazione di un’illusione di inevitabilità, fondata su una (presunta) evidenza elevata a incontrovertibile, in realtà prodotta dal dispositivo psicologico-comunicativo che la genera. Ciò che, tuttavia, emerge come veramente innovativo nel presente digitalizzato, non è la costruzione e l’imposizione di “miraggi di futuro”: simili strumenti, infatti, sono stati storicamente prodotti e mobilitati come dispositivi di controllo ideologico e materiale da classi dirigenti, governi e regimi d’ogni epoca. Attraverso guerre, colonizzazioni, persecuzioni e imposizioni di varia natura, i gruppi al potere hanno costantemente perseguito la riproduzione, il consolidamento o l’imposizione dei modelli economico-sociali a loro più congeniali, veicolando le visioni di futuro che più si conformavano agli interessi costitutivi del proprio dominio.

La novità della nuova era digitale si individua invece nel fatto che la produzione e l’inveramento effettivo dei “miraggi” non può prescindere dal coinvolgimento attivo degli individui nella propria predestinazione. Attraverso l’inarrestabile migrazione sul continente digitale delle pratiche relazionali, lavorative e commerciali, gli utenti partecipano attivamente all’instaurazione del “posto al sole” progettato e confezionato per loro nei laboratori di ingegneria tecno-sociale delle oligarchie digitali. “Siamo noi a trasformare la finzione predittiva in pratiche fattive, siamo noi a decretare il successo o l’insuccesso di “quel futuro” che ci viene prospettato attraverso il trucco della previsione, anche se l’induzione per farcelo interpretare solitamente lavora al di sotto del livello della nostra consapevolezza[vii]. L’inverarsi delle profezie autoavveranti si avvale dell’onnipervasiva ibridazione tra esseri umani e dispositivi digitali vero moltiplicatore delle “profezie” propagate a mezzo algoritmo. Il coinvolgimento attivo dei cittadini si realizza mediante una molteplicità di stimoli che, attraverso una crescente varietà di dispositivi incentivanti sempre più personalizzati, induce a generare dati in rete. Ogni dato prodotto, ogni click, ogni interazione online, contribuisce ad aumentare l’estensione e l’intensità del controllo: “Più dati in qualunque forma una persona genera con le sue attività in rete e sul web, maggiore sarà il suo contributo personale a produrre su di sé e su altri, forme di sorveglianza”. E di manipolazione predittiva. È opportuno specificare come, nell’analisi di Curcio, l’economia dell’obbedienza del capitalismo cibernetico risulti completamente trasfigurata rispetto ai paradigmi benthamiani. La discontinuità col modello panottico, fondato sullo sguardo umano e sulla minaccia di una punizione esterna, appare netta. Il nuovo controllo dipende strutturalmente dalla richiesta di accesso ai dispositivi digitali dell’onnitracciabile individuo cibernetico, e si fonda, in ultima analisi, sulla seduzione tecnologica e sul timore interiorizzato di esclusione dalla connessione. Oltre a monitorare e “controllare” le condotte, questo paradigma di sorveglianza agisce anche, e soprattutto, come agente attivo di riconfigurazione della soggettività, attraverso l’incorporazione progressiva di una disciplina che è, a un tempo, auto-indotta ed eterodiretta. Da questa complessa intersezione si determina la mutazione antropo-cibernetica al cuore della ricerca di Curcio sulle sovraimplicazioni del presente addomesticato.

ADDOMESTICAMENTO ARTIFICIALE

P. Picasso, Donna seduta con ginocchio piegato, 1939

Sostenuta da apparati di marketing di estrema sofisticazione e potenza seduttiva, l’avanzata dell’Intelligenza Artificiale procede a ritmi che superano di molto le capacità percettive e riflessive degli utilizzatori. Nella dissincronia tra la rapidità del calcolo algoritmico delle IA e la lentezza della coscienza, limitata dalla propria fisiologia percettiva nella capacità di decodificare le trasformazioni che la avvolgono, il destino dell’umano sembra compiersi. Ma il suo significato non si esaurisce nel constatare l’esito di un confronto già deciso; negli anni a venire la posta in gioco consisterà nella capacità di riorganizzare pratiche e forme di pensiero istituenti e resistenti. La soglia attraverso cui l’intelligenza artificiale sta penetrando nelle trame minime e ripetute della quotidianità è immediatamente riconoscibile nella diffusione pervasiva dei cosiddetti “assistenti intelligenti” e delle interfacce vocali per gli ambienti domestici. Orientarsi nello spazio utilizzando una mappa, ascoltare musica, cercare informazioni, procurarsi del cibo, guidare una smart-car, persino cercare compagnia, sono azioni progressivamente sottratte alla manualità e alla scelta “diretta” per essere traslati all’interno di un orizzonte di automatizzazione guidata. Osservando controluce questo processo affiora un mutamento profondo: questi strumenti non si limitano a mediare funzioni strumentali semplificando l’accesso alle “utilità” di connessione, ma istituiscono progressivamente una grammatica inedita dell’agire quotidiano degli esseri umani. Le routine, anziché limitarsi ad usufruire di un supporto digitale, vengono inglobate nelle dinamiche operative dell’intelligenza artificiale, fino a essere rimodulate secondo le sue logiche e “allineate” – in modo spesso impercettibile ma inesorabile – ai suoi criteri regolativi e alle sue linee guida. È così che l’abitudine, la hexis aristotelica[viii], intesa come sedimentazione di gesti appresi e reiterati, si piega sempre più a una forma totalitaria di eterodirezione tecnologica, in cui l’essere umano, sotto l’influenza di un’IA precognitiva che lo anticipa costantemente, non solo si affida alle macchine, ma vi riconfigura le proprie modalità di esistenza.

Il nodo critico della riflessione di Curcio risiede dunque nell’intenzione di addomesticamento che orienta l’intelligenza artificiale e, specularmente, nella capacità che, a fronte di tale processo, gli esseri umani sapranno mettere in campo per preservare la propria autonomia. L’interazione con questi sistemi è tutt’altro che neutrale, e implica una forma di assoggettamento al codice comportamentale predittivo degli algoritmi, “un codice che registra, analizza e modella le nostre parole, i nostri ritmi linguistici, le immagini che eleggiamo a significative, i gesti che compiamo, per poi reinserirli all’interno della propria struttura cognitiva e operativa (pag.)”. Spesso rimossa tra le sabbie mobili della accettazione irriflessiva dell’esistente, si svela una delle questioni cruciali dell’analisi di Curcio: i “futuri virtuali” sono di proprietà delle grandi corporation, e vengono configurati in funzione dei loro interessi. Così, ciò che risulta “intelligente” per questi proprietari non è detto che coincida con le esigenze di chi, «attratto dalla narrazione del loro marketing, acquista i prodotti e (…), insieme ad essi, un futuro chiuso e già dato»[ix]. Agli utenti non restano che vacui simulacri di libertà decisionale, segregati in un ventaglio di opzioni accuratamente selezionate al fine di non intaccare la riproduzione dell’ordine vigente e “confermare”, così, lo stato di cose.

Curcio non perde tempo a negare l’attrazione seduttiva esercitata dalla capacità di questi sistemi di svolgere, con rapidità e precisione, una molteplicità di funzioni. L’impiego degli assistenti intelligenti risulta indubbiamente funzionale in un contesto di progressiva artificializzazione dell’umano all’interno di un mondo via via configurato a misura di intelligenza artificiale[x]. Tuttavia, in un sistema capitalistico nulla è realmente erogato o fornito gratuitamente: ogni delega comporta una cessione di dati; ogni cessione, un incremento del grado di dipendenza e sudditanza nei confronti dei dispositivi. Non può sorprendere che la retorica del marketing dell’IA si innesti sulla promessa di un potenziamento individuale fatto di accresciute efficacia e performatività. Travestita da libertà di scelta, questa promessa di emancipazione in salsa Black Friday cela accuratamente la logica della crescente dipendenza strutturale innescata dall’ibridazione adattativa. Così, l’adattamento agli ambienti generati dall’espansione dell’IA innesca un processo inversamente proporzionale all’esercizio dell’autonomia personale. La ragione è semplice, seppur accuratamente taciuta. L’Intelligenza Artificiale, come i dispositivi in cui essa prende forma, lungi dal costituire – come da narrazione pubblicitaria – un bene comune, non è una tecnologia neutra, né innocua. Essa rappresenta un bene di mercato e una risorsa strategica di inestimabile valore per coloro che detengono la proprietà e il segreto dei suoi codici sorgente. Nell’atto di usufruire delle sue capacità, gli utilizzatori vengono tracciati ed “elaborati”; generando, commutando e consumando dati, esseri umani e macchine alimentano e potenziano reciprocamente un processo la cui estensione trascina in progressione esponenziale corpi e relazioni sotto il dominio sempre più pervasivo di apparati tecno-digitali post-umani.

REPETUTA (?) IUVANT (?)

A. Marasco, Giro d’Italia

È proprio nell’appropriazione sistematica dei dati, acquisiti mediante l’incessante tracciamento ed estrazione dai dispositivi di rete di immense masse di informazioni, che si è costruita in questi decenni l’egemonia dei poteri digitali globali, Google, Amazon, Facebook-Meta, Microsoft. Dopo oltre vent’anni di appropriazione silenziosa, condotta nell’ indifferenza sostanziale degli “espropriati”, i quali continuano a fornire la loro “materia prima” (temendo, semmai, di essere privati della crescente dose di “eroina digitale”) – i colossi del digitale dispongono oggi di una platea di miliardi di individui a cui destinare, mediante un apparato persuasivo senza precedenti, le proprie immagini di futuro. Da tempo il giurista e studioso statunitense Lawrence Lessig evidenzia come la competizione tra mega-aziende si sia trasformata in una sterminata sorveglianza di massa basata sulla raccolta e l’analisi di dati riguardanti più di metà della popolazione mondiale. Secondo Lessig, la pur rilevante – benché spesso trascurata – questione della privacy personale, pare, in fondo, secondaria di fronte ai rischi insiti nella capacità di misurare, predire e indurre comportamenti senza che gli individui ne siano consapevoli[xi].

Con l’intento di chiarirne logiche e implicazioni, è utile soffermarsi, sia pure sinteticamente, sui meccanismi del processo di acquisizione, raffinazione e utilizzo dei dati. Benché consapevoli di non enunciare un ritrovamento inedito, la persistenza e l’incidenza di queste dinamiche di profilazione rende urgente la loro problematizzazione, in quanto espressione di determinanti sociali strutturali. Si enucleano allora, di seguito, i passaggi fondamentali: qualsiasi pratica di comunicazione, acquisto e transazioni online, impiego di social network, motori di ricerca, utilizzo di dispositivi smart, di applicazioni con servizi di tracciamento e geolocalizzazione, produce una quantità enorme di dati e metadati. Questi dati, archiviati sui server dei fornitori di servizi, restano accessibili per molteplici operazioni di elaborazione e riutilizzo. Gli archivi così composti vengono trasferiti a dispositivi di intelligenza artificiale che li utilizzano al fine di ottimizzare e potenziare le proprie capacità di elaborazione e di autoapprendimento. Da questa fase della “lavorazione” digitale derivano i cosiddetti dati sintetici, generati dalle IA per sé stesse e destinati al rafforzamento e al supporto delle proprie funzioni.

Dalle immense costellazioni di dati categorizzati e analizzati, gli algoritmi estraggono l’elaborazione di correlazioni statisticamente robuste, forgiando così scenari di condotte probabili. Tali scenari si mascherano da desideri spontanei e vengono restituiti all’individuo come se sgorgassero dai recessi più autentici del suo volere, quando in realtà ne circoscrivono possibilità e traiettorie esistenziali. Dall’analisi delle condotte, delle richieste, delle “preferenze”, raccolte in quantità di gigabyte, la macchina diviene abile a prefigurare i comportamenti futuri degli utenti, intrecciandoli in una rete di anticipazioni, proposte, “suggerimenti”, link. L’IA non si limita affatto a “rispondere a domande”, ma ingloba nel proprio orizzonte di calcolo le informazioni che riceve, trasformandole in elementi di un futuro che essa contribuisce a prefigurare e regolare. Gli utilizzatori sono anticipati nelle proprie azioni e comportamenti da una serie di induzioni, suggestioni, proposte, finalizzate ad amplificarne o alienarne perfino convinzioni personali e desideri non ancora manifesti.

È al cuore di questa dinamica che si coglie la tesi centrale de Il futuro colonizzato. La crescente digitalizzazione dell’umano, al di là di ogni intenzione soggettiva, si configura come un processo strutturale di sorveglianza predittiva e modellamento delle pratiche, funzionale alle linee guida di chi detiene la proprietà dei dati. Se il dominio tecno-digitale si alimenta soprattutto di dati, questi ultimi “vanno considerati non come semplici “pacchetti analitici di informazioni”, – si legge sulla rivista DISFARE bensì come “segmenti di profilazione di massa in cui controllo e profitto si rafforzano a vicenda”. Rafforzando il controllo sulle abitudini degli utenti “se ne orientano le scelte; allargando gli ambiti delle pratiche umane colonizzate, si estende la presa in termini di sorveglianza sulla società”. Ecco perché nell’espressione Intelligenza Artificiale “il sostantivo andrebbe inteso nel senso che intelligence ha in inglese: reparto informatico segreto della polizia, in quanto forza ordinatrice della polis[xii]. Greggi di docili pecore, via via più addomesticate, vengono prese per mano da abili pastori algoritmici, che le accompagnano sui sentieri della predestinazione interessata. Nessun Leviatano, «nessun monarca ha mai ricevuto dai suoi sudditi così tanti occhi con cui essere spiato. Una gigantesca opera di collaborazione impensabile senza i comfort, i piaceri, le distrazioni che il mondo connesso assicura»[xiii].

LA TRASLAZIONE DELLA VITA QUOTIDIANA IN DATI

V. Kandinsky, Composizione VII (1913).

Questa traslazione della vita quotidiana in dati, spiega Curcio, “non si limita a tracciare una mappatura generica delle nostre pratiche”, ma costituisce il presupposto materiale per un duplice intervento su di esse. Per un verso, “istituisce le condizioni di una sorveglianza di massa permanente”; per un altro, genera le premesse per realizzare sulle pratiche individuali degli esseri umani interventi specifici da remoto. Si tengano, per ora, sullo sfondo gli aspetti attinenti al regime di controllo quasi totale sull’essere umano-animale-con-collare-elettronico-nella-città-riserva. Ci si aggira quotidianamente in città e territori ogni giorno più digitalizzati, in cui sistemi di sorveglianza integrati – telecamere a circuito chiuso di metropolitane, banche, aziende, comuni – captano ininterrottamente dalle loro postazioni fisse flussi di dati. Sensori diffusi ovunque registrano i dispositivi digitali che portiamo con noi, mentre software di riconoscimento facciale setacciano volti, immagini, memorizzando ogni passaggio attraverso varchi, punti di accesso, luoghi “nevralgici” della città. A loro volta, gli algoritmi di profilazione, analitici o predittivi delle piattaforme, delle aziende e/o delle istituzioni, generano altri dati a partire da quelli già immagazzinati, moltiplicandone l’uso e alimentando un’espansione continua, apparentemente senza confini. Scomodando il Deleuze di trentacinque anni fa, «non c’è più bisogno della fantascienza per concepire un meccanismo di controllo che dia in ogni momento la posizione di un elemento in ambiente aperto, animale in una riserva, uomo in una impresa»[xiv].

Le immani pressioni esercitate per decenni sugli individui[xv], amplificate dalla spinta di apparati mediatici potentissimi, hanno gradualmente foggiato la disponibilità a sacrificare la propria autonomia ai dispositivi tecno-scientifici, fino a «ridurre gli esseri umani alla docilità dei membri di un gregge, lasciando spazio a poche, rarissime volontà ribelli». Forse, senza confessarlo a noi stessi «abbiamo già interiorizzato il principio di autorizzazione tecno-scientifico, consegnando in modo quasi sonnambolico le chiavi del nostro futuro personale a poteri che lo determinano per noi». Il problema cruciale, chiosa Curcio, è la palese naturalizzazione dell’attitudine a «concedere deleghe in bianco e contrarre una cecità irreversibile sulle forme di dominio che gli algoritmi intelligenti per la loro stessa natura tendono a operare»[xvi].

DEL LAVORO GRATUITO (O DELLA “SBOBBA” RICEVUTA IN CAMBIO)

O. Dix, Pragerstrasse, 1920

Come ogni tecnologia di derivazione capitalistica, l’Intelligenza Artificiale e l’insieme delle applicazioni digitali che si appoggiano sull’infrastruttura-Internet incorporano un’intenzione e un rapporto di produzione ben precisi: l’intenzione di chi ne decide caratteristiche, presenza e aspetto sul mercato, e un rapporto di produzione segnato irrimediabilmente dalla “maledizione originaria dello scambio ineguale”. Il futuro colonizzato vuole evidenziare l’implicazione economico-politica che questo porta in dote, e il dispositivo basilare su cui riposa. Ogni attività svolta online – spiega Curcio da una prospettiva analitica radicata nella critica marxiana dell’economia politica – si inscrive in una relazione di scambio diseguale che vede l’apparente gratuità del servizio mascherare la cessione di dati e metadati poi convertibili in valore economico e politico da chi ne dispone. In questo processo, che si ripete quotidianamente attraverso l’uso della posta elettronica, di Google, di Instagram, Meta, o di qualsiasi altra piattaforma, si svelano due questioni decisive. La prima è il destino dei dati e metadati in relazione alla vulnerabilità cui la loro cessione espone. L’altra, invece, attiene ai profitti o al potere realizzati da chi se ne appropria. Sul primo aspetto, annota l’autore, negli anni qualche sensibilità, benché inadeguata, si è registrata. Ma è il secondo elemento ad essere stato maggiormente ignorato e naturalizzato nelle nebbie pastose dell’assuefazione al presente. La natura del dispositivo-scambio va compresa nella sua struttura di fondo: la profonda asimmetria e l’ineguaglianza sistemica dei contraenti. Lo scambio ineguale non riguarda, allora, soltanto il valore economico dei dati, ma anche il valore politico:

Sul mercato capitalistico i dati sensibili dei clienti si configurano come una merce preziosa, ricercata, che fa gola ad aziende e istituzioni di ogni tipo proprio per questa loro doppia e intrinseca determinazione. Ad essi sono interessate le imprese che operano nella produzione e nel commercio delle merci, le aziende che organizzano servizi o canali di comunicazione mediatica, i partiti politici che si promuovono sulle reti digitali, ogni tipo di istituzioni statali e militari (e, va da sé, truffatori di ogni risma)[xvii].

L’offerta di un servizio, in un mondo in cui il denaro permea gli interstizi più minuti dell’esistenza, si presenta oggi nella forma seducente della “gratuità”. L’invito risuona mellifluo e seducente: iscriviti a Google, apri un account Gmail, entra in Facebook, registra il tuo account su Twitter, segui Instagram, prova questa nuova app. Nessun costo, nessuna soglia di selezione, zero buttafuori all’ingresso. Solo la promessa accattivante di avere “il mondo in tasca” e “il futuro nel presente”. Un dono solo apparente, avvolto in un involucro in cui non è indicato alcun prezzo. Ma, una volta varcata la soglia della registrazione, ogni gesto compiuto in quegli spazi digitali – ogni clic, scrollata, interazione – comincia a produrre dati, e questa attività generativa incessante si rinnova di atto in atto, moltiplicandosi per lo sterminato numero di esseri umani che abita il continente digitale. Il risultato? Il singolo produttore di dati precipita nella solitudine espropriata del suo account, mentre i destinatari di quei dati iniziano a privatizzarne il valore, trasformandoli in risorsa capitalizzabile lungo innumerevoli circuiti di valorizzazione. Dietro la promessa di gratuità si dissimula un’attività produttiva che – proprio – nella capacità di rendersi socialmente invisibile, si sottrae a ogni percezione di sfruttamento. Gli esempi analizzati ne Il futuro colonizzato illustrano la logica affilata di uno scambio strutturalmente diseguale: un processo che, sotto l’abito anodino della richiesta di servizi digitali, realizza la sistematica estrazione di valore dal lavoro immateriale implicito nell’ ininterrotta produzione di dati.

Assistenti vocali e smart speaker, dispositivi per il monitoraggio di attività fisica, battito cardiaco, sonno o variabili emotive e fisiologiche, sistemi “intelligenti” per la casa, veicoli a guida assistita, ampliano ininterrottamente le proprie funzionalità, accrescendo un’attrattiva commerciale che consente loro di appropriarsi dei dati sulla salute di centinaia di milioni di persone. Un solo esempio, tra i molti che si possono richiamare, è sufficiente a chiarire la dinamica. Nell’indossare un Apple Watch per monitorare la mia salute, compio un atto di duplice natura: da un lato ottengo un “valore d’uso” immediato nell’informazione fornita dal dispositivo. Dall’altro, cedo una porzione della mia esistenza misurata e tradotta in dati. Questi dati rappresentano una risorsa economica e cognitiva, un capitale informazionale di enorme valore per imprese, istituzioni sanitarie, compagnie assicurative e finanziarie. In questo scambio iniquo si riproducono, in vitro digitale, le logiche classiche dell’accumulazione capitalistica.

Nel gesto apparentemente innocuo con cui accettiamo le “condizioni d’uso” e offriamo i nostri dati, si consuma – secondo Curcio – una scena emblematica della contemporaneità: quella di esseri umani che, a testa bassa e “col cappello in mano”, riconoscono tacitamente la sovranità delle corporation digitali sul proprio lavoro, sul proprio tempo e, più radicalmente, sulla propria vita. L’invisibilizzazione di questa nuova, diffusissima, tipologia di lavoro – che vede la subordinazione rivelarsi in una forbice di reazioni che va dalla rassegnazione alla partecipazione acefala – costituisce il sigillo operato dalla forma di potere dominante nella contemporaneità digitale. Mai, nella storia della nostra specie, osserva sgomento Curcio, «si era vista un’offerta volontaria di lavoro produttivo gratuito dell’entità di quella che le oligarchie digitali di internet riescono a raccogliere e a capitalizzare». Ed essa si è fatta a tal punto “naturale” e addomesticata che, reggendosi su una capillare manipolazione delle percezioni, viene ormai data per scontata. Resta, ineludibile, la domanda che Il futuro colonizzato pone al lettore: davvero l’orizzonte che desideriamo per il futuro è la messa al lavoro gratuita e il dono della sovranità sulla nostra esistenza assegnata a un pugno di profittatori?

IL COINVOLGIMENTO ATTIVO NELLA PROPRIA SORVEGLIANZA. L’IMBROGLIO DELLA “SICUREZZA”


F. Bacon, Studio dal Ritratto di Innocenzo X di Velazquez, 1953

Tra le discontinuità tecnologiche che segnano il nuovo millennio con maggiore incisività, due in particolare si impongono per le implicazioni di portata globale circa la capacità di orientare e condizionare i comportamenti prossimi e futuri degli individui. La prima concerne «l’implementazione tecnologica del coinvolgimento dei cittadini nella propria sorveglianza». La seconda è la «velocissima espansione dell’identificazione biometrica come primo passo per giungere a una più sicura identificazione genetica»[xviii].

La spoliazione dei dati personali si è consumata, e continua a consumarsi, osserva Curcio, in nome della “sicurezza”. Proprio la retorica della sicurezza ha giustificato, nel corso degli anni, il diffuso potenziamento della sorveglianza. Le grandi corporation, le stesse che hanno fondato il proprio potere economico, politico, simbolico sul monopolio e la mercificazione delle informazioni sversate dagli utenti, hanno alimentato una retorica della paura basata sul rappresentare una giungla digitale popolata da pirati informatici e minacce invisibili sempre in agguato, ergendosi a garanti e difensori dell’incolumità individuale. La raccolta dei dati e il tracciamento delle pratiche economiche e comunicative, sono stati presentati come condizione necessaria alla difesa della privacy e delle libertà. Il paradosso delle tecnologie digitali di “sicurezza” è un capolavoro dell’inganno, ribaltamento completo tra obiettivo dichiarato e funzione reale. Si è presentato, con il volto della tutela, una stringente forma di espropriazione e colonizzazione. I controllati hanno finito per accogliere i sorveglianti come numi tutelari, legittimando e promuovendo un’estensione del controllo che si è manifestata attraverso l’“innalzamento” di una panoplia di dispositivi di sorveglianza. Strumenti ciechi, perché la “sicurezza” che hanno promesso sopravvive solo nella narrativa del marketing di chi li produce e commercializza. La sorveglianza si è estesa dai singoli esseri umani agli ambienti, agli oggetti e alle reti sociali, attraverso dispositivi che incarnano la minaccia che dichiarano di neutralizzare. Dagli smartphone alle telecamere, passando per sensori, strumenti di registrazione biometrica, fino a robot di vigilanza, assistenti intelligenti, droni civili. Apparati discreti, spesso invisibili, mimetizzati negli oggetti, negli ambienti o nei corpi stessi, già impiantati sottopelle. La smania di fotografare e “documentare” ogni aspetto della vita, rinunciando a ogni cautela perfino nei confronti di sé stessi, ha permesso il perfezionamento degli algoritmi “intelligenti” di riconoscimento[xix], addestrati su banche dati di miliardi di immagini accumulate dagli stessi utenti, oggi in grado di identificare volti, impronte, luoghi, oggetti.

Tra le categorie di dati sempre più richieste vi sono quelli biometrici: impronte digitali, impronte retinali, pattern facciali. La raccolta e l’analisi di tali informazioni costituisce oggi un mercato di miliardi di dollari, oggi dominato da aziende come Iris Corporation, Gemalto, Idemia, Safran, Morpho-Safra, Hewlett-Packard. Le retoriche che accompagnano queste pratiche insistono sulla necessità di sicurezza sociale, efficienza amministrativa e modernizzazione, che si tratti di controlli aeroportuali o di campagne elettorali. Tuttavia, al di là delle retoriche, ciò che si afferma è la schedatura biometrica di massa e la diffusione di dispositivi capaci di analizzare e riconoscere in tempo reale quanto “stoccato” nelle banche digitali. Anche in quest’ambito – il quale da solo meriterà approfondimenti specifici – assistiamo a un futuro virtuale che preme sul presente e si manifesta, in forme e intensità differenziate, in tutti i continenti del pianeta.

SULL’ILLUSIONE DI ”USARE MEGLIO” LE TECNOLOGIE

P. Klee, Twittering machine (1922)

Non è un’inutile ridondanza ribadire l’evidente iato tra l’alta velocità dei processi d’implementazione di ibridazione digitale degli utenti-esseri umani con i dispositivi intelligenti, e la lentezza d’acquisizione di consapevolezza sulle implicazioni personali e sociali che ne conseguono. Verificato che circa due terzi della popolazione mondiale ricorre sistematicamente all’uso di macchine e dispositivi digitali per oltre la metà del tempo di veglia, gran parte degli utilizzatori delle macchine intelligenti, pur esperti nel loro utilizzo, non ne conoscono il linguaggio. Fanno lavorare i pollici sugli schermi, pigiano pulsanti ma, per il resto, si consegnano fideisticamente a quella “intelligenza”. L’attuale conoscenza del linguaggio mediante cui si realizza l’ibridazione non risulta per nulla adeguata, caratterizzandosi per un divario espansivo che conduce inesorabilmente a «deleghe cognitive del tipo “la macchina sa meglio di me cosa sta facendo” e all’acquietamento passivo in bolle a-problematiche di devastante alienazione»[xx]. Ma, così facendo, gli individui si ritrovano assoggettati agli automatismi manipolatori di questi processi, entrando in una condizione di addomesticamento molto pericolosa. La ripetizione di quelle abitudini finisce per consolidare effetti di dipendenza sociale sempre più strumentalizzabili da chi detiene il controllo delle macchine. A questo punto risulterà già chiaro al lettore che Curcio non condivide l’idea di chi ritiene che una migliore competenza nell’uso delle tecnologie digitali possa impedire d’essere “usati” da esse. Da decenni viene paventato dalla stragrande maggioranza dei mezzi di comunicazione che la competenza nell’interazione con le macchine costituisce la condizione imprescindibile per l’integrazione dell’individuo nella società digitale. Assecondando questa narrazione l’apprendimento del linguaggio delle macchine intelligenti sarebbe la condizione per istituire con esse un’interazione consapevole, più efficace e produttiva. Tuttavia, secondo Curcio ciò che in quest’operazione si apprenderebbe è l’ulteriore allineamento passivo alle regole che governano il linguaggio delle macchine. Imparare a comunicare con le macchine intelligenti è una soluzione schematicamente riduttiva e – dice Curcio – intrinsecamente rischiosa. La capacità di utilizzare con maggiore competenza le macchine, infatti, pur riducendo l’incompetenza specifica dell’utilizzatore “istruito”, non aggirerebbe in alcun modo i limiti imposti dalla loro determinazione quantitativo-computazionale. Semplicemente, non potrebbe farlo. Il motivo si situa al cuore dell’impostazione teorica di Curcio: le macchine “intelligenti” incorporano nelle loro viscere digitali rapporti di produzione precisi. Incorporano l’intenzionalità che ne ha orientato la progettazione e conformato la razionalità interna, quella che ne definisce principi di funzionamento, i terreni d’applicazione e le funzioni all’interno dell’economia capitalistica, e così fanno anche i linguaggi mediante cui lavorano. I quali «finiscono comunque con il convergere su una funzione disciplinare tutta interna al paradigma ordinatore dello stato di cose presente»[xxi].  Linguaggi concepiti e sviluppati da esseri umani non soltanto dotati di competenze tecniche e progettuali, ma soprattutto interpreti allineati e consapevoli delle mission aziendali (o istituzionali) all’interno delle quali la loro attività si inscrive.

In altre parole, la migliore abilità e competenza tecnica si rende in ultima analisi funzionale alla sempre più alienata integrazione-sussunzione all’interno dei processi delle macchine. E ciò, in luogo di umanizzare l’artificiale, finisce per risolversi nella crescente artificializzazione della dimensione umana. Una migliore competenza tecnica non può in alcun modo consentire l’utilizzo di queste tecnologie in una prospettiva anticapitalista e anticoloniale. Tale prospettiva ribadisce invece la necessità di esplicitare la critica all’intenzionalità originaria di questi dispositivi e alle implicazioni tecnico-sociali che ne derivano, in termini di riproduzione di rapporti di potere e di instaurazione di nuove forme di dipendenza. Le implicazioni semantiche del termine dipendenza – come Curcio ha rilevato in altri lavori[xxii] – vanno investigate nel loro duplice significato, soggettivo e oggettivo. Se nella prima accezione ci si riferisce alle implicazioni della condizione di dipendenza interiorizzata e incorporata della moltitudine di individui che, avendo fatte proprie le induzioni delle piattaforme, contrae abitudini dannose e un ampio spettro di malesseri psico-fisici, la dipendenza in senso oggettivo si configura invece come dipendenza dall’erogazione di determinati servizi: una condizione che non si misura sul tempo trascorso in attività di connessione, ma che si caratterizza strutturalmente per la natura dell’erogazione, la quale può essere unilateralmente sospesa da gestori di reti e piattaforme. Su questa forma di dipendenza l’utente non ha alcun margine di libertà o azione, in quanto è solo il terminale passivo di scelte esercitate da gestori di reti e piattaforme di cui non può che prendere atto supinamente.

Ciò non significa affatto, precisa l’autore de Il futuro colonizzato, promuovere una diffidenza aprioristica nei confronti dell’invenzione scientifica e tecnologica. Constatare i limiti di questa forma di razionalità tecno-scientifica chiama a ripensare la sua articolazione profonda con forme di desiderio e immaginario non eterodiretti, “evitando così – come scrive Benasayag – di cadere nella deriva del razionalismo che finisce per negare la ragione stessa”[xxiii]

INTELLIGENZA DEBOLE E INTELLIGENZA FORTE

Lucio Fontana, Concetto spaziale, 1962

Molti filosofi e ricercatori tecno-scientifici rappresentano il futuro come intrinsecamente legato all’innovazione tecnologica, traiettoria al di fuori della quale l’idea stessa di futuro appare inconcepibile. In questa prospettiva, il futuro è “agganciato” a un momento chiave oltre il quale la qualità tecnologica dell’intelligenza artificiale muterà paradigma, segnando una soglia di discontinuità tale da far sfuggire alla capacità umana la possibilità di prevederne lo sviluppo ed esercitare controllo su di essa. Nella definizione transumanista, il futuro si delinea come la traiettoria probabile di due processi distinti ma concatenati. Il primo è l’attuale, quello in cui l’Intelligenza Artificiale “debole” si sta diffusamente integrando nei dispositivi di uso comune (telefoni cellulari, tablet, veicoli di trasporto di persone e merci, abitazioni intelligenti e accessori personali con IA integrata, fino ai dispositivi afferenti alla cosiddetta “Internet delle cose”). Sebbene sia fuor di dubbio che già in questa fase l’IA debole stia modificando i comportamenti e le pratiche umane, tuttavia essa non è ancora estesa alla totalità dei domini concernenti l’umano. Il secondo processo, invece, prenderebbe avvio con l’affermazione dell’IA “forte” o “Generale”, quella versione dell’Intelligenza Artificiale non più vincolata ad ambiti applicativi specifici. Analogamente a quanto la IA debole sta già operando sugli utilizzatori dei dispositivi e sulle macchine non intelligenti, la IA forte potrebbe adattare a sé e subordinare le intelligenze umane. Dunque, il passaggio dall’IA debole a quella forte rappresenterebbe il punto di discontinuità radicale in grado di ridefinire irreversibilmente il rapporto tra umani e macchine intelligenti (rapporto inteso non solo come relazione ma come prevalenza tra le parti, come rapporto di forza, e preminenza di un ambito su un altro). Secondo le previsioni dei transumanisti, entro poche decadi gli esseri umani vedranno progressivamente ridurre la propria autonomia decisionale di fronte alle tecnologie super-intelligenti – finché queste non solo non saranno più “guidate”, ma saranno capaci di apprendere e determinare in modo autonomo la propria evoluzione. Fino al punto in cui potrebbero affermare un effettivo predominio sulle intelligenze biologiche. È questo il momento in cui potrebbero emergere rischi significativi per la specie umana.

Un tassello ulteriore del processo a trazione transumanista analizzato da Curcio è l’ibridazione dei corpi biologici: il potenziamento tecnologico del corpo e delle capacità cognitive degli esseri umani. L’ingegneria genetica sta perfezionando sentieri di ricombinazione del DNA capaci di guidare la specie umana fuori dalla sua “animalità”. Una miriade di dispositivi impiantabili, microchip neurali, stimolazioni sensoriali e interfacce cervello-macchina, vengono progettati e sperimentati – perlopiù in un alone di segretezza – per accrescere memoria, apprendimento, resistenza fisica e capacità comunicative. Si tratta di procedure che puntano a ibridare il corpo umano mediante tecnologie in grado di amplificarne le prestazioni oltre le dotazioni biologiche ordinarie. Laboratori come Neuralink, Calico e Carboncopies sperimentano da anni forme di connessione simbiotica tra cervello e macchine, orientate al prolungamento della vita biologica e all’amplificazione delle prestazioni cognitive. Modificazioni genetiche, chirurgia refrattiva, stimolazioni neurali e impianti microelettronici consentono già oggi di potenziare vista, udito, memoria, resistenza fisica e tolleranza in condizioni estreme. Le applicazioni militari chiariscono con particolare evidenza la portata a dir poco ambigua di questi sviluppi: soldati bio-digitali, atleti geneticamente potenziati, esoscheletri integrati nei corpi delineano una traiettoria in cui i limiti biologici della specie vengono superati, rendendo operative prestazioni – non finalizzate a opere di pace e bene – che eccedono la forma che l’essere umano ha assunto fin qui. Ognuna di queste frontiere richiederebbe approfondimenti specifici, impossibili da restituire nell’ambito (relativamente) circoscritto di questa riflessione.

I cultori della prospettiva transumanista, proiettando lo sguardo verso una congetturata “era prossima post-umana”, tendono ad assolutizzare la traiettoria della tecno-scienza, attribuendole il compito di recidere il legame con la stessa specie che l’ha prodotta. Forti dell’armamentario materiale e simbolico che hanno a disposizione, propugnano con disinvoltura l’idea di una cesura epocale: la fine della storia umana come orizzonte condiviso e l’avvento di una convivenza planetaria interamente sussunta nell’ibridazione tecnologica, regolata da una forma ancora indeterminata di razionalità artificiale chiamata a stabilire i ritmi e le forme del divenire.

SULL’INANITÀ CALCOLATA DEL PROBLEMATIZZARE I RISCHI

Rocco Palamara, “Nonno, mi racconti una storia?”, 1993

Va tuttavia precisato che una parte del discorso transumanista più avveduto non ignora né tace dei rischi associati a queste traiettorie. Diversi centri di ricerca e fondazioni impegnati in questi progetti adottano una comunicazione prudente, consapevoli delle potenziali implicazioni politiche, sociali delle tecnologie che studiano e promuovono. Ma questa cautela, osserva Curcio, risponde anche all’esigenza di non allarmare settori accademici, istituzionali e finanziari, i quali potrebbero reagire negativamente a prospettive percepite come eccessivamente rischiose. In questo contesto si collocano organizzazioni come la London Futurists, il MIRI di Berkeley, il Centre for the Study of Existential Risk di Cambridge e il Future of Humanity Institute di Oxford, strutture che, pur attivamente impegnate nella progettazione e sviluppo del genere di tecnologie descritte, riconoscono nei loro documenti e nelle loro comunicazioni ufficiali, la possibilità di esiti non controllabili. Le preoccupazioni espresse riguardano in genere le conseguenze potenzialmente incontrollabili associate agli sviluppi della genomica, alle nanotecnologie, alla robotica e alla diffusione di sistemi di calcolo ad alte prestazioni. Non sorprende, pertanto, che figure come Nick Bostrom, già tra i principali teorici del transumanesimo, abbiano progressivamente portato l’attenzione sui rischi esistenziali per la sopravvivenza degli esseri umani, sostenendo che l’emergere di forme “superiori” di “intelligenza” non-umana possa rappresentare un punto di svolta decisivo, non necessariamente reversibile, nella storia della specie. Una posizione che trova riscontro anche nelle opinioni di scienziati come Stephen Hawking, per il quale non si può escludere che l’evoluzione di tali tecnologie possa configurarsi come uno dei più gravi eventi critici per la civiltà contemporanea.

Curcio legge questa attenzione ai rischi come un segnale da non sopravvalutare. Se nel dibattito la questione viene spesso formulata in termini di rischi da attenuare attraverso la generica richiesta di “umanizzazione” delle tecnologie emergenti, si invoca, di fatto, la necessità di rendere più “umana” la tecnologia digitale, le intelligenze artificiali, i progetti di ingegneria genetica. Si chiede, altresì, di ricondurre lo sviluppo tecnologico entro solide cornici democratiche; di rinforzare la tutela della privacy; o di predisporre sistemi in grado di limitare le “cattive” intenzioni di attori politici autoritari. L’inefficacia di simili orientamenti si svela nel non tener conto del contesto strutturale in cui tali tecnologie si originano e si sviluppano: un capitalismo avanzato sovradeterminato dall’azione di un’oligarchia digitale che opera secondo logiche di colonizzazione del presente e del futuro. Ecco perché, allora, i protocolli di responsabilità invocati – e spesso utilizzati – nel dibattito svolgono una funzione prevalentemente legittimante, utile a mantenere l’accettabilità sociale delle innovazioni, senza però incidere minimamente sulle forze strutturali che ne determinano scopi e condizioni di possibilità. Ecco perché non è il caso di ampliare la portata delle dichiarazioni di dubbio o cautela provenienti da scienziati impegnati in sperimentazioni di frontiera e dagli stessi imprenditori responsabili dell’accelerazione dei processi tecnologici in discussione. Questi attori, pure adottando nelle comunicazioni pubbliche un linguaggio improntato a prudenza e considerazioni etiche, non modificheranno, per questo, la direzione di una ricerca che continua a mirare alla progressiva integrazione tecnica del vivente in un quadro di ampliamento del controllo, della manipolazione e, in ultima analisi, di estrazione di valore.

A questo livello, risulta particolarmente utile richiamare anche il contributo di Miguel Benasayag, la cui riflessione sulla “singolarità del vivente” (cfr. M. Benasayag, La singolarità del vivente, 2016) converge con quella di Renato Curcio circa il sottolineare l’irriducibilità delle forme di vita ai dispositivi tecnico-organizzativi. Per Benasayag, una società non può essere compresa né governata attraverso schemi totalizzanti, poiché il vivente individuale e collettivo tende sempre a deviare, a generare scarti, a produrre possibilità non previste, non misurabili né imbrigliabili. In questa prospettiva, Benasayag invita a misurarsi con i limiti intrinseci di ogni tentativo di imbrigliare la complessità del vivente entro cornici tecniche troppo rigide: la vita, nelle sue forme biologiche, psichiche, politiche, sociali, eccede ciò che i dispositivi possono prevedere o formalizzare. Questa osservazione risulta compatibile con il punto individuato da Curcio: il progetto transumanista presuppone una linearità del processo di trasformazione che difficilmente può tenere conto della dimensione eccedente del sociale, delle sue resistenze e delle sue dinamiche non programmabili. In altre parole, mentre l’immaginario transumanista tende a proiettare una transizione ordinata verso il post-umano, sia Curcio sia Benasayag ricordano che la vita – biologica, psichica e collettiva – mantiene margini di imprevedibilità che nessun apparato tecnico può davvero neutralizzare.

OLTRE I DETERMINISMI TECNO-INTERESSATI, PER LA COSTRUZIONE DI “INTERFERENZE” AL DOMINIO DELL ISTITUITO

F. Clerici, La speranza, 1956

Eppure, nella visione dei transumanisti sembra annidarsi, dice Curcio, un “baco vorace”. Questa narrazione, affidandosi all’assolutizzazione del paradigma tecnico-scientifico a trazione capitalista, finisce per mettere in ombra la complessità della dimensione umana: trascura le inquietudini, le energie, i malesseri, le tensioni che attraversano gli esseri umani, e ignora – è il caso di dirlo, scientemente – le molteplici contraddizioni che segnano la vita sociale. I transumanisti escludono l’interferenza di dinamiche sociali inattese, come l’irruzione sulla scena di soggetti che immaginano il futuro in forme differenti da quelle da loro prospettate. Variabili decisive, costitutive dello stesso processo in cui quegli immaginari si innestano e prosperano, che però non si sono mai esclusivamente fondate, né potrebbero fondarsi, sugli strumenti che gli esseri umani creano, utilizzano (e da cui sono in misura crescente utilizzati), ma che rimandano invece alla qualità dei rapporti sociali instaurati tra essi, alla loro condizione di genere umano, non di mera specie biologica.

Questa divergenza di sguardi e aspirazioni non è un dettaglio secondario ed evidenzia una frattura profonda nel modo di interpretare lo stato presente delle cose e le sue possibilità di trasformazione. Si tratta di uno sguardo forse ancora incompleto, ma già in conflitto con quello che gli apparati tecnologici e militari tendono a configurare come orizzonte inevitabile. Da questa prospettiva, il “totalitarismo digitale” che molti transumanisti prefigurano, senza avvedersi delle limitazioni delle libertà individuali e collettive che una simile traiettoria comporterebbe, si presenta come una variante estrema del pensiero coloniale bianco: un pensiero indebolito, ma ancora pericoloso perché portatore di un immaginario alienante e, sotto la sua patina seduttiva, regressivo. Curcio ricollega questo sviluppo alla lunga vicenda dello scambio ineguale – il quale precede di gran lunga la rete e le piattaforme digitali – ricordando come la sua fenomenologia sia sia radicata in profondità nei meccanismi della dominazione, alimentata per secoli da forme diverse di sfruttamento: lavoro servile, lavoro schiavistico, servitù della gleba, dipendenze personali radicate in rapporti di proprietà e di potere. Tuttavia, con l’affermarsi della borghesia come classe sociale questo paradigma millenario, e la sua “mistificazione totalizzante, ha conosciuto una prima, significativa, discontinuità. L’ingresso del lavoro salariato nella scena moderna ha introdotto un principio di vincolo tra il tempo di lavoro e la corrispondente retribuzione, e questo, pur all’interno della cornice dello scambio ineguale, ha prodotto un primo scarto rispetto alle forme precedenti di dominio “totale”. In questo senso, l’espressione “rivoluzione borghese” trova una effettiva giustificazione storica, in quanto segno del passaggio a una fase in cui il lavoro è stato formalmente riconosciuto come prestazione misurabile e contrattabile. È soprattutto nel corso dell’Ottocento – spiega Curcio – che questa trasformazione ha prodotto un cambiamento nella percezione delle condizioni materiali di vita delle classi sociali più sfruttate. E della possibilità di migliorarla attraverso lotte e rivendicazioni. Le lotte per la riduzione dell’orario, per il diritto di associazione, per condizioni minime di sicurezza e per una remunerazione meno miserabile hanno rappresentato il tentativo di contestare le basi strutturali costitutive dell’organizzazione capitalistica del lavoro, riducendo la forbice del valore prodotto nel tempo di lavoro e l’iniquità della sua retribuzione. E tuttavia, queste lotte, nonostante la forza e la capacità di incidere sulle dinamiche del lavoro, a volte anche significativamente, essendo riuscite ad introdurre miglioramenti e avanzamenti rilevanti, non sono riuscite ad intaccare la logica di fondo, cioè a modificare il congegno fondamentale dello sfruttamento. Lo scambio ineguale è rimasto la struttura portante dell’accumulazione e delle dinamiche di inserimento lavorativo degli esseri umani. Gli effetti “collaterali” della permanenza del paradigma capitalistico oggi si intensificano, attraverso divaricazioni crescenti, nuove forme di miseria o di precarietà, insieme ai danni ambientali che oggi rappresentano una delle principali minacce agli equilibri del pianeta.

Da qui, afferma Curcio, è necessario ripartire: dalla costruzione di un immaginario capace di sottrarsi ai determinismi tecno-interessati, in grado di opporre interferenze alla riproduzione dell’istituito. Verso un immaginario decolonizzato, libero dalle seduzioni delle merci digitali e dalle catene sociali che queste incorporano. Il superamento dello scambio ineguale, delle gerarchie di potere e delle disuguaglianze non è un tema puramente ideologico (ammesso che lo sia mai stato): l’attuale scenario – segnato da conflitti, devastazioni ecologiche, migrazioni forzate e concentrazione delle risorse – impone una revisione radicale dello stato delle cose. Il resto, suggerisce Curcio, è da immaginare e da fare: ricollocando l’immaginario delle tecnologie intelligenti entro contesti di cooperazione sociale e restituendo alle collettività la capacità di inaugurare trasformazioni dal basso. E, come egli ribadisce, «affinché una trasformazione dei rapporti di produzione possa compiersi, occorre che i lavoratori la vogliano, immaginino il proprio posto nella vita sociale a partire dai propri interessi – e non dagli incarichi attribuiti dalle macchine – e si battano per realizzarla». Serve una capacità immaginativa capace di resistere all’addomesticamento e alla nuova colonizzazione. Non sarà il complesso tecno-scientifico e militare a consegnare al genere umano un futuro diverso: se un passaggio radicale è possibile, riguarda l’ideazione di una nuova architettura della convivenza planetaria, orientata a superare l’antico paradigma dello scambio ineguale e a creare spazi di cooperazione autogestita, solidale e reciprocamente vantaggiosa, non solo per una minoranza di ricchi e di privilegiati. Nelle viscere del presente giace, ancora silente, la forza di un impensato, di una linea di fuga e di liberazione «dalle seduzioni illusorie delle merci digitali e delle catene sociali che esse nascondono nel loro grembo e nelle loro confezioni»[xxiv]. Ancora (e sempre) alla ricerca, dice Curcio, di un immaginario decolonizzato.


[i] T. d’Aquino, Contra Gentiles, Libro I, cap. 85, in Opera Omnia, Roma, Editrice Vaticana, 1955‑1969.

[ii] Cfr. R. Curcio, Sovraimplicazioni, Roma, Sensibili alle foglie, 2024.

[iii] Questo articolo non dispone dello spazio per illustrare come tali sistemi utilizzino e perpetuino pregiudizi sociali, come quelli basati su etnia, genere e status socioeconomico, né per evidenziare l’impatto nefasto delle tecnologie di profilazione algoritmica sugli individui erroneamente presi di mira (e, più in generale, sugli appartenenti alle comunità sottoposte a sorveglianza rafforzata a causa di esse). Per un approfondimento su questi temi si può consultare: https://www.oxjournal.org/predictive-policing-or-predictive-prejudice/

[iv] Anche nel campo della salute pubblica e del controllo epidemiologico, l’uso del cosiddetto data mining ha promesso di anticipare i comportamenti collettivi e, contestualmente, di “ottimizzare” – così si è detto – la distribuzione delle risorse. La pandemia da COVID-19 ha rappresentato, in tal senso, un banco di prova decisivo nell’applicazione della modellizzazione predittiva: modelli epidemiologici, analisi in tempo reale dei movimenti attraverso dati telefonici e piattaforme di monitoraggio hanno posto la capacità di previsione in un ruolo preminente nella gestione sociale.

[v] https://www.wired.it/play/libri/2016/03/18/alex-pentland-big-data/.

[vi]R. Curcio, Il futuro colonizzato, p. 111.

[vii]Ivi, p. 14.

[viii] Per un’introduzione al concetto di abitudine nelle sue diverse declinazioni filosofiche, cfr. M. Piazza, Creature dell’abitudine. Abito, costume, seconda natura da Aristotele alle scienze cognitive, Bologna, Il Mulino, 2018.

[ix]R. Curcio, Il futuro colonizzato, p. 43.

[x] Cfr. Luciano Floridi, L’etica dell’intelligenza artificiale. Sviluppi, opportunità, sfide, a cura di M. Durante, Raffaello Cortina Editore, 2022, p. 27.

[xi] https://cyber.harvard.edu/events/waking-internet-platform-disaster

[xii] DISFARE. Per la lotta contro il mondo guerra, “Il fuoco di Prometeo – agli ammutinati del fronte e delle retrovie”, in Umani contro il fuoco, n. 1, Primavera 2025.

[xiii]Ibid.

[xiv] Gilles Deleuze, “Post-scriptum sulle società di controllo”, in Conversazioni. 1972–1990, Ombre Corte, Verona 2000, pp. 236–243.

[xv] Si adopera volutamente il termine individuo nella sua accezione critica, come “finzione, etichetta”, contrapposta al concetto di persona, come proposta anche dal Manifesto della Rete di Resistenza Alternativa (1999). “Ma l’individuo non è che una finzione, un’etichetta. La persona, invece, è ognuno di noi in quanto accettiamo la nostra appartenenza a quel tutto sostanziale che è il mondo”. Manifesto della Rete di Resistenza Alternativa, “Contro la tristezza”, in Rivista Anarchica n. 258 (novembre 1999). Disponibile online all’indirizzo: https://www.arivista.org/riviste/Arivista/258/21.htm.

[xvi]R. Curcio, Il futuro colonizzato, p. 42.

[xvii]Ivi, p. 47.

[xviii]Ivi, p. 45.

[xix]Ivi, p. 50.

[xx]Ivi, p. 97.

[xxi]Ivi, p. 103.

[xxii] Cfr. R. Curcio, Sovraimplicazioni, Roma, Sensibili alle foglie, 2024; si veda anche l’ articolo Renato Curcio e le Sovraimplicazioni: urgenze di colonizzazione all’alba di una nuova schiavitù in Spazio70, disponibile all’indirizzo: https://spazio70.com/societa-e-cultura/renato-curcio-e-le-sovraimplicazioni-urgenze-di-colonizzazione-allalba-di-una-nuova-schiavitu/.

[xxiii] M. Benasayag, Il ritorno dall’esilio. Ripensare il senso comune, Milano, Feltrinelli, 2024, pp. 49-51. Qui l’autore utilizza la nozione di vivente come dimensione dell’umano incarnata e situata, contrapponendola alle logiche e ai dispositivi astrattivi e standardizzanti come quelli che definiscono le tecnologie digitali.

[xxiv]R. Curcio, Il futuro colonizzato, p. 112.