Dis-social: muoversi in rete fra vaghi diritti.

Cristiania Panseri

Docente – Cattedra di Diritto pubblico e Diritto civile – Istituto Universitario Progetto Uomo – Montefiascone

Maria Raffaella Cangi

Giurista e mediatrice, docente in diversi contesti formativi nazionali ed internazionali universitari e nel campo dell’alta formazione.


Non vi è libertà ogni qualvolta le leggi

 permettono che, in alcuni eventi, l’uomo

cessi di essere persona e diventi cosa.

Cesare Beccaria – Dei delitti e delle pene.

 

Per vivere occorre un’identità, ossia una dignità.

 Senza dignità l’identità è povera,

diventa ambigua, può essere manipolata.

Primo Levi – I sommersi e i salvati

 

Alcuni anni or sono, Michel Serres[2] in un pamphlet di successo aveva paragonato i ragazzi d’oggi, che vivono in un rapporto costante ed inscindibile con gli smartphones, a san Dionigi decollato: anch’essi, come il santo di Lutetia, tengono fra le mani la propria testa, una testa che contiene un’infinità di informazioni e dati che possono essere processati ad una velocità incomparabilmente maggiore rispetto a qualsiasi intelligenza umana. 

L’esperienza sociale quotidiana di tutti noi si è rimodellata attorno all’uso dei dispositivi portatili, le nostre vite si sono sempre più rapidamente interconnesse in conseguenza della diffusione di potenti e sofisticate tecnologie mobili, piattaforme online e app. Come risultato, siamo costantemente connessi in rete e lo smartphone si è imposto come mirabolante evoluzione del pollice opponibile, strumento indispensabile per svolgere una serie di azioni quotidiane: comunicare, informarsi, divertirsi, fare acquisti, fotografare e ascoltare musica, relazionarsi con gli altri, contrattare, a volte compiendo più di una di queste azioni contemporaneamente. 

Quello che ne scaturisce è un homo novus 3.0, e non solo nel senso romanamente inteso di chi, primo della sua razza, ha la possibilità di accedere a opportunità mai raggiunte prima, ma nell’accezione ben più inquietante di un inedito essere umano che deve riconoscere e ricostruire se stesso, la propria sostanza e, dunque, la propria identità immersa sempre più in una meta-realtà fatta di social network ed informazioni richieste, ma anche subite ed estorte, dovendo ritarare i propri diritti sulla base di, ancora, evanescenti principi del non-luogo in cui si trova e delle relazioni sociali con altri homini noviimmersi, come lui, in un cyber spazio in cui non è dato individuare confini.

E proprio per l’analisi del fenomeno, in questa vitale necessità di ricostruzione e rivendicazione della propria sostanza, il punto di vista giuridico si rivela interessante, dato che il diritto nel suo operare ha sempre costruito figure sociali, modelli di persona e, dunque, una vera e propria antropologia.[3]  Mentre, allo stesso tempo, è sempre più evidente come la realtà – quella delle nuove tecnologie in particolare – sfidi i vecchi diritti, ne affermi di nuovi ed esiga tutele più efficaci.

  1. Il paradosso della privacy.

La relazione tra innovazione tecnologica e diritto è fondamentale per comprendere innanzitutto l’evoluzione del concetto di privacy e la sua tutela: il modo di osservare e di intendere la sfera privata e gli strumenti che possono garantirla si sono modificati in base ad una realtà in movimento, in cui crescevano gli strumenti che permettevano di raccogliere, conservare, elaborare e diffondere le informazioni personali.

In origine, il concetto di privacy è stato costruito come un dispositivo escludente, uno strumento che consentisse di allontanare lo sguardo indesiderato del pubblico, il diritto ad essere lasciati soli, ad opporre una difesa contro l’invadenza del potere pubblico e la protervia mercificante di quello privato.

La definizione si è via via arricchita da diversi punti di vista ricomprendendo il diritto della persona di controllare l’uso che altri fanno delle informazioni che la riguardano, in un’ottica di tutela delle scelte di vita, contro ogni forma di controllo e stigmatizzazione sociale, e della libertà nella costruzione della identità personale.

Si è trattato di un potenziamento della tutela della sfera privata finalizzato non solo a garantire la riservatezza, ma anche a permettere che le convinzioni personali si manifestassero liberamente in pubblico, evidenziando l’intreccio tra privacy e libertà.

Questo quadro è profondamente mutato con l’evoluzione tecnologica degli strumenti di marketing e l’affinamento delle tecniche di profilazione dell’utente, quelle forme di trattamento automatizzato dei dati personali utilizzati per valutare aspetti privati, analizzare o prevedere elementi riguardanti la situazione economica, la salute, le preferenze personali, gli interessi, il comportamento, l’ubicazione o gli spostamenti dei soggetti. A fronte del semplice click su un sito di informazione sportiva, piuttosto che su un motore di ricerca, infatti, si finisce per cedere informazioni private, talvolta anche intime, sulle proprie scelte, i propri orientamenti, i propri gusti o disgusti, e tali informazioni vengono utilizzate per ricostruire l’identità commercialmente spendibile dell’utente, ma anche per controllarlo e, larvatamente, indirizzarlo a compiere altre scelte[4], in una logica rigidamente mercantilistica in cui a fronte di un servizio suppostamente gratuito l’utente finisce per “gioiosamente” pagare con la vampirizzazione della propria essenza.

Certo, l’ottica è quella dello scambio economico, poiché gli utenti cedendo i propri dati, un bene, cioè, non altrimenti monetizzabile, ottengono un’utilità che diversamente non otterrebbero o otterrebbero a costo diverso. E certo, la profilazione può essere fatta proprio a vantaggio dell’utente per migliorare, cioè, un servizio o un prodotto di cui, di nuovo, sarà lui il felice fruitore. Epperò lo scambio è sempre impari, perché origina da quella asimmetria del rapporto che è l’asimmetria informativa: una asimmetria che finisce per impedire al fruitore persino di avere coscienza della quantità e qualità delle informazioni che usa come moneta sonante mentre le big companies si arricchiscono con quanto hanno depredato all’utente, utilizzando e commerciando di tutto, non soltanto i gusti di consumo, ma dati sanitari, opinioni politiche, predisposizione al rischio, inclinazioni sessuali, convinzioni religiose.

Così, questa profilazione, fatta da governi o imprese capitanate dai grandi operatori digitali, ha inaugurato il cd. capitalismo della sorveglianza, un sistema che si appropria delle esperienze umane e le usa come materia prima da trasformare in dati sui comportamenti[5], in un vorticoso circolo vizioso che non vede fine.  Ed invero, mentre la profilazione si perfeziona, man mano cresce l’uso della Rete ed aumenta la quantità di dati e informazioni personali che ciascun utente rilascia durante la navigazione, implementando quegli archivi giganti, i Big Data, gestiti da algoritmi e processori che consentono analisi di gruppo e confezionano, attraverso la capacità di autoapprendimento, profili di massa sempre più efficaci e sofisticati.

E i dati rilasciati in rete sono tantissimi, basti pensare che tutti i social network, dai servizi di posta elettronica ai siti d’informazione, si basano sullo scambio economico, impari, fra servizi e dati personali.[6]

Ma quante informazioni personali siano conservate negli archivi delle società non è dato sapere, e gli utenti trovano non poche difficoltà a conoscere, attraverso informative sulla privacy spesso carenti, il luogo di conservazione dei dati e i soggetti con i quali vengono condivise le informazioni. Al contrario, gli algoritmi godono della massima protezione, in quanto coperti dalle leggi sulla proprietà intellettuale, che ne impediscono la divulgazione e li collocano in una posizione di potere sottratto a qualsiasi forma di controllo collettivo.[7]

Difronte una situazione così squilibrata in termini di potere, si staglia la già citata tutela della privacy, una foglia di fico inadatta a coprire l’uomo nella nudità in cui l’appropriazione dei propri dati l’ha gettato; così gli interventi normativi dei vari Stati appaiono un po’ ovunque troppo cauti, o fuori luogo o sfasati rispetto alla velocità di evoluzione del fenomeno.

Anche l’ultimo regolamento dell’Unione europea (General Data Protection Regulation n.2016/679), che nelle sue motivazioni si preoccupa dell’impatto delle nuove tecnologie sui diritti e le libertà delle persone, non riesce ad incidere sulla realtà: ripetere che la prestazione del consenso va svincolata dall’erogazione del servizio o porre l’obbligo di trasparenza nel trattamento dei dati si traduce in una petizione di principio se non si pone un divieto a commerciare il consenso o una limitazione all’uso di algoritmi sempre più sofisticati e meno intellegibili dalla mente umana. Riesce difficile immaginare di poter uscire da questo circolo vizioso: per essere efficaci è necessario accedere a grandi quantità di dati, ma più i dati crescono più si complicano gli algoritmi.

E così, quella foglia di fico si è trasformata in un paradosso: la nostra privacy non è mai stata così limitata come da quando si sono approntate norme e garanzie per proteggerla, e con essa, i nostri dati personali.

Restiamo, così, indifesi a dispetto di un apparato creato per proteggerci; ma la colpa non è solo della scarsa incisività delle norme o della giurisprudenza dei vari Garanti europei, sovente più preoccupata del carattere formale del consenso che della sua dimensione sostanziale. 

La responsabilità di tale situazione dipende, da un lato, dall’accelerazione tecnologica così travolgente da costringere le istituzioni ad una perenne rincorsa e, dall’altro, dal condizionamento psicologico mentre si naviga in Rete a cedere le nostre informazioni personali a fronte di benefici che ci appaiono tangibili e immediati, mentre non si percepiscono i pericoli.

Gli utenti si limitano ad esercitare un vago controllo sulla diffusione pubblica delle informazioni immesse in rete, non sul loro trattamento da parte degli operatori, mostrandosi abbastanza disinteressati alla lettura delle informative e dei termini contrattuali dei servizi.[8]

  1. Le intelligenze “artificiali”: da strumento a soggetto di decisione.

Ma il consumo, anzi la bulimia di dati ed informazioni che sta trasformando questo mondo, produce altre inaspettate conseguenze sul piano del diritto. Al giorno d’oggi, un numero sempre maggiore di decisioni capaci di produrre effetti giuridici negativi o di incidere in modo significativo sulle libertà individuali e collettive sono prese o supportate da sistemi automatizzati regolati da algoritmi; e contestualmente, ci troviamo in una condizione di crescente incertezza conoscitiva, conseguenza della velocità di evoluzione di sistemi superiori agli umani tempi di verifica, delle molte potenzialità applicative ancora sconosciute, dell’impiego dell’intelligenza artificiale che ci mette sempre più spesso di fronte a conclusioni o valutazioni accurate, ma delle quali ci sfugge la logica[9] e la possibilità di controllo.

Saremmo di fronte ad un’impasse, che però non possiamo permetterci. E così, e nonostante tutto, la tecnologia cibernetica – la cui potenza continua ad aumentare esponenzialmente – è passata da un ruolo strumentale a quello di soggettosfuggevole all’umano controllo. Da un lato, infatti, in misura sempre maggiore, l’uomo chiede a questi sistemi tecnologici automatizzati di prendere decisioni o di esprimere valutazioni autonome; dall’altro, quelle stesse piattaforme tecnologiche, la cui logica talvolta ci sfugge, sono i fornitori delle conoscenze che supportano le nostre stesse decisioni. Sono i motori di ricerca o i social media – erroneamente considerati neutrali – oltretutto, di proprietà di poche e ricchissime società commerciali e che realizzano enormi profitti attraverso la raccolta, l’elaborazione e la vendita dei dati degli utenti che le utilizzano, a fornire informazioni e valutazioni ottenute proprio attraverso l’elaborazione di quei dati.[10] Così, la presenza sempre più pervasiva degli algoritmi sembra non trovare limiti: sono impiegati per disegnare le modalità di funzionamento di vaste aree delle organizzazioni sociali e di numerosi servizi che utilizziamo quotidianamente, incarnando nuove forme del potere, avvolti come sono nella segretezza di tutto ciò che li riguarda e immuni da ogni controllo.

Così, la crescente diffusione di quei sistemi autonomi pone la necessità di affrontare – anche giuridicamente – le conseguenze di un’autonomia decisionale che passa dalla consapevolezza e dall’indipendenza delle persone per divenire una caratteristica delle cose, la cui verità talvolta è difficilmente verificabile per l’uomo e comunque sempre eterocodificata, a conferma di una generale eclisse dell’autonomia personale propria del capitalismo «automatico».[11]

Nel parterre decisionale, la costruzione delle identità umane finisce per essere sottratta alle intenzionalità individuali e affidata agli algoritmi, mentre la costruzione di proiezioni di possibili future decisioni ed il pericolo che la persona rischi di essere valutata per una serie di dati che sono altro rispetto le sue azioni diventa l’atto conclusivo di quella separazione fra identità e intenzionalità in cui scompare la forza dell’autonomia dell’uomo nella costruzione del sé per essere assorbita dalla processione di dati che creano l’avatar. E’ questa una nuova dittatura: la dittatura degli algoritmi.

Il passaggio dall’Internet delle reti sociali all’Internet delle cose vede animare la realtà dalla presenza di robot virtuali o sociali, attraverso sistemi artificiali in grado di imparare, dotati di una forma di intelligenza propria che potrebbe renderli capaci di sopraffare l’intelligenza umana.

Se «stare in rete appartiene ormai alla cittadinanza, e contribuisce a determinarne i caratteri»[12]  e stare nella realtà vuol dire interagire, in un rapporto a volte simbiotico, con queste “intelligenze”, allora è opportuno chiedersi quanto siamo in balia delle macchine, quali sono gli effetti su libertà e diritti e quali le conseguenze sul funzionamento democratico della società.

In questo nuovo contesto plasmato dall’innovazione scientifica e tecnologica è sempre più necessario che il diritto si riappropri del suo ruolo e delle sue funzioni: da quella di legittimazione a quella di controllo, dalla risposta alle angosce sociali all’organizzazione dell’ampliamento delle possibilità di scelta individuale e collettiva.[13]

  1. Dall’habeas corpus, all’habeas mentem.

Ma al di là delle dichiarazioni di principio e della sovrabbondanza di norme, per lo più decorative o manifesto, il diritto sembra arrancare di fronte a questi nuovi scenari in cui operano poteri immateriali e tecnologici capaci di agire sulla realtà dei corpi e delle relazioni umane, dei diritti e dei doveri, quasi fossero legibus soluti

Per superare lo smarrimento, l’azione del diritto dovrebbe rifondarsi facendosi guidare dai principi racchiusi nella Costituzione e dall’articolo 3, in particolare, che nell’incipit afferma: «Tutti i cittadini hanno pari dignità sociale», con una precisa scelta di affermare la dignità della persona ancor prima di elencare le cause di non discriminazione e di qualificarla come “sociale”, contestualizzandola nel sistema di relazioni in cui si trovano le persone e ponendo l’attenzione sulla materialità delle loro vite e dei legami sociali che le accompagnano.

La dignità appartiene a tutte le persone e son da ritenere illegittime tutte le distinzioni che finiscano per considerare alcune vite non degne o meno degne di essere vissute, questa è la risposta più adeguata non solo alle dinamiche indotte dai vorticosi mutamenti tecnologici, ma anche alle esigenze di una società definita dell’incertezza, del rischio, liquida.[14]

Se la diffusione della robotica, come già è avvenuto con l’elettronica, porta ad una concentrazione del potere nelle mani di soggetti che ne controllano la dimensione tecnica, si coglie la necessità di un intervento per governare l’accesso alle opportunità offerte dalla tecnoscienza attraverso lo strumento normativo che limiti la logica competitiva e di mercato rispetto e quella dei diritti.

Alla tutela del corpo umano nella sua dimensione fisica si affianca quella del corpo elettronico, composto dalle informazioni e dai codici che definiscono la nostra identità digitale e la dignità è il tramite per ricostruire l’integrità della persona, per evitare di venir considerati una sorta di miniera dalla quale chiunque può estrarre informazioni da mettere a profitto, per scongiurare il pericolo di venire privati dell’autonomia e della consapevolezza e consumati dalle tecnologie dell’algoritmo.

Così, anche il concetto di privacy deve modificare visuale ed ampliarsi, ricomprendendo nel concetto di libertà personale non solo la protezione dei nostri dati personali, ma anche «la tutela della nostra autonomia di giudizio e della nostra incondizionata libertà di esercitarla, quella libertà che è il “coraggio di servirci della nostra intelligenza”, per riprendere la famosa formula di Kant, così emblematica dell’illuminismo.».[15]

Diventa imprescindibile costruire un’etica della responsabilità[16], che faccia da punto di appoggio ad una politica dell’azione e dunque ad interventi normativi, capace di far fronte alla varietà delle sfide in atto, che si preoccupi del modo in cui i nostri principi, i fondamenti della nostra umanità e della nostra civiltà vengono sradicati dal nuovo ambiente in cui viviamo e dai nuovi poteri economici e tecnologici che lo governano.

La custodia dell’umano non è una resistenza al nuovo, un timore del cambiamento o la sottovalutazione dei suoi benefici, ma è la consapevolezza critica e la prova di una scrupolosa attenzione e di una vigilanza sui principi nei quali l’umano continua a riconoscersi in un mondo in continua trasformazione. Questo impegno, che si realizza anche attraverso il diritto, esige un mutamento culturale e un’attenzione civica diffusa che si risolva in azioni politiche e culturali coerenti. Questo impegno necessita di una consapevolezza maggiore. La volontà di non mercificare la propria identità, svendendola come Esau con la primogenitura, ma di tutelarla aprendola al futuro senza sradicarla dalla coscienza e dalle responsabilità dell’agire umano.


[2] Michel SERRES, Non è un mondo per vecchi, Bollati Boringhieri, Torino, 2013.

[3] Stefano RODOTÀ, La rivoluzione della dignità, La Scuola di Pitagora editrice, Napoli, 2013.

[4] Non si può non pensare al famoso scandalo Cambridge Analytica del 2018, che portò alla luce come l’utilizzo, ben veicolato, di dati personali ottenuti illecitamente da un social-network (Facebook) potesse riuscire ad influenzare le scelte di voto degli elettori cosiddetti “influenzabili” (in particolare, nelle elezioni americane del 2016, che portarono all’elezione di Trump e nel referendum, dello stesso anno, che portò alla “Brexit”), attraverso annunci pubblicitari modulati sulla base delle loro personalità e messi in rete attraverso piattaforme social. Si veda Christopher WYLIE, Il mercato del consenso. Come ho creato e poi distrutto Cambridge Analytica, Longanesi, Milano, 2020.

[5] Shoshana ZUBOFF, Il capitalismo della sorveglianza, LUISS University Press, Roma, 2019.

[6] Il motore primario di questo processo di generazione di dati è indubbiamente Internet: attraverso la rete in un minuto sono inviati 44 milioni di messaggi, sono effettuate 2,3 milioni di ricerche su Google, sono generati 3 milioni di “mi piace” e 3 milioni di condivisioni su Facebook, e sono effettuati 2,7 milioni di download da YouTube, come si evince da un Indagine conoscitiva sul Big Data diffusa nel 2018 da AGCM, AGCOM, Garante per la protezione dei dati personali.

https://agcm.it/competenze/tutela-della-concorrenza/indagini-conoscitive/lista-indagini-conoscitive

[7] Michele AINIS, Il regno dell’uruboro, La nave di Teseo, Milano, 2018.

[8] Nella citata Indagine conoscitiva sui Big Data diffusa del 2018 si è potuto constatare come il 54% degli utenti legge solo in parte le informative e i termini contrattuali e oltre un terzo non li legge affatto.

[9] Come quella che dimostrerebbe, attraverso l’accurata correlazione di dati, che all’aumentare delle apparizioni cinematografiche di Nicolas Cage aumenterebbero le morti per affogamento in piscina o quella che dimostrerebbe la relazione tra il tasso di divorzi in Maine e l’uso pro capite della margarina. Per queste ed altre amenità, si veda http://tylervigen.com/spurious-correlations.

[10] Il potere manipolatorio di queste piattaforme è salito all’onore delle cronache con il fenomeno delle fake news e con l’avvento delle teorie circa la cosiddetta post-verità, ovvero quelle argomentazioni caratterizzate da un forte appello all’emotività, che basandosi su credenze diffuse e non su fatti verificati, tendono a essere accettate come veritiere, influenzando l’opinione pubblica.

[11] Stefano RODOTÀ, Vivere la democrazia, Laterza, Bari, 2018.

[12] Stefano RODOTÀ, Il mondo della rete. Quali i diritti, quali i vincoli, Laterza, Bari, 2014, p.59.

[13] Stefano RODOTÀ, Tecnologie e diritti, Il Mulino, Bologna, 2021.

[14] Stefano RODOTÀ, Op. Cit., 2013.

[15] Éric SADIN, Critica della ragione artificiale. Una difesa dell’umanità, LUISS University Press, Roma, 2019, p.162.

[16] Hans JONAS, Il principio responsabilità. Un’etica per la civiltà tecnologica, Einaudi, Torino, 1990.

Print Friendly, PDF & Email