Il primato delle big tech e la ricerca di una nuova cornice regolatoria
Il dilemma – di stampo ormai quasi shakespeariano – collegato alla necessità di comprendere quanto effettivamente le piattaforme virtuali siano dirette responsabili dei crescenti fenomeni di odio, disinformazione e bullismo per via della dilagante proliferazione di contenuti violenti sembra nuovamente essere tornato attore principale dell’informazione internazionale.
Infatti, a fronte del dilagante fenomeno del “lato oscuro” della Rete, che si manifesta anche nella impercettibile esistenza di bolle volte a polarizzare convinzioni in un’ottica di informazioni a “senso unico” che aggravano la violenza online e l’odio, si assiste all’inesorabile declino del mito della rete– come emblema dell’accesso al pluralismo informativo – sacrificato sull’altare di logiche imprenditoriali orientate a massimizzare il profitto che il sistema algoritmico della personalizzazione persegue.
A riguardo, è opportuno precisare che le implicazioni delle cd.“bolle di filtri” non si esauriscono solo in meri risvolti economici legati alla personalizzazione dei contenuti, ma generano (anche e soprattutto) problemi di rilievo sociale, suscettibili di incidere sulla libertà di autodeterminazione individuale.
Ci stiamo, infatti, rapidamente muovendo verso un regime sovraccarico di informazioni che può produrre una sorta di determinismo dell’informazione, nel quale ciò che abbiamo cliccato in passato può determinare ciò che vedremo in futuro, limitando come naturale conseguenza, non solo la vasta gamma di stimoli che il cyberspazio dovrebbe – al contrario – offrirci, ma anche la possibilità di contaminazione con pensieri e opinioni diverse, isolando così l’utente da ogni informazione in contrasto con il proprio punto di vista.
Oltretutto, le pressanti restrizioni derivanti dalla pandemia di Coronavirus, sembrano aver evidenziato quanto la disinformazione e l’odio online possano essere letali, specialmente se uniti a una totale mancanza di responsabilità, causando idee estremistiche, amplificate proprio dalla massiva riproduzione algoritmica di contenuti visualizzati dal singolo utente indotto a radicalizzare i propri convincimenti personali.
Ed è proprio dall’alterazione del processo formativo della propria opinione che prende le mosse un interessante approfondimento del New York Times, in cui vengono affrontate le soluzioni proposte sul piano istituzionale, nel contesto americano, ove da tempo si registra un generale dibattito “bipartisan” nel tentativo di predisporre un nuovo quadro regolatorio volto ad adeguare la legislazione vigente ai mutamenti tecnologici configurabili in ambiente digitale.
Già durante la presidenza Trump, si discuteva, infatti, in merito alla necessità di rivedere lasezione 230 del Communications DecencyAct che regolamenta la pubblicazione dei contenuti online: la normativa, nel suo complesso, era stata configurata in un’epoca in cui Internet non aveva sostanzialmente regole, allo scopodi tutelare i proprietari dei siti web da responsabilità rispetto a quanto pubblicato dagli utenti terzi sulle loro pagine, offrendo loro una sorta di scudo legale.
È chiaro, tuttavia, che nell’era della “disintermediazione” tra ciò che i social media rappresentano e la personalizzazione spinta dei contenuti, questa impunità sembrerebbe aver condotto a una deriva incontrollabile capace di influenzare e inquinare il processo informativo dei cittadini. Anche perché la bolla dei filtri sembra essere al tempo stesso causa ed effetto del processo di frammentazione della politica globale, in cui l’adattamento del flusso di informazioni alla nostra identità, sembra portare alla graduale scomparsa di una visione eterogenea e di un dibattito pulito da ogni interferenza.
In tale prospettiva, tra i disegni di legge presentanti durante i lavori dell’House Energy and Commerce Committee– dagli esponenti del Partito Democratico – spiccano innanzitutto le soluzioni della senatrice Amy Klobuchar, secondo cui sarebbe opportuno esporre una piattaforma a cause legali se “promuove” la portata della disinformazione sulla salute pubblica o, ancora, quella progettata da Frank Pallone Jr., presidente del Comitato per l’energia e il commercio, secondo il quale le piattaforme possono essere citate in giudizio solo quando l’amplificazione relativa alla disinformazione è stata realizzata con i dati personali di un utente e, quella più specifica, proposta dai rappresentanti distrettuali Eshoo e Malinowski, secondo i quali, le difese dello scudo legale dovrebbero elidersi solo se la pubblicazione dei post abbiano ad oggetto la violazione di diritti civili o il perseguimento di terrorismo internazionale.
Tra i repubblicani, invece, sembra prevalere, con un atteggiamento di maggiore cautela, la preoccupazione secondo cui un’eventuale influenza di stampo normativo in grado di incidere sui lavori delle piattaforme, realizzerebbe una celata operazione di censura che andrebbe a discapito della libertà di accesso ai contenuti.
In ogni caso, qualunque sia il destino dello scudo legale,è chiaro che il tema è riuscito a sollevare ancora una volta interrogativi in merito al ruolo concreto – non più soltanto esclusivamente imprenditoriale, ma anche sociale – oggi assunto dalle varie piattaforme.
Sembra emergere, inoltre, una corrente che, in totale controtendenza, vede addirittura nella personalizzazione la base per un’idea di equità e uguaglianza, in ragione del fatto che le tecnologie propongono informazioni senza fare distinzioni in merito a razza o genere. Ma è chiaro che questo si realizzerebbe solo ove gli algoritmi fossero progettati con cura e intelligenza, altrimenti è probabile che finiscano (come spesso già accade) per riflettere semplicemente i costumi sociali della cultura alla quale fanno riferimento, con il risultato di determinare effetti discriminatori massivi.
Forse la soluzione potrebbe essere definitivamente cercata a monte e non più a valle: probabilmente per imporre pratiche informative corrette bisognerebbe pensare ai propri dati personali come a una sorta di proprietà privata da difendere: la personalizzazione si basa, infatti, su una transazione economica nella quale gi utenti sono intrinsecamente svantaggiati, perciò mentre Google può sapere quanto vale conoscere la razza alla quale apparteniamo, noi non possiamo accedere a questa mole di informazioni; così, proprio perché mentre i vantaggi sono ovvi (i servizi web sono gratis!), gli svantaggi sono invisibili, si corre il rischio di un progressivo indebolimento della stabilità sociale destinato ad incidere sulla tenuta democratica dei sistemi istituzionali, con ripercussioni negative anche sull’esercizio dei diritti fondamentali delle persone.
Federica Giaquinta