CHI SPEGNE LA NOSTRA VOCE? ALGORITMI, SOCIAL E LIBERTÀ DI PENSIERO

ABSTRACT: L’emergere di nuovi spazi digitali, dominati da logiche algoritmiche e gestiti da soggetti privati, ha radicalmente trasformato le condizioni di esercizio della libertà di pensiero. Le piattaforme social non si limitano a ospitare contenuti, ma li selezionano, promuovono o sopprimono attraverso sistemi opachi, incidendo così sull’effettiva possibilità dei cittadini di partecipare al discorso pubblico. Questo editoriale si propone di analizzare, in chiave costituzionale, il rapporto tra algoritmi e libertà di espressione, interrogandosi su quali siano oggi i limiti, le responsabilità e le possibili forme di regolazione.

SOMMARIO: 1. LA LIBERTÀ DI PENSIERO NEL PARADIGMA COSTITUZIONALE. – 2. IL RUOLO SELETTIVO DEGLI ALGORITMI: UNA CENSURA INVISIBILE? – 3. DIRITTO E PIATTAFORME: I LIMITI DELLA REGOLAZIONE PRIVATA. – 4. REGOLAZIONE EUROPEA E TENSIONI COSTITUZIONALI.

1. LA LIBERTÀ DI PENSIERO NEL PARADIGMA COSTITUZIONALE
La libertà di manifestazione del pensiero, sancita dall’articolo 21 della Costituzione Italiana, costituisce un presidio imprescindibile dell’ordine democratico e del principio personalista che ne informa l’architettura normativa complessiva. Essa si configura non soltanto come una libertà negativa, nel senso di assenza di interferenze da parte dei pubblici poteri, ma altresì come una libertà positiva, espressione di un diritto attivo a comunicare e a ricevere informazioni, opinioni, idee e convinzioni in modo libero, pluralistico e non discriminatorio. La dottrina e la giurisprudenza costituzionale hanno a più riprese sottolineato la dimensione bifronte di tale libertà[1], la quale si articola, da un lato, nella libertà individuale di esternare il proprio pensiero in qualsiasi forma e mezzo e, dall’altro, nel diritto collettivo della società a fruire di un dibattito pubblico aperto, inclusivo e informato, fondamento essenziale della partecipazione democratica.

In tale prospettiva, la libertà di espressione non può essere intesa in senso meramente formalistico, come semplice diritto a “non essere censurati” da parte dello Stato, ma deve essere reinterpretata alla luce dei mutamenti intervenuti nel contesto mediatico contemporaneo, in cui nuovi attori, prevalentemente privati e transnazionali, si sono inseriti come gestori delle infrastrutture digitali di comunicazione e come arbitri de facto della visibilità e della circolazione dei contenuti. La Corte costituzionale ha evidenziato a più riprese come la libertà di espressione rappresenta condizione imprescindibile per il pieno sviluppo della persona e per la partecipazione consapevole alla vita democratica[2], enunciando una lettura dinamica del diritto in questione che impone, pertanto, di considerare anche le forme indirette o sistemiche di compressione del dibattito pubblico, specie quando esse provengano da soggetti dotati di capacità tecniche e posizionali tali da incidere significativamente sull’ecosistema informativo.

È in questo quadro che emerge con crescente urgenza la necessità di interrogarsi sul ruolo delle piattaforme digitali e, in particolare, sull’impatto dei sistemi algoritmici da esse impiegati nella selezione, promozione o soppressione dei contenuti informativi. Tali strumenti, lungi dal configurarsi come meri meccanismi neutri di indicizzazione, operano secondo logiche opache, fondate su criteri economici e metriche di engagement, che possono determinare una forma surrettizia di censura, difficilmente percepibile e ancor più difficilmente contestabile. Il diritto costituzionale, pertanto, si trova oggi a confrontarsi con un paradigma comunicativo profondamente mutato, in cui il principio della libertà di manifestazione del pensiero non può più prescindere da una riflessione critica sullo statuto giuridico degli intermediari digitali e sui limiti della loro autonomia privata[3].

2. IL RUOLO SELETTIVO DEGLI ALGORITMI: UNA CENSURA INVISIBILE?
Nel contesto delle piattaforme digitali, la selezione dei contenuti non avviene più attraverso un intervento editoriale umano, ma mediante meccanismi automatizzati fondati su algoritmi predittivi e modelli di apprendimento automatico, i quali definiscono le modalità di presentazione, diffusione e prioritizzazione delle informazioni. Questi sistemi, apparentemente neutrali, operano in realtà secondo criteri funzionali agli obiettivi commerciali delle società che li sviluppano e gestiscono: massimizzazione dell’attenzione, incremento del tempo di permanenza sulla piattaforma, ottimizzazione della profilazione pubblicitaria. Di conseguenza, i contenuti maggiormente visibili non sono necessariamente quelli più informativi, pluralisti o rilevanti per il dibattito pubblico, ma quelli che suscitano reazioni emotive, polarizzazione o viralità.

Tale dinamica introduce un elemento distorsivo nel circuito democratico dell’informazione: il contenuto non è più giudicato in base alla sua qualità argomentativa o alla sua rilevanza sociale, bensì sulla base della sua performance algoritmica. In questo senso, si configura una forma di “censura invisibile”, non esplicitamente voluta né dichiarata, ma prodotta come effetto collaterale sistemico del funzionamento delle piattaforme. Non vi è un atto deliberato di soppressione dell’opinione divergente; vi è, piuttosto, una sistematica marginalizzazione dell’informazione non conforme agli standard del mercato dell’attenzione.

Tale prassi solleva interrogativi giuridici di particolare rilievo. Se è vero che l’articolo 21 Cost. garantisce la libertà di manifestazione del pensiero, è altrettanto vero che questa tutela rischia di rivelarsi inefficace quando la capacità di raggiungere un pubblico significativo viene compromessa da logiche private non soggette a controllo pubblico. In tal senso, la dottrina ha cominciato a interrogarsi sull’opportunità di riconoscere l’esistenza di un diritto alla visibilità o, più prudentemente, di un diritto a non essere esclusi in modo arbitrario dal discorso pubblico digitale, al fine di preservare il pluralismo informativo quale condizione essenziale della deliberazione democratica[4].

3. DIRITTO E PIATTAFORME: I LIMITI DELLA REGOLAZIONE PRIVATA
L’attuale regime giuridico che governa le piattaforme digitali si fonda su una presunzione di neutralità e sulla conseguente applicazione del principio di non responsabilità tipico degli intermediari tecnici. Tuttavia, la trasformazione strutturale di queste entità in veri e propri gatekeepers del discorso pubblico ha messo in discussione l’adeguatezza di tale paradigma. Le piattaforme non si limitano a veicolare contenuti prodotti da terzi, ma li organizzano, li filtrano, li raccomandano o li rimuovono secondo regole autonome, spesso inaccessibili e non verificabili. Esse definiscono autonomamente le proprie community guidelines, decidono cosa sia considerato “contenuto dannoso” o “disinformazione”[5], e procedono alla rimozione o alla demonetizzazione di contenuti sulla base di criteri propri, senza necessariamente garantire un contraddittorio effettivo o un rimedio giurisdizionale.

Questa privatizzazione delle funzioni regolative solleva gravi questioni di compatibilità costituzionale. Se è vero che la libertà di iniziativa economica privata, riconosciuta dall’art. 41 Cost., consente ai soggetti privati di disciplinare i propri servizi, è altrettanto vero che tale libertà incontra limiti nella tutela dei diritti fondamentali e nella salvaguardia del pluralismo democratico. Quando un soggetto privato assume un ruolo di tale rilevanza da incidere strutturalmente sull’esercizio della libertà di espressione di milioni di cittadini, il suo operato non può restare sottratto a vincoli pubblici di trasparenza, proporzionalità e accountability.

Una parte della dottrina ha proposto, in tal senso, un’analogia tra le piattaforme digitali e i fornitori di servizi essenziali, suggerendo l’estensione a questi attori di obblighi derivanti dal diritto costituzionale alla non discriminazione e dal principio di eguaglianza sostanziale. Altri autori hanno richiamato il concetto statunitense di public forum, per sostenere che, nel momento in cui una piattaforma diventa il principale spazio di espressione pubblica, essa debba essere sottoposta a limiti analoghi a quelli previsti per le autorità pubbliche. In ogni caso, emerge con evidenza l’insufficienza della sola autoregolamentazione e la necessità di un intervento normativo volto a riequilibrare i rapporti di forza tra utenti e gestori delle infrastrutture digitali del discorso.


4. REGOLAZIONE EUROPEA E TENSIONI COSTITUZIONALI
Il legislatore europeo ha recentemente intrapreso un percorso ambizioso di regolazione del digitale, culminato con l’adozione del Digital Services Act (Regolamento UE 2022/2065), che mira a responsabilizzare le piattaforme rispetto agli effetti sistemici della loro attività. Tra le principali innovazioni si segnalano gli obblighi di trasparenza algoritmica, la previsione di meccanismi di ricorso per gli utenti, la sorveglianza rafforzata per le piattaforme di dimensioni molto grandi (VLOPs), nonché l’introduzione di sanzioni significative in caso di inadempimento. Tuttavia, l’efficacia di tale strumentario normativo dipenderà in larga parte dalla sua attuazione concreta, dalla capacità delle autorità competenti di esercitare un controllo penetrante e, soprattutto, dalla possibilità di assicurare una tutela effettiva dei diritti fondamentali nel contesto digitale.

La trasposizione di tali principi nel diritto interno solleva ulteriori interrogativi, specie alla luce del principio di riserva di legge in materia di libertà fondamentali e del principio di proporzionalità che deve ispirare ogni limitazione di diritti costituzionali. È legittimo, ad esempio, che uno Stato imponga a un soggetto privato obblighi informativi e strutturali circa il funzionamento dei propri algoritmi? In che misura tali obblighi possono interferire con la libertà d’impresa o con la segretezza industriale? Ancora: come evitare che un eccesso di regolazione si traduca, paradossalmente, in una nuova forma di censura?

Il bilanciamento tra la libertà di manifestazione del pensiero e le esigenze di regolazione delle piattaforme richiede dunque un approccio costituzionalmente orientato[6], capace di superare la dicotomia tradizionale tra pubblico e privato e di riconoscere che, nell’ecosistema digitale, il potere si esercita anche – e forse soprattutto – attraverso soggetti formalmente privati, ma sostanzialmente dotati di capacità normativa, interpretativa e sanzionatoria. Solo una riflessione giuridica attenta alla realtà fattuale del potere potrà garantire che la libertà di pensiero non venga erosa, lentamente ma inesorabilmente, dal silenzio degli algoritmi.


BIBLIOGRAFIA ESSENZIALE

  1. Barbera Augusto – Fusaro Carlo, Corso di diritto costituzionale, Il Mulino, 2022, pp. 325 ss.
  2. Corte costituzionale, sentenza n. 132 del 202
  3. Celeste Edoardo, Digital Constitutionalism: A New Systemic Level of Internet Regulation? in International Review of Law, Computers & Technology, vol. 34, 2020, pp. 122-139.
  4. Zagrebelsky Gustavo, La legge e la sua giustizia, Einaudi, 2008, p. 89
  5. Ghidini, Gustavo, Libertà digitali e responsabilità delle piattaforme, Giappichelli, 2021, pp. 34-45
  6. Celotto Alfonso, Algoritmi e Costituzione, in Il Foro italiano, n. 11/2023, pp. 1-9


Chiara Vitone
Chiara Vitone
Studentessa di Giurisprudenza presso l'Università degli Studi di Napoli Federico II. Amante delle tematiche legate al diritto dell'informazione.