Documento senza titolo
“Disintermediazione e responsabilità: dai servizi media audiovisivi alle piattaforme digitali.” Contributo dell’Avv. Francesco Graziadei al volume “La televisione del futuro”.


11/07/2023

Siamo lieti di segnalare la recente pubblicazione del volume La televisione del futuro. Le prospettive del mercato televisivo nella transizione digitale, edito da Il Mulino nella collana Quaderni di Astrid (per l’abstract del volume:https://www.mulino.it/isbn/9788815386519). L’Avv. Francesco Graziadei è autore del Capitolo XI: “Disintermediazione e responsabilità: dai servizi media audiovisivi alle piattaforme digitali”. 



Questo l’indice del contributo.

 

1 L'evoluzione della disciplina dei Servizi Media Audiovisivi

1.1 Dal broadcast all’on demand: contenuti e ragioni di due (parzialmente) differenti discipline giuridiche.

1.2 L'on demand 2.0 e la nuova Direttiva SMAV.

1.3 Dall'interattività mediata alla fruizione interattiva disintermediata: consumatore consapevole ed "editore" irresponsabile.

1.4 Le piattaforme di condivisione video: una mera cooperazione.         

2 Piattaforme digitali e content moderation “privata”.

2.1 Tra informazione e disinformazione: il trionfo dei social e il fenomeno delle echo chambers (con F. Bruno)

2.2 Codici di autoregolamentazione e condizioni di servizio: ruolo censorio, propositivo e arbitrale delle piattaforme di intermediazione. 



2.3 Condizioni contrattuali, decisioni automatizzate e poteri delle piattaforme: come Twitter, Meta e TikTok contrastano i contenuti illeciti e la disinformazione. 

 

3 Piattaforme digitali e content moderation “pubblica”. 

3.1 Poteri e modalità di intervento delle piattaforme ai sensi del Digital Services Act. 

3.2 L’azione delle piattaforme tra cornice regolamentare e discrezionalità valutativa. Il ruolo dei certificatori e delle Autorità.

 

Il capitolo curato dall’Avv. Graziadei mira innanzitutto a ricostruire l’evoluzione della disciplina dei servizi di media audiovisivi, guidata da obiettivi di consumer protection declinati in funzione della tecnologia e dei modelli di business: dal broadcast tradizionale all’on demand 2.0.

 

Il contributo inquadra poi l’adattamento delle medesime ragioni di tutela degli utenti nel contesto delle piattaforme digitali, illustrando criticità e prospettive delle attività di content moderation che stanno interessando le piattaforme stesse, con prescrizioni via via più puntuali (Digital Services Act), tra poteri “privatistici” e presidi “pubblicistici”. 

 

Ciò che emerge da una disamina sia del quadro autoregolamentare adottato dalle principali piattaforme (Code of Practice on Disinformation, che peraltro Twitter ha recentemente deciso di abbandonare, e Code of Conduct on Countering Illegal Hate Speech Online) sia delle condizioni contrattuali elaborate dalle medesime (si esaminano in particolare i casi di Twitter, Meta e Tik Tok) è la auto-assunzione di una funzione “para-pubblicistica” di moderazione della diffusione dei contenuti informativi, volta a tutelare e a promuovere alcuni diritti fondamentali (diritto all’informazione ed alla liberta di espressione), nonché la dialettica nel dibattito pubblico e la “controinformazione" in contrasto ad eventuali fenomeni di disinformazione. 

 

Nel Code of Practice on Disinformation, ad esempio, si dichiara che «the Signatories are mindful of the fundamental right to freedom of expression and to an open Internet, and the delicate balance which any efforts to limit the spread and impact of otherwise lawful content must strike».

 

D’altra parte, secondo il Code of Conduct on Countering Illegal Hate Speech online, le piattaforme che lo hanno sottoscritto «share together with other platforms and social media companies, a collective responsibility and pride in promoting and facilitating freedom of expression throughout online world». E ancora, le piattaforme e la Commissione riconoscono il valore del «counter speech» contro le derive dell’odio, impegnandosi di conseguenza a «identifying and promoting independent counter-narratives, new ideas and initiatives and supporting educational programs that encourage critical thinking». Tra le soluzioni percorribili a tal fine le piattaforme possono difatti «dilute the visibility of disinformation by improving the findability of trustworthy content» e fornire all’utente strumenti che facilitino la «content discovery» e l’accesso a fonti che presentano «alternative viewpoints». Attraverso indicators of trustworthiness le piattaforme stabiliscono cosa è verosimile e attendibile. 

 

Nello svolgimento di questa delicatissima funzione di moderazione sono riscontrabili diversi spazi di discrezionalità. La discrezionalità è data sia dal fatto che tali interventi (che possono sfociare nella rimozione dei contenuti o nella disabilitazione dell’accesso agli stessi o, ancora, nell’accompagnare i messaggi critici con messaggi di confutazione o indirizzamento a fonti più autorevoli sull’argomento) sono gestiti non solo automaticamente, ma anche mediante l’intervento umano di team aziendali a ciò dedicati; sia anche dal fatto che, in questa moderazione, spesso le piattaforme si riservano di effettuare una valutazione degli interessi in gioco operando,  caso per caso, un bilanciamento di diritti che generalmente nei sistemi costituzionali delle democrazie occidentali viene affidato alla legislazione o alla giurisdizione e, in ogni caso, a soggetti che siano inquadrati nel sistema democratico di individuazione e gestione dell’interesse generale e dell’indirizzo politico. 

 

Gli Standard della Community di Facebook, così come le Linee guida di TikTok, ad esempio, chiariscono che alcuni contenuti, pur contrari agli stessi standard o linee guida delle piattaforme, potrebbero tuttavia non essere rimossi in presenza di una valutazione svolta dalle piattaforme che – dichiaratamente – soppesi l’interesse pubblico e sia volta alla tutela della libertà di espressione. 

 

Twitter, d’altra parte, nelle condizioni contrattuali esaminate all’epoca dell’elaborazione del contributo, pone maggiormente l’accento su una libertà di espressione «senza barriere», che favorisca la convivenza di diverse forme di linguaggio e la promozione del counter speech, ma non dimenticando la necessità di facilitare una partecipazione libera e sicura alla conversazione pubblica. Tra i fattori «di contesto» valutati da Twitter per decidere quali azioni intraprendere con riferimento a determinati contenuti potenzialmente illeciti figura ad esempio, tra le altre, la valutazione se il comportamento persegua un legittimo interesse pubblico. 

 

Sembra dunque ravvisabile una discrezionalità valutativa, che caratterizza tutte le piattaforme esaminate, che di fatto potrebbe renderle arbitri del dibattito pubblico e interpreti operative di alcune libertà costituzionali. 

 

La recente regolazione europea sui servizi digitali rafforza il controllo pubblico sull’esercizio privato della moderazione del dibattito online attraverso l’assorbimento dei sistemi autoregolamentari in un quadro di co-regolamentazione, nonché grazie all’istituzione di un nuovo supervisore pubblico (il Digital Service Coordinator) ed al riconoscimento di un ruolo centrale di figure terze e professionali (Fact Checkers) che dovrebbero controllare la rete ed attivarsi nel segnalare alle piattaforme la presenza di contenuti disinformativi o nocivi. Va però osservato che: (i) né le piattaforme, né i certificatori dell’informazione corretta sono soggetti alla responsabilità editoriale che grava invece sugli editori di media tradizionali; (ii) né tali certificatori hanno il potere esclusivo di segnalare contenuti da rimuovere, potendo sia singoli utenti effettuare le segnalazioni alle piattaforme, sia le piattaforme stesse agire di loro iniziativa; (iii) ed, infine, le piattaforme non sono tenute (non avendo alcun obbligo giuridico) a dar seguito alle segnalazioni dei Fact Checkersche potrebbero – nel merito - non condividere: nel contributo si evidenzia, attraverso i dati periodicamente forniti dalla Commissione europea, il rapporto – diverso nel tempo e tra piattaforme – tra le segnalazioni ricevute dai certificatori riconosciuti e le azioni intraprese dalle piattaforme.  

 

In conclusione, il sistema di consumer protection che ha animato la regolazione dei media tradizionali sin dagli inizi, nella consapevolezza dell’impatto determinante sulle opinioni pubbliche dei mezzi di informazione di massa, sembra essere stato invece in un primo momento affidato, nel contesto online, solo allo spontaneo operare delle forze di mercato. In un secondo momento, a partire dalla acquisita consapevolezza da parte dell’Unione europea della necessità di un approccio europeo e governato al mondo digitale, che promuovesse i valori fondamentali dell’Unione (tradottosi negli ultimi anni in una molteplicità di azioni comunitarie), si è cercato di riprendere – appunto – un governo “pubblicistico” della rete, il cui esito e la cui efficacia potrebbero avere tuttora dei punti critici che saranno evidenziati o smentiti solo dall’operare nel tempo dei meccanismi di controllo predisposti (come, ad esempio, la valutazione e l’intervento sugli eventuali rischi sistemici dei sistemi di moderazione adottati dalle piattaforme e motori di ricerca più grandi). 

Disclaimer & Privacy
P.IVA 07340781009