Le misure di contrasto al fenomeno del cosiddetto hate speech interessano – nell’odierno mercato digitale (e non solo) – una pluralità di ambiti, dai diritti dell’infanzia e dell’adolescenza alla non discriminazione di genere o di lingua, alle disabilità.
Si tratta di tutele apprestate ad esperienze sì eterogenee, ma che risultano tutte accomunate da un rinnovato accento sul rispetto dei diritti umani e sul principio costituzionale di uguaglianza come leva utile ad eliminare ogni forma di discriminazione.
Con l’evolversi delle tecnologie e del contesto socio-politico, tuttavia, il fenomeno hate speech cambia, si fa mutevole e assume nuove forme; è per questo che Agcom, da sempre attenta al tema, ha recentemente emanato un “Regolamento recante disposizioni in materia di rispetto della dignità umana e del principio di non discriminazione e di contrasto all’hate speech”.
Questo nuovo strumento giuridico, che ambisce a “promuovere la cultura dell’integrazione come strumento di contrasto ad ogni forma di discriminazione” e che si pone come regolamentazione di dettaglio dell’art. 32, comma 5, del TUSMAR, è passato attraverso una dinamica fase di consultazione pubblica, prima di trovare pubblicazione con Delibera n. 157/19/CONS.
In fase di consultazione si è dibattuto soprattutto sulla definizione stessa del concetto di hate speech, passibile di allargamenti o restringimenti potenzialmente fuorvianti, e sulla disparità tra media tradizionali e soggetti del web nella portata applicativa del Regolamento.
In particolare, i partecipanti alla consultazione, pur condividendo gli “obiettivi generali di tutela della dignità umana, del principio di non discriminazione e di contrasto all’hate speech”, hanno sottolineato che il fenomeno dell’incitamento all’odio è di solito ben lontano dai media radiotelevisivi e dalla carta stampata, ed è invece più vicino al web (social, blog e siti); in tal senso, a fronte degli stringenti obblighi previsti dal Regolamento per i media tradizionali, ha fatto discutere l’assenza di disposizioni cogenti in capo alle piattaforme di internet.
Ma proprio in relazione alla fornitura di media audiovisivi online – con gli annessi e ormai tradizionali corollari della responsabilità editoriale delle video sharing platform e del preponderante ruolo dei social media nel sistema informativo – Agcom si è espressa con una posizione precisa: “le norme primarie che delimitano l’area di competenza dell’Autorità” si legge nella delibera, “non consentono, allo stato, interventi regolatori aventi ad oggetto i contenuti diffusi sulle piattaforme per la condivisione di video”.
Tuttavia, pur volendo considerare che gran parte dei contenuti online è pubblicata in assenza di responsabilità editoriale, le piattaforme che ospitano tali contenuti ne determinano comunque l’organizzazione (anche mediante algoritmi), e dovrebbero pertanto essere tenute ad adottare misure appropriate per tutelare il pubblico dai contenuti dannosi.
L’oggettivo spostamento online del “problema” hate speech richiede quindi secondo Agcom una ricalibrazione del ruolo delle piattaforme, nella forma della co-regolamentazione tra Autorità e piattaforme stesse. E, del resto, la predisposizione di codici di condotta volti a contrastare l’istigazione all’odio e la violazione dei principi che informano il sistema dei media audiovisivi è coerente con quanto previsto dalla recente direttiva 2018/1808 in materia di SMAV.
Lo spostamento del focus regolatorio (anche) sulle piattaforme online, sebbene al momento solo nella forma dei codici di condotta, segue d’altra parte l’accresciuto peso che i social media hanno iniziato a rivestire nel sistema informativo e nella formazione dell’opinione: un ruolo decisivo quanto delicato, che può polarizzare le opinioni e subordinarsi a strategie di disinformazione incitanti all’odio.
Ma, in tutto questo, che cosa si intende precisamente con hate speech? La domanda trova una compiuta risposta all’art. 1, lett. n, del Regolamento Agcom, dove per espressioni o discorso d’odio si intende “l’utilizzo di contenuti o espressioni suscettibili di diffondere, propagandare o fomentare l’odio e la discriminazione e istigare alla violenza nei confronti di un determinato insieme di persone ‘target’, attraverso stereotipi relativi a caratteristiche di gruppo, etniche, di provenienza territoriale, di credo religioso, d’identità di genere, di orientamento sessuale, di disabilità, di condizioni personali e sociali, attraverso la diffusione e la distribuzione di scritti, immagini o altro materiale, anche mediante la rete internet, i social network o altre piattaforme telematiche”.
Eccolo, dunque, il riferimento conclusivo ai fenomeni di hate speech veicolati tramite web. Un ambito che, come detto, è disciplinato dal Regolamento mediante l’istituzione delle procedure di co-regolamentazione (art. 9). I codici di condotta promossi da Agcom riguardano, in particolare, le piattaforme online che non hanno responsabilità editoriale sui contenuti, ma che ad ogni modo organizzano questi contenuti con mezzi automatici quali gli algoritmi.
Tali codici devono prevedere misure volte a contrastare il fenomeno anche sotto il profilo tecnologico: fondamentali risultano, in tal senso, i “sistemi efficaci di individuazione e segnalazione degli illeciti e dei loro responsabili”, ma non rivestono minor importanza né i report trimestrali che i fornitori di piattaforme online sono tenuti a inviare ad Agcom (monitoraggio per l’individuazione dei contenuti d’odio), né le campagne di sensibilizzazione e di prevenzioni con cui i medesimi fornitori devono promuovere la diversità, i diritti fondamentali e l’inclusione sociale.
Più corposa e stringente risulta invece la regolamentazione prevista per i fornitori tradizionali di servizi di media audiovisivi. Essa enuclea i principi generali, i principi specifici di contrasto all’hate speech, le iniziative di contrasto e i procedimenti sanzionatori in caso di violazione.
Tale insieme di norme cerca essenzialmente un contemperamento tra opposte esigenze, salvaguardando da un lato la libertà di informazione/espressione e il diritto di cronaca, ma imponendo dall’altro il rispetto dei principi di dignità umana sanciti per i programmi di informazione e di intrattenimento dall’art. 32, comma 5, del TUSMAR.
I media tradizionali devono quindi osservare una serie di cautele, come per esempio una particolare attenzione alla contestualizzazione dei fatti che possano generare pregiudizio (e in ciò rilevano anche gli elementi grafici, come titoli o affermazioni virgolettate, art. 4 Regolamento Agcom).
Un ruolo speciale è poi affidato a Rai, in qualità di gestore del servizio pubblico radiotelevisivo: l’azienda deve promuovere “la diffusione di contenuti che valorizzano i principi di rispetto della dignità umana, di non discriminazione, dell’inclusione e della coesione sociale, nonché di contrasto all’istigazione alla violenza e all’odio” (art. 5).
Ciò non esclude, naturalmente, che la promozione della diversità e dei diritti fondamentali della persona siano obblighi posti dal Regolamento in capo a tutti i fornitori di servizi di media audiovisivi e radiofonici, anche privati.
Sotto il profilo delle violazioni, infine, è stato eliminato a seguito della consultazione il riferimento al potere di segnalazione aperto a tutti (sul modello britannico Ofcom); a questo è stato preferito, con l’intento di ridurre il traffico di segnalazioni superflue, un sistema affidato ad associazioni di categoria (art. 6).
Da Regolamento, le violazioni episodiche sono risolte dall’Autorità, previo contraddittorio, con una comunicazione diretta alla società interessata e pubblicata anche sul sito istituzionale di Agcom. Viceversa, in caso di violazioni sistematiche o di particolare gravità, Agcom potrà avviare un procedimento sanzionatorio che potrà concludersi, in caso di inottemperanza, con una sanzione amministrativa pecuniaria (art. 7).
© Graziadei Studio Legale
Ulteriori informazioni: link alla Delibera 157/19/CONS