Quando il sito web è responsabile?

Non sempre il sito web è responsabile per i reati commessi dagli utenti sulla piattaforma. Sul punto vi sono state varie pronunce comunitarie e nazionali. Analizziamole nel dettaglio.

sito web responsabile

Hai bisogno di un avvocato penalista? Tramite il servizio di AvvocatoFlash, attivo in tutta Italia, potrai trovare un buon avvocato penalista in breve tempo.

1. La normativa Comunitaria

La problematica attinente alla responsabilità degli intermediari web assume sempre più un ruolo centrale nella società moderna, anche a causa dell’eccessivo sviluppo tecnologico e digitale. Oggigiorno nelle nostre abitazioni abbiamo almeno un computer e chiunque possiede almeno uno smartphone, persino gli anziani ed i bambini. Tramite questi dispositivi è possibile “navigare” in rete, iscriversi alle varie piattaforme di social networking, lasciare commenti, ovvero scrivere le proprie opinioni.

Pertanto, l’argomento che oggi andremo ad analizzare riguarda i contenuti illeciti che gli utenti producono (user-generated contents) o che, comunque, diffondono e condividono attraverso Internet anche senza esserne gli autori. Tramite questi contenuti, che circolano liberamente nei vari siti Internet, possono essere commessi molteplici tipologie di fatti illeciti.

Alcuni reati sono considerabili come molto gravi:

  • pedopornografia;
  • propaganda terroristica.

Altri reati sono limitati alla dimensione individuale, sono considerabili come ascrivibili alla violazione dei diritti della personalità, come:

In questi, ed in molti altri casi (truffe online, propagazione di notizie infondate, ecc..), l’autore della condotta illecita, sempre che si riesca ad individuarlo con esattezza, dato che spesso gli utenti di Internet si celano dietro profili anonimi o utilizzano degli pseudonimi, è considerabile come il principale responsabile dal punto di vista sia civile che penale. Ma la responsabilità civile, può ricadere a qualche titolo anche sul provider, ovverosia sul soggetto grazie alla cui attività di intermediazione l’illecito è stato compiuto e senza i cui servizi la condotta illecita non sarebbe stata potuta essere realizzata?

Al fine di una corretta disamina, l’analisi deve prendere spunto dal solco tracciato dalla Direttiva Europea sul commercio elettronico (n. 2000/31/CE), la quale ha avuto attuazione in Italia per mezzo del d. lgs. n. 70/2003. Vero è che si tratta di una disciplina non recente, ma che a ben vedere ha consentito l’attribuzione, in casi specifici, ai provider della responsabilità civile di tipo extracontrattuale (ex art. 2043 C.C.), per gli illeciti commessi dai loro utenti. Il principale obiettivo della suddetta direttiva è stato quello di voler favorire la libera circolazione e la promozione dei servizi della società dell’informazione, tentando di eliminare gli ostacoli allo sviluppo del commercio elettronico. A tal fine, risultava come necessaria favorire l’attività degli Internet Service Provider (ISP) senza gravarli di oneri eccessivi, come l’adeguata sorveglianza ex ante o ex post sui contenuti diffusi dagli utenti attraverso Internet, allo scopo di una consona prevenzione o repressione degli illeciti commessi, che avrebbero portato ad un rallentamento dello sviluppo del mercato digitale.

La normativa sopra riportata prevede la sussistenza di tre categorie di soggetti intermediari digitali, i quali, a seconda del livello del loro coinvolgimento nelle attività illecite dell’utente, beneficiano di diversi regimi di esenzione da responsabilità civile indiretta, ovverosia derivante dalle condotte tenute dagli utenti:

  • i prestatori di servizi di semplice trasporto (attività di mere conduit);
  • i prestatori di servizi di memorizzazione temporanea (attività di caching);
  • i prestatori di servizi che memorizzano durevolmente le informazioni fornite dagli utenti (attività di hosting).

Detto ciò, tale principio poteva considerarsi come valido al momento dell’emissione della Direttiva Comunitari, tuttavia, quasi vent’anni dopo vi si possono riscontrare delle criticità, come ad esempio l’evoluzione intorno al ruolo dei provider, determinata dal progresso tecnologico, ovvero la neutralità e la passività delle tre tipologie di intermediari digitali rispetto ai contenuti pubblicati dagli utenti sulle reti Internet, in quanto non vi è un lavoro di editing o di selezione preventiva.

La normativa esclude che gli ISP possano essere assoggettai ad un obbligo generale di sorveglianza sulle informazioni trasmesse, ovvero ad un obbligo generale di ricerca attiva o circostanze che indichino la presenza di attività illecite. Per cui, è importante capire quale responsabilità debba incorrere in capo al provider, qualora si accorga autonomamente del carattere illecito delle attività e/o delle informazioni pubblicate dagli utenti della rete, a prescindere dagli ordini provenienti dalle autorità competenti. In tali casi, la normativa prevede per l’ISPl’obbligo d’informare tempestivamente le autorità giudiziarie o amministrative competenti, in quanto, in caso d’inadempimento da parte dell’ISP, sarebbe prevista la responsabilità civile nei suoi confronti.

La Corte di Giustizia dell’Unione Europea, in varie sentenze emanate fra il 2010 ed il 2015, ha voluto mettere in evidenza due aspetti:

  1. irresponsabilità del provider, a condizione che mantenga una posizione neutrale rispetto ai comportamenti tenuti dagli utenti;
  2. illegittimità di obblighi di sorveglianza preventiva in capo agli ISP. Per cui, obbligare il provider a predisporre un sistema di filtraggio preventivo dei contenuti caricati dagli utenti, andrebbe a ledere i diritti fondamentali degli utenti, quali il diritto alla tutela dei dati personali, e causerebbe una grave violazione della libertà d’impresa del provider.

2. La giurisprudenza italiana

In Italia, a seguito del recepimento della sopracitata Direttiva Europea, gli orientamenti principali della giurisprudenza di merito, prevedevano che non si poteva imporre ai provider l’onere di monitorare i contenuti che gli utenti pubblicano online, a causa dell’eccessiva complessità tecnica e del costo non contenuto,  nondimeno in contrasto con quanto sancito dalla Direttiva Europea sul commercio elettronico e con il diritto alla libera manifestazione del pensiero (Corte d’Appello di Milano, sentenza n. 29 del 2015).

Per tali motivi, l’obbligo in capo all’ISP di rendere inaccessibili i contenuti illeciti può derivare da un ordine delle competenti autorità giudiziarie o amministrative, ovvero sorgere nel momento in cui il gestore della piattaforma acquisisca la conoscenza dell’illecito a seguito della richiesta di rimozione dei contenuti avanzata dal titolare dei diritti che si presumono violati.

Con la sentenza del Tribunale di Milano, n. 7680 del 2011, i giudici hanno creato la categoria, fino a quel momento inedita, dell’hosting provider “attivo”, ovverosia non neutrale rispetto alle condotte degli utenti e, pertanto, non ignaro dell’illecito compiuto.  In altri casi, come nella sentenza del Tribunale di Torino, n. 1928 del 2017, i giudici hanno ritenuto che, nel caso in cui un provider svolga attività di organizzazione e gestione dei video caricati dai suoi utenti (YouTube), non significa che esso debba essere automaticamente qualificato come “non neutrale”, poiché tali attività non sono idonee a manipolare, alterare ovvero incidere sui contenuti ospitati.

Infine, secondo l’ordinanza cautelare del 3 novembre 2016, emessa dal Tribunale di Napoli Nord, il giudice ha ribadito che non devono sussistere degli obblighi di sorveglianza preventiva o di ricerca attiva di fatti e circostanze illecite gravanti sui provider, bensì ha stabilito che, in quel caso, Facebook avrebbe dovuto rimuovere immediatamente i contenuti segnalati dalla ricorrente come gravemente lesivi della sua reputazione, tenendo in considerazione, quindi, la diffida di parte e non attendere l’ordine dell’autorità giudiziaria, in quanto lesi in maniera irreparabile i diritti della personalità e per l’inerzia del provider tali diritti non sono più stati reintegrati.

3. La problematica della responsabilità nei social network

L’ultimo decennio ha visto una forte espansione dei social network e con essi la problematica riguardante la suddivisione della responsabilità dei provider e degli utenti. Al momento del primo accesso al servizio, fornito dal social network, si sottoscrivono le clausole d’uso, in cui si sottolinea in modo esplicito e completo l’estraneità del provider rispetto alle condotte illecite degli utenti che immettono contenuti online.

I provider non svolgono soltanto un’attività neutrale, ma intervengono direttamente nell’organizzazione (inviando pubblicità mirata in base ai gusti ed alle preferenze), nella gestione ed in alcuni casi anche nell’editing dei contenuti, al fine di aumentare i ricavi dalla pubblicità generata. Inoltre, si stanno, lentamente, sviluppando delle sinergie con il settore dell’editoria tradizionale, al fine di prenderne il posto, sfruttando la credibilità e l’affidabilità di cui gode la stampa. Pertanto, i social network sono utilizzati come una risorsa per raggiungere un pubblico più ampio ed eterogeneo, riuscendo ad incrementare anche gli introiti derivanti dalla pubblicazione e dalla conseguente pubblicità.

Detto ciò, potrebbe sorgere il dubbio in merito alla possibilità di assimilare i gestori delle piattaforme dei social network, in riferimento a talune loro attività, agli editori della stampa tradizionale e la loro posizione possa risultare analoga a quella del direttore responsabile di pubblicazioni periodiche o dell’editore di pubblicazioni non periodiche (artt. da 57 a 58 bis del codice penale). Tuttavia, tale possibilità è stata esclusa in molteplici casi da parte della Corte di Cassazione (sentenze n. 35511/2010; n. 31022/2015; n. 12536/2016), in base al principio del divieto di interpretazione analogica della legge penale.

 Recentemente la Corte di Cassazione, con la sentenza n. 54946 del 2016, ha confermato la condanna per concorso nel reato di diffamazione comminata in appello al gestore di un sito Internet per non aver rimosso immediatamente un commento diffamatorio postato da un utente, ed il principio di sussistenza di un obbligo di rimozione, in capo ai gestori dei siti, di qualsiasi contenuto potenzialmente offensivo pubblicato dagli utenti, di cui il gestore sia venuto in qualsiasi modo a conoscenza. Tuttavia, seguendo questa strada si rischierebbe di considerare come automaticamente responsabile il gestore di qualsiasi sito dotato di moderazione dei commenti del contenuto, favorendo l’utilizzo, da parte dei provider, di una sorta di censura privata preventiva a fini cautelari, ledendo il diritto di libera manifestazione del pensiero.

Detto ciò, l’utente che accede ad un blog, ovvero ad una pagina personale di un social network o sito internet, può avere la possibilità di lasciare un commento, partecipare alle discussioni che sorgono attraverso appositi spazi di risposta o attraverso l’utilizzo di un forum o di una chat. Le sue dichiarazioni, qualora lesive dell’altrui reputazione, daranno certamente origine al delitto di diffamazione, con l’aggiunta dell’aggravante speciale prevista al comma 3 dell’art. 595. L’aggravante è stata pensata ed introdotta al fine di punire con maggior rigore il caso in cui la dichiarazione lesiva possa essere diffusa, tenendo in considerazione la vastità e la pericolosità della piattaforma Internet, fino a raggiungere un pubblico molto vasto, anche di destinatari sconosciuti. La ratio sottesa alla norma è, dunque, quella di punire più aspramente chi cagiona danni incalcolabili alla reputazione altrui. Partendo da tale presupposto, ne deriva che la responsabilità per diffamazione è diretta per l’offensore, mentre maggiori dubbi ha sollevato la tematica della responsabilità di colui che possiede l’amministrazione e/o la gestione del sito ove si sia perfezionato il reato.

 La Corte europea dei diritti dell’uomo (Corte di Strasburgo), in alcune delle sue ultime sentenze, ha ritenuto opportuno occuparsi della problematica riguardante il bilanciamento fra il diritto alla libera manifestazione del pensiero e quello alla protezione della sfera privata. La Corte si è espressa affermando che, in quei casi, i gestori siano tenuti a rimuovere prontamente i commenti dal contenuto offensivo, a maggior ragione se tali contengono anche incitamento all’odio ed alla violenza. Tuttavia, nel caso di commenti di minore gravità, ovverosia lesivi della reputazione, ma che non fomentano l’odio e la violenza, è considerabile come illegittima l’attribuzione di responsabilità per diffamazione al provider, a patto che il gestore del sito abbia provveduto in modo puntuale e preciso alla rimozione dei contenuti diffamatori a seguito della segnalazione da parte della persona offesa.

4. Considerazioni finali

La Commissione europea ha ritenuto che l’ambito più funzionale è quello della cooperazione fra autorità competenti ( giudiziarie e amministrative, nazionali ed europee) da un lato, e le piattaforme digitali dall’altro. I gestori delle piattaforme, in ottemperanza al principio della duediligence, dovrebbero prediligere soluzioni tecniche idonee a raccogliere efficacemente le segnalazioni riguardanti i contenuti illeciti, in modo da poter provvedere alla loro rapida rimozione. Invece, le autorità competenti dovrebbero individuare regole chiare, da indirizzare agli operatori del settore, sulla definizione dei contenuti illeciti e sulle corrette procedure da seguire per eliminarli. Pertanto, l’intero processo di governance dei contenuti dovrebbe avvenire a seguito di una costante cooperazione fra tutti gli attori coinvolti.

Al fine di contrastare la diffusione dei contenuti illeciti, il controllo delle segnalazioni non deve essere affidato solo ed esclusivamente a degli strumenti di filtraggio automatico, ma deve essere presente anche il controllo umano, in quanto, a causa del protrarsi nel tempo e di un’eccessiva permanenza online, ne consegue un aggravamento delle conseguenze dannose.

Nel maggio del 2015, la Commissione europea ha adottato una comunicazione intitolata Strategia per il mercato unico digitale in Europa, nella quale si evidenziava la necessità di avviare una consultazione pubblica sul ruolo delle piattaforme online e sull’efficacia delle misure per contrastare la diffusione di contenuti illeciti attraverso Internet. Il fenomeno, infatti, ha raggiunto dimensioni preoccupanti, non solo per quanto riguarda la condivisione illecita di contenuti protetti da copyright, ma anche per il massiccio utilizzo dei social media per la propaganda del terrorismo internazionale e per il diffondersi dei discorsi d’odio (hate speech) e di notizie false (fake news). Come conseguenza della consultazione pubblica, svoltasi fra il 24 settembre 2015 e il 6 gennaio 2016, la Commissione europea ha pubblicato nel mese di settembre 2017 una comunicazione (n. 555) concernente la lotta alla diffusione online dei contenuti illeciti attraverso una maggiore responsabilizzazione delle piattaforme.

Luca Terrinoni

Fonti normative

Codice Civile: art. 2043

Codice Penale: art. 594 - 595

Tribunale di Milano, sentenza n. 7680 del 2011

Tribunale di Torino, sentenza n. 1928 del 2017

Tribunale di Napoli Nord, ordinanza cautelare del 3 novembre 2016

Corte d’Appello di Milano, sentenza n. 29 del 2015

Corte di Cassazione, sentenza n. 35511 del 2010

Corte di Cassazione, sentenza n. 31022 del 2015

Corte di Cassazione, sentenza n. 12536 del 2016

Corte di Cassazione, sentenza n. 54946 del 2016

Commissione Europea, comunicazione n. 555

Direttiva Europea sul commercio elettronico, n. 2000/31/CE

  1. lgs. n. 70/2003

Hai bisogno di un avvocato specializzato in diritto delle tecnologie? Esponici il tuo caso. AvvocatoFlash ti metterà in contatto con i migliori avvocati in questo campo. Tre di loro ti invieranno un preventivo, gratuitamente, e sarai tu a scegliere a chi affidare il tuo caso.