Google ha recentemente informato la Commissione europea della sua decisione di non adottare il fact-checking per i risultati di ricerca su Google Search e i video su YouTube. Questo passo arriva dopo l’introduzione del codice di condotta sulla disinformazione, che nel 2022 è stato aggiornato per combattere la diffusione delle fake news online. Tale codice è stato sottoscritto da numerose aziende, tra cui Google, impegnandosi a implementare misure per contrastare le notizie false. La questione ora potrebbe essere coinvolta anche nel Digital Services Act (DSA), la normativa europea che mira a regolare in modo più rigido i contenuti digitali.
Il codice di condotta sulla disinformazione
Il codice di condotta, che risale al 2018 e che è stato aggiornato nel 2022, è stato firmato da 40 aziende, tra cui i big tech come Google. Tra gli impegni presi dalle aziende c’era anche l’adozione del fact-checking per moderare i contenuti e prevenire la diffusione di notizie false. Questo impegno però non è vincolante, e le aziende possono decidere di abbandonarlo in qualsiasi momento, come è successo recentemente con Twitter, che dopo l’acquisizione di Elon Musk ha scelto di non aderire più al codice.
Google, infatti, ha comunicato alla Commissione Europea che non applicherà il fact-checking sui suoi servizi di ricerca e su YouTube, ritenendo che non sia una misura né appropriata né efficace per queste piattaforme. Secondo Kent Walker, Presidente degli affari globali di Google, il sistema attuale di moderazione dei contenuti ha dimostrato la sua efficacia, come dimostrato durante le elezioni del 2024, e non è necessario implementare un sistema di fact-checking esterno.
La posizione di Google: la modifica del sistema di moderazione
A partire da agosto 2024, YouTube ha introdotto una novità: gli utenti potranno aggiungere note ai video per segnalare eventuali inesattezze o contenuti imprecisi. Al momento, questa funzionalità è disponibile solo negli Stati Uniti, ma potrebbe essere estesa a livello globale se avrà successo.
Google ha dichiarato che annullerà tutti gli impegni relativi al fact-checking prima che il codice di condotta diventi obbligatorio in base al Digital Services Act. Questo approccio segna una rottura con l’idea di un monitoraggio esterno dei contenuti, puntando invece su soluzioni interne e, in parte, sulla responsabilità degli utenti.
Le reazioni nel panorama tecnologico
Questa decisione si inserisce in un quadro più ampio di evoluzione delle politiche di moderazione delle piattaforme digitali. Anche Meta (Facebook e Instagram), ha recentemente rimosso il programma di fact-checking (limitato agli Stati Uniti), allineandosi con la stessa posizione presa da X (ex Twitter).
Il cambiamento in atto solleva però numerosi interrogativi su come le piattaforme gestiranno la disinformazione in futuro, e se l’approccio basato esclusivamente su soluzioni interne e sull’intervento degli utenti sarà sufficiente a contrastare la proliferazione di contenuti ingannevoli o pericolosi.
La sfida del Digital Services Act
Il Digital Services Act, che potrebbe rendere obbligatori alcuni degli impegni previsti dal codice di condotta, continuerà a essere un punto di riferimento fondamentale nella regolazione dei contenuti online. Google dovrà conformarsi alle disposizioni di questa legge in Europa, ma la sua scelta di non adottare il fact-checking solleva questioni su come l’Unione Europea potrebbe rispondere a questa posizione.
In definitiva, mentre il dibattito su come affrontare la disinformazione si fa sempre più acceso, l’approccio di Google, così come quello di altre grandi aziende tecnologiche, potrebbe segnare un cambiamento nelle dinamiche di moderazione dei contenuti online. L’efficacia di queste soluzioni alternative rimane, tuttavia, tutta da verificare.