Ad ogni modo, la Commissione ha sicuro di trasformare il codice di buone pratiche sulla disinformazione, un diploma sottoscritto da alcune piattaforme, in un codice di condotta che sarà parte integrante del Dsa. E poi occorre sorvegliare anche gli altri appuntamenti elettorali, a livello locale e nazionale, per smascherare campagne di corto raggio che, tuttavia, potrebbero passare inosservate e fare danni per davvero. Non si sa, tuttavia, se saranno oggetto di analisi ad hoc. Per capire, per esempio, se ci siano stati tentativi di manipolazione alle elezioni lampo in Francia o alle amministrative in Sassonia e Turingia, in Germania.
Al cuore degli algoritmi
A Wired Roberto Viola, a capo della direzione generale Connect della Commissione europea, che sovrintende, tra le altre cose, anche il Dsa, spiega che “tutti i regolamenti hanno un ciclo di lavorazione che non è qualche mese. Ci vogliono almeno un paio d’anni per metterli a regime”. Nel caso del Dsa, aggiunge, c’è “un elemento fondamentale che ancora non è totalmente in vigore, perché serve un primo ciclo di applicazione: l’audit degli algoritmi”. Ossia un controllo esterno, da parte di una società indipendente, dei sistemi di raccomandazione algoritmica delle piattaforme. Un modo per capire come usano i dati, se vi siano dark pattern (i meccanismi per indurre un fruitore a compiere una determinata azione) e se prendano in qualche modo di mira i minori. “Adesso entriamo in questa fase – spiega Viola -. Il Dsa prevede un audit da parte della società indipendente dei sistemi di raccomandazione algoritmica”. È ancora presto per capire se altre piattaforme si aggiungeranno al novero delle Vlop, anche se la Commissione continua a monitorare i numeri. A cominciare da Telegram.
Tra le grandi piattaforme che da un anno devono applicare le regole più stringenti del Dsa c’è anche Wikipedia. Un caso particolare, dato che la più grande enciclopedia online è retta da una non profit e non fa business con i dati degli utenti. “Tante gente si stupisce che anche noi siamo una Vlop“, dice a Wired Rebecca MacKinnon, vicepresidente Advocacy complessivo di Wikimedia foundation. Poi aggiunge: “Alcune delle previsioni del Dsa a noi non si applicano. Noi non raccogliamo i dati degli utenti, non sappiamo neanche quanti utenti abbiamo. Sappiamo quanti dispositivi si collegano, che poi è il modo attraverso cui siamo risaliti ai dati sul numero di utenti. Non abbiamo algoritmi addestrati per veicolare contenuti né forme di raccomandazione. E poi la moderazione è fatta da volontari. Un elemento riconosciuto dal legislatore, che ha distinto il lavoro svolto da volontari”. Le uniche attività automatiche si collocano nel backend dell’enciclopedia, a supporto del lavoro dei moderatori, ma senza ricadute su chi consulta le voci dell’enciclopedia.
Il test Wikipedia
Per MacKinnon, queste circostanze rendono “più semplice per noi adeguarci al Dsa”. Se non fosse che la fondazione ha poche persone dedicate al legale (i dipendenti sono circa 700 e la maggior parte si occupa di aspetti tecnici), che non si occupano a tempo pieno del regolamento europeo. “Non contestiamo la nomina di Vlop, non siamo in disaccordo con le promesse del Dsa perché è molto legato alla protezione dei diritti umani, che per noi è un tema decisivo, e perché apprezziamo l’approccio basato sul livello di rischio”, osserva la responsabile. E aggiunge: “Crediamo che, anche se siamo una no profit, dobbiamo essere controllabili”.