A pochi giorni da una decisione giudiziaria negli Stati Uniti che ha coinvolto giganti digitali come Meta e YouTube, anche in Europa si apre una nuova fase nel dibattito sulla regolazione delle piattaforme. In Italia, un disegno di legge propone per la prima volta di intervenire non sui contenuti pubblicati dagli utenti, ma sul modo in cui questi vengono selezionati e distribuiti dagli algoritmi.
L’iniziativa, elaborata dai senatori Antonio Nicita e Lorenzo Basso del Partito Democratico, si fonda su un principio destinato a ridefinire il ruolo dei social network: le piattaforme non possono più considerarsi semplici contenitori neutrali, ma devono rispondere delle scelte progettuali che determinano la visibilità dei contenuti. Anche alla luce della recente sentenza di un tribunale di Los Angeles, questa idea assume un valore quasi giuridico oltre che politico.
Al centro della proposta c’è quindi il riconoscimento del cosiddetto design algoritmico come elemento cruciale. Non si tratta di un aspetto puramente tecnico, ma di una leva strategica che incide direttamente sui comportamenti individuali, sulla qualità del dibattito pubblico e sugli equilibri democratici. Intervenire su questi meccanismi significa, in ultima analisi, affrontare il modo in cui l’attenzione e l’informazione vengono organizzate nell’ecosistema digitale contemporaneo.
La proposta italiana di regolamentazione degli algoritmi nasce proprio da questa consapevolezza: ciò che vediamo online non è il risultato di una scelta casuale o cronologica, ma il prodotto di sistemi sofisticati progettati per orientare attenzione, comportamenti e, in molti casi, preferenze.
Per comprendere il senso della proposta bisogna partire da come funzionano oggi le piattaforme.
I contenuti che scorrono nei feed non sono ordinati in base al tempo di pubblicazione, ma secondo modelli di raccomandazione che analizzano enormi quantità di dati sugli utenti: cosa guardano, per quanto tempo si soffermano su un video, cosa ignorano, con cosa interagiscono.
Questi sistemi, alimentati da tecniche di machine learning, hanno un obiettivo principale: massimizzare l’engagement, cioè il tempo trascorso sulla piattaforma e la probabilità di interazione. Non si tratta quindi di mostrare “i contenuti migliori” in senso assoluto, ma quelli più efficaci nel trattenere l’utente.
È qui che emerge il primo nodo critico affrontato dalla proposta: la dipendenza.
Molte delle funzionalità più diffuse – lo scroll infinito, l’autoplay dei video, le notifiche progettate per riattivare l’utente – non sono semplici scelte di design, ma elementi studiati per sfruttare meccanismi psicologici ben noti, come la ricompensa variabile. In termini semplici, il cervello viene stimolato in modo simile a quanto avviene nel gioco d’azzardo: non sapendo quale contenuto arriverà dopo, l’utente continua a scorrere.
Dal punto di vista tecnico, questo corrisponde a sistemi di ottimizzazione che apprendono in tempo reale quali sequenze di contenuti generano sessioni più lunghe e ritorni più frequenti. La proposta di legge interviene proprio qui, cercando di limitare o vietare quelle architetture che incentivano un uso compulsivo.
Ma la questione non si ferma alla dipendenza. Un secondo aspetto, ancora più sottile, riguarda la capacità degli algoritmi di influenzare e modellare le preferenze.
Spesso si dice che le piattaforme “mostrano ciò che ci piace”, ma la realtà è più complessa: attraverso cicli continui di raccomandazione e feedback, i sistemi finiscono per costruire progressivamente il profilo dell’utente e, in un certo senso, anche i suoi gusti.
Se una persona interagisce con un certo tipo di contenuto, l’algoritmo tende a proporne di simili, rafforzando quell’interesse e riducendo l’esposizione ad alternative. Per un utente non tecnico, questo significa trovarsi in una sorta di bolla personalizzata; per un tecnico, si tratta di un sistema a circuito chiuso in cui il modello dell’utente viene aggiornato costantemente sulla base dei dati generati dallo stesso utente.
La proposta introduce qui un principio importante: restituire controllo, permettendo di scegliere il livello di personalizzazione fino ad arrivare, in prospettiva, a un’opzione priva di profilazione.
Il terzo elemento riguarda la manipolazione della visibilità.
Gli algoritmi non solo selezionano contenuti, ma ne determinano il successo o l’irrilevanza. Decidere quali post amplificare e quali rendere marginali ha effetti concreti sul dibattito pubblico, sulla diffusione delle notizie e persino sugli orientamenti politici. Questo non implica necessariamente un’intenzione esplicita di manipolare, ma deriva dal fatto che i sistemi premiano contenuti capaci di generare reazioni forti, spesso polarizzanti. Dal punto di vista tecnico, si parla di bias nei sistemi di ranking e di dinamiche di amplificazione; per l’utente comune, significa che ciò che appare più visibile non è sempre ciò che è più importante o più accurato, ma ciò che funziona meglio secondo le logiche della piattaforma.
La proposta italiana mira a introdurre maggiore trasparenza e a porre limiti a queste dinamiche premiali, rendendo meno opaco il funzionamento dei sistemi di raccomandazione.
Un capitolo particolarmente delicato riguarda i minori.
Qui l’approccio è ancora più deciso: non si tratta solo di informare o educare, ma di intervenire a livello strutturale. L’idea è che la protezione non possa essere lasciata esclusivamente alla responsabilità individuale o familiare, ma debba essere integrata nei sistemi tecnologici stessi. Ciò significa, ad esempio, prevedere meccanismi di verifica dell’età e impostazioni di sicurezza attive per default, riducendo l’esposizione dei più giovani a dinamiche di dipendenza e manipolazione.
Un altro punto centrale è la ridefinizione della responsabilità delle piattaforme.
Fino a oggi, il dibattito si è concentrato soprattutto sui contenuti illegali o dannosi. La proposta segna un cambio di prospettiva: l’attenzione si sposta sul design dei sistemi. In altre parole, non si guarda solo a ciò che viene pubblicato, ma a come l’architettura della piattaforma contribuisce a produrre determinati effetti. Questo implica, potenzialmente, una responsabilità anche per le conseguenze psicologiche e sociali generate dai meccanismi algoritmici.
Nel complesso, ciò che emerge è un cambio di paradigma nella regolazione del digitale. Invece di intervenire direttamente sui contenuti – con tutti i rischi di censura e limitazione della libertà di espressione – si cerca di agire sulle condizioni che ne determinano la diffusione. È un approccio più strutturale, ma anche più complesso da attuare. Tradurre principi come “ridurre la dipendenza” o “limitare la manipolazione” in regole tecniche verificabili non è affatto semplice, soprattutto in un contesto in cui gli algoritmi sono proprietari, dinamici e spesso opachi anche per chi li sviluppa.
Resta poi una questione economica di fondo. Il modello di business dei social network si basa sull’attenzione: più tempo gli utenti trascorrono sulla piattaforma, maggiori sono i ricavi pubblicitari. Intervenire sugli algoritmi significa quindi incidere direttamente su questo modello, cioè sui ricavi e sul lucro dei gestori . Non è un caso che proposte di questo tipo siano destinate a incontrare resistenze significative.
Per chi non ha competenze tecniche, il messaggio è semplice: i social non mostrano solo ciò che esiste, ma contribuiscono a costruire ciò che vediamo e, in parte, ciò che pensiamo. Per chi lavora nel settore tecnologico, la sfida è ancora più chiara: passare da sistemi ottimizzati esclusivamente per l’engagement a modelli che incorporino vincoli etici, normativi e sociali.
È un cambiamento profondo, che potrebbe ridefinire non solo il funzionamento delle piattaforme, ma il rapporto stesso tra tecnologia, individui e democrazia.

