Nel corso degli ultimi dieci anni, l’avanzamento delle tecnologie digitali ha profondamente trasformato l’economia e la società, ridisegnando Internet in un intricato spazio interconnesso. In risposta a queste rapide evoluzioni, l’Agcom ha adattato il proprio approccio, implementando nuove regolamentazioni sia a livello nazionale che europeo. Normative innovative, come il Digital Services Act e il Regolamento sull’intelligenza artificiale, sono state introdotte con l’obiettivo di garantire maggiore trasparenza, sicurezza e la tutela dei diritti fondamentali.

L’attuale panorama di Internet è caratterizzato da una complessa rete di infrastrutture avanzate come la banda ultralarga e tecnologie innovative quali il 5G. Questo ecosistema tecnologico è ulteriormente arricchito da sviluppi avanzati come l’intelligenza artificiale, il cloud computing, l’edge computing, il machine learning e l’Internet delle cose. L’interazione tra questi elementi sta rapidamente e radicalmente trasformando la società. In questo contesto, i settori tradizionalmente regolati dall’Autorità per le garanzie nelle comunicazioni (Agcom) – che comprendono comunicazioni elettroniche, radiotelevisione ed editoria – stanno vivendo un processo di “ibridazione” significativo. Questo fenomeno è guidato dalla rapida crescita e diffusione dei servizi dell’economia digitale e dall’incremento del ruolo delle piattaforme online. Agcom, come autorità di regolazione convergente, affronta le nuove sfide poste dall’ecosistema digitale in continua evoluzione.

La legislazione europea e nazionale, che si adatta continuamente ai cambiamenti di scenario, attribuisce ad Agcom nuove competenze e poteri, specialmente in relazione ai servizi media, audiovisivi e alle piattaforme digitali. Un esempio cruciale è rappresentato dal Digital Services Act del 2022, che introduce nuovi obblighi per le grandi piattaforme online volti a ridurre i danni e i rischi per i consumatori, sostenendo il principio che “ciò che è illegale offline deve esserlo anche online“. Questo regolamento mira a rafforzare i diritti degli utenti e a stabilire un quadro di responsabilità, trasparenza e sicurezza per le piattaforme, conferendo ulteriori poteri di regolazione alle autorità pubbliche. La trasparenza delle piattaforme online assume un’importanza fondamentale, con obblighi rafforzati che comprendono la trasparenza degli algoritmi, la valutazione dei rischi di disinformazione e contenuti dannosi, e la protezione degli utenti vulnerabili come i minori. La Commissione Europea e le autorità nazionali di regolazione sono incaricate di garantire il rispetto di queste misure.

Agcom, designata come Coordinatore dei servizi digitali in Italia per l’applicazione del DSA, assume un ruolo di coordinamento cruciale con altre autorità indipendenti come Antitrust e Privacy. Questo ruolo è essenziale per garantire i diritti online dei cittadini e gestire i molteplici interessi pubblici coinvolti. La normativa nazionale, in recepimento delle direttive europee come la Direttiva Servizi Media Audiovisivi e la Direttiva Copyright, estende i poteri di regolazione e vigilanza di Agcom sulle piattaforme online. Vengono rafforzate le norme per la risoluzione delle controversie tra utenti e operatori di comunicazioni elettroniche, inclusi i fornitori di servizi media audiovisivi su qualsiasi piattaforma.

Le misure adottate prevedono strumenti di assistenza tecnica e procedure per la gestione di reclami e segnalazioni degli utenti, assicurando un servizio di qualità e la protezione dei diritti degli utenti indipendentemente dalla piattaforma utilizzata. Inoltre, la normativa nazionale che recepisce la Direttiva Copyright assegna ad Agcom il compito di determinare l’equo compenso che le piattaforme digitali devono corrispondere agli editori per la diffusione dei loro articoli di stampa.

Il quadro normativo europeo per l’ecosistema digitale si è recentemente ampliato con due nuovi atti: l’European Media Freedom Act (EMFA) e il Regolamento sull’intelligenza artificiale (AI Act).

In sintesi, l’EMFA mira a creare un modello europeo per la regolamentazione dei media digitali, garantendo la libertà e l’indipendenza dei media e promuovendo un’informazione di qualità e il pluralismo. In questo contesto, l’Agcom ha il compito di vigilare e monitorare.

L’AI Act, applicabile a tutti i settori economici, disciplina l’uso dell’intelligenza artificiale e mitiga i rischi associati, con l’obiettivo di promuovere lo sviluppo e l’adozione dell’IA in Europa e affrontare i rischi per la società civile. Adotta un approccio “human-centric“, garantendo affidabilità e protezione di salute, sicurezza, diritti fondamentali, democrazia, stato di diritto e ambiente. Il Regolamento si allinea al Digital Service Act, delegando alle grandi piattaforme l’onere di valutare i rischi e autoregolarsi, mentre le autorità verificano la conformità. Il Regolamento distingue tra usi dell’IA con vari gradi di rischio (inaccettabile, elevato, limitato, minimo) e richiede trasparenza, come per i sistemi di IA generativa, che devono rivelare la loro natura, prevenire contenuti illegali e pubblicare i dati di addestramento. In Italia, il disegno di legge sull’IA conferma il ruolo dell’Agcom nella vigilanza sul diritto d’autore e l’informazione corretta, aiutando a identificare i sistemi di IA nella creazione di contenuti. L’IA generativa, sempre più utilizzata, presenta sfide per la veridicità delle informazioni ma è cruciale per il fact-checking e il monitoraggio. L’ecosistema digitale odierno dimostra che una regolamentazione ben calibrata non ostacola l’innovazione, ma è essenziale per sfruttare appieno le potenzialità di Internet, promuovendo progresso sociale ed economico in un ambiente sicuro, trasparente e democratico.