Utilizzare un sistema automatico non è sempre sinonimo di qualità del lavoro, neppure se a coordinarlo la fredda logica di una AI.
Questo potrebbe essere l’insegnamento che si potrebbe trarre dalla vicenda emersa nei giorni scorsi in USA, che ha riguardato un colosso dei nostri giorni come YouTube, controllato da Google.
Il famosissimo portale di video, infatti, ha visto aumentare repentinamente nel corso dell’anno le proteste ricevute da utenti più o meno famosi dovute alla rimozione di contenuti video ritenuti “non appropriati”. La valutazione sui contenuti non era stata assegnata ad un team di moderatori umani, ma ad un algoritmo di AI, il quale a sua volta gestiva l’applicazione una serie di filtri automatici per consentire o meno la visualizzazione di contenuti sulla piattaforma.
All’inizio del 2020, infatti, a causa della pandemia, YouTube ha deciso di automatizzare questa mansione, motivando tale decisione con tempi di intervento evidentemente più brevi rispetto a quelli possibili per un moderatore umano.
Quello che Google non ha correttamente valutato è l’effettiva capacità dell’AI di comprendere e identificare con esattezza il contesto in cui i contenuti vengono proposti, e quindi di svolgere correttamente il compito affidato. I sistemi automatizzati, infatti, riuscivano ad individuare le non conformità più evidenti, ma non riuscivano a rendere fruibili contenuti di satira, umorismo, o caratterizzati da sfumature comunicative che hanno evidentemente bisogno di una intelligenza umana per essere giudicati adatti o meno alla diffusione.
Ma gli errori non rientrano solo negli ambiti dell’intrattenimento, anche contenuti connessi con la libertà di espressione sono state interessati dal problema: ad esempio, nel mese di maggio, YouTube ha ammesso che stava cancellando automaticamente i commenti contenenti alcune frasi critiche nei confronti del Partito Comunista Cinese (PCC), affermando che questo errore era da attribuirsi ai “nostri sistemi di applicazione”.
Una statistica approssimativa proveniente da YouTube evidenzia che, tra aprile e giugno scorso, sarebbero stati ben 11 milioni i video rimossi, e di questi circa 320.000 sarebbero stati oggetto di ricorso, con metà dei video ripristinati. Si tratta di indizi che riportando ad una inefficienza da parte dei sistemi di intelligenza artificiale nell’individuare e rimuovere contenuti violenti, razzisti o di incitamento all’odio.
Alla luce di questi dati la società ha dovuto cambiare rotta, ripristinando la centralità dei team di moderatori umani. Certamente le intelligenze artificiali continueranno a integrare l’attività umana, tuttavia la valutazione dell’uomo rimane – per fortuna – ancora la più importante per valutare la liceità di una espressione.
Scrivi un commento
Devi accedere, per commentare.