L’irruzione dell’intelligenza artificiale (AI) nelle redazioni giornalistiche è già realtà. Dalla generazione automatica di contenuti fino all’uso di strumenti assistivi per velocizzare la scrittura, le tecnologie basate sull’AI stanno trasformando profondamente il modo in cui le notizie vengono prodotte, distribuite e, soprattutto, percepite. Ma a questa rivoluzione tecnologica corrisponde un mutamento altrettanto rilevante nella fiducia del pubblico: accettare un giornalismo in parte o del tutto automatizzato, non è affatto scontato.
Secondo il Digital News Report 2024 del Reuters Institute, la questione non è semplicemente tecnica, ma culturale, etica e filosofica. Se da un lato molti utenti sono favorevoli all’uso dell’AI per creare contenuti basati su fatti verificabili, come risultati sportivi o dati elettorali, dall’altro cresce la diffidenza quando si parla di notizie che richiedono sensibilità, empatia e capacità di interpretazione. «Quando stai parlando di notizie davvero sconvolgenti e senza speranza, è molto emotivo. E credo che solo gli esseri umani abbiano quel contesto emotivo», afferma un giovane intervistato nel Regno Unito.
Il problema della trasparenza
Un altro aspetto da considerare è la trasparenza. Come devono comportarsi i media nei confronti del pubblico? Devono rivelare quando e come utilizzano l’AI? Su questo punto, il rapporto mostra un dato interessante: mentre molti utenti richiedono esplicitamente che venga comunicato l’uso dell’AI, altri non lo trovano necessario, quando si tratta di applicazioni interne o “dietro le quinte”, finché dunque il contenuto finale è mediato dall’essere umano. Il confine, dunque, non è netto, ma dipende dal tipo di contenuto e dal ruolo umano nel processo produttivo.
«L’importante è che ci sia supervisione umana», dice un intervistato messicano. «Mi fido di più di una persona, perché sa discernere, mentre l’AI ha errori, non è sensibile, non ha una bussola morale». Altri invece mettono l’accento sulla necessità di etichettare i contenuti: «Le organizzazioni giornalistiche dovrebbero sempre far sapere al pubblico che hanno usato l’AI. La trasparenza ha benefici netti: così il pubblico può decidere consapevolmente se consumare o meno quel contenuto».
No al totalitarismo dell’AI
La fiducia, in questo contesto, diventa determinante. Le persone che già ripongono fiducia nei media sono più disposte ad accettare l’uso dell’AI, soprattutto se utilizzata a supporto del lavoro umano. Chi ha fiducia, crede che le testate più prestigiose, proprio per salvaguardare la propria reputazione, utilizzeranno l’AI con maggiore cautela e responsabilità. «Se la usa un giornale serio, riconosciuto, prestigioso, penso che verrà usata bene. Nessuna testata metterebbe a rischio la propria reputazione», afferma un intervistato messicano.
La conclusione del report è chiara: le opinioni del pubblico variano a seconda del contesto. C’è più apertura verso l’uso dell’AI in attività redazionali interne, come la personalizzazione dei contenuti o l’accessibilità dell’informazione. Al contrario, cresce la preoccupazione quando si tratta di contenuti pubblici, potenzialmente fraintendibili, come video o immagini, che potrebbero sembrare reali quando reali non sono.
Ciò che senza dubbio emerge, è la necessità di preservare la centralità dell’essere umano. Il totalitarismo AI viene rigettato: il giudizio, l’etica e la connessione umana sono necessarie per garantire un giornalismo credibile e di valore. In un momento storico in cui la disinformazione dilaga e la fiducia nei media è in crisi, l’uso dell’AI rappresenta un bivio cruciale. La sfida per le redazioni non è solo tecnologica, ma identitaria: riuscire a fare giornalismo nell’era digitale senza perdere quegli aspetti che ci rendono umani.









