Close
Close

Nessun prodotto nel carrello.

Intelligenza artificiale e giornalismo: una riflessione sul futuro dell’informazione

Intelligenza artificiale e giornalismo: una riflessione sul futuro dell’informazione

Durante il mese di gennaio ho partecipato al corso formativo “Intelligenza artificiale e informazione“, un progetto Erasmus+ per i giornalisti toscani, promosso dalla Fondazione Ordine dei Giornalisti della Toscana. Sono stato selezionato tra i venti partecipanti che hanno svolto l’attività formativa a Malaga, dal 18 al 24 gennaio: è stata un’esperienza di grande valore, sia per la qualità degli argomenti trattati, sia per l’alchimia che si è creata nel gruppo.

Abbiamo visitato le redazioni locali, ci siamo confrontati con esperti del settore e abbiamo svolto attività pratiche, con lezioni di approfondimento sulla tematica dell’intelligenza artificiale e sul futuro del giornalismo. Le giornate di studio hanno contribuito ad aprire una riflessione sull’utilizzo di questi strumenti nelle redazioni, con una decisiva attenzione all’etica e alla deontologia professionale. Ma le conoscenze e le amicizie che si sono sviluppate tra coloro che hanno partecipato al viaggio sono state altrettanto importanti, e ci hanno ricordato il valore imprescindibile delle relazioni e del contatto umano, anche nel giornalismo.

Gli strumenti dell’intelligenza artificiale al servizio del giornalismo

Partiamo dal principio: che cosa intendiamo per intelligenza artificiale? Un sistema informatico addestrato su grandi quantità di dati, in grado di riconoscere schemi, generare risposte e supportare i processi decisionali. Quello che intendiamo quando parliamo di questo tema, durante questo periodo storico, è più propriamente detta “intelligenza artificiale generativa”. Non parliamo quindi dell’IA tradizionale, solitamente utilizzata per analisi dati e già ben presente nella nostra esperienza; qualsiasi programma in grado di utilizzare informazioni per prendere decisioni o previsioni senza il coinvolgimento attivo della parte umana può essere considerata una forma di “intelligenza artificiale”. Parliamo piuttosto di IA generativa, capace di creare nuovi contenuti come testi, immagini e video, a partire da semplici istruzioni (prompt).

Una parte importante del corso di Malaga è stata rivolta verso gli strumenti dell’intelligenza artificiale generativa a servizio del giornalismo: capire come funzionano gli strumenti e come utilizzarli per migliorare la qualità e la produttività del nostro lavoro. Esistono infatti modelli linguistici avanzati per generare testo, tradurre e sintetizzare le informazioni (ChatGPT, Gemini, Claude), per generare immagini e video (Canva, Freepik, Sora), creare infografiche (Gamma, Infography, Flourish), supportare lo studio (NotebookLM, Pinpoint), sviluppare audio e podcast (Elevenlabs, Rask). Tanti altri strumenti sono in fase di creazione, e tanti altri arriveranno a breve.

Quello che è importante comprendere è che l’IA generativa non è propriamente un’intelligenza: non comprende, non ragiona, non capisce, bensì imita il ragionamento, attraverso un modello linguistico che opera attraverso analisi statistiche e di probabilità, per mezzo di enormi quantità di dati. Non dobbiamo commettere l’errore di umanizzare l’IA: c’è sempre un intervento umano dietro, che sia nella fase del suo sviluppo e nella fase del suo utilizzo, per mezzo di prompt più o meno efficaci.

Oltre alla creazione di contenuti, questi strumenti possono essere molto utili nel giornalismo, per velocizzare il lavoro, renderlo più efficiente e migliorare le capacità di comunicazione. Inoltre, possono supportare in maniera efficace il fact-checking e riconoscere i deepfake: se utilizzati in maniera consapevole, permettono di migliorare la nostra capacità di verifica dei fatti e di rendere ancora migliore la qualità del nostro lavoro giornalistico.

A questo proposito, tra gli incontri che abbiamo svolto all’Università di Malaga, c’è stato un importante confronto con Fran Martin, giornalista spagnolo particolarmente attivo sul tema dell’alfabetizzazione mediatica. Secondo la sua visione, i giornalisti devono svolgere un ruolo chiave anche nell’educazione pubblica, per navigare nell’ambiente informativo moderno, contrastare la disinformazione e le fake news, comprendere criticamente l’influenza dei media sulla società. L’alfabetizzazione mediatica è cruciale per comprendere le potenzialità degli strumenti di IA generativa, e riconoscere il loro utilizzo sui media (tradizionali e digitali), e i giornalisti possono contribuire a rendere la cittadinanza più consapevole, oltre che limitarsi a utilizzarli nel loro lavoro.

Giornalismo del futuro e intelligenza artificiale: alcuni problemi etici

Proprio sul tema dell’alfabetizzazione mediatica, al ritorno da Malaga ho avuto subito l’opportunità di mettere in pratica ciò che avevo imparato durante il viaggio. Attraverso il corso pomeridiano che Valdichiana Media tiene ai Licei Poliziani, infatti, anche quest’anno, posso confrontarmi con ragazze e ragazzi più giovani, comprendere la loro opinione su questo argomento e la loro modalità di utilizzo di tali strumenti.

Vorrei porre l’attenzione sui problemi etici riguardanti l’IA generativa. Tra i più noti vi sono il “bias algoritmico”, causato dalla modalità di programmazione (i modelli di intelligenza artificiale possono perpetuare i pregiudizi di coloro che li addestrano), la “black box”, ovvero la mancanza di trasparenza (non è del tutto chiaro come funzioni l’algoritmo dell’IA e di come arrivi a determinati risultati), i rischi riguardanti la privacy e l’impatto ambientale (questi strumenti richiedono un enorme volume di dati per funzionare e un potenziale spreco di risorse, oltre che di danni ecologici).

Per l’ambito specifico del giornalismo, l’IA generativa è un’arma molto potente nella mani di coloro che vogliono disinformare, creare contenuti falsi e manipolare l’opinione pubblica. Se da una parte questi strumenti ci aiutano a sventare questi rischi, sono anche i principali fautori del problema; e, proprio come le armi da fuoco, possono essere utilizzate sia dalle forze di polizia che dai criminali.

Esiste poi un problema di responsabilità morale che non è ancora risolto: in caso di utilizzo malevolo degli strumenti, dove risiede la responsabilità? Come distribuirla equamente tra sviluppatori, manutentori e utilizzatori finali? Sono gli stessi problemi etici affrontati dalle società che hanno introdotto nuove tecnologie, e che hanno occupato decenni per affinare una legge adeguata al contesto. Per l’IA generativa, siamo ancora nei primi anni di riflessione, e, l’adattamento, non sarà indolore.

Ma non voglio affrontare tutti i problemi etici, dal momento che se ne parla già abbastanza. Questa era solo una rapida rassegna, per permettermi di arrivare a un paio di riflessioni conclusive, che magari non avete letto da altre parti.

Lo scorso ottobre l’Ordine dei Giornalisti ha aggiornatoil proprio codice deontologico, dedicando un intero articolo all’intelligenza artificiale. Nell’articolo si afferma che “non può in alcun modo sostituire l’attività giornalistica” e che quando vi fa ricorso la/il giornalista “ne rende esplicito l’utilizzo nella produzione e nella modifica di testi, immagini e sonori, di cui assume comunque la responsabilità e il controllo, specificando il tipo di contributo”. Il problema è che si tratta di una questione complessa. Certo, il giornalista che utilizza ChatGPT per scrivere interamente un articolo al suo posto e non lo rende esplicito al lettore, commette una scorrettezza etica, così come chi crea foto o video verosimili, spacciandoli per veri; ma, l’utilizzo di questi strumenti è sempre più pervasivo, e comprende anche l’aiuto allo studio, alla ricerca e all’analisi. Sono sempre più integrati nei motori di ricerca, negli smartphone, nelle app che siamo abituati a utilizzare. Come possiamo rendere esplicito l’utilizzo di qualcosa di cui non siamo neppure consapevoli? Si tratta di un tema, a mio avviso, controverso.

Se da una parte si nota un’ingenua beatificazione dell’intelligenza artificiale, dall’altra si rischia una eccessiva demonizzazione. Come in gran parte delle innovazioni tecnologiche, ci sono minacce e opportunità. Non mi sento né un tecnoentusiasta, né un luddista; cerco di comprendere, per quanto mi sia possibile, ma il mondo va più veloce rispetto alla riflessione sull’adozione di questi strumenti. Non abbiamo ancora capito quale sarà il loro impatto sul mondo del lavoro e sulle nostre società: lo capiremo quando il cambiamento sarà già avvenuto, nel bene o nel male.

Il paragone più efficace a cui mi viene da pensare è quello con l’industria automobilistica all’inizio del XX secolo. Possiamo vivere tranquillamente senza strumenti di intelligenza artificiale, così come senza automobili; seppur utili ed efficaci, pur sempre inquinanti e costosi, se ne può fare a meno. Si può vivere senza avere la patente e possedere un’auto: tuttavia, le città sono costruite e sviluppate tenendo conto del traffico automobilistico, così come la società è pensata sulla base della presenza delle auto nella nostra vita. La stessa cosa sta accadendo con l’intelligenza artificiale: se ne può fare a meno, sia in ambito lavorativo che in quello ludico, ma il sistema informativo, e più in generale la nostra società, si svilupperanno sulla base della sua esistenza, nel presente e nel futuro.

PS: non ho utilizzato, in maniera consapevole, strumenti di intelligenza artificiale per scrivere questo articolo. Ma ciò non lo rende necessariamente migliore.

Close