Opportunità o rischio. Nemica o alleata. In qualunque modo la si pensi, il dato è certo: l’intelligenza artificiale ha fatto irruzione nel mondo dell’informazione. E spetta ai giornalisti farci i conti. Stando al rapporto 2023 “Generating change. A global survey of what news organisations are doing with AI” – realizzato dalla London Schoool of economics in partnership con Google News – le principali funzioni svolte dall’AI nelle redazioni riguardano la selezione, la distribuzione e la produzione delle notizie. Come spiega a Lumsanews Nicola Gatti, co-direttore dell’Osservatorio sull’intelligenza artificiale del Politecnico di Milano, l’AI generativa “funziona con delle istruzioni testuali”. Queste vengono trasmesse a un algoritmo che, in base ai dati forniti, genera qualcosa di “pertinente con quello che si sta chiedendo”. Anche, appunto, se si tratta di scrivere una notizia.
L’intelligenza artificiale al servizio delle agenzie di stampa
Per Marco Pratellesi, giornalista esperto in ambito digitale, sono soprattutto le agenzie di stampa a poter sfruttare “in maniera efficace” l’intelligenza artificiale. Alcune lo fanno già da tempo. È il caso dell’Associated Press che, racconta Pratellesi, “dal 2014 utilizza l’AI per scrivere i lanci sui dati trimestrali delle aziende quotate in borsa”. A oggi l’agenzia statunitense ha stipulato un patto con Open AI – azienda madre del software Chatgpt – dalla validità di due anni. L’accordo è semplice: l’agenzia può usufruire degli strumenti offerti dall’intelligenza artificiale, mentre all’azienda è dato accesso a tutti gli archivi dell’Ap risalenti fino al 1985.
In Italia, la prima a sperimentare le potenzialità dell’intelligenza artificiale è l’Ansa. Nel 2020, in collaborazione con la società Applied XLab, l’agenzia usufruiva di un sistema AI – il Natural Language Generation – per la distribuzione dell’informazione legata al Covid. I dati diramati dalla Protezione civile venivano direttamente elaborati in notizie e grafici, utili a comprendere l’andamento dell’epidemia.
La testata sta attualmente lavorando ad alcuni progetti in collaborazione con l’istituto di intelligenza artificiale Deloitte. Il primo, spiega il direttore dell’Ansa Luigi Contu, è “già avviato e riguarda un motore applicato all’informazione internazionale, in grado di raccogliere tutte le notizie provenienti dalle agenzie partner estere, selezionarle, e inviarle già tradotte al desk”. Un’altra idea, ancora in via di definizione, è quella di sfruttare l’AI per la selezione e l’aggregazione “di tutto ciò che l’Ansa produce durante il giorno, dai testi ai video, per la profilazione di prodotti selezionati da destinare agli abbonati business”. Per Contu, l’intelligenza artificiale può aiutare le redazioni nei “compiti ripetitivi e burocratici”, ma non per la scrittura delle notizie, perché “non potrà mai avere le caratteristiche qualitative, morali ed emotive che ha il giornalismo”.
Una questione di trasparenza
Attualmente sul web ci sono 467 siti di fake news creati dall’intelligenza artificiale. A registrare il dato è Newsguard, centro di monitoraggio delle informazioni generate dall’AI, secondo cui nel solo mese di agosto 37 siti avrebbero utilizzato chatbot per riscrivere articoli pubblicati da Cnn, Reuters e New York Times. Il quotidiano statunitense, inizialmente in trattativa per una collaborazione con Open AI, ha deciso di bloccare l’utilizzo dei propri contenuti per l’addestramento della piattaforma. Valutando, peraltro, possibili azioni legali per la violazione dei diritti della proprietà intellettuale.
I rischi comportati da un utilizzo scorretto dell’intelligenza artificiale non preoccupano solo i media. Nel mese di giugno il Parlamento europeo ha dato il via libera all’AI Act, il regolamento europeo sull’intelligenza artificiale, in vigore a partire dal 2024. La normativa stabilisce alcuni obblighi al fine di assicurare che i sistemi di AI utilizzati nell’Ue non solo siano sicuri e tracciabili, ma anche non discriminatori e rispettosi dell’ambiente.
In Italia a stare all’erta è invece il Garante per la protezione dei dati personali, che a fine marzo ha bloccato provvisoriamente ChatGpt perché non in regola con la disciplina europea per la privacy. “Gli utenti non erano stati avvertiti che i loro dati venissero utilizzati per l’addestramento della piattaforma”, ricorda Baldo Meo, responsabile delle relazioni media del Garante. Nonostante Chatgpt si sia poi dotata di un’informativa adeguata, l’Autorità ha fatto sapere che “continuerà a vigilare” sulla piattaforma.
L’AI è davvero intelligente?
Il sociologo e giornalista Derrick De Kerchove non ha dubbi: “l’intelligenza artificiale sta prendendo il controllo della scrittura”. Nella sua intervista a Lumsanews, lo studioso consiglia perciò ai giornalisti di “frequentare uno o due corsi di prompt engineering”, ma soprattutto di “controllare le fonti e leggere ciò che scrive” l’AI.
I chatbot, pur capaci di elaborare testi di senso compiuto, si limitano infatti a mixare i dati presenti nei database e non hanno cognizione di quello che scrivono. Bard della famiglia Google, ci spiega il Communications Manager Andrea Cristallini, “mette insieme delle informazioni ma non ti dice se i fatti sono verificati perché non è quella la sua funzione”. Il vero pericolo, allora, non riguarda tanto la qualità dei contenuti generati dall’AI, ma il mancato controllo degli stessi. Per dirla alla Kerchove, che “i giornalisti diventino più pigri”.