Si è tenuto a Cagliari, in Piazza Unione Sarda, nella sede dell’omonimo giornale, il corso formativo organizzato dall’Ordine dei Giornalisti della Sardegna che spiega come le Intelligenze artificiali siano importanti risorse a servizio delle redazioni, se usate nel giusto modo.
Le personalità presenti ad esprimere il loro sapere sono state Francesco Birocchi, Presidente dell’OdG della Sardegna, Giuseppe Maggio, facente parte della giunta esecutiva nazionale dell’OdG, il giornalista Dario D’Elia e Fabio Maggio, ricercatore del CRS4.
Apre l’evento Francesco Birocchi, dicendo che ad oggi l’IA appartiene soprattutto a tecnici, e che i giornalisti devono riappropriarsene se vogliono stare al passo coi tempi. Parla infatti di un precedente ritardo nel codice deontologico dei giornalisti, che è infatti stato riscritto, con l’aggiunta di una parte dedicata proprio a questo argomento, ovvero l’art. 19: questo dice che bisogna fare un uso consapevole di questi strumenti, renderne esplicito l’utilizzo, non può sostituire l’attività giornalistica e bisogna verificare le fonti e la veridicità dei dati ottenuti. Amplia il discorso aggiungendo che ormai anche molti editori conoscono questo mondo, ma non lo usano sempre in maniera propria: lo sfruttano per ottenere più ricavi, facendo creare a queste piattaforme piccoli pezzi commerciali, che spesso e volentieri rimandano a pubblicità dei prodotti nominati nel testo, ottenendo quindi questo maggiore compenso, a scapito però di un’attività giornalistica sleale.
Fa poi una breve ma giusta osservazione Giuseppe Maggio, spiegando l’importanza della trasparenza dei contenuti e della relativa tracciabilità delle fonti. Spiega che il Consiglio Nazionale insieme al Ministero della Pubblica Istruzione stanno ideando un progetto per parlare nelle classi delle scuole italiane del fenomeno, per non permettere ai giovani di sottovalutarlo.
Segue poi il discorso di Dario D’Elia, che si basa sull’evoluzione dell’intelligenza artificiale: si parte infatti da una linea del tempo, dove ci dice che noi al giorno d’oggi ci troviamo alla terza rivoluzione tecnologica, sancita dal centro di questo evento, mentre la prima ha avuto come perno la transizione digitale, ed invece la seconda i social nel loro boom. L’IA infatti si usa da diverso tempo ormai, ma ha avuto maggior successo dal novembre del 2022 con la nascita di “ChatGpt”: è un’intelligenza artificiale generativa, che si basa sul cosiddetto “machine learning” (apprendimento automatico), ed è in grado di generare nuovi contenuti da una base data e già appresa; è in grado di capire quali abbinamenti sintattici funzionano per la creazione di testi efficaci. E da questo possiamo capire che chi sviluppa le risposte è un linguista, con conoscenze in semiotica, che studia i significanti e non i significati, non uno sviluppatore informatico come sarebbe più facile pensare.
Dopo questa spiegazione iniziale del tema trattato, ce ne parla più specificatamente in ambito giornalistico: rassicura i professionisti presenti, dicendo che queste tecnologie sarebbero in grado di sostituire soltanto un giornalista “pessimo”: possono formulare in maniera efficiente e veloce soltanto scritti molto basici, permettendo di avere un numero maggiore di contenuti in minor tempo, ma non di qualità maggiore; ad esempio può aiutare facendo delle pre-interviste, oppure trascrivendo file audio (MacWhisper/Whisper), e diverse altre parti del lavoro. Come venga utilizzato più nel dettaglio è stato meglio analizzato in un sondaggio svolto dalla London School of Economics insieme a Google School Initiatives, tra aprile e maggio 2023: i dati raccolti risultavano nel 90% delle testate mondiali intervistate che utilizzano l’IA per produrre contenuti, il che comprende anche fact checking, analisi dei trend, traduzioni, la creazione di newsletters, controllare la sintassi, ricevere suggerimenti testuali e così via; l’80% la usa per la distribuzione dei prodotti, come ad esempio tradurre un pezzo dalla lingua originale ad un’altra per importarlo, convertire da stampa a online, e da testo ad audio per poter creare un podcast, tenendo conto delle differenze che ci saranno in questi cambi di mezzo; ed infine il 75% la utilizza per raccogliere dati, ad esempio per ottenere le trascrizioni di alcuni audio o video.
Per terminare il suo intervento fa una lista di siti di IA utili alle redazioni, una vera e propria cassetta degli attrezzi per i giornalisti: https://journaliststoolbox.ai/ai-tools-for-journalists, è questo il primo link che fornisce per ottenere una lista sempre aggiornata dei vari strumenti; video su YouTube di “Journalists Toolbox”, vere e proprie guide all’uso; Summarize.tech, per riassumere testualmente dei video, anche con divisioni per minutaggio; Google Pin Point, dove si possono inserire 200 mila documenti di ogni tipo e poter ordinare una ricerca su questi. Inoltre dal 2022 anche il programma Canva si è dotato di alcuni tools di IA, ovvero “Magic”: permettono di scrivere un testo da alcune informazioni date. Recentemente Zapier ha realizzato una guida su “Come addestrare ChatGpt a scrivere come te”, quindi per migliorarne l’elaborato. Questo è solo un esempio dell’evoluzione di questi programmi che donano linee guida per i prompt per ChatGpt, quindi un vero e proprio manuale di istruzioni “dalla macchina e per la macchina”.
Inizia poi un intervento più specifico e tecnico in merito al funzionamento di queste macchine Fabio Maggio: inizia dicendo che ChatGpt non si basa sul “continous learning”, ma che viene addestrato solo ogni 1 o 2 anni, ma non sempre perché costerebbe molto (miliardi e triliardi, quindi disponibile solo per istituzioni governative o multinazionali): infatti, se gli viene chiesta un’informazione datata dopo l’ultimo aggiornamento, ripescherà le risposte da altri siti. Per lui l’IA è un’innovazione tecnologica epocale, multidisciplinare, ma anche pericolosa nella sua evoluzione: è infatti capace di contenere sempre più informazioni, partendo da un sistema di “machine learning”, che stabilisce dati matematici per il funzionamento dell’insieme, poi passando a un “deep learning”, che può gestire maggiori quantità di dati, arrivando oggi agli “LLM”, ovvero Large Language Models. Questi ultimi possono creare contenuti da zero, organizzarne altri preesistenti e anche migliorarne lo stile e la grammatica (ad esempio anche nel cambio da una lingua all’altra); degli esempi di LLM sono: ChatGpt, Claude, Google Gemini, Meta (Llama) e Microsoft Copilot.
Come anticipato questi sistemi possono generare contenuti da altri preesistenti, e lo fanno tramite API, quindi facendo parsing da siti di informazione tramite l’utilizzo di parole chiave; così facendo c’è ancora un grande margine di errore o disinformazione, quindi è richiesto un controllo umano. Negli LLM si ha un flusso di dati con nodi e connettività come per i neuroni e le sinapsi umane, ma in un numero ancora inferiore rispetto alle nostre, nonostante sia in forte crescita. Vediamo un processo di “tokenization”: ad una parola corrisponde un token, e quindi le probabilità di abbinamento tra queste sono calcolate.
Oltre al modello di macchine addestrate, ne esiste anche uno che può essere addestrato dagli utenti, cioè ad “inferenza”. Si parla anche di ambiente: infatti le IA sono molto costose e non sostenibili per il grande dispendio energetico che comportano.
Infine Fabio Maggio chiude il suo discorso, e l’evento intero, con uno sguardo al futuro: nei prossimi anni i modelli deep learning si evolveranno in reti KAN (Kolmogrov-Arnold Networks), che potranno imparare in tempo reale da noi umani, ed essendo molto simili, come noi, dimenticheranno. Ma questa dimenticanza, sarà soltanto selettiva come la nostra, oppure no?