7.3 C
Pordenone
venerdì , 5 Dicembre 2025

Figec Cisal “l’IA non puó sostituirsi al giornalismo”

FVG – Con nuove regole l’Intelligenza artificiale (Ia) non può sostituirsi al giornalismo. Senza norme, garantendo la giungla delle fake news, invece, tutto è possibile, non solo per il giornalismo ma per tutte le professioni dell’ingegno.
Verifica della fonte, veridicità dei fatti e della notizia, rispetto delle regole deontologiche: questi sono aspetti fondamentali che l’Intelligenza artificiale (Ia) non può e non potrà osservare.

“Esiste – afferma carlo Parisi, segretario generale di Figec Cisal – un altro grande problema nell’utilizzo da parte dei chat bot delle informazioni/disinformazioni. Chat bot e algoritmi non riescono a distinguere tra informazione di cronaca, articolo di fondo o commento, o, ancora, dichiarazioni e fake news”.

L’incertezza sulla fonte, in particolare se si tratta di dichiarazioni, apre un fronte sulla responsabilità civile e penale nei casi di diffamazione, notizie false che per loro natura possono causare danni alle persone. Non esiste, quindi, la possibilità di verifica da parte del giornalista sull’attendibilità delle fonti e sui testi realizzati dall’Intelligenza artificiale.

“La legge sull’Intelligenza artificiale recentemente approvata dal Parlamento – sottolinea il presidente dei Figec Cisal, Lorenzo Del Boca – è il quadro all’interno del quale ora va posta in essere una seria riforma delle norme che sovrintendono alle singole professioni”. In particolare, per il settore dell’informazione, parliamo di una riforma attesa da oltre 60 anni, con norme ormai inadeguate che necessitano di un rinnovamento a tutela del giornalismo, consentendo all’informazione di continuare a svolgere il fondamentale ruolo di garanzia democratica nella nostra società.

“I recenti fatti di questi giorni relativamente alle immagini di donne, in particolare giornaliste, manipolate con l’Intelligenza artificiale, creando falsi contenuti pornografici – commenta Andrea Bulgarelli, referente di Figec Cisal sull’Ia e coordinatore della Carta di Trieste sull’Ia – dovrebbe spingere la politica a porre in essere regole e definire responsabilità. La Carta di Trieste sull’Ia realizzata dall’Associazione Studium Fidei aveva già indicato questa necessità richiamando all’urgenza di definire delle responsabilità sull’utilizzo dell’Intelligenza Artificiale: coloro che utilizzano o gestiscono l’Ia potrebbero essere considerati responsabili dei danni generati. Oppure i fornitori di dati potrebbero essere responsabili se il danno fosse causato da informazioni errate o
pregiudizievoli. Ma una responsabilità andrebbe posta anche in capo all’utente finale che non segue le istruzioni corrette o usa impropriamente l’Ia”.

Ultime news

Ultimi articoli