Tg2 e New York Times assieme al Garante per la Protezione dei Dati personali che segue con attenzione gli sviluppi degli accordi tra vari gruppi editoriali tra cui RCS, Gedi e altri internazionali come Prisa, Le Monde, Alex Springel, New Corp, Financial Times, Time, Associated Press dipingono una IA in chiaroscuro. Molte le preoccupazioni sul controllo umano delle notizie e il rispetto del diritto di autore assieme alla trasparenza nella comunicazione d’impresa.
Milano, 3 ottobre 2024 – Per analizzare l’impatto dell’Intelligenza Artificiale (IA) nel settore dell’informazione e della comunicazione, è essenziale partire dal caso Tg2 Rai. Recentemente, nei titoli di coda del notiziario, è stata inserita una diffida all’utilizzo dei propri contenuti per l’addestramento dei sistemi di IA. Si tratta di una posizione cauta, ma significativa, per il telegiornale della seconda rete nazionale pubblica. Tuttavia, ciò è poca cosa rispetto all’azione intrapresa dal New York Times, che ha denunciato l’uso improprio dei propri articoli all’interno delle risposte generate dal sistema OpenAI.
Per OpenAI, questo è un momento cruciale: l’azienda sta affrontando un’emorragia di dirigenti e una crisi d’immagine che nessuno aveva previsto. Pare stia pianificando una transizione da un modello no-profit a uno for-profit, oltre a un nuovo round di finanziamenti che potrebbe valutarla intorno ai 150 miliardi di dollari.
Proprio in questi giorni OpenAI e CDP Venture Capital hanno firmato un memorandum d’intesa storico per l’Italia, un accordo per stimolare lo sviluppo, la commercializzazione e l’adozione di tecnologie AI da parte di startup e imprese innovative italiane, un passo decisivo per sviluppare l’intelligenza artificiale generativa nel nostro Paese. Questo accordo fa seguito all’investimento di Microsoft con oltre 4 miliardi di euro sull’Italia per data center e intelligenza artificiale.
Tornando al nostro settore di analisi, mentre i media continuano a dibattersi su questi temi, la realtà è che il mondo dell’informazione ancora fatica a integrarsi con questo nuovo contesto, in cui i dati archiviati e prodotti quotidianamente diventano risorse preziosissime per l’addestramento di soluzioni tecnologiche sempre più avanzate.
È evidente che chi utilizza, soprattutto a scopo di lucro, i contenuti di testate giornalistiche – tanto più se si tratta di contenuti pubblici – dovrebbe almeno mettere queste tecnologie a disposizione del sistema professionale, rendendo trasparenti i percorsi di addestramento e rispettando un chiaro codice etico. Non c’è dubbio sull’importanza della trasparenza nell’addestramento di tali sistemi, specialmente ora che si va verso la combinazione di contenuti tradizionali con dati personali dettagliati, come le preferenze cinematografiche o musicali degli utenti.
Le normative saranno fondamentali, ma con l’aumento dell’automatizzazione nel campo dell’informazione sarà cruciale garantire controlli e validazioni rigorose. Non sarà possibile affidare piena autonomia a un algoritmo: sarà necessario che ogni sistema venga monitorato da altri strumenti di IA, in grado di verificare e validare i processi e le produzioni automatizzate all’interno delle redazioni.
Capitolo a parte è poi quello delle creazioni dell’intelligenza artificiale non tutelate dal diritto d’autore, perlomeno non del tutto. Per il momento le risposte dell’AI non sono soggette al diritto d’autore. Per il momento sono sotto tutela solo le opere sviluppate grazie all’apporto creativo di un essere umano, se l’opera è stata realizzata con l’utilizzo di un software di IA, viene meno la tutela perché il contributo umano è considerato irrilevante rispetto a quello del sistema.
Una recente ricerca pubblicata su Agenda Digitale sottolinea come l’adozione dell’IA nel giornalismo e nella comunicazione stia aprendo nuove opportunità, ma ponga anche sfide significative. Gli strumenti di IA consentono di automatizzare la produzione di contenuti, migliorare la personalizzazione e ottimizzare la gestione delle campagne comunicative. Secondo i dati raccolti, il 21,5% degli intervistati ha segnalato che l’IA viene utilizzata per la raccolta di informazioni e la creazione di contenuti basati su dati. Tuttavia, il 21,8% ha indicato la mancanza di supervisione umana come uno dei principali rischi legati all’automazione, poiché potrebbe compromettere la qualità dell’informazione.
Secondo un’analisi dell’agenzia Ansa, esiste una crescente preoccupazione che l’IA possa determinare la “fine” di alcuni aspetti tradizionali della comunicazione, ma allo stesso tempo potrebbe rappresentare l’inizio di nuovi modelli più efficienti e flessibili. Questo equilibrio tra sfida e opportunità dipende dalla capacità delle aziende di integrare l’IA in modo responsabile. Il Consiglio Nazionale dell’Ordine dei Giornalisti (Cnog) ha evidenziato l’importanza della supervisione umana nel processo di creazione dei contenuti generati dall’IA, sottolineando che è fondamentale mantenere un controllo sulla qualità delle informazioni.
Nella comunicazione, alla stessa stregua dell’informazione, ci sono diverse perplessità.
Consilium Hub e Red Open hanno lanciato un programma per integrare l’IA nella comunicazione aziendale E VALUTARNE SOPRATTUTTO LA TRASPARENZA. Red Open è lo spin-off dell’Università degli Studi di Milano-Bicocca, specializzata proprio nell’adozione responsabile delle tecnologie di IA. Con questo programma si vuole analizzare il particolare impatto dell’IA generativa nella gestione dell’informazione aziendale. Il progetto, basato sul modello AI ResponsAbility By Design™, mira a migliorare la trasparenza, governance e processi decisionali, promuovendo un uso consapevole e responsabile dell’IA nella comunicazione.
Per affrontare queste sfide, gli esperti di Red Open hanno sviluppato AI Check & Go™, un questionario di autovalutazione progettato per aiutare le aziende a identificare i punti di forza e le aree critiche nell’integrazione dell’IA. Attraverso questo strumento, Consilium ha potuto verificare il proprio livello di consapevolezza e maturità nell’uso delle tecnologie IA, ottenendo indicazioni precise su come migliorare in termini di protezione dei dati e accountability. Il programma ha coinvolto anche altre realtà aziendali e istituzionali per creare un benchmark condiviso che aiuti le imprese a valutare e migliorare le proprie pratiche.
Nel giornalismo e nella comunicazione, l’IA sta accelerando il lavoro dei redattori e facilitando la verifica delle fonti, ma non può sostituire il giudizio critico umano, fondamentale per la qualità delle notizie. Anche gli editori stanno sperimentando l’integrazione dell’IA. Un recente articolo su La Repubblica ha evidenziato come gruppi editoriali quali GEDI la stiano implementando per ottimizzare la produzione e distribuzione di contenuti, con l’obiettivo di aumentare l’engagement dei lettori grazie a una migliore personalizzazione. Tuttavia, anche in questo contesto, la supervisione umana resta cruciale per garantire il controllo di qualità delle informazioni.
Guardando al futuro, l’adozione dell’IA nella comunicazione è destinata crescere. Le aziende che sapranno integrare queste tecnologie con approcci responsabili saranno meglio posizionate per sfruttarne i vantaggi. La capacità di monitorare e gestire i rischi legati alla generazione automatica di contenuti e all’uso dei dati sarà determinante per il successo a lungo termine. Progetti come quello avviato da Consilium Hub e Red Open rappresentano esempi concreti di come sia possibile integrare l’IA mantenendo un controllo umano e qualitativo.
In linea con gli obiettivi di responsabilità e trasparenza, Red Open si posiziona anchecome abilitatore dei pilastri dell’EU AI Pact. Questo accordo volontario invita le aziende partecipanti a impegnarsi in almeno tre azioni fondamentali: adottare una strategia di governance dell’IA per favorirne l’adozione all’interno dell’organizzazione e lavorare verso la conformità futura con il regolamento sull’intelligenza artificiale; identificare e mappare i sistemi di IA che potrebbero essere categorizzati come ad alto rischio secondo la normativa; infine, promuovere la consapevolezza e la formazione sul tema tra i dipendenti, garantendo uno sviluppo responsabile dell’IA. In questo modo, Consilium Hub si prepara ad abbracciare questa innovazione tecnologica, contribuendo allo sviluppo
Consilium Hub
Consilium Hub è la società di comunicazione indipendente, attiva dal 2002. Abbraccia un livello di progetti strategici nazionali e internazionali, crea e realizza servizi che spaziano dalle relazioni media al nuovo ufficio stampa, dalla comunicazione di crisi alla consulenza di impresa, dalla comunicazione visiva a quella digital, dall’analisi strategica dei dati alla consulenza per l’intelligence reputazionale. Guida il cliente in modo etico e raggiunge risultati di qualità grazie a un approccio “tailor made” adottato nella fase di progettazione dei servizi.
Red Open
ReD OPEN è uno spin-off dell’Università degli Studi Milano Bicocca. Nato nel 2019 ed iscritto al registro delle start-up innovative, è impegnato a promuovere un pionieristico approccio organizzativo alla trasformazione digitale consapevole, guidando l’innovazione e la progettazione di soluzioni di Intelligenza Artificiale con un focus su etica, responsabilità e sostenibilità.