Il Consiglio D’Europa adotta il primo trattato sull’Intelligenza Artificiale

AGI – Il Consiglio d’Europa, che riunisce 46 stati europei (27 dei quali dell’Ue), ha adottato il primo trattato internazionale giuridicamente vincolante per regolamentare l’Intelligenza artificiale. “Questo accordo, aperto anche ai paesi extraeuropei, stabilisce un quadro giuridico che si applica all’intero ciclo di vita dei sistemi di intelligenza artificiale e si concentra sui rischi che possono comportare, promuovendo al contempo l’innovazione responsabile”, ha affermato il Consiglio d’Europa, dopo i 46 ministri degli Esteri dell’organizzazione hanno adottato il trattato a Strasburgo. Il neo accordo internazionale obbliga gli Stati firmatari ad attuare misure per “identificare, valutare, prevenire e mitigare i possibili rischi” dell’Ia – sia nel settore pubblico che in quello privato – soprattutto quando l’uso di questa tecnologia può presentare “rischi incompatibili con gli standard sui diritti umani”.
 
Allo stesso modo, gli Stati devono “controllare che questi sistemi di intelligenza artificiale rispettino l’uguaglianza, compresa l’uguaglianza di genere, prevengano la discriminazione e proteggano la vita privata”. Il trattato avrà anche la missione di impedire che l’Ia venga utilizzata per “attaccare le istituzioni e i processi democratici, rispettando i principi della separazione dei poteri”.
 

 
L’accordo regolatore è stato redatto negli ultimi due anni grazie a un comitato al quale hanno partecipato i membri dei 46 Stati del Consiglio d’Europa e altri 11 Paesi: Argentina, Australia, Canada, Costa Rica, Vaticano, Israele, Giappone, Messico, Perù, Stati Uniti e Uruguay. Sono stati consultati anche i rappresentanti del settore privato, della società civile e del mondo accademico. La convenzione quadro sull’intelligenza artificiale, che sarà aperta alla firma il 5 settembre in occasione di una conferenza dei ministri della giustizia a Vilnius, sara’ attuata in due modi. O i firmatari scelgono di aderire alle disposizioni così come figurano nel trattato regolatore oppure si impegnano ad attuare altre misure paragonabili a quelle del documento, purché tutelino “i diritti umani, la democrazia e lo Stato di diritto”. Queste due modalità di adozione sono state proposte a causa della “disparità negli ordinamenti giuridici dei diversi paesi” che compongono l’accordo. Il Consiglio d’Europa ha spiegato che il trattato avrà un meccanismo di monitoraggio “per garantire che venga attuato in modo efficace”.  
 

Intelligenza artificiale: migliorano le interazioni ma l’informazione è sempre corretta?

AGI – L’evoluzione degli strumenti di intelligenza artificiale (IA) generativa, come Chat-GPT, ha segnato una svolta significativa nel modo in cui interagiamo con le macchine. La fluidità dell’interazione, la capacità di comprendere il contesto e di generare risposte coerenti e naturali sono a livelli che, fino a pochi anni fa, sembravano fantascientifici. Tuttavia, se da un lato queste capacità migliorano notevolmente l’esperienza utente, dall’altro sollevano questioni centrali sulla correttezza delle informazioni generate.
 
La qualità dell’interazione con il nuovo Chat-GPT 4o è letteralmente impressionante. Gli utenti sperimentano un’interfaccia sempre più coinvolgente e intuitiva, in grado di rispondere a domande, fornire suggerimenti, scrivere testi e persino partecipare a conversazioni complesse. Questa fluidità è frutto di una tecnologia avanzatissima, che si basa su modelli linguistici pre-addestrati su enormi insiemi di dati. Tali modelli permettono all’IA di emulare con sorprendente precisione il linguaggio umano, creando un’esperienza di interazione che spesso sembra indistinguibile da quella con un interlocutore in carne ed ossa.
 
Tuttavia c’è un errore che non dobbiamo fare: confondere l’aumento della qualità dell’interazione con quello della correttezza delle informazioni fornite. I modelli di IA generativa come Chat-GPT non possiedono una comprensione intrinseca della verità o della falsità delle loro risposte. Essi generano contenuti basandosi su modelli statistici e probabilistici, utilizzando i dati sui quali sono stati addestrati. Questo significa che, sebbene possano produrre risposte coerenti e plausibili, non hanno la capacità di verificare autonomamente la veridicità delle informazioni che forniscono.
 
L’elevata qualità dell’interazione può, paradossalmente, ridurre la consapevolezza degli utenti riguardo alla necessità di verificare le informazioni. La nostra naturale tendenza è quella di associare una buona comunicazione a un alto livello di affidabilità. Questo fenomeno è amplificato quando ci troviamo di fronte a un’interfaccia che sembra comprendere e rispondere in modo umano. Di conseguenza, la fluidità e la qualità dell’interazione con sistemi come Chat-GPT 4o possono indurre gli utenti a sospendere il loro giudizio critico, accettando le risposte generate come verità.
 
Ai tempi di Wikipedia si aveva la percezione del fatto che i risultati forniti fossero frutto di una interazione umana. Con i motori di ricerca si ha visibilità delle fonti. Con l’IA generativa il testo prodotto, senza trasparenza delle fonti, rischia di essere preso come quello di un vero e proprio oracolo. Questa dinamica presenta un rischio significativo: in un’epoca in cui l’accesso a informazioni accurate e affidabili è cruciale, il potenziale di disinformazione veicolata attraverso strumenti di IA generativa è preoccupante. Gli utenti possono essere facilmente fuorviati da risposte che, sebbene ben formulate, possono contenere inesattezze, bias o addirittura totali falsità. L’incremento della qualità dell’interazione riduce la percezione del bisogno di verifica, creando una pericolosa illusione di accuratezza.
 
Per mitigare questi rischi, è essenziale che gli utenti mantengano un atteggiamento critico e consapevole. Devono considerare le risposte dell’IA come punti di partenza, non come conclusioni definitive. La verifica delle fonti, il confronto delle informazioni e l’applicazione del pensiero critico sono strumenti indispensabili per navigare nell’immenso mare di dati generati dall’IA.
 
In questo, il ruolo delle aziende che producono questi sistemi è cruciale: a loro la responsabilità di implementare meccanismi che aumentino la trasparenza, fornendo indicazioni chiare sugli ambiti di competenza e sui limiti delle informazioni generate. Le risposte dell’IA dovrebbero essere accompagnate da avvisi che ricordano agli utenti l’importanza della verifica delle informazioni.
 
Integrare i sistemi di IA generativa con banche dati verificate e fonti autorevoli è un passo indispensabile, ma non risolutivo. Sebbene questo approccio possa infatti migliorare l’accuratezza delle risposte, non elimina la necessità di una supervisione umana e di una cultura della verifica critica. Gli utenti devono essere educati a comprendere che l’IA, per quanto avanzata, è uno strumento al servizio della conoscenza umana, non un sostituto della stessa.
 
La fluidità dell’interazione e la qualità delle risposte non devono farci dimenticare che la capacità di distinguere il vero dal falso è ancora una prerogativa umana. Solo attraverso un uso consapevole e critico di questi strumenti possiamo garantire che rimangano potenti alleati nella ricerca della conoscenza, piuttosto che fonti di disinformazione.