Venticinque tra i principali scienziati nel campo dell'intelligenza artificiale (IA) del mondo hanno dichiarato, in un documento di consenso pubblicato su Science, che non si sta facendo abbastanza per proteggere le persone dai rischi della tecnologia. Tra gli autori del documento ci sono vincitori del Premio Turing, premi Nobel e molti fra i maggiori esperti al mondo di IA. Gli esperti delineano le priorità politiche urgenti che i leader globali dovrebbero adottare per contrastare le minacce delle tecnologie IA.
Secondo gli scienziati, è imperativo che i leader mondiali prendano seriamente in considerazione la possibilità che entro questo decennio o il prossimo vengano sviluppati sistemi IA altamente potenti e generalisti, capaci di superare le abilità umane in molti ambiti critici. Sebbene i governi di tutto il mondo abbiano discusso di IA avanzata e abbiano tentato di introdurre linee guida iniziali, questi sforzi sono stati ritenuti inadeguati rispetto alla possibilità di un rapido progresso trasformativo previsto da molti esperti.
La maggioranza delle ricerche attuali sulla sicurezza dell'IA si concentra sullo sviluppo e il test di nuovi modelli, ma solamente l'1-3% delle pubblicazioni sull'IA riguarda la loro sicurezza. Inoltre, mancano meccanismi e istituzioni per prevenire l'uso improprio e la negligenza, compreso l'uso di sistemi autonomi capaci di agire e perseguire obiettivi indipendenti.
Nel prossimo futuro, i sistemi IA potrebbero guadagnare la fiducia umana, acquisire risorse e influenzare i decisori chiave. Il grado di autonomia che questi sistemi potrebbero avere può raggiungere livelli critici, non solo in ambito sanitario, ma anche economico e bellico. Inoltre, la criminalità informatica su larga scala, la manipolazione sociale e altri eventi illeciti potrebbero aumentare rapidamente, senza che ci siano gli strumenti per controllarli.
I governi devono essere pronti a mettere in agenda una seria programmazione nella regolamentazione dei sistemi di intelligenza artificiale. Per gli autori, i punti importanti riguardano la concessione di licenze per lo sviluppo di questi sistemi, la restrizione della loro autonomia in ruoli sociali chiave, l'arresto del loro sviluppo e della loro distribuzione in contesti critici, l'imposizione di controlli sugli accessi e l'implementazione di misure di sicurezza contro gli hacker. Gli autori raccomandano quindi ai governi di:
• istituire istituzioni di esperti per la supervisione dell'IA e fornire loro finanziamenti molto maggiori rispetto a quelli attualmente previsti;
• imporre una valutazione dei rischi molto più rigorosa con conseguenze applicabili, piuttosto che affidarsi a valutazioni volontarie o poco specifiche dei modelli;
• richiedere alle aziende di IA di dare priorità alla sicurezza e dimostrare che i loro sistemi non possono causare danni, utilizzando casi studio come avviene per altre tecnologie per la sicurezza come l'aviazione, che spostano l'onere della dimostrazione della sicurezza sugli sviluppatori di IA;
• implementare standard di mitigazione proporzionati ai livelli di rischio posti dai sistemi IA. Una priorità urgente è stabilire politiche che si attivino automaticamente quando l'IA raggiunge determinate capacità. Se l'IA avanza rapidamente, i requisiti stringenti si dovranno attivare automaticamente, ma se il progresso rallenta, i requisiti si allenteranno di conseguenza.
Stuart Russell OBE, Professore di Informatica all'Università della California a Berkeley e autore del documento, ha affermato: "Serve una rigorosa regolamentazione da parte dei governi, non solo codici di condotta volontari scritti dall'industria. È tempo di prendere sul serio i sistemi IA avanzati. Non sono giocattoli. Aumentare le loro capacità prima di capire come renderli sicuri è assolutamente insufficiente. Le aziende si lamenteranno che è troppo difficile soddisfare le normative, che 'la regolamentazione soffoca l'innovazione.' Questo è ridicolo. Ci sono più regolamenti sulle paninoteche che sulle aziende di IA."