banner
Centro notizie
La nostra certificazione ISO dimostra che aderiamo agli standard internazionali.

Trovare i modi più saggi per regolamentare l’IA a livello globale

Sep 04, 2023

Benvenuti a Fixing the Future, un podcast IEEE Spectrum. Sono la redattrice senior Eliza Strickland e oggi parlerò con Russell Wald dell'Università di Stanford degli sforzi per regolamentare l'intelligenza artificiale. Prima di iniziare questo episodio, vorrei far sapere agli ascoltatori che il costo dell'iscrizione all'IEEE è attualmente scontato del 50% per il resto dell'anno, dandoti accesso a vantaggi, tra cui Spectrum Magazine e molta istruzione e carriera. risorse. Inoltre, inserendo il codice CUBE online, riceverai un eccellente cubo di Rubik con marchio IEEE. Quindi vai su IEEE.org/join per iniziare.

Negli ultimi anni, le persone che prestano attenzione alla ricerca sull’intelligenza artificiale sono rimaste sbalordite dal ritmo degli sviluppi, sia dai rapidi progressi nelle capacità dell’intelligenza artificiale sia dall’accumulo di rischi e lati oscuri. Poi, a novembre, OpenAI ha lanciato lo straordinario chatbot ChatGPT e il mondo intero ha iniziato a prestare attenzione. All’improvviso, politici ed esperti si sono messi a parlare del potere delle società di intelligenza artificiale e della necessità di regolamentarle. Con così tante chiacchiere sull’intelligenza artificiale, è difficile capire cosa sta realmente accadendo sul fronte politico in tutto il mondo. Quindi oggi parlerò con Russell Wald, amministratore delegato per la politica e la società presso l'Institute for Human-Centered Artificial Intelligence di Stanford. Oggi, su Fixing the Future, parlo con Russell Wald, amministratore delegato per la politica e la società presso l'Institute for Human-Centered Artificial Intelligence di Stanford. Russell, grazie mille per esserti unito a me oggi.

Russell Wald: Grazie mille. È bello essere qui.

Stiamo assistendo a molte richieste di regolamentazione in questo momento per l'intelligenza artificiale. E, cosa abbastanza interessante, alcune di queste chiamate provengono dagli amministratori delegati delle aziende coinvolte in questa tecnologia. I vertici di OpenAI e Google hanno entrambi discusso apertamente della necessità di regolamentazioni. Cosa ne pensi di queste richieste di regolamentazione provenienti dall'interno del settore?

Wald: sì. È davvero interessante che l'industria interna lo richieda. Penso che dimostri che sono in gara. C'è una parte qui in cui guardiamo la cosa e diciamo che non possono fermarsi e collaborare perché inizieresti ad avere problemi di antitrust se dovessi seguire queste linee. Quindi penso che per loro si stia cercando di creare un campo di gioco più equilibrato. Ma ovviamente, ciò che realmente ne deriva, per come la vedo io, è che preferirebbero lavorare ora per essere in grado di creare alcune di quelle normative piuttosto che evitare una regolamentazione reattiva. Quindi è una pillola più facile da ingoiare se riescono a provare a dare forma a tutto questo ora, a questo punto. Naturalmente, il diavolo è nei dettagli di queste cose, giusto? La domanda è sempre: di che tipo di regolamentazione stiamo parlando in sostanza? E la realtà è che dobbiamo garantire che, quando definiamo le normative, ovviamente, l'industria venga ascoltata e abbia un posto al tavolo, ma anche gli altri devono avere un posto al tavolo. Il mondo accademico, la società civile, persone che si stanno davvero prendendo il tempo per studiare quale sia la regolamentazione più efficace che terrà ancora un po' i piedi sul fuoco dell'industria ma permetterà loro di innovare.

Sì. E questo ci porta alla domanda: cosa ha più bisogno di essere regolamentato? Secondo te, quali sono i mali sociali dell’intelligenza artificiale di cui dobbiamo maggiormente preoccuparci e limitare?

Wald: sì. Se lo guardo da una prospettiva di urgenza, per me la cosa più preoccupante sono i media sintetici in questo momento. E la domanda a riguardo, però, è: qual è l’area normativa qui? Sono preoccupato per i media sintetici a causa di ciò che alla fine accadrà alla società se nessuno avrà fiducia in ciò che vede e nella sua veridicità. Quindi, ovviamente, sono molto preoccupato per i falsi profondi, le elezioni e cose del genere, ma sono altrettanto preoccupato per il Papa con il cappotto gonfio. E il motivo per cui sono preoccupato è perché se c'è una quantità onnipresente di media sintetici là fuori, ciò che alla fine creerà sarà un momento in cui nessuno avrà fiducia nella veridicità di ciò che vede digitalmente. E quando ti trovi in ​​quella situazione, le persone sceglieranno di credere in ciò che vogliono credere, che sia una verità scomoda o meno. E questo è davvero preoccupante.