AI – Intelligenza Artificiale Generativa – Grandi prospettive e grandi timori
“AI generativa” si riferisce a sistemi di intelligenza artificiale che sono in grado di generare nuovi contenuti, spesso in modi che imitano o simulano la creatività umana.
Questi sistemi utilizzano varie tecniche di apprendimento automatico, in particolare reti neurali, per produrre output che possono includere testo, immagini, musica, e persino codice.
La rapida avanzata tecnologica, unita ai progressi nel campo degli algoritmi e delle tecniche di apprendimento automatico, ha portato l’IA a diventare uno strumento fondamentale in una miriade di settori.
Dalla ricerca scientifica all’industria finanziaria, dalla robotica al campo della giustizia, fino all’universo dei giocattoli e oltre, l’IA è ormai onnipresente, influenzando significativamente la nostra esistenza e ridefinendo le nostre interazioni con il mondo circostante.
Tra le varie branche dell’AI, spicca l’Intelligenza Artificiale Generativa, comunemente nota come AI generativa o GenAI. Questa innovativa disciplina si avvale di tecniche avanzate di Machine Learning e Deep Learning per creare dati completamente nuovi, quali immagini, composizioni musicali e testi, che non esistevano prima.
A differenza dell’IA discriminativa, che si focalizza sulla classificazione e l’interpretazione degli input, l’IA generativa è progettata per andare oltre la semplice analisi: mira a comprendere in profondità i dati forniti per generare contenuti inediti e originali.
Questa capacità di “creare” anziché semplicemente “analizzare” apre orizzonti inesplorati e offre opportunità straordinarie. L’IA generativa può essere impiegata per ideare concept artistici unici, comporre musiche mai ascoltate prima, scrivere testi che spaziano dalla narrativa alla poesia, e molto altro ancora. In un mondo sempre più interconnesso e digitalizzato, l’IA generativa non solo amplifica la nostra creatività e innovazione, ma rappresenta anche un fondamentale cambio di paradigma nel modo in cui interagiamo con la tecnologia: non più semplici consumatori di contenuti, ma co-creatori in un dialogo continuo con le macchine. In questo contesto, l’IA generativa si profila come una nuova frontiera dell’intelligenza artificiale, un campo in cui il potenziale di crescita e sviluppo sembra essere infinito.
Alcuni esempi di applicazioni dell’AI generativa includono:
- Generazione di Testo: Sistemi come GPT-3 (e successivi) di OpenAI, che possono scrivere testi su vari argomenti, simulando diversi stili di scrittura.
- Arte Visiva: Strumenti come DALL-E, anch’esso di OpenAI, che possono creare immagini e opere d’arte basate su descrizioni testuali.
- Musica: Algoritmi che possono comporre nuovi brani musicali, imitando stili esistenti o creando combinazioni uniche.
- Programmazione: Alcune forme di AI generativa possono aiutare a scrivere codice, offrendo soluzioni a problemi di programmazione o ottimizzando codice esistente.
- DeepMind: Una filiale di Alphabet (la società madre di Google), DeepMind è nota per le sue avanzate ricerche in intelligenza artificiale. Hanno sviluppato sistemi come AlphaGo, che ha battuto campioni mondiali nel gioco del Go, e WaveNet, un sistema che genera voci umane realistiche per la sintesi vocale.
- Adobe Sensei: Parte del pacchetto Adobe Creative Cloud, Sensei utilizza l’apprendimento automatico per migliorare vari strumenti di design e multimedia. Per esempio, può automaticamente tagliare foto, ottimizzare layout, e persino suggerire modifiche artistiche.
- IBM Watson: Famoso per aver vinto al gioco televisivo “Jeopardy!”, Watson utilizza AI generativa per analizzare e interpretare grandi quantità di dati in vari settori, dalla sanità al servizio clienti, fornendo risposte e soluzioni basate su dati.
- Artificial Creativity in Musica: Strumenti come AIVA (Artificial Intelligence Virtual Artist) e Jukedeck utilizzano l’intelligenza artificiale per comporre musica in vari stili. Questi sistemi possono creare brani musicali unici adatti per film, videogiochi, e altre applicazioni.
- Narrativa Generativa: Piattaforme come Narrative Science e Automated Insights utilizzano l’AI per trasformare dati e informazioni in narrazioni e report scritti, ampiamente usati in ambiti come il giornalismo finanziario e la reportistica sportiva.
- AI in Arte Visiva: Artisti e ricercatori stanno sperimentando con reti neurali per creare arte. Un esempio è “The Next Rembrandt”, un progetto che ha utilizzato l’apprendimento profondo per creare un nuovo dipinto nello stile di Rembrandt.
L’AI generativa sta aprendo nuove frontiere nella creatività e nell’innovazione, spingendo i limiti di ciò che le macchine possono creare e offrendo nuovi strumenti per artisti, scrittori, musicisti e programmatori.
Perché allora avere perplessità?
Nonostante gli enormi progressi ottenuti, non mancano le perplessità o critiche sulla definizione e su cosa sia l’attuale Intelligenza Artificiale.
Secondo Noam Chomsky (*), ChatGPT è “fondamentalmente un plagio high-tech” e un “modo per evitare l’apprendimento”.
(*) – filosofo, linguista, scienziato cognitivista, teorico della comunicazione, docente emerito di linguistica al Massachusetts Institute of Technology, è riconosciuto come il fondatore della grammatica generativo-trasformazionale, spesso indicata come il più rilevante contributo alla linguistica teorica del XX secolo
I chatbot basati sull’intelligenza artificiale utilizzano grandi modelli linguistici e terabyte di dati per trovare informazioni dettagliate e scriverle nel testo. Ma l’intelligenza artificiale ha indovinato quale parola avrebbe avuto più senso in una frase senza sapere se fosse vera o falsa o cosa l’utente volesse sentire.
Chomsky ha detto riguardo agli odierni programmi di intelligenza artificiale: “Il loro più grande difetto è che non hanno l’abilità più importante di qualsiasi essere intelligente”.
“Dire non solo ciò che è, è stato e sarà il caso, ma anche ciò che non è il caso e ciò che può o non può essere il caso, significa descrivere e prevedere. Sono parti necessarie per capire cosa significa qualcosa, il che è un segno di vera saggezza.
Chomsky dice che il cervello umano è fatto per “costruire spiegazioni” piuttosto che “inferire correlazioni brute”.
Ciò significa che può utilizzare le informazioni per giungere a conclusioni nuove e penetranti.
“La mente umana è un sistema che funziona con piccole quantità di informazioni in modo sorprendentemente efficiente e persino elegante”.
L’intelligenza artificiale non può pensare in modo critico e iterativo, quindi autocensura ciò che dice.
Pause Giant AI Experiments: An Open Letter
La recente lettera aperta “Pause Giant AI Experiments” diffusa il 23 marzo 2023 dal Future of Life Insitute (che ha superato le 33000 firme di adesione) recita:
I sistemi di intelligenza artificiale dotati di intelligenza competitiva umana possono comportare profondi rischi per la società e l’umanità, come dimostrato da ricerche approfondite e riconosciuto dai migliori laboratori di intelligenza artificiale. Come affermato nei Principi Asilomar AI, ampiamente approvati, l’IA avanzata potrebbe rappresentare un profondo cambiamento nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cure e risorse adeguate. Sfortunatamente, questo livello di pianificazione e gestione non si sta verificando, anche se gli ultimi mesi hanno visto i laboratori di intelligenza artificiale impegnati in una corsa fuori controllo per sviluppare e implementare menti digitali sempre più potenti che nessuno, nemmeno i loro creatori, può comprendere. prevedere o controllare in modo affidabile.
I sistemi di intelligenza artificiale contemporanei stanno diventando competitivi tra gli esseri umani in compiti generali, e dobbiamo chiederci: dovremmo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli appaganti? Dovremmo sviluppare menti non umane che alla fine potrebbero superarci in numero, in astuzia, obsolete e sostituirci? Dovremmo rischiare di perdere il controllo della nostra civiltà? Tali decisioni non devono essere delegate a leader tecnologici non eletti. Potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando avremo la certezza che i loro effetti saranno positivi e i loro rischi gestibili. Questa fiducia deve essere ben giustificata e aumentare con l’entità degli effetti potenziali di un sistema. La recente dichiarazione di OpenAI sull’intelligenza generale artificiale afferma che “Ad un certo punto, potrebbe essere importante ottenere una revisione indipendente prima di iniziare ad addestrare i sistemi futuri, e per gli sforzi più avanzati concordare di limitare il tasso di crescita del calcolo utilizzato per creare nuovi Modelli.” Siamo d’accordo. Quel punto è adesso.
Pertanto, invitiamo tutti i laboratori di intelligenza artificiale a sospendere immediatamente per almeno 6 mesi l’addestramento dei sistemi di intelligenza artificiale più potenti di GPT-4. Questa pausa dovrebbe essere pubblica e verificabile e includere tutti gli attori chiave. Se tale pausa non può essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria.
I laboratori di intelligenza artificiale e gli esperti indipendenti dovrebbero sfruttare questa pausa per sviluppare e implementare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo avanzati di intelligenza artificiale che sono rigorosamente controllati e supervisionati da esperti esterni indipendenti. Questi protocolli dovrebbero garantire che i sistemi che vi aderiscono siano sicuri oltre ogni ragionevole dubbio.[4] Ciò non significa una pausa nello sviluppo dell’intelligenza artificiale in generale, ma semplicemente un passo indietro dalla pericolosa corsa verso modelli sempre più grandi, imprevedibili e a scatola nera con capacità emergenti.
La ricerca e lo sviluppo dell’intelligenza artificiale dovrebbero essere riorientati per rendere i sistemi potenti e all’avanguardia di oggi più accurati, sicuri, interpretabili, trasparenti, robusti, allineati, affidabili e leali.
Parallelamente, gli sviluppatori di intelligenza artificiale devono collaborare con i politici per accelerare notevolmente lo sviluppo di solidi sistemi di governance dell’intelligenza artificiale. Questi dovrebbero come minimo includere: autorità di regolamentazione nuove e capaci dedicate all’IA; supervisione e monitoraggio di sistemi di intelligenza artificiale altamente efficienti e ampi pool di capacità computazionali; sistemi di provenienza e filigrana per aiutare a distinguere il reale dal sintetico e per tenere traccia delle fughe di dati del modello; un solido ecosistema di audit e certificazione; responsabilità per danni causati dall’IA; robusti finanziamenti pubblici per la ricerca tecnica sulla sicurezza dell’IA; e istituzioni dotate di risorse adeguate per far fronte ai drammatici sconvolgimenti economici e politici (soprattutto per la democrazia) che l’intelligenza artificiale causerà.
L’umanità può godere di un futuro fiorente grazie all’intelligenza artificiale. Dopo essere riusciti a creare potenti sistemi di intelligenza artificiale, ora possiamo goderci un’“estate dell’intelligenza artificiale” in cui raccoglieremo i frutti, progettiamo questi sistemi a beneficio di tutti e diamo alla società la possibilità di adattarsi. La società ha messo in pausa altre tecnologie con effetti potenzialmente catastrofici sulla società. Possiamo farlo qui. Godiamoci una lunga estate AI, non precipitiamoci impreparati in un autunno.
Quanto sopra è da integrare con “Policymaking in the Pause – What can policymakers do now to combat risks from advanced AI systems?”
I timori sono fondati o addirittura è troppo tardi?
Nei dibattiti recenti in merito ai timori legati alle enormi potenzialità dell’AI sorge spontaneo domandarsi un punto cruciale nella valutazione delle opinioni espresse da figure di spicco nel campo dell’intelligenza artificiale, come Max Tegmark, Nick Bostrom, Ray Kurzweil, Elon Musk, Sam Altman, Yann LeCun, Geoffrey Hinton e altri. Questi individui hanno un ruolo influente nell’industria digitale e nell’evoluzione dell’IA, e le loro opinioni possono avere un impatto significativo sull’opinione pubblica e sulle politiche di sviluppo tecnologico.
La questione dell’imparzialità e della presenza di potenziali conflitti di interesse è complessa. Da un lato, è vero che per questi individui, il progresso nell’IA è intrinsecamente legato al successo professionale e finanziario. Lavorando direttamente nell’industria dell’IA, possono beneficiare personalmente e professionalmente dai progressi in questo campo. Questo legame potrebbe potenzialmente influenzare le loro opinioni, rendendole più favorevoli verso lo sviluppo e l’adozione dell’IA, anche quando ci sono rischi o questioni etiche da considerare.
In definitiva, mentre è importante essere consapevoli dei potenziali conflitti di interesse e delle motivazioni personali, è anche essenziale valutare le dichiarazioni e le opinioni di queste figure nel contesto più ampio del loro lavoro e delle loro conoscenze. Spesso, possono offrire intuizioni preziose basate su anni di esperienza e ricerca nel campo.
Tuttavia, è altrettanto cruciale considerare una varietà di prospettive, incluse quelle di esperti indipendenti, filosofi, etici e altri professionisti che possono offrire diverse angolazioni e critiche sulla crescita e l’impiego dell’IA nella società.
Il timore è che se gli allarmi sollevati da esperti indipendenti sono particolarmente fondati allora c’è da preoccuparsi veramente
Eliezer Yudkowsky è un teorico delle decisioni statunitense e conduce la ricerca presso il Machine Intelligence Research Institute. Lavora all’allineamento dell’intelligenza generale artificiale dal 2001 ed è ampiamente considerato uno dei fondatori del settore.
Nel suo appello sul TIME del 29 marzo 2023 “Pausing AI Developments Isn’t Enough. We Need to Shut it All Down” scrive:
Nota: il testo seguente è virgolettato (« ») in quanto traduzione dell’articolo citato.
«Una lettera aperta pubblicata oggi chiede che “tutti i laboratori di intelligenza artificiale sospendano immediatamente per almeno 6 mesi l’addestramento dei sistemi di intelligenza artificiale più potenti di GPT-4”.»
«Questa moratoria di 6 mesi sarebbe meglio di nessuna moratoria. Ho rispetto per tutti coloro che si sono fatti avanti e l’hanno firmato. È un miglioramento sul margine.»
«Mi sono astenuto dal firmare perché ritengo che la lettera sottovaluti la gravità della situazione e chieda troppo poco per risolverla.»
««La questione chiave non è l’intelligenza “competitiva umana” (come afferma la lettera aperta); è ciò che accade quando l’intelligenza artificiale raggiunge un’intelligenza più intelligente di quella umana. Le soglie chiave potrebbero non essere ovvie, sicuramente non possiamo calcolare in anticipo cosa succede e quando, e attualmente sembra immaginabile che un laboratorio di ricerca attraversi le linee critiche senza accorgersene.»
«Molti ricercatori immersi in questi problemi, me compreso, si aspettano che il risultato più probabile della costruzione di un’intelligenza artificiale sovrumana, in qualcosa di lontanamente simile alle circostanze attuali, sia che letteralmente tutti sulla Terra moriranno. Non come in “forse qualche remota possibilità”, ma come in “questa è la cosa ovvia che accadrebbe”. Non è che non puoi, in linea di principio, sopravvivere creando qualcosa di molto più intelligente di te; è che richiederebbe precisione, preparazione e nuove intuizioni scientifiche, e probabilmente non avere sistemi di intelligenza artificiale composti da giganteschi e imperscrutabili array di numeri frazionari.»
«Senza tale precisione e preparazione, il risultato più probabile è che l’intelligenza artificiale non faccia ciò che vogliamo e non si prenda cura di noi né della vita senziente in generale. Questo tipo di attenzione è qualcosa che in linea di principio potrebbe essere integrato in un’intelligenza artificiale, ma non siamo pronti e al momento non sappiamo come.»
«In assenza di questa preoccupazione, otteniamo che “l’intelligenza artificiale non ti ama, né ti odia, e sei fatto di atomi che può usare per qualcos’altro”.»
«Il probabile risultato dell’umanità che affronta un’intelligenza sovrumana contrastata è una perdita totale. Metafore valide includono “un bambino di 10 anni che cerca di giocare a scacchi contro Stoccafisso 15”, “l’XI secolo che cerca di combattere il 21° secolo” e “L’Australopiteco che cerca di combattere l’Homo sapiens”.»
«Per visualizzare un’intelligenza artificiale sovrumana ostile, non immaginare un pensatore intelligente e senza vita che dimora in Internet e invia e-mail con cattive intenzioni. Visualizza un’intera civiltà aliena, che pensa a milioni di volte la velocità umana, inizialmente confinata nei computer, in un mondo di creature che sono, dal suo punto di vista, molto stupide e molto lente. Un’intelligenza artificiale sufficientemente intelligente non rimarrà confinata a lungo nei computer. Nel mondo di oggi è possibile inviare tramite e-mail stringhe di DNA ai laboratori che produrranno proteine su richiesta, consentendo a un’intelligenza artificiale inizialmente confinata su Internet di costruire forme di vita artificiale o di avviare direttamente la produzione molecolare postbiologica.»
«Se qualcuno costruisse un’intelligenza artificiale troppo potente, nelle condizioni attuali, mi aspetto che ogni singolo membro della specie umana e tutta la vita biologica sulla Terra muoiano poco dopo.»
«Non esiste un piano proposto su come potremmo fare una cosa del genere e sopravvivere. L’intenzione apertamente dichiarata di OpenAI è quella di fare in modo che qualche futura intelligenza artificiale esegua i nostri compiti di allineamento dell’IA. Il solo fatto di sapere che questo è il piano dovrebbe essere sufficiente per mandare nel panico qualsiasi persona sensata. L’altro importante laboratorio di intelligenza artificiale, DeepMind, non ha alcun piano.»
«Una nota a parte: nessuno di questi pericoli dipende dal fatto che le IA siano o possano essere coscienti; è intrinseco alla nozione di potenti sistemi cognitivi che ottimizzano duramente e calcolano risultati che soddisfano criteri di risultato sufficientemente complicati.»
«Detto questo, sarei negligente nei miei doveri morali di essere umano se non menzionassi anche che non abbiamo idea di come determinare se i sistemi di intelligenza artificiale sono consapevoli di se stessi, dal momento che non abbiamo idea di come decodificare tutto ciò che va nelle gigantesche schiere imperscrutabili – e quindi a un certo punto potremmo inavvertitamente creare menti digitali che sono veramente consapevoli e dovrebbero avere diritti e non dovrebbero essere possedute.»
«La regola che la maggior parte delle persone consapevoli di questi problemi avrebbe approvato 50 anni prima, era che se un sistema di intelligenza artificiale può parlare fluentemente e affermare di essere autocosciente e rivendicare i diritti umani, ciò dovrebbe essere un duro freno per le persone che possiedono semplicemente quell’intelligenza artificiale. e usarlo oltre quel punto. Abbiamo già oltrepassato quella vecchia linea nella sabbia. E probabilmente era corretto; Sono d’accordo sul fatto che le attuali IA probabilmente stanno semplicemente imitando il discorso sull’autoconsapevolezza dai loro dati di addestramento. Ma sottolineo che, con la scarsa conoscenza che abbiamo degli interni di questi sistemi, in realtà non lo sappiamo.»
«Se questo è il nostro stato di ignoranza per GPT-4, e GPT-5 ha la stessa dimensione di un enorme passo in avanti da GPT-3 a GPT-4, penso che non saremo più in grado di dire in modo giustificato ‘probabilmente non auto-aware” se lasciamo che le persone realizzino GPT-5. Sarà semplicemente “Non lo so; nessuno sa.’ Se non puoi essere sicuro di creare un’intelligenza artificiale autoconsapevole, questo è allarmante non solo per le implicazioni morali della parte ‘autoconsapevole’, ma perché essere incerto significa che non hai idea di cosa stai facendo e questo è pericoloso e dovresti fermarti.»
«Ci sono voluti più di 60 anni tra il momento in cui il concetto di Intelligenza Artificiale è stato proposto e studiato per la prima volta e il raggiungimento delle capacità odierne. Risolvere la questione della sicurezza dell’intelligenza sovrumana – non una sicurezza perfetta, sicurezza nel senso di “non uccidere letteralmente tutti” – potrebbe ragionevolmente richiedere almeno la metà di quel tempo. E il bello di provare questo con un’intelligenza sovrumana è che se sbagli al primo tentativo, non imparerai dai tuoi errori, perché sei morto. L’umanità non impara dagli errori, non si rispolvera e riprova, come in altre sfide che abbiamo superato nella nostra storia, perché non ci siamo più.»
«Cercare di ottenere qualcosa di giusto al primo tentativo veramente critico è una sfida straordinaria, nella scienza e nell’ingegneria. Non arriveremo con nulla di simile all’approccio che sarebbe necessario per farlo con successo. Se nel nascente campo dell’intelligenza artificiale generale rispettassimo gli standard minori di rigore ingegneristico applicati a un ponte destinato a trasportare un paio di migliaia di automobili, l’intero campo verrebbe chiuso domani.»
«Non siamo preparati. Non siamo sulla buona strada per essere preparati in un intervallo di tempo ragionevole. Non esiste un piano. I progressi nelle capacità dell’intelligenza artificiale sono molto, molto più avanti dei progressi nell’allineamento dell’intelligenza artificiale o addirittura dei progressi nella comprensione di cosa diavolo sta succedendo all’interno di quei sistemi. Se lo facciamo davvero, moriremo tutti.»
«Molti ricercatori che lavorano su questi sistemi pensano che stiamo precipitando verso una catastrofe, e molti di loro osano dirlo in privato che in pubblico; ma pensano di non poter fermare unilateralmente il crollo in avanti, che gli altri andranno avanti anche se loro stessi lasciassero il lavoro. E così tutti pensano che tanto vale andare avanti. Questo è uno stato di cose stupido e un modo poco dignitoso per la Terra di morire, e il resto dell’umanità dovrebbe intervenire a questo punto e aiutare l’industria a risolvere il suo problema di azione collettiva.»
«Alcuni dei miei amici mi hanno recentemente riferito che quando persone esterne al settore dell’intelligenza artificiale sentono per la prima volta parlare del rischio di estinzione derivante dall’intelligenza artificiale generale, la loro reazione è “forse non dovremmo costruire l’AGI, allora”.»
«Sentire questo mi ha dato un piccolo lampo di speranza, perché è una reazione più semplice, più sensata e francamente più sana di quella che ho sentito negli ultimi 20 anni cercando di convincere qualcuno nel settore a prendere le cose sul serio. Chiunque parli in questo modo merita di sapere quanto sia grave la situazione in realtà, e di non sentirsi dire che una moratoria di sei mesi risolverà il problema.»
«Il 16 marzo il mio partner mi ha inviato questa email. (In seguito mi ha dato il permesso di estrarlo qui.)»
«“Nina ha perso un dente! Come fanno abitualmente i bambini, non per disattenzione! Vedere GPT4 spazzare via quei test standardizzati lo stesso giorno in cui Nina ha raggiunto un traguardo importante nell’infanzia, ha provocato un’ondata emotiva che mi ha travolto per un minuto. Sta andando tutto troppo velocemente. Temo che condividere questo acuisca il tuo dolore, ma preferirei che tu mi conoscessi piuttosto che ognuno di noi soffrisse da solo.»
«Quando la conversazione interna riguarda il dolore di vedere tua figlia perdere il suo primo dente e pensare che non avrà la possibilità di crescere, credo che abbiamo superato il punto di giocare a scacchi politici su una moratoria di sei mesi.»
«Se ci fosse un piano per la sopravvivenza della Terra, se solo superassimo una moratoria di sei mesi, sosterrei quel piano. Non esiste alcun piano del genere.»
«Ecco cosa sarebbe effettivamente necessario fare:
La moratoria sui nuovi grandi corsi di formazione deve essere indefinita e mondiale. Non possono esserci eccezioni, nemmeno per i governi o gli eserciti. Se la politica inizia con gli Stati Uniti, allora la Cina deve vedere che gli Stati Uniti non stanno cercando un vantaggio ma piuttosto cercando di impedire una tecnologia orribilmente pericolosa che non può avere un vero proprietario e che ucciderà tutti negli Stati Uniti, in Cina e sulla Terra. . Se avessi una libertà infinita di scrivere leggi, potrei ritagliare un’unica eccezione per le IA addestrate esclusivamente a risolvere problemi di biologia e biotecnologia, non addestrate su testi provenienti da Internet, e non al livello in cui iniziano a parlare o pianificare; ma se ciò complicasse anche lontanamente la questione, accantonerei immediatamente la proposta e direi di chiudere tutto.»
«Spegni tutti i grandi cluster GPU (le grandi aziende di computer in cui vengono perfezionate le IA più potenti). Interrompi tutti i grandi percorsi di allenamento. Stabilire un tetto alla quantità di potenza di calcolo che chiunque può utilizzare nell’addestramento di un sistema di intelligenza artificiale e spostarlo verso il basso nei prossimi anni per compensare algoritmi di addestramento più efficienti. Nessuna eccezione per governi ed eserciti. Stringere accordi multinazionali immediati per evitare che le attività vietate si spostino altrove. Tieni traccia di tutte le GPU vendute. Se l’intelligence dice che un paese al di fuori dell’accordo sta costruendo un cluster GPU, si dovrebbe avere meno paura di uno scontro a fuoco tra nazioni che della violazione della moratoria; essere disposto a distruggere un data center canaglia con un attacco aereo.»
«Non inquadrate nulla come un conflitto tra interessi nazionali, abbiate ben chiaro che chiunque parli di corsa agli armamenti è un pazzo. Che tutti viviamo o moriamo come uno, in questo, non è una politica ma un fatto della natura. Rendere esplicito nella diplomazia internazionale che prevenire scenari di estinzione dell’IA è considerato una priorità rispetto alla prevenzione di uno scambio nucleare completo e che i paesi nucleari alleati sono disposti a correre qualche rischio di scambio nucleare se questo è ciò che serve per ridurre il rischio di grandi cicli di addestramento dell’IA.»
«Questo è il tipo di cambiamento di politica che porterebbe io e il mio partner a stringerci l’un l’altro e a dirci l’un l’altro che è accaduto un miracolo, e ora c’è la possibilità che forse Nina sopravviva. Le persone sane che sentono parlare di questo per la prima volta e dicono sensatamente “forse non dovremmo” meritano di sentire, onestamente, cosa ci vorrebbe perché ciò accada. E quando la vostra richiesta politica è così ampia, l’unico modo per farcela è che i politici si rendano conto che se continuano a condurre gli affari come al solito e fanno ciò che è politicamente facile, ciò significa che anche i loro stessi figli moriranno.»
«Chiudi tutto.»
«Non siamo pronti. Non siamo sulla buona strada per essere significativamente più pronti nel prossimo futuro. Se andiamo avanti su questa strada moriranno tutti, compresi i bambini che non hanno scelto questa decisione e non hanno fatto nulla di male.»
«Chiudi tutto.»
Conclusioni (forse)
In questi scenari sinceramente non è facile avere idee chiare ma sicuramente i timori espressi da più fonti hanno solide basi e fondamenta che, conditi con gli enormi interessi in gioco (sovranazionali e a livello planetario), rendono enormemente delicata la questione e fondati i timori sui futuri sviluppi.
Verrebbe da fare un parallelo con le difficoltà e contraddizioni sulle strade da seguire per gestire i cambiamenti climatici: in quel caso vediamo enormi difficoltà a trovare accordo a livello planetario per avere un approccio comune e, purtroppo, viene da avere non molte speranze sul fronte AI dove gli interessi economici probabilmente diventeranno ancora più enormi rispetto ai combustibili fossili…