{"id":4045,"date":"2024-01-01T18:16:17","date_gmt":"2024-01-01T17:16:17","guid":{"rendered":"https:\/\/www.genesi-srl.com\/?p=4045"},"modified":"2024-01-23T17:32:35","modified_gmt":"2024-01-23T16:32:35","slug":"ai-intelligenza-artificiale-generativa-grandi-prospettive-e-grandi-timori","status":"publish","type":"post","link":"https:\/\/www.genesi-srl.com\/it\/ai-intelligenza-artificiale-generativa-grandi-prospettive-e-grandi-timori\/","title":{"rendered":"AI &#8211; Intelligenza Artificiale Generativa &#8211; Grandi prospettive e grandi timori"},"content":{"rendered":"\n<p>&#8220;AI generativa&#8221; si riferisce a sistemi di intelligenza artificiale che sono in grado di generare nuovi contenuti, spesso in modi che imitano o simulano la creativit\u00e0 umana.<\/p>\n\n\n\n<p>Questi sistemi utilizzano varie tecniche di apprendimento automatico, in particolare reti neurali, per produrre output che possono includere testo, immagini, musica, e persino codice.<\/p>\n\n\n\n<p>La rapida avanzata tecnologica, unita ai progressi nel campo degli algoritmi e delle tecniche di apprendimento automatico, ha portato l&#8217;IA a diventare uno strumento fondamentale in una miriade di settori.<\/p>\n\n\n\n<p>Dalla ricerca scientifica all&#8217;industria finanziaria, dalla robotica al campo della giustizia, fino all&#8217;universo dei giocattoli e oltre, l&#8217;IA \u00e8 ormai onnipresente, influenzando significativamente la nostra esistenza e ridefinendo le nostre interazioni con il mondo circostante.<\/p>\n\n\n\n<p>Tra le varie branche dell&#8217;AI, spicca l&#8217;Intelligenza Artificiale Generativa, comunemente nota come AI generativa o GenAI. Questa innovativa disciplina si avvale di tecniche avanzate di Machine Learning e Deep Learning per creare dati completamente nuovi, quali immagini, composizioni musicali e testi, che non esistevano prima.<\/p>\n\n\n\n<p>A differenza dell&#8217;IA discriminativa, che si focalizza sulla classificazione e l&#8217;interpretazione degli input, l&#8217;IA generativa \u00e8 progettata per andare oltre la semplice analisi: mira a comprendere in profondit\u00e0 i dati forniti per generare contenuti inediti e originali.<\/p>\n\n\n\n<p>Questa capacit\u00e0 di &#8220;creare&#8221; anzich\u00e9 semplicemente &#8220;analizzare&#8221; apre orizzonti inesplorati e offre opportunit\u00e0 straordinarie. L&#8217;IA generativa pu\u00f2 essere impiegata per ideare concept artistici unici, comporre musiche mai ascoltate prima, scrivere testi che spaziano dalla narrativa alla poesia, e molto altro ancora. In un mondo sempre pi\u00f9 interconnesso e digitalizzato, l&#8217;IA generativa non solo amplifica la nostra creativit\u00e0 e innovazione, ma rappresenta anche un fondamentale cambio di paradigma nel modo in cui interagiamo con la tecnologia: non pi\u00f9 semplici consumatori di contenuti, ma co-creatori in un dialogo continuo con le macchine. In questo contesto, l&#8217;IA generativa si profila come una nuova frontiera dell&#8217;intelligenza artificiale, un campo in cui il potenziale di crescita e sviluppo sembra essere infinito.<\/p>\n\n\n\n<p>Alcuni esempi di applicazioni dell&#8217;AI generativa includono:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Generazione di Testo<\/strong>: Sistemi come GPT-3 (e successivi) di OpenAI, che possono scrivere testi su vari argomenti, simulando diversi stili di scrittura.<\/li>\n\n\n\n<li><strong>Arte Visiva<\/strong>: Strumenti come DALL-E, anch&#8217;esso di OpenAI, che possono creare immagini e opere d&#8217;arte basate su descrizioni testuali.<\/li>\n\n\n\n<li><strong>Musica<\/strong>: Algoritmi che possono comporre nuovi brani musicali, imitando stili esistenti o creando combinazioni uniche.<\/li>\n\n\n\n<li><strong>Programmazione<\/strong>: Alcune forme di AI generativa possono aiutare a scrivere codice, offrendo soluzioni a problemi di programmazione o ottimizzando codice esistente.<\/li>\n\n\n\n<li><strong>DeepMind<\/strong>: Una filiale di Alphabet (la societ\u00e0 madre di Google), DeepMind \u00e8 nota per le sue avanzate ricerche in intelligenza artificiale. Hanno sviluppato sistemi come AlphaGo, che ha battuto campioni mondiali nel gioco del Go, e WaveNet, un sistema che genera voci umane realistiche per la sintesi vocale.<\/li>\n\n\n\n<li><strong>Adobe Sensei<\/strong>: Parte del pacchetto Adobe Creative Cloud, Sensei utilizza l&#8217;apprendimento automatico per migliorare vari strumenti di design e multimedia. Per esempio, pu\u00f2 automaticamente tagliare foto, ottimizzare layout, e persino suggerire modifiche artistiche.<\/li>\n\n\n\n<li><strong>IBM Watson<\/strong>: Famoso per aver vinto al gioco televisivo &#8220;Jeopardy!&#8221;, Watson utilizza AI generativa per analizzare e interpretare grandi quantit\u00e0 di dati in vari settori, dalla sanit\u00e0 al servizio clienti, fornendo risposte e soluzioni basate su dati.<\/li>\n\n\n\n<li><strong>Artificial Creativity in Musica<\/strong>: Strumenti come AIVA (Artificial Intelligence Virtual Artist) e Jukedeck utilizzano l&#8217;intelligenza artificiale per comporre musica in vari stili. Questi sistemi possono creare brani musicali unici adatti per film, videogiochi, e altre applicazioni.<\/li>\n\n\n\n<li><strong>Narrativa Generativa<\/strong>: Piattaforme come Narrative Science e Automated Insights utilizzano l&#8217;AI per trasformare dati e informazioni in narrazioni e report scritti, ampiamente usati in ambiti come il giornalismo finanziario e la reportistica sportiva.<\/li>\n\n\n\n<li><strong>AI in Arte Visiva<\/strong>: Artisti e ricercatori stanno sperimentando con reti neurali per creare arte. Un esempio \u00e8 &#8220;The Next Rembrandt&#8221;, un progetto che ha utilizzato l&#8217;apprendimento profondo per creare un nuovo dipinto nello stile di Rembrandt.<\/li>\n<\/ol>\n\n\n\n<p>L&#8217;AI generativa sta aprendo nuove frontiere nella creativit\u00e0 e nell&#8217;innovazione, spingendo i limiti di ci\u00f2 che le macchine possono creare e offrendo nuovi strumenti per artisti, scrittori, musicisti e programmatori.<\/p>\n\n\n\n<p class=\"has-large-font-size\"><strong>Perch\u00e9 allora avere perplessit\u00e0?<\/strong><\/p>\n\n\n\n<h5 class=\"wp-block-heading\">Nonostante gli enormi progressi ottenuti, non mancano le perplessit\u00e0 o critiche sulla definizione e su cosa sia l\u2019attuale Intelligenza Artificiale.<\/h5>\n\n\n\n<p>Secondo <span style=\"text-decoration: underline\"> <a href=\"https:\/\/it.wikipedia.org\/wiki\/Noam_Chomsky\" target=\"_blank\" rel=\"noreferrer noopener\">Noam Chomsky<\/a> <\/span> (*), ChatGPT \u00e8 &#8220;fondamentalmente un plagio high-tech&#8221; e un &#8220;modo per evitare l&#8217;apprendimento&#8221;.<br>(*) &#8211; filosofo, linguista, scienziato cognitivista, teorico della comunicazione, docente emerito&nbsp; di linguistica al Massachusetts Institute of Technology, \u00e8 riconosciuto come il fondatore della grammatica generativo-trasformazionale, spesso indicata come il pi\u00f9 rilevante contributo alla linguistica teorica del XX secolo<\/p>\n\n\n\n<p>I chatbot basati sull&#8217;intelligenza artificiale utilizzano grandi modelli linguistici e terabyte di dati per trovare informazioni dettagliate e scriverle nel testo. <strong>Ma l\u2019intelligenza artificiale ha indovinato quale parola avrebbe avuto pi\u00f9 senso in una frase senza sapere se fosse vera o falsa o cosa l\u2019utente volesse sentire<\/strong>.<\/p>\n\n\n\n<p>Chomsky ha detto riguardo agli odierni programmi di intelligenza artificiale: &#8220;Il loro pi\u00f9 grande difetto \u00e8 che non hanno l&#8217;abilit\u00e0 pi\u00f9 importante di qualsiasi essere intelligente&#8221;. <\/p>\n\n\n\n<p>\u201cDire non solo ci\u00f2 che \u00e8, \u00e8 stato e sar\u00e0 il caso, ma anche ci\u00f2 che non \u00e8 il caso e ci\u00f2 che pu\u00f2 o non pu\u00f2 essere il caso, significa descrivere e prevedere. Sono parti necessarie per capire cosa significa qualcosa, il che \u00e8 un segno di vera saggezza.<\/p>\n\n\n\n<p>Chomsky dice che il cervello umano \u00e8 fatto per \u201ccostruire spiegazioni\u201d piuttosto che &#8220;inferire correlazioni brute&#8221;.<\/p>\n\n\n\n<p>Ci\u00f2 significa che pu\u00f2 utilizzare le informazioni per giungere a conclusioni nuove e penetranti.<\/p>\n\n\n\n<p>&#8220;La mente umana \u00e8 un sistema che funziona con piccole quantit\u00e0 di informazioni in modo sorprendentemente efficiente e persino elegante&#8221;.<\/p>\n\n\n\n<p>L\u2019intelligenza artificiale non pu\u00f2 pensare in modo critico e iterativo, quindi autocensura ci\u00f2 che dice.<\/p>\n\n\n\n<p class=\"has-large-font-size\"><strong>Pause Giant AI Experiments: An Open Letter<\/strong><\/p>\n\n\n\n<p>La recente lettera aperta <span style=\"text-decoration: underline\"> &#8220;<a href=\"https:\/\/futureoflife.org\/open-letter\/pause-giant-ai-experiments\/\" target=\"_blank\" rel=\"noreferrer noopener\">Pause Giant AI Experiments<\/a>&#8221; <\/span> diffusa il 23 marzo 2023 dal Future of Life Insitute (che ha superato le 33000 firme di adesione) recita:<\/p>\n\n\n\n<p><strong>I sistemi di intelligenza artificiale dotati di intelligenza competitiva umana possono comportare profondi rischi per la societ\u00e0 e l&#8217;umanit\u00e0<\/strong>, come dimostrato da ricerche approfondite e riconosciuto dai migliori laboratori di intelligenza artificiale. Come affermato nei Principi Asilomar AI, ampiamente approvati, l\u2019IA avanzata potrebbe rappresentare un profondo cambiamento nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cure e risorse adeguate. Sfortunatamente, questo livello di pianificazione e gestione non si sta verificando, anche se gli ultimi mesi hanno visto i laboratori di intelligenza artificiale impegnati in una corsa fuori controllo per sviluppare e implementare menti digitali sempre pi\u00f9 potenti che nessuno, nemmeno i loro creatori, pu\u00f2 comprendere. prevedere o controllare in modo affidabile.<\/p>\n\n\n\n<p>I sistemi di intelligenza artificiale contemporanei stanno diventando competitivi tra gli esseri umani in compiti generali, e dobbiamo chiederci: dovremmo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsit\u00e0? Dovremmo automatizzare tutti i lavori, compresi quelli appaganti? Dovremmo sviluppare menti non umane che alla fine potrebbero superarci in numero, in astuzia, obsolete e sostituirci? Dovremmo rischiare di perdere il controllo della nostra civilt\u00e0? Tali decisioni non devono essere delegate a leader tecnologici non eletti. Potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando avremo la certezza che i loro effetti saranno positivi e i loro rischi gestibili. Questa fiducia deve essere ben giustificata e aumentare con l&#8217;entit\u00e0 degli effetti potenziali di un sistema. La recente dichiarazione di OpenAI sull&#8217;intelligenza generale artificiale afferma che &#8220;Ad un certo punto, potrebbe essere importante ottenere una revisione indipendente prima di iniziare ad addestrare i sistemi futuri, e per gli sforzi pi\u00f9 avanzati concordare di limitare il tasso di crescita del calcolo utilizzato per creare nuovi Modelli.&#8221; Siamo d&#8217;accordo. Quel punto \u00e8 adesso.<\/p>\n\n\n\n<p>Pertanto, invitiamo tutti i laboratori di intelligenza artificiale a sospendere immediatamente per almeno 6 mesi l&#8217;addestramento dei sistemi di intelligenza artificiale pi\u00f9 potenti di GPT-4. Questa pausa dovrebbe essere pubblica e verificabile e includere tutti gli attori chiave. Se tale pausa non pu\u00f2 essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria.<\/p>\n\n\n\n<p>I laboratori di intelligenza artificiale e gli esperti indipendenti dovrebbero sfruttare questa pausa per sviluppare e implementare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo avanzati di intelligenza artificiale che sono rigorosamente controllati e supervisionati da esperti esterni indipendenti. Questi protocolli dovrebbero garantire che i sistemi che vi aderiscono siano sicuri oltre ogni ragionevole dubbio.[4] Ci\u00f2 non significa una pausa nello sviluppo dell\u2019intelligenza artificiale in generale, ma semplicemente un passo indietro dalla pericolosa corsa verso modelli sempre pi\u00f9 grandi, imprevedibili e a scatola nera con capacit\u00e0 emergenti.<\/p>\n\n\n\n<p>La ricerca e lo sviluppo dell\u2019intelligenza artificiale dovrebbero essere riorientati per rendere i sistemi potenti e all\u2019avanguardia di oggi pi\u00f9 accurati, sicuri, interpretabili, trasparenti, robusti, allineati, affidabili e leali.<\/p>\n\n\n\n<p>Parallelamente, gli sviluppatori di intelligenza artificiale devono collaborare con i politici per accelerare notevolmente lo sviluppo di solidi sistemi di governance dell\u2019intelligenza artificiale. Questi dovrebbero come minimo includere: autorit\u00e0 di regolamentazione nuove e capaci dedicate all\u2019IA; supervisione e monitoraggio di sistemi di intelligenza artificiale altamente efficienti e ampi pool di capacit\u00e0 computazionali; sistemi di provenienza e filigrana per aiutare a distinguere il reale dal sintetico e per tenere traccia delle fughe di dati del modello; un solido ecosistema di audit e certificazione; responsabilit\u00e0 per danni causati dall\u2019IA; robusti finanziamenti pubblici per la ricerca tecnica sulla sicurezza dell\u2019IA; e istituzioni dotate di risorse adeguate per far fronte ai drammatici sconvolgimenti economici e politici (soprattutto per la democrazia) che l\u2019intelligenza artificiale causer\u00e0.<\/p>\n\n\n\n<p>L\u2019umanit\u00e0 pu\u00f2 godere di un futuro fiorente grazie all\u2019intelligenza artificiale. Dopo essere riusciti a creare potenti sistemi di intelligenza artificiale, ora possiamo goderci un\u2019\u201cestate dell\u2019intelligenza artificiale\u201d in cui raccoglieremo i frutti, progettiamo questi sistemi a beneficio di tutti e diamo alla societ\u00e0 la possibilit\u00e0 di adattarsi. La societ\u00e0 ha messo in pausa altre tecnologie con effetti potenzialmente catastrofici sulla societ\u00e0. Possiamo farlo qui. Godiamoci una lunga estate AI, non precipitiamoci impreparati in un autunno.<\/p>\n\n\n\n<p>Quanto sopra \u00e8 da integrare con <span style=\"text-decoration: underline\"> &#8220;<a href=\"https:\/\/futureoflife.org\/wp-content\/uploads\/2023\/04\/FLI_Policymaking_In_The_Pause.pdf\" target=\"_blank\" rel=\"noreferrer noopener\">Policymaking in the Pause &#8211; What can policymakers do now to combat risks from advanced AI systems?<\/a>&#8221; <\/span><\/p>\n\n\n\n<p class=\"has-large-font-size\"><strong>I timori sono fondati o addirittura \u00e8 troppo tardi?<\/strong><\/p>\n\n\n\n<p>Nei dibattiti recenti in merito ai timori legati alle enormi potenzialit\u00e0 dell&#8217;AI sorge spontaneo domandarsi un punto cruciale nella valutazione delle opinioni espresse da figure di spicco nel campo dell&#8217;intelligenza artificiale, come Max Tegmark, Nick Bostrom, Ray Kurzweil, Elon Musk, Sam Altman, Yann LeCun, Geoffrey Hinton e altri. Questi individui hanno un ruolo influente nell&#8217;industria digitale e nell&#8217;evoluzione dell&#8217;IA, e le loro opinioni possono avere un impatto significativo sull&#8217;opinione pubblica e sulle politiche di sviluppo tecnologico.<\/p>\n\n\n\n<p>La questione dell&#8217;<strong>imparzialit\u00e0 e della presenza di potenziali conflitti di interesse<\/strong> \u00e8 complessa. Da un lato, \u00e8 vero che per questi individui, il progresso nell&#8217;IA \u00e8 intrinsecamente legato al successo professionale e finanziario. Lavorando direttamente nell&#8217;industria dell&#8217;IA, possono beneficiare personalmente e professionalmente dai progressi in questo campo. Questo legame potrebbe potenzialmente influenzare le loro opinioni, rendendole pi\u00f9 favorevoli verso lo sviluppo e l&#8217;adozione dell&#8217;IA, anche quando ci sono rischi o questioni etiche da considerare.<\/p>\n\n\n\n<p>In definitiva, mentre \u00e8 importante essere consapevoli dei potenziali conflitti di interesse e delle motivazioni personali, \u00e8 anche essenziale valutare le dichiarazioni e le opinioni di queste figure nel contesto pi\u00f9 ampio del loro lavoro e delle loro conoscenze. Spesso, possono offrire intuizioni preziose basate su anni di esperienza e ricerca nel campo.<\/p>\n\n\n\n<p>Tuttavia, \u00e8 altrettanto cruciale considerare una variet\u00e0 di prospettive, incluse quelle di esperti indipendenti, filosofi, etici e altri professionisti che possono offrire diverse angolazioni e critiche sulla crescita e l&#8217;impiego dell&#8217;IA nella societ\u00e0.<\/p>\n\n\n\n<p class=\"has-large-font-size\"><strong>Il timore \u00e8 che se gli allarmi sollevati da esperti indipendenti sono particolarmente fondati allora c&#8217;\u00e8 da preoccuparsi veramente<\/strong><\/p>\n\n\n\n<p>Eliezer Yudkowsky \u00e8 un teorico delle decisioni statunitense e conduce la ricerca presso il Machine Intelligence Research Institute. Lavora all&#8217;allineamento dell&#8217;intelligenza generale artificiale dal 2001 ed \u00e8 ampiamente considerato uno dei fondatori del settore.<\/p>\n\n\n\n<p>Nel suo appello sul TIME del 29 marzo 2023 <span style=\"text-decoration: underline\"> &#8220;<a href=\"https:\/\/time.com\/6266923\/ai-eliezer-yudkowsky-open-letter-not-enough\/\" target=\"_blank\" rel=\"noreferrer noopener\">Pausing AI Developments Isn\u2019t Enough. We Need to Shut it All Down<\/a>&#8221; <\/span> scrive:<\/p>\n\n\n\n<p>Nota: il testo seguente \u00e8 virgolettato (\u00ab \u00bb) in quanto traduzione dell&#8217;articolo citato.<\/p>\n\n\n\n<p>\u00abUna lettera aperta pubblicata oggi chiede che \u201ctutti i laboratori di intelligenza artificiale sospendano immediatamente per almeno 6 mesi l\u2019addestramento dei sistemi di intelligenza artificiale pi\u00f9 potenti di GPT-4\u201d.\u00bb<\/p>\n\n\n\n<p>\u00abQuesta moratoria di 6 mesi sarebbe meglio di nessuna moratoria. Ho rispetto per tutti coloro che si sono fatti avanti e l\u2019hanno firmato. \u00c8 un miglioramento sul margine.\u00bb<\/p>\n\n\n\n<p>\u00abMi sono astenuto dal firmare perch\u00e9 ritengo che la lettera sottovaluti la gravit\u00e0 della situazione e chieda troppo poco per risolverla.\u00bb<\/p>\n\n\n\n<p>\u00ab\u00abLa questione chiave non \u00e8 l\u2019intelligenza \u201ccompetitiva umana\u201d (come afferma la lettera aperta); \u00e8 ci\u00f2 che accade quando l\u2019intelligenza artificiale raggiunge un\u2019intelligenza pi\u00f9 intelligente di quella umana. Le soglie chiave potrebbero non essere ovvie, sicuramente non possiamo calcolare in anticipo cosa succede e quando, e attualmente sembra immaginabile che un laboratorio di ricerca attraversi le linee critiche senza accorgersene.\u00bb<\/p>\n\n\n\n<p>\u00abMolti ricercatori immersi in questi problemi, me compreso, si aspettano che il risultato pi\u00f9 probabile della costruzione di un\u2019intelligenza artificiale sovrumana, in qualcosa di lontanamente simile alle circostanze attuali, sia che letteralmente tutti sulla Terra moriranno. Non come in \u201cforse qualche remota possibilit\u00e0\u201d, ma come in \u201cquesta \u00e8 la cosa ovvia che accadrebbe\u201d. Non \u00e8 che non puoi, in linea di principio, sopravvivere creando qualcosa di molto pi\u00f9 intelligente di te; \u00e8 che richiederebbe precisione, preparazione e nuove intuizioni scientifiche, e probabilmente non avere sistemi di intelligenza artificiale composti da giganteschi e imperscrutabili array di numeri frazionari.\u00bb<\/p>\n\n\n\n<p>\u00abSenza tale precisione e preparazione, il risultato pi\u00f9 probabile \u00e8 che l\u2019intelligenza artificiale non faccia ci\u00f2 che vogliamo e non si prenda cura di noi n\u00e9 della vita senziente in generale. Questo tipo di attenzione \u00e8 qualcosa che in linea di principio potrebbe essere integrato in un\u2019intelligenza artificiale, ma non siamo pronti e al momento non sappiamo come.\u00bb<\/p>\n\n\n\n<p>\u00abIn assenza di questa preoccupazione, otteniamo che \u201cl\u2019intelligenza artificiale non ti ama, n\u00e9 ti odia, e sei fatto di atomi che pu\u00f2 usare per qualcos\u2019altro\u201d.\u00bb<\/p>\n\n\n\n<p>\u00abIl probabile risultato dell\u2019umanit\u00e0 che affronta un\u2019intelligenza sovrumana contrastata \u00e8 una perdita totale. Metafore valide includono \u201cun bambino di 10 anni che cerca di giocare a scacchi contro Stoccafisso 15\u201d, \u201cl\u2019XI secolo che cerca di combattere il 21\u00b0 secolo\u201d e \u201cL\u2019Australopiteco che cerca di combattere l\u2019Homo sapiens\u201d.\u00bb<\/p>\n\n\n\n<p>\u00abPer visualizzare un\u2019intelligenza artificiale sovrumana ostile, non immaginare un pensatore intelligente e senza vita che dimora in Internet e invia e-mail con cattive intenzioni. Visualizza un&#8217;intera civilt\u00e0 aliena, che pensa a milioni di volte la velocit\u00e0 umana, inizialmente confinata nei computer, in un mondo di creature che sono, dal suo punto di vista, molto stupide e molto lente. Un\u2019intelligenza artificiale sufficientemente intelligente non rimarr\u00e0 confinata a lungo nei computer. Nel mondo di oggi \u00e8 possibile inviare tramite e-mail stringhe di DNA ai laboratori che produrranno proteine \u200b\u200bsu richiesta, consentendo a un\u2019intelligenza artificiale inizialmente confinata su Internet di costruire forme di vita artificiale o di avviare direttamente la produzione molecolare postbiologica.\u00bb<\/p>\n\n\n\n<p>\u00abSe qualcuno costruisse un\u2019intelligenza artificiale troppo potente, nelle condizioni attuali, mi aspetto che ogni singolo membro della specie umana e tutta la vita biologica sulla Terra muoiano poco dopo.\u00bb<\/p>\n\n\n\n<p>\u00abNon esiste un piano proposto su come potremmo fare una cosa del genere e sopravvivere. L\u2019intenzione apertamente dichiarata di OpenAI \u00e8 quella di fare in modo che qualche futura intelligenza artificiale esegua i nostri compiti di allineamento dell\u2019IA. Il solo fatto di sapere che questo \u00e8 il piano dovrebbe essere sufficiente per mandare nel panico qualsiasi persona sensata. L\u2019altro importante laboratorio di intelligenza artificiale, DeepMind, non ha alcun piano.\u00bb<\/p>\n\n\n\n<p>\u00abUna nota a parte: nessuno di questi pericoli dipende dal fatto che le IA siano o possano essere coscienti; \u00e8 intrinseco alla nozione di potenti sistemi cognitivi che ottimizzano duramente e calcolano risultati che soddisfano criteri di risultato sufficientemente complicati.\u00bb<\/p>\n\n\n\n<p>\u00abDetto questo, sarei negligente nei miei doveri morali di essere umano se non menzionassi anche che non abbiamo idea di come determinare se i sistemi di intelligenza artificiale sono consapevoli di se stessi, dal momento che non abbiamo idea di come decodificare tutto ci\u00f2 che va nelle gigantesche schiere imperscrutabili &#8211; e quindi a un certo punto potremmo inavvertitamente creare menti digitali che sono veramente consapevoli e dovrebbero avere diritti e non dovrebbero essere possedute.\u00bb<\/p>\n\n\n\n<p>\u00abLa regola che la maggior parte delle persone consapevoli di questi problemi avrebbe approvato 50 anni prima, era che se un sistema di intelligenza artificiale pu\u00f2 parlare fluentemente e affermare di essere autocosciente e rivendicare i diritti umani, ci\u00f2 dovrebbe essere un duro freno per le persone che possiedono semplicemente quell&#8217;intelligenza artificiale. e usarlo oltre quel punto. Abbiamo gi\u00e0 oltrepassato quella vecchia linea nella sabbia. E probabilmente era corretto; Sono d&#8217;accordo sul fatto che le attuali IA probabilmente stanno semplicemente imitando il discorso sull&#8217;autoconsapevolezza dai loro dati di addestramento. Ma sottolineo che, con la scarsa conoscenza che abbiamo degli interni di questi sistemi, in realt\u00e0 non lo sappiamo.\u00bb<\/p>\n\n\n\n<p>\u00abSe questo \u00e8 il nostro stato di ignoranza per GPT-4, e GPT-5 ha la stessa dimensione di un enorme passo in avanti da GPT-3 a GPT-4, penso che non saremo pi\u00f9 in grado di dire in modo giustificato &#8216;probabilmente non auto-aware\u201d se lasciamo che le persone realizzino GPT-5. Sar\u00e0 semplicemente \u201cNon lo so; nessuno sa.&#8217; Se non puoi essere sicuro di creare un&#8217;intelligenza artificiale autoconsapevole, questo \u00e8 allarmante non solo per le implicazioni morali della parte &#8216;autoconsapevole&#8217;, ma perch\u00e9 essere incerto significa che non hai idea di cosa stai facendo e questo \u00e8 pericoloso e dovresti fermarti.\u00bb<\/p>\n\n\n\n<p>\u00abCi sono voluti pi\u00f9 di 60 anni tra il momento in cui il concetto di Intelligenza Artificiale \u00e8 stato proposto e studiato per la prima volta e il raggiungimento delle capacit\u00e0 odierne. Risolvere la questione della sicurezza dell\u2019intelligenza sovrumana \u2013 non una sicurezza perfetta, sicurezza nel senso di \u201cnon uccidere letteralmente tutti\u201d \u2013 potrebbe ragionevolmente richiedere almeno la met\u00e0 di quel tempo. E il bello di provare questo con un&#8217;intelligenza sovrumana \u00e8 che se sbagli al primo tentativo, non imparerai dai tuoi errori, perch\u00e9 sei morto. L\u2019umanit\u00e0 non impara dagli errori, non si rispolvera e riprova, come in altre sfide che abbiamo superato nella nostra storia, perch\u00e9 non ci siamo pi\u00f9.\u00bb<\/p>\n\n\n\n<p>\u00abCercare di ottenere qualcosa di giusto al primo tentativo veramente critico \u00e8 una sfida straordinaria, nella scienza e nell&#8217;ingegneria. Non arriveremo con nulla di simile all\u2019approccio che sarebbe necessario per farlo con successo.<strong> Se nel nascente campo dell\u2019intelligenza artificiale generale rispettassimo gli standard minori di rigore ingegneristico applicati a un ponte destinato a trasportare un paio di migliaia di automobili, l\u2019intero campo verrebbe chiuso domani<\/strong>.\u00bb<\/p>\n\n\n\n<p>\u00ab<strong>Non siamo preparati. Non siamo sulla buona strada per essere preparati in un intervallo di tempo ragionevole. Non esiste un piano. I progressi nelle capacit\u00e0 dell\u2019intelligenza artificiale sono molto, molto pi\u00f9 avanti dei progressi nell\u2019allineamento dell\u2019intelligenza artificiale o addirittura dei progressi nella comprensione di cosa diavolo sta succedendo all\u2019interno di quei sistemi. Se lo facciamo davvero, moriremo tutti<\/strong>.\u00bb<\/p>\n\n\n\n<p>\u00abMolti ricercatori che lavorano su questi sistemi pensano che stiamo precipitando verso una catastrofe, e molti di loro osano dirlo in privato che in pubblico; ma pensano di non poter fermare unilateralmente il crollo in avanti, che gli altri andranno avanti anche se loro stessi lasciassero il lavoro. E cos\u00ec tutti pensano che tanto vale andare avanti. Questo \u00e8 uno stato di cose stupido e un modo poco dignitoso per la Terra di morire, e il resto dell\u2019umanit\u00e0 dovrebbe intervenire a questo punto e aiutare l\u2019industria a risolvere il suo problema di azione collettiva.\u00bb<\/p>\n\n\n\n<p>\u00abAlcuni dei miei amici mi hanno recentemente riferito che quando persone esterne al settore dell\u2019intelligenza artificiale sentono per la prima volta parlare del rischio di estinzione derivante dall\u2019intelligenza artificiale generale, la loro reazione \u00e8 \u201cforse non dovremmo costruire l\u2019AGI, allora\u201d.\u00bb<\/p>\n\n\n\n<p>\u00abSentire questo mi ha dato un piccolo lampo di speranza, perch\u00e9 \u00e8 una reazione pi\u00f9 semplice, pi\u00f9 sensata e francamente pi\u00f9 sana di quella che ho sentito negli ultimi 20 anni cercando di convincere qualcuno nel settore a prendere le cose sul serio. Chiunque parli in questo modo merita di sapere quanto sia grave la situazione in realt\u00e0, e di non sentirsi dire che una moratoria di sei mesi risolver\u00e0 il problema.\u00bb<\/p>\n\n\n\n<p>\u00abIl 16 marzo il mio partner mi ha inviato questa email. (In seguito mi ha dato il permesso di estrarlo qui.)\u00bb<\/p>\n\n\n\n<p>\u00ab\u201cNina ha perso un dente! Come fanno abitualmente i bambini, non per disattenzione! Vedere GPT4 spazzare via quei test standardizzati lo stesso giorno in cui Nina ha raggiunto un traguardo importante nell&#8217;infanzia, ha provocato un&#8217;ondata emotiva che mi ha travolto per un minuto. Sta andando tutto troppo velocemente. Temo che condividere questo acuisca il tuo dolore, ma preferirei che tu mi conoscessi piuttosto che ognuno di noi soffrisse da solo.\u00bb<\/p>\n\n\n\n<p>\u00abQuando la conversazione interna riguarda il dolore di vedere tua figlia perdere il suo primo dente e pensare che non avr\u00e0 la possibilit\u00e0 di crescere, credo che abbiamo superato il punto di giocare a scacchi politici su una moratoria di sei mesi.\u00bb<\/p>\n\n\n\n<p>\u00abSe ci fosse un piano per la sopravvivenza della Terra, se solo superassimo una moratoria di sei mesi, sosterrei quel piano. Non esiste alcun piano del genere.\u00bb<\/p>\n\n\n\n<p>\u00abEcco cosa sarebbe effettivamente necessario fare:<\/p>\n\n\n\n<p>La moratoria sui nuovi grandi corsi di formazione deve essere indefinita e mondiale. Non possono esserci eccezioni, nemmeno per i governi o gli eserciti. Se la politica inizia con gli Stati Uniti, allora la Cina deve vedere che gli Stati Uniti non stanno cercando un vantaggio ma piuttosto cercando di impedire una tecnologia orribilmente pericolosa che non pu\u00f2 avere un vero proprietario e che uccider\u00e0 tutti negli Stati Uniti, in Cina e sulla Terra. . Se avessi una libert\u00e0 infinita di scrivere leggi, potrei ritagliare un\u2019unica eccezione per le IA addestrate esclusivamente a risolvere problemi di biologia e biotecnologia, non addestrate su testi provenienti da Internet, e non al livello in cui iniziano a parlare o pianificare; ma se ci\u00f2 complicasse anche lontanamente la questione, accantonerei immediatamente la proposta e direi di chiudere tutto.\u00bb<\/p>\n\n\n\n<p>\u00abSpegni tutti i grandi cluster GPU (le grandi aziende di computer in cui vengono perfezionate le IA pi\u00f9 potenti). Interrompi tutti i grandi percorsi di allenamento. Stabilire un tetto alla quantit\u00e0 di potenza di calcolo che chiunque pu\u00f2 utilizzare nell\u2019addestramento di un sistema di intelligenza artificiale e spostarlo verso il basso nei prossimi anni per compensare algoritmi di addestramento pi\u00f9 efficienti. Nessuna eccezione per governi ed eserciti. Stringere accordi multinazionali immediati per evitare che le attivit\u00e0 vietate si spostino altrove. Tieni traccia di tutte le GPU vendute. Se l\u2019intelligence dice che un paese al di fuori dell\u2019accordo sta costruendo un cluster GPU, si dovrebbe avere meno paura di uno scontro a fuoco tra nazioni che della violazione della moratoria; essere disposto a distruggere un data center canaglia con un attacco aereo.\u00bb<\/p>\n\n\n\n<p>\u00abNon inquadrate nulla come un conflitto tra interessi nazionali, abbiate ben chiaro che chiunque parli di corsa agli armamenti \u00e8 un pazzo. Che tutti viviamo o moriamo come uno, in questo, non \u00e8 una politica ma un fatto della natura. Rendere esplicito nella diplomazia internazionale che prevenire scenari di estinzione dell\u2019IA \u00e8 considerato una priorit\u00e0 rispetto alla prevenzione di uno scambio nucleare completo e che i paesi nucleari alleati sono disposti a correre qualche rischio di scambio nucleare se questo \u00e8 ci\u00f2 che serve per ridurre il rischio di grandi cicli di addestramento dell\u2019IA.\u00bb<\/p>\n\n\n\n<p>\u00abQuesto \u00e8 il tipo di cambiamento di politica che porterebbe io e il mio partner a stringerci l\u2019un l\u2019altro e a dirci l\u2019un l\u2019altro che \u00e8 accaduto un miracolo, e ora c\u2019\u00e8 la possibilit\u00e0 che forse Nina sopravviva. Le persone sane che sentono parlare di questo per la prima volta e dicono sensatamente \u201cforse non dovremmo\u201d meritano di sentire, onestamente, cosa ci vorrebbe perch\u00e9 ci\u00f2 accada. E quando la vostra richiesta politica \u00e8 cos\u00ec ampia, l\u2019unico modo per farcela \u00e8 che i politici si rendano conto che se continuano a condurre gli affari come al solito e fanno ci\u00f2 che \u00e8 politicamente facile, ci\u00f2 significa che anche i loro stessi figli moriranno.\u00bb<\/p>\n\n\n\n<p>\u00abChiudi tutto.\u00bb<\/p>\n\n\n\n<p>\u00abNon siamo pronti. Non siamo sulla buona strada per essere significativamente pi\u00f9 pronti nel prossimo futuro. Se andiamo avanti su questa strada moriranno tutti, compresi i bambini che non hanno scelto questa decisione e non hanno fatto nulla di male.\u00bb<\/p>\n\n\n\n<p>\u00abChiudi tutto.\u00bb<\/p>\n\n\n\n<p class=\"has-large-font-size\"><strong>Conclusioni (forse)<\/strong><\/p>\n\n\n\n<p>In questi scenari sinceramente non \u00e8 facile avere idee chiare ma sicuramente i timori espressi da pi\u00f9 fonti hanno solide basi e fondamenta che, conditi con gli enormi interessi in gioco (sovranazionali e a livello planetario), rendono enormemente delicata la questione e fondati i timori sui futuri sviluppi.<\/p>\n\n\n\n<p>Verrebbe da fare un parallelo con le difficolt\u00e0 e contraddizioni sulle strade da seguire per gestire i cambiamenti climatici: in quel caso vediamo enormi difficolt\u00e0 a trovare accordo a livello planetario per avere un approccio comune e, purtroppo, viene da avere non molte speranze sul fronte AI dove gli interessi economici probabilmente diventeranno ancora pi\u00f9 enormi rispetto ai combustibili fossili\u2026<\/p>\n","protected":false},"excerpt":{"rendered":"<p>&#8220;AI generativa&#8221; si riferisce a sistemi di intelligenza artificiale che sono in grado di generare nuovi contenuti, spesso in modi che imitano o simulano la creativit\u00e0 umana. Questi sistemi utilizzano varie tecniche di apprendimento automatico, in particolare reti neurali, per&#8230;<\/p>\n","protected":false},"author":3,"featured_media":4049,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"inline_featured_image":false,"_kadence_starter_templates_imported_post":false,"_kad_post_transparent":"","_kad_post_title":"","_kad_post_layout":"","_kad_post_sidebar_id":"","_kad_post_content_style":"","_kad_post_vertical_padding":"","_kad_post_feature":"","_kad_post_feature_position":"","_kad_post_header":false,"_kad_post_footer":false,"_kad_post_classname":"","footnotes":""},"categories":[94,95],"tags":[93,96,113,114,115,116],"class_list":["post-4045","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-artificial-intelligence","category-scenari","tag-ai-scenari","tag-ai","tag-noam-chomsky","tag-future-of-life-insitute","tag-eliezer-yudkowsky","tag-pause-giant-ai-experiments"],"_links":{"self":[{"href":"https:\/\/www.genesi-srl.com\/it\/wp-json\/wp\/v2\/posts\/4045","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.genesi-srl.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.genesi-srl.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.genesi-srl.com\/it\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/www.genesi-srl.com\/it\/wp-json\/wp\/v2\/comments?post=4045"}],"version-history":[{"count":13,"href":"https:\/\/www.genesi-srl.com\/it\/wp-json\/wp\/v2\/posts\/4045\/revisions"}],"predecessor-version":[{"id":4240,"href":"https:\/\/www.genesi-srl.com\/it\/wp-json\/wp\/v2\/posts\/4045\/revisions\/4240"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.genesi-srl.com\/it\/wp-json\/wp\/v2\/media\/4049"}],"wp:attachment":[{"href":"https:\/\/www.genesi-srl.com\/it\/wp-json\/wp\/v2\/media?parent=4045"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.genesi-srl.com\/it\/wp-json\/wp\/v2\/categories?post=4045"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.genesi-srl.com\/it\/wp-json\/wp\/v2\/tags?post=4045"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}