{"id":4032,"date":"2023-12-29T16:32:00","date_gmt":"2023-12-29T15:32:00","guid":{"rendered":"https:\/\/www.genesi-srl.com\/?p=4032"},"modified":"2024-01-23T17:33:07","modified_gmt":"2024-01-23T16:33:07","slug":"ai-il-cigno-nero-e-le-camere-delleco-futuri-rischi-e-scenari","status":"publish","type":"post","link":"https:\/\/www.genesi-srl.com\/it\/ai-il-cigno-nero-e-le-camere-delleco-futuri-rischi-e-scenari\/","title":{"rendered":"AI: il cigno nero e le camere dell&#8217;eco: futuri rischi e scenari"},"content":{"rendered":"\n<p>Una domanda molto pressante e attuale circola sempre pi\u00f9 spesso nei talk su AI e scenari futuri: cosa accadr\u00e0 a ChatGPT-{n} (ma anche a Bard, Mid Journey, Dall-E, Stable Diffusion, \u2026.), una volta che i modelli linguistici di grandi dimensioni (*) contribuiranno a fornire gran parte della lingua trovata online?<br>(*) Un modello linguistico di grandi dimensioni (LLM Large Language Model) \u00e8 un modello linguistico su larga scala che ha una notevole capacit\u00e0 di raggiungere la comprensione e la generazione del linguaggio per scopi generali.<\/p>\n\n\n\n<p>Le AI generative permettono di creare testi e immagini che hanno invaso il web: la proliferazione di questi contenuti per\u00f2, potrebbe creare un corto circuito su cui ricercatori di diversi paesi si stanno concentrando: il <strong><em>model collapse <\/em><\/strong>(vedi anche: <span style=\"text-decoration: underline\"> <a href=\"https:\/\/arxiv.org\/pdf\/2305.17493.pdf\" target=\"_blank\" rel=\"noreferrer noopener\">The Curse of Recursion: Training on Generated Data\u00a0 Makes Models Forget<\/a> <\/span>)<\/p>\n\n\n\n<p>Il crollo del modello (model collapse) \u00e8 un processo degenerativo che colpisce generazioni di <em>learned generative model<\/em>, in cui i dati generati finiscono per inquinare il set di addestramento della prossima generazione di modelli (che quindi percepiscono erroneamente la realt\u00e0 essendo addestrati su dati inquinati).&nbsp;<\/p>\n\n\n\n<p>Si tratta di un processo degenerativo nell&#8217;apprendimento che rischia di autoalimentarsi e di conseguenza produrre risultati statisticamente pi\u00f9 probabili e ridurre quelli meno probabili producendo un &#8220;appiattimento&#8221; che impoverisce enormemente la qualit\u00e0 della generazione dei contenuti.<\/p>\n\n\n\n<p>vedi anche:<\/p>\n\n\n\n<p><span style=\"text-decoration: underline\"> <strong><a href=\"https:\/\/www.genesi-srl.com\/ai-recursive-training-of-generative-models\/\" target=\"_blank\" rel=\"noreferrer noopener\">AI &#8211; Recursive Training of Generative Models<\/a><\/strong> <\/span><\/p>\n\n\n\n<p><span style=\"text-decoration: underline\"> <strong><a href=\"https:\/\/www.genesi-srl.com\/ai-model-collapse\/\" target=\"_blank\" rel=\"noreferrer noopener\">AI &#8211; Model Collapse<\/a><\/strong> <\/span> <\/p>\n\n\n\n<p class=\"has-medium-font-size\"><strong>Modelli Generativi &#8220;autofagi&#8221; sono destinati al disturbo MAD (Model Autophagy Disorder)<\/strong><\/p>\n\n\n\n<p>Come evidenziato in un recente studio ( <span style=\"text-decoration: underline\"> <a href=\"https:\/\/arxiv.org\/abs\/2307.01850\" target=\"_blank\" rel=\"noreferrer noopener\">Self-Consuming Generative Models Go MAD<\/a> <\/span>), senza dati reali sufficienti per ogni generazione, i futuri modelli generativi sono condannati al cosiddetto disturbo <strong>MAD<\/strong> (<strong>Model Autophagy Disorder<\/strong>), ovvero la loro qualit\u00e0 (misurata in termini di precisione) o la loro diversit\u00e0 (misurata in termini di richiamo) diminuiranno progressivamente e il degrado e gli artefatti generativi saranno amplificati.<\/p>\n\n\n\n<p>Uno scenario apocalittico \u00e8 che, se lasciato senza controllo per molte generazioni, il MAD potrebbe avvelenare la qualit\u00e0 dei dati e la diversit\u00e0 dell\u2019intera Internet.<\/p>\n\n\n\n<p>A parte ci\u00f2, sembra inevitabile che dall\u2019autofagia dell\u2019IA deriveranno conseguenze indesiderate finora invisibili anche nel breve termine<\/p>\n\n\n\n<p>Un altro recente paper (<span style=\"text-decoration: underline\"> <a href=\"https:\/\/arxiv.org\/abs\/2311.12202\" target=\"_blank\" rel=\"noreferrer noopener\">Nepotistically Trained Generative-AI Models Collapse<\/a> <\/span>) evidenzia che &#8220;un sistema di intelligenza artificiale generativa da testo a immagine basato sulla diffusione \u00e8 sorprendentemente vulnerabile all\u2019avvelenamento dei dati con le sue stesse creazioni.&#8221;<\/p>\n\n\n\n<p class=\"has-medium-font-size\"><strong>L&#8217;importanza del cigno nero (black swan)<\/strong><\/p>\n\n\n\n<p>Preservare la capacit\u00e0 degli LLM di modellare eventi a bassa probabilit\u00e0 \u00e8 essenziale per l\u2019equit\u00e0 delle loro previsioni:\u00a0 anche gli eventi a bassa probabilit\u00e0 sono vitali per comprendere i sistemi complessi [vedi la teoria del cigno nero (black swan):<span style=\"text-decoration: underline\"> <a href=\"https:\/\/it.wikipedia.org\/wiki\/Nassim_Nicholas_Taleb\" target=\"_blank\" rel=\"noreferrer noopener\">Nassim Nicholas Taleb<\/a> <\/span> &#8211; <span style=\"text-decoration: underline\"> <a href=\"https:\/\/www.tandfonline.com\/doi\/abs\/10.1198\/000313007X219996\" target=\"_blank\" rel=\"noreferrer noopener\">Black Swans and the Domains of Statistics<\/a> <\/span>]<\/p>\n\n\n\n<p>\u00ab&#8230; classico problema dell&#8217;induzione: fare affermazioni audaci sull&#8217;ignoto basate su presunte propriet\u00e0 del noto. Quindi (1) minore \u00e8 la probabilit\u00e0, maggiore \u00e8 la dimensione del campione necessaria per poter fare inferenze, e minore \u00e8 la probabilit\u00e0, maggiore \u00e8 l&#8217;errore relativo nella stima di questa probabilit\u00e0. (2) Tuttavia in questi domini, quanto minore \u00e8 la probabilit\u00e0, tanto pi\u00f9 consequenziale \u00e8 l&#8217;impatto dell&#8217;errore di probabilit\u00e0 assoluta sui momenti della distribuzione.\u00bb [Nassim Nicholas Taleb]<\/p>\n\n\n\n<p>La questione del &#8220;cigno nero&#8221; (black swan), un termine coniato da Nassim Nicholas Taleb per descrivere eventi rari, imprevedibili ma di grande impatto, \u00e8 particolarmente rilevante nel contesto dei processi generativi dell&#8217;intelligenza artificiale (AI). Questi sistemi, che apprendono dalle distribuzioni statistiche dei dati, possono effettivamente tendere a trascurare o sottovalutare la possibilit\u00e0 di eventi altamente improbabili, come i cigni neri.<\/p>\n\n\n\n<p>Inoltre basti pensare alle pi\u00f9 grandi scoperte della scienza quanto sono state realizzate grazie al contributo di veri geni che poi erano tali in quanto uscivano dagli schemi e trovavano prospettive nuove mai pensate prima (l&#8217;esatto opposto dell&#8217;appiattimento nel processo degenerativo nell&#8217;apprendimento).<\/p>\n\n\n\n<p>vedi anche <span style=\"text-decoration: underline\"> <a href=\"https:\/\/www.genesi-srl.com\/ai-il-cigno-nero-limpatto-dellaltamente-improbabile\" target=\"_blank\" rel=\"noreferrer noopener\">AI &#8211; Il cigno nero: l&#8217;impatto dell&#8217;altamente improbabile<\/a> <\/span><\/p>\n\n\n\n<p class=\"has-medium-font-size\"><strong>Le camere dell&#8217;eco (echo chamber)<\/strong><\/p>\n\n\n\n<p>L&#8217;apprendimento automatico \u00e8 ampiamente utilizzato nei sistemi di raccomandazione dei prodotti. Le decisioni prese da questi sistemi possono influenzare le convinzioni e le preferenze degli utenti che a loro volta influenzano il feedback ricevuto dal sistema di apprendimento, creando cos\u00ec un ciclo di feedback.<\/p>\n\n\n\n<p>Questo fenomeno pu\u00f2 dar luogo alle cosiddette \u201ccamere dell\u2019eco\u201d o \u201cbolle di filtro\u201d che hanno implicazioni sugli utenti e sulla societ\u00e0.<\/p>\n\n\n\n<p>Rilevante in questo senso il lavoro: <span style=\"text-decoration: underline\"> <a href=\"https:\/\/arxiv.org\/abs\/1902.10730\" target=\"_blank\" rel=\"noreferrer noopener\">Degenerate Feedback Loops in Recommender Systems<\/a> <\/span>)<\/p>\n\n\n\n<p>vedi anche:<\/p>\n\n\n\n<p><span style=\"text-decoration: underline\"> <strong><a href=\"https:\/\/www.genesi-srl.com\/ai-camere-delleco-e-le-bolle-di-filtro\/\" target=\"_blank\" rel=\"noreferrer noopener\">AI &#8211; &#8220;camere dell&#8217;eco&#8221; e le &#8220;bolle di filtro&#8221; <\/a><\/strong><\/span><\/p>\n\n\n\n<p><span style=\"text-decoration: underline\"> <strong><a href=\"https:\/\/www.genesi-srl.com\/ai-la-rilevanza-delle-camere-delleco-e-delle-bolle-di-filtro-nella-ai-generativa-llm-large-language-models\/\" target=\"_blank\" rel=\"noreferrer noopener\">AI \u2013 La rilevanza delle &#8220;camere dell&#8217;eco&#8221; e delle &#8220;bolle di filtro&#8221; nella AI generativa (LLM &#8211; Large Language Models)<\/a><\/strong> <\/span><\/p>\n\n\n\n<p class=\"has-medium-font-size\"><strong>La competizione aiuter\u00e0 l&#8217;AI a districarsi dai problemi o li amplificher\u00e0?<\/strong><\/p>\n\n\n\n<p>La domanda non \u00e8 solo retorica: la forte competizione negli scenari introdotti dall&#8217;AI spinge i principali player a fornire soluzioni veloci e immediate, anche se al momento potrebbero essere a discapito della qualit\u00e0.<\/p>\n\n\n\n<p>Vedi l&#8217;adozione, forse in alcuni casi prematura, di chatbot nei motori di ricerca che da una parte forniscono grossi vantaggi agli utenti ma dall&#8217;altro potrebbero amplificare i processi degenerativi sia nella generazione di risposte che non sono aderenti alla realt\u00e0 che nella formulazione di risposte che tendono ad escludere eventi poco probabili e a uniformarsi all&#8217;appiattimento generale.<\/p>\n\n\n\n<p>Inoltre anche i fruitori dei servizi dell&#8217;AI possono concorrere (anche inconsapevolmente) alla degenerazione dei modelli, sia perch\u00e9 li utilizzano senza senso critico e, magari per pigrizia, a voler sforzarsi di produrre un contenuto basato, almeno essenzialmente, sul proprio contributo.<\/p>\n\n\n\n<p>E&#8217; sicuramente una sfida che si presenter\u00e0 molto spesso nei futuri, se non gi\u00e0 attuali, scenari ed \u00e8 molto difficile prevedere come si potr\u00e0 sviluppare, anche considerando che l&#8217;esplosione di AI a livelli di massa come si vede oggi \u00e8 solo all&#8217;inizio e ci aspetta una crescita esponenziale degli sviluppi e, ahim\u00e8, dei potenziali problemi\u2026<\/p>\n\n\n\n<p>vedi anche: <span style=\"text-decoration: underline\"> <a href=\"https:\/\/www.genesi-srl.com\/la-competizione-tra-i-principali-player-aiutera-lai-a-districarsi-dai-problemi-o-li-amplifichera\/\" target=\"_blank\" rel=\"noreferrer noopener\">La competizione tra i principali Player aiuter\u00e0 l&#8217;AI a districarsi dai problemi o li amplificher\u00e0?<\/a> <\/span><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Una domanda molto pressante e attuale circola sempre pi\u00f9 spesso nei talk su AI e scenari futuri: cosa accadr\u00e0 a ChatGPT-{n} (ma anche a Bard, Mid Journey, Dall-E, Stable Diffusion, \u2026.), una volta che i modelli linguistici di grandi dimensioni&#8230;<\/p>\n","protected":false},"author":3,"featured_media":4034,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"inline_featured_image":false,"_kadence_starter_templates_imported_post":false,"_kad_post_transparent":"","_kad_post_title":"","_kad_post_layout":"","_kad_post_sidebar_id":"","_kad_post_content_style":"","_kad_post_vertical_padding":"","_kad_post_feature":"","_kad_post_feature_position":"","_kad_post_header":false,"_kad_post_footer":false,"_kad_post_classname":"","footnotes":""},"categories":[95,94],"tags":[99,100,101,104,107,111,117,96],"class_list":["post-4032","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-scenari","category-artificial-intelligence","tag-echo-chambers","tag-filter-bubbles","tag-llm","tag-cigno-nero","tag-model-collapse","tag-mad-model-autophagy-disorder","tag-recursive-training-of-generative-models","tag-ai"],"_links":{"self":[{"href":"https:\/\/www.genesi-srl.com\/it\/wp-json\/wp\/v2\/posts\/4032","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.genesi-srl.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.genesi-srl.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.genesi-srl.com\/it\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/www.genesi-srl.com\/it\/wp-json\/wp\/v2\/comments?post=4032"}],"version-history":[{"count":16,"href":"https:\/\/www.genesi-srl.com\/it\/wp-json\/wp\/v2\/posts\/4032\/revisions"}],"predecessor-version":[{"id":4082,"href":"https:\/\/www.genesi-srl.com\/it\/wp-json\/wp\/v2\/posts\/4032\/revisions\/4082"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.genesi-srl.com\/it\/wp-json\/wp\/v2\/media\/4034"}],"wp:attachment":[{"href":"https:\/\/www.genesi-srl.com\/it\/wp-json\/wp\/v2\/media?parent=4032"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.genesi-srl.com\/it\/wp-json\/wp\/v2\/categories?post=4032"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.genesi-srl.com\/it\/wp-json\/wp\/v2\/tags?post=4032"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}