{"id":4005,"date":"2023-12-22T16:00:44","date_gmt":"2023-12-22T15:00:44","guid":{"rendered":"https:\/\/www.genesi-srl.com\/?p=4005"},"modified":"2024-01-23T17:33:59","modified_gmt":"2024-01-23T16:33:59","slug":"ai-il-cigno-nero-limpatto-dellaltamente-improbabile","status":"publish","type":"post","link":"https:\/\/www.genesi-srl.com\/it\/ai-il-cigno-nero-limpatto-dellaltamente-improbabile\/","title":{"rendered":"AI &#8211; Il cigno nero: l&#8217;impatto dell&#8217;altamente improbabile"},"content":{"rendered":"\n<p>La questione del &#8220;cigno nero&#8221; (Black Swan), un termine coniato da <span style=\"text-decoration: underline\"> <a href=\"https:\/\/en.wikipedia.org\/wiki\/Nassim_Nicholas_Taleb\" target=\"_blank\" rel=\"noreferrer noopener\">Nassim Nicholas Taleb <\/a><\/span>per descrivere eventi rari, imprevedibili ma di grande impatto, \u00e8 particolarmente rilevante nel contesto dei processi generativi dell&#8217;intelligenza artificiale (AI). Questi sistemi, che apprendono dalle distribuzioni statistiche dei dati, possono effettivamente tendere a trascurare o sottovalutare la possibilit\u00e0 di eventi altamente improbabili, come i cigni neri.<\/p>\n\n\n\n<p class=\"has-medium-font-size\"><strong>Tendenza alla Mediocrit\u00e0 Statistica<\/strong><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Bias di Conferma<\/strong> (*): I modelli AI, in particolare quelli basati sull&#8217;apprendimento automatico, tendono a generare risultati che sono consistenti con la maggior parte dei dati su cui sono stati addestrati. Questo pu\u00f2 portare a un bias di conferma, dove gli eventi pi\u00f9 frequenti sono sovrarappresentati rispetto a quelli meno probabili.<br><br>(*) In psicologia, il bias di conferma o pregiudizio di conferma (in inglese confirmation bias o confirmatory bias) \u00e8 quel bias cognitivo umano per il quale le persone tendono a muoversi entro un ambito delimitato dalle loro convinzioni acquisite, tentando di ricondurre a tale ambito qualsiasi situazione si trovino a sperimentare (<span style=\"text-decoration: underline\"> <a href=\"https:\/\/it.wikipedia.org\/wiki\/Bias_di_conferma\" target=\"_blank\" rel=\"noreferrer noopener\">Bias di conferma<\/a> <\/span>)<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Sottovalutazione di Eventi Rari<\/strong>: A causa della loro rarit\u00e0, gli eventi tipo cigno nero non sono ben rappresentati nei set di dati di addestramento, il che porta i modelli AI a sottovalutarne la probabilit\u00e0 o l&#8217;importanza.<\/li>\n<\/ul>\n\n\n\n<p class=\"has-medium-font-size\"><strong>Impatto dei Cigni Neri nella Modellazione AI<\/strong><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Incapacit\u00e0 di Prevedere l&#8217;Improvviso<\/strong>: Uno dei maggiori limiti dei modelli AI \u00e8 l&#8217;incapacit\u00e0 di prevedere o gestire eventi che non sono mai stati osservati prima o che sono estremamente rari.<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Rischi di Sovraottimizzazione<\/strong>: I modelli AI che sono eccessivamente ottimizzati per i dati esistenti possono essere particolarmente vulnerabili agli eventi cigno nero, poich\u00e9 mancano della flessibilit\u00e0 per adattarsi a scenari inaspettati.<\/li>\n<\/ul>\n\n\n\n<p class=\"has-medium-font-size\"><strong>Possibili Soluzioni e Approcci<\/strong><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Incorporare la heavy-tailed distributions <\/strong>(Teoria della Coda Pesante (*)): Utilizzare approcci statistici che danno maggiore peso agli eventi di coda, cio\u00e8 quelli rari ma ad alto impatto, potrebbe aiutare i modelli a considerare meglio la possibilit\u00e0 di cigni neri.<br><br>(*) Nella teoria della probabilit\u00e0, le distribuzioni a coda pesante sono distribuzioni di probabilit\u00e0 le cui code non sono limitate in modo esponenziale: cio\u00e8 hanno code pi\u00f9 pesanti della distribuzione esponenziale (<span style=\"text-decoration: underline\"> <a href=\"https:\/\/en.wikipedia.org\/wiki\/Heavy-tailed_distribution#:~:text=In%20probability%20theory%2C%20heavy-tailed,tails%20than%20the%20exponential%20distribution.\" target=\"_blank\" rel=\"noreferrer noopener\">Heavy-tailed distribution<\/a> <\/span>). <\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Apprendimento Basato su Scenari<\/strong>: Allenare i modelli AI su una variet\u00e0 di scenari, inclusi quelli improbabili o estremi, pu\u00f2 aumentare la loro capacit\u00e0 di gestire eventi inattesi.<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Monitoraggio Continuo e Aggiornamento dei Modelli<\/strong>: I sistemi AI dovrebbero essere continuamente monitorati e aggiornati per integrare nuove informazioni, compresi dati sugli eventi rari o inaspettati.<\/li>\n<\/ul>\n\n\n\n<p class=\"has-medium-font-size\"><strong>Conclusione<\/strong><\/p>\n\n\n\n<p>In definitiva, mentre la natura stessa degli eventi cigno nero li rende difficili da prevedere e gestire, \u00e8 importante che gli sviluppatori di sistemi AI siano consapevoli di questa limitazione e adottino approcci proattivi per mitigarne gli effetti. L&#8217;incorporazione della possibilit\u00e0 di eventi altamente improbabili e la creazione di modelli pi\u00f9 resilienti e adattabili possono aiutare a gestire il rischio associato a questi eventi imprevisti e ad alto impatto.<\/p>\n\n\n\n<p><\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity has-midnight-gradient-background has-background is-style-wide\" \/>\n\n\n\n<p class=\"has-small-font-size\"><\/p>\n\n\n\n<p class=\"has-large-font-size\">Appendice<\/p>\n\n\n\n<p class=\"has-small-font-size\"><\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity has-midnight-gradient-background has-background is-style-wide\" \/>\n\n\n<style>.kb-row-layout-id4005_a08e36-33 > .kt-row-column-wrap{align-content:start;}:where(.kb-row-layout-id4005_a08e36-33 > .kt-row-column-wrap) > .wp-block-kadence-column{justify-content:start;}.kb-row-layout-id4005_a08e36-33 > .kt-row-column-wrap{column-gap:var(--global-kb-gap-md, 2rem);row-gap:var(--global-kb-gap-md, 2rem);padding-top:var(--global-kb-spacing-sm, 1.5rem);padding-bottom:var(--global-kb-spacing-sm, 1.5rem);grid-template-columns:minmax(0, 1fr);}.kb-row-layout-id4005_a08e36-33 > .kt-row-layout-overlay{opacity:0.30;}@media all and (max-width: 1024px){.kb-row-layout-id4005_a08e36-33 > .kt-row-column-wrap{grid-template-columns:minmax(0, 1fr);}}@media all and (max-width: 767px){.kb-row-layout-id4005_a08e36-33 > .kt-row-column-wrap{grid-template-columns:minmax(0, 1fr);}}<\/style><div class=\"kb-row-layout-wrap kb-row-layout-id4005_a08e36-33 alignnone wp-block-kadence-rowlayout\"><div class=\"kt-row-column-wrap kt-has-1-columns kt-row-layout-equal kt-tab-layout-inherit kt-mobile-layout-row kt-row-valign-top\">\n<style>.kadence-column4005_93cf35-eb > .kt-inside-inner-col,.kadence-column4005_93cf35-eb > .kt-inside-inner-col:before{border-top-left-radius:0px;border-top-right-radius:0px;border-bottom-right-radius:0px;border-bottom-left-radius:0px;}.kadence-column4005_93cf35-eb > .kt-inside-inner-col{column-gap:var(--global-kb-gap-sm, 1rem);}.kadence-column4005_93cf35-eb > .kt-inside-inner-col{flex-direction:column;}.kadence-column4005_93cf35-eb > .kt-inside-inner-col > .aligncenter{width:100%;}.kadence-column4005_93cf35-eb > .kt-inside-inner-col:before{opacity:0.3;}.kadence-column4005_93cf35-eb{position:relative;}@media all and (max-width: 1024px){.kadence-column4005_93cf35-eb > .kt-inside-inner-col{flex-direction:column;justify-content:center;}}@media all and (max-width: 767px){.kadence-column4005_93cf35-eb > .kt-inside-inner-col{flex-direction:column;justify-content:center;}}<\/style>\n<div class=\"wp-block-kadence-column kadence-column4005_93cf35-eb\"><div class=\"kt-inside-inner-col\">\n<p><span style=\"text-decoration: underline\"><a href=\"https:\/\/www.tandfonline.com\/doi\/abs\/10.1198\/000313007X219996\" target=\"_blank\" rel=\"noreferrer noopener\"> Black Swans and the Domains of Statistics<\/a> <\/span><\/p>\n\n\n\n<p>Il testo seguente \u00e8 interamente &#8220;virgolettato&#8221; in quanto \u00e8 esclusivamente una serie di\u00a0 estratti del riferimento citato di Nassim Nicholas Taleb (<span style=\"text-decoration: underline\"> <a href=\"https:\/\/www.tandfonline.com\/doi\/abs\/10.1198\/000313007X219996\" target=\"_blank\" rel=\"noreferrer noopener\">https:\/\/www.tandfonline.com\/doi\/abs\/10.1198\/000313007X219996<\/a> <\/span> )<\/p>\n\n\n\n<p>\u00abIl cigno nero (The Black Swans) : l&#8217;impatto dell&#8217;altamente improbabile (da qui TBS) \u00e8 critico nei confronti delle statistiche, degli statistici o degli utenti delle statistiche solo in un insieme di circostanze molto ristretto (ma consequenziale).\u00bb<\/p>\n\n\n\n<p>\u00abTBS \u00e8 critico nei confronti di alcune statistiche nelle seguenti aree:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li>L&#8217;uso non rigoroso della statistica e il affidamento alla probabilit\u00e0 [in ambiti in cui i metodi attuali possono portarci a commettere errori consequenziali (&#8220;alto impatto&#8221;) dove, per motivi logici, dobbiamo sforzarci di diffidare delle inferenze sulle basse probabilit\u00e0<\/li>\n\n\n\n<li>Gli effetti psicologici dei numeri statistici nel ridurre la consapevolezza del rischio e nella sospensione di un sano scetticismo, nonostante l&#8217;inaffidabilit\u00e0 dei numeri prodotti riguardo ad eventi a bassa probabilit\u00e0.<\/li>\n\n\n\n<li>Infine, TBS \u00e8 critico nei confronti dell&#8217;uso di parametri standardizzati come &#8220;deviazione standard&#8221;, &#8220;rapporto di Sharpe&#8221;, &#8220;varianza media&#8221; e cos\u00ec via in &#8220;fat-tailed domains&#8221;&nbsp; in cui questi termini hanno poco significato pratico e dove la dipendenza da ci\u00f2 che non \u00e8 stato addestrato \u00e8 stato significativo, incontrollato e, ahim\u00e8, consequenziale.\u00bb<\/li>\n<\/ol>\n\n\n\n<p>\u00abVorrei riassumere gli obiettivi di TBS. Ci\u00f2 che uno dei revisori chiama &#8220;filosofia&#8221; (un termine che generalmente allude al carattere rigoroso di alcune attivit\u00e0 svolte nei dipartimenti di filosofia), forse a causa della mancanza di misure quantitative in TBS, tendo a chiamarlo &#8220;gestione del rischio&#8221;. .&#8221; Cio\u00e8, saggezza pratica e traduzione della conoscenza in un processo decisionale responsabile. Ancora una volta, per un professionista la \u201cfilosofia\u201d \u00e8, letteralmente, \u201csaggezza\u201d, non un discorso vuoto.\u00bb<\/p>\n\n\n\n<p>\u00abCome affermato direttamente in TBS, si tratta di come &#8220;non essere un idiota&#8221;. Lo scopo del mio libro \u00e8 &#8220;come evitare di essere il tacchino&#8221;. Non pu\u00f2 essere pi\u00f9 pratico (e meno \u201cfilosofico\u201d in senso accademico) di cos\u00ec.<\/p>\n\n\n\n<p>Di conseguenza, TBS intende fornire una tabella di marcia per affrontare gli eventi di coda esponendo aree in cui la nostra conoscenza pu\u00f2 essere considerata fragile e dove gli eventi di coda possono avere impatti estremi.<\/p>\n\n\n\n<p>Presenta metodi per evitare tali eventi evitando di avventurarsi in aree in cui la nostra conoscenza non \u00e8 rigorosa. In altre parole, offre un modo per vivere in sicurezza in un lavoro che non comprendiamo del tutto.Non si cade nella trappola di offrire un altro modello preciso per sostituire un altro modello preciso; piuttosto ti dice dove dovremmo avere il coraggio di dire &#8220;non so&#8221; o &#8220;so meno&#8221;.\u00bb<\/p>\n<\/div><\/div>\n\n<\/div><\/div>","protected":false},"excerpt":{"rendered":"<p>La questione del &#8220;cigno nero&#8221; (Black Swan), un termine coniato da Nassim Nicholas Taleb per descrivere eventi rari, imprevedibili ma di grande impatto, \u00e8 particolarmente rilevante nel contesto dei processi generativi dell&#8217;intelligenza artificiale (AI). Questi sistemi, che apprendono dalle distribuzioni&#8230;<\/p>\n","protected":false},"author":3,"featured_media":4012,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"inline_featured_image":false,"_kadence_starter_templates_imported_post":false,"_kad_post_transparent":"","_kad_post_title":"","_kad_post_layout":"","_kad_post_sidebar_id":"","_kad_post_content_style":"","_kad_post_vertical_padding":"","_kad_post_feature":"","_kad_post_feature_position":"","_kad_post_header":false,"_kad_post_footer":false,"_kad_post_classname":"","footnotes":""},"categories":[94],"tags":[102,103,104,96],"class_list":["post-4005","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-artificial-intelligence","tag-black-swans","tag-nassim-nicholas-taleb","tag-cigno-nero","tag-ai"],"_links":{"self":[{"href":"https:\/\/www.genesi-srl.com\/it\/wp-json\/wp\/v2\/posts\/4005","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.genesi-srl.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.genesi-srl.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.genesi-srl.com\/it\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/www.genesi-srl.com\/it\/wp-json\/wp\/v2\/comments?post=4005"}],"version-history":[{"count":6,"href":"https:\/\/www.genesi-srl.com\/it\/wp-json\/wp\/v2\/posts\/4005\/revisions"}],"predecessor-version":[{"id":4086,"href":"https:\/\/www.genesi-srl.com\/it\/wp-json\/wp\/v2\/posts\/4005\/revisions\/4086"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.genesi-srl.com\/it\/wp-json\/wp\/v2\/media\/4012"}],"wp:attachment":[{"href":"https:\/\/www.genesi-srl.com\/it\/wp-json\/wp\/v2\/media?parent=4005"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.genesi-srl.com\/it\/wp-json\/wp\/v2\/categories?post=4005"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.genesi-srl.com\/it\/wp-json\/wp\/v2\/tags?post=4005"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}