Pagina Andreas Formiconi
Tecnologia Scuola Democrazia — pensieri e sperimentazioni Mi occupo di scuola perché mi sembra la cosa più importante. Tendo a rispondere a tutti.
Mi occupo di tecnologie perché mi viene naturale, data la formazione scientifica. Mi occupo di democrazia perché mi pare che sia gravemente in pericolo. Penso di poter imparare da tutti.
Un incidente che illustra bene la pericolosità delle allucinazioni dell’AI
--
Abbiamo già detto di natura e cause delle allucinazioni AI ma le spiegazioni valgono forse meno degli esempi.
Può succedere che ti venga la curiosità di vedere cosa sa di te un chatbot? Certo, pensiamo che sia un esercizio comune.
E può succedere di ve**re a sapere che sei un pedofilo nonché pericoloso criminale fuggito da un istituto psichiatrico? Ma dai, non esageriamo…
Invece sì, è successo recentemente al giornalista tedesco Martin Bernklau. La notizia è reperibile su numerose fonti.
Perfetto per documentare quanto avevamo spiegato:
l’AI generativa costruisce discorsi una parola dietro l’altra in base a mere affinità statistiche misurate negli spazi semantici in cui esse vengono collocate. Niente che abbia a che vedere con affinità semantiche.
Questo spiega nella fattispecie la cantonata presa da Copilot. Martin Bernklau è un giornalista che si occupa di questioni giudiziarie, quindi ha scritto di pedofili, spacciatori di droga e criminali d’ogni sorta ecc.
Copilot ha trasformato l’ovvia affinità statistica in falsa affinità semantica.
Tutto qui.
Come spiegarsi il profluvio di previsioni intorno alle magnifiche sorti e progressive dell’AI? Semplice. Le allucinazioni occorrono nella misura di qualche percento. Sta a significare che per trovarne una devo ripetere la stessa domanda almeno un centinaio di volte, meglio un po’ di più. Uno percento vuol dire quasi mai quindi l’impressione che ricevo è positiva. Ma quell’una volta su cento che capita può essere letale.
L’AI rappresenta un’opportunità fantastica ma la narrativa prodotta dagli oligopoli per ottenere i gargantueschi capitali di cui necessita è criminale.
Un incidente che illustra bene la pericolosità delle allucinazioni dell’AI Questo articolo fa parte di una sorta di Corso accelerato sull’AI — il link conduce a un indice aggiornato. Immagine creata da GPT 4o: “Ecco l’immagine di un giornalista che reagisce sotto sh…
Su Radio Radicale è disponibile la registrazione della mia intervista sull'AI condotta da Marco Cerrone
Puntini sull'AI - Marco Cerrone conversa con Andreas Formiconi Puntini sull'AI è uno spazio di informazione e riflessione critica sull'impatto che l'intelligenza artificiale ha nelle nostre vite quotidiane. Ogni episodio è un invito a scoprire un nuovo aspetto dell'IA, attraverso dialoghi con esperti che ci guideranno tra opportunità, sfide e innovazioni eme...
Radio Radicale Domenica 27 alle 18:15
--
Mia intervista sull’Intelligenza Artificiale per la trasmissione “I Puntini sull’AI”, a cura di Marco Cerrone
Digital Minds 2024 presso Federica Web Learning - super occasione per giovani laureati!
Digital Minds 2024 - Giovani menti per l’innovazione digitale Digital Minds è un career workshop organizzato da Federica Web Learning, rivolto a giovani laureati under 35. Scopri come partecipare
Ci ho pensato un po' perché non è elegante reiterare le proprie citazioni — di solito me ne astengo — ma il commento di Luciano Floridi è una sintesi perfetta della mia sintesi:
"... così la chiudiamo con il capitolo sci-fi e torniamo a fare scienza e imprenditoria"
https://is.gd/geb2yI
AI generativa, stato dell’arte, (fosche) previsioni — spero sbagliate ma a pensare male… Beh, volevo provare cosa tirava fuori GPT-4 chiedendo l’immagine di una persona sia affascinata che perplessa da questa nuova entità. Alla prima m’aveva fatto una cosa simile ma con un …
AI generativa, stato dell’arte, (fosche) previsioni — spero sbagliate ma a pensare male…
(leggere il post sul blog per link e abbellimenti grafici, qui solo testo tal quale.)
--
Una ex collega, Giovanna Danza, membro del Direttivo della Libera Università Valdisieve Valdarno, mi ha chiesto di dare un contributo sull’AI.
Discorrendo sul da fare è venuta fuori un’instantanea verace del punto a cui sono arrivato in questo percorso, che ho chiamato forse impropriamente Corso accelerato sull’AI — quando avrò capito cosa sto facendo troverò anche il nome. La riporto qui così com’è, in forma di lettera.
Dunque, devo (per colpa mia) fare un intervento secco su una materia che è diventata poliforme, gigantesca, controversa e soggetta a uno sviluppo mostruoso. Non passa giorno che non mi trovi a leggere un articolo imperdibile. Una breaking new al giorno, in sostanza, e quasi tutte effettivamente breaking. Un massacro (godurioso però).
Per affrontare questo gigante in due ore posso sperare di fare una cosa sola: disturbare. Non chiarire, non tranquillizzare, perché i primi ad essere confusi e preoccupati sono gli scienziati che la sviluppano, l’AI. Frankestein, né più né meno. O il bambino attonito di “Vango per passione”, dei Gatti Mezzi, dove c’è quello che gli dice: “Dé, bada che popo’ di buca t’ha fatto…”. E gli scienziati, non pochi di loro, dedicano cospicue energie a studiare questa buca e a capire come faccia il Frankestein che c’è dentro a tirarle fuori, quel cavolo di caratteristiche emergenti che loro manco ci avevano pensato!
Questo per dire il mood della chiacchera.
Per creare questa doccia scozzese la dividerei in due parti, circa 1/3 e 2/3.
1/3
Mostrare con due o tre esempi il mio entusiasmo per questo straordinaria conquista del pensiero scientifico. Far vedere che per uno specialista del calcolo scientifico sia come ritrovarsi finalmente nel Paese dei Balocchi, quello vero, dove i balocchi sono infiniti e sempre uno più bello del precedente.
Adopererò esempi nei quali uno che ha programmato computer da quarant’anni in una trentina di linguaggi diversi, su tutto il range di macchine possibili, dalle schede di calcolo per potenziare i PC ai supercomputer del Cineca, si ritrovi oggi a risolvere problemi software in una frazione del tempo (~1/5) grazie all’AI. Entusiasta al punto di starci in fissa, dialogante con una varietà di Chatbot (ChatGPT, Claude, DeepAI, Gemini, Copilot…) di cui uno programmato sul proprio computer usando un modello open source (Mistral). Mai divertito così tanto in un’attività che è sempre stata il mio massimo divertimento.
Riconoscerò l’estrema utilità dei metodi dell’AI quando ben sigillati (embedded) in funzionalità specifiche che stiamo già usando tutti a profusione da tempo.
Ma approfitterò per insinuare un po’ di dubbio, svelando come il calcolo scientifico fosse già da tempo anche un’arte — Numerical Recipes, The Art of Scientific Computing (Press, Teukolsky, Vetterling e Flannery, Cambridge University Press, 1986-1982) è il titolo del testo fondamentale per quelli che hanno fatto il mio mestiere. Perché i meravigliosi e perfetti concetti dell’analisi matematica diventano molto bizzosi se costretti nella finitezza di bit, byte e tempi umani. Insomma uno dei tanti aspetti di tutta la scienza del Novecento che ha scoperto l’incerto nel certo delle scienze, anche di quelle cosiddette esatte. E così si prepara il terreno per la seconda parte…
2/3-3/3
… ove (ri)scopriamo che vale l’induzione quanto la deduzione. Perché il lavoro dello specialista di AI è veramente sia arte che ingegneria, arte nel senso dell’artigiano, che ti dice che la calcina è pronta quando la betoneria (bidoniera dalle mie parti…) “canta”, o che di farina gialla ce ne devi buttare finché la zuppa ti “riempie l’occhio”. Perché è questo — un esempio fra tanti — quello che fanno gli ingegneri di OpenAI (o altri) quando aggiustano i parametri del sistema (Temperature, Top-P…) affinchè sia generativo (briachello…) al punto giusto.
Ma che c’è dentro l’AI? Niente. Pardon, volevo dire niente di “intelligente”, c’è solo statistica. Sofisticatissima statistica, meravigliose architetture informatiche, trasformatori magici che operano in labirinti di reti neurali. Ma nessun pensiero. Spieghiamo alla svelta come le parole (o parti di esse: token) siano immediatamente trasformate in posizioni (vettori) in spazi pluridimensionali — 4096 nel modello più sofisticato che sto usando. Una parola, “gatto” per esempio, diventa una collezione di 4096 numeri. Si chiamano spazi semantici ma le relazioni fra le parole non sono viste semanticamente ma solo in termini di vicinanza fra posizioni (vettori, per chi ha trascorsi matematici: la vicinanza semantica si calcola come prodotto scalare fra questi vettori, tanto più allineati, quanto alto il prodotto scalare e quindi più vicini).
E che ci fanno in questi spazi i Trasformatori Pre-istruiti Generativi (GPT: Generative Pretrained Transformer)? Una sola cosa: partendo da un testo ricevuto (input) indovinano (scelgono a caso fra un insieme di parole più probabili) la prossima parola. E basta, solo che ripetono ricorsivamente questo processo fino a formare un testo completo da mostrare (output). Ricorsivamente vuol dire che ogni nuova parola “indovinata” viene aggiunta al testo originario formando un nuovo input a partire dal quale “indovinare” la parola dopo e così via. Messaggio da portare a casa: zero intelligenza. Però funziona. Ma in contesti precisi, con vincoli precisi e molta attenzione umana, che spesso si risolve in maggiore impiego di tempo, non minore.
Ma non si sa come funziona! I lavori di reverse engineering, dove ci si arrampica a ritroso, a partire dagli strati di nodi (neuroni) più vicini all’output, a quelli più profondi verso l’input, sono innumerevoli. Ad esempio, “Do language models work in English?” si sono domandati alcuni ricercatori dell’EPFL nel febbraio scorso. Dove attraverso un’arrampicata di sesto grado verso gli strati di nodi profondi scoprono che per tradurre parole dal francese al cinese la mente artificiale passa dall’inglese! Che guarda caso predomina nel suo “sapere”: il 93% del corpus di parole usato per l’addestramento di GPT 3 era in inglese, il rimanente 7% in altre lingue. Da cui un altro problema: la colonizzazione culturale…
L’AI generativa è generativa ma banale, non creativa! L’implosione della conoscenza, titola un recente lavoro. Che è poi la posizione di Chomsky, che avvalla la sentenza Generative AI is autocompletion on steroids (T9 col turbo). Il motore dei Large Language Model è statistico, solo statistico. Quindi va sempre verso il probabile. La conoscenza umana cresce invece grazie alla ricerca dell’improbabile (induzione). La teoria della relatività generale di Einstein rende più accuratamente ragione della forza di gravità rispetto a quella di Newton, interpretandola come una curvatura dello spazio-tempo, ma non è certamente la spiegazione più probabile! Se popoli interi baseranno le loro azioni su uno strumento accentratore del pensiero, il rincretinimento globale è assicurato su un piatto d’argento.
L’AI dice bugie. Essì, ogni tanto le scappano ma lo fa cercando di non farsi scoprire: circa il 3-5% delle risposte sono “allucinazioni”. Molto difficili da scoprire in un mare di ragionevolezza. Si può cercare l’ago nel pagliaio ma si finisce col perdere, se non moltiplicare, il tempo guadagnato. Magari, se si è studenti per esempio, nel frattempo si approfondisce, e questo è bene. Ma in applicazioni critiche…
L’AI non può essere utilizzata in applicazioni critiche, dove l’errore non è concesso. Ad esempio nella diagnostica medica. Non può essere utilizzata in modo automatico, tale da sostituirsi al medico. Può invece essere usata dal medico come strumento di consultazione da usare in modo critico, per poi formulare in prima persona la diagnosi. Stesso discorso per la guida automatica. Non ci sarà mai un’automobile autonoma nel traffico odierno. Un recente articolo ha titolato “Elon Musk non ha capito l’AI”. Vero, pagherà le conseguenze (anche per altri motivi).
L’AI è insostenibile. Nelle previsioni di tutti i maggior attori del settore si parla di centrali nucleari dedicate alla produzione dell’energia richiesta dai prossimi modelli di linguaggio, si parla di un fabbisogno non inferiore a quello di una città di medie dimensioni (in America, dove si spreca tantissimo). Quindi, in collisione diretta con la transizione energetica con un’unica via di uscita: il nucleare. A meno che non si trovino algoritmi completamente diversi.
L’AI è un fallimento industriale. Non esistono ad oggi applicazioni industriali/aziendali significative dell’AI generativa. Quelli che ci hanno provato hanno fallito. Amazon per esempio, che poi è tornata all’antico. Siamo in regime di margini di miglioramento sempre più piccoli a fronte di investimenti in crescita esponenziale. Tipo raddoppio l’investimento per ottenere un miglioramento del 5%. Gli investitori (venture capital) si stanno stufando. Amano il rischio ma c’è un limite. OpenAI quest’anno ha perso 5 miliardi di dollari e ne sta chiedendo 6.5 per il prossimo. I prossimi passi, sulla via dell’aumento della potenza computazionale, unico propellente del pensiero artificiale, conducono alla bancarotta. Ma di dimensioni tali, a questo punto, da fare temere a molti un’altra recessione mondiale. Ciò nonostante i grandi attori, OpenAI, Alphabet, Meta, Apple, Tesla soprattutto (infatti Musk non ha capito l’AI) non possono più fermarsi: sono nel Tunnel di Dürrenmatt. Pagheremo tutti però.
L’AI è americana! È il tema della colonizzazione culturale, già accennato, ma, e anche di conseguenza non solo. Va di moda essere antiamericani. Io non lo sono per nulla perché alla cultura scientifica americana mi sono nutrito abbondantemente, ne sono intriso, sarei ipocrita a negarlo. Ma ciò non significa non vedere i problemi. E questo è l’elefante nella stanza. Qui si apre il discorso dell’open source. I modi ci sono ma occorre svegliarsi. Soprattutto dibattere meno (sapendo poco), studiare di più e intraprendere. Infine, per dar senso a ciò, discorsino telegrafico sul modello open source Mistral (francese) di cui s’era detto.
AI generativa, stato dell’arte, (fosche) previsioni — spero sbagliate ma a pensare male… Beh, volevo provare cosa tirava fuori GPT-4 chiedendo l’immagine di una persona sia affascinata che perplessa da questa nuova entità. Alla prima m’aveva fatto una cosa simile ma con un …
Posizione italiana: indole opportunista? Disinformazione? Ignoranza? Certo è che non si sanno usare tecnologie e fonti. Per quel che vale (conto nulla), m'ero messo a fare esempi di come mettere il naso fuori ma pochissimi escono dalle bolle social e no
Invasione russa – Andreas Formiconi Post su Invasione russa scritto da Andreas
Per trarre vantaggio dall’intelligenza artificiale è necessario comprenderne la stupidità
--
Recentemente mi è stato chiesto il titolo per un intervento che devo fare prossimamente. Ho scelto quello dato al presente articolo, dove cerco di spiegare proprio questo concetto. L’esempio matematico mi pare che faciliti l’intento. Magari al lettore è richiesta un po’ di pazienza ma dovrebbe bastare qualche ricordo di scuola secondaria.
Per trarre vantaggio dall’intelligenza artificiale è necessario comprenderne la stupidità L’articolo fa parte di una sorta di Corso accelerato sull’AI — il link conduce a un indice aggiornato. Recentemente mi è stato chiesto il titolo per un intervento che devo fare prossimamente. Ho sc…
Mi sono trovato nella necessità di realizzare una "lezione zero" per il laboratorio di tecnologie didattiche destinato agli studenti dei corsi di laurea in Scienze della Formazione Primaria.
Un laboratorio ormai ben collaudato (10 edizioni, 2000 studenti) dal quale derivano anche altri interventi che mi capita di fare nel mondo della scuola.
Le attività, le modalità di partecipazione e di valutazione in nove minuti.
Lezione zero per il Laboratorio di Tecnologie Didattiche a Scienze della Formazione Primaria Le attività, le modalità di partecipazione e di valutazione in 9 minuti
La narrazione dominante sull'AI è straordinariamente fuorviante e genera nel discorso pubblico una quantità di promesse e discussioni dissennate. Nell'articolo che ho pubblicato qualche giorno fa analizzavo una serie di problemi che ridimensionano molto le aspettative dell'AI, senza per questo disconoscerne le potenzialità affascinanti. Uno degli argomenti dell'articolo era la fuga dei capitali di rischio perché gli investitori iniziano a non vedere luce in fondo al tunnel. Ora potrebbero iniziare a ritirarsi anche gli investitori pubblici; intanto ha iniziato il governo britannico annullando l'investimento di 1.3 miliardi di sterline (1.5 miliardi di euro) allocato dal governo precedente. Ho aggiornato l'articolo conformemente.
Rivoluzione AI? Scarse tracce e notevoli preoccupazioni L’articolo fa parte di una sorta di Corso accelerato sull’AI — il link conduce a un indice aggiornato. Aggiornamento 18 agosto con la notizia del disimpegno del governo britannico dall’AI e u…
A cosa stai pensando Andreas?
A niente, niente che ti riguardi...
Jefferson Airplane -White Rabbit- http://mx.youtube.com/view_play_list?p=3FAD6DF689FC6C23Jefferson Airplane "White Rabbit" Live on The Smothers Brothers Comedy Hour.From the Dvd "Fly Jefferso...
Rivoluzione AI? Scarse tracce e notevoli preoccupazioni
---
Dicevamo che nella stampa specializzata si va avanti al ritmo di una breaking new al giorno in un susseguirsi frenetico di innovazioni e annunci epocali: nessuno scriverà più una riga di codice, dimenticate Excel, 15 modi per fare soldi con l’AI e via dicendo. Per non parlare dei corsi di AI applicata ad ogni angolo dello scibile. Ma il vento sta girando. Per dire: la corsa a modelli sempre più potenti sta generando risultati rapidamente decrescenti a fronte di costi in crescita esponenziale, i prossimi modelli richiederanno una quantità di energia incompatibile con la transizione energetica a meno che non si costruiscano apposite centrali nucleari, non esiste ad oggi un solo esempio di applicazione dell’AI su larga scala da parte di grandi aziende, il codice software prodotto dall’AI di norma non funziona, gli investitori iniziano a diffidare e le quotazioni delle maggiori aziende stanno crollando in misura proporzionale al coinvolgimento nell’AI.
Rivoluzione AI? Scarse tracce e notevoli preoccupazioni L’articolo fa parte di una sorta di Corso accelerato sull’AI — il link conduce a un indice aggiornato. Dicevamo che nella stampa specializzata si va avanti al ritmo di una breaking new al giorno in…
Alla ricerca dell’intelligenza… con una manopola o due
A proposito dell’architettura dei Generative Pre-trained Transformer (GPT) avevamo discusso della “temperatura”, parametro sbarazzino che ci aveva fatto ricordare l’effetto di un buon bicchiere di vino. Sbarazzino ma cruciale per la tanto decantata generatività del sistema.
In realtà i chatbot disponibili in rete non consentono di interve**re su temperatura o altri parametri. Questi sono sistemi aggiustati con valori intermedi per l’utente generico, che non ha tempo e voglia di imparare a tarare la macchina. Sono quindi proposti con valori intermedi, che non possono certo essere ottimali per tutte le circostanze. Tuttavia i chatbot possono essere guidati attraverso il prompt engineering, l’arte di fare domande, che dobbiamo ancora discutere. Quindi perché occuparsi di questi parametri? Per due motivi: da un lato per capire meglio il funzionamento dei chatbot, quindi per imparare a prenderli per quello che sono, dall’altro perché i Large Language Model (LLM) possono essere usati non solo attraverso i chatbot direttamente accessibili in rete ma anche da altre applicazioni; modalità che può interessare le organizzazioni, ad esempio le scuole, come vedremo in seguito..
Alla ricerca dell’intelligenza… con una manopola o due… L’articolo fa parte di una sorta di Corso accelerato sull’AI — il link conduce a un indice aggiornato. Sono debitore per i contenuti di questo post a Alejandro Piad Morffis, computer scientis…
Agosto 2017
La storia della Scuolina iniziò con Aly Makadji.
Aly prese la strada per il bosco e apparve a casa di Malò con un quaderno e una penna in mano:
— Voglio imparare l’italiano
Aly fu fra i primi di quei tredici che parlavano dieci lingue diverse.
Aly spiccava. Mi metteva in difficoltà, un po’ perché parlava un francese strano ma soprattutto perché oltrepassava a piè pari i miei pregiudizi. Saltava e me lo ritrovavo dall’altra parte, oltre. Avrà pensato che ero un po’ stupido. Forse aveva ragione. Le sue domande puntavano oltre ciò che mi pareva probabile.
Aly era fiero, spavaldo. Prendeva e andava, aveva da andare lui, sapeva dove andare. Non aveva tempo per orpelli. Veloce, capiva alla prima. Fra i primi a usare i computer riciclati con Linux.
Aly era malato. Non pareva proprio ma se ne accorse Elettra alla Scuolina:
— Perché vai di continuo in bagno?
Di lì a poco fu riacciuffato per un pelo. Alcune di noi lo assistettero all’ospedale per imparare a farsi la terapia e nei meandri della burocrazia sanitaria.
Aly imparò e continuò a andare alla sua maniera.
Aly sui presenta a casa mia con Salif e un obiettivo preciso:
— Noi vogliamo fare scuola privata, alla Scuolina c’è troppo casino.
Promettemmo di seguirli meglio.
— Quanti anni hai?
ci chiedeva Aly…
— Da noi tutti morti!
diceva ridendo come un matto.
Ciao Aly
Un grande cerchio Un grande cerchio: 13 ragazzi di Villa Viviana, di cui 4 nuovi, 23 “indigeni”, due ragazze woofer presso un’azienda agricola locale e il nostro don Martin. La volta scorsa eravamo…
Un chatbot può essere usato per una miriade di scopi, ognuno deve trovare la quadra per il caso suo. Qui mi concentro sull’uso scolastico, dove la questione non è se sia il caso di “fare usare l’AI ai ragazzi” oppure no. La usano, di fatto, e molto, per ricerca di informazioni e di spiegazioni. Si pone quindi l’imperativo di capirci qualcosa onde prendere il toro per le corna. Da questo articolo, un po’ noioso – mi dispiace, ma se non si va un po’ a fondo si rischia di parlare a vanvera – emerge che le prestazioni di questi sistemi sono indubbiamente sorprendenti e affascinanti ma fidarsene è un’altra cosa. Non possono essere usati alla stregua di fonti di informazioni, per via di variabilità delle risposte, vaghezza di talune costruzioni, contestualizzazioni errate, allucinazioni vere e proprie (panzane). Lasciati in mano agli studenti senza interve**re significa rinforzare ulteriormente il paradigma dell’apprendimento a pappagallo.
Faremo un confronto fra cinque chatbot: ChatGPT 4, Claude 3.5, Copilot, DeepAI e Gemini. Va tenuto presente che si tratta di un’istantanea. Il ritmo di rinnovamento di questi sistemi è vertiginoso: gli aggiornamenti che appaiono nella letteratura specializzata sono pressoché quotidiani.
Altro avvertimento importante: i risultati non sono riproducibili perché le risposte date dai chatbot sono tutte simili ma tutte diverse, eccetto il caso di Copilot (nei limiti delle mie prove) di cui diciamo dopo.
L’articolo è noioso ma il messaggio è semplice: chi vuole usare i chatbot sul serio deve darsi da fare, studiare e sperimentare. Quindi lavorare di più, non di meno…
Come difendersi dalle allucinazioni? Prendere le misure all’AI confrontando chatbot diversi Questo articolo fa parte di una sorta di Corso accelerato sull’AI — il link conduce a un indice aggiornato. Premessa Un chatbot può essere usato per una miriade di scopi, ognuno deve trovare la qua…
Come difendersi dalle allucinazioni? Prendere le misure all’AI con un podcast
In un articolo precedente avevo fatto un esempio su come prendere le misure all'AI ma era un po' specifico (Turtle geometry). Volendo invece proporre qualcosa di interesse più generale viene in mente una perla fra le tante che si perdono nei flutti del Web. Si tratta del podcast Scusi il disturbo, realizzato da Stefano Balassone per Radio Immagina, una rubrica settimanale, che ha avuto luogo fra marzo e luglio 2023, di dialoghi “impossibili” con personaggi, del passato e del presente, interpretati dall’Intelligenza Artificiale. Nelle interviste, realizzate con character.ai, Balassone mette alla prova, abilmente e con molto garbo, le interpretazioni dell’AI di vari personaggi del passato, facendole quasi sempre seguire da interviste ad esperti, questi veri, per approfondire pensieri e panzane profusi dal sistema. Un’operazione brillante, istruttiva e con esiti a tratti esilaranti.
Nel post i link alle puntate del podcast. Particolarmente divertente quella fatta a Mao Tse-Tung...
https://iamarf.org/2024/06/27/come-difendersi-dalle-allucinazioni-un-altro-esempio/
Come difendersi dalle allucinazioni? Prendere le misure all’AI con un podcast Questo articolo fa parte di una sorta di Corso accelerato sull’AI — il link conduce a un indice aggiornato. Abbiamo detto come per difendersi dalle allucinazioni dell’AI prima di tutto occorr…
Abbiamo visto (Non esiste una AI generativa sicura) il problema fondamentale che genera le allucinazioni: verità fattuale e plausibilità sono due cose diverse e tutti i sistemi di Natural Language Processing esistenti sono strutturalmente orientati alla produzione di testi plausibili e non di verità fattuali. Vanno bene per tradurre ma non per dare risposte.
La prima cosa da fare è prendere le misure al sistema andando a esplorare qualche zona che si trova presumibilmente al confine del dominio su cui si è svolto l’addestramento. Per uso personale va tutto bene: l’AI è fantastica per giocare. Ma quando si tratta di usarla per “facilitare” il proprio lavoro è obbligatorio valutare i rischi di errore, con la consapevolezza che non ci potranno mai essere certezze. A titolo di esempio caliamo il discorso in un contesto educativo qualsiasi. Sono un insegnante e so che i miei studenti usano correntemente ChatGPT o similari. L’hanno fatto con Wikipedia, lo fanno con l’AI. È un dato di fatto. Magari io stesso propongo attività che ne facciano uso. Bene, prima di agire, o anche solo di esaminare gli elaborati degli studenti, occorre studiare le risposte su argomenti inerenti alle materie in questione ma che mettano a “disagio” il sistema. Questo si può fare cercando di portare il discorso su argomenti ai confini del dominio appreso dalla macchina, che sono più rari o più specifici.
Facciamo un esempio intorno alla programmazione del computer per fini didattici (coding). Proviamo a chiedere notizie su un libro poco noto, un po’ datato e specializzato (usiamo ChatGPT 4, la versione più accurata)...
Come difendersi dalle allucinazioni? Un esempio e un primo rimedio Questo articolo fa parte di una sorta di Corso accelerato sull’AI — il link conduce a un indice aggiornato. Abbiamo visto (Non esiste una AI generativa sicura) il problema fondamentale che genera l…
Non esiste una AI generativa sicura
Fuori dai denti:
Ad oggi non esiste un sistema di AI generativa sicuro.
Più precisamente: ad oggi non esiste nessun sistema di AI generativa che possa garantire l’assenza completa di allucinazioni nelle sue risposte.
Di conseguenza le fanfare su fasti imminenti in settori critici, quali ad esempio sanità, finanza, pubblica sicurezza sono mendaci. E in altri contesti l’impiego dell’AI va comunque valutato con molta attenzione.
Cosa sono dunque le allucinazioni dell’AI generativa...?
Non esiste una AI generativa sicura Questo articolo fa parte di una sorta di Corso accelerato sull’AI — il link conduce a un indice aggiornato. Fuori dai denti: Ad oggi non esiste un sistema di AI generativa sicuro. Più precisamente:…