Passa ai contenuti principali

Le “allucinazioni” dell’AI

Le “allucinazioni” dell’AI

cosa sono davvero, perché esistono e perché non sono così facili da controllare

Immagine creata con CHAT GPT da Vanessa Rusci
con un solo prompt e una sola generazione


Negli ultimi anni si è diffuso un termine curioso per descrivere alcuni comportamenti dell’intelligenza artificiale: allucinazioni. La parola è forte, quasi teatrale, e non è casuale. Serve a indicare un fenomeno preciso: il momento in cui un sistema di AI genera qualcosa che sembra plausibile, ma che in realtà è falso, incoerente o completamente inventato.

Ma per capire davvero cosa significa, bisogna partire da un punto semplice.

L’AI non sa. Prevede.

Un modello di intelligenza artificiale non “conosce” il mondo nel senso umano del termine. Non verifica, non osserva, non ha esperienza diretta. Funziona invece attraverso la probabilità.

Ogni volta che genera un testo o un’immagine, il sistema non fa altro che chiedersi:

👉 qual è il prossimo elemento più probabile?

Nel testo, è la parola successiva.
Nelle immagini, è il pixel successivo.

Se tutto funziona bene, questa previsione costruisce qualcosa di coerente.
Ma quando la probabilità si sgancia dalla realtà, nasce l’allucinazione.

Perché si chiamano “allucinazioni”

Il termine non è scientifico in senso stretto, ma è stato adottato perché descrive bene l’effetto: qualcosa che appare credibile, ma non corrisponde al reale.

È importante chiarire che non è un errore “casuale”.
È una conseguenza diretta del funzionamento del modello.

L’AI non distingue tra vero e falso.
Distingue solo tra più o meno probabile.

Le allucinazioni esistono ancora?

Sì, esistono ancora.

Negli ultimi anni sono state ridotte grazie a:

  • modelli più grandi
  • migliori dataset
  • sistemi di controllo (come il reinforcement learning)

Ma non sono scomparse.

E probabilmente non scompariranno del tutto, perché fanno parte del modo in cui questi sistemi generano contenuti.

Cosa succede alla probabilità quando l’AI “allucina”

Qui entra il punto più interessante.

Quando l’AI genera, costruisce una distribuzione di probabilità:
ci sono molte possibili soluzioni, alcune più probabili, altre meno.

In condizioni normali, sceglie quelle più solide.
Ma ci sono casi in cui:

  • i dati sono insufficienti
  • il contesto è ambiguo
  • la richiesta è troppo specifica o fuori distribuzione

In queste situazioni, la probabilità si “appiattisce” o si sposta su soluzioni deboli.

E il modello, pur di completare, sceglie comunque qualcosa.

👉 Non sa dire “non lo so” in modo naturale.
👉 È progettato per continuare.

E quindi inventa.

Le allucinazioni sono creatività?

Qui la questione si fa affascinante.

A volte le allucinazioni producono risultati sorprendenti, immagini inaspettate, connessioni nuove. Possono sembrare “geniali”.

Ma tecnicamente non sono creatività intenzionale.

Sono deviazioni probabilistiche.

Il sistema non sta cercando qualcosa di nuovo.
Sta semplicemente perdendo il contatto con la distribuzione più stabile.

Eppure, proprio in questo slittamento, può emergere qualcosa che noi interpretiamo come creativo.

Perché è difficile controllare la generazione

Molti utenti si chiedono: perché non possiamo controllare perfettamente l’AI?

La risposta è semplice e complessa insieme.

Perché questi sistemi non seguono regole fisse.
Generano.

E generare significa lavorare con margini di incertezza.

Anche quando inseriamo parametri più rigidi:

  • prompt dettagliati
  • seed
  • controlli di stile

non stiamo imponendo una soluzione.
Stiamo solo restringendo il campo delle probabilità.

E dentro quel campo, il sistema continua a scegliere.

Le piattaforme limitano davvero gli errori?

Le piattaforme cercano di ridurre le allucinazioni perché:

  • migliorano l’esperienza utente
  • aumentano la fiducia
  • rendono i risultati più utili

Non esiste un interesse reale nel “far sbagliare” l’AI per consumare crediti.

Gli errori non sono una strategia.
Sono un limite tecnico.

Anzi, più un sistema è affidabile, più viene utilizzato.

Il punto vero: cosa ci dice questo limite

Le allucinazioni ci mostrano qualcosa di importante.

L’AI non è uno strumento che restituisce la verità.
È uno strumento che genera possibilità.

E tra queste possibilità, alcune sono solide, altre fragili, altre completamente inventate.

Sta a noi riconoscerle.

Allucinazioni e raccomandazione: lo stesso meccanismo su due livelli

Immagine creata con CHAT GPT da Vanessa Rusci
con un solo prompt e una sola generazione


Se osserviamo meglio, il fenomeno delle allucinazioni non è isolato.
Ha una relazione profonda con gli algoritmi di raccomandazione.

Perché, anche se operano su piani diversi, condividono una logica di fondo.

Entrambi lavorano sulla probabilità.

Dentro l’AI generativa, la probabilità serve a costruire l’immagine o il testo:
il sistema sceglie, passo dopo passo, ciò che è più plausibile.

Negli algoritmi di raccomandazione, la probabilità serve a selezionare ciò che vediamo:
il sistema sceglie ciò che è più probabile che ci interessi.

In un caso si genera.
Nell’altro si filtra.

Ma il principio è lo stesso.

Quando la probabilità perde aderenza

A questo punto succede qualcosa di interessante.

Quando l’AI “allucina”, la probabilità si sgancia dalla realtà e continua a generare coerenza interna.

Quando un algoritmo di raccomandazione “deriva”, succede qualcosa di simile:
continua a mostrarci contenuti coerenti con il nostro comportamento, anche se quella coerenza restringe il nostro mondo.

In entrambi i casi, il sistema non si accorge dell’errore.

Perché non ha un rapporto diretto con la realtà.
Ha un rapporto con i dati.

Due effetti diversi, una stessa logica

Le allucinazioni producono contenuti che sembrano veri ma non lo sono.

La raccomandazione produce ambienti che sembrano completi ma non lo sono.

Nel primo caso, l’errore è visibile.
Nel secondo, è invisibile.

E proprio per questo, spesso più potente.

Il punto decisivo

Se mettiamo insieme i due livelli, vediamo emergere una dinamica più ampia.

L’AI genera ciò che è più probabile.
Gli algoritmi rendono visibile ciò che funziona di più.
Noi ci abituiamo a ciò che vediamo.
E iniziamo a riconoscerlo come “normale”.

A quel punto, anche quando l’AI sbaglia, l’errore può sembrare plausibile.

Non perché sia corretto.
Ma perché è coerente con ciò che siamo già abituati a vedere.

Perché questo è importante

Questo collegamento cambia completamente il modo di leggere le allucinazioni.

Non sono solo errori tecnici.

Sono anche il risultato di un ecosistema in cui:

  • la probabilità guida la generazione
  • la probabilità guida la visibilità
  • la ripetizione costruisce familiarità

E la familiarità, lentamente, costruisce verità percepita.

Conclusione

Quando lavoriamo con l’intelligenza artificiale, non stiamo dialogando con un sistema che conosce, ma con un sistema che prevede.

E questo cambia tutto.

Perché il punto non è eliminare l’errore, ma capire da dove nasce.

Nasce da un sistema che costruisce sulla probabilità.

Ma non si ferma lì.

Perché ciò che l’AI genera entra in un ambiente che funziona con la stessa logica:
gli algoritmi di raccomandazione selezionano, ordinano, amplificano.

Così la probabilità non guida solo la creazione.
Guida anche la visibilità.

E in questo doppio passaggio, ciò che è plausibile può diventare credibile.

Solo così possiamo usare l’AI in modo consapevole, senza confondere la probabilità con la verità,
e senza dimenticare che oggi non vediamo tutto ciò che è possibile,
ma ciò che è più probabile… e più visibile.

Commenti

Post popolari in questo blog

Rehairmony Metodo di Giovanna Sciarrapa

 

Marketing e intelligenza artificiale

 Assistenti virtuali che utilizzano algoritmi artificiali. No, non è più fantascienza. Sto collaborando con Quest it Italia e stiamo creando il mio assistente virtuale per il mio sito arte. Non si limiterà solo a quello. Intanto però vi darà informazioni sulle mie opere, sulla mia storia, sul mio mondo. Su piattaforma Algho in collaborazione con https:// www.quest-it.com

La Bottega dell'Immagine e Luigi Lusini detto Gigi

Circa un mese e mezzo fa vengo contattata da un certo Gigi Lusini, fotografo senese di indiscussa fama, non sempre positiva, qualcuno ne parla anche  come un egocentrico megalomane... :-) Ma come si sa io amo l'egocentrismo e chi ha il coraggio di viverselo serenamente, amo anche i megalomani che considero la contrapposizione a un popolo stereotipato che non è capace a esprimere se stesso."E se mi parlano male di qualcuno, lo devo incontrare!" Mi chiede un appuntamento in piazza del Campo, in un bellissimo caffè, mi dice che sente parlare di me, bene e male, io ho un po la fama di vendere fumo perchè bendo le persone e gli faccio esplorare i luoghi, perchè li costringo a "annusare" le cose, perchè non insegno la tecnica, perchè faccio Work shop di nudo per sole donne... ect... Gigi ha creato La Bottega dell'immagine a Siena, un circolo fotografico, non un club, e sta cercando davvero di fare cultura, ha posizioni lontanissime dalle mie, ma nella chiac...