Passa ai contenuti principali

AI, energia e acqua: il costo nascosto della corsa americana che il mondo sta già pagando

Dietro la promessa di velocità, produttività e innovazione, l’espansione dell’intelligenza artificiale sta aprendo un problema materiale molto concreto: più server, più raffreddamento, più elettricità, più acqua, più pressione su reti e territori. Le fonti serie oggi non descrivono l’AI soltanto come una rivoluzione del software, ma come una nuova infrastruttura fisica che consuma risorse, occupa suolo, ridisegna priorità pubbliche e può aggravare disuguaglianze già esistenti. L’IEA, l’UNEP, l’UNCTAD, il NERC, l’ILO e una crescente letteratura universitaria convergono su un punto: la questione ambientale dell’AI non è marginale, e non riguarda solo il carbonio. Riguarda elettricità, acqua, affidabilità delle reti, governance, giustizia territoriale e accesso equo alle risorse.

Immagine generata con un solo prompt su Chat GPT

Perché il problema va preso sul serio adesso

Nel 2024 i data center hanno consumato circa 415 terawattora di elettricità a livello globale, cioè circa l’1,5% dell’elettricità mondiale. Le proiezioni ufficiali citate dall’IEA indicano che la domanda dei data center potrebbe più che raddoppiare entro il 2030, arrivando intorno a 945 TWh. Nel 2025, secondo l’aggiornamento IEA pubblicato nell’aprile 2026, il consumo elettrico dei data center è già cresciuto del 17% in un solo anno. Il punto chiave è che l’AI non è l’unico motore di questa crescita, ma è il segmento che accelera più rapidamente e che sta spingendo investimenti, colli di bottiglia e nuova domanda di potenza.

Negli Stati Uniti l’impatto è ancora più visibile. Il briefing dello European Parliamentary Research Service, che riprende il rapporto IEA del 2025, afferma che i data center valgono già circa il 4% della domanda elettrica totale americana, e che in almeno cinque stati superano il 10% dei consumi locali. Sempre quel briefing osserva che i data center AI tendono a concentrarsi geograficamente, creando pressione sulle reti locali, sul costo dell’energia e sugli obiettivi climatici. Questa è una distinzione importante: il problema non è solo quanto consuma “internet” nel mondo, ma dove si accumulano i carichi e chi paga il prezzo locale di quella concentrazione.

Gli Stati Uniti non stanno “andando al blackout globale”, ma il rischio locale è reale

Qui conviene essere molto precisi. Le fonti ufficiali serie non stanno annunciando un blackout mondiale inevitabile causato dall’AI. Sarebbe una formula troppo semplice e poco accurata. Quello che invece stanno dicendo è che la crescita dei data center, soprattutto quelli legati ad AI e crypto, può arrivare più in fretta delle infrastrutture di generazione e trasmissione necessarie a sostenerli. Il NERC, l’autorità che monitora l’affidabilità della rete elettrica nordamericana, scrive che i data center possono essere sviluppati più rapidamente della rete necessaria a servirli, con il risultato di una minore stabilità del sistema; aggiunge che la sensibilità di tensione e i cambiamenti rapidi, spesso imprevedibili, dei loro carichi creano nuove difficoltà operative. In un altro documento il NERC avverte che la forte crescita dei carichi dei data center accentuerà la necessità di aggiornamenti di rete e nuove risorse.

Anche Reuters, nell’agosto 2025, ha riportato che Google ha firmato accordi con due utility statunitensi per ridurre temporaneamente i consumi dei suoi data center AI nei momenti di picco, proprio perché le richieste di elettricità dei grandi operatori tech stavano superando in alcune aree la disponibilità totale di potenza. Reuters scrive che questa stretta ha alimentato timori per bollette più alte e possibili blackout. Quindi il quadro serio è questo: non catastrofe immediata e universale, ma rischio concreto di strozzature, rincari, ritardi nelle connessioni e vulnerabilità locali o regionali se gli investimenti di rete non tengono il passo.

Il nodo che quasi tutti vedono meno: l’acqua

L’energia è entrata nel dibattito pubblico. L’acqua molto meno, eppure è una parte decisiva della storia. L’UNEP ricorda che i data center non solo pesano sempre di più sui sistemi elettrici, ma possono incidere sulle risorse idriche a seconda del design, della tecnologia di raffreddamento e della localizzazione. In particolare, l’uso di raffreddamento basato sull’acqua può diventare critico in aree calde o già soggette a stress idrico. L’UNEP aggiunge che la sostenibilità dei data center non è un tema accessorio ma una condizione per avere infrastrutture digitali resilienti e competitive.

Su questo punto la letteratura universitaria è ormai molto netta. Il paper di Shaolei Ren e colleghi, dell’Università della California Riverside, mostra che l’impronta idrica dell’AI è stata a lungo sottovalutata. Gli autori stimano che la domanda globale di AI potrebbe arrivare nel 2027 a prelevare tra 4,2 e 6,6 miliardi di metri cubi d’acqua, e ricordano che il consumo diretto annuale d’acqua dei data center negli Stati Uniti nel 2028 potrebbe arrivare intorno a 150-280 miliardi di litri. Il paper insiste su un punto fondamentale: il problema non è solo l’acqua usata direttamente per il raffreddamento, ma anche quella consumata indirettamente per generare l’elettricità che alimenta i sistemi. In altre parole, un’AI “meno carbon intensive” non è automaticamente meno idrovora.

Un secondo elemento importante viene da uno studio del 2026 su PLOS Water, che sposta l’attenzione dal solo calcolo aggregato alle comunità. Gli autori sostengono che i rischi di insicurezza idrica legati ai data center sono stati sottovalutati e che bisogna considerare ciò che accade davvero alle famiglie e ai territori in cui queste infrastrutture vengono costruite. Questo è un passaggio decisivo, perché ci ricorda che il problema non è solo “quanta acqua consuma l’AI in astratto”, ma dove quella domanda cade, in quali bacini, a scapito di chi e con quali alternative.

America: l’AI come infrastruttura, non come nuvola innocente

Negli Stati Uniti il tema non è più invisibile. Reuters ha riportato nell’aprile 2026 che gli investitori stanno facendo pressione su Amazon, Microsoft e Google perché rendano molto più trasparenti consumi idrici ed energetici dei loro data center. Reuters scrive anche che nel 2025 i data center nordamericani hanno usato quasi 1.000 miliardi di litri d’acqua, circa l’equivalente del fabbisogno annuo di New York City, e che i conflitti locali su acqua, energia, inquinamento e uso del suolo stanno già producendo opposizioni comunitarie. La stessa inchiesta riporta che l’uso totale d’acqua dei siti di Meta è cresciuto del 51% tra il 2020 e il 2024. Questi dati non provano che “tutta l’acqua va all’AI”, ma mostrano una dinamica ormai impossibile da liquidare come dettaglio tecnico.

Questa fase americana, quindi, va letta non come una semplice modernizzazione, ma come uno spostamento di priorità materiali. Le utility, i regolatori, gli investitori e le comunità locali stanno entrando in un braccio di ferro su chi ottiene accesso rapido a energia e acqua. E quando una nuova infrastruttura cresce così in fretta, i soggetti più deboli rischiano di arrivare ultimi. Questa è un’inferenza, ma è un’inferenza molto ragionevole alla luce dei documenti NERC sulla stabilità della rete, dei report IEA sui colli di bottiglia e delle proteste riportate da Reuters attorno a costi, acqua e territorio.

Europa: più regole, ma anche più pressione su reti e costi

L’Europa non è fuori da questa tensione. Lo European Parliamentary Research Service segnala che nell’UE i data center valgono circa il 3% della domanda elettrica totale, con forti differenze interne e quote superiori al 20% in Irlanda. Lo stesso briefing avverte che la concentrazione geografica dei data center AI crea pressioni sulle reti locali, sul consumo di suolo e sugli obiettivi climatici, con trade-off anche sull’accessibilità economica dell’energia. In altri termini: l’Europa ha una tradizione regolatoria più forte degli Stati Uniti, ma questo non la mette automaticamente al riparo dall’effetto materiale della corsa all’AI.

C’è però una differenza che conta. La UE ha già imposto obblighi di reporting per i data center su consumo energetico, uso dell’acqua ed energia rinnovabile, e sta cercando di costruire una cornice di valutazione della sostenibilità delle infrastrutture digitali. Questo non risolve tutto, ma è già una linea politica diversa rispetto alla corsa puramente estrattiva. Il rischio europeo, semmai, è doppio: da una parte inseguire l’America sul piano della capacità senza affrontare davvero i costi materiali; dall’altra produrre norme senza la trasparenza locale necessaria a far capire alle comunità cosa accade sul loro territorio.

Paesi in via di sviluppo e Sud globale: chi sopporta il peso senza incassare i benefici

Qui il quadro diventa ancora più politico. L’UNCTAD, nel Digital Economy Report 2024, afferma che i Paesi in via di sviluppo sopportano una quota sproporzionata dei costi ecologici della digitalizzazione pur ricavandone meno benefici. Il rapporto insiste sul fatto che le infrastrutture digitali dipendono fortemente da materie prime e che la produzione, l’uso e lo smaltimento dei dispositivi, insieme alla crescita dei bisogni di acqua ed energia, stanno imponendo un costo crescente al pianeta. In altre parole: il digitale non è immateriale, e la sua geografia è profondamente diseguale.

L’UNEP aggiunge che l’espansione dei data center è particolarmente intensa proprio in diversi Paesi in sviluppo e cita hub come Brasile, Malesia e Nigeria. Le linee guida UNEP del 2025 sottolineano che i Paesi che stanno ampliando la propria infrastruttura digitale devono farlo con criteri di efficienza energetica e di uso responsabile delle risorse, perché altrimenti la digitalizzazione rischia di aggravare scarsità d’acqua, emissioni e vulnerabilità economiche. La stessa UNEP dice in modo esplicito che i governi hanno un ruolo critico nel definire procurement, standard e criteri misurabili su energia, acqua e rinnovabili.

I casi del Cile e dell’Uruguay rendono tutto questo concreto. Reuters ha raccontato che Google ha dovuto ripensare da zero il progetto del suo data center a Santiago dopo le preoccupazioni sul possibile impatto sull’acquifero della capitale cilena, colpita da oltre un decennio di siccità, e che la nuova proposta userà il raffreddamento ad aria invece di quello ad acqua. In Uruguay, durante la peggiore siccità degli ultimi 74 anni e in piena emergenza idrica a Montevideo, la prospettiva di un data center Google che avrebbe richiesto milioni di litri d’acqua al giorno ha alimentato proteste e un conflitto molto duro sul senso di dare risorse essenziali a grandi impianti tecnologici mentre parte della popolazione faticava ad accedere all’acqua potabile. Reuters Foundation ha riportato una stima di 7,6 milioni di litri al giorno per il progetto uruguayano, equivalenti al consumo quotidiano di circa 55.000 persone a Montevideo.

Povertà, disuguaglianza e uso delle risorse: il problema non è “tecnico”, è distributivo

Qui, secondo me, si vede il nocciolo vero della questione. L’AI non aggrava la povertà solo perché consuma molto. La aggrava quando la distribuzione dei costi e dei benefici è squilibrata. Se una comunità riceve soprattutto pressione su acqua, elettricità, territorio e infrastrutture, mentre il valore economico, il controllo dei modelli e i profitti restano altrove, allora la transizione digitale diventa una forma di estrazione. Questa conclusione non è un eccesso polemico: è la lettura più coerente con il quadro UNCTAD sulla distribuzione diseguale dei costi ambientali, con le analisi UNEP sui territori vulnerabili e con i casi Reuters su Uruguay e Cile.

Per questo non basta parlare di “innovazione verde” in astratto. Serve chiedersi chi decide dove mettere i data center, chi misura davvero acqua ed elettricità, chi ha accesso ai dati locali, chi partecipa alle decisioni e chi viene protetto quando arrivano i trade-off. Se questa domanda non entra nella politica pubblica, l’AI rischia di riprodurre la vecchia logica del colonialismo delle risorse con una veste più elegante e un lessico più brillante. Questa è una mia tesi, ma è una tesi appoggiata su una documentazione ormai molto difficile da ignorare.

Cosa si può fare davvero, senza moralismi inutili

La parte più interessante, e più utile, è che qualcosa si può fare. Non tutto dipende da costruire più centrali o più data center. Le fonti più serie insistono su efficienza, trasparenza, procurement e alfabetizzazione. L’UNEP ha pubblicato linee guida specifiche per il procurement sostenibile di data center e server, pensate per aiutare governi e amministrazioni a selezionare infrastrutture con standard alti di efficienza energetica, minore uso di acqua e criteri verificabili su rinnovabili, PUE e WUE. L’UNEP sottolinea che l’efficienza può fare una differenza enorme e spesso più rapidamente, e a costi inferiori, rispetto alla sola espansione dell’offerta elettrica.

Anche sul lato dell’uso concreto dei modelli le possibilità di riduzione ci sono. UNESCO e UCL hanno diffuso nel 2026 un report secondo cui piccoli cambiamenti nel modo in cui costruiamo e usiamo i modelli possono ridurre il consumo energetico fino al 90%. Il documento cita tre leve principali: modelli più piccoli e specializzati per compiti specifici, prompt e risposte più brevi, e compressione dei modelli. UNESCO scrive che prompt e risposte più concise possono ridurre l’energia di oltre il 50%, e che i piccoli modelli ben adattati al compito possono tagliare i consumi fino al 90% senza perdita significativa di prestazioni. Un altro studio recente sull’energia di inferenza mostra che la lunghezza della risposta è uno dei fattori dominanti del consumo e che i modelli molto grandi possono consumare fino a due ordini di grandezza in più per token rispetto a modelli più piccoli.

Questa parte è importante anche culturalmente. Un uso consapevole dell’AI non significa demonizzarla. Significa smettere di usarla come martello universale. Significa non invocare un grande modello generalista per ogni compito banale, non generare decine di versioni inutili per pigrizia, non trattare testo, immagini e video come se il costo materiale fosse zero. In pratica: meno verbosità automatica, meno compulsione da rigenerazione, più scelta del modello giusto per il compito giusto, più sobrietà nelle risposte richieste, più attenzione al fatto che ogni iterazione ha un costo fisico. Questa è in parte un’inferenza pratica, ma è direttamente sostenuta dalle indicazioni UNESCO e dalle evidenze sulla dipendenza del consumo da dimensione del modello e lunghezza dell’output.

E il lavoro? Qui la risposta non dovrebbe essere licenziare, ma formare meglio

Il tuo ragionamento, secondo me, è non solo auspicabile ma socialmente sensato. L’ILO, nel suo aggiornamento del 2025 sugli effetti del GenAI sul lavoro, scrive che un lavoratore su quattro nel mondo è in un’occupazione con qualche grado di esposizione al GenAI, ma aggiunge che la maggior parte dei lavori sarà trasformata piuttosto che resa superflua. Per questo l’ILO insiste sulla necessità di governare la transizione con dialogo sociale, migliorando al tempo stesso condizioni di lavoro e produttività. Se prendiamo sul serio questa impostazione, la risposta più intelligente non è usare l’AI come pretesto per licenziamenti secchi, ma vincolare aziende, incentivi e appalti a programmi reali di formazione, uso efficiente degli strumenti e condivisione dei guadagni di produttività.

Questo vale anche per i giovani e per la scuola. UNESCO sostiene che servono investimenti in ricerca sostenibile e in AI literacy, proprio per permettere agli utenti di capire l’impatto ambientale dell’AI e fare scelte più informate. È un punto decisivo: non basta insegnare a “usare ChatGPT”. Bisogna insegnare quando usarlo, per cosa, con quale misura, con quali costi, e quando invece la scelta più intelligente è leggere, pensare, riassumere da soli o usare strumenti più leggeri. L’alfabetizzazione del futuro, quindi, non è solo digitale. È anche energetica, idrica, ecologica e politica.

La mia tesi

La mia tesi è questa: la crescita dell’AI sta trasformando acqua ed elettricità in un nuovo terreno di conflitto politico. Negli Stati Uniti questo conflitto è già molto visibile nelle reti, nei data center, nelle utility e nelle comunità locali. In Europa sta emergendo come questione di rete, trasparenza e costo dell’energia. Nel Sud globale rischia di assumere la forma più ingiusta: infrastrutture e consumi che drenano risorse locali senza redistribuire davvero benefici, potere e capacità tecnica. Le fonti più serie non dicono che siamo destinati automaticamente al collasso, ma dicono con chiarezza che senza regole, trasparenza, efficienza e cultura critica il costo materiale dell’AI rischia di essere scaricato sui territori più fragili e sulle persone che hanno meno margine per difendersi.


Per proteggerci non basta una tecnologia “più potente”. Serve una tecnologia più sobria. Servono regole che impongano trasparenza su acqua ed energia. Serve procurement pubblico che premi efficienza e non gigantismo. Serve cultura, perché un prompt non è immateriale. Serve formazione, perché la maggior parte del lavoro cambierà e va accompagnata, non sacrificata. E serve una nuova educazione civile dell’AI, capace di insegnare che anche il digitale ha un peso, un calore, una sete, una geografia. Il potere positivo, qui, non sta nel rifiuto della tecnica. Sta nel tornare a governarla.


Alla prossima!

La prossima volta parleremo dell'impatto reale sul lavoro!

Vanessa

Glossario dei concetti più difficili

Terawattora, TWh
Una misura molto grande dell’elettricità. Serve per parlare dei consumi di interi settori o di grandi infrastrutture.

Data center hyperscale
Un enorme centro dati costruito per servire cloud, AI e piattaforme globali. Non è un semplice server aziendale: è una vera infrastruttura industriale.

Stress idrico
Situazione in cui un territorio ha già poca acqua disponibile rispetto ai bisogni di persone, agricoltura, industria ed ecosistemi.

Raffreddamento evaporativo
Sistema che raffredda le macchine usando evaporazione d’acqua. Può essere efficiente sul piano energetico, ma può consumare molta acqua.

Impronta idrica diretta
L’acqua usata direttamente dal data center, per esempio per raffreddare i server.

Impronta idrica indiretta
L’acqua usata fuori dal data center, per esempio per produrre l’elettricità che quel data center consumerà.

PUE, Power Usage Effectiveness
Indicatore che misura quanta energia totale usa un data center rispetto a quella usata davvero dall’informatica. Più il valore è basso, più il centro è efficiente.

WUE, Water Usage Effectiveness
Indicatore che misura quanta acqua usa un data center rispetto al lavoro informatico che svolge.

Carico di rete
La quantità di elettricità che una rete deve fornire in un certo momento.

Picco di domanda
Il momento in cui la richiesta di elettricità sale molto e mette sotto pressione la rete.

Demand response
Meccanismo con cui grandi utenti, come i data center, riducono temporaneamente i consumi quando la rete è troppo sotto stress.

Collo di bottiglia infrastrutturale
Punto in cui la crescita di una tecnologia è più veloce della capacità di reti, centrali, acqua o trasmissione necessarie a sostenerla.

Inferenza
La fase in cui un modello AI già addestrato produce una risposta, un testo, un’immagine o una previsione.

Training, addestramento
La fase in cui il modello viene costruito e allenato sui dati. In genere è molto energivora.

Modelli piccoli e specializzati
Modelli meno giganteschi, progettati per compiti precisi. Possono essere molto più efficienti di un grande modello generalista usato per tutto.

Procurement pubblico
Le regole con cui enti pubblici scelgono cosa comprare e da chi. Qui può servire a imporre standard su energia, acqua e trasparenza.

Trasparenza di sito
Disponibilità di dati precisi su cosa consuma un singolo impianto in un luogo reale, non solo numeri generali dell’azienda.

Esternalizzazione ambientale
Quando il costo ecologico di una tecnologia viene scaricato su altri territori o altre comunità, mentre il valore economico resta altrove.

Giustizia distributiva
Idea secondo cui costi e benefici di una trasformazione tecnologica dovrebbero essere distribuiti in modo equo, non scaricati sempre sui più deboli.

Uso sobrio dell’AI
Uso misurato, consapevole e non compulsivo degli strumenti AI, scegliendo il modello giusto per il compito giusto ed evitando sprechi inutili.

In parole semplici

  • L’AI non vive nell’aria: ha bisogno di server, elettricità, acqua e raffreddamento.
  • Più cresce l’uso dell’AI, più cresce la pressione su reti elettriche e risorse idriche.
  • Negli Stati Uniti il problema è già visibile in bollette, reti locali e conflitti sui territori.
  • In Europa ci sono più regole, ma anche qui i data center stanno aumentando il peso su energia e infrastrutture.
  • Nei Paesi più poveri il rischio è peggiore: consumano risorse locali ma spesso guadagnano poco dal valore creato.
  • Non ci sono fonti serie che annunciano un blackout mondiale inevitabile per colpa dell’AI.
  • Ci sono però fonti serie che parlano di tensioni locali, costi più alti e reti sotto pressione.
  • Si può ridurre il danno con regole migliori, trasparenza, modelli più piccoli, prompt più sobri e formazione vera.
  • Le aziende non dovrebbero usare l’AI come scusa per licenziare, ma per formare meglio e lavorare con meno sprechi.
  • Il punto non è rifiutare la tecnologia. Il punto è governarla con intelligenza umana.

Fonti 

16 aprile 2026 | IEA, Data centre electricity use surged in 2025, even with tightening bottlenecks driving a scramble for solutions
https://www.iea.org/news/data-centre-electricity-use-surged-in-2025-even-with-tightening-bottlenecks-driving-a-scramble-for-solutions

6 aprile 2026 | Reuters, Investors press Amazon, Microsoft and Google on water, power use in US data centers
https://www.reuters.com/sustainability/boards-policy-regulation/investors-press-amazon-microsoft-google-water-power-use-us-data-centers-2026-04-06/

26 gennaio 2026 | UNEP, How to make AI data centres more sustainable
https://www.unep.org/technical-highlight/how-make-ai-data-centres-more-sustainable

13 gennaio 2026 | PLOS Water, Four water insecurity concerns about datacenters driving the AI revolution
https://journals.plos.org/water/article?id=10.1371%2Fjournal.pwat.0000500

4 agosto 2025 | Reuters, Google agrees to curb power use for AI data centers to ease strain on US grid when demand surges
https://www.reuters.com/sustainability/boards-policy-regulation/google-agrees-curb-power-use-ai-data-centers-ease-strain-us-grid-when-demand-2025-08-04/

luglio 2025 | European Parliamentary Research Service, AI and the energy sector
https://www.europarl.europa.eu/RegData/etudes/BRIE/2025/775859/EPRS_BRI%282025%29775859_EN.pdf

8 luglio 2025 | UNESCO, AI Large Language Models: new report shows small changes can reduce energy use by 90%
https://www.unesco.org/en/articles/ai-large-language-models-new-report-shows-small-changes-can-reduce-energy-use-90

giugno 2025 | NERC, 2025 State of Reliability Overview
https://www.nerc.com/globalassets/programs/rapa/pa/nerc_sor_2025_overview.pdf

12 giugno 2025 | UNEP, UNEP releases guidelines to curb the environmental impact of data centres
https://www.unep.org/technical-highlight/unep-releases-guidelines-curb-environmental-impact-data-centres

20 maggio 2025 | ILO, Generative AI and jobs: A 2025 update
https://www.ilo.org/publications/generative-ai-and-jobs-2025-update

26 marzo 2025 | arXiv v5, Making AI Less “Thirsty”: Uncovering and Addressing the Secret Water Footprint of AI Models
https://arxiv.org/pdf/2304.03271

10 aprile 2025 | IEA, Energy and AI
https://www.iea.org/reports/energy-and-ai

17 settembre 2024 | Reuters, Google takes Chile data center plans back to square one on environmental concerns
https://www.reuters.com/technology/google-takes-chile-data-center-plans-back-square-one-environmental-concerns-2024-09-17/

10 luglio 2024 | UNCTAD, Digital Economy Report 2024
https://unctad.org/publication/digital-economy-report-2024

26 settembre 2023 | Context, Thomson Reuters Foundation, In Latin America, data center plans fuel water worries
https://www.context.news/big-tech/in-latin-america-data-center-plans-fuel-water-worries

Commenti

Post popolari in questo blog

Rehairmony Metodo di Giovanna Sciarrapa

 

Marketing e intelligenza artificiale

 Assistenti virtuali che utilizzano algoritmi artificiali. No, non è più fantascienza. Sto collaborando con Quest it Italia e stiamo creando il mio assistente virtuale per il sito arte. Non si limiterà solo a quello. Intanto però vi darà informazioni sulle mie opere, sulla mia storia, sul mio mondo. Su piattaforma Algho in collaborazione con https:// www.quest-it.com

La Bottega dell'Immagine e Luigi Lusini detto Gigi

Circa un mese e mezzo fa vengo contattata da un certo Gigi Lusini, fotografo senese di indiscussa fama, non sempre positiva, qualcuno ne parla anche  come un egocentrico megalomane... :-) Ma come si sa io amo l'egocentrismo e chi ha il coraggio di viverselo serenamente, amo anche i megalomani che considero la contrapposizione a un popolo stereotipato che non è capace a esprimere se stesso."E se mi parlano male di qualcuno, lo devo incontrare!" Mi chiede un appuntamento in piazza del Campo, in un bellissimo caffè, mi dice che sente parlare di me, bene e male, io ho un po la fama di vendere fumo perchè bendo le persone e gli faccio esplorare i luoghi, perchè li costringo a "annusare" le cose, perchè non insegno la tecnica, perchè faccio Work shop di nudo per sole donne... ect... Gigi ha creato La Bottega dell'immagine a Siena, un circolo fotografico, non un club, e sta cercando davvero di fare cultura, ha posizioni lontanissime dalle mie, ma nella chiac...