Passa ai contenuti principali

Big Tech, AI e guerra: cosa sta accadendo negli Stati Uniti tra profilazione, biometria e potere statale di Vanessa Rusci

Big Tech, AI e guerra negli USA: profilazione, biometria e rischio autoritario

Dietro la faccia comoda dell’intelligenza artificiale si sta consolidando qualcosa di molto più duro: una infrastruttura che unisce dati personali, biometria, contratti pubblici, sicurezza e guerra.

Immagine generata con Chat GPT con un solo prompt
Risparmiare prompt protegge il pianeta


Quando parliamo di intelligenza artificiale, spesso l’immaginario collettivo si ferma ai chatbot, alle immagini generate, agli assistenti digitali, alla produttività, alla comodità. È la faccia leggera del fenomeno, quella che rende tutto più rapido, più brillante, più apparentemente intelligente. Ma sotto questa superficie si sta consolidando qualcosa di molto più serio. Negli Stati Uniti non stiamo vedendo soltanto una crescita dell’AI come strumento. Stiamo vedendo l’emergere di una infrastruttura che lega insieme piattaforme digitali, raccolta dati, profilazione economica, biometria, amministrazione pubblica, sicurezza e uso militare. AI Now lo dice in modo molto netto: l’AI oggi non viene soltanto usata da noi, ma viene usata su di noi.

Questo passaggio è decisivo perché sposta la discussione. Il problema non è solo se l’AI “funziona bene” o se ci aiuta a lavorare meglio. Il problema è chi la controlla, per quali scopi viene integrata nelle istituzioni e nei mercati, quali dati raccoglie, come classifica le persone, e fino a che punto può trasformare le vite umane in profili, punteggi, priorità, bersagli. Quando i sistemi di intelligenza artificiale vengono inseriti dentro dispositivi di polizia, di controllo dei confini, di identificazione biometrica o di guerra, la questione smette di essere una semplice innovazione tecnologica. Diventa una questione di potere.

Perché oggi bisogna guardare agli Stati Uniti

Gli Stati Uniti contano in modo speciale non perché siano automaticamente i più avanzati nell’uso quotidiano dell’AI da parte della popolazione, ma perché restano il cuore dell’ecosistema industriale, finanziario, infrastrutturale e militare dell’intelligenza artificiale. Il Stanford AI Index 2026 osserva infatti una distinzione importante: gli USA guidano investimenti e sviluppo dei modelli, ma non risultano al vertice dell’adozione tra la popolazione, dove compaiono davanti altri Paesi come Singapore ed Emirati Arabi Uniti. Questo significa una cosa fondamentale: più potere sull’AI non significa necessariamente più uso diffuso tra i cittadini, ma può significare molto più controllo sulle architetture che la governano.

Per questo ciò che succede negli Stati Uniti non va letto come una curiosità americana. Va letto come un laboratorio politico, industriale e culturale capace di influenzare il resto del mondo, compresa l’Europa. Le piattaforme che usiamo, i modelli che scarichiamo, gli standard che si diffondono, i dispositivi indossabili che arrivano sul mercato, i criteri di tracciamento e monetizzazione, spesso partono da lì o vengono lì normalizzati.

Primo livello: la profilazione economica e i prezzi su misura

Il primo strato di questa infrastruttura è il più banale in apparenza, e proprio per questo uno dei più pericolosi. Parlo della profilazione economica. La Federal Trade Commission ha spiegato che nei sistemi di surveillance pricing i dati personali possono essere usati per impostare prezzi individualizzati per beni e servizi. Tra i dati citati ci sono posizione precisa, cronologia del browser, dati demografici e perfino segnali molto sottili come i movimenti del mouse o il tempo trascorso su una pagina. Questo significa che il prezzo non è più necessariamente lo stesso per tutti. Può diventare il prezzo che il sistema ritiene più adatto a te, in base a ciò che pensa di sapere su di te.

Questa non è una preoccupazione teorica. Reuters ha riportato il 23 aprile 2026 una causa contro JetBlue in cui si accusa la compagnia di aver usato dati personali e sistemi di tracciamento per aumentare le tariffe. JetBlue respinge l’accusa, ma la notizia è significativa per un motivo semplice: il tema dei prezzi personalizzati basati sui dati è ormai entrato pienamente nel conflitto pubblico, politico e giudiziario. Non riguarda più soltanto studiosi o attivisti dei diritti digitali. Riguarda il modo in cui il mercato guarda le persone. Non più come clienti con uguale dignità commerciale, ma come insiemi di dati da spremere in modo differenziato.

Qui bisogna fermarsi un momento, perché il punto è già enorme. Se un sistema analizza tutto ciò che fai per decidere quanto puoi pagare, allora non ti sta solo servendo un prodotto. Ti sta leggendo come profilo economico. E questa logica della lettura continua, della previsione, della segmentazione, è la stessa che poi può migrare in altri campi. Non è ancora polizia, non è ancora guerra, ma è già una forma di classificazione asimmetrica. Tu non sai come vieni valutata. L’algoritmo sì.

Secondo livello: dai consumi al corpo, il salto della biometria

Il passaggio successivo è ancora più radicale, perché sposta il fulcro dell’identificazione dal comportamento al corpo. Qui entra in gioco la biometria. Reuters ha raccontato che il progetto World, legato a Sam Altman, ha accelerato la raccolta di scansioni dell’iride tramite i suoi dispositivi chiamati orb, presentando il sistema come una soluzione per distinguere gli esseri umani reali dai bot e costruire una identità digitale verificata. Il progetto parla di World ID come di una sorta di passaporto digitale per l’epoca dell’AI. Ma, al di là della retorica, il nodo è politico: il corpo diventa chiave di accesso, prova di umanità, credenziale stabile.

Questa direzione ha già sollevato forti obiezioni. Reuters ha riportato anche che l’autorità spagnola per la protezione dei dati ha ordinato la cancellazione dei dati di scansione dell’iride raccolti da Worldcoin, il precedente nome del progetto, dopo una lunga serie di contestazioni privacy. Altre autorità in diversi Paesi hanno mostrato preoccupazioni analoghe. Questo non significa che ogni progetto biometrico sia identico o automaticamente illegittimo. Significa però che il rischio è ormai riconosciuto da regolatori veri, non solo da voci marginali.

La cosa importante, qui, è capire la mutazione culturale. Per anni abbiamo accettato che le piattaforme conoscessero i nostri gusti. Ora stiamo entrando in una fase in cui vogliono anche certificare la nostra esistenza biologica. È un salto enorme. La password si può cambiare. L’iride no. Un documento si rinnova. Un dato biometrico ti accompagna. E quando questo tipo di identificazione entra in ecosistemi dominati da imprese private, incentivi finanziari e possibili appalti pubblici, il problema non è solo tecnico. È strutturale.

Terzo livello: gli occhiali intelligenti e la sorveglianza indossabile

Se la biometria porta il corpo nel sistema, gli occhiali intelligenti portano il sistema nello sguardo. Reuters ha riportato che Meta ha rallentato l’espansione internazionale dei suoi Ray-Ban Display glasses a causa della forte domanda negli Stati Uniti e dei vincoli di offerta. Sempre Reuters ha riportato che Meta ed EssilorLuxottica valutavano di aumentare enormemente la capacità produttiva dei Ray-Ban smart glasses. A marzo 2026 Reuters ha anche raccontato il lancio di nuovi modelli da vista intelligenti negli Stati Uniti. Questi prodotti non sono più una curiosità marginale: sono una linea strategica.

A prima vista sembrano semplicemente gadget avanzati: fotografano, registrano, trasmettono, integrano funzioni AI, aiutano la navigazione o l’assistenza personale. Ma il problema vero è un altro. Questi dispositivi portano il potenziale di raccolta dati dentro l’esperienza quotidiana, rendendo la sorveglianza più diffusa, più discreta e più socialmente normalizzata. Non c’è bisogno di immaginare scenari estremi. Basta osservare la direzione del prodotto. Quando una tecnologia può vedere, ascoltare, riconoscere, assistere e archiviare, la distanza tra utilità e controllo si accorcia.

Su questo punto è importante essere precise. Non bisogna scrivere che Meta ha già imposto ovunque il riconoscimento facciale sugli occhiali come fatto compiuto. Sarebbe troppo. Ma è corretto dire che esiste un allarme serio e pubblico su quella direzione. L’ACLU e altre 75 organizzazioni hanno chiesto a Meta di fermare e smentire pubblicamente piani per aggiungere il riconoscimento facciale agli occhiali Ray-Ban e Oakley, sostenendo che una simile funzione permetterebbe di identificare persone sconosciute in strada, a proteste, in negozi, in cliniche o altri luoghi sensibili. Questo è un passaggio chiave: non è ancora piena normalità, ma è abbastanza plausibile da far scattare un allarme coordinato di organizzazioni per le libertà civili.

Quarto livello: quando i dati sanitari e amministrativi entrano nella macchina del controllo

Il passaggio davvero inquietante avviene quando la stessa cultura tecnica della profilazione viene trasferita dentro le strutture pubbliche. Reuters ha riportato che nel luglio 2025 il Dipartimento della Salute degli Stati Uniti ha dato a ICE accesso ai dati personali di 79 milioni di iscritti a Medicaid per aiutare a rintracciare immigrati che potrebbero trovarsi illegalmente nel Paese. È difficile sopravvalutare la gravità simbolica e politica di questo fatto. Dati raccolti in un contesto di welfare e salute vengono spostati dentro una logica di enforcement migratorio.

Qui non siamo più nella pubblicità personalizzata. Siamo nel punto in cui l’infrastruttura del dato attraversa i confini tra cura, amministrazione e controllo. Il dato amministrativo smette di essere solo strumento di gestione e diventa leva per la repressione burocratica. Quando questo avviene in un ecosistema già dominato da software di analisi, ricerca, correlazione e ranking, la trasformazione delle persone in casi, punteggi e priorità operative non è più un rischio astratto. È un processo concreto.

Su questa linea si colloca anche il reporting rilanciato da EFF su un possibile strumento Palantir per ICE, descritto come capace di costruire mappe di potenziali bersagli di deportazione, mostrare dossier individuali e assegnare un livello di confidenza sull’indirizzo di una persona. Questa parte va presentata con cura, perché la fonte è una organizzazione di advocacy digitale e non un comunicato governativo. Ma proprio per questo si può usare bene scrivendo: “Secondo EFF…”. Il valore di questa segnalazione, anche al netto delle contestazioni possibili, è che rende leggibile una logica già evidente: la vita umana viene resa interrogabile come database.

Quinto livello: il riavvicinamento tra Big Tech e potere politico

Un altro elemento che merita attenzione è il rapporto tra Big Tech e potere politico. Reuters ha riportato che grandi aziende americane, comprese società di Silicon Valley, hanno donato al fondo inaugurale di Donald Trump nella prospettiva di costruire un rapporto favorevole con la nuova amministrazione. Questo, da solo, non basta a dimostrare una saldatura autoritaria. Però racconta bene una dinamica storica ben nota: quando si apre una nuova stagione politica fatta di deregolazione, appalti, difesa, infrastrutture e scontro geopolitico, le grandi aziende cercano prossimità.

Dentro questo quadro, Reuters ha riportato anche che Meta ha chiuso negli Stati Uniti il suo programma di fact-checking di terze parti e lo ha sostituito con un sistema tipo Community Notes. Reuters collega questa scelta al desiderio di Mark Zuckerberg di riallacciare i rapporti con l’amministrazione entrante. Anche qui, il punto non è dire che ogni decisione di moderazione è una prova di collusione. Il punto è osservare che la gestione del discorso pubblico, delle regole della visibilità e dei limiti del contenuto sensibile si sta ridefinendo in un contesto di riavvicinamento politico.

Se metti insieme queste mosse, vedi una figura più ampia. Le aziende non cercano solo utenti o investitori. Cercano anche un ambiente politico e normativo più vantaggioso. E questo diventa particolarmente rilevante quando l’AI non è più soltanto un prodotto consumer, ma una tecnologia che può entrare in sicurezza, difesa, intelligence, amministrazione pubblica, frontiere e apparati federali.

Sesto livello: l’AI entra nei circuiti della difesa e delle reti classificate

Ed eccoci al punto dove il quadro si fa più duro. Reuters ha riportato a febbraio 2026 che il Pentagono stava spingendo le principali aziende AI, incluse OpenAI e Anthropic, a rendere disponibili i loro strumenti anche su reti classificate con meno restrizioni standard. Reuters ha spiegato che tali reti possono essere usate anche per mission planning e weapons targeting. Qui non siamo più nel territorio del semplice assistente intelligente. Siamo nel passaggio dell’AI da infrastruttura commerciale a infrastruttura di sicurezza nazionale.

Proprio per questo il contrasto tra le aziende conta. Anthropic, cioè la società di Claude, ha dichiarato di non poter accettare la richiesta del Pentagono di eliminare alcune safeguard, in particolare quelle relative all’uso in targeting autonomo delle armi e nella sorveglianza domestica. OpenAI, invece, ha accettato un accordo per l’uso dei propri strumenti sulla rete non classificata genai.mil, rimuovendo molte restrizioni standard pur mantenendo alcuni guardrail. Reuters ha poi riportato anche un accordo separato per il dispiegamento dei modelli OpenAI su cloud classificati del Department of War.

Questo passaggio è importante perché mostra che la militarizzazione dell’AI non avanza in modo lineare o senza attriti. Esistono resistenze, negoziazioni e conflitti reali sui limiti. Ma proprio questi scontri rendono ancora più visibile la tendenza di fondo: la filiera AI sta entrando in profondità nell’apparato militare e para-militare, e la pressione per ridurre i vincoli etici è ormai esplicita.

È qui che la vecchia idea di neutralità tecnologica mostra le sue crepe. Una tecnologia può anche nascere come strumento generale. Ma quando viene resa compatibile con reti classificate, contractor della difesa e operazioni di sicurezza nazionale, il suo destino non può più essere letto soltanto in chiave neutra o astratta. La tecnologia non è più semplicemente disponibile. È strategicamente arruolata.

Settimo livello: dalla sorveglianza al campo di guerra

Il nodo finale, e più tragico, riguarda il rapporto tra strumenti digitali e guerra. Human Rights Watch ha pubblicato nel settembre 2024 un documento in cui afferma che l’uso da parte dell’esercito israeliano di tecnologie di sorveglianza, AI e altri strumenti digitali per contribuire alla selezione dei bersagli a Gaza può aumentare il rischio di danni ai civili e pone gravi questioni etiche, legali e umanitarie. Questa è una fonte non governativa, ma molto autorevole nel campo dei diritti umani.

Perché questo punto è così importante? Perché mostra la traiettoria completa. Un sistema nasce magari per classificare, predire, ottimizzare, selezionare. Poi quella stessa logica di classificazione può essere trasferita in contesti ad altissimo rischio, dove un errore, una correlazione sbagliata, una stima imperfetta o una fiducia eccessiva nell’output del sistema non significa soltanto un disservizio. Può significare morte, devastazione, impunità resa più efficiente dall’interfaccia.

Non serve dire che ogni AI commerciale conduce automaticamente alla guerra. Sarebbe una semplificazione. Ma è corretto dire che una infrastruttura capace di profilare, selezionare, identificare e assegnare priorità è molto più facilmente trasferibile al dominio militare di quanto spesso si voglia ammettere. È proprio questo che rende cruciale la fase attuale. Non stiamo più discutendo di software simpatici. Stiamo discutendo di architetture del comando.

Gli Stati Uniti usano davvero l’AI più di tutti?

Qui serve una distinzione importante, perché si fa spesso confusione. No, non è corretto dire semplicemente che gli Stati Uniti usano l’AI più di tutti gli altri Paesi. Il Stanford AI Index 2026 segnala che, per adozione tra la popolazione, gli USA sono al 24° posto con il 28,3%, mentre altri Paesi risultano sopra. L’OECD conferma che l’uso della generative AI tra gli individui è cresciuto rapidamente e in modo molto diseguale tra Paesi. La Federal Reserve, dal canto suo, osserva che negli Stati Uniti circa il 18% delle imprese aveva adottato AI a fine 2025. Quindi il quadro corretto è questo: gli USA non sono necessariamente i primi per uso quotidiano tra i cittadini, ma sono ancora al centro dell’ecosistema AI per capitale, grandi modelli, Big Tech, cloud, appalti e rapporti con lo Stato.

Questa distinzione è fondamentale anche per il tuo ragionamento politico. Perché il problema non è solo “quanta AI usa la gente”. Il problema è chi ha il potere di costruirla, distribuirla, legarla a contratti pubblici e spingerla dentro sistemi di sorveglianza e difesa. Un Paese può non essere in cima alla classifica dell’uso popolare e restare comunque il centro di gravità del potere tecnologico. È esattamente questa la situazione americana.

E l’Europa? È davvero più protetta?

L’Europa non è immune, e sarebbe ingenuo dirlo. Però sul piano normativo esiste almeno un argine più forte. La Commissione europea ricorda che l’AI Act è in vigore dal 1 agosto 2024 e che i divieti relativi alle pratiche proibite sono diventati applicabili nel febbraio 2025. La Commissione ha pubblicato linee guida sulle pratiche AI vietate, che riguardano rischi per i diritti fondamentali e pratiche considerate inaccettabili. Questo non elimina il problema della pressione industriale, della velocità dei mercati o della circolazione globale dei prodotti. Però indica che in Europa esiste, almeno sulla carta, una resistenza normativa più forte rispetto al modello americano di deregulation e accelerazione.

Detto questo, sarebbe un errore pensare che basti una legge per salvarci. Le piattaforme viaggiano più in fretta delle istituzioni. Gli standard culturali pure. I dispositivi indossabili si diffondono velocemente. Gli incentivi economici sono enormi. E soprattutto ciò che viene normalizzato negli Stati Uniti tende spesso ad arrivare altrove prima come desiderio di mercato, poi come partnership, poi come abitudine. È per questo che guardare oggi all’America ha senso anche per chi vive in Italia. Non per imitare una paranoia, ma per capire la direzione del vento.

LA MIA TESI

La mia tesi, alla luce di queste fonti, è questa: negli Stati Uniti si sta consolidando una convergenza tra Big Tech, AI companies, biometria, apparato statale e sicurezza nazionale che rende la profilazione più invasiva, la sorveglianza più capillare e l’uso militare dell’AI sempre più normale. Non tutte le aziende fanno la stessa cosa. Non tutte le tecnologie hanno lo stesso grado di rischio. Non tutte le notizie hanno lo stesso peso probatorio. Ma la direzione complessiva è leggibile. E ignorarla sarebbe irresponsabile.

Il punto non è essere “contro la tecnologia”. Il punto è rifiutare che la tecnologia diventi un alibi morale per concentrare potere, opacizzare decisioni e automatizzare forme di controllo che colpiscono i corpi, i prezzi, le libertà, i movimenti e, nei casi più estremi, la vita stessa. Quando il corpo diventa password, il comportamento diventa prezzo, il dato sanitario diventa tracciamento, l’occhiale diventa sensore e il modello diventa strumento operativo per la guerra, non siamo più nell’età dell’innovazione innocente. Siamo dentro una ridefinizione dei rapporti tra potere e realtà.

Negli USA Big Tech, AI e biometria si saldano agli appalti pubblici, creando più profilazione, sorveglianza e uso militare.

A proteggerci non sarà una sola tecnologia “buona”. Ci proteggeranno regole chiare, cultura critica, passaparola tra persone vive e pratiche quotidiane di attenzione. Perché il problema non è solo l’AI. Il problema è il potere che le costruiamo intorno.

Alla prossima.
Parlerò di cosa sta succedendo con il consumo di energia e dell'acqua per l'incremento dell'uso delle AI in America e nel mondo.

Vanessa

Parlerò di cosa sta succedendo con il consumo di energia e dell'acqua per l'incremento dell'uso delle AI in America e nel mondo.


Approfondimento:

Le Big Tech negli Stati Uniti stanno usando l’AI solo per prodotti commerciali?

No. Le fonti mostrano che l’AI negli Stati Uniti è collegata non solo a prodotti consumer, ma anche a profilazione dei prezzi, identificazione biometrica, apparati amministrativi, contratti pubblici e reti classificate della difesa.

Che cos’è la surveillance pricing?

È l’uso di dati personali, come posizione, cronologia del browser o comportamento online, per impostare prezzi personalizzati. La FTC ha confermato che questa pratica esiste e la sta studiando.

La scansione dell’iride è già realtà?

Sì, esistono già progetti operativi come World, legato a Sam Altman, che usano la scansione dell’iride per creare identità digitali. Allo stesso tempo diversi regolatori hanno sollevato criticità sulla privacy.

Gli USA usano l’AI più di tutti gli altri Paesi?

Non necessariamente nell’uso quotidiano tra la popolazione. Secondo Stanford, gli USA non sono al primo posto nell’adozione popolare. Restano però uno dei centri principali dell’ecosistema AI per investimenti, modelli e rapporti tra industria e Stato.

L’Europa è al riparo?

No. Però l’AI Act europeo introduce limiti e divieti che, almeno sulla carta, sono più forti di quelli statunitensi su alcune pratiche ad alto rischio.

In parole semplici

  • Le aziende tecnologiche raccolgono sempre più dati per capire chi sei, cosa vuoi e quanto puoi pagare.
  • Alcuni sistemi non ti mostrano soltanto pubblicità: possono anche decidere prezzi diversi per persone diverse.
  • La biometria porta il corpo dentro il sistema: volto, iride e altri dati fisici rischiano di diventare chiavi permanenti.
  • Gli occhiali intelligenti possono rendere la raccolta dati più continua, più nascosta e più normale.
  • Dati nati per la salute o per l’amministrazione possono finire in sistemi di controllo, frontiere e polizia.
  • Le Big Tech cercano il favore del potere politico perché gli appalti pubblici e militari valgono moltissimo.
  • L’AI non resta più soltanto nei telefoni o negli uffici: entra anche nella difesa e nelle reti classificate.
  • Il problema non è solo la tecnologia. Il problema è chi la controlla e per fare cosa.

Glossario dei concetti più difficili

Infrastruttura di potere
Un insieme di tecnologie, regole, dati e istituzioni che permette di controllare persone, comportamenti e decisioni.

Profilazione economica
Analisi dei dati di una persona per capire quanto può spendere, cosa desidera e come trattarla commercialmente.

Surveillance pricing
Prezzi diversi per persone diverse, calcolati usando dati personali e comportamento online.

Classificazione asimmetrica
Situazione in cui un sistema sa molte cose su di te e ti valuta, mentre tu non sai come vieni valutata.

Biometria
Uso di caratteristiche fisiche del corpo per riconoscere o verificare una persona.

Identità digitale verificata
Sistema che cerca di dimostrare che una persona esiste davvero ed è chi dice di essere.

Sorveglianza indossabile
Controllo reso possibile da dispositivi che si portano addosso, come occhiali intelligenti, smartwatch o sensori.

Raccolta dati continua
Acquisizione costante di informazioni su ciò che fai, guardi, compri, dici o dove ti trovi.

Normalizzazione
Processo per cui qualcosa che prima sembrava grave o eccezionale comincia a sembrare normale.

Opacità algoritmica
Mancanza di chiarezza su come un algoritmo prende decisioni o classifica le persone.

Punteggio di rischio
Valutazione numerica o categoriale che un sistema assegna a una persona considerandola più o meno problematica, utile o pericolosa.

Database interrogabile

Archivio digitale che permette di cercare rapidamente informazioni su una persona come se fosse una scheda.

Correlazione automatizzata
Collegamento fatto da un sistema tra dati diversi per trovare relazioni, anche senza capire davvero il contesto umano.

Reti classificate
Reti informatiche riservate usate per dati sensibili o segreti in ambito governativo e militare.

Mission planning
Pianificazione di operazioni complesse, spesso in ambito militare o di intelligence.

Weapons targeting
Processo di selezione o supporto alla selezione di obiettivi da colpire con sistemi militari.

Guardrail
Limiti inseriti in un sistema per impedirne o ridurne gli usi più pericolosi.

Contractor della difesa
Impresa privata che lavora con esercito o apparati pubblici su tecnologie, dati, armi o sicurezza.

Apparato para-militare
Strutture o organizzazioni vicine alla logica militare, anche se non sono esercito in senso stretto.

Architettura del comando
Insieme di strumenti, dati e procedure che permettono di prendere decisioni, dare ordini e controllare operazioni.

Automazione decisionale
Quando una parte della decisione viene affidata a un sistema automatico invece che a un essere umano.

Neutralità tecnologica
L’idea che una tecnologia sia neutra e che tutto dipenda solo da come la si usa.

Militarizzazione dell’AI
Processo per cui sistemi di intelligenza artificiale entrano in difesa, sorveglianza, targeting e guerra.

Convergenza tra pubblico e privato

Situazione in cui aziende tecnologiche e istituzioni statali lavorano sempre più intrecciate sugli stessi dati e obiettivi.


Fonti

13 aprile 2026
Stanford HAI, 2026 AI Index Report
https://hai.stanford.edu/ai-index/2026-ai-index-report

13 aprile 2026
Stanford HAI, PDF del 2026 AI Index Report
https://hai.stanford.edu/assets/files/ai_index_report_2026.pdf

13 aprile 2026
ACLU, ACLU and 75 Organizations Sound Alarm on Meta's Plans to Add Facial Recognition Technology to Ray-Ban and Oakley Eyeglasses
https://www.aclu.org/press-releases/aclu-and-75-organizations-sound-alarm-on-metas-plans-to-add-facial-recognition-technology-to-ray-ban-and-oakley-eyeglasses

3 aprile 2026
Federal Reserve, Monitoring AI Adoption in the US Economy
https://www.federalreserve.gov/econres/notes/feds-notes/monitoring-ai-adoption-in-the-u-s-economy-20260403.html

31 marzo 2026
Reuters, Meta unveils two new Ray-Ban prescription smart glasses
https://www.reuters.com/business/media-telecom/meta-unveils-two-new-ray-ban-prescription-smart-glasses-2026-03-31/

28 febbraio 2026
Reuters, OpenAI reaches deal to deploy AI models on U.S. Department of War classified network
https://www.reuters.com/business/openai-reaches-deal-deploy-ai-models-us-department-war-classified-network-2026-02-28/

12 febbraio 2026
Reuters, Pentagon pushing AI companies to expand on classified networks, sources say
https://www.reuters.com/business/pentagon-pushing-ai-companies-expand-classified-networks-sources-say-2026-02-12/

28 gennaio 2026
OECD, AI use by individuals surges across the OECD as adoption by firms continues to expand
https://www.oecd.org/en/about/news/announcements/2026/01/ai-use-by-individuals-surges-across-the-oecd-as-adoption-by-firms-continues-to-expand.html

13 gennaio 2026
Reuters, Meta mulls doubling output of Ray-Ban glasses by year end
https://www.reuters.com/business/meta-mulls-doubling-output-ray-ban-glasses-by-year-end-bloomberg-news-reports-2026-01-13/

6 gennaio 2026
Reuters, Meta delays global rollout of Ray-Ban Display glasses on strong US demand
https://www.reuters.com/business/meta-delays-global-rollout-ray-ban-display-glasses-strong-us-demand-supply-2026-01-06/

17 luglio 2025
Reuters, US health department hands over Medicaid personal data to ICE
https://www.reuters.com/business/healthcare-pharmaceuticals/us-health-department-hands-over-medicaid-personal-data-ice-2025-07-17/

3 giugno 2025
AI Now Institute, Artificial Power: 2025 Landscape Report
https://ainowinstitute.org/publications/research/ai-now-2025-landscape-report

4 febbraio 2025
European Commission, Guidelines on prohibited artificial intelligence practices
https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act

3 febbraio 2025
European Commission, First rules of the Artificial Intelligence Act are now applicable
https://digital-strategy.ec.europa.eu/en/news/first-rules-artificial-intelligence-act-are-now-applicable

17 gennaio 2025
FTC, Surveillance Pricing Study Indicates Wide Range of Personal Data Used to Set Individualized Consumer Prices
https://www.ftc.gov/news-events/news/press-releases/2025/01/ftc-surveillance-pricing-study-indicates-wide-range-personal-data-used-set-individualized-consumer

7 gennaio 2025
Reuters, Meta ends third-party fact-checking program, adopts X-like Community Notes model
https://www.reuters.com/technology/meta-ends-third-party-fact-checking-program-adopts-x-like-community-notes-model-2025-01-07/

19 dicembre 2024
Reuters, Worldcoin must delete all iris scan data, watchdog says
https://www.reuters.com/markets/currencies/spanish-watchdog-tells-worldcoin-delete-all-iris-scan-data-2024-12-19/

17 dicembre 2024
Reuters, Corporate America pledges donations for Trump's inauguration
https://www.reuters.com/world/us/corporate-america-pledges-donations-trump-inauguration-2024-12-17/

6 dicembre 2024
Reuters, Palantir and Anduril sign partnership for AI training in defense
https://www.reuters.com/technology/artificial-intelligence/palantir-anduril-sign-partnership-ai-training-defense-2024-12-06/

4 dicembre 2024
Reuters, Defense firm Anduril partners with OpenAI to use AI in national security missions
https://www.reuters.com/technology/artificial-intelligence/defense-firm-anduril-partners-with-openai-use-ai-national-security-missions-2024-12-04/

17 ottobre 2024
Reuters, Sam Altman's rebranded Worldcoin ramps up iris-scanning crypto project
https://www.reuters.com/technology/artificial-intelligence/sam-altmans-rebranded-worldcoin-ramps-up-iris-scanning-crypto-project-2024-10-17/

10 settembre 2024
Human Rights Watch, Gaza: Israeli Military's Digital Tools Risk Civilian Harm
https://www.hrw.org/news/2024/09/10/gaza-israeli-militarys-digital-tools-risk-civilian-harm

10 settembre 2024
Human Rights Watch, Questions and Answers: Israeli Military's Use of Digital Tools in Gaza
https://www.hrw.org/news/2024/09/10/questions-and-answers-israeli-militarys-use-of-digital-tools-in-gaza


FTC, Surveillance Pricing
https://www.ftc.gov/news-events/features/surveillance-pricing

European Commission, AI Act regulatory framework
https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai


Commenti

Post popolari in questo blog

Rehairmony Metodo di Giovanna Sciarrapa

 

La Bottega dell'Immagine e Luigi Lusini detto Gigi

Circa un mese e mezzo fa vengo contattata da un certo Gigi Lusini, fotografo senese di indiscussa fama, non sempre positiva, qualcuno ne parla anche  come un egocentrico megalomane... :-) Ma come si sa io amo l'egocentrismo e chi ha il coraggio di viverselo serenamente, amo anche i megalomani che considero la contrapposizione a un popolo stereotipato che non è capace a esprimere se stesso."E se mi parlano male di qualcuno, lo devo incontrare!" Mi chiede un appuntamento in piazza del Campo, in un bellissimo caffè, mi dice che sente parlare di me, bene e male, io ho un po la fama di vendere fumo perchè bendo le persone e gli faccio esplorare i luoghi, perchè li costringo a "annusare" le cose, perchè non insegno la tecnica, perchè faccio Work shop di nudo per sole donne... ect... Gigi ha creato La Bottega dell'immagine a Siena, un circolo fotografico, non un club, e sta cercando davvero di fare cultura, ha posizioni lontanissime dalle mie, ma nella chiac...

Marketing e intelligenza artificiale

 Assistenti virtuali che utilizzano algoritmi artificiali. No, non è più fantascienza. Sto collaborando con Quest it Italia e stiamo creando il mio assistente virtuale per il mio sito arte. Non si limiterà solo a quello. Intanto però vi darà informazioni sulle mie opere, sulla mia storia, sul mio mondo. Su piattaforma Algho in collaborazione con https:// www.quest-it.com