Big Tech, AI e guerra negli USA: profilazione, biometria e rischio autoritario Dietro la faccia comoda dell’intelligenza artificiale si sta consolidando qualcosa di molto più duro: una infrastruttura che unisce dati personali, biometria, contratti pubblici, sicurezza e guerra. Immagine generata con Chat GPT con un solo prompt Risparmiare prompt protegge il pianeta Quando parliamo di intelligenza artificiale, spesso l’immaginario collettivo si ferma ai chatbot, alle immagini generate, agli assistenti digitali, alla produttività, alla comodità. È la faccia leggera del fenomeno, quella che rende tutto più rapido, più brillante, più apparentemente intelligente. Ma sotto questa superficie si sta consolidando qualcosa di molto più serio. Negli Stati Uniti non stiamo vedendo soltanto una crescita dell’AI come strumento. Stiamo vedendo l’emergere di una infrastruttura che lega insieme piattaforme digitali, raccolta dati, profilazione economica, biometria, amministrazione pubblica, sicurezza ...
Copyright, AI generativa e grandi piattaforme Cosa sta succedendo davvero tra artisti, dataset e modelli Negli ultimi anni, insieme alla diffusione dell’AI generativa, si è aperto uno dei conflitti più importanti nel mondo della cultura visiva: quello tra diritto d’autore e addestramento dei modelli. Non è una questione nuova, ma oggi ha raggiunto una scala diversa. Perché riguarda milioni di immagini, migliaia di artisti e alcune delle più grandi aziende tecnologiche. Come vengono addestrati i modelli Per capire il problema, bisogna partire dal funzionamento. I modelli di AI generativa vengono addestrati su enormi dataset di immagini e testi. Questi dataset sono spesso costruiti attraverso: web scraping raccolta automatica di contenuti online archivi pubblici e semi-pubblici Durante l’addestramento, il modello non memorizza immagini singole in modo diretto, ma apprende relazioni statistiche tra elementi visivi e linguistici. Ed è qui che nasce il conflitto. Perché molte del...