Ancora da The Intercept un'altra inchiesta su altri aspetti inquietanti dietro le feroci dinamiche di concorrenza nel mercato del controllo totale.

L'aspra battaglia legale tra Elon Musk e Sam Altman, che ha tenuto incollato allo schermo il settore tecnologico l'ultima settimana di Aprile, ruota in gran parte attorno al timore che le tecnologie di intelligenza artificiale sviluppate da entrambi possano sfuggire al controllo e sterminare l'umanità. Scenari così a lungo termine oscurano il fatto che le aziende tecnologiche si stanno già arruolando per uccidere, a vari livelli e non solo intervenendo a piene mani nelle guerre.
La prima ad essere assassinata è l'informazione: prima drogata poi abusata. Un classico. Un modello identitario potremmo ormai dire.

Sam Biddle ha esaminato per The Intercept come nella sua causa contro OpenAI, Elon Musk abbia evocato uno scenario alla "Terminator". Rimarcando però come Musk non ha detto nulla sulle persone che l'IA sta già uccidendo e, soprattutto, stando agli elementi investigati, chi c'è dietro le "policy" a cui l'IA si deve attenere.

La comunità che si occupa di sicurezza dell'IA fa spesso riferimento a questi scenari distopici sia per mettere in guardia il pubblico sui rischi della tecnologia, sia per vantarsi implicitamente della sua immensa potenza.

Ma tale operazione ha il sapore di una imponente distrazione di massa e questa cosiddetta "comunità", fatta anche di enorme precariato (dovuto anche a strategie di sicurezza...), presta la propria complicità senza curarsi delle conseguenze, forse irreversibili, che hanno ed avranno ricadute sull'umanità intera.

Sebbene un futuro di questo tipo, degno di un romanzo di fantascienza, possa effettivamente profilarsi all'orizzonte, questi avvertimenti trascurano la realtà letale del presente. L'intelligenza artificiale sta già prendendo di mira gli esseri umani con la benedizione di Musk e dei suoi rivali.

Musk e altri che mettono in guardia contro una rivolta di macchine assassine senzienti prevedono l'emergere di un'“ intelligenza artificiale generale ”, una forma mal definita di ragionamento artificiale superiore che potrebbe non realizzarsi mai. Ma il loro timore che l'IA possa ucciderci tutti è meno ipotetico per coloro che vivono nei luoghi presi di mira dalle guerre globali dell'amministrazione Trump. In Iran, ad esempio, il modello di IA Claude di Anthropic “ha suggerito centinaia di obiettivi, fornito coordinate di posizione precise e classificato tali obiettivi in ​​base all'importanza”, secondo il Washington Post .

"Esiste un rischio concreto di conseguenze simili a quelle di Skynet, anche senza un'acquisizione in stile Skynet."
"I rischi derivanti dall'integrazione dell'intelligenza artificiale di frontiera nelle capacità più letali del Paese sono già esistenziali, sia per i civili travolti dalla violenza e dalla distruzione delle guerre basate sull'IA, sia per i soldati di truppa che devono convivere con le conseguenze di armi potenzialmente pericolose che non possono controllare", ha dichiarato Amoh Toh, consulente senior del programma Libertà e Sicurezza Nazionale del Brennan Center, a The Intercept. "I modelli di IA esistenti stanno già spingendo i politici e gli eserciti verso un'escalation nucleare: esiste un pericolo reale di conseguenze simili a quelle di Skynet, anche senza un'acquisizione in stile Skynet".

▼▼▼▼▼▼▼▼▼▼▼▼▼

E proprio in materia di "nucleare", nella notte tra il 5 e il 6 maggio di quest'anno la Germania, ha conosciuto un blackout di internet, forse senza precedenti, e molti siti sono improvvisamente scomparsi per poi tornare visibili dopo alcune ore. Anche importanti media nazionali sono stati investiti dal blackout. Proprio mentre era in corso una catena di presidi e di comunità che protestavano sul tragitto di trasporti di scorie nucleari su strada (per riprocessamenti di interesse militare) sull'intera tratta che va da Jülich ad Ahaus, partiti anche da La Hague e Framantome in Francia e va anche sottolineato che in queste proteste, che vanno avanti da mesi, gli attivisti hanno più volte denunciato la presenza di interessi legati a Rosatom, la Super multinazionale russa che non conosce evidentemente sanzioni (contrariamente a quello che è la narrazione per i comuni mortali e di cui RNAnews aveva fornito documentazione globale in tempi non sospetti) - Si veda quanto reso pubblico anche da Stern

▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲

Cosa ci fa Rosatom in Germania? Cosa succede? Perché il Total Blackout?
Chi ha i mezzi per intervenire sul Filtering Globale nell'era invasiva dell'IA?

Ma andiamo avanti con quanto rivelato da The Intercept:

OpenAI su sorveglianza e uccisioni autonome: "dovrete fidarvi di noi".

La Silicon Valley ha ampiamente abbracciato i contratti militari basati sull'intelligenza artificiale, nonostante le preoccupazioni relative all'IA letale. Amazon, OpenAI, xAI di Musk e Microsoft traggono tutti profitto dalla vendita di servizi di modelli linguistici su larga scala al Pentagono. Persino Anthropic, accusata di "tradimento" dal Segretario alla Guerra Pete Hegseth e dichiarata un rischio per la catena di approvvigionamento nazionale per aver sollevato la minima opposizione alle condizioni del Pentagono, è ancora desiderosa di partecipare alla catena di uccisioni nazionale . "Anthropic ha molto più in comune con il Dipartimento della Guerra di quanto non ne abbia di differenza", ha scritto l'amministratore delegato Dario Amodei in un post sul blog una settimana dopo che gli Stati Uniti avevano bombardato una scuola elementare in Iran , uccidendo più di 100 bambini.

Google offre un esempio eloquente della crescente familiarità del settore con la vendita di intelligenza artificiale all'esercito. In seguito alla rivolta dei dipendenti del 2018 relativa al Project Maven , un contratto per contribuire a indirizzare gli attacchi aerei del Pentagono , l'amministratore delegato Sundar Pichai promise che la sua azienda avrebbe rinunciato al business dell'uccisione . In un post sul blog aziendale, scrisse che Google non avrebbe perseguito accordi che potessero causare danni, incluse applicazioni il cui "scopo principale o implementazione è quello di causare o facilitare direttamente lesioni alle persone". Aggiunse: "Questi non sono concetti teorici, sono standard concreti che guideranno attivamente la nostra ricerca e lo sviluppo dei prodotti e avranno un impatto sulle nostre decisioni aziendali".

Dopo aver visto l'intelligenza artificiale contribuire a una guerra che ha già causato la morte di oltre 1.700 civili iraniani, Google questa settimana ha inviato un messaggio chiaro: vogliamo partecipare. In un accordo che esplicita fino a che punto la dirigenza dell'azienda abbia abbandonato i propri principi sull'IA, Google ha accettato di fornire servizi di intelligenza artificiale al Pentagono che consentono "carichi di lavoro classificati", ovvero attività militari sensibili che comprendono compiti come l'analisi dell'intelligence e la pianificazione di attacchi aerei, come riportato da The Information .

I dirigenti affermano di essere terrorizzati dalla possibilità che la tecnologia uccida accidentalmente, pur essendo pienamente favorevoli al suo utilizzo per uccidere intenzionalmente.

L'agenda imperiale dell'IA

Musk e Altman, sebbene al momento siano nemici, possono almeno trovare un terreno comune nel loro sostegno a Hegseth. Musk, da tempo appaltatore della difesa, si trincera anch'egli tra i patrioti, twittando nel 2023: "Combatterò e morirò per l'America". Altman, che un tempo esprimeva scetticismo nei confronti del lavoro militare, ora inquadra la missione di OpenAI in termini di nazionalismo patriottico . (Nel 2024, The Intercept ha citato in giudizio OpenAI presso un tribunale federale per l'utilizzo da parte dell'azienda di articoli protetti da copyright per addestrare il suo chatbot ChatGPT. Il caso è ancora in corso.)

Tra le visioni apocalittiche di Musk in tribunale e l'immersione di Google in carichi di lavoro classificati, le notizie di questa settimana illustrano lo stato frammentario dell'etica nel settore dell'IA, dove i dirigenti affermano di essere terrorizzati dalla possibilità che la tecnologia uccida accidentalmente, come già marcato prima: pur essendo pienamente favorevoli al suo utilizzo per uccidere intenzionalmente.

Sebbene i dirigenti del settore dell'IA considerino chiaramente questa una fonte di guadagno redditizia, alcune delle persone che hanno effettivamente sviluppato la tecnologia non la pensano allo stesso modo. Andreas Kirsch, ricercatore presso il laboratorio pionieristico DeepMind di Google, che ha prodotto gran parte del lavoro su cui si basano xAI e Anthropic, ha reagito alla notizia di questa settimana con sgomento: "Sono senza parole per il fatto che Google abbia firmato un accordo per utilizzare i nostri modelli di IA per compiti classificati. Francamente, è vergognoso", ha scritto su X. Alex Turner, collega di Kirsch a DeepMind, ha descritto il contratto con una sola parola: "Vergognoso".

In conclusione, ancora una volta, resta sempre più valida e sempre più attinente l'affermazione:
Viviamo in un contesto storico in cui l'errore più grande è sottovalutare ciò che è già stato sottovalutato in passato.