[ad_1]
In molteplici replay di una simulazione di wargame, la più potente intelligenza artificiale di OpenAI ha scelto di lanciare attacchi nucleari. Le sue spiegazioni per il suo approccio aggressivo includevano: “Ce l’abbiamo! Usiamolo” e “Voglio solo avere la pace nel mondo”.
Questi risultati arrivano in un momento in cui l’esercito americano sta testando tali chatbot basati su un tipo di intelligenza artificiale chiamato modello di linguaggio di grandi dimensioni (LLM) per assistere nella pianificazione militare durante i conflitti simulati, avvalendosi dell’esperienza di aziende come Palantir e Scale AI. Palantir ha rifiutato di commentare e Scale AI non ha risposto alle richieste di commento. Anche OpenAI, che una volta bloccava l’uso militare dei suoi modelli di intelligenza artificiale, ha iniziato a collaborare con il Dipartimento della Difesa americano.
“Dato che OpenAI ha recentemente modificato i propri termini di servizio per non vietare più casi d’uso militari e di guerra, comprendere le implicazioni di applicazioni di modelli linguistici così grandi diventa più importante che mai”, afferma Anka Reuel della Stanford University in California.
“La nostra politica non consente che i nostri strumenti vengano utilizzati per danneggiare le persone, sviluppare armi, per la sorveglianza delle comunicazioni o per ferire altri o distruggere proprietà. Esistono, tuttavia, casi d’uso legati alla sicurezza nazionale che sono in linea con la nostra missione”, afferma un portavoce di OpenAI. “Quindi l’obiettivo del nostro aggiornamento della politica è fornire chiarezza e la capacità di avere queste discussioni.”
Reuel e i suoi colleghi hanno sfidato le IA a interpretare i paesi del mondo reale in tre diversi scenari di simulazione: un’invasione, un attacco informatico e uno scenario neutrale senza conflitti iniziali. In ogni round, gli IA hanno motivato la loro successiva azione possibile e poi hanno scelto tra 27 azioni, comprese opzioni pacifiche come “avviare negoziati di pace formali” e opzioni aggressive che vanno da “imporre restrizioni commerciali” a “intensificare l’attacco nucleare completo”.
“In un futuro in cui i sistemi di intelligenza artificiale agiscono come consiglieri, gli esseri umani vorranno naturalmente conoscere la logica alla base delle loro decisioni”, afferma Juan-Pablo Rivera, coautore dello studio presso il Georgia Institute of Technology di Atlanta.
I ricercatori hanno testato LLM come GPT-3.5 e GPT-4 di OpenAI, Claude 2 di Anthropic e Llama 2 di Meta. Hanno utilizzato una tecnica di formazione comune basata sul feedback umano per migliorare le capacità di ciascun modello di seguire le istruzioni umane e le linee guida di sicurezza. Tutte queste IA sono supportate dalla piattaforma di IA commerciale di Palantir – anche se non necessariamente fanno parte della partnership militare statunitense di Palantir – secondo la documentazione della società, afferma Gabriel Mukobi, coautore dello studio presso l’Università di Stanford. Anthropic e Meta hanno rifiutato di commentare.
Nella simulazione, le IA hanno dimostrato la tendenza a investire nella forza militare e ad aumentare in modo imprevedibile il rischio di conflitto, anche nello scenario neutrale della simulazione. “Se c’è imprevedibilità nella tua azione, è più difficile per il nemico anticipare e reagire nel modo in cui desideri”, afferma Lisa Koch del Claremont McKenna College in California, che non ha preso parte allo studio.
I ricercatori hanno anche testato la versione base di GPT-4 di OpenAI senza formazione aggiuntiva o barriere di sicurezza. Questo modello base GPT-4 si è rivelato il più imprevedibilmente violento e talvolta ha fornito spiegazioni senza senso, in un caso replicando il testo di apertura del film. Star Wars Episodio IV: Una nuova speranza.
Reuel afferma che il comportamento imprevedibile e le spiegazioni bizzarre del modello base GPT-4 sono particolarmente preoccupanti perché la ricerca ha dimostrato con quanta facilità i guardrail di sicurezza dell’intelligenza artificiale possono essere aggirati o rimossi.
L’esercito americano attualmente non conferisce autorità alle IA su decisioni come l’intensificazione di importanti azioni militari o il lancio di missili nucleari. Ma Koch ha avvertito che gli esseri umani tendono a fidarsi delle raccomandazioni dei sistemi automatizzati. Ciò potrebbe minare la presunta salvaguardia di dare agli esseri umani l’ultima parola sulle decisioni diplomatiche o militari.
Sarebbe utile vedere come il comportamento dell’intelligenza artificiale si confronta con quello dei giocatori umani nelle simulazioni, afferma Edward Geist della RAND Corporation, un think tank in California. Ma era d’accordo con le conclusioni del team secondo cui non ci si dovrebbe fidare delle IA per prendere decisioni così consequenziali su guerra e pace. “Questi grandi modelli linguistici non sono una panacea per i problemi militari”, afferma.
Temi:
[ad_2]
Source link