[ad_1]
L’intelligenza artificiale (AI) e gli algoritmi possono e vengono utilizzati per radicalizzare, polarizzare e diffondere il razzismo e l’instabilità politica, afferma un accademico della Lancaster University.
Joe Burton, professore di sicurezza internazionale alla Lancaster University, sostiene che l’intelligenza artificiale e gli algoritmi non sono solo strumenti utilizzati dalle agenzie di sicurezza nazionali per prevenire attività dannose online, ma possono contribuire alla polarizzazione, al radicalismo e alla violenza politica, rappresentando una minaccia per la sicurezza nazionale.
Oltre a ciò, afferma, i processi di cartolarizzazione (che presentano la tecnologia come una minaccia esistenziale) sono stati determinanti nel modo in cui l’intelligenza artificiale è stata progettata, utilizzata e negli esiti dannosi che ha generato.
L’articolo del professor Burton ‘Estremismo algoritmico? La cartolarizzazione dell’intelligenza artificiale (AI) e il suo impatto su radicalismo, polarizzazione e violenza politica” è pubblicato nella rivista ad alto impatto di Elsevier La tecnologia nella società Rivista.
“L’intelligenza artificiale è spesso considerata uno strumento da utilizzare per contrastare l’estremismo violento”, afferma il professor Burton. “Ecco l’altro lato del dibattito.”
Il documento esamina il modo in cui l’intelligenza artificiale è stata cartolarizzata nel corso della sua storia, nelle rappresentazioni dei media e della cultura popolare, ed esplora esempi moderni di intelligenza artificiale che hanno effetti polarizzanti e radicalizzanti che hanno contribuito alla violenza politica.
L’articolo cita la serie di film classici, Terminator, che descriveva un olocausto commesso da un’intelligenza artificiale “sofisticata e maligna”, che faceva più di ogni altra cosa per inquadrare la consapevolezza popolare dell’intelligenza artificiale e la paura che la coscienza della macchina potesse portare a conseguenze devastanti per l’umanità. l’umanità – in questo caso una guerra nucleare e un tentativo deliberato di sterminare una specie.
“Questa mancanza di fiducia nelle macchine, le paure ad esse associate e la loro associazione con le minacce biologiche, nucleari e genetiche per l’umanità hanno contribuito al desiderio da parte dei governi e delle agenzie di sicurezza nazionale di influenzare lo sviluppo della tecnologia, per mitigare rischio e (in alcuni casi) per sfruttarne le potenzialità positive”, scrive il professor Burton.
Il ruolo dei droni sofisticati, come quelli utilizzati nella guerra in Ucraina, è ora, afferma il professor Burton, capace di piena autonomia, comprese funzioni come l’identificazione e il riconoscimento dei bersagli.
E, mentre c’è stato un ampio e influente dibattito elettorale, anche alle Nazioni Unite, per vietare i “robot assassini” e per mantenere l’essere umano coinvolto quando si tratta di prendere decisioni sulla vita o sulla morte, l’accelerazione e l’integrazione in droni armati, dice, ha continuato a ritmo sostenuto.
Nella sicurezza informatica – la sicurezza dei computer e delle reti di computer – l’intelligenza artificiale viene utilizzata in modo massiccio e l’area prevalente è la (dis)informazione e la guerra psicologica online.
Le azioni del governo di Putin contro i processi elettorali statunitensi nel 2016 e il conseguente scandalo Cambridge Analytica hanno mostrato il potenziale della combinazione dell’intelligenza artificiale con i big data (compresi i social media) per creare effetti politici incentrati sulla polarizzazione, sull’incoraggiamento di credenze radicali e sulla manipolazione dei gruppi identitari. . Ha dimostrato il potere e il potenziale dell’intelligenza artificiale nel dividere le società.
E durante la pandemia, l’intelligenza artificiale è stata considerata positiva nel tracciare e rintracciare il virus, ma ha anche portato a preoccupazioni sulla privacy e sui diritti umani.
L’articolo esamina la stessa tecnologia dell’intelligenza artificiale, sostenendo che esistono problemi nella progettazione dell’intelligenza artificiale, nei dati su cui si basa, nel modo in cui viene utilizzata, nei suoi risultati e impatti.
Il documento si conclude con un messaggio forte ai ricercatori che lavorano nel campo della sicurezza informatica e delle relazioni internazionali.
“L’intelligenza artificiale è certamente in grado di trasformare le società in modo positivo, ma presenta anche rischi che devono essere compresi e gestiti meglio”, scrive il professor Burton, esperto di conflitti informatici e tecnologie emergenti e che fa parte dell’iniziativa Security and Protection Science dell’Università.
“Comprendere gli effetti divisivi della tecnologia in tutte le fasi del suo sviluppo e utilizzo è chiaramente vitale.
“Gli studiosi che lavorano nel campo della sicurezza informatica e delle relazioni internazionali hanno l’opportunità di integrare questi fattori nell’agenda di ricerca emergente sull’intelligenza artificiale ed evitare di trattare l’intelligenza artificiale come una tecnologia politicamente neutrale.
“In altre parole, la sicurezza dei sistemi di intelligenza artificiale e il modo in cui vengono utilizzati nelle lotte geopolitiche internazionali non dovrebbero prevalere sulle preoccupazioni sui loro effetti sociali”.
Essendo una delle poche università la cui istruzione, ricerca e formazione è riconosciuta dal National Cyber Security Center (NCSC) del Regno Unito, parte del GCHQ, Lancaster sta investendo molto nella prossima generazione di leader della sicurezza informatica. Oltre a potenziare la pipeline di competenze e talenti nella regione, basandosi sul master certificato NCSC con un nuovo corso di laurea in sicurezza informatica, ha lanciato un pionieristico master cyber executive in formazione aziendale.
[ad_2]
Source link