[ 12 aprile 2018 ]
Che futuro avremo se la cosiddetta "Intelligenza Artificiale" (AI) viene usata a scopi distruttivi?
Una riunione internazionale è prevista per il prossimo mese di novembre. Di che si tratta? Del fatto che molti dei cervelli, delle università e dei centri di ricerca lavorano all'applicazione militare della cosiddetta "Intelligenza artificiale". In particolare alla costruzione di Robot killer.
Lo sviluppo di tecnologie di intelligenza artificiale in ambito militare continua a far discutere. Se qualche mese fa era stato Elon Musk a parlare di algoritmi intelligenti come minaccia di un nuovo conflitto mondiale (da lì era nata la lettera firmata dallo stesso Ceo di Tesla e altri 116 fondatori di aziende di robotica e AI indirizzata all’Onu, nda), in queste settimane si registrano posizioni molto critiche che arrivano da più fronti.
Qualche giorno fa è esploso il caso Google, con oltre tremila dipendenti che hanno firmato una lettera contro le scelte dell’azienda di collaborare ad un progetto militare del Pentagono. Ma il caso di Mountain View non è isolato. Anzi, i fatti raccontano di quanto stia crescendo una sorta di movimento etico che attraversa Paesi e continenti. Un movimento che probabilmente è partito con l’ormai celebre lettera alle Nazioni Unite, sottoscritta da oltre 16mila ricercatori il 28 luglio del 2015.
Dopo il recente caso di Google, ne è emerso uno che arriva dalla Corea del Sud e riguarda oltre 50 importanti accademici provenienti da circa 30 Paesi che stanno boicottando un’università sudcoreana, preoccupati da una partnership fra l’ateneo e un ente militare che avrebbe l’obiettivo di produrre un “robot killer” basato sull’intelligenza artificiale.
I ricercatori hanno firmato la lettera che chiede di boicottare la “Korea Advanced Institute of Science and Technology” (KAIST) e il suo partner, il produttore “Hanwha Systems”. Gli accademici ritengono che i due soggetti stiano cercando di accelerare la corsa agli armamenti per sviluppare armi autonome. E per questa ragione hanno bloccato le loro collaborazioni.
La lettera
«Ci sono molte grandi cose che si possono fare con l’intelligenza artificiale che salvano vite umane, anche in un contesto militare, ma dichiarare apertamente che l’obiettivo è quello di sviluppare armi autonome e avere un partner come questo suscita grande preoccupazione – ha detto Toby Walsh, l’organizzatore del boicottaggio e docente presso l’Università del New South Wales -. Si tratta di un’università molto rispettata che collabora con un partner molto dubbio dal punto di vista etico e che continua a violare le norme internazionali».
Il boicottaggio precede la riunione delle Nazioni Unite sulle armi autonome che si terrà a Ginevra la prossima settimana, e più di 20 Paesi hanno già chiesto un divieto totale dei robot assassini. L’uso dell’IA nel settore militare, del resto, rievoca scenari da Terminator, la celebre pellicola con Arnold Schwarzenegger, e lascia molte perplessità sulla capacità di un robot killer di distinguere fra amici e nemici.
“Hanwha System” è uno dei maggiori produttori di armi della Corea del Sud e produce munizioni a grappolo che sono vietate in 120 paesi in virtù di un trattato internazionale, non sottoscritto da Corea del Sud, Stati Uniti, Russia e Cina. Il presidente del Kaist, Sung-Chul Shin, si è detto rattristato per il boicottaggio, dicendo che «il Kaist non condurrà alcuna attività di ricerca contraria alla dignità umana, comprese le armi autonome prive di un significativo controllo umano».
Il centro accademico sudcoreano sta lavorando molto sullo sviluppo di sistemi basati su intelligenza artificiale, basandosi su algoritmi di navigazione per veicoli sottomarini di grandi dimensioni senza equipaggio, sistemi di formazione per aeromobili intelligenti e tecnologie intelligenti di localizzazione e riconoscimento degli oggetti.
Robot da combattimento e droni
La lettera degli accademici contro l’ente sudcoreano segue quella dei tremila dipendenti di Google. Ma dipendenti etici a parte, le temutissime tecnologie intelligenti in ambito militare sono già realtà in più parti del mondo. Sempre in Corea del Sud, per esempio, la società Dodaam Systems produce un autentico robot da combattimento completamente autonomo, in grado di rilevare bersagli nel raggio di tre km. E fra i clienti di questa società con sede a Taejon vi sono, secondo il Guardian, gli Emirati Arabi Uniti e il Qatar. Il robot è stato anche testato, ma con restrizioni preimpostate che richiedevano l’intervento manuale (cioè di un essere umano) per sferrare un attacco.
In Inghilterra, invece, la società Bae Systems ha costruito un drone militare autonomo costato 185 milioni di sterline (fondi erogati dal Ministero per la Difesa inglese). Negli Stati Uniti è già operativo il sottomarino controllato da remoto Sea Hunter. E numerosi progetti sono in itinere.
In prima linea su questo fronte stanno Stati Uniti, Cina, Israele, Corea del Sud, Russia e Regno Unito. Questi paesi stanno appunto indirizzando ricerca e industria high-tech per costruire droni armati e altri sistemi letali di armi autonome con livelli decrescenti di controllo umano.
I promotori della campagna (tra cui scienziati e premi nobel) avvertono che l'uso dell'intelligenza artificiale sta rendendo sempre più pratico progettare e rendere operativi sistemi d'arma che possono colpire il bersaglio e attaccare senza alcun reale controllo umano.
Se la tendenza all'autonomia dell'AI militare continua, gli umani possono iniziare a vedersi sfuggire il controllo decisionale di alcune azioni di guerra, mantenendo soltanto un ruolo secondario e/o di limitata supervisione —limitandosi ad impostare aleatori parametri di missione.
Da sottolineare che questi robot assassini possono essere programmati non solo per l'uso sui campi di battaglia ma anche in operazioni di polizia e di repressione dei conflitti sociali.
* * *
La rivolta etica dei lavoratori tech contro i robot militari
di Biagio Simonetta
Lo sviluppo di tecnologie di intelligenza artificiale in ambito militare continua a far discutere. Se qualche mese fa era stato Elon Musk a parlare di algoritmi intelligenti come minaccia di un nuovo conflitto mondiale (da lì era nata la lettera firmata dallo stesso Ceo di Tesla e altri 116 fondatori di aziende di robotica e AI indirizzata all’Onu, nda), in queste settimane si registrano posizioni molto critiche che arrivano da più fronti.
Qualche giorno fa è esploso il caso Google, con oltre tremila dipendenti che hanno firmato una lettera contro le scelte dell’azienda di collaborare ad un progetto militare del Pentagono. Ma il caso di Mountain View non è isolato. Anzi, i fatti raccontano di quanto stia crescendo una sorta di movimento etico che attraversa Paesi e continenti. Un movimento che probabilmente è partito con l’ormai celebre lettera alle Nazioni Unite, sottoscritta da oltre 16mila ricercatori il 28 luglio del 2015.
Dopo il recente caso di Google, ne è emerso uno che arriva dalla Corea del Sud e riguarda oltre 50 importanti accademici provenienti da circa 30 Paesi che stanno boicottando un’università sudcoreana, preoccupati da una partnership fra l’ateneo e un ente militare che avrebbe l’obiettivo di produrre un “robot killer” basato sull’intelligenza artificiale.
I ricercatori hanno firmato la lettera che chiede di boicottare la “Korea Advanced Institute of Science and Technology” (KAIST) e il suo partner, il produttore “Hanwha Systems”. Gli accademici ritengono che i due soggetti stiano cercando di accelerare la corsa agli armamenti per sviluppare armi autonome. E per questa ragione hanno bloccato le loro collaborazioni.
La lettera
«Ci sono molte grandi cose che si possono fare con l’intelligenza artificiale che salvano vite umane, anche in un contesto militare, ma dichiarare apertamente che l’obiettivo è quello di sviluppare armi autonome e avere un partner come questo suscita grande preoccupazione – ha detto Toby Walsh, l’organizzatore del boicottaggio e docente presso l’Università del New South Wales -. Si tratta di un’università molto rispettata che collabora con un partner molto dubbio dal punto di vista etico e che continua a violare le norme internazionali».
Il boicottaggio precede la riunione delle Nazioni Unite sulle armi autonome che si terrà a Ginevra la prossima settimana, e più di 20 Paesi hanno già chiesto un divieto totale dei robot assassini. L’uso dell’IA nel settore militare, del resto, rievoca scenari da Terminator, la celebre pellicola con Arnold Schwarzenegger, e lascia molte perplessità sulla capacità di un robot killer di distinguere fra amici e nemici.
“Hanwha System” è uno dei maggiori produttori di armi della Corea del Sud e produce munizioni a grappolo che sono vietate in 120 paesi in virtù di un trattato internazionale, non sottoscritto da Corea del Sud, Stati Uniti, Russia e Cina. Il presidente del Kaist, Sung-Chul Shin, si è detto rattristato per il boicottaggio, dicendo che «il Kaist non condurrà alcuna attività di ricerca contraria alla dignità umana, comprese le armi autonome prive di un significativo controllo umano».
Il centro accademico sudcoreano sta lavorando molto sullo sviluppo di sistemi basati su intelligenza artificiale, basandosi su algoritmi di navigazione per veicoli sottomarini di grandi dimensioni senza equipaggio, sistemi di formazione per aeromobili intelligenti e tecnologie intelligenti di localizzazione e riconoscimento degli oggetti.
Robot da combattimento e droni
La lettera degli accademici contro l’ente sudcoreano segue quella dei tremila dipendenti di Google. Ma dipendenti etici a parte, le temutissime tecnologie intelligenti in ambito militare sono già realtà in più parti del mondo. Sempre in Corea del Sud, per esempio, la società Dodaam Systems produce un autentico robot da combattimento completamente autonomo, in grado di rilevare bersagli nel raggio di tre km. E fra i clienti di questa società con sede a Taejon vi sono, secondo il Guardian, gli Emirati Arabi Uniti e il Qatar. Il robot è stato anche testato, ma con restrizioni preimpostate che richiedevano l’intervento manuale (cioè di un essere umano) per sferrare un attacco.
In Inghilterra, invece, la società Bae Systems ha costruito un drone militare autonomo costato 185 milioni di sterline (fondi erogati dal Ministero per la Difesa inglese). Negli Stati Uniti è già operativo il sottomarino controllato da remoto Sea Hunter. E numerosi progetti sono in itinere.
* Fonte: IL SOLE 24 ORE, 8 aprile 2018
4 commenti:
Che futuro avremo se la cosiddetta "Intelligenza Artificiale" (AI) viene usata a scopi distruttivi?
Un futuro molto simile a quello raccontato in "Horizon Zero Down "
L'intelligenza artificiale, l'industria 4.0, prima il web 2.0 che conosco bene per mestiere ,per cui so che è una cazzata pompata dalla pubblicità.
Tranquilli, non sta succedendo niente di stratosfericamente nuovo. Business as usual.
Tutto il resto è politica.
Concordo,l'evoluzione distopica delle nuove tecnologie sta nutrendo le fantasie degli autori di fantascienza contemporanei.
Comunque sia, siamo sulla strada terrificante intravista nel film fantascientifico "Terminator". Può darsi che ci siano delle esagerazioni o che i progetti siano ancora da mettere a punto ma, tecnicamente, sarebbe già qualcosa di realizzabile. Siamo a posto: cosi, senza processo o giudici o avvocati difensori ..., Click: morto!
Posta un commento