[ 18 aprile 2018 ]
Il 12 aprile scorso davamo conto dell'iniziativa Campaign to Stop Killer Robots. [1]
Il 12 aprile scorso davamo conto dell'iniziativa Campaign to Stop Killer Robots. [1]
Questa campagna, pur concentrandosi su un aspetto, tira in ballo la più ampia questione dell'Intelligenza Artificiale (AI), e degli enormi e inquietanti mutamenti economici, sociali, politici ed etici che solleva.
Che la sfida dell'AI sia uno dei terreni strategici di scontro tra le potenze ce lo conferma Maurizio Molinari con un editoriale su LA STAMPA dell'8 aprile.
L'opinione pubblica, o meglio, i cittadini, sono largamente all'oscuro della vicenda.
Non sanno ad esempio che la Commissione dell'Unione europea sta varando una norma per attribuire ai robot uno specifico status giuridico.
Contro questa eventualità 156 esperti di AI hanno scritto una lettera di protesta: «sarebbe inappropriato e privo di senso sia da un punto di vista etico che legale, e una simile norma può inoltre violare i diritti umani».
Rinviando molti dossier ancora aperti sui diritti umani, il Parlamento europeo ha deciso di occuparsi di un tema che ritiene più urgente: i diritti dei robot. La possibilità che la Commissione stia per varare una norma che conferisca uno stato giuridico ai robot è ritenuta così concreta che 156 esperti di intelligenza artificiale di 14 paesi hanno scritto una lettera aperta all’Europarlamento, invitandolo letteralmente a non credere a quello che si vede nelle science-fiction televisive. Conferire uno stato giuridico ai robot – scrivono gli scienziati – «sarebbe inappropriato e privo di senso sia da un punto di vista etico che legale, e una simile norma può inoltre violare i diritti umani».
Tutto è cominciato nel gennaio scorso, quando tra le righe di un provvedimento varato a Bruxelles è apparsa una raccomandazione a occuparsi degli aspetti legali dell’intelligenza artificiale e in particolare di stabilire di chi fosse la responsabilità in caso di incidenti causati da un robot. Nel lungo termine, si auspicava, sarebbe stato opportuno attribuire ai robot uno stato giuridico che li trasformasse da un neutro agglomerato di plastica, metallo e circuiti in una vera e propria «persona elettronica», responsabile di quello che fa.
Mady Delvaux, parlamentare europea del Lussemburgo, è una delle principali sostenitrici del provvedimento, perché «più i robot diventano efficienti e capaci di imparare da soli e più saranno necessarie nuove regole: abbiamo così chiesto alla Commissione di studiarle». E’ evidente che il primo campo di applicazione dello stato giuridico di un robot potrà essere quello delle auto che si guidano da sole e che hanno già causato parecchi incidenti dei quali non si può individuare il responsabile.
Ma i firmatari della lettera aperta - tra i quali ci sono anche Nathalie Nevejans dell’Université d’Artois francese, un’esperta di etica nella robotica che lavora a Bruxelles, e Noel Sharkey, professore emerito all’Università di intelligenza artificiale e robotica all’Università di Sheffield – pensano che conferire uno stato giuridico ai robot otterrà un effetto opposto a quello che si dichiara: servirà solo a sollevare le aziende che li producono da ogni colpa per il comportamento dei loro prodotti, che come «persone elettroniche» saranno responsabili delle loro azioni.
«La Commissione – scrivono gli esperti - ha detto che sta considerando la possibilità di creare nel lungo periodo uno specifico stato giuridico per i robot, in modo che i robot più sofisticati possano avere lo status di persone elettroniche responsabili, in grado di porre rimedio a ogni danno che possono causare quando interagiscono con terze parti». Ma questa idea, aggiungono, «sopravvaluta le attuali possibilità dei robot più avanzati, dimostra una conoscenza superficiale dell’imprevedibilità dei comportamenti e delle capacità di autoapprendimento, e rivela una percezione dei robot distorta dalla science-fiction e da alcuni recenti annunci sensazionalistici della stampa».
C’è ancora tempo, insomma, per pensare allo stato giuridico delle persone elettroniche. Sarebbe più urgente, se mai – già scrivevano i giornali inglesi ironizzando sulle priorità di Bruxelles - occuparsi delle migliaia di persone ancora fatte di carne e di ossa, che a causa dei robot hanno già perso o perderanno presto il lavoro.
* * *
L'APPELLO DEGLI SCIENZIATI CONTRO LO STATO GIURIDICO DEI ROBOT
156 esperti di intelligenza artificiale di 14 paesi
hanno scritto una lettera aperta all’Europarlamento
di Vittorio Sabadin
Rinviando molti dossier ancora aperti sui diritti umani, il Parlamento europeo ha deciso di occuparsi di un tema che ritiene più urgente: i diritti dei robot. La possibilità che la Commissione stia per varare una norma che conferisca uno stato giuridico ai robot è ritenuta così concreta che 156 esperti di intelligenza artificiale di 14 paesi hanno scritto una lettera aperta all’Europarlamento, invitandolo letteralmente a non credere a quello che si vede nelle science-fiction televisive. Conferire uno stato giuridico ai robot – scrivono gli scienziati – «sarebbe inappropriato e privo di senso sia da un punto di vista etico che legale, e una simile norma può inoltre violare i diritti umani».
Tutto è cominciato nel gennaio scorso, quando tra le righe di un provvedimento varato a Bruxelles è apparsa una raccomandazione a occuparsi degli aspetti legali dell’intelligenza artificiale e in particolare di stabilire di chi fosse la responsabilità in caso di incidenti causati da un robot. Nel lungo termine, si auspicava, sarebbe stato opportuno attribuire ai robot uno stato giuridico che li trasformasse da un neutro agglomerato di plastica, metallo e circuiti in una vera e propria «persona elettronica», responsabile di quello che fa.
Mady Delvaux, parlamentare europea del Lussemburgo, è una delle principali sostenitrici del provvedimento, perché «più i robot diventano efficienti e capaci di imparare da soli e più saranno necessarie nuove regole: abbiamo così chiesto alla Commissione di studiarle». E’ evidente che il primo campo di applicazione dello stato giuridico di un robot potrà essere quello delle auto che si guidano da sole e che hanno già causato parecchi incidenti dei quali non si può individuare il responsabile.
Ma i firmatari della lettera aperta - tra i quali ci sono anche Nathalie Nevejans dell’Université d’Artois francese, un’esperta di etica nella robotica che lavora a Bruxelles, e Noel Sharkey, professore emerito all’Università di intelligenza artificiale e robotica all’Università di Sheffield – pensano che conferire uno stato giuridico ai robot otterrà un effetto opposto a quello che si dichiara: servirà solo a sollevare le aziende che li producono da ogni colpa per il comportamento dei loro prodotti, che come «persone elettroniche» saranno responsabili delle loro azioni.
«La Commissione – scrivono gli esperti - ha detto che sta considerando la possibilità di creare nel lungo periodo uno specifico stato giuridico per i robot, in modo che i robot più sofisticati possano avere lo status di persone elettroniche responsabili, in grado di porre rimedio a ogni danno che possono causare quando interagiscono con terze parti». Ma questa idea, aggiungono, «sopravvaluta le attuali possibilità dei robot più avanzati, dimostra una conoscenza superficiale dell’imprevedibilità dei comportamenti e delle capacità di autoapprendimento, e rivela una percezione dei robot distorta dalla science-fiction e da alcuni recenti annunci sensazionalistici della stampa».
C’è ancora tempo, insomma, per pensare allo stato giuridico delle persone elettroniche. Sarebbe più urgente, se mai – già scrivevano i giornali inglesi ironizzando sulle priorità di Bruxelles - occuparsi delle migliaia di persone ancora fatte di carne e di ossa, che a causa dei robot hanno già perso o perderanno presto il lavoro.
NOTE
[1] Che cos'è un "robot killer"? E' un diabolico sistema di armi che identifica, seleziona e impiega forza letale contro obiettivi in modo pressoché autonomo, senza cioè che dipenda da un effettivo controllo umano.
Una riunione internazionale è prevista per il prossimo mese di novembre. Di che si tratta? Del fatto che molti dei cervelli, delle università e dei centri di ricerca lavorano all'applicazione militare della cosiddetta "Intelligenza artificiale". In particolare alla costruzione di Robot killer.
In prima linea su questo fronte stanno Stati Uniti, Cina, Israele, Corea del Sud, Russia e Regno Unito. Questi paesi stanno appunto indirizzando ricerca e industria high-tech per costruire droni armati e altri sistemi letali di armi autonome con livelli decrescenti di controllo umano.
I promotori della campagna (tra cui scienziati e premi nobel) avvertono che l'uso dell'intelligenza artificiale sta rendendo sempre più pratico progettare e rendere operativi sistemi d'arma che possono colpire il bersaglio e attaccare senza alcun reale controllo umano.
Se la tendenza all'autonomia dell'AI militare continua, gli umani possono iniziare a vedersi sfuggire il controllo decisionale di alcune azioni di guerra, mantenendo soltanto un ruolo secondario e/o di limitata supervisione —limitandosi ad impostare aleatori parametri di missione.
Da sottolineare che questi robot assassini possono essere programmati non solo per l'uso sui campi di battaglia ma anche in operazioni di polizia e di repressione dei conflitti sociali.
Una riunione internazionale è prevista per il prossimo mese di novembre. Di che si tratta? Del fatto che molti dei cervelli, delle università e dei centri di ricerca lavorano all'applicazione militare della cosiddetta "Intelligenza artificiale". In particolare alla costruzione di Robot killer.
In prima linea su questo fronte stanno Stati Uniti, Cina, Israele, Corea del Sud, Russia e Regno Unito. Questi paesi stanno appunto indirizzando ricerca e industria high-tech per costruire droni armati e altri sistemi letali di armi autonome con livelli decrescenti di controllo umano.
I promotori della campagna (tra cui scienziati e premi nobel) avvertono che l'uso dell'intelligenza artificiale sta rendendo sempre più pratico progettare e rendere operativi sistemi d'arma che possono colpire il bersaglio e attaccare senza alcun reale controllo umano.
Se la tendenza all'autonomia dell'AI militare continua, gli umani possono iniziare a vedersi sfuggire il controllo decisionale di alcune azioni di guerra, mantenendo soltanto un ruolo secondario e/o di limitata supervisione —limitandosi ad impostare aleatori parametri di missione.
Da sottolineare che questi robot assassini possono essere programmati non solo per l'uso sui campi di battaglia ma anche in operazioni di polizia e di repressione dei conflitti sociali.
Nessun commento:
Posta un commento