41 CONDIVISIONI
Opinioni

Slaughterbots, i droni-killer in un video per denunciare il pericolo delle armi autonome

Una vera e propria denuncia con la quale un professore della Berkeley University vuole evidenziare gli importanti pericoli derivanti dallo sviluppo delle armi autonome letali, delle quali chiede il divieto assoluto a livello internazionale.
A cura di Dario Caliendo
41 CONDIVISIONI
Immagine

Centinaia di droni assassini, autonomi e pronti a uccidere gli esseri umani senza alcun controllo. È questo il futuro immaginato da Stuart Russell, professore della Berkeley University in California ed esperto di intelligenza artificiale, che in un video realizzato in collaborazione con il Future of Life Institute ha comunicato il proprio scetticismo e la propria preoccupazione sulla crescita esponenziale delle tecnologie AI militari, in occasione del primo incontro tenutosi tra esperti governativi sulle armi autonome letali della Convenzione delle Nazioni Unite sulle Armi.

Una vera e propria denuncia, con la quale Russel vuole evidenziare gli importanti pericoli relativi allo sviluppo di questa nuova tipologia di armi, di cui chiede il divieto assoluto a livello internazionale.

Immagine

Nel video, diventato virale nel web in pochissimi giorni, viene mostrato un CEO nel corso di una presentazione in perfetto stile Silicon Valley, che con orgoglio svela il suo nuovo (e micidiale) prodotto di alta tecnologia, di fronte a una platea entusiasma del progetto: si tratta di un piccolissimo drone-killer dotato di tutte le più recenti tecnologie di riconoscimento facciale, in grado di spostarsi del tutto autonomamente e di uccidere esseri umani grazie ad una carica esplosiva che porterebbe con se durante tutto il volo.

Immagine

"L’intelligenza artificiale ha un potenziale enorme e può portare dei grossi benefici per l'umanità, soprattutto nel settore della difesa", ha sottolineato il Professore della Berkeley University, "Ma dare la possibilità alle macchine di decidere del tutto autonomamente di uccidere esseri umani, potrebbe avere conseguenze devastanti sulla sicurezza e sulla libertà di tutti".

E' un futuro inquietante, è vero, ma la possibilità che la prima delle tre "Leggi della robotica" immaginate da Isaac Asimov possa essere ignorata, non solo allarma gli attivisti dei diritti umani, ma fa preoccupare anche personalità come Stephen Hawking ed Elon Musk, che in una lettera inviata all'Onu nel 2015 hanno chiesto – con l'appoggio di circa 116 personalità di rilievo nel mondo della tecnologia – il bando completo di tutte le tecnologie letali che possono essere sottratte al controllo umano.

La militarizzazione eccessiva dell'intelligenza artificiale non va sottovalutata. E a dare conferma di quanto temuto da Musk e da Russel è uno studio del Belfer Center, nel quale viene evidenziata la crescita esponenziale della robotica militare alimentata dagli ingenti investimenti delle potenze economiche mondiali nello studio e lo sviluppo dei sistemi autonomi: la riorganizzazione militare guidata da armi autonome dotate di intelligenza artificiale, potrebbe avere una potenzialità trasformativa pari a quella che è stata associata storicamente all'arrivo delle armi nucleari ed è chiaro che il controllo e l'eventuale abolizione di queste nuove tecnologie debba essere considerato di vitale importanza.

41 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views