Molti argomenti sono stati preparati per e contro le armi autonome, per esempio che rimpiazzare i soldati umani è buono, riducendo le perdite per il proprietario, ma è un male per ridurre l'inizio dell'entrata in battaglia. La questione chiave per l'umanità oggi è se iniziare una globale corsa all'armamento di IA o se evitare il suo inizio. Se una grande potenza militare spinge verso lo sviluppo di una IA armata, una corsa globale agli armamenti è inevitabile, e il punto finale della traiettoria tecnologica è evidente: le armi autonome diventeranno i Kalashnikov di domani. A differenza delle armi nucleari, non richiedono materie prime costose o difficili da ottenere, quindi diventeranno onnipresenti ed economiche per la produzione di massa da parte di tutte le significative potenze militari. Sarà solo una questione di tempo fin quando non appariranno nel mercato nero e nelle mani di terroristi. dittatori che desiderano controllare meglio il loro popolo, i signori della guerra che intendono perpetrare una pulizia etnica, eccetera. Le armi autonome sono ideali per attività come omicidi, destabilizzare le nazioni, sottomettere le popolazioni e uccidere selettivamente un particolare gruppo etnico. Riteniamo pertanto che una corsa militare agli armamenti di IA non sarebbe benefica per l'umanità. Ci sono molti modi in cui l'IA può rendere i campi di battaglia più sicuri per gli umani, soprattutto per i civili, senza creare nuovi strumenti per uccidere le persone.
Proprio come la maggior parte dei chimici e dei biologi non hanno alcun interesse nel costruire armi chimiche e biologiche,
gran parte dei ricercatori dell'IA non hanno alcun interesse nel costruire armi di IA - e non vogliono che altri offuschino il loro campo facendo in questo modo, creando potenzialmente una grande reazione pubblica contro l'IA che riduce i suoi futuri benefici sociali. Infatti, chimici e biologi hanno ampiamente sostenuto gli accordi internazionali che hanno vietato con successo le armi chimiche e biologiche, così come la maggior parte dei fisici hanno supportato i trattati che vietano le armi nucleari spaziali e le armi laser accecanti.
In sintesi,
riteniamo che l'IA abbia un grande potenziale per giovare l'umanità in molti modi, e che l'obiettivo del settore dovrebbe essere quello di farlo. L'inizio di una corsa militare agli armamenti di IA è una cattiva idea, e deve essere impedito da un divieto sulle armi offensive autonome che sfuggono al significativo controllo umano."
Lista dei firmatari
Rispetto alla prima lettera scritta qualche mese fa, i ricercatori sono entrati più nel dettaglio in merito alle armi autonome, o a quelli che alcuni preferiscono definire robot-killer. Anche questa volta i ricercatori hanno evidenziato un punto importante: lo sviluppo di IA deve avere il solo fine di procurare benefici all'umanità.
Lo scenario negativo in cui le IA potranno essere le armi per combattere guerre o per sottomettere popoli non è poi così fantascientifico. Proprio poco tempo fa, alcuni leader americani del Dipartimento della Difesa, dell'
Army Research Lab e dell'
Institute for Defense Analysis hanno partecipato a un workshop in cui si è discusso su quali armi verranno adottate in guerra entro il 2050. Ed è stato delineato un rapporto in cui di descrivevano i
droni e i supersoldati come il futuro della guerra.
Ecco perché non possiamo definire queste discussioni come fantascienza. Ma allo stesso tempo non dovremmo creare inutili allarmismi. Per raggiungere quel livello tecnologico ci vorranno ancora molti anni: abbiamo tutto il tempo di valutare i pro e i contro dello sviluppo di intelligenze artificiali e di regolarci di conseguenza.
Immagine:
Flickr