Demis Hassabis (Google) e l'etica per l'intelligenza artificiale

I progressi dell'intelligenza artificiale (IA) sono così significativi che molti esperti credono che questa tecnologia in futuro ci potrà fornire preziosi consigli su come curare i pazienti, affrontare il cambiamento climatico e risolvere il problema della povertà. Sarebbe davvero grandioso, ma un'IA così potente significherebbe anche avere un'enorme responsabilità sugli impatti economici e sociali sulla società.
Demis Hassabis
Demis Hassabis
Foto di Matt Writtle

Come far fronte a una simile responsabilità? Demis Hassabis, co-fondatore e CEO di DeepMind, startup inglese che si occupa di machine learning e che nel 2011 è stata acquisita da Google, ritiene che è giunto il momento di discutere dell'aspetto etico relativo all'utilizzo dell'IA. Hassabis non è della stessa idea di Elon Musk e Stephen Hawking, secondo i quali lo sviluppo di IA in futuro ci porterà alla creazione di macchine che ci distruggeranno. Ecco perché hanno anche firmato la prima e la seconda lettera aperta sui rischi dell'IA. Ma Hassabis sostiene comunque che sarà necessario stabilire delle linee-guida che ci aiuteranno a costruire IA sicure e che produrranno solo ed esclusivamente benefici.

Responsabilità e consapevolezza

Intelligenze artificiali sempre più potenti implicano maggiore responsabilità e consapevolezza. Dobbiamo essere certi di cosa, come e perché stiamo costruendo macchine di questo tipo. "Penso che l'intelligenza artificiale sia come ogni nuova e potente tecnologia. Deve essere usata in modo responsabile. Se è usata in modo irresponsabile potrebbe fare del male."

Hassabis suggerisce inoltre di sviluppare IA in modo coscienzioso: "Penso che dobbiamo essere consapevoli di questo e penso che le persone che la stanno sviluppando - noi e altre società e università - abbiano bisogno di rendersi conto e di prendere sul serio le nostre responsabilità e di avere i problemi etici come priorità nella nostra mente.".

Per Hassabis, dunque, responsabilità e consapevolezza sono gli ingredienti essenziali per uno sviluppo benefico dell'intelligenza artificiale. Altrimenti in futuro potremo avere qualche problema: "Penso che ci siano preoccupazioni valide e dovrebbero essere discusse e dibattute ora, decenni fa non c'era nulla delle reali potenziali conseguenze o potenze di cui oggi abbiamo bisogno di preoccuparci, quindi abbiamo le risposte ben prima del tempo.".

Le macchine per il nostro bene

Hassabis si occupa delle macchine che sono in grado di analizzare un'enorme mole di dati e di supportare la comprensione umana della crescita esponenziale dell'informazione digitalizzata.
"L'intelligenza artificiale è la scienza del creare macchine intelligenti."
- Demis Hassabis -
Allora usiamole per fare qualcosa di utile e produttivo: "Se siamo in grado di permeare le macchine con l'intelligenza, allora queste potrebbero essere capaci di aiutarci come società per risolvere tutti i grandi tipi di problemi di cui ci piacerebbe avere una migliore padronanza - da cose come la malattia e la sanità fino alle grandi questioni che abbiamo nel campo della scienza, come il cambiamento climatico e la fisica, dove avere macchine capaci di comprendere e trovare approfondimenti in grandi quantità di dati potrebbe essere molto utile agli scienziati sociali e ai medici.".

Hassabis non condivide pienamente le preoccupazioni di Hawking e Musk. Secondo lui, uno scenario apocalittico tipo quello rappresentato nel film "Terminator" è puro intrattenimento, mentre la realtà sarà ben diversa: "Terminator è uno degli esempi più emblematici, ma estremamente irreale per diversi motivi.". Motivi che ha descritto anche l'esperto di IA di Facebook, Yan LeCun.

La vera minaccia è un'altra

Ma allora dove si cela il pericolo? Hassabis risponde così: "È più nelle cose non volute - qualcosa che potresti aver mancato, piuttosto che delle persone che intenzionalmente costruiscono sistemi per controllare armi e altre cose.". Un motivo per il quale potrebbe essere molto utile iniziare a costruire le basi per un dibattito generale che porterà poi a una successiva regolamentazione.

Il problema principale dell'IA non sarà dovuto alla volontarietà umana di costruire macchine distruttive, anche se su questo argomento si potrebbe aprire un capitolo a parte (vedi ad esempio i droni e i supersoldati del futuro). Sarà invece dovuto a una mancanza, un errore umano.  Ecco perché Hassabis ha parlato di responsabilità e consapevolezza.

Di conseguenza possiamo chiederci: oggi chi si occupa della supervisione dello sviluppo dell'intelligenza artificiale? Questa domanda, per ora, non può avere una risposta precisa. Hassabis ha detto che Google sta creando un comitato etico per tenere sotto controllo il lavoro della società. Non è un'esagerazione se si pensa che molti esperti considerano l'IA tanto importante quanto le ricerche in embriologia e gli studi sulla manipolazione del DNA.

La vera minaccia, dunque, non risiede nelle stesse macchine, ma da come riusciremo a condurre i prossimi sviluppi dell'IA. Inoltre, secondo Hassabis, si tratterebbe comunque di una minaccia ancora lontana: "L'Intelligenza Artificiale Generale è ancora nella sua infanzia. Quindi penso che per un tempo molto lungo sarà uno strumento complementare che gli scienziati sociali e gli esperti del comportamento umano useranno per affrontare cose con cui gli umani non sono naturalmente bravi, liberando la mente umana per farle fare salti di immaginazione, cosa per cui penso che gli umani siano particolarmente adatti.".

Serve subito una regolamentazione?

Proprio perché siamo solo all'inizio dello sviluppo di IA, Hassabis sostiene che è ancora presto per avere una regolamentazione: "Penso sia ancora presto per pensare a una regolamentazione. Siamo in una fase iniziale per questa tecnologia, quindi in realtà non sappiamo ancora quali sarebbero le cose giuste da regolamentare. [...] Credo che avremo bisogno di più lavoro empirico per ottenere una migliore comprensione di come questi sistemi di obiettivo dovrebbero essere costruiti, quali valori dovrebbero avere le macchine, che penso arriveranno nel prossimo decennio.".

Dunque, Hassabis è convinto che dovremo aspettare almeno altri 10 anni prima di avere delle macchine con un'IA di un livello tale che ci spingeranno a porci qualche domanda in più. Qualcuno pensa addirittura che dovremmo iniziare a considerare anche la situazione opposta. Ad esempio, secondo Aubrey de Grey dovremmo iniziare a pensare ora ai diritti delle macchine pensanti; invece, il famoso fisico Lawrence Krauss non teme gli sviluppi dell'intelligenza artificiale. Anzi, è così entusiasta che spera potremo presto assistere a un grande cambiamento epocale proprio grazie all'IA.

Dovremo aspettare comunque altri 10 o 20 anni prima di poter tirare le somme. In quel momento potremo iniziare a porci alcune domande che probabilmente saranno simili a queste: chi supervisiona lo sviluppo dell'IA? Chi controlla le macchine? Abbiamo bisogno di una regolamentazione? La risposta all'ultima domanda probabilmente sarà "Sì", soprattutto per tutelare determinati aspetti dal punto di vista etico.

Fonte: bbc

Etichette: , , ,