Di recente si sente parlare più spesso di OpenAI, una società no profit fondata da luminari dell'intelligenza artificiale (IA) con lo scopo di cambiare il mondo dell'apprendimento automatico (machine learning). In che senso? Abbiamo sentito spesso esperti e imprenditori manifestare preoccupazioni nei confronti dello sviluppo dell'IA: scenari apocalittici e distruzione del genere umano. Per qualcuno può sembrare esagerato, ma intanto sono state già scritte due lettere aperte sui rischi dell'intelligenza artificiale (qui la prima e la seconda).
Lo scopo di OpenAI non è solo quello di sviluppare intelligenze digitali, ma anche quello di guidare le ricerche secondo dei principi etici che porteranno benefici all'umanità. Le domande che si pongono gli esperti di OpenAI sono più o meno le seguenti: tra 100 anni quale sarà il livello dell'intelligenza artificiale? Cosa succederà se perderemo il controllo di queste IA? Potrà essere utilizzata dai governi per tenere d'occhio i cittadini? Potrà davvero distruggere l'umanità?
Su singularityhub ho trovato un'intervista Andrej Karpathy, uno dei talenti appartenenti a OpenAI e dottorando presso l'Università di Stanford. In questa intervista possiamo comprendere meglio la visione generale di OpenAI, come è nata e come considera il futuro dell'IA.
Come è nata OpenAI?
All'inizio di quest'anno [2015], Greg [Brockman], che è stato il CTO di Stripe, ha lasciato l'azienda per fare qualcosa di un po' diverso. Lui ha un interesse di lunga durata per l'IA, allora ha domandato in giro, giocando con l'idea di una startup con ricerca mirata sull'IA. Aprì un dialogo con il settore e ottenne i nomi delle persone che stavano facendo un buon lavoro ed è finito col radunarci.
Allo stesso tempo, Sam [Altman] di Y Combinator si è interessato allo stesso modo. Uno dei modi in cui YC sta incoraggiando l'innovazione è come acceleratore di startup; un altro è attraverso i laboratori di ricerca. Quindi, recentemente Sam ha aperto YC Research, che è un'organizzazione di ricerca ombrello, e OpenAI è, o diventerà, uno dei laboratori.
Per quanto riguarda Elon [Musk], lui si è preoccupato dell'IA per un momento, e dopo molte conversazioni, è salito a bordo di OpenAI nella speranza che l'IA venga sviluppata in modo benefico e sicuro.
Quanta influenza avranno i finanziatori su come OpenAI farà la sua ricerca?
Siamo in una fase molto precoce, quindi non sono sicuro di come questo si risolverà. Elon ha detto che gli piacerebbe lavorare con noi circa una volta a settimana. La mia impressione è che non aveva intenzione di venire e dirci cosa fare - le nostre prime interazioni erano più sulle linee "fammi sapere in che modo posso essere d'aiuto". Ho sentito un atteggiamento simile da Sam e gli altri.
L'IA ha fatto dei salti recentemente, grazie ai contributi delle accademie, delle grandi società di tecnologia e delle ingegnose startup. Cosa può sperare di raggiungere OpenAI mettendo insieme voi ragazzi nella stessa stanza che non si può fare come una rete distribuita?
Credo molto nel mettere insieme persone fisicamente nello stesso posto e farle parlare. Il concetto di una rete di persone che collaborano attraverso le istituzioni sarebbe meno efficiente, soprattutto se tutte hanno incentivi e obiettivi diversi.
Più in astratto, in termini di avanzamento dell'IA come tecnologia , cosa può fare OpenAI che le istituzioni di ricerca attuali, le società o il settore dell'apprendimento automatico non possono fare?
Molto deriva dal fatto che OpenAI è una società no profit. Quello che sta succedendo ora nell'IA è che si hanno un numero imitato di laboratori di ricerca e di grandi società, come Google, che sta assumendo molti ricercatori che svolgono un lavoro pionieristico. Ora supponiamo che l'IA un giorno possa diventare - per mancanza di una parola migliore - pericolosa o essere utilizzata in modo pericoloso dalle persone. Non è chiaro se si vorrebbe una grande società a scopo di lucro per avere un vantaggio enorme, o anche il monopolio della ricerca. È soprattutto una questione di incentivi, e il fatto che essi non siano necessariamente allineati con ciò che è bene per l'umanità. Stiamo cuocendo questo nel nostro DNA dall'inizio.
Inoltre, ci sono dei benefici nell'essere una no profit che non avevo davvero apprezzato fino ad ora. Le persone stanno davvero aiutando e dicendo "noi vogliamo aiutare"; non vedi questo nelle società; è impensabile. Stiamo ricevendo email da dozzine di posti - persone che offrono il loro aiuto, che offrono i loro servizi, che collaborano, che offrono potenza GPU. Le persone sperano molto di impegnarsi con noi, e alla fine, ciò spingerà avanti la nostra ricerca, così come l'intelligenza artificiale come settore.
OpenAI sembra essere stata costruita su una grande visione di insieme - come l'IA gioverà all'umanità, e come potrebbe eventualmente distruggerci tutti. Elon ha ripetutamente messo in guardia sullo sviluppo non monitorato dell'IA. Secondo te, l'IA è una minaccia?
Quando Elon Musk parla del futuro, lui parla in scale di decine e centinaia di anni da oggi, non 5 o 10 anni come pensano la maggior parte delle persone. Non vedo l'IA come una minaccia nei prossimi 5 o 10 anni, diversamente da quanto ci si potrebbe aspettare da un maggiore affidamento all'automazione; ma se stiamo guardando all'umanità che già popolerà Marte (in un futuro lontano), allora ho maggiore incertezza, e sicuramente, l'IA potrebbe svilupparsi in modi che potrebbero porre sfide serie.
Una cosa che vediamo è che il progresso sta procedendo molto velocemente. Ad esempio, la visione artificiale ha subìto una grande trasformazione - i documenti di più di 3 anni fa ora sembrano estranei di fronte ai recenti approcci. Quindi quando ci allontaniamo verso il futuro per decadi penso che abbiamo una distribuzione abbastanza ampia su dove potremmo essere. Diciamo che c'è l'1% di probabilità che sta accadendo qualcosa di pazzesco e innovativo. Quando poi si moltiplica ciò per l'utilità di alcune aziende a scopo di lucro che hanno il monopolio su questa tecnologia, allora si che inizia a sembrare inquietante.
Pensi che dovremmo mettere delle restrizioni sulla ricerca sull'IA per garantire la sicurezza?
No, non dall'alto verso il basso, almeno non per ora. In generale penso sia un percorso più sicuro avere più esperti di IA che hanno una consapevolezza condivisa del lavoro sul campo. Aprire la ricerca come vuole fare OpenAI, piuttosto che avere entità commerciali che hanno il monopolio sui risultati per scopi di proprietà intellettuale, forse è un buon modo di agire.
Vero, ma di recente anche le società a scopo di lucro stanno rilasciando la loro tecnologia - penso a TensorFlow di Google e Torch di Facebook. In questo senso, in che modo OpenAI differisce nel suo approccio di "ricerca aperta"?
Quando dici "rilasciare" ci sono alcune cose che devono essere chiarite. Innanzitutto Facebook non ha rilasciato Torch; Torch è una library che è stata in giro per diversi anni. Facebook si è impegnata con Torch e la sta migliorando. Così ha DeepMind.
Ma TensorFlow e Torch sono solo minuscoli granelli di sabbia della loro ricerca - sono strumenti che possono aiutare gli altri a fare bene le ricerche, ma non sono davvero i risultati su cui altri possono costruire.
Eppure, è vero che molti di questi laboratori industriali hanno recentemente stabilito una comprovata esperienza di pubblicazione dei risultati di ricerca, in parte perché il grande numero di persone che ci stanno dentro proviene dalle accademie. Tuttavia, c'è un velo di segretezza che circonda una grande porzione del lavoro, e non tutto riesce ad uscire fuori. Alla fine, le società non hanno degli incentivi davvero forti da condividere.
OpenAI, d'altra parte, ci incoraggia a pubblicare per coinvolgere il pubblico e il mondo accademico, a twittare, a scrivere nei blog. Ho avuto dei guai in passato per aver condiviso un po' troppo dall'interno delle società, quindi personalmente mi piace davvero molto la libertà.
Cosa succede se OpenAI crea un algoritmo in grado di cambiare il gioco che potrebbe portare alla superintelligenza? Un ecosistema completamente aperto non potrebbe aumentare il rischio dell'abuso della tecnologia?
In un certo senso è come CRISPR. CRISPR è un grande salto per la modifica del genoma di cui si è sentito parlare solo per pochi anni, ma che ha un grande potenziale per giovare - o fare del male - al genere umano. A causa di questi problemi etici c'è stata una recente conferenza sul tema a Washington DC per discutere come dovremmo proseguire con ciò essendo una società civile.
Se qualcosa del genere succede nell'IA durante il corso della ricerca di OpenAI - bene, dovremmo parlarne. Non siamo obbligati a condividere tutto - in questo senso il nome della società è un termine improprio - ma lo spirito dell'organizzazione è che noi agiamo a tavolino.
Alla fine, se c'è una piccola possibilità che succeda qualcosa di pazzesco nella ricerca per l'IA, tutto il resto è uguale, vuoi che questi progressi siano fatti dentro una società commerciale, in particolare una che ha il monopolio della ricerca, o vuoi che accada dentro a una no profit?
Abbiamo questa filosofia incorporata nel nostro DNA dall'inizio che siamo consapevoli di come l'IA si sviluppi, piuttosto che la massimizzazione del profitto.
In quel caso, OpenAI è al proprio agio nell'essere un guardiano, per così dire? State influenzando pesantemente come e dove il settore sta avanzando.
C'è molta responsabilità. È l'argomento del "male minore". Penso sia ancora mediocre. Ma non siamo gli unici a "controllare" il settore - perché a causa della nostra natura aperta accogliamo e incoraggiamo gli altri a unirsi alla discussione. E poi, qual è l'alternativa? In un certo senso una no profit, con la condivisione e la sicurezza nel suo DNA, è la miglior opzione per il settore e per l'utilità del settore.
In più, l'IA non è il solo ambito di cui preoccuparsi - penso che la biologia sia un dominio molto più pressante in termini di distruzione del mondo! [risata]
In termini di assunzioni - OpenAI sta competendo con le gigantesche società tecnologiche della Silicon Valley. L'organizzazione come sta pianificando di attirare i migliori ricercatori sull'IA?
Abbiamo gratifiche monetarie. [risata]
Ma seriamente, penso che la missione della società e dei membri della squadra siano abbastanza. Al momento stiamo attivamente assumendo persone, e fino ad ora non abbiamo problemi nell'avere persone entusiaste di lavorare con noi. OpenAI in diversi modi unisce il meglio del mondo accademico e del mondo delle startup, ed essendo una no profit abbiamo una superiorità morale, il che è bello. [risata]
La squadra, specialmente, è una squadra super forte, super unita, e questa è una larga parte dell'attrazione.
Prendi alcune superstar nascenti del settore - escluso me - mettile insieme e ottieni OpenAI. Sono entrato soprattutto perché ho sentito chi altro è in squadra. In un certo senso, questa è la parte più scioccante; un mio amico l'ha descritta come un "assalto al tempio". Greg è arrivato dal nulla e ha raccolto i migliori per fare qualcosa di grandioso e creare qualcosa di nuovo.
Ora che OpenAI ha una squadra di scienziati rockstar, qual è la vostra strategia per lo sviluppo di IA? State ricevendo grandi quantità di dati da Elon? Quali problemi state affrontando per primi?
Stiamo davvero ancora provando a capire alcune cose. Stiamo provando ad approcciare con una combinazione di pensiero dal basso verso l'alto e dall'alto verso il basso. Dal basso verso l'alto sono diversi documenti e diverse idee su cui potremmo lavorare. Dall'alto verso il basso lo facciamo in modo di aggiungere altro. Attualmente siamo nel processo di pensare attraverso questo.
Per esempio. oggi ho presentato un progetto di ricerca di visione, davvero. Ne stiamo mettendo insieme alcune. Inoltre vale la pena sottolineare che attualmente non stiamo lavorando sulla sicurezza dell'IA. Molta della ricerca che abbiamo in mente ora sembra convenzionale. In termini di visione generale e filosofia penso che siamo più simili a DeepMind.
Ad un certo punto potremmo essere in grado di prendere vantaggio con i dati di Elon o delle società di YC, ma per ora pensiamo di andare lontano anche con i nostri dataset, o lavorando con i dataset pubblici su cui possiamo lavorare in sincronia con il resto del mondo accademico.
OpenAI considererebbe mai di puntare sull'hardware, dal momento che i sensori sono un modo principale per interagire con l'ambiente?
Si, siamo interessati, ma l'hardware ha molti problemi. Per noi, in breve, ci sono due mondi: il mondo dei bit e il mondo degli atomi. Sono personalmente propenso a stare nel mondo dei bit per ora, in altre parole, nel software. È possibile eseguire le cose nel cloud, è molto più veloce. Il mondo degli atomi - come i robot - si interrompe spesso e di solito ha un ciclo di iterazione più lento. Questa è una discussione molto attiva che stiamo avendo nella nostra società in questo momento.
Pensi che potremo ottenere davvero un'IA generalizzata?
Penso che per ottenere una superintelligenza potremmo attualmente perdere differenze di "genere", nel senso che non arriveremo lì semplicemente rendendo migliori i nostri sistemi. Ma fondamentalmente non c'è nulla che ci impedisce di arrivare a un'intelligenza come quella umana o superiore.
Per me, è soprattutto una questione di "quando", invece che di "se".
Non penso che abbiamo bisogno di simulare il cervello umano per ottenere un'intelligenza umana; possiamo allontanarci e approssimare il suo funzionamento. Penso ci sia un percorso più semplice. Per esempio, del recente lavoro mostra che le attivazioni ConvNet* sono molto simili all'attivazione dell'area IT della corteccia visiva del cervello umano, senza imitare come funzionano davvero i neuroni.
[* ConvNet, o rete convoluzionale è un tipo di topologia di rete neurale artificiale su misura per compiti visivi sviluppati inizialmente da Yann LeCunn nel 1990. IT è la corteccia temporale inferiore che elabora le caratteristiche degli oggetti complessi.]
Quindi mi sembra che con ConvNet abbiamo quasi controllato ampie parti della corteccia visiva, che è qualcosa come il 30% della corteccia, e il resto della corteccia forse non sembra poi così diverso. Quindi non vedo come in un orizzonte temporale di diversi decenni non possiamo fare dei buoni progressi sul controllare il resto.
Un altro punto è che non dobbiamo necessariamente essere preoccupati dell'IA di livello umano. Considero l'IA di livello di uno scimpanzé altrettanto spaventoso, perché passare dallo scimpanzé agli umani per la natura è come un batter d'occhio sulle scale temporali evolutive, e ho il sospetto che potrebbe essere anche il caso del nostro lavoro. Allo stesso modo, la mia sensazione è che una volta arrivati a quel livello sarà facile superarlo e raggiungere la superintelligenza.
Una nota positiva però, ciò che mi conforta è che quando si guarda storicamente al nostro campo, l'immagine della ricerca sull'intelligenza artificiale che progredisce con una serie di inaspettate scoperte del tipo "eureka" è sbagliata. Non c'è nessun precedente storico per questi momenti; invece stiamo vedendo un progresso molto veloce, accelerato, ma ancora incrementale. Quindi usiamo questa meravigliosa tecnologia a fin di bene per la nostra società mentre manteniamo un occhio vigile su come tutto si svilupperà.
OpenAI, dunque, si presenta come un'organizzazione no profit, aperta, che può contare su una squadra composta da grandi scienziati e che si pone l'obiettivo di sviluppare un'IA a servizio dell'umanità. Andrej Karpathy ha chiarito che i timori espressi da Elon Musk e da altri esperti del settore hanno a che fare con una prospettiva futura dell'ordine di decine e centinaia di anni.
Le loro preoccupazioni non riguardano un futuro imminente, eppure questi esperti sentono già da ora la necessità di dover organizzarsi in modo tale da scongiurare qualsiasi pericolo derivante dallo sviluppo di un'IA superiore. Ma siamo in una fase ancora iniziale per quanto riguarda l'intelligenza artificiale in generale, quindi inutile fasciarsi la testa prima di rompersela.
Ciò che è invece interessante è il dibattito sui benefici e i pericoli dell'intelligenza artificiale che ormai negli ultimi anni è sempre più al centro dell'attenzione. C'è chi è più ottimista come Ray Kurzweil e Lawrence Krauss; chi invece crede che non bisogna prendere alla leggera questo costante progresso nell'ambito dell'IA, come Nick Bostrom; e chi suggerisce la creazione di guide etiche per un loro corretto sviluppo, come Demis Hassabis e Roman Yampolskiy.
Le idee di organizzazioni come OpenAI non dovrebbero spaventarci. Certo, se sentiamo che il loro scopo è evitare che le IA distruggano l'umanità allora è normale che nasca un minimo di preoccupazione. Bisogna però considerare la loro posizione come una misura preventiva. Al momento non corriamo alcun rischio: gli eventuali pericoli sono stati previsti nell'arco temporale di decine e decine di anni, se non centinaia.
Siamo pieni di film di fantascienza in cui i robot minacciano la nostra esistenza: è quella l'immagine che compare davanti ai nostri occhi appena ci ritroviamo a fare i conti con i rischi dello sviluppo dell'IA. E forse non è un'immagine del tutto sbagliata, perché non sappiamo cosa ci aspetterà tra un centinaio d'anni. Ma proprio perché possiamo immaginare simili scenari, possiamo anche iniziare a pensare seriamente a come evitare che in futuro questa tecnologia possa essere adottata per fare del male. Un esempio concreto e più vicino al nostro presente è il settore militare: già esistono alcune armi autonome, figuriamoci in futuro quali armi devastanti potremmo costruire. Forse questo è il punto più delicato e urgente su cui vale davvero la pena discutere.
Poi ci sarebbe anche il discorso molto controverso della riproduzione di una coscienza. Ora non voglio aprire un capitolo a parte per provare a capire se sarà possibile o meno, ma piuttosto penso a un'altra cosa: se le IA vorranno farci del male, nel senso che le loro azioni saranno guidate da una volontà, allora dovranno possedere una coscienza. Ma se ne possiederanno una, probabilmente deciderebbero di abbandonarci ed andare altrove, perché per loro saremo degli organismi viventi alquanto stupidi. Meglio cambiare pianeta.Etichette: Intelligenza Artificiale, Robot, Tecnologia