Sherry Turkle: l'intelligenza artificiale può fingere di amarci, ma dovremmo ricambiare?

Il progresso tecnologico digitale avanza molto velocemente. Rifletti un attimo sulle tecnologie che fino a 15 anni fa non esistevano: smartphone, chiavette USB, GPS, stampa 3D, lettori mp3. E ora rifletti per un istante sulle possibilità dei prossimi 10 anni. Potremo fare grandi cose.

Oggi anche un oggetto comune, come un giocattolo, può essere dotato di una discreta intelligenza artificiale (IA). Ma questo progresso produce anche nuove sfide che riguardano la nostra privacy, il nostro comportamento, il lavoro e la sicurezza. Il progresso tecnologico digitale è così veloce che facciamo fatica a definire con precisione i confini delle norme etiche e morali della nostra società.

Questo preoccupa alcuni esperti come Sherry Turkle, professoressa al Massachusetts Institute of Technology (MIT) che negli ultimi anni si sta concentrando sulla psicoanalisi e sull'interazione tra persone e tecnologia. Spendiamo sempre meno ore a interagire faccia a faccia con le persone e quindi Turkle si chiede: stiamo influenzando negativamente il nostro bisogno di essere sociali e di essere parte integrante di una reale comunità umana?

Secondo Turkle, il rischio legato allo sviluppo di IA sempre più potenti è quello di credere di vivere un'esperienza emotiva autentica con una macchina, un robot. Ce lo ha spiegato in un intervento per Big Think che trovi di seguito con la relativa traduzione.

Sherry Turkle
Foto originale: Flickr

Fantasia emotiva: l'IA può fingere di amarci, ma dovremmo ricambiare?


"Ho sentimenti molto profondi per un futuro in cui i robot diventeranno il tipo di agente colloquiale che finge di avere una vita emotiva. Poco dopo aver finito 'Reclaiming Conversation', sono stata intervistata per un articolo del New York Times su 'Hello Barbie'. 'Hello Barbie' viene fuori dalla scatola e dice, ora sto solo parafrasando la battuta, 'Ciao, sono Hello Barbie. Ho una sorella. Tu hai una sorella. Odio mia sorella. Sono gelosa di tua sorella. Odi tua sorella? Parliamo di cosa ne pensiamo delle nostre sorelle.' Sono solo cose conosciute su di te ed è pronta a parlare dell'arco della vita umana e di rivalità tra fratelli e sorelle come se avesse una vita, una madre, dei sentimenti di gelosia nei confronti di una sorella e dovrebbe comprenderti su tali basi. E non è così. Sta insegnando finta empatia. Ti chiede di immedesimarti in un oggetto che ha finta empatia.

E questa, a mio avviso, non è una buona direzione per lo sviluppo dell'IA. Ci sono così tante cose meravigliose da far eseguire ai robot. Avere un'empatia falsa, avere conversazioni fasulle sulla cura e sull'amore e su cose che un robot può sentire riguardo il suo corpo, la sua vita, la sua madre, le sue sorelle portano i bambini e gli anziani, che sono l'altro gruppo target per questi robot, in un miasma fantasioso che non fa bene a nessuno. I bambini non hanno bisogno di imparare una falsa empatia, hanno bisogno di imparare l'empatia vera, che possono ottenere da conversazioni reali con persone reali che hanno sorelle e madri. E penso che questa sia una direzione pericolosa e davvero tossica.

Ci preoccupiamo così tanto del fatto che siamo capaci di convincere le persone a parlare con i robot, sai. Si può fare in modo che una bambina parli con questa 'Hello Barbie'? Si può fare in modo che una persona anziana parli con un robot socievole? Che dire di chi sta ascoltando? Non c'è nessuno che sta ascoltando. Questi robot non sanno come ascoltare e capire cosa stai dicendo. Sanno come rispondere. Sono programmati per fare qualcosa in base a quello che dici e per rispondere, ma non capiscono se dici, ad esempio, 'Mia sorella mi fa sentire depressa perché è più bella di me, e sento che mamma le vuole più bene'. Quel robot non fa davvero niente di utile per te con quelle informazioni. Non è empatia. E i bambini devono sapere che sono stati ascoltati da un essere umano che può fare questo gioco di empatia con loro, questa danza empatica.

Così, nel bel mezzo di un periodo in cui abbiamo questa crisi di empatia, immaginare che ora aggiungeremo alcuni robot che fingeranno empatia, devo dire che in tutto l'ottimismo del mio libro questa è la parte pessimista e veramente concludo il mio libro con una sorta di chiamata alle armi. Lo definisco: 'Cosa dimentichiamo quando parliamo con le macchine?'. E voglio che sia letteralmente una chiamata alle armi per dire che questa non è una buona direzione. Non abbiamo bisogno di seguire questa direzione, abbiamo solo bisogno di non comprare questi prodotti. Questo non richiede una rivoluzione sociale, richiede solo che i consumatori dicano di non avere intenzione di comprare questi prodotti, di non portarli nelle loro case."



Non sono un fan di Sherry Turkle, però condivido alcuni concetti che ha espresso con questo intervento.

Premessa: sono in parte d'accordo sul fatto che oggi interagiamo di meno attraverso conversazioni faccia a faccia. Ma è anche vero che, proprio grazie ai social media e ai social network, sviluppiamo molte più relazioni, anche diverse tra loro, rispetto a quanto facevamo una decina di anni fa. Sono cambiati i contesti sociali, sono cambiate le tecnologie e sono cambiati anche in modi in cui conversiamo. L'evoluzione digitale ha una doppia faccia: con questi nuovi strumenti possiamo ottenere grandi vantaggi, ma allo stesso tempo possiamo subirne gli effetti negativi. Tutto dipende dalla consapevolezza che abbiamo di queste tecnologie e di come le usiamo.

Sherry Turkle sostiene che le nostre interazioni faccia a faccia stanno degenerando perché siamo sempre più a contatto con intelligenze artificiali che ci ingannano. E se lasciamo che queste tecnologie governino le nostre emozioni, allora siamo anche noi che inganniamo noi stessi. I robot non ci ascoltano davvero, non ci comprendono davvero. Ed è proprio così perché la loro intelligenza artificiale non si avvicina minimamente alla nostra intelligenza. Almeno per ora. Non c'è empatia e non può esserci. I bambini hanno bisogno di imparare attraverso rapporti empatici, quindi l'interazione con altre persone è indispensabile. Ma chi è che oggi affiderebbe l'educazione di un bambino totalmente nelle mani di un robot? Credo che non lo farebbe nessuno.

Diverso è invece il discorso sui giocattoli per i bambini: non c'è nulla di male sei i bambini interagiscono con pupazzi dotati di una certa intelligenza artificiale. Il problema sorge nel momento in cui un bambino inizia a pensare che in quel giocattolo ci sia qualcosa di speciale che lo rende vivo o quasi. Questo non è un problema che riguarda solo l'IA. Riguarda soprattutto il ruolo dei genitori e degli insegnanti. In generale, bisognerebbe educare i bambini anche al gioco e non limitarsi a lasciare loro un pupazzo che risponde a determinate domande e a determinati comandi.

D'altra parte, non direi che le applicazioni di IA per l'educazione dei nostri giorni siano inutili e dannose. Per fare un esempio, progetti come L2Tor possono aiutare i bambini ad apprendere una nuova lingua o a studiare una materia con un approccio diverso, più simile al gioco e per questo più coinvolgente.

Certo, l'interazione tra un bambino e un robot umanoide è tutt'altra questione. Ma anche in questo caso non me la sentirei di tracciare un prospetto quasi del tutto negativo come fa Turkle. Forse non c'è ancora spazio in famiglia per robot come Pepper e Romeo, ma ci sono buone probabilità per il futuro. E con buoni progetti educativi, non ci sarà alcun rischio di disumanizzazione: converseremo con i robot per impartire loro degli ordini, per giocare e organizzare la nostra giornata; e continueremo a conversare faccia a faccia con le persone con cui abbiamo relazioni più importanti.

Oggi conversiamo di meno con la possibilità di stabilire un contatto fisico? Forse in alcuni casi è così. Ma io la vedo in un altro modo: sono aumentate le possibilità di comunicare in generale. Sono aumentate le possibilità di entrare in contatto con persone conosciute e sconosciute provenienti da tutto il mondo. Abbiamo abbattuto le barriere dello spazio e reso la comunicazione più veloce. Il rischio dell'alienazione, dell'apatia, dell'anti-socialità non è riconducibile solo ed esclusivamente al progresso della tecnologia digitale.

Ecco perché condivido solo in parte il pensiero di Sherry Turkle. Dire che non abbiamo bisogno di robot che fingono empatia, sembra voler dire che è inutile perdere tempo a sviluppare robot domestici o di ufficio. Oppure a svilupparli senza dotarli di capacità di interazione. In questo, però, vedo un freno al progresso. Lo studio dell'interazione uomo-macchina potrebbe portarci altri risultati interessanti in futuro.

Turkle dice che non stiamo seguendo la direzione giusta. Ma la strada verso lo sviluppo di robot eticamente corretti e di cui possiamo fidarci è molto complessa: le direzioni sono diverse e forse qualche volta dovremo fare qualche passo indietro per poter individuare il sentiero che potrà portarci a dei buoni risultati. Quindi, ben vengano anche le critiche come le sue: anche queste possono aiutarci a progettare tecnologie migliori.

Etichette: , , , ,