PDF Stampa E-mail
Cynthia Breazeal discute di come realizzare un robot «vivo» ed apparentemente «emotivo»
Tecnoscienza - Intelligenza artificiale

Le interviste del SIAI (Singularity Institute for Artificial Intelligence)

Cynthia_Breazeal

Come si può costruire una macchina in grado di interagire con gli umani?

Più che una macchina migliore, noi cerchiamo di costruire una creatura artificiale. E per capire come fare, cerchiamo risposte nella scienza. Nella psicologia della sviluppo, prima di tutto, ma anche in ogni altro ramo, come le neuroscienze, l'etologia... così da ottenere idee ed ispirazione su come costruire una macchina che non solo vanti queste proprietà tipiche della vita, ma che possa pensare, prendere decisioni, imparare, e inoltre, per noi in particolare, interagire e rapportarsi agli altri in modo da coordinare il proprio comportamento con il loro. Una della grandi sfide raccolte negli ultimi anni è stata quella di dare alle macchine una «teoria delle altre menti».

Ma come? Come puoi costruire macchine che possano comprendere i comportamenti degli altri in termini di stati psicologici?

Non parlo solo degli «schemi di attività», di quello che stai facendo, ma di quelle che potrebbero essere le tue intenzioni. I tuoi moventi. Le tue convinzioni. Abbiamo studiato con attenzione le neuroscienze e la psicologia, cercando di capire come le persone riescono a comprendere [gli altri], come si sviluppa questa capacità nei bambini, per poi provare a modellare, emulare il tutto nelle macchine. Uno dei principali argomenti di cui parlerò sarà sulla «prospettiva», sulla teoria delle altre Menti e su come, se ne hai una, puoi... sostanzialmente, molto di come coordiniamo le nostre menti avviene attraverso la coordinazione dei corpi, e viceversa. Ma come modelli tutto questo in una macchina? Sei in grado di dimostrarlo? Penso sia una domanda nuova, per la robotica, perché finora molta della ricerca robotica si è occupata di costruire macchine che interagissero con le cose. Come costruisci robot che possano raccogliere tazze, assemblare strutture e navigare paesaggi marziani? E quando pensi alla società umana... c'è gente dappertutto! È una questione profondamente sociale, e quando pensi a come costruire una macchina che sia in grado di interagire con le persone sorge una serie di questioni completamente nuova perché le persone non sono solo governate dalle leggi della fisica, ma anche dalle proprie menti. Ora queste macchine devono poter comprendere le persone anche in questi termini. E questo sta aprendo tutta una serie di questioni.

Può una macchina avere una prospettiva tutta sua?

Con prospettiva, si intende genericamente il fatto che per capire qualcuno devi poterti mettere nei suoi panni. Parlo anche di una prospettiva tanto «letterale» come la prospettiva visuale. Se fossi in grado di apprezzare una scena visiva dalla prospettiva di un'altra persona, potresti essere in grado di dedurre ciò che la persona potrebbe ritenere vero di quella scena. Ma se riuscissimo ad andare oltre, se cioè potessi far riconoscere al robot, dalla prospettiva di una persona, le azioni che le persone stanno mettendo in pratica all'interno di un contesto, il robot potrebbe essere in grado, sostanzialmente, di usare sé stesso come simulatore per pensare: «Se fossi io ad eseguire quelle azioni, in quel contesto, quali potrebbero essere i miei scopi?» Quali potrebbero essere le mie ragioni? È questo, più o meno, l'approccio con cui stiamo cercando di dare ai robot almeno una prima approssimazione delle possibili intenzioni, convinzioni, motivazioni di un agente umano.


Non state semplicemente programmando le emozioni?

Per portare questi robot al punto in cui possano davvero interagire con la gente, e a queste conquiste più psicologiche, una parte del lavoro consiste certamente nel modellare i processi cognitivi. Il che potrebbe essere simile al programmare modelli di calcolo. Ma anche l'apprendimento e lo sviluppo giocano un ruolo profondo. Un altro aspetto del nostro lavoro studia lo sviluppo sociale infantile, e osserva come evolve. Gli umani sono esseri profondamente sociali, ma non siamo nati così. Ci servono molti, molti anni, per sviluppare quella competenza. Competenza che in gran parte maturiamo interagendo socialmente. E anche con i robot osserviamo molto le forme sociali dell'apprendimento, come l'imitazione. E diversi illustri psicologi dello sviluppo ritengono che i bambini imparino a simulare gli altri, a sviluppare questa specie di «teoria delle altre menti» iniziando ad imitarli. Pertanto, se tu, da bambino, vedi altri adulti intorno a te, implicitamente formuli il pensiero: «Loro sono come me. Io sono come loro. Loro possono imitarmi, io posso provare ad imitare loro. E se posso imitarli, allora in qualche modo posso provare ad «entrare nella loro testa», ad «assumere una prospettiva»». Lo studio di queste forme sociali di apprendimento, di come sviluppare nei robot queste forme più sofisticate di intelligenza sociale, è appassionante. Un altro esempio è la «referenza sociale» È una forma di apprendimento che acquisiamo da adulti, ma spunta per la prima volta ad un anno di età. Sostanzialmente, il social referencing è: «Sto incontrando una cosa nuova. Non so se sia buona o cattiva. Non so che farne.» [In questi casi,] spesso, i bambini guardano alla loro madre come a una fonte fidata ed osservano la sua reazione, prima di prendere decisioni. Qualora mamma sembrasse un po' spaventata, allora potrei comprendere che la sua reazione riguarda questa cosa o questo contesto e poi potrei iniziare a condividerne il giudizio per decidere il comportamento da adottare. Questo, naturalmente, è molto importante per i bambini, perché ci sono così tante cose nel mondo che non sappiamo se definire buone o cattive per noi... Potremmo pensare di dotare anche i robot di questa specie di intelligenza. Non sapranno improvvisamente se le cose sono buone o cattive, pericolose o sicure. Potrebbero dover osservare le persone, o magari altri robot, per poter fare una data valutazione. Perciò penso che queste forme di apprendimento sociale, l'apprendere dagli altri, l'apprendere cose sugli altri, sia veramente fondamentale


Il comportamento appreso da una macchina può essere copiato e trasferito su un'altra macchina?

Se parli di un'entità computazionale, certamente è possibile, una volta che il robot impara qualcosa, cedere la conoscenza, che questo avvenga sparando un raggio con la comunicazione wireless o quant'altro. Ma in qualche modo puoi cedere ad un altro robot o ad un'altra macchina la sua capacità di acquisire quella abilità. Poi, a seconda della macchina, se ha una forma, un sistema sensoriale simile, potrebbe essere necessario usare quella conoscenza come punto di partenza per poi imparare ulteriormente, fare esperienze, esplorare, in modo da affinarla o adattarla a sé. Penso che, all'interno delle entità computazionali, questo sia certamente possibile.


Allargando la visuale, però, credo che, oltre ai compiti, ai fatti e così via, vorrei che le macchine conoscessero i valori umani. Cosa consideriamo appropriato, e cosa no. Penso che anche queste informazioni socio-culturalmente contestualizzate siano importanti. La gente, probabilmente, pensa a robot che vanno su Internet e raccolgono tutta quella informazione, ma io sto cercando di progettarli in modo che provino a sperimentare ciò che stanno sperimentando gli altri, a comprendere gli altri in modo più empatico, invece di limitarsi a manipolare astrattamente i simboli. Se stai pensando a macchine intelligenti che cercano di relazionarsi con le persone, se possono empatizzare con noi, ho la sensazione che probabilmente sarà questo a renderli più empatici con noi, piuttosto che, semplicemente, passare attraverso l'astratta manipolazione di simboli per computare il bene o il male. È un'idea interessante, dare alle macchine una conoscenza fondata sull'esperienza. Penso che renderà quella conoscenza «personale», per i robot. Parte di tutto questo processo è motivato dall'apprendimento, ma penso sia un modo valido di comprendere gli altri e vorrei che queste macchine ne fossero dotate.

Può un robot essere conscio?

Il problema, anche quando si parla di coscienza umana, nasce in gran parte dal fatto che in realtà non sappiamo davvero cosa significhi «conscio». Stabilire se la Macchina X è conscia o meno, ci costringe a pensare a fondo alla domanda: "Cosa intendiamo davvero con questa espressione?" E penso che più ci avvicineremo alla corretta definizione di «conscio», più probabile diventerà lo sviluppo di macchine che siano consce. E puoi continuare a muovere su e giù l'asticella. Se pensiamo a questi primi robot, sono propensa (lo sarei anche con un insetto) ad attribuir loro un abbozzo, un primitivo accenno di ciò che, all'altra estremità, considereremmo una coscienza pienamente sviluppata. Non riesco a credere che sia una cosa binaria, che o ce l'hai o no. È un continuum, secondo me.

La sfida di fronte a noi, a mio avviso, consiste in parte nel provare a comprendere cosa sia qual continuum, e nell'approfondire il significato di questi termini. In molte discussioni che ho avuto con la gente, le persone «comuni» non ritengono possibile dare emozioni ad una macchina.
Penso che la questione si riduca all'importanza del ciclo di vita. Potrei essere in grado di programmare questo tipo iniziale di risposte emotive, di relazioni, e così via, ma, fondamentalmente, quell'entità deve passare attraverso un ciclo di vita e avere esperienze che le facciano davvero capire cosa sono queste cose. Penso che crescere ed imparare sia per le persone una parte fondamentale dell'avere emozioni genuine, ma trovo che tutto questo sia possibile anche per una macchina.

Quanto sono importanti i sensi nel creare una “esperienza macchina"?

Beh, per quello che ho sperimentato, i sensi sono per i robot la parte fondamentale dell'esperienza ed è questo a rendere interessante (e complesso) il mio lavoro. Al pari delle altre specie, infatti, i robot possono avere sensi molto differenti da quelli umani. Il che ci riporta al problema di prima. Dobbiamo comprendere o approfondire le nostre conoscenze sulle emozioni o sulla coscienza prima di provare a trasferirle in un cane o in un altra specie, e di decidere se una macchina possa mai essere conscia. Penso che i robot, soprattutto i robot, avranno una vasta gamma di incorporamenti, una vasta gamma di abilità, e penso che lo scopo della robotica non sia cercare di replicare gli umani, perché di persone ce ne sono già abbastanza. Sappiamo già come creare la gente. Quello che vogliamo sono le tecnologie che ci complementino. Sarà più una partnership, una sinergia, che una replica. Penso che i robot saranno sempre differenti dalle persone; non sono "umani" e non lo saranno mai. E penso che assumere le qualità umane come termine di paragone significhi semplicemente porsi la domanda sbagliata. Si tratta più di provare a capire cosa significherebbero queste cose quando applicate ad una macchina e provare a costruire macchine in un modo che possano relazionarsi con noi.

Può l'AI essere creata in un mondo simulato, oppure la percezione dei sensi è necessaria all'intelligenza?

Prima di tutto, devo capire che cosa intenderebbe la gente, in quel contesto, per "intelligenza generale artificiale" perché probabilmente potresti sviluppare un mondo simulato molto interessante, quegli agenti potrebbero acquisire, all'interno di quel mondo, un'ampia varietà di quello che giudicheremmo un comportamento intelligente, cognitivo. Ma non mi spingo così lontano da dire che quell'intelligenza potrebbe poi trasferirsi in questo mondo. Ed il mio lavoro si occupa fondamentalmente della gente e di questo mondo fisico. Penso che la natura dell'incorporamento e l'importanza del robot fisico siano questioni cruciali nello sviluppo di macchine che comprendano questo mondo e la varietà delle persone. I mondi simulati non offrono la pienezza delle esperienze e del comportamento umani. Siamo limitati dalle interfacce, da tutto quel tipo di cose. Penso che la questione sia: "Cosa intendi per intelligenza generale?» Se anche sei disponibile a garantire di poter realizzare un'intelligenza generale artificialmente, questa non si trasferisce necessariamente a questo mondo.

Cosa ti affascina nella robotica?


L’aspetto esaltante della robotica, in particolare della robotica sociale, è che stiamo veramente iniziando a creare macchine che possono relazionarsi con noi e comprendere il nostro comportamento, non solo in termini delle nostre azioni osservabili, ma in termini dei nostri pensieri, delle nostre convinzioni ed intenti. E penso che questo "nocciolo" di intelligenza sociale, queste prime macchine con una teoria delle altre menti, sia fondamentale nell'intelligenza sociale umana, necessario a comunicare e ad imparare l'un l'altro. Questi progressi stanno perciò sollevando questioni tutte nuove e fornendo alle macchine nuove capacità di fare cose ed interagire con noi in futuro. Osservando in filigrana queste questioni, questi «apprendimenti sociali» e così via, penso che a spingere il progresso, alla fin fine, sia stata la domanda: "le macchine possono pensare?". Oggi, la nuova domanda, sulla quale penso ci stiamo ancora arrovellando, è: "Possono le macchine avere emozioni?"
Inoltre stiamo iniziando a concentrarci sull'aspetto relazionale, e penso quindi che la prossima grande domanda sarà: «Quando una macchina diventerà una persona? Quando accetteremo di attribuire uno status di "persona" ad un'entità non biologicamente umana?» Secondo me, la prossima sfida del nostro lavoro è lì.


Traduzione di Michele Gianella. Revisione di Gianluca Finocchiaro.

Il sito di Cynthia Breazeal


Immagine: Dr. Cynthia Breazeal in versione cyborg (dal suo sito)

 

Tecnofascismo? No grazie.

  • Una serie di articoli su sovrumanismo e dintorni e sui motivi che hanno spinto Estropico ad andarsene dalla Associazione Italiana Transumanisti.
  • Aggiornamenti (su Estropico Blog)

Varie