PDF Stampa E-mail
Ascesa controllata dell’Intelligenza Artificiale Generale, intervista a Ben Goertzel
Tecnoscienza - Intelligenza artificiale

Le interviste del SIAI (Singularity Institute for Artificial Intelligence)
Ben Goertzel, Direttore ricerche SIAI

“Cos’é l’intelligenza artificiale?”

Per rispondere a questa domanda, dobbiamo prima chiederci: “Cos’è l’intelligenza?”. E’ un argomento su cui psicologi e studiosi dell’intelligenza umana non sono completamente d’accordo, ma nel mio lavoro ho finito per definire l’intelligenza come l’abilità di conseguire obiettivi complessi in ambienti complessi. Naturalmente, è una questione di misura. Gli esseri umani sono molto più intelligenti delle blatte, le blatte sono più intelligenti dei batteri, ed è ben possibile che vi siano altre menti, dall’intelligenza superumana, che possono risolvere problemi più complessi e conseguire obiettivi più complessi in contesti differenti. Se decidi di adottare questa definizione di intelligenza, la domanda successiva diventa: ”Cos’è artificiale?”. Un artificio è uno strumento, quindi il termine “intelligenza artificiale” porta con sé l’idea di costruire sistemi che possono ottenere risultati complessi in ambienti complessi, costituiti dagli oggetti che abbiamo creato. Questa è una cosa in cui finora abbiamo ottenuto scarsi successi, nel senso che siamo riusciti a costruire solo sistemi che raggiungono obiettivi molto specifici: giocare a scacchi, guidare macchine, diagnosticare malattie. Ancora non abbiamo costruito alcun tipo di sistema artificiale, sia esso software, hardware o una vasca piena di sostanze chimiche, capace di ottenere diversi obiettivi complessi in diversi ambienti. Ma tra noi, alcuni ricercatori nel campo dell’IA cominciano a credere che questo possa cambiare in un futuro relativamente prossimo. Ci stiamo avvicinando al giorno in cui potremmo riuscire a creare IA con quella capacità di conseguire scopi diversi che oggi osserviamo solo negli esseri umani.

“Che differenza c’è tra Intelligenza Artificiale e Intelligenza Artificiale Generale?”

Penso che sorgano dei problemi ogni volta che usi parole inglesi, o di qualunque altro linguaggio naturale, nel descrivere concetti tecnici, perché i termini del linguaggio naturale sono intrinsecamente ambigui. E’ proprio della comunicazione umana. Non sarai mai completamente preciso, quando descrivi argomenti tecnici con parole del linguaggio naturale. Il concetto di energia in fisica è un po’ differente dal concetto di energia nella vita quotidiana. Perciò penso che termini come “Intelligenza Artificiale Generale” facciano sorgere la stessa questione. La scienza dell’IA fa proprie, nell’utilizzare questi termini, le definizioni della matematica, che sono definizioni rigorose. Ma non combaciano necessariamente con le definizioni dei linguaggi naturali. Tanto premesso, definisco "Intelligenza Artificiale" un sistema che può risolvere una varietà di problemi diversi, alcuni dei quali potrebbero anche non essere mai stati considerati dai programmatori che l’hanno creata. Proprio come un bambino, che quando nasce e cresce impara a risolvere problemi di cui i suoi genitori non erano a conoscenza e che magari nemmeno conoscevano. Ma è una cosa molto diversa dai programmi di IA di cui si occupano la maggior parte dei ricercatori di IA. Oggi, se scriviamo un programma di scacchi, il programma giocherà solo a scacchi. Non giocherà mai al gioco del Go, o a dama, a meno che il programmatore non glielo dica. D’altra parte, se crei un sistema con un livello di intelligenza generale superiore, comparabile a quella umana, una volta che gli avrai insegnato come giocare a scacchi, il sistema potrà imparare la dama più in fretta che se non avesse in precedenza imparato alcun altro gioco. Sarà cioè in grado, grazie alla sua intelligenza generale, di operare astrazioni e di spaziare da una particolare categoria di problemi ad un'altra. Penso che dobbiamo renderci conto che un’intelligenza infinitamente generale non è possibile in questo Universo. Un’intelligenza infinitamente generale richiederebbe un’infinita potenza di calcolo. Noi umani non siamo affatto infinitamente generali. Il 30% del nostro cervello è dedicato all’elaborazione della visione. Una buona parte del nostro cervello si dedica a compiti molto specifici: la vista, l’udito, il movimento, la propriocezione, riconoscere la delusione degli altri, capire il linguaggio. Solo una parte molto piccola del nostro cervello è deputata alla generalizzazione e alla risoluzione ad ampio spettro dei problemi. E questo, infatti, è qualcosa in cui non siamo molto bravi. Molti umani non riescono a risolvere problemi al di là di quello che è stato loro insegnato o per i quali si sono evoluti. In una certa misura, quella di risolvere problemi di vario tipo è un’abilità che gli umani conquistano dopo molta pratica e studio. E non vorrei darle troppo peso. Tuttavia, è molto maggiore del software di scacchi di Deep Blue o quello nelle macchine che partecipano alla DARPA Grand Challenge.

“Quando arriverà l'Intelligenza Artificiale Avanzata?”

Gli approcci possibili alla realizzazione di un'Intelligenza Artificiale Generale sono sostanzialmente due: emulare il cervello umano in un software, e creare un sistema di IA diverso dal cervello, che trae la sua intelligenza da principi diversi da quelli usati dal cervello umano. La tecnologia oggi ci sta preparando in modi diversi a percorrere, in un futuro relativamente prossimo, entrambe queste strade.

Emulare il cervello umano richiede due cose: mappare meglio ciò che accade dentro il cervello ed un migliore hardware. Tutte e due le cose si stanno realizzando ad un ritmo molto rapido, come Ray Kurzweil ha illustrato in modo molto efficace nel suo libro The Singularity is Near [La singolarità è vicina]. La legge di Moore e i suoi pattern nell’evoluzione dell’hardware mostrano che i nostri computer stanno rapidamente diventando sempre più performanti e la loro memoria sempre più capiente. Se osservi le curve di crescita delle tecnologie di scansione cerebrale, stiamo ottenendo una maggiore precisione spaziale e temporale in termini di comprensione di ciò che avviene nel cervello umano. Se metti queste due cose insieme, arrivi alla conclusione che in pochi decenni saremo in grado di mappare cosa sta succedendo nel cervello umano e di simularlo in un computer. Si potrebbe dire: ”Beh, che vuoi che sia. Abbiamo già abbastanza gente. A cosa ci servono persone digitali?”. D’altro canto, guardiamola da questo punto di vista: cosa succederebbe se prendessimo le 100 persone più intelligenti del mondo, le copiassimo un migliaio di volte ciascuna, facendo funzionare tutte le loro menti 100 volte più velocemente di quanto facciano naturalmente, e nel contempo osservassimo tutto ciò che accade nel loro cervello? Questo porterà rapidamente a molti, e sorprendenti, progressi scientifici. Perciò direi che quando ottieni una buona emulazione del cervello umano, otterrai ogni tipo di sistemi di IA non-umani. Sostanzialmente, la Singolarità è davvero vicina.

Quando all’altro approccio all’IA, quello in cui non emuli il cervello umano, ma cerchi di creare una macchina pensante attraverso principi diversi, anche lì ci sono stati progressi importanti. Immaginarsi come sarà l’IAG e tracciare una rotta verso essa è, secondo me, molto più semplice oggi di quanto non fosse poniamo, 10 anni fa. Il motivo è un po’ più sottile di quanto non fosse nel caso dell’emulazione diretta del cervello, ma è comunque molto chiaro. Penso innanzitutto alle scienze cognitive. Se cerchi di fare un diagramma di flusso di quello che succede nella mente umana, abbiamo percezione, azione, memoria a breve e a lungo termine, ragione, apprendimento, apprendimento percettivo, motorio. Insomma, due buone dozzine di rettangolini con molte frecce tra loro. Abbiamo qualche comprensione di cosa succede dentro ciascuno di questi “rettangoli”. Tutta questa conoscenza è incredibilmente più approfondita oggi di quanto fosse 20 anni fa, persino più di quanto fosse 10 o 5 anni fa. A livello di psicologia cognitiva, abbiamo oggi una comprensione molto buona di cosa succede nella mente umana. Questo, certo, da solo non ci dice come costruire una macchina pensante, ma ti fa capire molte cose sull’architettura di alto livello che ti serve per farlo. In aggiunta, abbiamo un impressionante aumento delle conoscenze in materia di algoritmi e strutture di dati. Ci vengono dalle ricerche sulla IA ristretta, fatte cioè per risolvere problemi specifici, come giochi, diagnosticare malattie, guidare macchine, prevedere il mercato azionario. Benché nessuna di queste cose porterà di per sé a raggiungere l’IA, abbiamo una montagna di algoritmi eccezionali. Stiamo accedendo a dati dalla memoria, riconosciamo pattern, ricreiamo il ragionamento e l’apprendimento. Il mio approccio nell’IA è di prendere le funzioni di alto livello comprese dalla psicologia cognitiva e di immaginare come riprodurre ciascuna di queste (ragionamento, apprendimento…) con gli algoritmi messi a punto dalla scienza informatica di frontiera, così da avere una convergenza di psicologia cognitiva e algoritmi informatici. Esiste dunque questo approccio "integrativo" all’IA. Poi, naturalmente, hai dalla tua la legge di Moore e i progressi nell’hardware che essa prevede.

“A cosa lavori nel campo dell’IA?”

Nel mio curriculum c'è un PhD in matematica. Sono stato professore di matematica, scienza informatica e scienze cognitive per otto anni in diverse università. Nel 1997, dopo otto anni in accademia, sono entrato nell’industria del software. Ho creato diverse applicazioni nel campo dell’IA ristretta, nel campo della bioinformatica, finanza computazionale, elaborazione del linguaggio naturale, ed estrazione di dati. In parallelo, mi occupo di IA ristretta applicata. E poi lavoro sul mio grande schema per creare una macchina pensante, che ho battezzato il motore cognitivo “NovaMente”. E’ un grosso progetto. E’ partito nel 2001, piuttosto a rilento perché i fondi erano modesti, per poi accelerare. Il lavoro è stato finanziato dalla nostra azienda di esperti di IA. Ma il mio lavoro al motore cognitivo Novamente mi ha davvero convinto che potremmo arrivare all’IAG anche in cinque anni, con uno sforzo congiunto teso a realizzare il sistema di Novamente, o un’altra architettura IAG ugualmente valida.

“Di cosa ti occupi al SIAI?”

Conosco Eliezer Yudkowsky da diversi anni, forse dal 1999. Nel corso degli anni le nostre posizioni su IA, Singolarità, e l’eticità nello sviluppo dell’IA si sono avvicinate e allontanate più volte. Ho seguito con interesse lo sviluppo del SIAI fin dal suo avvio. L’anno scorso, nel 2006, ho iniziato a parlare con Eliezer e Tyler Emerson su come unire le nostre forze, così da realizzare meglio i nostri obiettivi comuni, tesi alla creazione dell’IAG, massimizzando così le probabilità di ottenere una Singolarità  Tecnologica positiva. Eliezer ha lavorato a lungo sul suo approccio all’IA amichevole, la realizzazione di sistemi di intelligenza artificiale che in qualche modo garantiscano di essere bendisposti verso gli esseri umani e di riconoscere valori morali positivi man mano che la loro intelligenza aumenta. Da parte mia, sebbene fossi molto interessato all’aspetto etico, al creare un’IA sicura e benefica, il mio approccio all’Intelligenza Artificiale Generale è stato più pratico, ingegneristico. Eliezer ha fatto soprattutto teoria. Anch’io ho fatto un pò di teoria, ma ho anche lavorato con un team di programmatori per costruire sistemi. Per farla breve, sono entrato nel SIAI come direttore delle ricerche, con lo scopo di integrare, con un programma di ricerca pratico sull’IAG, il lavoro teorico di Eliezer Yudkowsky. Una delle cose che vorrei fare è guidare lo sviluppo di strumenti open source per l’IAG. Così prenderei alcuni strumenti software che abbiamo sviluppato alla Novamente e con la cooperazione del SIAI rilascierei una parte di questi in formato open source, così che i programmatori di IA in accademia, nell’industria, tutti insomma, possano collaborare indipendentemente nello sviluppare strumenti che aiuteranno a promuovere un’IA sicura e benefica. Il ruolo del SIAI, in questo caso, sarebbe quello di fungere da caposquadra e di coordinare il contributo dei diversi sviluppatori open source, e anche di fornire una guida per garantire che lo sviluppo si presenti in forma sicura e benefica. La mia opinione è che se la collaborazione aumentasse, tra la comunità di ricercatori di IA, di IAG ed il SIAI, questo sarebbe un fatto estremamente positivo. Potrebbe accelerare il nostro progresso verso l’IAG, garantendo al contempo che il SIAI, che ha riflettuto a lungo su come mantenere l’IA sui giusti binari etici, possa giocare un ruolo nel gestire gli avvenimenti mano a mano che avanziamo verso l’IAG.

“Come si può programmare l’etica?”

Chiedere come si può tradurre l’etica negli zero e uno di una mente artificiale é molto simile al chiedersi come arrivare all’etica partendo dai potenziali di azione e dai livelli di dopamina del cervello umano. Quando insegno ad un bambino l’etica, come ho fatto ai miei tre bambini, non cerco di tradurre la regola “Non picchiare sulla testa la gente” in una serie di potenziali d’azione del loro cervello. Li istruisco col linguaggio, attraverso l’esempio. Quell’istruzione in parte funziona perché i loro cervelli sono progettati in modo di ricevere queste istruzioni e di reagirvi in modo appropriato, perché il cervello umano ha incorporato un modulo molto efficace per le interazioni sociali, per riprodurre il comportamento altrui ed empatizzare con gli altri. Allo stesso modo, se vogliamo inculcare un etica adeguata ad un’IA, serve sia un set di istruzioni esplicite, sia un’architettura mentale adeguata a riceverle. Non credo che il miglior approccio sia l’”etica programmata”. In tal caso, infatti, quello che ottererresti sarebbe una serie di ingiunzioni etiche molto rigide, che non sarebbero abbastanza flessibili, generalizzabili e integrate tra loro per orientare il comportamento di un sistema generalmente intelligente nel mondo reale. Ma considero in ogni caso importante avere un comportamento etico in mente nel momento in cui costruisci un’architettura di IAG, affinché possa ricevere adeguatamente le istruzioni etiche che finiranno col guidare il suo comportamento. Seguiremo questo approccio anche in ogni software open source di IAG che il SIAI rilascerà.

“Le IA dovranno capire il linguaggio naturale per essere etiche?”

Penso che per capire l’etica umana, un’IA dovrà essere parte integrante della cultura umana. Penso che le nozioni di bene e male, violenza, aggressione, libertà, scelta, sé, volontà, non siano concetti matematici formali. Sono tutti concetti culturali che traggono il loro significato solo dalla ricca rete di interazioni che gli esseri umani hanno l’uno con l’altro, coi nostri corpi, col nostro mondo. Un’IA dovrà relazionarsi col mondo per capire davvero il senso umano dell’etica in un modo che orienti praticamente il suo comportamento. Ma non penso che basti. Naturalmente, potresti rendere un’IA completamente integrata nel mondo umano ed essa potrebbe ugualmente fare cose terribili. Deve avere anche la giusta architettura, la giusta disponibilità ad apprendere. E’ un’area in cui credo che le IA non-umanoidi siano fondamentalmente superiori a quelle umanoidi, perché gli esseri umani non sono particolarmente etici. Ho conosciuto un sacco di gente sgradevole nella mia vita, ed ho osservato che anche le persone più gentili ed attente all’etica possono trasformarsi nei
peggiori bastardi al mutare degli eventi.

“Assumendo che l’AI forte sia fattibile, ti aspetti un decollo ‘morbido’ o ‘duro’?”

Non pretendo di saperlo, e penso che chiunque pensi di saperlo in realtà inganni se stesso. Il potenziale di decollo “duro” è molto reale. Sarebbe possibile creare un sistema di IA in grado di modificare ricorsivamente e così rapidamente i suoi stessi elementi di base da passare dal livello umano ad un livello divino di intelligenza in soli cinque minuti. D’altro canto, è improbabile che un evento così accada in modo imprevisto, a meno che tu abbia lavorato al tuo sistema di IA senza sufficiente consapevolezza. Penso che costruendo con cura un sistema di IA (come abbiamo fatto con Novamente, e come faremo coi progetti AGI del SIAI, open source o no) il tasso di miglioramento dell’intelligenza si possa controllare. Puoi ottenere quello che chiamerei un’ascesa controllata, dove il livello di intelligenza del sistema di IA migliorerà solo entro una certa misura ogni anno. Mi azzardo a dire che questo è il modo più etico e ragionevole di procedere. A meno che alieni superintelligenti non t’invadano dallo spazio, o qualche altra situazione terribile in cui ti serve subito un “Dio”, è molto meglio procedere con relativa calma per alcuni periodi di tempo, magari anche decenni o secoli. Lasciare che la razza umana si adatti alla nuova situazione, e che le cose avvengano in un modo comprensibile e in tempi “gestibili”. Questo secondo me dovrebbe essere possibile, se il sistema AGI sarà costruito correttamente. Ma questo porta ad ogni tipo d’intricate e difficili questioni etiche. Cosa succede se il SIAI sceglie in futuro di percorrere un cammino di ascesa controllata? Cosa potrebbe fermare qualcun altro dal creare un’altra IA e provare a realizzare un decollo duro? Abbiamo bisogno di un’IA “poliziotto” che impedisca alle altre IA di crescere troppo in fretta? E chi lo creerebbe il poliziotto? E come? Il problema lo poni anche alla tua prima IA, man mano che ascende in modo controllato? Quando arriva ad un livello d’intelligenza solo doppio rispetto a quello umano, gli dici okay, il tuo lavoro consiste nell’impedire alle altre di avanzare più in fretta di te? Sono domande molto difficili, molto profonde e molto importanti. Vi sono molte possibili risposte. Non dico di averle tutte. Non penso che qualcuno al SIAI pensi di averle tutte. Una delle cose che vorrei fare al SIAI è di coinvolgere quanta più gente possibile in un dialogo intenso e profondo su questi punti. Cosa vogliamo veramente fare? Quanto in fretta dovremmo ascendere? Quanto in fretta, o quanto lentamente, ciascuno di noi dovrebbe essere autorizzato ad ascendere? Quali restrizioni sarebbe sensato applicare ai sistemi di IA capaci di decollo rapido? Sono questioni profonde, cui penso che nessuna élite possa rispondere al meglio da sola. Penso debba essere il frutto di una consapevolezza e di una decisione collettiva. Ma credo che un gruppo come il SIAI possa svolgere un ruolo strategico nel catalizzare questo progresso di comprensione sociale.

Traduzione in italiano di Michele Gianella. 
Video e audio originali sono disponibili sul sito del Singularity Institute:
Video; audio (mp3).
Trascrizione originale, su Future Current: Controlled Ascent in AGI

Ci scusiamo di ogni eventuale errore di traduzione, e vi invitiamo a segnalarcelo.

 

Tecnofascismo? No grazie.

  • Una serie di articoli su sovrumanismo e dintorni e sui motivi che hanno spinto Estropico ad andarsene dalla Associazione Italiana Transumanisti.
  • Aggiornamenti (su Estropico Blog)

Varie