PDF Stampa E-mail
Reinteressarsi all’Intelligenza Artificiale. Intervista a Sam Adams
Tecnoscienza - Intelligenza artificiale

Le interviste del SIAI (Singularity Institute for Artificial Intelligence)

Sam Adams, IBM distinguished engineer

Si è detto per cinquant’anni che l’intelligenza artificiale era dietro l’angolo. Cosa è cambiato, ora?

Beh, tanto per cominciare, abbiamo intrapreso un viaggio alla scoperta di cosa sia l’intelligenza. Non siamo ancora a destinazione, ma siamo molto più vicini. Abbiamo completamente compreso cosa non sia l’intelligenza. Cose come la matematica e la logica, che erano alla base dei primi lavori sull’IA, sono naturalmente parte di ciò che l’uomo fa di intelligente, ma molto di ciò che facciamo, come le emozioni o la creatività, non è basato sulla matematica o sulla logica. Molto di quanto era semplice da fare con le prime tecnologie ha aperto la strada, in seguito, a cose più difficili. Un esempio è il buon senso, ossia l'essere in grado di fare ciò che un bambino di tre anni sa fare. Un bambino di tre anni sa che se molla la presa su qualcosa, questa cadrà a terra. Ma non abbiamo computer che lo comprendono bene. Alcuni stanno cominciando ad ottenere questa capacità. Ma abbiamo iniziato dalla fine. Il Turing Test, se ci pensi, consiste nel cercare di creare un computer che un essere umano non sappia se definire computer o umano. Abbiamo scoperto che questo non è un buon test, perché è facile ingannare l'osservatore. Molte persone, per ingannare una persona, si comportano come se fossero qualcun altro e gli altri ci cascano. Così ci siamo accorti che, nel guidare la ricerca scientifica, nel guidare i ricercatori, il Turing non è un test buono come si pensava. Abbiamo anche avuto molte ottime idee per le quali la tecnologia hardware e software non era pronta. Penso che una delle ragioni per cui la gente è di nuovo entusiasta e si ricomincia a parlare di intelligenza artificiale è che l’hardware offre prestazioni molto migliori. I sistemi con cui lavoriamo oggi hanno una potenza molte volte superiore a quelli con cui abbiamo iniziato. In effetti, un approccio che penso darà molti frutti, sarà il rivisitare alcune vecchie idee dei primi anni dell’informatica (quando non era ancora chiaro per cosa sarebbero stati usati i computer), per poi applicarle nei potenti sistemi di oggi.

Puoi darci un esempio di cosa sta cambiando?

Prima dei sistemi operativi, programmi di scrittura, interfacce grafiche , e tutto quell’insieme di cose che oggi diamo per scontate, i computer erano molto più “ad ampio spettro” La gente poteva creare qualcosa usando i componenti elettronici, la memoria e i processori. Non c’erano veri e propri standard. Se creavi un’applicazione, dovevi cominciare da zero e mettere tutto insieme. Tutte queste piattaforme, questi standard cui oggi siamo abituati hanno sì aumentato la produttività ed il valore di mercato, ma in cambio hanno per così dire “ristretto” la nostra apertura mentale sui possibili modi di usare i computer. Penso che a cambiare, tra le altre cose, sia la disponibilità della gente a guardare oltre i modelli correnti, a cercare modelli nuovi.

Siamo in grado di costruire un’intelligenza superiore a quella umana?

Quando parliamo di computer più intelligenti dell’uomo, o anche solo di svilupparli, in realtà non sappiamo nemmeno come costruire computer al nostro livello di intelligenza. Non raggiungiamo nemmeno l’intelligenza di mammiferi molto più piccoli di noi. Penso che quando si comincia a parlare di sviluppare sistemi intelligenti multifunzionali, da cui l’espressione “intelligenza artificiale generale” [IAG, o Artificial General Intelligence, AGI - ndt], parliamo di cose che avrebbero la capacità di apprendere liberamente, di acquisire conoscenza da sole. Così, proprio come quando ti trovi in situazioni per te nuove, devi immaginarti cosa succederà e che impatto avrà su di te. Che cosa farai in un ambiente simile? Come potresti utilizzarne le risorse per raggiungere i tuoi scopi? Dare ad un sistema tali abilità non lo renderebbe più intelligente dell’uomo, ma sarebbe un sistema molto utile, e ancora non ci siamo arrivati.

In questa conferenza si discute molto dell'argomento: “Cosa accadrebbe se creassimo qualcosa di più intelligente degli umani?” Penso che alla cosiddetta Singolarità, cioè all’eventualità che questa intelligenza “decolli” e ci lasci indietro, magari a discapito nostro, manchi ancora molto, molto tempo. Nel corso delle nostre vite, non avremo di che preoccuparcene. Ma credo piuttosto che, probabilmente nel corso dei prossimi 10/15 anni, vedremo molta IAG interessante. Avremo sistemi che sarebbero definiti radicalmente nuovi, rivoluzionari, se li potessimo vedere già oggi. Ma quando arriveranno, come spesso è successo nella storia dell’intelligenza artificiale, tutti diranno: ”Oh, non è vera IA, è qualcos’altro”. Svilupperemo sistemi interessanti, molto utili. Sta tornando l’interesse, su queste cose. Penso che vedremo molti progressi interessanti nei prossimi anni. Ma cose che decollano e ci lasciano dietro, penso di no.

Come procede,all’IBM, la legge di Moore?

E’ interessante notare che in effetti stiamo raggiungendo il punto in cui, con la legge di Moore classica, i rendimenti stanno diminuendo. Hai notato che ormai i laptop di fascia alta hanno installato non uno ma due processori per chip? Siamo arrivati al punto in cui rendere un solo processore sempre più veloce comincia a scontrarsi con limiti fisici. Non possiamo aumentare la temperatura o sciogliamo il silicio. Non riusciamo a far tenere il passo del chip alla memoria. Perciò ci si sta orientando verso i chip multiprocessori. Questo è un modo diverso di procedere, qualcosa con cui non avevamo a che fare fino a poco tempo fa. Prima c’era Blue Gene, i sistemi per il calcolo ingegneristico o quelli governativi per il decadimento nucleare, cose del genere. Si fa, insomma, calcolo parallelo ad alte prestazioni da molto tempo, ma non per utenze generali, solo per applicazioni specifiche. Perciò, anche se i processori stanno diventando sempre più veloci e sempre più potenti, lo stanno diventando in un modo diverso. Non è solo questione di lanciare lo
stesso programma in metà del tempo ogni anno o due. Significherà avere diversi tipi di applicazioni. E ad oggi non sappiamo come farle funzionare.

L’IBM  sta integrando le tecnologie future?

Decisamente non sono un esperto in tutto ciò che l’IBM ha fatto nel campo della nanotecnologia o del calcolo quantistico. Abbiamo all’opera in quel settore alcune delle migliori menti al mondo. Abbiamo sviluppato molto in quel campo e seguiamo con attenzione ogni tipo di applicazione interessante. Parte di queste tecnologie, come il calcolo quantistico, è ancora molto lontana dalla sua adozione di massa, ma stiamo imparando cose interessanti su di esso che ci aiuteranno a capire come progettare i chip.

Ora, noi lavoriamo sempre al livello del nanometro con la tecnologia moderna dei chip. E’ un modo di migliorare le cose. Guarda cosa stiamo cominciando a fare con i circuiti ai nanotubi di carbonio; è un lavoro affascinante, che permetterà di continuare il progresso nella potenza di calcolo. Ma la crescita tecnologica non è tutto. Dobbiamo anche imparare come renderla accessibile ad un largo numero di programmatori. Oggi, occuparsi di parallelismo massivo, come facciamo ad esempio su Blue Gene, richiede ancora una formazione molto mirata. Non è una cosa alla portata di chiunque sappia programmare uno script JAVA o costruire una pagina Web. Come rendiamo accessibile questa tecnologia? Come permetti che la gente, davanti a questo nuovo potere, crei nuovi tipi di innovazione e di valore aggiunto? E’ questa la nostra vera preoccupazione, non solo il progresso tecnologico.

L’ IBM sta lavorando verso l’AGI?

L’IBM è stata coinvolta in questo particolare campo da quando l’IA è nata. Cose come Deep Blue sono il risultato di trent’anni di ricerca finanziata dall’IBM. E non solo internamente. Abbiamo anche finanziato molta ricerca nelle università e abbiamo collaborato con altre aziende. In effetti, il nostro modello di ricerca si sta spostando verso la collaborazione aperta sia con le università che con le
piccole aziende. Naturalmente, ci sono questioni con cui fare i conti. Le piccole aziende vogliono lasciare il segno e il loro bisogno di trarre profitto da un progetto potrebbe cozzare contro ciò che IBM vorrebbe fare con quella tecnologia. Come collaborare, e come ripartirsi i risultati, è fonte di continue discussioni. Lo stesso vale per le università, che si concentrano sull’ottenere valore dalla proprietà intellettuale che creano come parte della loro ricerca. Ma siamo sempre interessati a collaborare con la gente, quando ciò porta vantaggi ai nostri clienti. E’ normale per noi. Lavoriamo con molta gente diversa, aziende nuove, università, e altre grandi aziende.

Cosa pensi del Singularity Summit della SIAI?

E’ un incredibile gruppo di persone dalle vedute estremamente aperte. Filosofi che cercano di immaginarsi dove l’umanità sta andando, ingegneri che cercano di realizzare qualcosa che non era mai stato fatto prima, e qualunque altra sfumatura intermedia. C’è gente spaventata da dove la tecnologia potrebbe portarci, e gente esaltata dallo stesso pensiero. E’ un punto di incontro per tutte queste persone, e il tipo di scambio aperto che ha generato, secondo me, è molto positivo. Per esempio, penso che stabiliremo un fruttuoso dialogo e troveremo i modi per discutere anche con gente dalle opinioni molto diverse, così da fare importanti progressi. Spero che il summit continui a svolgersi ogni anno. Ne vale proprio la pena.

Traduzione in italiano di Michele Gianella.
Video e audio originali sono disponibili sul sito del Singularity Institute:
videoaudio (mp3).
Trascrizione originale, su Future Current.

Ci scusiamo di ogni eventuale errore di traduzione, e vi invitiamo a segnalarcelo.

 

Tecnofascismo? No grazie.

  • Una serie di articoli su sovrumanismo e dintorni e sui motivi che hanno spinto Estropico ad andarsene dalla Associazione Italiana Transumanisti.
  • Aggiornamenti (su Estropico Blog)

Varie