PDF Stampa E-mail
Creare strumenti di superintelligenza ristretta. Intervista a Peter Norvig, Direttore Ricerche, Google
Tecnoscienza - Intelligenza artificiale

Le interviste del SIAI (Singularity Institute for Artificial Intelligence)

Google_hand


La gente ha detto per 50 anni che l’AI era dietro l’angolo. Perché finora abbiamo fallito?

Quando la ricerca AI è  nata, negli anni ’60, c’era una certa euforia. Dicevano, "Abbiamo questo nuovo strumento, i computer. Probabilmente risolveremo questo problema molto in fretta." Poi scoprimmo, col passare del tempo, che le cose erano più difficili del previsto. Pensavamo che il pensiero fosse solo una questione di logica, saper seguire le regole A, B, fino a C, e poi abbiamo scoperto che il pensiero è più di questo. È analogico, è gestire le incertezze, il fatto che là fuori, nel mondo, c’è molto di più. Capire tutto questo, e farci i conti, è più dura di quanto pensassimo.

Cos’è l’Intelligenza Artificiale?

Quando scrissi il mio manuale, dovevo definire cosa fosse l’AI. Una delle cose che volevo evitare erano tutti quei dibattiti filosofici. La questione della realizzabilità  stessa dell’AI, cos’è il pensiero, cos’è l’intelligenza, cos’è la coscienza? In alcune definizioni entrano in gioco tutte queste domande. Ma ho cercato di delimitare il campo dicendo che l’AI consisteva nel costruire il miglior programma possibile. Ti si assegna un compito da fare, un qualche robot o un qualche computer con cui farlo, e poi ci sono tanti possibili programmi. Per farla semplice, ci sono n o 2 alla n programmi possibili, e l’AI consiste nel trovare il programma migliore. O almeno trovarne uno molto buono.

Ci stiamo dirigendo verso una Singolarità?

Penso sia una questione interessante. Vi consiglio, al riguardo, di tornare alle storie di Vernor Vinge, e alle idee di I.J.Good. È una questione interessante da discutere, e penso che come scienziati sia nostra responsabilità  considerare questo tipo di idee. Dovremmo sempre chiederci: “Ciò su cui stiamo lavorando sarà una forza positiva o negativa? Quali saranno gli effetti sulla società?” E questa è una delle possibilità, perciò ci dobbiamo pensare. Arriverà? Se sì, cosa succederà e come ci prepareremo?

La Singolarità è vicina?

Beh, ci ho riflettuto e non la vedo ancora. È come prendere un sismografo e dire: “C’è un terremoto?” Ancora non ci sono segnali, per quel che vedo. D’altro canto, a volte i terremoti avvengono all’improvviso.

Sai quando la Singolarità  si presenterà?

Il problema secondo me è  tutto lì. Non puoi prevederlo. Mi sono chiesto se qualche segno suggerisca il suo arrivo. E no, i segni non ci sono. Quindi non posso prevederlo. Dobbiamo solo aspettare e vedere.

Sei d’accordo con le previsioni di Kurzweil sulla Singolarità?

Ray è un grande, e apprezzo tutto ciò che ha fatto. Apprezzo tutti i suoi progressi nell’AI che ha fatto nella musica e nella lettura. È un grande esperto di tecnologia. Penso faccia il meglio che può nel dire: “Voglio fare questa previsione. Guarderò i dati disponibili, e ne estrapolerò una risposta da questi dati”. È solo, secondo me, che i dati non esauriscono il problema. Osservando la legge di Moore, noti che sì, i computer progrediscono a quel particolare tasso. Ma non credo si dedurre che quando avremo superato un certo numero di transistor, allora questo corrisponderà ad un certo numero di neuroni, e quindi i due sono equivalenti. Lì, a mio avviso, l’analogia si rompe.

Cosa potrebbe indicarci che la Singolarità è imminente?

Si può affrontare la questione in due modi. Dal punto di vista teorico, siamo quasi pronti a costruire qualcosa che pensiamo possa fare l’intero lavoro? Penso che, al momento, non siamo ancora pronti. Non c’è consenso su come si costruisca una macchina che si automigliori all’infinito. E da un punto di vista pratico, cos’è che le macchine sono in grado di fare ora, e quanto in fretta stanno progredendo? Senz’altro abbiamo assistito a molti progressi. Abbiamo visto le macchine fare sempre e sempre più cose. Ma la Singolarità non sembra alle porte.

Vedi la crescita tecnologica esponenziale o bi-esponenziale al lavoro, in Google?

Dipende dalle applicazioni. In molti settori vediamo piuttosto una crescita lineare. Un buon esempio è la traduzione automatica, dal Cinese all’Inglese. Abbiamo adottato un approccio del tipo, “più sai sul linguaggio, meglio fai”. Raccogliamo sempre più esempi di linguaggio, li diamo in pasto ai nostri algoritmi di apprendimento, e man mano che aggiungi esempi di linguaggio, la performance migliora linearmente. Non ci aspettiamo davvero che sia esponenziale. Semmai, ci aspettiamo che ad un certo punto si stabilizzi, ma non siamo ancora arrivati a quel punto. Continuiamo a metterci dentro dati e quello migliora. In altri settori serve una certa soglia di dati prima di vedere dei risultati. Forse un buon esempio è Google nel suo insieme. Quando il Web era agli inizi, un motore di ricerca non era così performante. Ma ora che ci sono decine di miliardi di pagine, ottieni risultati per quasi ogni ricerca che fai. È solo grazie ai dati disponibili, dunque, che raggiunge questa soglia di utilità, e noi, "sopra" questa massa di dati, cerchiamo di farlo funzionare sempre meglio.

Google e l’AI sono spesso citati nella stessa frase. Cosa fa Google che gli altri motori di ricerca non fanno?

Siamo i primi per numero di utenti. E secondo, siamo più concentrati sulla tecnologia. Yahoo! sembra concentrarsi su un pacchetto completo per l’utente. Sono un’azienda di contenuti, di intrattenimento, e tecnologica. Noi sembriamo molto più concentrati sulla tecnologia. Penso che la gente lo noti e dica: “Se qualcosa avverrà, avverrà da questa gente, che è così concentrata sulla tecnologia”.

In che modo i progressi nell’AI si riflettono nelle attività di Google?

L’AI è molto presente in Google nel senso che abbiamo dati ovunque. Ci sono di gran lunga troppi dati perché un programmatore umano possa gestirli. Quindi siamo stati costretti a ricorrere ad algoritmi di apprendimento automatico per quasi tutto ciò che facciamo. Da questo punto di vista, quindi, siamo una delle compagnie più orientate all’AI che io conosca. Ma non abbiamo prodotto “intelligenza generale”. Non abbiamo cercato di dire: “siamo qui per dare tutte le risposte al posto tuo. Non ti serve nemmeno fare ricerche su Google, troveremo ciò che ti serve e andremo al negozio e lo compreremo per te piuttosto che darti informazioni su di lui”. Non stiamo cercando di fare una cosa simile. Stiamo solo cercando di fare meglio il nostro lavoro, che è quello di connettere te e l’informazione.

Possiamo costruire un’intelligenza superumana?

Senz’altro. Lo abbiamo già  fatto in molti modi. Il mio piccolo computer contiene un’intelligenza superumana. Fa le radici quadrate molto più in fretta di me. Google ha intelligenza superiore nel senso che conosce più pagine Web e le trova più in fretta di quanto qualunque essere umano possa fare. Non le capisce nel senso in cui le capisce un umano, quindi le sue capacità sono molto limitate. La sua intelligenza è superumana in alcune direzioni e subumana in altre. Magari un giorno avremo un’intelligenza superumana più generale. Fino a quel giorno, [però,] la cosa interessante è connettere i due mondi. Cosa possiamo ottenere dalla connessione tra le persone e questi strumenti di superintelligenza ristretta per migliorare queste connessioni?

La tua opinione sul Singularity Summit?

Penso sia affascinante pensare alle possibilità per il futuro. Penso sia una nostra responsabilità  pensarci. Se ci saranno possibili conseguenze negative, ci si deve preparare.  Se fosse possibile anticiparne le conseguenze positive,  è nostro dovere provare a realizzarla per rendere il mondo un posto migliore. A prescindere da quanto ritieni la Singolarità probabile, o lontana nel tempo, devi cominciare a pensarci ora. E l’altra ragione per cui sono qui è che qui ci sono alcuni miei amici con cui volevo parlare. Pensatori che non avevo ancora incontrato e che volevo incontrare. Insomma, sembra essere un gran posto dove trovarsi.

Google anticipa le tecnologie future?

Certamente vogliamo pianificare il progresso tecnologico. Vogliamo addirittura prepararci a ciò  che non conosciamo. Vuoi poter dire di trovarti in una posizione, ad un certo momento del futuro, in cui puoi avvantaggiarti di queste opportunità. Non penso che tu possa dire che le risposte verranno sempre fuori. Se dico che in sei anni saprò qualcosa, forse in sei anni la saprò, forse no. Forse in sei anniscoprirai che non c’è risposta alla domanda. È impossibile. Ci sono limiti al possibile, e alcuni progressi dell’informatica hanno trovato questi limiti. Nella matematica, risalendo a Gödel che dimostra che ci sono verità matematiche indimostrabili, e che ci sono limiti a quello che la matematica può fare. Nell'informatica, dimostrando che ci sono problemi esponenzialmente difficili, che rimangono impossibili anche con questa crescita esponenziale. A questo punto, la domanda è: ”Dov’è l’intelligenza generale? È sopra o sotto la linea dei problemi risolvibili?” Non penso che ancora lo sappiamo.

Perché sostenere il SIAI?

Perché è un problema affascinante, che coinvolge tutti nel mondo. Potrebbe cambiare le nostre vite. Penso che vogliamo tutti informarci. Vogliamo essere in grado di partecipare ed avere la migliore opportunità possibile per uno sviluppo positivo.

L’AI benevola è possibile?

Penso che l’idea dell’AI amichevole sia molto interessante. A Google non stiamo facendo niente di specifico a riguardo, ma nel mio lavoro precedente, alla NASA, lavoravamo sui test dei programmi e sulle loro proprietà. Alla NASA è molto importante che il software non vada in crash perché se va in crash, la navicella si distrugge, e c’è gente a bordo che muore. Insomma, succedono cose brutte. Una delle cose che si vuole poter fare è verificare la correttezza del software. In parte questo avviene attraverso il testing tradizionale, un approccio tipo “garanzia di qualità”, e in parte attraverso prove matematiche del programma. Prove di correttezza o prove delle proprietà. Potevi verificare se, ad esempio, il programma non andava in uno stato di “blocco”. È una buona cosa poterlo sapere. Ora, se puoi decidere cosa significa “benevola”, allora hai una possibilità di usare la stessa tecnologia per dire: “Posso dimostrare che questo programma non sarà mai ostile”. Solo che è molto più semplice definire lo stato di “blocco” che definire lo stato di “benevolenza”.

A cosa somiglia, secondo te, una società post-Singularità?

Non puoi saperlo, per definizione. Ma se allarghi la nozione di Singolarità fino ad includere la ”Intelligenza Generale Avanzata”, mi piace la descrizione di Barney Pell. È quando un computer potrà fare la maggior parte di ciò che fa oggi un diplomato. Come cambia il mondo una cosa simile? Tanto per cominciare, rende il mondo un posto molto più ricco. Cambia ciò che ciascuno di noi è in grado di fare, perché così siamo liberati da molto del lavoro che prima eravamo costretti a fare. Vi segnalo la biografia di Freeman Dyson, diceva una cosa molto interessante. Le donne della classe media dei suoi tempi erano molto più femministe delle donne di classe media di oggi, e il motivo è che avevano tutte quelle assistenti che stavano a casa e cucinavano, pulivano casa e si prendevano cura dei bambini. Così, erano libere di uscire ed occuparsi del movimento delle suffragette o qualunque altra cosa. Mentre la classe media, oggi, non ha badanti, spesso entrambi i genitori lavorano e così c’è molto meno tempo libero. Dopo la Singolarità nel senso di Pell, torneremo a quel tipo di vita in cui non solo la classe media ma sostanzialmente tutti avranno degli assistenti che si prendono carico delle incombenze da svolgere. Il che, improvvisamente, regalerà molto tempo libero. E la questione diventerà: ”Che farne?”

La Singolarità sarà una forza democratica?

Non so se spingerà verso la democrazia o piuttosto verso l’uguaglianza. Certamente solleverà  tutte le barche. Tutti miglioreranno il proprio standard di vita, avranno più tempo libero, e così via. Ma penso che le persone in cima alla scala economica prenderanno una fetta più ampia delle risorse, e così il divario tra le classi crescerà, anche se in termini assoluti le fasce deboli avranno molto di più.

Le tecnologie future ti causano qualche preoccupazione?

Sì, certo. Penso che ci siano molte cose di cui preoccuparsi, e non penso che la cosa sia nata con l’AI, le biotecnologie o le nanotecnologie. In realtà stiamo affrontiamo la questione già da molti anni. Sono cresciuto con la paura della guerra nucleare, cercando di protestare e migliorare un poco la situazione. Sembra che siamo usciti da quella crisi, sebbene vi siano ancora possibilità di qualche problema. Ci sono state ogni sorta di possibili minacce. Per cinquant’anni si è corso il rischio che studenti di chimica del liceo creassero una carica di botulino e la versassero in un acquedotto, uccidendo migliaia di persone, ma nessuno ha ancora deciso di farlo. Non sono sicuro di sapere perché. Non sono sicuro se ci siano o meno vincoli che continuano a funzionare. So in compenso che gruppi sempre più piccoli di persone potranno fare danni sempre più grandi. Non so quanto questi vincoli etici, o altri tipi di vincoli, impediranno che i danni avvengano.

Supponendo che l’AI forte sia probabile, ti aspetti un decollo”morbido”  o “duro”?

Penso di condividere lo scenario “morbido” per le ragioni che hai citato. Inoltre, se guardi alla curva di Ray Kurzweil, crescita esponenziale significa la stessa variazione percentuale all’anno. Continuiamo a tenerla d’occhio, quindi. A Google, siamo molto contenti dei vostri risultati e siamo felici di poterveli fornire. Vista dalla nostra parte, è un po’ come fare salsicce. Ci preoccupiamo più dei cattivi risultati che di quelli buoni. Voi fate una ricerca, e su dieci risultati restituiti sei sono pertinenti. Siete contenti. [Ma] noi diciamo: ”Maledizione, ci sono 4 risultati cattivi, dobbiamo proprio sistemare questa cosa”. E così continuiamo a lavorarci. Continueremo a migliorare. Vi daremo risultati migliori, e modi migliori di interagire con noi. Sappiamo che ci sono molte cose che vorreste poter fare ma non ci riuscite. Per esempio, se non conosci alcuna parola pertinente, cosa fai? [Ora come ora], è un problema tuo. Perciò devi indietreggiare e dire:"Sto tenendo d’occhio alcuni problemi medici, non conosco i termini medici specifici, ma ne so abbastanza per ottenere un documento che li contiene, poi lo leggo, torno indietro e faccio la ricerca vera e propria." Ecco, noi vogliamo rendere più veloce questo processo. Vogliamo portarti alla giusta risposta anche se non conosci le parole giuste con cui iniziare. Nel frattempo, vogliamo rendere l’interazione più rapida, vogliamo correggerti coi documenti giusti o connetterti con la persona giusta. Pensiamo di poter continuamente migliorare questo processo e rendervi sempre più soddisfatti. Non vedo un decollo “duro”, ma vi vedo in grado di fare sempre più cose.

Cosa pensi della produzione molecolare e della bio-ingegneria?

Mi affascinano. Cerco di aggiornarmi a riguardo, anche se mi mancano molti strumenti. Penso che ci sia un legame, perché collegano il mondo fisico e il mondo dell’informazione. Penso sia probabile che in questo secolo una larga parte della manifattura sarà fatta con cellule o atomi. Più con cellule, direi, perché sono più grosse, più agevoli da manipolare. Sono già dotate di un computer da tre gigabyte. Dobbiamo solo capire come programmarlo.


Traduzione italiana di Michele Gianella.

Trascrizione originale, su Future Current: Creating Tools of Narrow Superintelligence. Ci scusiamo di ogni eventuale errore di traduzione, e vi invitiamo a segnalarcelo.

Il video originale dell'intervista è disponibild sul sito del Singularity Institute.

Immagine: I got a small slap, how do I rebound? (Volacci)

 

Tecnofascismo? No grazie.

  • Una serie di articoli su sovrumanismo e dintorni e sui motivi che hanno spinto Estropico ad andarsene dalla Associazione Italiana Transumanisti.
  • Aggiornamenti (su Estropico Blog)

Varie