PDF Stampa E-mail
Rendere i computer ingegneri di se stessi. Intervista a Peter Voss, fondatore e CEO della Adaptive AI
Tecnoscienza - Intelligenza artificiale
escher_computer_ingegneri

Le interviste del SIAI (Singularity Institute for Artificial Intelligence)

Che differenza c’è tra Intelligenza Artificiale e Intelligenza Artificiale Generale?

Il mio settore si chiama AGI: Intelligenza Artificiale Generale, così da distinguerlo dalla semplice AI, visto che la ricerca di oggi si concentra quasi esclusivamente di intelligenza artificale ristretta. [Che cioè] svolge solo alcune funzioni specifiche. Si costruisce un sistema che risolve un particolare problema. Sostanzialmente, l'AI fa questo. Perciò i sistemi AGI sono potenzialmente in grado di imparare uno spettro molto ampio dello scibile. Se hai un sistema che può apprendere come un umano, che può acquisire conoscenza come un umano, puoi pensare ad un sistema che acquisti l’abilità di diventare un buon informatico. Se diventa un buon informatico, può migliorare il suo design da solo. A quel punto ottieni l’automiglioramento ricorsivo. Così il computer diventa abbastanza intelligente da capire la sua stessa progettazione e migliorarla, il che lo renderà ancora più abile a migliorare il suo design e diventare molto in fretta incredibilmente intelligente.

Quale tecnologia futura ti interessa?

Una delle cose cui sono molto interessato è la longevità, l’estensione della durata della vita. Vorrei avere l’opportunità, e vorrei che anche gli altri l’avessero, di vivere una vita molto, molto lunga. Diciamo indefinitamente lunga. Così da non avere centomila morti involontarie al giorno. Sarebbe una gran cosa, secondo me. Oggi, tuttavia, non siamo all'altezza di risolvere il problema. Ci stiamo avvicinando molto lentamente, migliorando la scienza medica, la nanotecnologia, e così via. Ma è dura, molto dura. Non siamo abbastanza intelligenti per farlo. Non abbiamo abbastanza gente intelligente per risolvere questi problemi tecnici. Se [però] avessimo computer molto più intelligenti di noi che potessero lavorare 24 ore su 24, 7 giorni su 7... immaginate un ricercatore medico AGI. La sua intelligenza surclasserebbe quella di un ricercatore umano, e inoltre potresti copiarlo centomila volte così da avere centomila ricercatori di frontiera all’attacco dell’invecchiamento, dell’inquinamento, delle malattie e di qualsiasi altra cosa. Saranno in grado di risolvere questi problemi molto più in fretta. Penso che sia una grande questione.

Cos’è l’intelligenza “superumana”?

Non lo sappiamo. Non siamo abbastanza intelligenti da saperlo. Non è una gran risposta, ma è proprio così. Ciò di cui sono certo è che sarà  molto più intelligente degli umani. Prima di tutto, può raggiungere conclusioni molto difficili, problemi con cui io potrei dover lottare settimane o mesi, prima di risolverli. Comprimerebbe questa durata e sarebbe capace di giungere alle conclusioni entro secondi o minuti. Sarebbe in grado di risolvere i problemi più in fretta. Sarebbe anche in grado di risolvere problemi più difficili, e si potrebbe inoltre cumulare la conoscenza di tante AI intelligenti, che hanno lavorato in settori differenti. Potrebbero condividere questa loro conoscenza quasi istantaneamente, mentre per noi trasferire la conoscenza, le intuizioni, l’esperienza agli altri è un processo molto difficile, e molto noioso. Nei computer può avvenire istantaneamente. Anche questa sarebbe una cosa di gran rilievo. Quindi... macchine che lavorano 24 ore su 24, 7 giorni su 7 a velocità molto superiori, in grado di scambiarsi informazioni, clonarle e copiarle. Quando una persona ha raggiunto un certo livello di esperienza... [io, per esempio,] vorrei poter clonare me stesso con tutti gli anni che ho impiegato ad acquisire faticosamente la conoscenza che mi serve per progettare le AGI. Se ci fossero mille persone in giro con la mia stessa conoscenza ed il mio background, saremmo in grado di fare progressi molto più rapidi. Sarebbe una vera svolta.

Di cosa ti stai occupando nel campo dell’Intelligenza Artificiale?

Gestisco un'azienda di ricerca e sviluppo. Siamo in quindici. Esistiamo da sei anni, ed il nostro ruolo è specificamente quello di sviluppare un motore AGI. Sviluppare un sistema che davvero possa pensare e alla fine pensare esattamente come gli umani. Insomma, stiamo fisicamente lavorando allo sviluppo della tecnologia.

Si è detto per cinquant’anni che l’Intelligenza Artificiale era dietro l’angolo. Cosa è  cambiato, ora?

Beh, prima di tutto ci stiamo avvicinando, e lo dico sulla base del lavoro  che noi stessi stiamo facendo. Ci sono altre questioni, poi. Ci sono altre aziende al lavoro. Cos'è cambiato? Sono in giro da abbastanza tempo per poter fare dei paragoni. Se confrontiamo i computer di oggi con quelli con cui ho iniziato, solo per farti un esempio, oggi puoi sottoporre un certo tipo di problema ed aspettare che ti risponda in, diciamo, un secondo. Se stai parlando ad una persona, vuoi conversare con lei, ti aspetteresti di avere una risposta in un secondo, se non è una questione molto difficile. Ora, lo stesso algoritmo che eseguiamo sulle macchine di oggi, se eseguito sulle macchine di venti anni fa impiegherebbe una settimana per produrre una risposta. Questa è una grossa differenza. Non puoi fare tutti gli esperimenti che vuoi se devi aspettare una settimana per sapere se l'algoritmo funziona. Dover aspettare un solo secondo cambia le cose. Sui nostri sistemi, per esempio, lanciamo dei test composti da centinaia di migliaia di test eseguiti in sequenza, l’uno dietro l’altro, e li eseguiamo in poche ore. Con la tecnologia di venti anni fa, un computer a costi accessibili avrebbe impiegato millenni. Gli strumenti di sviluppo sono molto migliori. La mia produttività nello sviluppare nuovi programmi è significativamente migliore. Non è un milione di volte migliore, come forse la velocità di elaborazione, ma è comunque notevolmente migliore. Posso fare in ore cose che prima mi avrebbero richiesto settimane, mesi, o anni.

Condividi le previsioni di Kurzweil sulla creazione dell’AI forte?

Mi suonano giuste, anche se, per diverse ragioni, troppo prudenti. Prima di tutto, considero le sue previsioni sull’AI "umana" troppo lontane nel tempo. Secondo me, l’AI raggiungerà livelli umani molto prima. E poi, assisteremo ad un ciclo di automiglioramento. Perciò credo che avremo un tasso di crescita molto maggiore di quello che Kurzweil prevede. Ma fondamentalmente penso che il suo approccio stia prendendo una piega sbagliata. Kurzweil parla di fare ingegneria inversa sul cervello umano. E questa, secondo me, è una strada veramente difficile per risolvere il problema. Sta usando strumenti che non sono davvero adatti a costruire un cervello umano o a farci ingegneria inversa. Prediligo un approccio ingegneristico, del tipo: ”Qual è il problema che stiamo cercando di risolvere e come possiamo risolverlo al meglio usando la tecnologia e gli strumenti disponibili?” Questo è il nostro approccio. L’ingegneria inversa è una strada dura. Potrebbero volerci molti decenni.

Che metodologia state adottando per creare l’AI forte?

Sostanzialmente partiamo dal dire: ”Cos’è importante nell’intelligenza umana?” L’abilità  di apprendere, organizzare in concetti, pensare concettualmente, pensare contestualmente, utilizzare il contesto nella decisione da prendere. Partiamo dal cogliere l’essenza dell’intelligenza per poi dire: “È questo che ci serve mettere a punto”.

Cos’è l’AGI benevola?

È una domanda importante. Naturalmente, siamo al Singularity Summit, perciò la si sente spesso fare. Ci ho pensato a lungo, e continuo a pensarci a lungo. A farla breve, direi che non conosciamo l’esito di qualunque drastico cambiamento tecnologico. La mia opinione a riguardo differisce molto da quella di Eliezer Yudkowsky. Eliezer crede che quasi ogni realizzazione sarà ostile e farà disastri, a meno che non si trovi il modo di programmarvi la benevolenza. Ora, prima di tutto, credo sia impossibile programmare la benevolenza in un modo verificabile, per tutta una serie di ragioni tecniche. Credo sia intrinsecamente impossibile ottenere quello che Eliezer vuole fare. In secondo luogo, non condivido la sua affermazione che nella maggioranza dei casi produrrebbe disastri. Penso sia vero l'esatto contrario. Ci sono diverse ragioni per cui credo che un sistema intelligente migliorerebbe la moralità delle persone. È un meccanismo interno di difesa. Questo non vuol dire che i rischi connessi mi lascino indifferente.  Ma sta per succedere. L’AGI arriverà. Abbiamo bisogno di capire il processo e le dinamiche dell’AGI e come interagiranno con gli umani, man mano che sviluppiamo la tecnologia, prendiamo decisioni e andiamo avanti. Non credo che qualcuno possa davvero anticipare il futuro. Ho delle aspettative molto più positive.

Supponendo che l’AI forte sia probabile, ti aspetti un decollo “duro” o un decollo “morbido”?

Un decollo netto. Credo che in sostanza l’hardware disponibile ci sia. Non credo che quello sia un limite. Credo che la tecnologia, i pezzi del puzzle, sostanzialmente ci siano già. Non penso che ci sia ancora bisogno di una tecnologia radicalmente nuova per ottenere l’AGI. Nondimeno, ci sono milioni di pezzi del puzzle che devono essere identificati e messi insieme nel modo corretto. Il vero collo di bottiglia è trovare la teoria giusta e raggiungere un'appropriata soglia di dedizione. Quante persone nel mondo stanno davvero lavorando a questo problema? Molto, molto poche. Se ci lavorasse più gente, penso che ci arriveremmo prima. Non ci servono ancora dieci o venti anni. È solo che non ci sono abbastanza persone che credono sia possibile. Nel mio sito web , infatti, c’è una lunga lista di ragioni per cui sono così in pochi a lavorarci. Molti docenti di informatica avevano questo sogno 30, 40 anni fa. Hanno provato e hanno fallito, e così si è lasciato perdere. Hanno fatto una promessa, e non potevano mantenerla, così l’AI è diventata una specie di bestemmia. Molte persone non hanno il giusto background in psicologia, epistemologia e teoria della conoscenza per ingegnerizzare l'intelligenza. Non capiscono abbastanza cosa sia l’intelligenza. Tre ragioni tra le tante: le persone qualificate per lavorarci sono poche; non si riesce ad ottenere finanziamenti perché non sono cose popolari; l’AGI ha perso l’approvazione generale. Sostanzialmente, non è politicamente corretto che vi sia una cosa come l’intelligenza generale. Penso che il governo si faccia consigliare dalle stesse persone che nel mondo accademico ritengono sostanzialmente impossibile arrivarci ora, [e dicono:] “Ci abbiamo provato e non ci siamo riusciti. Dovremmo semplicemente focalizzarci sull’AI ristretta e su tutte le applicazioni particolari e alla fine ce la faremo”. Detto questo, tuttavia, alla DARPA c’è tutto un filone di ricerca sul calcolo cognitivo. Ron Brachman ha insistito con enfasi su questo aspetto, ma i risultati, per diverse ragioni, sembrano controversi.


Traduzione italiana di Michele Gianella.

Trascrizione originale, su Future Current: Engineering Computers to be Computer Engineers. Ci scusiamo di ogni eventuale errore di traduzione, e vi invitiamo a segnalarcelo.

Peter Voss è fondatore e CEO della Adaptive AI.

Immagine: Drawing hands - Maurits Cornelis Escher, by guenboul

 

Tecnofascismo? No grazie.

  • Una serie di articoli su sovrumanismo e dintorni e sui motivi che hanno spinto Estropico ad andarsene dalla Associazione Italiana Transumanisti.
  • Aggiornamenti (su Estropico Blog)

Varie