PDF Stampa E-mail
La velocità di fuga della longevità e la Singolarità. Intervista a Aubrey de Grey.
Tecnoscienza - Longevismo

Le interviste del SIAI (Singularity Institute for Artificial Intelligence)

Aubrey de Grey

Mi chiamo Aubrey de Grey. Sono un gerontologo bio-medico, lavoro cioè allo sviluppo delle tecnologie future che potranno ritardare ed infine sconfiggere l’invecchiamento umano, salvando così la vita di centomila persone al giorno. E ricopro anche il ruolo di consulente presso il Singularity Institute for Artificial Intelligence (SIAI). Le ragioni di questo incarico sono diverse. In primo luogo, perché le tecnologie future che ambiscono a cambiare e trasformare la condizione umana hanno molti aspetti psicologici, filosofici e tecnici in comune, per cui ho questa connessione con l’Intelligenza Artificiale. In secondo luogo, perché vent’anni fa, prima di passare alla biologia, ho lavorato proprio nel campo dell’Intelligenza Artificiale. E, in terzo luogo, perché filosofia e tecnologia si uniscono, quando consideriamo il contesto sociale. Quindi, molto del mio lavoro implica il discutere e lo sviluppare idee rispetto a come tutto ciò cambierà la società. E i cambiamenti risultanti da un progresso tecnologico davvero profondo tendono a sovrapporsi a quelli generati da un altro.

La Singolarità  è un "cambio di marcia", se vuoi, nella velocità del progresso: una situazione in cui accelereremo il progresso di certe tecnologie così in fretta che prevedere dove porteranno diventa difficile non sono temporalmente, ma anche qualitativamente. E' difficile prevedere sia come sarà questa tecnologia, sia quale sarà il nostro rapporto con essa. La mia sensazione riguardo alla distinzione tra la Singolarità come viene normalmente definita, cioè come questo "cambio di marcia", opposta al concetto di intelligenza sovrumana, è che si tratta di una coincidenza. Il fatto è che non sappiamo come ottenere un’intelligenza sovrumana. Di conseguenza, ci siamo convinti che ci arriveremo solo sviluppando sistemi a miglioramento autoricorsivo. Sistemi che conoscono sé stessi ed il proprio funzionamento sufficientemente bene da migliorare continuamente e automaticamente la propria funzionalità. Quando ci saremo arrivati, avremo il cosiddetto “decollo duro”, un aumento della funzionalità di queste macchine che sarà di gran lunga più rapido di quanto mai visto prima. E porterà rapidamente a quella che è stata chiamata la Singolarità. E’ in questo senso che [le due definizioni - N.d.T.] in un certo senso coincidono.

C’é una linea di confine, in gerontologia, al di là della quale le cose saranno molto diverse, in futuro, ma è una cosa piuttosto diversa dalla Singolarità. Di solito io la chiamo “velocità di fuga della longevità (V.F.L.)”. E’ un fenomeno meno sconcertante, meno eccezionale della Singolarità. E’ un qualcosa che in effetti abbiamo già visto nello sviluppo di altre tecnologie, come il volo a motore, i computer e altro. Il concetto di V.F.L. dice semplicemente che abbiamo un problema da risolvere: l’invecchiamento. E’ un problema composto da molte sfaccettature. Alcune di queste sono più difficili da risolvere di altre, e dobbiamo risolverle tutte, perchè, come le catene, non siamo più forti del nostro anello più debole. Ma la risoluzione di alcune di queste sfaccettature produce più effetti della risoluzione di altre, quindi non è un problema risolverle anche solo parzialmente, in quanto, così facendo, almeno guadagnamo tempo, tempo che possiamo poi utilizzare per risolvere altri aspetti del problema.

Il concetto di V.F.L. è una specie di descrizione quantitativa di quanto rapidamente dobbiamo guadagnare tempo, così da guadagnarne ancora di più, e così via. Ed è un concetto molto meno controverso e molto più plausibile, direi, di quanto lo sia quello della Singolarità. La Singolarità richiede entusiasmo, una continua pressione pubblica, economica e così via, perché si realizzi davvero. Proprio come con il volo a motore, per esempio. Una volta decollati, coi fratelli Wright, ci siamo mossi progressivamente verso i voli transatlantici, i jet e gli aerei supersonici, ma dove sono le auto volanti? Passando all’esplorazione spaziale, perché non siamo ancora arrivati su Marte? La risposta, sostanzialmente, è che non lo vogliamo abbastanza. Le mie uniche riserve sull’arrivo della Singolarità nei tempi comunemente pronosticati, hanno a che fare con questo.

Il punto centrale della Singolarità è l’aspetto negativo, piuttosto che quello positivo. Torniamo per un momento al mio lavoro, la gerontologia. Sono un biologo. Voglio dedicarmi a fare dell’estensione radicale della vita una realtà quanto prima possibile, ma spendo molto del mio tempo sul contesto sociale. Non solo riflettendo su questi temi, ma anche discutendone. E buona parte della ragione per cui lo faccio è che voglio avere pronti dei piani, e voglio anche che la società nel suo insieme li abbia, per affrontare la turbolenza che risulterà dal rendersi conto che non dovremo più morire di vecchiaia. Questa turbolenza non si verificherà quando queste tecnologie saranno ormai realtà, ma molto prima, ossia quando una quota importante di persone comincerà ad aspettarsele. E potrebbero mancare solo dieci anni a quella situazione. Quindi penso che sia davvero importante dedicarcisi.

Ora, il SIAI si concentra su un problema simile. Il rischio principale, nello sviluppo di macchine in grado di auto-migliorarsi e di diventare straordinariamente intelligenti molto rapidamente, é che potrebbero non apprezzarci granché. Potrebbero decidere che non siamo poi così importanti. E sarebbe una cosa terribile, almeno dal nostro punto di vista. Magari dal punto di vista di un osservatore esterno ed imparziale non sarebbe poi così terribile, ma noi non siamo imparziali, su noi stessi. Quindi la questione è: ”Possiamo sviluppare macchine capaci sì di auto-miglioramento continuo, ma che, al contempo, ci garantiscano di continuare a considerare importanti gli esseri umani? Che ci considerino la loro raison d’etre? Per sincerarsi che questo avvenga, bisogna progettare molto accuratamente queste macchine, in modo che conservino questa caratteristica. In realtà, é peggio di così. Il SIAI assume che sia indispensabile arrivarci per primi. Se qualcuno inventasse dei sistemi ad auto-miglioramento ricorsivo che non incorporassero questa cosiddetta “benevolenza” [verso gli esseri umani - N.d.T.], essi potrebbero prontamente, nel peggiore (per noi) dei casi, sbarazzarsi dell’umanità.

Quindi, faremmo meglio a sviluppare un’Intelligenza Artificiale [I.A.] amichevole prima che chiunque altro ne sviluppi casualmente una ostile. Ora, se sia possibile o meno creare una I.A. amichevole, resta ad oggi un’incognita. Se sia insomma possibile inventare un computer cui si possa dare la libertà di migliorarsi, ma non di diventare ostile. Semplicemente non sappiamo se sia possibile. Ma vale la pena di provarci.

Molto del lavoro che il SIAI porta avanti è filosofia, più che programmazione. In altre parole, cerca di definire cosa significhi la parola “amichevole” [nel contesto della creazione di I.A. “amichevoli”, o “Friendly A.I.” – N.d.T.]. Ora, in fin dei conti, la corretta definizione è il risultato. “Amichevole” significa “che ci difenda da quanto potrebbe ucciderci”. Ma quando si tratta di implementare questa definizione, dobbiamo immaginarla in dettaglio. Dobbiamo provare a trovare descrizioni precise, analitiche, e questo spiega perché molto del lavoro del SIAI si concentra su questo. Una delle questioni veramente difficili per me, sia come biologo che come consulente per il SIAI, è che in realtà non so fino a che punto la scienza possa definire, descrivere, le cose. E la ragione principale per cui non lo so, è perché in fondo sono più un tecnico, un ingegnere, che uno scienziato. E questo mi aiuta enormemente. E’ stata la ragione per cui sono stato in grado di dare un importante contributo al campo della biologia dell’invecchiamento. Ho potuto fare scoperte grazie alle quali abbiamo capito di poter progettare interventi che potrebbero effettivamente funzionare, anche se sono molto ambiziosi e potrebbero richiedere 20 o 30 anni per essere messi in atto. E con l’I.A. è la stessa storia. Sostanzialmente sappiamo cosa vorremmo ottenere, ma quando dobbiamo definirlo in termini algoritmici, che ovviamente è il linguaggio dei computer, allora dobbiamo trasformare la nostra comprensione istintiva in qualcosa di più analitico, e certamente non so se sia possibile.

Il SIAI, come ogni altro gruppo lungimirante, deve spaziare in un ampio raggio di competenze. Mi hanno invitato come consulente a causa della sovrapposizione tra le mie competenze ed esperienze, e quelle di cui loro hanno bisogno. Come tecnico, insomma. Ho una certa esperienza come ricercatore nel campo dell’I.A., dato che è quanto facevo prima di dedicarmi alla biologia, ma ho anche esperienza in altri campi. Per esempio, sono spesso presente nei mass-media, ed è importante che il SIAI ottenga consigli da gente come me sul come comunicare con essi. E’ anche importante  comprendere come queste diverse scienze interagiscono le une con le altre, e non c’è dubbio che interagiscono. Voglio dire, una delle ragioni per cui vorremmo avere computer veramente intelligenti è che potrebbero accelerare lo sviluppo delle tecnologie che vorremmo. Come, ad esempio, medicine che aumentino le aspettative di vita. Sono quindi molti i modi in cui posso interagire utilmente con il SIAI.

Le motivazioni per sostenere una qualsiasi impresa futuristica sono spesso simili, sia essa nel settore dell’informatica, dell’Intelligenza Artificiale, o della biomedicina. Qualunque siano le tue risorse, che tu sia un miliardario con denaro da offrire, o un programmatore o un biologo con competenze da offrire, o che tu sia un giornalista che può contribuire con la divulgazione, alla fine tutte queste persone dovrebbero pensare a queste cose in maniera simile. Quando ci chiediamo perché la gente dovrebbe mai sostenere la Singolarità, prima di tutto dovremmo definire cosa si intende con “sostenere la Singolarità”. La Singolarità sarebbe una buona cosa? E’ una bella domanda, e non sono sicuro che lo sarebbe. Penso che un tasso di progresso “gestibile”, ottenibile con l’hardware che ci siamo evoluti fino a possedere [cioè il nostro cervello – N.d.T], potrebbe essere alla fine la migliore strada da percorrere. Oltre quello, la velocità potrebbe essere “eccessiva”.

D’altro canto, quando guardiamo alle motivazioni del SIAI, ossia il creare una I.A. benevola prima che qualcuno ne crei per caso una ostile, questo è qualcosa in cui la rapidità conta. In questo caso, lo scopo non è farci avanzare tra i livelli di intelligenza più rapidamente, ma difenderci dal rischio che ciò avvenga per caso. La questione di come si presenterà la Singolarità ci riporta all’idea che il progresso può accelerare. E alla fine ciò che limita il tasso di accelerazione del progresso sono le cose noiose, quali l’hardware.

Penso sia ragionevole immaginare che se ci mettessimo a sviluppare macchine di calcolo ad automiglioramento continuo, esse raggiungerebbero la Singolarità quasi immediatamente. Se dovessimo affidarci all’hardware biologico ed alla cultura per ottenere la Singolarità, la si raggiungerebbe ugualmente. La ragione per cui il termine transumanismo è spesso descritto in questi giorni come una transizione verso una situazione post-umana è la convinzione che il nostro sviluppo finale ci porterà verso una situazione in cui ripenseremo agli umani del 20esimo secolo come subumani, allo stesso modo in cui potremmo guardare oggi agli uomini di Neanderthal.

In realtà non mi piace questa descrizione. Penso sia più appropriato guardare al transumanismo nel modo in cui fu definito negli anni ’50 da Julian Huxley, come un superare, passo dopo passo, la nostra precedente umanità. Il rimanere umani faceva parte della definizione di Huxley. E la stessa logica si applica anche alla Singolarità. Se i computer non fossero mai stati inventati, molte cose non sarebbero progredite come hanno fatto, ed il nostro tasso di progresso sarebbe stato più lento. Ma, in un certo senso, questo non sarebbe un problema. Il tasso del nostro progresso continuerebbe ad accelerare, solo con un esponente [nel senso matematico del termine – N.d.T.] più modesto. Ci sono alcune complicazioni con l’argomento di Kurzweil sugli archi di tempo in cui la Singolarità si svilupperà. Ray certamente basa la maggior parte delle sue proiezioni sul lavoro del tipo che sta facendo il SIAI, lavoro che implica l’uso intensivo di hardware al silicio ad auto-miglioramento continuo. Tuttavia, ancor più di questo, Ray secondo me dà per scontato che l’entusiasmo pubblico per il progresso resti immutato. Non solo per i computer, ma per ogni tecnologia nata nel recente passato. E penso sia importante ricordare che sebbene ci siano questi progressi accelerati, cose come la legge di Moore, a volte queste cose sfumano nel nulla. E svaniscono nel nulla quando la gente smette di occuparsene.

C’é un motivo per cui non siamo andati su Marte negli anni ’80. Non avevamo la componente di orgoglio nazionale che avevamo per la Luna negli anni ’60. E penso che a questo punto sia molto improbabile che quella componente di pubblico entusiasmo si presenterà nel prossimo futuro. La prova del nove sarà quando le cose cominceranno a muoversi, nei laboratori. Che sia l’estensione della vita, che sia in termini di computer, quello che emergerà dai laboratori comincerà a far capire alla gente che é giunta l’ora di iniziare a riflettere su queste questioni. Ma le cose, a quel punto, potrebbero andare in due modi. Quello sarà il momento in cui, se l’entusiasmo partisse, potrebbe poi montare e andare da zero ad infinito in pochissimo tempo, come per esempio è successo con Internet. Ma all’estremo opposto, quello potrebbe essere il momento in cui qualcuno comincerà a prendere la cosa su serio e a dire, “Beh, in effetti questa non è un’idea poi così buona”. E forse, a quel punto, sarà troppo tardi. Pensiamo alle armi nucleari, ad esempio. Sarebbe sensato dire che avremmo dovuto segnare il passo e riflettere un po’ più a lungo prima di inventare quel tipo di bombe. E ci sono altri esempi. Ma forse in quel momento ci fermeremo, ci penseremo sufficientemente in anticipo e decideremo semplicemente di non procedere in quella direzione. La situazione attuale in termini di cambiamento climatico potrebbe essere simile. Forse stiamo finalmente iniziando a muoverci. E forse, se saremo molto fortunati, saremo ancora in tempo.

La cosa principale, con i computer, è che non costano molto. Voglio dire, senz’altro, ci sono alcune applicazioni di computer ad alto uso di CPU che possono essere molto costose. Ma lo sviluppo degli algoritmi, che è sostanzialmente la base dello sviluppo dell’intelligenza artificiale, è qualcosa che alla fin fine si sviluppa nella testa di un ricercatore e che può essere poi realizzata con hardware relativamente economico. Quindi è anche relativamente probabile che questi progressi della ricerca nel campo dell’I.A. arriveranno senza quel gigantesco sforzo collettivo che fu necessario per andare sulla luna, inventare le armi nucleari, o sequenziare il genoma umano. Può darsi, ma non è detto, che il paragone regga. Penso che la ragione principale per cui il SIAI sia importante, sia quella addotta dal SIAI stesso: la difesa contro l’invenzione, da parte di altri, di I.A. ostili che potrebbero spazzarci via. E’ un qualcosa che molte persone nell’informatica e nella comunità dell’I.A. ancora ritengano sia talmente lontana da non doversi preoccupare. Ma molte persone estremamente intelligenti hanno esaminato la questione in profondità e da molti angoli differenti e sono arrivate alla conclusione che in effetti non possiamo esserne così sicuri. Penso sia importante avere un senso delle proporzioni, al proposito. Ci sono molte altre iniziative che stiamo considerando se sia opportuno perseguire, perchè presentano il rischio di spazzar via la razza umana. Dobbiamo pensarci, e non è troppo presto.

Io sono un biologo e mi occupo della biologia dell’invecchiamento. Quindi sento di poter dare una stima qualificata di quanto ci metteremo ad ottenere la V.F.L., quando davvero non moriremo più per cause legate all’invecchiamento. Tuttavia, è una stima molto aperta, speculativa. Penso che abbiamo un 50% di possibilità di farcela entro 25 o 30 anni, se avremo i finanziamenti necessari, nei prossimi 10 anni, per dimostrare la fattibilità del concetto. Ma se saremo sfortunati e scopriremo nuovi ostacoli di cui non sospettavamo l’esistenza, potrebbero ben volerci 100 anni. Per me questo non è un problema, perchè con il 50% di possibilità di successo vale comunquela pena di provarci. Quando invece si parla di Singolarità, pur essendo un consulente, non sono assolutamente più il ricercatore di frontiera che ero un tempo. Quindi non mi sento qualificato a valutare quanto siano ragionevoli gli intervalli di tempo di cui parlano il SIAI o Ray Kurzweil.


Traduzione in italiano di Michele Gianella.
Video e audio originali sono disponibili sul sito del Singularity Institute:
video; audio
(mp3).
Trascrizione originale, su Future Current.

Ci scusiamo di ogni eventuale errore di traduzione, e vi invitiamo a segnalarcelo.

 

Tecnofascismo? No grazie.

  • Una serie di articoli su sovrumanismo e dintorni e sui motivi che hanno spinto Estropico ad andarsene dalla Associazione Italiana Transumanisti.
  • Aggiornamenti (su Estropico Blog)

Varie