PDF Stampa E-mail
Motori di creazione. Note e bibliografia
Tecnoscienza - Nanotecnologie

Capitolo 1: Macchine di costruzione   

 (1) L'idea esposta in questo capitolo si basa si argomentazioni tecniche presentate nel mio articolo "Molecular Engineering: An Approach to the Development of General Capabilities for Molecular Manipulation" in Proceedings of the National Academy of Sciences (USA), Vol. 78, pp. 5275-78, 1981, che presenta un argomento a sostegno della realizzabilità della progettazione di molecole proteiche e dello sviluppo di sistemi di "scopo generale" atti a dirigere l'assemblaggio di molecole.  
 (2) Vedi "Protein Engineering", di Kevin Ulmer (Science, Vol. 219, pp. 666-71, Feb. 11, 1983). Il Dottor Ulmer é ora direttore del Center for Advanced Research in Biotechnology  
 (3) Definizione tratta da "The American Heritage Dictionary of the English Language", edito da William Morris (Boston: Houghton Mifflin, 1978).  
 (4) Vedi "Gene Machines: The Second Wave", di Jonathan B. Tucker (High Technology, pp. 50-59, March 1984).  
 (5) Vedi Capitolo 27 di Biochemistry, di Albert L. Lehninger (New York: Worth Publishers, 1975). Questo libro di testo standard è una eccellente sorgente di informazioni sulle macchine molecolari della vita. Per una discussione sui motori a flagelli dei batteri, vedi "Ion Transport and the Rotation of Bacterial Flagella", di P. Lauger (Nature, Vol. 268, pp. 360-62, July 28,1977).  
 (6) Per una descrizione dell'auto-assemblaggio molecolare, inclusi gli auto-assemblaggi del batteriofago T4 e dei ribosomi, vedi Capitolo 36 di Biochemistry, di Lehninger (citato nella nota precedente).  
 (7) La natura ha dato dimostrazione di un ampio insieme di macchine proteiche, ma ciò non impone limitazioni alla progettazione di proteine. Per alcuni esempi di strutture non proteiche piuttosto complesse, vedi "Supramolecular Chemistry: Receptors, Catalysts, and Carriers", di Jean-Marie Lehn (Science, Vol. 227, pp. 849 - 56, February 22, 1985), in cui si discorre anche della progettazione di "componenti, circuiti, e sistemi a livello molecolare, per l'elaborazione di segnali e di informazioni".  
 (8) Le tecniche moderne possono sintetizzare qualsiasi sequenza desiderata di DNA, e quest'ultime possono essere utilizzate per dirigere i ribosomi affinché producano qualsiasi sequenza desiderata di aminoacidi. Aggiungere gruppi prostetici è tutta un'altra questione, comunque. [NdT: Un gruppo prostetico è una molecola non proteica, strettamente e stabilmente legata ad una proteina. I gruppi prostetici partecipano attivamente alla funzione svolta dalla proteina cui sono legati. La loro struttura spaziale è essenziale per tale funzione.]  
 (9) Per una comparazione fra il problema di prevedere le strutture di proteine naturali e quello di progettare strutture proteiche prevedibili, vedi "Molecular Engineering", citato nella nota (1) di questa sezione.  
 (10) Vedi "Molecular Technology: Designing proteins and Peptides", di Carl Pabo (Nature, Vol. 301, p.200, Jan. 20, 1983).  
 (11) Vedi "Design, Synthesis, and Characterization of a 34-Residue Polypeptide That Interacts with Nucleic Acids", di B. Gutte ed altri. (Nature, Vol. 281, pp. 650-55, Oct. 25, 1979).  
 (12) Per un relazione su questo risultato, e per una discussione generale sulla ingegnerizzazione di proteine, vedi l'articolo di Kevin Ulmer (citato nella nota (2) di questa sezione).  
 (13) Vedi "A Large Increase in Enzyme-Substrate Affinity by Protein Engineering", di Anthony J. Wilkinson ed altri (Nature, Vol. 307, pp. 187-88, Jan. 12, 1984). Tecniche di ingegneria genetica sono state anche usate per rendere più stabile un enzima, senza incidere sulla sua attività. Vedi "Disulphide Bond Engineered into T4 Lysozyme: Stabilization of the Protein Toward Thermal Inactivation", di L. Jeanne Perry e Ronald Weutzel della Genentech, Inc. (Science, Vol. 226, pp. 555-57, November 2, 1984).  
 (14) In Nature and Man's Fate (New York: New American Library, 1959), p. 283  
 (15) Vedi "Biological Frontiers", di Frederick J. Blattner (Science, Vol. 222, pp. 719-20, Nov. 18, 1983).  
 (16) Vedi Enzyme Engineering, di William H. Rastetter (Applied Biochemistry and Biotechnology, Vol. 8, pp. 423-36, 1983). Questo articolo è una rassegna di descrizioni dei vari sforzi riusciti che sono stati tentati allo scopo di modificare la specificità di substrato per degli enzimi.  
 (17) Per gli atti del primo seminario vedi Molecular Electronic Devices, edito da Forrest L. Carter (New York: Marcel Dekker, 1982). Gli atti del secondo sono apparsi in Molecular Electronic Devices II, anche questi editi da Forrest L. Carter (New York: Marcel Dekker, 1986). Per un resoconto riassuntivo, vedi "Molecular Level Fabrication Techniques and Molecular Electronic Devices", di Forrest L. Carter (Journal of Vacuum Science and Technology, B1(4), pp. 953-68, Oct.-Dec. 1983).  
 (18) Vedi The Institute (una pubblicazione dell'IEEE), January 1984, p. 1.  
 (19) Riportato in Microelectronic Manufacturing and Testing, Sept. 1984, p. 49.  
 (20) La forza di un singolo legame fra due atomi di carbonio è di circa sei nano-newton, sufficiente a sostenere il peso di circa 30 milioni di miliardi d'atomi di carbonio. Vedi Strong Solids, di A. Kelly, p. 12 (Oxford: Clarendon Press, 1973).  
 (21) Il diamante è anche dieci volte più rigido dell'alluminio. Vedi Strong Solids (citato nella nota precedente), Appendix A, Table 2.  
 (22) Vedi "Sculpting Horizons in Organic Chemistry", di Barry M. Trost (Science, Vol. 227, pp. 908-16, February 22, 1985), che fa anche menzione di conduttori elettrici organici e della speranza di commutatori molecolari per elettronica molecolare.  
 (23) I chimici stanno già sviluppando catalizzatori migliori degli enzimi; vedi "Catalysts That Break Nature's Monopoly", di Thomas H. Maugh II (Science, Vol. 221, pp. 351-54, July 22, 1983). Per altre informazioni sugli strumenti non proteici, vedi "Artificial Enzymes", di Ronald Breslow (Science, Vol. 218, pp. 532-37, November 5, 1982).  
 (24) Vedi riferimento bibliografico in nota (1). Un dispositivo descritto nel 1982, denominato scanning tunneling microscope, può posizionare una puntina affilata, vicino ad una superficie, con una accuratezza di una frazione del diametro di un atomo. Oltre a dimostrare la realizzabilità di un tale posizionamento, questo dispositivo potrebbe consentirci di sostituire le macchine molecolari naturali con strumenti molecolari "posizionali". Vedi "Scanning Tunneling Microscopy", di G. Binnig and H. Rohrer (Physica 127B, pp 37-45, 1985).  
 (25) Gli assemblatori saranno capaci di creare disposizioni, altrimenti improbabili, di molecole reagenti (superando i fattori di "entropia di attivazione"), e saranno in grado di dirigere l'azione di specie chimiche altamente reattive. Questo permetterà il loro utilizzo in sintesi controllate di reazioni che altrimenti procederebbero solo ad una velocità trascurabile o con un numero e un ritmo eccessivi di reazioni collaterali. Inoltre, gli assemblatori saranno capaci di applicare forze meccaniche di intensità tali da essere sufficienti per rompere legami chimici e per liberare sufficiente energia di attivazione per le reazioni, e saranno in grado di utilizzare conduttori di scala molecolare connessi ad una sorgente voltaica al fine di manipolare campi elettrici in modi diretti ed inediti. Mentre le tecniche fotochimiche non sono altrettanto proficue (poiché le tipiche lunghezze d'onda dei fotoni sono troppo grandi per la scala molecolare), risultati di questo tipo potrebbero in qualche modo essere ottenuti per mezzo del trasferimento dell'eccitazione elettronica, da molecola a molecola, in maniera localizzata e controllata. Nonostante gli assemblatori saranno così potenti (potrebbero, fra l'altro, anche essere guidati perché si costruiscano strumenti nuovi, espandendo così il proprio insieme di strumenti), essi non saranno in grado di costruire qualsiasi cosa potrebbe esistere. Per esempio, si potrebbe progettare una delicata struttura che, come un arco di pietra, non potrebbe fare a meno di auto-distruggersi fino a che tutti i suoi pezzi non siano messi al giusto posto. In questo caso, non esiste alcuna possibilità di progettare il posizionamento e la rimozione di una impalcatura per la costruzione di un tale oggetto, quindi la struttura potrebbe essere impossibile da costruire. Sembra probabile che poche strutture che siano di interesse pratico, comunque, presentino un tale problema. (Infatti, la reversibilità delle leggi che governano i movimenti molecolari implica che tutti gli oggetti distruttibili sono, in linea di principio, anche costruibili; ma se i meccanismi di distruzione intervengono tutti assieme in un collasso esplosivo, i tentativi di costruzione potrebbero avere una possibilità di successo trascurabile, a causa di considerazioni che riguardano l'incertezza delle traiettorie delle costruzioni parziali nonché della bassa entropia della configurazione finale verso cui si punta).  
 (26) Vedi "Comparative Rates of Spontaneous Mutation", di John W. Drake (Nature, Vol. 221, p. 1132, March 22, 1969). Per una discussione generale di questo macchinario, vedi il capitolo 32 di Biochemistry di Lehninger (citato in nota (5) ).  
 (27) Il batterio Micrococcus radiodurans ha dei robusti meccanismi di riparazione che lo mettono in grado di sopravvivere a radiazioni in quantità che equivale a più di un milione di anni di normale radioattività terrestre di fondo, somministrata in una singola dose. (Vedi "Inhibition of Repair DNA Synthesis in M. radiodurans after Irradiation with Gamma-rays", di Shigeru Kitayama e Akira Matsuyama, in Agriculture and Biological Chemistry, Vol. 43, pp. 229-305, 1979). Questa quantità di radioattività è pari a circa mille volte la dose di radiazioni che risulta letale per un essere umano, ed è sufficiente a rendere fragile e debole il Teflon.  
 (28) Gli organismi hanno costruito, da lipidi e zuccheri, strutture cellulari e semplici dispositivi molecolari (ed hanno costruito conchiglie da silice e calce) ma la mancanza di sistemi programmabili per l'assemblaggio di questi materiali ha impedito alla vita di sfruttarli per formare le parti principali di complesse macchine molecolari. L'RNA, come le proteine, ha una struttura completamente determinata dal DNA, e talvolta anche l'RNA assolve funzionalità simili a quelle proteiche. Vedi "First True RNA Catalyst Found" (Science, Vol. 223, p. 266, Jan. 20, 1984).  
 (29) Vedi Biochemistry di Lehninger p. 119 (citato in nota (5) ).  
 (30) Vedi il capitolo 2 di Bit by Bit: An Illustrated History of Computers,di Stan Augarten (New York: Ticknor & Fields, 1984).  
 (31) Se due differenti gruppi laterali di polimeri simili al polietilene, venissero usati per rappresentare lo ZERO e l'UNO del codice binario, il polimero potrebbe servire come nastro di immagazzinamento dei dati. Se si usassero, diciamo, fluoro ed idrogeno come gruppi laterali, e si lasciasse spazio a sufficienza per i meccanismi di gestione, lettura e scrittura del nastro, allora mezzo micrometro cubico immagazzinerebbe un miliardo di bytes. I tempi di accesso possono essere contenuti nell'ambito di un microsecondo poiché il nastro può essere fabbricato in modo che sia molto corto. Uno schema di accesso "random" alla memoria permetterebbe di immagazzinare solo 10 milioni di bytes nello stesso volume, nonostante questa caratteristica tecnica possa probabilmente essere migliorata. Per una discussione più dettagliata, vedi "Molecular Machinery and Molecular Electronic Devices", di K. Eric Drexler, in Molecular Electronic Devices II, edito da Forrest L. Carter (New York: Marcel Dekker, 1986).  
 (32) I segnali meccanici potrebbero essere inviati tirando e spingendo bacchette di carbina il cui spessore è quello di un atomo. La carbina è una forma del carbonio in cui gli atomi sono legati in una linea diritta grazie all'alternanza di legami doppi con legami tripli. Vedi "Molecular Machinery and Molecular Electronic Devices", citato nella nota precedente.  
 (33) Vedi il suo articolo "Quantum Mechanical Computers" (Optics News, Vol. 11, pp. 11-20, Feb. 1985). Feynman conclude che "le leggi della fisica non pongono alcuna barriera alla riduzione della dimensione dei computer spinta fino a livelli tali che i bit siano della dimensione di atomi, con il comportamento quantico di questi ultimi a rappresentare il valore corrente del bit".  
 (34) Esisterebbero, al contempo, limiti al disassemblaggio: Per esempio, qualcuno potrebbe probabilmente progettare una struttura sentitiva che cada in pezzi (o esploda) se la si manomette, prevenendone così un disassemblaggio controllato.  

Capitolo 2: I principi del cambiamento    

 (1) Vedi The Sciences of the Artificial (Seconda Edizione) di Herbert A. Simon (Cambridge, Mass: MIT Press, 1981). Questo libro esplora un insieme di questioni relative all'ingegneria, alle modalità di approccio alla risoluzione dei problemi, all'economia ed all'intelligenza artificiale.  
 (2) A causa delle modalità di appaiamento per i nucleotidi, di fatto le copie sono analoghe ad un negativo fotografico, e solo una copia di una copia corrisponde all'originale stesso.  
 (3) Una discussione del suo lavoro in quest'area è apparsa in "The Origin of Genetic Information", di Manfred Eigen ed altri (Scientific American, Vol. 244, pp. 88-117, April 1981).  
 (4) Richard Dawkins discute dei replicatori in The Selfish Gene (New York: Oxford University Press, 1976). Questo libro di facile lettura offre una eccellente introduzione ai concetti moderni di evoluzione, concentrandosi sui replicatori dell'origine della vita, intese come le unità che subiscono variazione e selezione nella evoluzione.  
 (5) In The Selfish Gene (vedi nota precedente).  
 (6) The Origin of Species, di Charles R. Darwin (London: Charles Murray, 1859).  
 (7) Vedi pag. 59 di The Constitution of Liberty, di Friedrich A. Hayek (Chicago: University of Chicago Press, 1960) per una discussione dei primi lavori sulla evoluzione linguistica, istituzionale, ed anche su quella biologica, e che ha quanto pare hanno fornito hanno fornito a Darwin "l'impalcatura concettuale che egli ha sfruttato". Vedi anche p. 23 di Law, Legislation and Liberty - Vol. 1, Rules and Order (Chicago: University of Chicago Press, 1973). In altri punti, questi libri discutono del concetto della libertà sotto una giurisdizione legislativa, e della distinzione cruciale fra legge e dominio. Questi saranno argomenti di discussione importanti per i capitoli 11 e 12 del presente libro.  
 (8) In The Selfish Gene (vedi nota 5).  
 (9) The Next Whole Earth Catalog: edito da Stewart Brand (Sausalito, California: POINT: distribuito da Random House, New York. 1980).  
 (10) Vedi In Search of Excellence. Lessons from Americàs Best-Run Corporations, di Thomas J. Peters e Robert H. Waterman, Jr. (New York: Warner Books, 1982).  
 (11) in Science and the Modern World (New York: Macmillan Company, 1925).  
 (12) La conversione di tali strumenti in strumenti dotati di video e una buona grafica computerizzata, potrebbe tuttavia aiutarci un bel po' in questo compito.  
 (13) E' un Meme anche l'idea stessa di meme, lanciata nell'ultimo capitolo di The Selfish Gene (vedi nota 5).  
 (14) In The Evolution of Cooperation (New York: Basic Books, 1984) il politologo Robert Axelrod utilizza un gioco al computer a molti concorrenti, ed alcuni esempi storici, per esplorare le condizioni richieste per l'evoluzione di cooperazione fra entità egoiste. Esseri garbati, vendicativi e clementi è importante per evolvere una cooperazione stabile. Il capitolo 7 di questo valido libro discute su "Come Promuovere la Cooperazione".  
 (15) In The Extended Phenotype di Richard Dawkins (San Francisco: W. H. Freeman, 1982).  
 (16) Vedi "The Self-Destruction of the Xosas", di Elias Canetti, in Crowds and Power (New York: Continuum, 1973), p. 193.  

Capitolo 3: Prevedere e progettare    

 (1) Da Conjectures and Refutations: The Growth of Scientific Knowledge, di Sir Karl Popper (New York: Basic Books, 1962).  
 (2) "There's Plenty of Room at the Bottom", ristampato in Miniaturization, edito da H. D. Gilbert (New York: Reinhold, 1961).  
 (3) Citato da Karl Popper in Objective Knowledge: An Evolutionary Approach (Oxford: Clarendon Press, 1972).  
 (4) Le idee che si sono evolute per sembrare vere (per lo meno per menti prive di attitudini critiche) possono di fatto essere completamente false. Un lavoro eccellente che mette confronto l'ingenuo giudizio umano con il giudizio assistito da tecniche scientifiche e statistiche è Human Inference, un libro di Richard Nisbett e Lee Ross nella collana Century Psychology Series (Englewood Cliffs, New Jersey: Prentice-Hall, 1980). Questo libro mostra che, proprio come siamo soggetti a illusioni ottiche ed a punti ciechi per la nostra vista, soffriamo anche di illusioni e punti ciechi cognitivi. Altri esperimenti mostrano che le persone prive di istruzione adeguata, condividono sistematicamente gli stessi equivoci riguardanti la comprensione di fatti elementari come ad esempio la comprensione della direzione verso cui si muoverà una palla quando venga fatta roteare in circolo e successivamente rilasciata; gli istruiti filosofi medioevali (che tralasciavano di mettere le loro idee a confronto con la realtà, al fine di verificarle) evolsero interi sistemi di "scienza" basati sugli stessi equivoci. Vedi "Intuitive Physics", di Michael McClosky (Scientific American, Vol. 248, pp. 122-30, Apr. 1983).  
 (5) Parlando in senso stretto, ciò si applica solo a quelle teorie superstiti che sono esse stesse uniformi e generali. Una teoria che affermi che Mercoledì prossimo tutte le rocce cadranno verso l'alto, non è stata invalidata (e dovrebbe avere delle conseguenze pratiche), ma il suo particolare riferimento al prossimo Mercoledì la rende non-uniforme.  
 (6) Vedi il suo Logic of Scientific Discovery, pp. 124 and 419 (New York: Harper & Row, 1965). Vedi anche Objective Knowledge, p. 15.  
 (7) in "Technology Development (Science, Vol. 220, pp. 576-80, May 6, 1983).  
 (8) Esse sembrano chiaramente comprensibili solo a basse velocità; sebbene Leonardo possedesse di certo qualche intuitiva nozione di dinamica, una descrizione dinamica adeguata alla descrizione del comportamento delle parti di una macchina in condizioni di alte velocità ed accelerazione, non sarebbe giunta prima di Newton.  
 (9) Alcune compagnie, avendo sperimentato la costanza del progresso delle tecnologie di fabbricazione dei circuiti integrati, sono state in conseguenza indotte a progettare microprocessori la cui fabbricazione richiede tecniche non ancora disponibili al momento della progettazione.  
 (10) Per riuscire a far bene tutto ciò, sarà necessaria la simulazione di un sistema molecolare. Una discussione di un sistema di simulazione molecolare è apparsa nella tesi di dottorato di Robert Bruccoleri: "Macromolecular Mechanics and Protein Folding" (Harvard University, May 1984). Per i risultati di una simulazione vedi "Dynamics and Conformational Energetics of a Peptide Hormone: Vasopressin", di A. T. Hagler ed altri (Science, Vol. 227, pp. 1309-15, Mar. 15, 1985). Questi riferimenti bibliografici descrivono entrambi delle simulazioni di tipo classico, ossia simulazioni che descrivono come si muovano le molecole in risposta alle forze che le sollecitano; tali simulazioni saranno adeguate per la maggioranza delle parti costituenti una tipica macchina molecolare. Altri lavori richiedono delle più fondamentali (e costose) simulazioni basate sulla meccanica quantistica, che descrivano la distribuzione degli elettroni nelle molecole. Tali calcoli saranno indispensabili per descrivere la formazione e la rottura di legami operata da parte di strumenti assemblatori. Per una discussione su simulazioni molecolari che includano calcoli di meccanica quantistica riguardanti la formazione dei legami molecolari, vedi "Theoretical Chemistry Comes Alive: Full Partner with Experiment", di William H. Goddard III (Science, Vol. 227, pp. 912-23, Feb. 22, 1985). Vedi anche Lecture Notes in Chemistry, 19, Computational Aspects for Large Chemical Systems, di Enrico Clementi (New York: Springer-Verlag, 1980). Infine, per una discussione sugli strumenti di progettazione attuali, vedi "Designing Molecules by Computer", di Jonathan B. Tucker (High Technology, pp. 52-59, Jan. 1984). I computer ad elaborazione parallela accelereranno enormemente la progettazione assistita dal computer e la computazione applicata alla chimica.  
 (11) Sembra probabile che i primi sforzi di progettazione anticipata saranno mirati alla definizione di un sistema assemblatore funzionante; non è necessario che un tale sistema sia ottimale, quantomeno fino a che non si saranno acquisite abilità piuttosto generali. Una volta che le capacità di questi assemblatori standard siano state piuttosto ben specificate, diverrà possibile - persino prima del completamento della stesura dei progetti - (1) cominciare a sviluppare una libreria di progetti per nanomacchine per le quali questi assemblatori standard siano in grado di attuare una pratica costruzione (o quanto meno che la stessa cosa possa essere fatta da parte di altri assemblatori, che a loro volta possano essere costruiti dagli assemblatori standard), e (2) preparare una corrispondente libreria di specifiche delle procedure per la composizione di questi progetti. In seguito, quando sarà sviluppato il rudimentale primo assemblatore, esso verrà utilizzato (forse passando attraverso uno stadio intermedio di costruzione di altri strumenti) per costruire un assemblatore standard. Questi a loro volta saranno utilizzati per costruire qualsiasi cosa descritta nella libreria di progetti. I primi assemblatori amplieranno enormemente la nostra capacità di produrre cose. Persino con una limitata "progettazione anticipata", l'avvento degli assemblatori risulterà quasi immediatamente in un sostanziale balzo in avanti nella qualità dell'hardware. Poiché gli assemblatori saranno costruiti da altri assemblatori, emergeranno, come una naturale ed immediata conseguenza della progettazione anticipata e del "passo avanti" tecnologico degli assemblatori, anche alcune forme di sistemi auto-replicanti. Di conseguenza, l'avvento degli assemblatori potrebbe rendere possibile non solo un salto di qualità dell'hardware, ma anche una quasi immediata produzione massiva di hardware in quantità senza precedenti (vedi capitolo 4). Nel bene o nel male, tutto ciò renderà possibile una trasformazione insolitamente brusca della tecnologia, dell'economia e delle relazioni internazionali.  

Capitolo 4: Motori di abbondanza   

 (1) Tratto da Scientific Quotations: The Harvest of a Quiet Eye, selezione a cura di A. L. Mackay, edito da M. Ebison (New York: Crane, Russak, 1977).  
 (2) Il precedente amministratore della NASA, Robert Frosch, disse in buona parte la stessa cosa alla IEEE Centennial Technical Convocation (vedi The Institute, p. 6, Dec. 1984).  
 (3) Parlando in termini evolutivi, i geni di un animale sono dei replicatori, ma l'animale di per se non lo è; solo le modificazioni dei geni, e non le modificazioni nel corpo dell'animale, verranno replicate nelle successive generazioni. Questa distinzione fra replicatori genetici e i sistemi a cui essi danno forma, è essenziale per comprendere l'evoluzione, ma l'utilizzo del termine "replicatore" per indicare l'intero sistema è più conveniente quando ci si riferisce ai vantaggi prodotti dai sistemi auto-replicanti.  
 (4) Vedi "Production: A Dynamic Challenge" di M. E. Merchant (IEEE Spectrum, pp. 36-39, May 1983). Questo numero dell'IEEE Spectrum contiene una estesa discussione sulla automazione computerizzata.  
 (5) Tuttavia, l'organizzazione nello stile di quella della cellula ha i suoi vantaggi. Per esempio, a dispetto dei molti meccanismi di trasporto attivo possibili, le cellule di solito trasportano i componenti molecolari tramite diffusione piuttosto che con dei nastri trasportatori. Questo metodo connette efficacemente ogni macchina ad ogni altra (purché si trovi nello stesso compartimento delimitato dalla membrana cellulare) in maniera robusta; al contrario, i nastri trasportatori possono rompersi, ed in tal caso richiedono riparazioni o una completa sostituzione. Ma avrebbe anche potuto propriamente realizzarsi un sistema di trasporto basato su nastri trasportatori - un sistema che ha grossi vantaggi e tuttavia non si è evoluto. I sistemi basati sui trasportatori, richiedono ad una nuova macchina molecolare di avere la appropriata orientazione, localizzazione e interfaccia rispetto al trasportatore, prima che il sistema possa funzionare. Se la macchina molecolare mancasse di anche soltanto uno di questi requisiti, sarebbe inutilizzabile, e le pressioni selettive dovrebbero generalmente eliminarla prima che una sua variante utilizzabile abbia alcuna possibilità di apparire. Al contrario, affinché una nuova macchina molecolare possa funzionare in un sistema basato sulla diffusione, è necessario soltanto che essa sia presente. Se tale macchina fa qualcosa di utile, la selezione la favorirà immediatamente.  
 (6) Vedi Biochemistry di Albert L. Lehninger, p. 208 (citato nelle note al capitolo 1). Inoltre, ogni molecola di un enzima catalizzatore può rompere, in un secondo, i legami di 40 milioni di molecole di perossido di idrogeno; vedi Enzyme Structure and Mechanism, di Alan Fersht, p. 132 (San Francisco: W. H. Freeman & Co., 1977). Nelle tipiche reazioni enzimatiche, le molecole devono capitare in posizioni appropriate, rispetto allo "strumento" enzimatico, e successivamente attendere che le vibrazioni termiche casuali provochino una reazione, ed infine allontanarsi nuovamente dall'enzima e vagare altrove. Questi passi prendono la maggior parte del tempo di lavoro di un enzima; il tempo richiesti per formare o rompere un legame è enormemente più piccolo. Poiché gli elettroni di un legame sono oltre un migliaio di volte più leggeri e più mobili dei nuclei che definiscono le posizioni degli atomi, il ritmo di reazione è impostato dal moto lento dell'atomo nel complesso, piuttosto che da quello degli elettroni. La velocità di un atomo tipico in agitazione termica, sotto condizioni di temperatura ordinarie, è di oltre 100 metri al secondo, e la distanza che un atomo deve percorrere per spostarsi da un altro atomo e quindi riuscire a formare o rompere un legame è di circa un decimo di miliardesimo di metro, sicché il tempo richiesto è circa un millesimo di miliardesimo di secondo. Vedi capitolo 12 in Molecular Thermodynamics, di John H. Knox (New York: Wiley-Interscience, 1971).  
 (7) Questa relazione di scala potrebbe essere verificata osservando che (1) i disturbi meccanici si propagano viaggiando a velocità soniche (e giungono in metà del tempo se devono percorrere metà della distanza), e che (2) per una sollecitazione costante che agisca sul materiale del braccio, il dimezzamento della lunghezza del braccio (e quindi della sua massa per unità di area della sezione) raddoppia l'accelerazione all'estremità del braccio, dimezzando nel contempo la distanza che l'estremità del braccio deve percorrere, il che infine permette all'estremità del braccio di muoversi avanti ed indietro in metà del tempo (dato che il tempo richiesto ad un moto è la radice quadrata di una quantità proporzionale alla distanza percorsa divisa per l'accelerazione del moto).  
 (8) A seconda della stringatezza (o della mancanza di stringatezza) dello schema di codifica, il nastro potrebbe avere più massa di tutto il resto del sistema messo assieme. Ma poiché la duplicazione di un nastro è una funzione semplice e specializzata, non sarà necessario che sia compiuta dagli assemblatori stessi.  
 (9) Gli errori nelle disposizioni sono causati da insolite fluttuazioni nel rumore termico, e da danni subiti durante il processo di assemblaggio a causa radiazioni. Assemblatori ad alta affidabilità includeranno un sistema di controllo di qualità capace di identificare variazioni strutturali non desiderate. Un tale sistema potrebbe consistere di un braccio-sensore impiegato per sondare la superficie del pezzo di lavoro e identificarne così quelle irregolarità superficiali, quelle protuberanze o quelle cavità, che corrisponderebbero ad un errore appena commesso. Le omissioni (di solito associate alle cavità) potrebbero essere corrette aggiungendo gli atomi mancanti. I gruppi posti nelle posizioni sbagliate (di solito associati alle protuberanze) potrebbero essere corretti corredando il braccio dell'assemblatore con utensili per la rimozione degli atomi posizionati erroneamente. In alternativa, un piccolo pezzo di lavoro potrebbe semplicemente essere portato a compimento e collaudato. I pezzi sbagliati verrebbero perciò scartati prima che abbiano avuto la possibilità di venire incorporati in un sistema più grande e più utile. Questi passi di un processo di controllo di qualità rallenteranno alquanto il processo di assemblaggio.  
 (10) Vedi le note per il capitolo 6.  

Capitolo 5: Macchine pensanti    

 (1) Citato da Business Week, March 8, 1982.  
 (2) Vedi "Why the Law of Effect Will Not Go Away", in Daniel C. Dennett, Brainstorms: Philosophical Essays on Mind and Psychology (Cambridge, Mass: MIT Press, 1981). Questo libro esplora uno spettro di interessanti questioni, incluse l'evoluzione e l'intelligenza artificiale.  
 (3) Vedi il suo libro The Society of Mind (New York: Simon & Schuster 1986). Ho avuto l'opportunità di esaminare una larga parte di questo lavoro quando era ancora in forma di manoscritto; esso presenta delle preziose intuizioni riguardo pensieri, memoria, psicologia dello sviluppo e coscienza; e su come tutte queste siano correlate una all'altra e con l'intelligenza artificiale.  
 (4) Secondo l'American Heritage Dictionary, edito da William Morris (Boston: Houghton Mifflin Company, 1978).  
 (5) Vedi Bit by Bit, nelle note al Capitolo 1.  
 (6) Edito da Avron Barr e Edward A. Feigenbaum (Los Altos, Calif: W. Kaufmann, 1982).  
 (7) Vedi "The Turing Test: A Coffeehouse Conversation" in The Mind's I, redatto ed adattato da Douglas R. Hofstadter e Daniel C. Dennett (New York: Basic Books, 1981).  
 (8) Come scherzosamente fa notare l'ingegnere del software Mark Miller: "Perché la gente dovrebbe essere capace di comportarsi intelligentemente a letto ma non in laboratorio?"  
 (9) Da "Computing Machinery and Intelligence" di Alan M. Turing (Mind, Vol. 59, No. 236, 1950); estratto riportato anche in The Mind's I (citato in nota 7).  
 (10) Le capacità tecniche e sociali potrebbero derivare da basi comuni, o da sottosistemi connessi; i confini fra le due potrebbero facilmente risultare poco definiti. Tuttavia, i sistemi IA potrebbero inequivocabilmente meritare una o l'altra delle due denominazioni. Gli sforzi per produrre sistemi IA tecnici che siano quanto più è possibile di pratico utilizzo, inevitabilmente implicheranno sforzi per renderli comprensibili al linguaggio ed ai desideri umani.  
 (11) I sistemi avanzati di tipo sociale presentano degli ovvi pericoli. Un sistema capace di passare il Test di Turing sarebbe in grado di pianificare e selezionare le sue mete nello stesso modo in cui può farlo un umano. Il che significa che sarebbe capace di complottare e congiurare, forse persino al fine di persuadere la gente a rifornirlo di maggiori informazioni ed abilità. Le persone intelligenti hanno inflitto gravi danni col solo uso della parola, ed un sistema che passi il Test di Turing sarebbe necessariamente progettato per comprendere ed ingannare la gente (e non necessariamente imbevuto di rigidi standard etici, sebbene dovrebbe esserlo). Il capitolo 11 discute il problema di come convivere con i sistemi IA avanzati, e come costruirli perché siano degni di fiducia.  
 (12) Vedi il precedente riferimento bibliografico sull'articolo di Turing,"Computing Machinery and Intelligence".  
 (13) Il sistema EURISKO è stato descritto dal professor Lenat in una serie di articoli apparsi in "The Nature of Heuristics" (Artificial Intelligence, Vol. 19, pp. 189-249, 1982; Vol. 21, pp. 31-59 and 61-98, 1983; Vol. 23, pp. 269-93, 1984).  
 (14) Vedi riferimento citato nella nota precedente, Vol. 21, pp. 73-83.  
 (15) Lenat considera che il più grave inconveniente di EURISKO sia la sua limitata capacità di evolvere nuove forme di rappresentazione per nuove informazioni.  
 (16 ) Per entrambi i riferimenti vedi "The 'Star Wars' Defense Won't Compute", di Jonathan Jacky (The Atlantic, Vol. 255, pp. 18-30, June 1985).  
 (17) Vedi "Designing the Next Generation", di Paul Wallich (IEEE Spectrum, pp. 73-77, November 1983).  
 (18) Hubert Dreyfus, nel suo notissimo libro What Computers Can't Do: The Limits of Artificial Intelligence (New York: Harper & Row, 1979), presenta una erronea argomentazione filosofica a sostegno del fatto che i computer digitali non potranno mai essere programmati per compiere l'intero corpo di attività dell'intelligenza umana. Anche se si accettassero le sue argomentazioni, questo non dovrebbe influire sulla principale conclusione che ho tratto riguardo il fututo dell'IA: l'automazione della progettazione ingegneristica non è influenzata da tali argomentazioni perché non richiede ciò che si prenda in considerazione una intelligenza genuina; duplicando la mente umana per mezzo della simulazione neurale evitiamo (ed indeboliamo) le argomentazione filosofiche di Dreyfus, trattando infatti i processi mentali ad un livello sul quale tali argomentazioni non si applicano.  
 (19) Vedi capitolo 7  
 (20) Tali dispositivi potrebbero essere elettromeccanici, e saranno probabilmente controllati per mezzo di microprocessori; essi non saranno semplici quanto lo sono dei normali transistor. Una simulazione neurale dalla velocità analoga a quella che ho descritto, sarà possibile anche se le proprietà di ogni sinapsi dovessero essere controllate da un dispositivo complesso quanto un microprocessore.  
 (21) Interruttori che commutano in poco più di 12 picosecondi sono stati descritti in "The HEMT: A Superfast Transistor", di Hadis Morkoc e Paul M. Solomon (IEEE Spectrum, pp. 28-35, Feb. 1984).  
 (22) Nel suo libro The Enchanted Loom: The Mind in the Universe (New York: Simon & Schuster, 1981).  
 (23) Il cervello consiste principalmente di strutture analoghe a cablaggi (assoni e dendriti) e strutture analoghe a commutatori (le sinapsi). Ovviamente si tratta di comunque una semplificazione estrema, poiché almeno alcune delle strutture analoghe a cablaggi possono subire una modulazione della loro resistenza elettrica su una scala temporale breve (come discusso in "A Theoretical Analysis of Electrical Properties of Spines", di C. Koch e T. Poggio, MIT AI Lab Memo No. 713, April 1983). Inoltre, le sinapsi si comportano molto più come circuiti modificabili di commutazione e molto meno come dei commutatori fissi; possono essere modulati su una breve scala temporale nonchè interamente ricostruiti su una scala temporale più lunga (vedi "Cell Biology of Synaptic Plasticity", di Carl W. Cotman e Manuel Nieto-Sampedro, Science, Vol. 225, pp. 1287-94, Sept. 21, 1984).  
 Il cervello può, a quanto pare, essere simulato da un sistema di componenti nanoelettronici che a loro volta siano modulati e ricostruiti da del nanomacchinario diretto da nanocomputer meccanici. Assumiamo che un nanocomputer sia assegnato alla regolazione di un miliardo di miliardi, o giù di li, di "sinapsi" di questo modello cerebrale, e che ogni nanocomputer regoli anche il corrispondente insieme di "assoni" e "dendriti". Poiché il volume di ogni nanocomputer (assumendo che questi abbiano una capacità nominale equivalente a quella dei moderni microprocessori) sarebbe circa di 0,0003 micrometri cubici (vedi "Molecular Machinery and Molecular Electronic Devices" citato nel capitolo 1), questi dispositivi occuperanno uno spazio totale di circa 0,3 centimetri cubici. Condividendo altri 0,3 centimetri cubici in modo equo fra memorie ad accesso random e rapido e memorie di massa a nastro piuttosto veloci, ogni processore risulterebbe dotato di circa 3,7 Kbytes di RAM e 275 Kbytes di nastro. (Questo non impone alcun limite alla complessità del programma, poiché vari processori potrebbero condividere una memoria più grande per il programma.) Questa quantità di informazione sembra ben lontana dalla sufficienza affinché possa costituire un modello adeguato dello stato funzionale di una sinapsi. Macchine molecolari (in grado di modulare componenti nanoelettronici) e sistemi assemblatori (in grado di ricostruire i componenti nanoelettronici) occuperebberorelativamente poco spazio. Lo scambio di informazioni fra i computers grazie all'impiego di bacchette di carbina fornirebbe la simulazione, sebbene più lenta, del sistema di segnalazioni chimiche del cervello. I cablaggi occuperebbero la maggior parte del volume necessario ai componenti nanoelettronici. Un tipico dendrite ha un diametro di oltre un micrometro, e serve da conduttore primario. Il diametro dei più sottili cablaggi secondari potrebbe essere inferiore ad un centesimo di micrometro, a seconda dello spessore dell'isolante richiesto per confinare l'incanalamento degli elettroni (ossia circa tre nanometri al massimo). La conduttività dei cablaggi secondari può facilmente eccedere quella di un dendrite. Poiché il volume dell'intero cervello è all'incirca pari a quello di una scatola da dieci centimetri di lato, cablaggi un migliaio di volte più sottili (diecimila volte inferiori in termini di area sezionale) occuperebbero al massimo 0,01 centimetri cubici (il che permetterebbe loro di essere allo stesso tempo più corti). Commutatori elettromeccanici modulati da macchinario molecolare possono apparentemente essere ridotti dello stesso fattore rispetto alle sinapsi. Sicché, circuiti nanoelettronici che simulino il comportamento elettrochimico del cervello potrebbero, a quanto pare, stare in un volume inferiore ad un centesimo di centimetro cubico. Anche ipotizzando un volume molto abbondante per dei nanocomputers in grado di simulare le più lente fra le funzioni del cervello, si otterrebbe un volume totale di 0,6 centimetri cubici, come appena calcolato. Un centimetro cubico quindi pare essere sufficientemente ampio.  
 (24) Questa potrebbe anche essere una assunzione pessimistica, comunque. Per esempio consideriamo assoni e dendriti come dei sistemi di trasmissione di segnali elettrici. Essendo tutti uguali fra loro, un'operazione svolta con rapidità un milione di volte maggiore richiederà una intensità di corrente elettrica un milione di volte più grande affinché possa raggiungersi una data tensione voltaica di soglia. Il riscaldamento delle resistenze elettriche varia in proporzione al quadrato della intensità di corrente diviso per la conduttività della resistenza. Ma il rame ha circa quaranta milioni di volte la conduttività dei neuroni (vedi "A Theoretical Analysis of Electrical Properties of Spines", citato in precedenza) il che riduce il riscaldamento resistivo a meno del livello che si è assunto qui (persino in un dispositivo come quello che si è descritto, che è in qualche modo più compatto rispetto ad un cervello). Per un altro esempio, si consideri l'energia dissipata nell'attivazione di una sinapsi: dispositivi che richiedessero meno energia per l'attivazione, dovrebbero comportare una dissipazione d'energia inferiore a quella che si è assunta qui. Non sembra perciò esserci alcuna ragione per credere che i neuroni siano vicini ai limiti dell'efficienza energetica per quel che attiene la elaborazione delle informazioni; per una discussione riguardo l'effettiva collocazione di questi limiti, vedi "Thermodynamics of Computation - A Review", di C. H. Bennett (International Journal of Theoretical Physics, Vol. 21, pp. 219-53, 1982). Tale riferimento bibliografico afferma che i neuroni dissipano energia pari a più di un miliardo di elettron-volts per ogni rilascio di segnale I calcoli indicano che dei relé meccanici attivati da forze elettrostatiche possono commutare da accesso a spento in meno di un nanosecondo, operando nel contempo con tensioni inferiori a un decimo di volt (ossia, tensioni analoghe a quelle dei neuroni) e consumando meno di un centinaio elettron-volts per operazione. (Non c'è ragione di credere che i relé meccanici possano rappresentare i commutatori migliori possibili, ma le loro prestazioni sono facili da calcolare). Le reattanze parassite possono anch'esse risultare ben più esigue di quelle del cervello.  
 (25) Questa è in qualche modo una immagine ingenua, poiché gli assemblatori possono fabbricare connettori che funzionano meglio dei bulloni e sistemi di raffreddamento che funzionano meglio di flussi d'acqua. Ma tentare di discutere sistemi basati interamente su hardware completamente costruito dagli assemblatori, nella migliore delle ipotesi trascinerebbe la discussione in un certo numero di dettagli di importanza secondaria, e nella peggiore delle ipotesi apparirebbe come una predizione contraffatta di ciò che potrà essere costruito, piuttosto che una sensata proiezione di ciò che potrebbe essere costruito. Coerentemente con questa considerazione, spesso descriverò sistemi costruiti da assemblatori inseriti in contesti che la nanotecnologia di fatto renderebbe obsoleti.  
 (26) Vedi Machines Who Think, di Pamela McCorduck, p. 344 (San Francisco: W. H. Freeman & Company, 1979). Questo libro presenta una leggibile ed interessante panoramica sull'intelligenza artificiale vista dalla prospettiva della gente comune e della storia del campo.  
 (27) in U.S. News & World Report, P. 65, November 2, 1981.  

Capitolo 6: Il mondo oltre la Terra  

 (1) Per il trasporto da orbita a orbita, un'alternativa attraente è l'utilizzo di razzi che brucino combustibile prodotto, da risorse spaziali, nello spazio stesso.  
 (2) Per discussioni ulteriori vedi "Sailing on Sunlight May Give Space Travel a Second Wind" (Smithsonian, pp. 52-61, Feb. 1982), "High Performance Solar Sails and Related Reflecting Devices", AIAA Paper 79-1418, in Space Manufacturing III, edito da Jerry Grey e Christine Krop (New York: American Institute of Aeronautics and Astronautics, 1979), e MIT Space Systems Laboratory Report 5-79, di K. Eric Drexler. La World Space Foundation (P.0. Box Y, South Pasadena, Calif. 91030) è una organizzazione senza scopo di lucro, e sostenuta dalle sottoscrizioni, che sta costruendo una vela solare sperimentale e supportando la ricerca di asteroidi accessibili.  
 (3) Per una discussione sulle risorse degli asteroidi vedi "Asteroid Surface Materials: Mineralogical Characterizations from Reflectance Spectra", di Michael J. Gaffey e Thomas B. McCord (Space Science Reviews, No. 21, p. 555, 1978) e "Finding 'Paydirt' on the Moon and Asteroids" di Robert L. Staehle (Astronautics and Aeronautics, pp. 44-49, November 1983).  
 (4) L'erosione causata da micrometeoridi è un problema minore, e il danno causato da meteoriti più grandi è estremamente raro.  
 (5) Vedi il suo libro The High Frontier: Human Colonies in Space (New York: William Morrow, 1976). Lo Space Studies Institute (285 Rosedale Road, P.0. Box 82, Princeton, N.J. 08540) è una organizzazione senza scopo di lucro, e sostenuta dalle sottoscrizioni, che mira al progresso dello sviluppo economico spaziale e dello sviluppo di insediamenti nello spazio, e che lavora principalmente tramite dei progetti di ricerca. La L5 Society (1060 East Elm, Tucson, Ariz. 85719) è una organizzazione senza scopo di lucro, e sostenuta dalle sottoscrizioni, che mira al progresso dello sviluppo economico spaziale e dello sviluppo di insediamenti nello spazio, e che lavora principalmente tramite la sensibilizzazione ed educazione pubblica e l'azione politica.  
 (6) Quanta potenza elettrica può fornire una data massa di collettori solari? Poiché l'energia elettrica è prontamente convertibile in energia chimica, essa sarà indicativa della rapidità con cui un collettore solare di data massa può fornire una energia sufficiente per costruire una equivalente massa di qualcos'altro. Celle solari sperimentali realizzate con silicio amorfo convertono la luce solare in elettricità con efficienza di circa il 10 percento, per un livello di materiale spesso circa un micrometro, ottenendo così circa 60 kilowatts di potenza per ogni chilogrammo di massa attiva. Celle solari costruite da assemblatori saranno, a quanto pare, capaci di fare molto meglio, e non avranno bisogno di avere spessi substrati di connessioni elettriche massicce e a basso voltaggio. Sessanta kilowatts di potenza forniscono, in pochi minuti, energia sufficiente per spezzare e re-disporre tutti i legami chimici di un tipico materiale. Sicché, una navetta spaziale che abbia una piccola frazione della sua massa rivestita da collettori solari, sarà in grado di ricostruire completamente la sua struttura in un ora o giù di lì. Ancor più importante, tuttavia, è che questi calcoli indicano che i replicatori alimentati da energia solare saranno riforniti di energia sufficiente per portare a termine, ogni ora, diversi loro raddoppi.  
 (7) Per avere la forza specificata, solo l'uno percento circa del materiale, misurato sull'area di sezione trasversale, deve consistere di fibre di diamante (bacchette cave telescopiche, in una delle realizzazioni possibili) che si estendono lungo una direzione tale da farsi portatrici del carico. Lungo tale direzione esiste uno schema regolare di tessitura tridimensionale (con fibre che vanno in sette direzioni differenti, per sostenere qualsiasi possibile tipo di carico, incluso il tranciamento) nella quale sono inglobate delle fibre cilindriche che occupano circa il 45 percento del volume totale. In una qualsiasi data direzione, solo alcune delle fibre possono sostenere un carico sostanziale, e l'utilizzo di cavità e fibre telescopiche (assieme alla loro estendibilità in lunghezza di un fattore due, in lunghezza) rende la tessitura meno densa. Questi fattori erodono ulteriormente la quota di volume effettivamente occupato, che varia perciò dal 45 percento fino ad un minimo dell'uno percento, pur se nel contempo il materiale resta comunque forte, quantomeno, come un acciaio tipico. Perché la suit possa cambiare forma pur mantenendo un volume interno costante, sempre che resti costante anche la pressione, e perché possa far tutto ciò in modo così efficiente, l'energia meccanica assorbita dallo stiramento del materiale in un suo punto deve essere compensata ed utilizzata dalla contrazione del materiale in qualche altro punto - diciamo, sull'altro lato di una giuntura a gomito. Un modo di ottenere ciò è sfruttare dei motori elettrostatici, reversibili come generatori, collegati a un normale sistema di alimentazione elettrica. Le leggi di scala, sulle piccole dimensioni, favoriscono i motori elettrostatici piuttosto che quelli elettromagnetici. Un esercizio di progettazione (con applicazioni non limitate ad ipotetiche suit spaziali) produce come risultato un dispositivo di circa 50 nanometri di diametro che lavora sul principio di un generatore elettrostatico a "pallettroni" di Van de Graaff, ossia incanalando gli elettroni attraverso piccole feritoie per caricare dei pallini di piombo ed utilizzando un rotore piuttosto che una catena di pallini di piombo. (Il dispositivo somiglierebbe ad una ruota idraulica, con secchi d'acqua forati sul fondo in luogo delle pale). Le operazioni in corrente continua dovrebbero essere limitate a tensioni di 10 volts, e l'efficienza della conversione di potenza (sia "da" che "verso" la potenza meccanica) pare probabilmente dimostrarsi eccellente, limitata solo dalle perdite per attrito. La densità di conversione di potenza (per una velocità all'orlo del rotore pari a un metro per secondo e per pallini di piombo caricati elettricamente da un singolo elettrone ciascuno) è di circa tre milioni di miliardi di watts per metro cubico. Una potenza che, quindi, sembra essere più che adeguata. Per quel che riguarda in generale le perdite per attrito, cuscinetti rotanti con forza di oltre 6 nano-newtons possono essere realizzati da legami carbonio - vedi Strong Solids, di A. Kelly (Oxford: Clarendon Press, 1973) - e cuscinetti che usino una coppia di atomi di carbonio legati da un legame triplo permetterebbero una rotazione quasi perfettamente priva di ostacoli. Cuscinetti rotolanti (piuttosto che rotanti) basati su cilindri cavi atomicamente perfetti ed aventi protuberanze analoghe a cuscinetti a sfera ma dalla corsa atomicamente perfetta, hanno almeno due modalità possibili di dissipare energia: uno risulta dalla radiazione fononica (suoni) prodotta dalle leggere irregolarità del moto di rotolamento, e l'altro risulta dalla dispersione di radiazione fononica già esistente a causa dei punti di contatto mobili. Le stime per entrambe le forme di dispersione (per cuscinetti rotolanti almeno di pochi nanometri in diametro che si muovano a velocità modeste) suggeriscono che esse dissiperebbero ben poca potenza, almeno rispetto agli standard tradizionali. Motori elettrostatici e cuscinetti rotolanti possono essere combinati per fabbricare spirali di avvitamento telescopiche di scala submicrometrica. Queste possono a loro volta essere sfruttate come fibre fatte di un materiale in grado di comportarsi come descritto nel testo.  
 (8) Una possibile eccezione a quanto detto qui, è quella di una forza che provochi una accelerazione complessiva: per esempio, l'equilibrio richiede che le forze agenti sulle piante dei piedi di una persona, che si trovi in piedi in un razzo in piena accelerazione, forniscano sostegno, e la suit deve trasmettere tali forze senza amplificazione o diminuzione alcuna. Gestire in modo liscio tutto questo potrebbe essere lasciato come esercizio per i futuri progettisti di sistemi di controllo e per i futuri programmatori di nanocomputer.  
 (9) Disassemblatori, assemblatori, alimentazione energetica e refrigerazione - tutte insieme, queste cose sono sufficienti a riciclare tutti i materiali di cui una persona ha bisogno per mantenere confortevole il suo ambiente. Alimentazione energetica e refrigerazione sono cruciali. Per quanto riguarda l'alimentazione energetica, una persona tipica consuma meno di cento watts di potenza, in media; la potenza solare che cade sulla superficie dalla dimensione di un tipico foglio di carta (alla distanza Terrestre dal Sole) è quasi altrettanto grande. Se la suit è ricoperta completamente con una pellicola che agisce come una cella solare ad alta efficienza, la luce del sole che colpisce questa pellicola fornisce potenza a sufficienza. Dove questa dovesse risultare inadeguata, si potrebbe utilizzare un parasole a celle solari per raccogliere più potenza. Per quel che riguarda la refrigerazione, tutta la potenza assorbita dovrebbe eventualmente essere trattata come calore in eccesso - da disperdere nel vuoto, per irraggiamento termico. Alla temperatura corporea, una superficie può irradiare circa 500 watts per metro quadro. Con delle celle solari efficienti e progettazioni adeguate (e tenendo presente la possibilità di alette di raffreddamento e cicli di refrigerazione), la refrigerazione non dovrebbe costituire un problema, almeno su un vasto insieme di ambienti. Il materiale della suit può, naturalmente, contenere canali per il flusso del refrigerante, al fine di mantenere la pelle di chi la indossa alla temperatura desiderata.  
 (10) Una capocchia di spillo contiene circa un millimetro cubico di materiale (a seconda dello spillo, ovviamente). Questa quantità di spazio è quanto basta per codificare una quantità di testi più grandi di un milione di miliardi di libri (le biblioteche più grandi ne contengono solo milioni). Anche supponendo che una immagine equivalga a un migliaio di parole, esiste comunque spazio a sufficienza per memorizzare i piani per un insieme molto vasto di dispositivi.  
 (11) I sistemi IA per l'ingegneria descritti nel capitolo 5, essendo un milione di volte più veloci degli ingegneri umani, potrebbero eseguire il lavoro di progettazione di diversi secoli in una sola mattina. Assemblatori in condizioni di vuoto, possono realizzare su un sito di reazione chimica qualsiasi ambiente si desideri, posizionandovi su l'appropriato insieme di utensili molecolari. Con la progettazione adatta e grazie a meccanismi attivi di riparazione e sostituzione, l'esposizione alla radiazione naturale dello spazio non costituirà un problema.  
 (13) Ma che dire a proposito dell'inquinamento spaziale? I rottami in orbita Terrestre costituiscono un rischio notevole e c'è bisogno di tenerli sotto controllo, ma molti altri problemi ambientali che esistono sulla Terra non possono preoccuparci anche per lo spazio: lo spazio non ha aria da inquinare, acque freatiche da contaminare, o una biosfera da danneggiare. Lo spazio è già inondato da radiazioni naturali. Mano a mano che la vita si sposterà nello spazio, sarà protetta dalla crudezza dell'ambiente spaziale. Inoltre nello spazio, il solo volume del sistema solare interno è molti milioni di miliardi di volte più grande di quello dell'intera Terra, compresi atmosfera ed oceani. Se la tecnologia sulla Terra ha avuto lo stesso effetto di un toro in un negozio di porcellane cinesi, allora la tecnologia nello spazio avrà l'effetto di un toro in un campo aperto.  
 (14) Citato in The High Frontier: Human Colonies in Space, di Gerard K. O'Neill (New York: William Morrow, 1976).  
 (15) Questo concetto è stato presentato per la prima volta da Robert L. Forward nel 1962.  
 (16) Feynman ha discusso di questo in una conversazione, durante una sessione informale del meeting intitolato "Discussion Meeting on Gossamer Spacecraft", tenutosi il 15 Maggio 1980 presso il Jet Propulsion Laboratory a Pasadena, California.  
 (17) Vedi il suo articolo "Roundtrip Interstellar Travel Using Laser-Pushed Lightsails", (Journal of Spacecraft and Rockets, Vol. 21, pp. 187-95, Jan.-Feb. 1984). Forward si concentra sul problema della fabbricazione di una vela di luce basata su un raggio sufficientemente reversibile, e al contempo di sufficiente qualità ottica (quindi con diffrazione limitata) per poter svolgere questo lavoro. Una struttura attivamente controllata, basata su una sottile pellicola di metallo e posizionata tramite attuatori e computer, entrambi di scala nanometrica, sembra essere un approccio funzionante per risolvere questo problema. Ma la nanotecnologia consentirà un approccio differente per accelerare le vele di luce e per arrestare il loro cargo. Gli assemblatori-replicatori renderanno facile un tale approccio grazie alla possibilità di costruire facilmente grandi laser, lenti e vele. Le vele possono essere fabbricate con un dielettrico cristallino, come ossido di alluminio, avente forza estremamente alta e bassa assorbenza ottica. Tali vele potrebbero sopportare luci laser intense, accelerando fino a molte volte l'accelerazione di gravità Terrestre ("G"), e approssimandosi alla velocità della luce in una frazione d'anno. Ciò consentirebbe alle vele di raggiungere le loro destinazioni in un tempo quasi minimale. (Per una discussione sulla accelerazione fino a molti "G" di oggetti dielettrici, vedi "Applications of Laser Radiation Pressure", di A. Ashkin [Science, Vol. 210, pp. 1081-88, Dec. 5, 1980]).  
 Durante il volo, la dotazione della nave di sistemi di assemblatori controllati da computer (sistemi alimentati da luci laser di intensità ancora maggiore rispetto a quelli del punto di partenza) potrebbero ricostruire la vela trasformandola in un lungo e sottile accelleratore d'onde. Quest'ultimo potrebbe quindi essere utilizzato per accellerare elettricamente un guscio cavo fatto di un forte materiale e di diversi micrometri di raggio che contenga circa un micrometro cubico di cargo; un tale guscio può essere fornito di un alto e positivo valore del rapporto carica-massa. I calcoli indicano che un accelleratore lungo mille chilometri (c'è spazio a sufficienza, nello spazio) sarebbe più che adeguato ad accellerare il guscio e il cargo fino ad oltre il 90 percento della velocità della luce. Un accelleratore la cui massa sia un grammo per ogni metro d'estensione, (il che comporta un sistema pesante una tonnellata) pare essere più che adeguato. All'approssimarsi del sistema stellare di destinazione, l'accelleratore si spinge via in senso contrario alla velocità scelta per abbandonare il cargo, assieme a tutto il resto. (Per una discussione sulla accellerazione elettrostatica di piccole particlelle, vedi "Impact Fusion and the Field Emission Projectile", di E. R. Harrison [Nature, Vol. 291, pp. 472-73, June 11, 1981].)  
 La velocità residua del proiettile può essere rediretta di modo che esso intercetti e colpiscal'atmosfera di un pianeta come Marte- o Venere (un pianeta avvistato e scelto precedentemente grandi telescopi insediati nello spazio). Un sottile guscio del tipo già descritto irradierà abbastanza rapidamente il calore atmostferico in entrata, di modo da rimanere sufficientemente. Il cargo, consistente di un sistema di assemblatori e di nanocomputer, può quindi usare la luce del sole locale nonché carbonio, idrogeno, azoto e ossigeno locali (probabilmente elementi ritrovabili in qualunque atmosfera planetaria) per replicare e costruire strutture molto più grandi di se. Un primo progetto potrebbe essere la costruzione di un ricevitore per poter ricevere istruzioni ulteriori da casa, inclusi piani per dispoitivi complessi. Questo potrebbero includere razzi in grado di allontanarsi dal pianeta (sfruttato come obiettivo essenzialmente in virtù del cuscino atmosferico che mette a disposizione) per raggiungere una locazione che rappresenti un sito migliore per il lavoro di costruzione. Il risultante sistema di replicatori-assemblatori potrebbe virtualmente costruire qualsiasi cosa, inclusi sistemi intelligenti per l'esplorazione. Per risolvere il problema dell'arresto della vela solare e nel caso a questa siano annessi massicci veicoli per passeggeri, il sistema potrebbe costruire una schiera di laser frenanti grande quanto quella dei laser di lancio per il ritorno verso casa. La costruzione delle due schiere potrebbe essere completata a poche settimane dal momento della consegna del "seme" di un micrometro cubico. Questo sistema illustra un possibile modo per diffondere la civiltà umana fino alle stelle con velocità solo leggermente inferiore alla velocità della luce.  
 (18) Due giorni di viaggio ad una accellerazione pari a due G, possono portare una persona dalla Terra fino ad un punto qualunque entro un disco la cui area sia 20 milioni di volte l'area della superficie Terrestre - e questo calcolo permette persino un buco nel centro del disco con un raggio di centinaia di volte la distanza Terra-Luna. Anche così, il bordo esterno del disco raggiunge solo un ventesimo della distanza Terra-Sole.  
 (19) Ciò assumendo una conversione di energia solare in energia cinetica con una efficienza approssimativa del 10 percento, cosa che si dovrebbe poter ottenere in una qualunque di molte possibili maniere.  

Capitolo 7: Motori di guarigione   

 (1) Vedi il suo articolo "Comparative Biochemistry and Drug Design for Infectious Disease" (Science, Vol. 205, pp. 964-71, Sept. 7, 1979).  
 (2) Vedi "A Conformationally Constrained Vasopressin Analog with Antidiuretic Antagonistic Activity" di Gerald Skala ed altri (Science, Vol. 226, pp. 443-45, Oct. 26, 1984).  
 (3) The American Heritage Dictionary of the English Language, edito da William Morris (Boston: Houghton Mifflin Company, 1978).  
 (4) Questi sistemi saranno utilizzati sia per aiutare strumenti di progettazione molecolare che per dirigere il loro impiego. Usando dispositivi in grado di andare su locazioni specificate, afferrare molecole e analizzarle, lo studio di strutture cellulari diverrebbe piuttosto facile da automatizzare.  
 (5) Le macchine di riparazione potrebbero usare dispositivi che assomigliano ai robot attualmente usati nel lavoro di assemblaggio industriale. Ma riassemblare strutture cellulari non richiederà macchine così precise (o meglio, così precise relativamente alla loro dimensione). Molte strutture delle cellule si auto-assemblano se i loro componenti vengono semplicemente confinati assieme in uno spazio ben delimitato, lasciati solo liberi di rimbalzare tutto attorno; essi non hanno bisogno di essere manipolati in modi complessi e precisi. Le cellule contengono già tutti gli strumenti necessari per assemblare le strutture delle cellule, e nessuna è tanto complessa quanto un robot industriale.  
 (6) Vedi pp. 1022-23 di Biochemistry, di Albert L. Lehninger (New York: Worth Publishers, 1975).  
 (7) Il contenuto in lipofucsina varia a seconda del tipo di cellule, ma alcune cellule cerebrali (negli animali anziani) ne contengono mediamente circa 17 percento; i tipici granuli di lipofucsina vanno da un diametro di un micrometro fino a tre micrometri. Vedi "Lipofuscin Pigment Accumulation as a Function of Age and Distribution in Rodent Brain", di William Reichel ed altri (Journal of Gerontology, Vol. 23, pp. 71-81, 1968). Vedi anche "Lipoprotein Pigments - Their Relationship to Aging in the Human Nervous System", di D. M. A. Mann e P. O. Yates (Brain, Vol. 97, pp. 481-88, 1974).  
 (8) La relazione implicata non è esatta, ma mostra la tendenza giusta: per esempio, il secondo numero mostrato dovrebbe di 2,33 errori non corretti in un milione di milioni, e il terzo dovrebbe essere di 4,44 in un milione di milioni di milioni (in base a certi calcoli piuttosto complessi basati su un algoritmo di correzione degli errori leggermente ancora più complesso).  
 (9) Le cellule immunitarie che producono anticorpi differenti posseggono geni differenti, modificate appropriatamente durante lo sviluppo. Riparare questi geni richiederà regole speciali (ma la possibilità dimostrata dello sviluppo di un sistema immunitario, mostra che è possibile generare i corretti schemi di informazione).  
 (10) Si noti che ogni molecola danneggiata quanto basta da avere un effetto anormale sul macchinario molecolare della cellula, sarà per questo stesso motivo danneggiata quanto basta da provocare un preciso effetto distintivo su dei sensori molecolari.  
 (11) Per una monografia che discute questo argomento in maggior dettaglio, inclusi i calcoli di volume, velocità, potenze d'alimentazione e carichi computazionali, vedi "Cell Repair Systems" di K. Eric Drexler (disponibile presso The Foresight Institute, Palo Alto, Calif; website:
http://www.foresight.org).  
 (12) Per esempio, per mezzo di fibre cave di un nanometro o due in diametro, ognuna che supporta una bacchetta di carbina per la trasmissione dei siegnali, di quelle utilizzate all'interno dei nanocomputer meccanici. Dove sia necessario si possono impiegare anche dei ripetitori di segnale.  
 (13) Questa necessità non richiete la risoluzione di alcun problema realmente difficile di riconoscinmento di schemi (pattern recognition problem), fatta eccezione in casi in cui le strutture cellulari siano pesantemente distrutte. Ogni struttura cellulare contiene dei tipi standard di molecole in uno schema che varia all'interno di limiti piuttosto stereotipi, ed un semplice algoritmo può identificare ogni proteina che sia danneggiata in maniera sostanziale. L'identificazione delle molecole standard in una struttura determina il suo tipo; redigere una mappa di queste tipologie diventa una questione di semplice completamento della conoscenza acquisita riguardo a categorie di dettagli.  
 (14) Gli esperimento molecolari possono essere svolti circa un milione di volte più velocemente degli esperimenti macroscopici, poichè un braccio assemblatore può agire un milione di volte più rapidamente di un braccio umano (vedi capitolo 4). Per cui, le macchine molecolari e i sistemi IA veloci ben si sposano per quel che riguarda la velocità.  
 (15) utilizzando 2-MEA, BHT, e etoxiquina; I risultati dipendono dallo stress a cui il topo è sottoposto, dalla sua dieta e dagli altri farmaci impiegati. Vedi "Free Radical Theory of Aging", di D. Harman (Triangle, Vol. 12, No. 4, pp. 153-58, 1973).  
 (16) Come riportato dal Press-Telegram, Long Beach, Calif., April 26, 1985.  
 (17) La riparazione cellulare dovrà anche basarsi su una nuova scienza, ma in un modo differente. Come discusso nel capitolo 3, ha senso prevedere quello che impareremo "su" un certo campo di conoscenza ma non "che cosa" esattamente impareremo. Estendere la vita per mezzo di macchine di riparazione cellulare richiederà che impariamo molto "sulle" strutture cellulari prima di poterle riparare, ma che cosa impareremo non influenza la realizzabilità di queste riparazioni. Estendere la vita attraverso mezzi tradizionali, al contrario, dipenderà da quanto bene il macchinario molecolare del corpo può effettivamente riparare se stesso quando trattato appropriatamente. Impareremo ancora molto altro a questo proposito, ma quello che impareremo potrebbe anche rivelarsi deludente.  

Capitolo 8: Longevità in un mondo aperto   

 (1) Vedi "Evolution of Aging" un articolo di rassegna di T. B. L. Kirkwood (Nature, Vol. 270, pp. 301-4, 1977).  
 (2) In The Uniqueness of the Individual (London: Methuen, 1957). Vedi anche la discussione in The Selfish Gene, pp. 42-45 (citato nelle note al capitolo 2).  
 (3) Vedi il riferimento in nota precedente, il quale include una spiegazione alternativa (ma in buona misura analoga) per i risultati di Hayflick.  
 (4) Per un riferimento all'enunciato di questa teoria (di D. Dykhuizen nel 1974) insieme con una critica ed una confutazione, vedi le lettere di Robin Holliday, e quelle di John Cairns e Jonathan Logan, in "Cancer and Cell Senescence" (Nature, Vol. 306, p. 742, December 29, 1983).  
 (5) Questi animali possono ancora mostrare un alto tasso di incidenza di cancro a causa di un'alta incidenza di cronometri cellulari (clocks) danneggiati.  
 (6) Un sistema che particolarmente adatto è l'impiego di un altro veleno; le automobili "mangiano" un prodotto tossico del petrolio. Persino fra gli organismi, alcuni batteri prosperano su una combinazione di metanolo (alcool derivato dal legno) e monossido di carbonio (vedi "Single-Carbon Chemistry of Acetogenic and Methanogenic Bacteria", di J. G. Zeikus ed altri, Science, Vol. 227, pp. 1167-71, March 8, 1985), mentre altri batteri si sono sviluppati in modo da prosperare sia grazie al triclorofenolo che agli erbicidi di tipo 2,4,5-T. Essi possono persino dissociare il fluoro dal pentafluorofenolo. (Vedi "Microbial Degradation of Halogenated Compounds", D. Chousal ed altri, Science, Vol. 228, pp. 135-42, April 12, 1985.)  
 (7) Grazie all'utilizzo di carburanti prodotti per mezzo dell'energia solare.  
 (8) In termini di semplice entità di massa, il disossido di carbonio è forse il nostro problema di inquinamento più grande. E tuttavia, sorprendentemente, un calcolo semplice mostra che la luce solare colpisce la Terra in un solo giorno con abbastanza energia da dissociare tutto il diossido di carbonio nella nostra atmosfera in carbonio ed ossigeno (a parte le considerazioni d'efficienza nell'utilizzo di tale energia). Anche considerando varie limitazioni estetiche e pratiche, avremo perciò energia a sufficienza per completare questa immane ripulitura dell'atmosfera nell'arco di una sola decade.  
 (9) Vedi "Gene Samples from an Extinct Animal Cloned", di J. A. Miller (Science News, Vol. 125, p. 356, June 9, 1984).  
 (10) The Iliad, di Omero (ottavo secolo A. C. circa), come citato da Eric Hoffer in The True Believer (New York: Harper & Brothers, 1951). (Sarpedone rimase infatti ucciso in battaglia).  
 (11) Da The Epic of Gilgamesh , tradotta il lingua inglese da N. K. Sandars (Middlesex: Penguin Books, 1972).  
  
Capitolo 9: Una porta sul futuro    
  
 (1) In Mr. Franklin, A Selection from His Personal Letters, di L. W. Labaree e W. J. Bell Jr. (New Haven: Yale University Press, 1956), pp. 27-29.  
 (2) Con organi e tessuti cresciuti dalle stesse cellule del ricevente, per cui non esisterà alcun problema di rigetto.  
 (3) Gli esperimenti mostrano che variazioni dell'esperienza vissuta, producono rapidamente visibili variazioni nella forma delle spinali dendritiche (piccole prominenze che realizzano sinapsi sui dendriti). Vedi "A Theoretical Analysis of Electrical Properties of Spines", di C. Koch e T. Poggio (MIT AI Lab Memo No. 713, April 1983). In "Cell Biology of Synaptic Plasticity" (Science, Vol. 225, pp. 128794, Sept. 21, 1984), Carl W. Cotman e Manuel Nieto-Sampedro hanno scritto che "Il sistema nervoso è specializzato a mediare la risposta adattativa dell'organismo […] A tal fine il sistema nervoso è modificabile in modo particolarmente peculiare, ossia è plastico. La plasticità neuronale è in gran parte la capacità delle sinapsi di modificare la propria funzione, di venir rimpiazzate, e di incrementare e decrementare il proprio numero quando richiesto". Inoltre, "poiché si ritiene che la neocorteccia sia una delle sedi dell'apprendimento e della memoria,la maggior parte degli studi sugli effetti sinaptici causati da stimoli naturali si sono concentrati su questa area ". L'incremento delle delle diramazioni dendritiche nella neocorteccia "è causato dall'età (esperienza) sia nei roditori che negli umani. Incrementi più esigui ma riproducibili sono stati osservati a seguito dell'apprendimento di compiti particolari […]". Questi cambiamenti nella struttura delle cellule possono verificarsi " nell'arco di ore". Per una discussione sulla memoria a breve termine e sulla memoria a lungo termine , e su come la prima possa essere convertita nella seconda, vedi "The Biochemistry of Memory: A New and Specific Hypothesis", di Gaty Lynch e Michel Baudty (cience.com/science/" Science, Vol. 224, pp. 1057-63, June 8, 1984). Al momento, ogni teoria vitale riguardante la memoria a lungo termine chiama in causa modificazioni nella struttura e nel contenuto proteico dei neuroni. Esiste comunque una idea popolare e persistente a proposito del fatto che la memoria potrebbe in qualche maniera essere immagazzinata (esclusivamente?) "in molecole di RNA", una voce apparentemente nutrita dall'analogia col DNA, la "memoria" responsabile dell'ereditarietà. Questa idea deriva da vecchi esperimenti che suggerivano che il comportamento appreso potesse essere trasferito ad altri vermi piatti non precedentemente addestrati iniettando loro RNA estratto da vermi addestrati. Sfortunatamente per questa teoria, gli stessi risultati sono stati ottenuti utilizzando RNA estratto da cellule di lievito completamente prive di qualsiasi addestramento. Vedi Biology Today, di David Kirk, p. 616 (New York: Random House, 1975). Un'altra idea popolare e persistente è che la memoria possa essere immagazzinata in forma di riverberanti schemi di attività elettrica, una voce apparentemente nutrita dall'analogia con le memorie dinamiche ad accesso casuale dei computer moderni. Questa analogia, comunque, è inappropriata per diverse ragioni: (1) Le memorie dei computer, a differenza dei cervelli, sono progettate per essere ripetutamente cancellate e riutilizzate. (2) Gli schemi in una "memoria a lungo termine" di un computer - i suoi dischi magnetici, per esempio - sono di fatto ben più durevoli delle RAM dinamiche. (3) I chip di silicio sono progettati per la stabilità strutturale, mentre i cervelli sono progettati per modificazioni strutturali dinamiche. Alla luce della moderna evidenza della conservazione della memoria a lungo termine in strutture cerebrali persistenti, non è sorprendente che la "totale cessazione dell'attività elettrica del cervello di solito non comporta la cancellazione delle memorie, nonostante un tale effetto possa selettivamente riguardare la memorie immagazzinate più di recente" (A. J. Dunn). La teoria dei riverberi elettrici fu proposta da R. Lorente de No (Journal of Neurophysiology, Vol. 1, p. 207) nel 1938. La sperimentazione moderna non ha riscontrato supporto ad una tale teoria che guarda alla memoria caratterizzandola come effimera.  
 (4) Per ragioni tecniche, questo studio è stato condotto sui molluschi, ma la neurobiologia si è dimostrata sorprendentemente uniforme. Vedi "Molecular Biology of Learning: Modulation of Transmitter Release", di Eric R. Kandel e James H. Schwartz (Science, Vol. 2 18, pp. 433-43, Oct. 29, 1982), che riporta lavori di C. Baily e M. Chen.  
 (5) Il tempo che intercorre fra l'espirazione e la dissoluzione definisce la finestra temporale per una biostasi di successo, ma l'estensione di tale intervallo temporale resta incerta. Come mostrato dall'esperienza medica, è possible distruggere il cervello (causando la dissoluzione irreversibile della mente e della memoria) persino mentre un paziente respira ancora. Per contrasto, certi pazienti sono stati riportati alla vita dopo un significativo periodo di cosiddetta "morte clinica". Disponendo di macchine di riparazione cellulare, il requisito di base sarebbe quello che il cervello rimanga struttralmente intatto; fintanto che è vivo, esso presumibilmente resta anche intatto, sicché la vitalità fornisce un indicatore dello stato di conservazione. Esiste un mito comune riguardante il fatto che il cervello "non possa sopravvivere" per più di pochi minuti privo di ossigeno. Anche se ciò fosse vero in relazione ad una interpretazione della sopravvivenza come capacità di ripristinare (spontaneamente) il funzionamento, la sopravvivenza della caratteristica struttura cellulare sarebbe una questione a parte. Ed infatti, la struttura cellulare nel cervello di cani espirati, persino quando questi siano conservati a temperatura ambiente, mostra solo moderate alterazioni ogni sei ore, a molte strutture cellulari restano visibili per un giorno o anche più.; vedi "Studies on the Epithalamus", di Duane E. Haines e Thomas W. Jenkins (Journal of Comparative Neurology, Vol. 132, pp. 405-17, Mar. 1968). Ma di fatto, il potenziale per il funzionamento spontaneo del cervello può sopravvivere per ben più a lungo di quanto questo mito (e la definizione medica di "morte cerebrale") suggeriscano. Una varietà di esperimenti, che hanno utilizzato farmaci e chirurgia, lo hanno mostrato: Scimmie adulte sono riuscite in un completo recupero dopo una interruzione di ben sedici minuti della circolazione sanguinea nel cervello (una condizione clinica denominata "ischemia", la quale ovviamente blocca anche la fornitura d'ossigeno al cervello); vedi "Thiopental Therapy After 16 Minutes of Global Brain Ischemia in Monkeys", di A. L. Bleyaert ed altri (Critical Care Medicine, Vol. 4, pp. 130-31, Mar./Apr. 1976). I cervelli di scimmie e gatti sono sopravvissuti per un ora, mantenuti a temperature corporee ma in assenza di circolazione sanguinea, recuperando in seguito il loro funzionamento elettrico; vedi "Reversibility of Ischemic Brain Damage", di K.-A. Hossmann e Paul Kleihues (Archives of Neurology, Vol. 29, pp. 375-84, Dec. 1973). In Dottor Hossmann conclude che ogni cellula nervosa del cervello può sopravvivere "per un'ora senza sangue (dopo che il cuore abbia smesso di pomparlo, per esempio). Il problema non è che le cellule nervose muaiono quando la circolazione si arresta, ma altri problemi collaterali (come un leggero rigonfiamento del cervello all'interno della sua cavità ossea troppo strettamente tagliata su misura) può impedire il ripristino della circolazione. Quando raffreddati fino in prossimità del congelamento, I cervelli dei cani hanno recuperato l'attività elettrica dopo ben quattro ore trascorse in assenza di circolazione sanguinea (e hanno recuperato le principali attività metaboliche persino dopo quindici giorni)". Vedi "Prolonged Whole-Brain Refrigeration with Electrical and Metabolic Recovery", di Robert J. White d altri (Nature, Vol. 209, pp. 1320-22, Mar. 26, 1966). Cellule del cervello che mantengano la capacità di ritornare spontaneamente a vivere a seguito dell'uscita da uno stato di biostasi dovrebbero dimostrarsi facili da riparare. Poiché il successo richiede principalmente che le caratteristiche strutture cellulari restino intatte, la finestra temporale per l'avvio dell'applicazione di procedure di biostasi è probabilmente di almeno diverse ore dopo l'espirazione, ed è possibile che sia anche più estesa. Degli ospedali cooperativi possono rendere, ed hanno reso, i tempi di intervento ben più brevi di così.  
 (6) Per delle micrografie ottenute con lettroni ad alto voltaggio che mostrino I dettagli di scala molecolare di cellule preservate tramite fissazione con glutaraldeide, vedi "The Ground Substance of the Living Cell", di Keith R. Porter e Jonathan B. Tucker (Scientific American, Vol. 244, pp. 56-68, Mar. 1981). La fissazione da sola non semra essere sufficiente; la stabilizzazione di strutture sul lungo periodo sembra richiedere il congelamento o la vetrificazione, sia da sole che in aggiunta alla fissazione. Il raffreddamento in azoto liquido - al disotto dei 196 gradi centigradi - può preservare le strutture dei tessuti per molte migliaia di anni.  
 (7) Vedi "Vitrification as an Approach to Cryopreservation", di G. M. Fahy ed altri (Cryobiology, Vol. 21, pp. 407-26, 1984).  
 (8) Vedi "Ice-free Cryopreservation of Mouse Embryos at -196 degrees C by Vitrification", di W. F. Rall e G. M. Fahy (Nature, Vol. 313, pp. 573-75, Feb. 14, 1985).  
 (9) The Prospect of Immortality (New York: Doubleday, 1964; una versione preliminare fu pubblicata privatamente nel 1962)  
 (10) E' ben noto che le cellule di sperma umano e embrioni molto giovani possono sopravvivere al congelamento ed essere conservati; in entranbi i casi, i successi sono stati riferiti dai mass media. Successi meno spettacolari ottenuti con altri tipi di cellule (per le trasfusioni si utilizza sangue congelato e poi scongelato) sono numerosi. E' anche interessante notare che, dopo il trattamento con glicerolo e il concelamento a meno di 20 gradi centigrade, i cervelli di gatto possono recuperare l'attività elettrica spontanea dopo oltre 200 giorni di conservazione; vedi "Viability of Long Term Frozen Cat Brain In Vitro" di I. Suda, K. Kito, e C. Adachi (Nature, Vol. 212, pp. 268-70, Oct. 15, 1966).  
 (11) Un gruppo del Laboratorio di Criobiologia presso The American Red Cross (9312 Old Georgetown Road, Bethesda, Md. 20814) sta tentando la conservazione di interi organi umani finalizzata alla istituzione di una banca degli organi per I trapianti; vedi "Vitrification as an Approach to Cryopreservation" già citato poco sopra.  
 (12) Come ho riscontrato quando l'evidenza della realizzabilità della riparazione cellulare mi ha portato ad esaminare la letteratura esistente sulla crionica. L'originario libro di Robert Ettinger, per esempio (già citato precedentemente), parla dell'eventuale sviluppo di "immense machine chirurgiche" capaci di riparare tessuti cellulari "cellula dopo cellula, o persino molecola dopo molecola nei casi più critici". Nel 1969 Jerome B. White scrisse un articolo intitolato "Viral Induced Repair of Damaged Neurons with Preservation of Long Term Information Content"(Riparazione indotta da Virus di Neuroni Danneggiati, con Preservazione del loro Contenuto informativo di Lungo Termine), il quale proponeva che avrebbero potuto trovarsi dei metodi per dirigere la riparazione cellulare utilizzando virus artificiali; vedi il preambolo del suddetto articolo riportato anche da Man into Superman, di Robert C. W. Ettinger (New York: St. Martin's Press, 1972, p. 298). In "The Anabolocyte: A Biological Approach to Repairing Cryo-injury" (Life Extension Magazine, pp. 80-83, July/August 1977), Michael Darwin propose che sarebbe stato possible utilizzare l'ingegneria genetica per fabbricare cellule rappresentate da globuli bianchi sanguinei altamente modificati in grado di localizzare e ricostruire cellule danneggiate. In "How Will They Bring Us Back, 200 Years From Now?" (The Immortalist, Vol. 12, pp. 5-10, Mar. 1981), Thomas Donaldson propose che I sistemi di machine molecolari (con dispositivi altrettanto piccoli dei virus e aggregati di dispositivi grandi quanto palazzi, se necessario) potrebbero effettuare su tessuti congelati qualsiasi riparazione necesarria.  
 L'idea di sistemi di riparazione cellulare è circolata per molti anni. Il concetto di assemblatore e di nanocomputer ha ora reso possibile vedere chiaramente in che modo un tale dispositivo possa essere costruito e controllato, nonché che tali sistemi possano effettivamente essere adatti ad essere introdotti all'interno delle cellule.  
 (13) Alcuni criceti, comunque, sono stati raffreddati a temperature tali da congelare oltre la metà dell'acqua contenuta nei loro corpi (e cervelli), e sono stati riportati in vita con recupero completo delle loro funzionalità; vedi Biological Effects of Freezing and Supercooling, di Audrey U. Smith (Baltimore: Williams & Wilkins, 1961).  
 (14) in Designing the Future: The Role of Technological Forecasting (Philadelphia: Chilton Book Co., 1967).  
 (15) Altri fattori hanno contribuito allo scoraggiamento - principalmente costi e ignoranza. Per un paziente, pagare una procedura di biostasi ed istituire che provveda alla conservazione a tempo indeterminato in azoto liquido costa attualmente 35.000 dollari o anche più, a seconda della procedura di biostasi scelta. Questo costo è tipicamente coperto da una apposita polizza assicurativa sulla vita. A fronte di questo costo e in assenza di una chiara visione di come possa essere riparato il danno da congelamento, solo pochi pazienti su milioni hanno optato per questa scelta. La esigua domanda, a sua volta, ha impedito che una economia di scala abbassasse il costo del servizio. Ma questa situazione potrebbe essere alla sua svolta. I gruppi cronici riferiscono di un recente incremento del ritmo con cui vengono stipulati contratti per la biostasi, apparentemente derivato dalla conoscenza di progressi nella biologia molecolare e nella comprensione delle future capacità di riparazione cellulare.  
 Negli Stati Uniti esistono tre gruppi che offrono servizi per la biostasi. In ordine di importanza per quella che è la loro apparente dimensione e qualità, essi sono:  
 La Alcor Life Extension Foundation, 4030 North Palm No. 304, Fullerton, Calif. 92635, (714) 738-5569. (Alcor ha anche una filiale ed altre risorse nel sud della Florida).  
 Trans Time, Inc., 1507 63rd Street, Emeryville, Calif. 94707, (415) 655-9734.  
 The Cryonics Institute, 24041 Stratford, Oak Park, Mich. 48237, (313) 967-3115.  
 Per ragioni pratiche basate sull'esperienza, essi richiedono che tutte le pratiche legali e finanziarie vengano completate prima della stipula del contratto.  
 (16) La crescita di cristalli di ghiaccio può mostrare strutture cellulare di pochi milionesimi di metro, ma essa non le cancella, ne sembra probabile che causi una equivocità in qualche modo significativa riguardo dove esse fossero posizionate prima di venir spostate dalla loro posizione. Una volta congelate, esse non si spostano ulteriormente. La riparazione può cominciare prima che lo scongelamento permetta loro di spostarsi liberamente.  
 (17) Le attuali procedure di biostasi comprendono anche il drenaggio della maggior parte del sangue del paziente; le nanomacchine recuperano ogni cellula sanguinea residua mentre ripuliscono il sistema circolatorio.  
 (18) Ciò esclude, per esempio, la cornea, ma altri mezzi possono essere impiegati per ottenere l'accesso verso l'interno di tali tessuti, oppure essi possono semplicemente essere sostituiti.  
 (19) Le molecole di proteggente sono legate una all'altra da legami così deboli che questi si spezzano a temperatura ambiente a causa della sola vibrazione termica. Persino a basse temperature, le macchine per rimuovere il proteggente non avranno problemi a staccare via queste molecole dalle superfici.  
 (20) La quale potrebbe essere costituita da cordoni spessi un nanometro, progettati per staccarsi tutti assieme. Le molecole potrebbero essere assicurate all'impalcatura tramite dispositivi che assomiglino a quei fermagli per capelli aventi una dentellature che ricorda la dentatura di un coccodrillo.  
 (21) Le etichette possono essere costituite da piccoli segmenti di nastro di polimero rappresentante un codice. Un segmento lungo pochi nanometri può specificare una locazione qualunque all'interno di un micrometro cubico con una precisione di un nanometro.  
 (22) Infatti, fibre di trasmissione di segnali del diametro di un nanometro, riunite in un fascio del diametro di un dito (con più sottili diramazioni introdotte lungo tutti i capillari del paziente) possono in meno di una settimana trasmettere una descrizione molecolare completa di tutte le cellule del paziente ad un insieme di computer esterni. Nonostante sia apparentemente non necessario, l'utilizzo di computer esterni dovrebbe rimuovere la maggior parte dei vincoli significativi riguardanti il volume, la velocità e la dissipazione energetica connessi con la entità della potenza elaborativi disponibile per pianificare re procedure di riparazione.  
 (23) Le cellule hanno strutture piuttosto stereotipe, ognuna costruita da tipi standard di molecole connesse in modi standard, in accordo con una programmazione genetica anch'essa piuttosto standard.. Tutto ciò semplifica enormemente il problema dell'identificazione.  
 (24) Egli fece notare la possibilità di costruire dispositivi con cablaggi tanto fini da avere uno spessore di dieci o cento atomi; vedi "There's Plenty of Room at the Bottom"," in Miniaturization, edito da H. D. Gilbert (New York: Reinhold, 1961), pp. 282-96.  
 (25) in "The Idea of Progress" (Astronautics and Aeronautics, p. 60, May 1981).  
 (26) in "Basic Medical Research: A Long-Term Investment" (Technology Review, pp. 46-47, May/June 1981).  
 (27) Vedi Volume V ,"Fine Chemicals" in A History of Technology, edito da C. J. Singer ed altri (Oxford: Clarendon Press, 1958).  
 (28) Vedi A History of Technology, già citato  
  
Capitolo 10: I limiti dello sviluppo  

 (1) Il principio della relatività del moto significa che il "movimento" degli oggetti dovrebbe essere sempre considerato rispetto al resto - con ciò intendendo che il pilota di una nave spaziale che tenti di avvicinarsi alla velocità della luce non dovrebbe mai sapere in quale direzione accelerare. Inoltre i semplici diagrammi di Minkowski mostrano che la geometria dello spazio-tempo rende il viaggio più veloce della luce equivalente al viaggio indietro nel tempo - e dove dovresti puntare un razzo per muoverti in quella direzione?  
 (2) In Profiles of the Future: An Inquiry into the Limits of the Possible, prima edizione (New York: Harper & Row, 1962).  
 (3) Per un resoconto su alcune teorie moderne che tentano di unificare tutta la fisica in termini di comportamento del vuoto, vedi "The Hidden Dimensions of Spacetime" di Daniel Z. Freedman e Peter van Nieuwenhuizen (Scientific American, Vol. 252, pp. 74-81, Mar. 1985).  
 (4) Per esempio, le misurazioni quantistiche possono influenzare instantaneamente il risultato di altre misurazioni quantistiche effettuate a distanza arbitraria dalle prime- ma gli effetti sono solo statistici, e di quel sottil tipo per il quale è stata matematicamente dimostrata l'incapacità di trasmettere informazione. Vedi la discussione davvero leggibile del teorema di Bell e del paradosso di Einstein-Podolsky-Rosen in Quantum Reality di Nick Herbert (Garden City, New York: Anchor Press/Doubleday, 1985). A dispetto dele voci che affermano il contrario (alcune apparse anche nelle pagine di chiusura di Quantum Reality), niente sembra suggerire che la coscienza e la mente facciano affidamento sulla meccanica quantistica in alcun modo particolare. Per una eccellente discussione di come la coscienza lavori (e di qual davvero piccola coscienza possediamo) vedi The Society of Mind di Marvin Minsky (New York: Simon & Schuster, 1986).  
 (5) Ma ora i fisici possono rispondere a questi interrogativi con chiarezza matematica. I calcoli basati sulle equazioni della meccanica quantistica mostrano che l'aria è gassosa perché gli atomi di azoto e di ossigeno tendono a formare coppie di atomi saldamente legati fra loro, e svincolati da ogni altro atomo. L'aria è trasparente perché la luce visibile manca di sufficiente energia per eccitare i suoi elettroni fortemente vincolati agli stati quantici di più alta energia, sicchè i fotoni possono passare attraverso l'aria senza restarne assorbiti. Una scrivania di legno è solida perché contiene atomi di carbonio che (come mostrato dai calcoli della meccanica quantistica) sono in grado di formare catene di cellulosa e lignina composte da atomi saldamente legati. Essa è marrone perché i suoi elettroni sono in una varietà di stati, alcuni dei quali in grado di essere eccitati dalla luce visibile; assorbendo preferenzialmente l'azzurro, ossia radiazione composta da fotoni di più alta energia, essa riflette prevalentemente luce dalle gradazioni rosse o gialle.  
 (6) In "The Edge of Spacetime" (American Scientist, Vol. 72, pp. 355-59, Jul.-Aug. 1984).  
 Elettroni, protoni e neutroni hanno delle corrispondenti antiparticlelle stabili con proprietà virtualmente identiche a parte la carica elettrica opposta in segno e la capacità di anichilarsi quando messe a contatto con le loro particelle gemelle, con conseguente rilascio di energia (o altre particelle più leggere) . Essi quindi determinano alcune loro ovvie applicazioni finalizzate all'immagazzinamento di energia. Inoltre, gli oggetti di antimateria (composti da antiparticelle di ordinaria materia) potrebbero avere una utilità come elettrodi negativi in sistemi che impieghino campi elettrostatici di alta energia: tali campi non avrebbero alcuna tendenza a spostare positroni (e altrettanto farebbero con gli elettroni), sicché imporrebbero come limite principale all'intensità del campo il solo rischio di distruzione meccanica della superfice dell'elettrodo. Tali elettrodi dovrebbero, naturalmente, essere fabbricati e posizionati senza entrare in alcun modo in contatto con materia ordinaria. Diverse teorie fisiche predicono una varietà di altre particelle stabili (e persino massicci "filari" analoghi alle particelle), ma tutte dovrebbero essere caratterizzate da una interazione tanto debole quanto quasi impredicibile (analogamente ai neutrini, ma ben più di loro) oppure una interazione davvero massiccia (analogamente agli ipotetici monopoli magnetici). Tali particelle dovrebbero tuttavia risultare di grande utilità applicativa, se solo si riuscisse a riscontrarle. Gli effetti molecolari e di campo utilizzati in uno spettroscopio a risonanza magnetica nucleare modificano l'orientazione di un nucleo, ma non la sua struttura. E' stato suggerito che dei nuclei eccitati potrebbero anche essere sfruttati come "medium" del laser, in un laser a raggi gamma. Prima che i nuclei siano sospinti così vicini l'uno all'altro da interagire, le strutture atomiche associate si fondono per dar forma ad una "materia degenerata" solida, simile al metallo e stabile solo sotto pressioni enormi. Quando i nuclei infine interagiscono, lo scambio di neutroni e di altre particlelle trasmuta ben presto tutti i neutroni in un unico mezzo omogeneo, cancellando la maggior parte degli schemi che si potrebbe tentare di costruire ed utilizzare. Questo è un obiettivo semplice da dichiarare, ma le strutture ottimali (quanto meno dove sia richiesta una notevole resistenza alla compressione) potrebbero risultare piuttosto complesse. I cristalli regolari trasmettono il calore piuttosto bene, il che rende desiderabili le irregolarità, e le irregolarità implicano complessità. Ed in alcuni casi, potremmo persino progettare il sistema migliore possibile, per quanto senza mai avere la certezza che non possa esistere un sistema ancora migliore.  
The Lean Years: Politics in the Age of Scarcity (New York: Simon & Schuster, 1980).  
Entropy: A New World View (New York: Viking Press, 1980).  
A dispetto di questa affermazione, Rifkin ha ancora una volta ingaggiato una nuova crociata morale, questa volta contro l'idea di evoluzione e contro l'idea che gli esseri umani modifichino i geni, persino quel tipo di modifiche che virus e batteri hanno realizzato per milioni di anni. Ancora una volta, egli ammonisce sulle cosmiche conseguenze. Ma a quanto pare crede ancora nel mondo strettamente sigillato e sempre morente già descritto in Entropy: "Viviamo grazie al sacrificio. Ogni amplificazione del nostro essere deve la sua esistenza alla diminuizione di qualcos'altro, da qualche altra parte". Avendo già dimostrato che in Entropy egli illustra una sua erronea comprensione di come funzioni il cosmo, ora egli cerca di avvisarci su quello che vuole: "Gli interessi del cosmo non sono diversi dai nostri […] Cosa dovremmo fare quindi per meglio rappresentare gli interessi del cosmo? Ripagarlo nella stessa misura di quanto abbiamo ricevuto". Ma a lui sembra di vedere che tutte le conquiste umane siano fondamentalmente di carattere distruttivo, portandolo ad affermare che "la sola eredità vivente che potremo mai lasciare è rappresentata dal lascito di ciò che non abbiamo mai toccato" e dichiara che "la vita richiede la morte". Per ulteriori concezioni fallaci e misantrope, vedi Algeny, di Jeremy Rifkin (New York: Viking, 1983). Per una convinta asserzione dell'impossibilità della ingegneria genetica formulata dal profeta ed insegnante di Rifkin, Nicholas Georgescu Roegen, vedi The Entropy Law and the Economic Process (Cambridge, Mass: Harvard University Press, 1971). La transizione demografica - ossia il decremento del tasso medio di nascite che accompagna la crescita economica - è essenzialmente irrilevante ai fini di questa discussione. La crescita esponenziale persino di una minuscola minoranza, trasformerebbe rapidamente tale minoranza in una maggioranza, per poi provocare il consumo di tutte le risorse disponibili. La ragione di ciò è legata ad un'argomentazione dall'essenza strettamente evolutiva. Assumiamo che un'altra civiltà in competizione inizi ad espandersi nello spazio. Quali gruppi troverebbe alla frontiera? Esattamente i gruppi che si espandono più rapidamente. La competizione per l'accesso alla frontiera costituisce una pressione evolutiva che favorisce la massima rapidità di viaggio e di insediamento, e la massima velocità è piccola al confronto della velocità della luce (vedi note al capitolo 6). In cento milioni di anni, tali civiltà si diffonderebbero non solo attraverso le galassie, ma anche attraverso gli spazi intergalattici. Per cui, la circostanza che le civiltà che potrebbero collassare prima di conquistare lo spazio o potrebbero sopravvivere senza espandersi siano mille oppure un milione, è semplicemente irrilevante. Una lezione fondamentale dell'evoluzione è che, dove siano coinvolti i replicatori, un singolo successo non può avere più peso di un illimitato numero di fallimenti. Persino il numero di possibili molecole di DNA lunghe 50 nucleotidi (quattro alla cinquantesima potenza) è più grande del numero di molecole in un bicchiere d'acqua.  
 Donella H. Meadows ed altri (New York: Universe Books, 1972).  
 Mihajlo D. Mesarovic e Eduard Pestel (New York: Dutton, 1974).  

Capitolo 11: Motori di distruzione    

 Ref 11  
 (1) Abbiamo problemi a controllarli nonostante siano composti da macchinario molecolare convenzionale. I batteri sono anch'essi difficili da controllare, e tuttavia essi sono, ad un livello superficiale, quasi completamente indifesi. Ogni batterio potrebbe assomigliare ad una piccola scatola, rigida e priva di bocca - per nutrirsi un batterio deve necessariamente trovarsi immerso in una pellicola d'acqua che possa apportargli nutrienti disciolti che egli possa assorbire. Al contrario, i "super-batteri" basati sugli assemblatori potrebbero funzionare sia in presenza che in assenza di acqua; essi potrebbero nutrire il loro macchinario molecolare con materiali grezzi raccolti da "bocche" capaci di attaccare strutture solide.  
 (2) Vedi "The Fifth Generation: Taking Stock", di M. Mitchell Waldrop (Science, Vol. 226, pp. 1061-63, Nov. 30, 1984), e "Military Robots", di Joseph K. Corrado (Design News, pp. 45-66, Oct. 10, 1983).  
 (3) Per essere più precisi, un oggetto che possa essere assemblato con una possibilità trascurabile di collocare atomi in posizioni sbagliate. Durante l'assemblaggio, il verificarsi di errori può essere reso improbabile in misura arbitraria grazie ad un processo di verifica ripetuta e di correzione (vedi note al Capitolo 4). Per esempio, assumiamo che gli errori siano piuttosto comuni. Assumiamo inoltre che una verifica, di tanto in tanto, possa anche fallire, il che permette ad un errore ogni mille di passare inosservato. In tal caso, una serie di venti verifiche porterebbe la probabilità di fallimento della rilevazione e correzione di un errore ad un valore talmente basso che la probabilità di sbagliare la collocazione di un singolo atomo sarebbe piccola persino nel caso si costruisse un oggetto della dimensione dell'intera Terra. Ma il danneggiamento dovuto a radiazioni (che si verifica ad un tasso proporzionale alla dimensione dell'oggetto e all'età dello stesso) andrebbe eventualmente a modificare la posizione di alcuni atomi originariamente ben posizionati, sicché un tal grado di accuratezza sarebbe comunque ingiustificato.  
 (4) Potrebbe sembrare che una schermatura eliminerebbe questo problema, ma i neutrini, capaci di passare attraverso l'intero spessore della Terra - o di Giove, o del Sole - possono ancora causare danni da radiazioni, sebbene ad un tasso. Vedi "The Search for Proton Decay", di J. M. LoSecco ed altri(Scientific American, Vol. 252, p. 59, June 1985).  
 (5) Vedi "Fault-Tolerant Systems in Commercial Applications", di Omri Serlin (Computer, Vol. 17, pp. 19-30, Aug. 1984).  
 (6) Vedi "Fault Tolerance by Design Diversity: Concepts and Experiments", di Algirdas Avizienis e John P. J. Kelly (Computer, Vol. 17, pp. 67-80, Aug. 1984).  
 (7) Il batterio Micrococcus radiodurans ha, come pare, un ridondante DNA quadruplo che lo mette in grado di sopravvivere a dosi estreme di radiazioni. Vedi "Multiplicity of Genome Equivalents in the Radiation-Resistant Bacterium Micrococcus radiodurans", di Mogens T. Hansen, in Journal of Bacteriology, pp. 7 1-75, Apr. 1978.  
 (8) La correzione degli errori basata su copie multiple è più facile da spiegare, ma I dischi audio digitali (per esempio) utilizzano altri metodi per permettere la correzione degli errori con una minor quantità di informazione ridondante. Per una spiegazione di una comune codifica che consenta la correzione degli errori, vedi see "The Reliability of Computer Memory", di Robert McEliece (Scientific merican, Vol. 248, pp. 88-92, Jan. 1985).  
 (9) Vedi The Society of Mind, di Marvin Minsky (New York: all.com/" Simon & Schuster, 1986).  
 (10) di William A. Kornfeld e Carl Hewitt (MIT Al Lab Memo No. 641, Jan. 1981).  
 (11) La sicurezza non richiederebbe che tutti i sistemi IA siano costruiti in modo da risultare affidabili, fintanto che alcuni risultano affidabili e ci aiutano a pianificare precauzioni per i restanti.  
 (12) Questo è un concetto che è stato sviluppato da Mark Miller e da me; è correlato alle idee discusse in "Open Systems", di Carl Hewitt e Peter de Jong (MIT AI Lab Memo No. 692, Dec. 1982).  
 (13) se non altro perché dei veloci sistemi di IA (come quelli descritti nel capitolo 5) saranno capaci di scovare e correggere errori un milione di volte più velocemente.  
 (14) Vedi "The Role of Heuristics in Learning by Discovery", di Douglas B. Lenat, in Machine Learning, edito da Michalski ed altri (Palo Alto, Calif: Tioga Publishing Company, 1983). Per una discussione dei successi d'evoluzione di programmi appositamente progettati per poter evolvere, vedi pp. 243-85. Per una discussione sugli insuccessi d'evoluzione di programmi pensati per poter evolvere ma non adeguatamente progettati per poterlo fare, vedi pp. 288-92.  
 (15) In mancanza di tali capacità, il "gray goo" potrebbe essere comunque capace di sostituirsi a noi pur e tuttavia ancora incapace di evolvere in qualcosa di interessante.  
 (16) I calcoli consentirebbero al sistema di raffigurarsi strutture molecolari che non sono state direttamente e puntigliosamente caratterizzate. Ma i calcoli potrebbero condurre a risultati ambigui in particolari casi estremi in cui i risultati effettivi potrebbero anche dipendere da rumore termico o effetti"tunnel. In questi casi, la misurazione di un piccolo numero di posizioni atomiche su atomi opportunamente scelti (misura effettuata da sonde dirette meccanicamente sulla superficie del pezzo di lavoro) dovrebbe essere sufficiente a distinguere fra le varie possibilità, permettendo così di correggere i calcoli. Questo può anche correggere eventuali errori nei calcoli riguardanti le caratteristiche strettamente geometriche della costruzione di grosse strutture.  
 (17) Come descritto, questi livelli di sensori devono venir penetrati da cablaggi, i quali potrebbero apparentemente implicare un problema di sicurezza: cosa succederebbe se qualcuno cercasse di penetrare al di sotto dei livelli dei sensori sfruttando come scorciatoia la strada messa a disposizione dai cablaggi stessi? In pratica, qualunque cosa possa trasmettere segnali e alimentazione energetica (incluse le fibre ottiche, i sistemi di trasmissione meccanica, e così via) potrebbe essere utilizzato in luogo dei cablaggi. Questi canali potrebbero essere resi sicuri basando la loro realizzazione su materiali con proprietà estreme: se un cavo molto fine è realizzato col più conduttivo fra i materiali conduttori esistenti, o se un sistema di trasmissione meccanica è fabbricato con il materiale più forte che si conosca (e viene utilizzato sotto sforzi vicini al suo punto di rottura), allora qualunque tentativo di sostituire un segmento del cavo o del materiale con qualcos'altro (ad esempio un replicatore in fuga) risulterebbe in una resistenza elettrica più grande o in una parte fratturata. In tal modo, gli stessi sistemi di trasmissione possono agire da sensori. Allo scopo di offrire ridondanza e diversificazione progettuale, livelli di sensori differenti potrebbero essere penetrati da differenti sistemi di trasmissione, ognuno dei quali trasmetta segnali ed energia ai successivi.  
 (18) Ma come si potrebbe fare perché le persone dimentichino? Ciò non sarebbe realmente necessario, poiché la loro conoscenza risulterebbe dispersa. Nello sviluppo dei moderni sistemi hardware, gruppi differenti lavorano su parti differenti; essi non hanno bisogno di conoscere cosa sia la parte sviluppata da un altro gruppo (e tanto meno come sia fatta), poiché ciò che gli interessa davvero è solo il modo in cui essa interagisce col resto. In questo modo la gente ha raggiunto la Luna, nonostante nessuna persona o nessun gruppo abbia mai saputo come si faccia; da questo punto di vista, essi potrebbero paragonarsi ad assemblatori.  
 Poiché i primi progetti di assemblatori verrebbero a costituire dei documenti storici, sarebbe meglio conservarli in modo sicuro, piuttosto che distruggerli. Infine essi potranno divenire parte della letteratura liberamente accessibile. Ma nascondere le informazioni di progetto costituirà un pagliativo, nella migliore delle ipotesi, poiché sarà ben più difficile mantenere segreti i metodi utilizzati per la progettazione del primo sistema assemblatore. Inoltre, i laboratori sigillati per assemblatori potrebbero essere utilizzati per sviluppare e collaudare macchine che possano fabbricare assemblatori, persino macchine che di per se stesse possono essere fabbricare senza assemblatori.  
 (19) I laboratori sigillati per assemblatori possono funzionare a dispetto di ciò. Essi non proteggono il loro contenuto dalll'esterno; infatti sono progettati per distruggere il loro contenuto quando subiscono delle interferenze dall'esterno. Piuttosto, essi proteggono l'esterno da loro contenuto - e i loro ambienti di lavoro sigillati sono troppo piccoli per contenere qualsiasi sistema di grossa scala, sia questo malizioso o meno.  
 (20) Nell'esempio citato, entità organizzate vengono sguinzagliate contro entità del tutto analoghe. Queste entità potrebbero, naturalmente, essere vaporizzate da bombe all'idrogeno, ma a fronte della prospettiva di una ritorsione analoga, nessun attaccante ha ancora visto alcun vantaggio nello sferrare un attacco nucleare.  
  
Capitolo 12: Strategie e sopravvivenza    

 ... occupy hostile powers ... In linea di principio, questa dovrebbe contenersi in una forma minima di occupazione, che ha controllo dei soli laboratori di ricerca, ma ottenere anche soltanto questo richiederebbe un grado di coercizione approsimativamente equivalente a quello di una conquista.  

 ... as open as possible ... Potrebbe esser possibile escogitare una forma di ispezione che doti ogni gruppo di una grande consocenza di quello che un sistema in corso di sviluppo sarà (e non sarà) in grado di fare, senza che questi gruppi imparino come sono fatti questi stessi sistemi. Lo sviluppo compartimentalizzato dei componenti di un sistema potrebbe, in linea di principio, consentire a diversi gruppi di cooperare senza che ci sia alcuno gruppo individuale in grado di utilizzare indipendentemente un sistema analogo.  

 ... we naturally picture human hands aiming it ... Per una discussione riguardante una possibile navetta spaziale autonoma vedi "Expanding Role for Autonomy in Military Space", di David D. Evans e Maj. Ralph R. Gajewski (Aerospace America, pp. 74-77, Feb. 1985). Vedi anche "Can Space Weapons Serve Peace?" di K. Eric Drexler (L5 News, Vol. 9, pp. 1-2, Jul. 1983).  

 ... while providing each with some protection ... Dire che una difesa simmetricamente efficace al 50% non avrebbe nessun valore è come dire che una riduzione bilaterale del 50% del numero di missili nucleari - un vero e proprio passo avanti nel campo del controllo degli armamenti, non sarebbe di alcun valore. La praticità di una tale difesa è tutta un'altra questione. Finchè delle difese attive realmente buone non diventeranno possibili, la questione non è se si possa rendere un attaccco nucleare innocuo, ma almeno se lo si possa rendere meno probabile.  

 ... limiting technology transfer ... Di fatto, il Presidente Reagan ha parlato di cedere la tecnologia di difesa spaziale U.S.A. all'Unione Sovietica. Vedi il New York Times, p. A15, March 30, 1983. Vedi anche - "Sharing Star Wars: technology with Soviets a distant possibility, says head of Pentagon study group", di John Horgan (The Institute, p. 10, Mar. 1984). Richard Ullman, professore di politica internazionale presso la Princeton University, ha proposto un programma di difesa congiunto accompagnato da una estesa condivisione di tecnologia; vedi "U.N.-doing Missiles" (New York Times, p. A23, Apr. 28, 1983). In linea di principio, un progetto congiunto potrebbe procedere con poco trasferimento di conoscenza tecnologica. C'è una grande differenza fra (1) conoscere ciò che un dispositivo non può fare, (2) conoscere ciò che può fare, (3) conoscere cosa sia, e (4) conoscere come costruirlo. Queste quattro cose individuano quattro distinti livelli di conoscenza, ognuno (più o meno) independente dal livello successivo. Per esempio, se vi mettessi fra le mani una scatola di plastica, un'esame superficiale potrebbe convincervi che non può volare ne sparare pallottole, ma non potrebbe mettervi in grado di dire che cosa può fare. Una dimostrazione pratica potrebbe allora convincervi che essa può servire come un telefono mobile. Analizzandola più approfonditamente potreste stilare una tracciatura dei suoi circuiti e guadagnarne una eccellente idea di cosa essa sia e di quali siano i suoi limiti operativi. Ma non necessariamente conoscereste ancora come costruirne una. L'essenza di una difesa attiva sta in quello che non può fare- ossia il fatto che non può essere utilizzata come un'arma. Per condurre un progetto congiunto sulle difese attive basato su componenti d'alta tecnologia, si dovrebbe aver bisogno di condividere conoscenza principalmente ai livelli (1) e (2). Ciò richiedera al limite una limitata conoscenza di livello (3), ma non necessita di richiedere alcuna conoscenza di livello (4).  

 ... basic issues common to all active shields ... Come quello del loro controllo, del loro scopo e della loro affidabilità, e come la questione fondamentale della comprensione politica e dell'accettazione.  

Capitolo 13: Scoprire i fatti    

 (1) come citato da John B. Slaughter , direttore dell' NSF (Time, p. 55, June 15, 1981).  
 (2) sottotitolato "Scientists in the Political Arena", di Joel Primack e Frank von Hippel (New York: Basic Books, 1974).  
 (3) in Creating Alternative Futures: The End of Economics (New York: Berkley Publishing, 1978).  
 (4) in The Human Future Revisited: The World Predicament and Possible Solutions (New York: Norton, 1978).  
 (5) Per una discussione sui guasti all'impianto nucleare di Three Mile Island, ed una discussione su (1) il considerevole grado di accordo sui problemi raggiunto da un pannello di esperti e (2) come i media abbiano straziato la storia, e (3) come il giverno federale abbia fallito a rispondere alla realtà, vedi "Saving American Democracy", di John G. Kemeny, presidente del Dartmouth College e capo della commissione presidenziale su Three Mile Island (Technology Review, pp. 65-75, June/July 1980). Egli conclude che "il sistema attuale non funziona".  
 (6) Cosa ancor peggiore, due persone possono concordare sui fatti e sui valori di base (diciamo, che la salute sia bene e l'inquinamento male) e tuttavia essere in disaccordo riguardo alla costruzione di una fabbrica - una persona potrebbe essere più preoccupata riguardo alla salute, e l'altra riguardo all'inquinamento. Nei dibattiti emotivi, ciò può portare ognuna delle due parti ad accusare l'altra di perseguire valori pervertiti, come quello di favorire la povertà o non preoccuparsi per nulla dell'ambiente. La nanotecnologia aiuterà a risolvere questi conflitti poiché modificherà la posta in gioco. Poiché possiamo avere più benessere e contemporaneamente molto meno inquinamento, I vecchi avversari potrebbero sempre più spesso scoprirsi in accordo.  
 (7) Vedi "The Scientific Community Metaphor", di William A. Kornfeld e Carl Hewitt (MIT AI Lab Memo No. 641, Jan. 1981); vedi anche la discussione sul "ragionamento per un giusto processo" in "The Challenge of Open Systems", di Carl Hewitt (Byte, Vol. 10, pp. 223-41, April 1985).  
 (8) Queste procedure potrebbero essere redatte utilizzando altri canali di comunicazione, come le riviste e I giornali scientifici, piuttosto che tramite l'incontro faccia a faccia; giudicare la verosimiglianza di una affermazione dal modo in cui essa viene pronunciata è cosa utile nel caso dei tribunali giudiziari, ma gioca un ruolo di importanza molto minore nella scienza.  
 (9) La sua idea risale allla metà degli anni '60. Vedi la sua discussione in "Controlling Technology Democratically" (American Scientist, Vol. 63, pp. 505-9, Sept.-Oct. 1975).  
 (10) E questo è appunto l'utilizzo originario del termine "tribunale della scienza", e molti critici dell'idea del giusto processo hanno fatto riferimento a questo aspetto della proposta. L'approccio del forum dei fatti è invece geniunamente differente; il dottor Kantrowitz al momento presenta l'idea dei forum dei fatti sotto la denominazione "Procedura di Antagonismo Scientifico".  
 (11) I quali esperti hanno tracciato nel 1960 una proposta di programma spaziale per l'Air Force (l'aeronautica militare). Tale proposta poneva enfasi sul fatto che imparare ad assemblare dei sistemi in orbita Terrestre (ossia sistemi come stazioni spaziali e navette lunari) fosse almeno altrettanto importante della costruzione di propulsori più grossi e potenti. Durante il successivo dibattito riguardante il modo per raggiungere la Luna, Kantrowitz ha proposto argomentazioni a sostegno del fatto che l'assemblaggio in orbita Terrestre sarebbe stato forse dieci volte meno dispendioso dell'approccio, che fu infine scelto, basato su razzi gigantesci e rendezvous in orbita lunar. Ma intervennero dei fattori politici, e questi argomenti non ricevettero mai una adeguata attenzione pubblica. Vedi "Arthur Kantrowitz Proposes a Science Court", una intervista di K. Eric Drexler (L5 News, Vol. 2, p. 16, May 1977).  
 Per un resoconto su un'altro abuso su decisioni tecniche verificatosi durante il programma Apollo, vedi The Heavens and the Earth: A Political History of the Space Age, di William McDougall, pp. 315-16 (New York: Basic Books, 1985).  
 (12) La quale è descritta in "The Science Court Experiment: An Interim Report", dalla Task Force del Gruppo di Consulenza Presidenziale per la previsione dei progressi scientifici-tecnologici (Science, , pp. 653-56, Aug. 20, 1976).  
 (13) vedi "Proceedings of the Colloquium on the Science Court", Leesburg, Virginia, Sept. 20-21, 1976 (National Technical Information Center, document number PB261 305). Per un riassunto ed una discussione sui pareri critici espressi durante il colloquio, vedi "The Science Court Experiment: Criticisms and Responses," di Arthur Kantrowitz (Bulletin of the Atomic Scientists, Vol. 33, pp. 44-49, Apr. 1977).  
 (14) La formazione dell'instituto Health Effects Institute of Cambridge, Massachusetts, creato nel 1980 per conciliare le posizioni di parti antagoniste in materia di inquinamento atmosferico, ha rappresentato un passo intrapreso verso questa direzione. Vedi "Health Effects Institute Links Adversaries", di Eliot Marshall (Science,Vol. 227, pp. 729-30, Feb. 15, 1985).  
 (15) Una questione aperta è quale debba essere l'estensione di procedure non pubbliche, e che incorporino principi di giusto processo, tale da migliorare il giudizio di informazione classificate.  
 (16) Riportato in "Science court, would tackle knotty technological issues", di Leon Lindsay (Christian Science Monitor, p. 7, Mar. 23, 1983). Informazioni più recenti  [Nota: Informazioni più recenti in "Twenty-Five Year Retrospective on the Science Court", disponibile sul world wide web presso:
http://www.fplc.edu/risk/sciCt.htm ]  
 (17) Vedi Getting to Yes (Boston: Houghton Mifflin Company, 1981).  
 (18) Le procedure descritte qui riguardano questioni a "bilaterali", ma ciò sembrerebbe essere troopo limitato, piochè di solito le " questioni", quantomeno per come sono comunemente comprese, spesso presentano molte facce. Nei dibattiti sull'energia, per esempio, esistono sostenitori per ognuna delle fonti energetiche seguenti: gas, carbone, nucleare, energia solare. Tuttavia, le questioni multifaccia contengono molte questioni componenti che sono propriamente "a due faccie": La probabilità della fusione di un reattore nucleare è elata o bassa? Gli effetti della combustione di carbone sulle piogge acide sono esigui o rilevanti? Un collettore solare ha un basso o alto costo d'utilizzo? Le riserve naturali di gas sono estese o esigue? Le questioni multifaccia si risolvono così, alle loro radici fattuali, in numerose microquestioni. Scienziati e i progettisti giudiziosi raramente discutono su un numero così alto, opure così basso, di questioni; essi dibattono il numero di questioni che pensano essere il più probabilmente adatto, o semplicemente quello attestato dalla evidenza. Ma poiché il fatto di istituire e condurre un forum presuppone una disputa, ne verranno coinvolti sostenitori di una o di un'altra parte, ed ogni gruppo di sostenitori vorrà spingere il più possibile in una determinata direzione - gli avvocati pro-nucleare vorranno dimostrare che i reattori sono molto economici e sicuri; i loro antagonisti vorranno provare che sono molto costosi e mortali. Poiché i numeri che misurano costi e rischi, possono solo essere più grandi o più piccoli di quelli sostenuti dalla parte avversa, queste micro-questioni tendono spontaneamente ad assumere una impostazione bilaterale.  

Capitolo 14: La rete della conoscenza   

 (1) Il quale è un professore della Tokyo University nonché a capo del Japan's Fifth Generation Computer Project.  
 (2) Il loro approccio all'ipertesto, ora allo stadio di dimostrazione, è denominato sistema Xanadu. Ho esaminato le strutture dati proprietari sulle quali il losro sistema è basato, ed da queste risulta chiaro che sulla loro base sia possibile realizzare potenti sistemi ipertestuali. Per un sistema meno ambizioso e tuttavia piuttosto completo, vedi "A Network-Based Approach to Text-Handling for the Online Scientific Community", una tesi di Randall H. Trigg (University of Maryland, Department of Computer Science, TR-1346, Nov. 1983).  
 (3) Vedi Computer Lib/Dream Machines (aut-pubblicato, distribuito da The Distributors, South Bend, Ind., 1974), e Literary Machines (Swarthmore, Pa: Ted Nelson, 1981). Computer Lib è una visione intrigante e idiosincratica dei computer e del loro potenzial, ipertesti inclusi; una nuova edizione è in preparazione. Literary Machines si concentra invece esclusivamente sugli ipertesti.  
 (4) a p. 76, June 13, 1983.  
 (5) Un sistema ipertestuale potrebbe immagazzinare tutta l'informazione che viene più comunemente utilizzatain casa, o in una locare biblioteca secondaria. I compact disk del tipo usato per registrazioni audio costano circa tre dollari di manifattura e possono immagazzinare altrettanto testo di 500 libri. Vedi "Audio Analysis II: Read-only Optical Disks", di Christopher Fry (Computer Music Journal, Vol. 9, Summer 1985).  

Capitolo 15: Abbondanza di mondi e tempo    

 (1) Ma i limiti della crescita esponenziale assicurano che una abbondanza universale e incondizionata non può procedere indefinitamente. Questo solleva interrogativi riguardo la distribuzione e la proprietà delle risorse dello spazio. Dovrebbero essere considerati tre approcci di base. Uno di questi approcci è il "primo-arrivato, primo-servito", come è in uso per l'aquisizione della proprietà derivante dal suo utilizzo, nel caso di un terreno di coltura o un sito minerario. Questo approccio ha radici nel principio Lockeano che la proprietà possa essere stabilita dal valore aggiunto tramite il proprio lavoro ad una risorsa precedentemente sconosciuta. Ma ciò consentirebbe ad una persona dotata di adeguati replicatori di perdersi nello spazio - e di conseguenza reclamare - ogni oggetto non reclamato nell'universo, con la stessa rapidità con cui esso può essere raggiunto. Questo approccio del vincitore-piglia-tutto ha ben scarsa giustificazione morale, e potrebbe comportare conseguenze spiacevoli. Un secondo approccio estremo potrebbe essere quello di distribuire equamente la proprietà delle risorse spaziali fra tutta la gente, e continuare a redistribuirla per conservare l'equità della distribuzione. Questo approccio, come l'altro, potrebbe avere delle conseguenze spiacevoli. In assenza di limitazioni universali, stringenti e compulsive sulla generazione di prole, alcuni gruppi continuerebbero a svilupparsi esponenzialmente; i principi evolutivi garantiscono virtualmente che ciò accada. In un tempo sorprendentemente breve, il risultato di una redistribuzione senza fine sarebbe quella di trascinare gli standard di qualità della vita di ogni essere umano giù verso il livello minimo compatibile con la riproduzione di ogni gruppo. Il che significherebbe fame e povertà molto più estreme ed universali di quella di un qualunque paese del Terzo Mondo. Se il 99 percento della razza umana limitasse volontariamente il suo tasso di nascita, ciò consentirebbe semplicemente al restante un percento di espandersi fino ad assorbire quasi tutte le risorse. Un terzo approccio di base (che presenta la possibilità di parecchie variazioni) è quello di percorrere una via di mezzo: tale approccio implica la equa distribuzione fra tutta la gente della proprietà delle risorse spaziali (una proprietà autentica, permanente e trasferibile) - ma fatta soltanto una volta, lasciando poi che la gente provveda da sola alla propria progenie (o a quella di altri) sfruttando la propria vasta porzione di opulenza spaziale. Ciò consentirebbe a gruppi differenti di perseguire futuri differenti, e ricompenserebbe la frugalità piuttosto che la proliferazione. Tale approccio può rappresentare il fondamento per un futuro di diversità illimitata, se verranno impiegati scudi attivi per protegerre la gente dall'agressione e dalla razzia. Nessuno ha ancora prospettato una alternativa valida a questo approccio. Da una prospettiva socialista, questo approccio significa uguale ricchezza per tutti. Da una prospettiva liberista, essa non aliena il diritto di libertà di nessuno e fornisce una base per un futuro di libertà. Nei termini utilizzati da Thomas Schelling, una divisione equa è una soluzione cruciale di un gioco di coordinazione (vedi The Strategy of Conflict, di Thomas Schelling, Cambridge, Mass: Harvard University Press, 1960). Cosa sia una "equa divisione" tuttavia, al momento rappresenta una questione controversa che è meglio lasciare ai legislatori. Perchè questo approccio possa funzionare, deve essere raggiunto l'accordo non solo sul principio della divisione, ma anche su una data. Lo spazio è stato dichiarato, a mezzo di trattati, come "partimonio comune dell'intera umanità", è abbiamo bisogno di scegliere un "Inheritance Day" ([NdT]: un "Giorno dell'Eredità"ossia una data ufficiale in cui la razza umana "eredita" lo spazio - una etichetta verbale creata per assonanza con "Indipendence Day", la ricorrenza del 12 Aprile che commemora la proclamazione d'indipendenza degli Stati Uniti dall'Inghilterra coloniale) . L'analisi di Schelling suggerisce l'importanza, in un gioco di coordinazione, di trovare una proposta specifica e plausibile per stabilire al più presto possibile tale data, rendendo pienamente visibile a tutti. Egli stesso ha qualche data da suggerire? Un certo numero di anniversari correlati alle vicende dell'esplorazione spaziale sembrerebbero date appropriate, se non fosse che queste sono legate in modo mutuamente esclusivo ai successi spaziali Statunitensi oppure a quelli Sovietici, o ancora che si tratti di date troppo prossime, o troppo vicine ad una data millenaria. Queste restrizioni possono comunque essere soddisfatte; la data candidata più plausibile è il 12 Aprile 2011, in cui ricorrerà sia il trentesimo anniversario del primo volo di quella che è stata la prima navetta spaziale riutilizzabile del mondo, lo space shuttle, sia il cinquantesimo anniversario del volo del primo umano nello spazio, Yuri Gagarin. Se, prima di questa data, qualcuno trovasse e sfruttasse un mezzo per innalzzare il ritmo di riproduzione umana di un fattore dieci o più, allora lo "Inheritance Day" dovrebbe essere immediatamente essere reso retroattivo all'April 12 del precedente anno, e i dettagli del successivo trattato redisposti, in conseguenza, più tardi.  
 (2) Gli scudi attivi possono soddisfare questo requisito di affidabilità solo grazie all'utilizzo della ridondanza e di ampi margini di sicurezza.  
 (3) Per una discussione della apparente impossibilità della macchina del tempo secondo la teoria della relatività generale, vedi "Singularities and Causality Violation" di Frank J. Tipler in Annals of Physics, Vol. 108, pp. 1-36, 1977. Tipler è di mentalità aperta; nel 1974 ha discusso a questo proposito dell' eventualità alternativa.  
 (4) Gli schemi frattali sono composti da parti simili poste su scali differenti -  un po' come un ramoscello che potrebbe assomigliare ad un ramo il quale a sua volta assomiglia ad un albero, o come rivoletti, ruscelli e fiumi possono richiamare ognuno la forma di ogni altro. Vedi The Fractal Geometry of Nature, di Benoit B. Mandelbrot (San Francisco: W. H. Freeman, 1982).  

Note alla posftazione del 1985    
  
 (1) Le informazioni in questo paragrafo provengono da Kevin Ulmer, che è stato precedentemente direttore dell' Exploratory Research presso la Genex ed attualemnte è direttore del Center for Advanced Research in Biotechnology (istituito, fra gli altri, dalla università del Maryland e dal National Bureau of Standards, among others). Il gruppo presso l' NBS ha combinato una simulazione quantomeccanica di circa quaranta atomi posti in prossimità di un sito attivo di un enzima, con una simulazione Newtoniana del resto della molecola; questa combinazione di tecniche è del tipo necessario per descrivere sia l'azione meccanica di un braccio d'assemblatore che la redisposizione di legami operata dai suoi utensili.  
 (2) I progressi in questa area sono riassunti da E. J. Corey ed altri in "Computer-Assisted Analysis in Organic Synthesis", (Science, Vol. 228, pp. 408-18, Apr. 26, 1985).  
 (3) (Comunicazione privata da Forrest Carter.)  
 (4) in "When Chips Give Way to Molecules", (The Economist, Vol. 295, pp. 95-96, May 11, 1985).  
 (5) Queste procedure hanno esaminato le armi e i sistemi di computer proposti per il sistema difensivo basato su missili balistici. Il primo processo è stata condotto da Richard Garwin e Edward Gerry ed il secondo fra Herbert Lin e Charles Hutchinson; tutti e quattro sono attivisti piuttosto noti, sebbene schierati su posizioni opposte, riguardo questi temi. Fra le dozzine di affermazioni su cui si è raggiunto u accordo mutuo, ci sono le seguenti: (1) che non si conosce alcun limite fondamentale, eccetto il costo, per l'alimentazione energetica e per l'intensità luminosa dei laser, e (2) che avere programmi software scevri da errori non è un rquisito indispensabile perché la difesa possa funzionare, ma (3) che nessun sistema fra quelli che tuttora sono stati pubblicamente presentati è al tempo stesso sia realizzabile sul piano dei costi che in grado di sopravvivere ad un attacco. (Fonte: comunicazione privata da Arthur Kantrowitz.)  
 (6) Vedi "Personal Computers on Campus", di M. Mitchell Waldrop (Science, Vol. 228, pp. 438-44, April 26, 1985).  

Note alla postfazioe del 1990    

 (1) Una buona panoramica su questo ed altri lavori correlati può essere trovata in "Protein Design, a Minimalist Approach", di William F. DeGrado, Zelda R. Wasserman, e James D. Lear (Science,Vol. 243, pp. 622-28, 1989).  
 (2) Di particolare interesse sono gli articoli che riportano gli studi di questi due ricercatori tuttora attivi, per i quali hanno ottenuto il Nobel. Vedi "Supramolecular Chemistry - Scope and Perspectives: Molecules, Supermolecules, and Molecular Devices", di Jean-Marie Lehn (Angewandte Chemie International Edition in English, Vol. 27, pp. 89-112, 1988) e "The Design of Molecular Hosts, Guests, and Their Complexes", di Donald J. Cram (Science, Vol. 240, pp. 760-67, 1988).  
 (3) Vedi "Molecular Manipulation Using a Tunnelling Microscope", di J. S. Foster, J. E. Frommer, e P. C. Arnett (Nature, Vol. 331, pp. 324-26, 1988).  
 (4) Il software utile alla progettazione ausiliata da computer di molecole proteiche è stato descritto in "Computer-Aided Model-Building Strategies for Protein Design", di C. P. Pabo e E. G. Suchanek (Biochemistry, Vol. 25, pp. 5987-91, 1986) ed in "Knowledge-Based Protein Modelling and Design", di Tom Blundell ed altri (European Journal of Biochemistry, Vol. 172, pp. 513-20, 1988); un programma che ha quanto si dice ha prodotto risultati eccellenti, nella progettazione di impacchettamenti di catene laterali idrofobiche per zone-fulcro di proteine, è descritto da Jay W. Ponder e Frederic M. Richards in "Tertiary Templates for Proteins" (Journal of Molecular Biology, Vol. 193, pp. 775-91, 1987). Questi ultimi autori hanno anche svolto del lavoro sulla modellazione molecolare (un campo immenso ed attivissimo); vedi "An Efficient Newton-like Method for Molecular Mechanics Energy Minimization of Large Molecules" (Journal of Computational Chemistry, Vol. 8, pp. 1016-24, 1987). Le tecniche computazionali derivano dalla meccanica molecolare e sono state usate per costruire modelli degli effetti quantistici associati al moto molecolare (una cosa ben diversa dalla modellazione quantomeccanica di elettroni e legami chimici) vedi "Quantum Simulation of Ferrocytochrome c", di Chong Zheng ed altri (Nature, Vol. 334, pp. 726-28, 1988).  
 (5) vedi "Machines of Inner Space", di K. Eric Drexler, in 1990 Yearbook of Science and the Future, edito da D. Calhoun, pp. 160-77 (Chicago: Encyclopaedia Britannica, 1989).  
 (6) I quali includono i miei seguenti articoli (che saranno raccolti e riscritti come parti del mio libro tecnico in lavorazione): "Nanomachinery: Atomically Precise Gears and Bearings", publicato in Proceedings of the IEEE Micro Robots and Teleoperators Workshop (Hyannis, Massachusetts: IEEE, 1987); "Exploring Future Technologies", in The Reality Club, edito da J. Brockman, pp. 129-50 (New York: Lynx Books, 1988); "Biological and Nanomechanical Systems: Contrasts in Evolutionary Capacity", in Artificial Life, edito da C. G. Langton, pp. 501-19 (Reading, Massachusetts: Addison-Wesley, 1989); e "Rod Logic and Thermal Noise in the Mechanical Nanocomputer", in Molecular Electronic Devices III, edito da F. L. Carter (Amsterdam: Elsevier Science Publishers B.V., in corso di stampa). Per informazioni sulla disponibilità di articoli tecnici, si prega di contattare il Foresight Institute presso l'indirizzo citato nelle postfazioni.  


Torna all'Indice

 

Tecnofascismo? No grazie.

  • Una serie di articoli su sovrumanismo e dintorni e sui motivi che hanno spinto Estropico ad andarsene dalla Associazione Italiana Transumanisti.
  • Aggiornamenti (su Estropico Blog)

Varie