Nick Bostrom

BTexact Technologies white paper
Warren Buffett
Arthur C. Clarke
Eric Drexler
Robert A. Freitas Jr.
Stephen Hawking
Bill Joy
Ray Kurzweil
Donald H. Rumsfeld
Carl Sagan
Mark Shuttleworth
Vernor Vinge


Nick Bostrom, winner of a Templeton Foundation grant, cofounder of The World Transhumanist Association, also a professor at Yale.

"Allo stato attuale del progresso scientifico e tecnologico, c'è una reale possibilità di ottenere molecole e intelligenze artificiali entro la prima metà di questo secolo. Ciò crea qualche considerevole pericolo. In uno scenario pessimistico la vita sulla terra potrebbe sparire."
 
"Sviluppare nanotecnologie sembra più realistico che sviluppare effettive difese contro di esse (un sistema 'immunitario attivo'')."
 
"Il nostro approccio di fronte a questo pericolo esistenziale non può basarsi sullo sbaglia e riprova. Non c'è possibilità di imparare dagli errori. L'approccio reattivo— vedere che succede, limitare i danni, capire dall'esperienza— non è percorribile . Dobbiamo invece usare un approccio predittivo. Ci viene richiesta la capacità di anticipare nuovi tipi di scenari e prendere decisioni di tipo morale ed economico in seno a tali scenari."
 
"Il paradosso di Fermi si riferisce al punto al dubbio che incombe sul dato di fatto che non sono stati constatati segni di vita extraterrestre. Tale dato sta a indicare l'impossibilità dell'evoluzione della vita in una percentuale significativa dei pianeti dalle caratteristiche similari a quelle della Terra; esso indica anche che non è possibile che questa vita poi si evolva sino a sviluppare tecnologie avanzate utilizzandole per colonizzare l'Universo, perché ciò sarebbe stato rilevato dagli strumenti tecnici in nostro possesso.
Ci deve essere un punto di confine— un passo evolutivo estremamente improbabile, al limite— il cui rado di civiltà massima raggiungibile sia in qualche modo misurabile.Se metodo di individuazione di questo limite non è nel nostro passato, dobbiamo cercarlo nel futuro. Probabilmente infatti, una civiltà che sviluppa un elevato grado di tecnologia causa la sua autodistruzione."


BTexact Technologies white paper.

"E' chiaro da questa sezione che noi stiamo inventando modi sempre più precisi di distruggere noi stessi, e il rischio si fa via via sempre maggiore...."
 
A partire dal 2005 ci sarà una progressiva 'autodistruzione biotecnologica causata da ricercatori maldestri' e "il terrorismo supererà le capacità di autodifesa dei governi".


Warren Buffett, the world's second wealthiest man, known as the 'Oracle of Omaha' for his astute investments.

"Non importa prevedere il diluvio ma è importante costruire l'arca..."
 
"La paura può diminuire col tempo, ma il pericolo non lo farà — la guerra contro il terrorismo non potrà mai essere vinta."


Arthur C. Clarke, the prophetic SF author who in 1945 predicted a world linked by geostationary satellites.

"Questo terrorismo è un pericolo tangibile così difficile da individuare così come lo sono le maniere per combatterlo .... ".

Eric Drexler, founder of the Foresight Institute, and founder of the nanotechnology movement.

Le piante con foglie non di più efficienti di odierne pile
solari potrebbero entrare in competizione con le piante reali, ammucchiando nella biosfera un fogliame non commestibile. I batteri onnivori resistenti terranno testa ai batteri reali: potrebbero spargersi come polline, diffondersi rapidamente e ridurre la biosfera a
polvere in pochi giorni. I replicanti pericolosi potrebbero
facilmente essere troppo resistenti, piccoli e veloci da spargersi per
e riprodursi fino alla saturazione- almeno se non ci prepariamo per tempo. Abbiamo già abbastanza difficoltà a controllare virus e batteri della frutta....
Dalla nascita delle nanotecnologie questo fenomeno è conosciuto come il , 'gray goo problem', il problema Gray Goo.


Masse incontrollate di replicanti 'pensanti' devono per forza essere grigie (gray) e (gooey) ; il termine 'gray goo' enfatizza il fatto che that replicators able to obliterate life might be less inspiring than a single species of crabgrass. They might be superior in an evolutionary sense, but this need not make them valuable.

 Il pericolo Gray Goo ha reso una cosa perfettamente chiara : non possiamo affrontare un certo tipo di problemi con assemblatori replicanti .
 
Il gray goo potrebbe essere, anche solo a causa dell'errore commesso in
un piccolo laboratorio, la fine dell'umanità intera....."

Robert A. Freitas Jr., ricercatore e scienziato alla 'Zyvex LLC' che è la prima compagnia di nanotecnologie della terra.

"Specific public policy recommendations suggested by the results of the present analysis include:
 
An immediate international moratorium on all artificial life experiments implemented as nonbiological hardware. In this context, 'artificial life' is defined as autonomous foraging replicators, excluding purely biological implementations (already covered by NIH guidelines tacitly accepted worldwide) and also excluding software simulations which are essential preparatory work and should continue. Alternative 'inherently safe' replication strategies such as the broadcast architecture are already well-known."


Stephen Hawking, famoso cosmologo che ha scoperto che i buchi neri non sono completamente neri, ma emettono radiazioni e spesso evaporano scomparendo....

"Nel lungo termine mi preoccupa soprattutto la biologia. Le armi nucleari presuppongono grandi mezzi e conoscenze, mentre l'ingegneria genetica può essere sviluppata in un piccolo laboratorio. Non possiamo tenere sotto controllo tutti i laboratori del mondo. Il pericolo è che chiunque , sia che segua un progetto, sia che lo faccia accidentalmente, può creare un arma biologica letale....."
 
"Penso che l'umanità non sopravviverà ai prossimi cento anni a meno che non scappiamo nello spazio...."


Bill Joy, inventore dell' 'Unix word processor vi'. Cofondatore e scientista di 'Sun Microsystems'.

"Siamo entrati nel nuovo secolo senza armi di difesa, controllo e capacità previsionale...."
 
"Ma molte persone che conoscono i pericoli a cui andiamo incontro sono stranamente silenziose. Messe sotto pressione, ribadiscono che 'non c' niente di nuovo'- come se il pericolo di ciò che potrebbe succedere non sia abbastanza."
 
"...se la nostra distruzione passa per lo sviluppo tecnologico allora bisognerà procedere con estrema cautela....."


Ray Kurzweil, autore profetico nel 1960l, del libro' The Age of Intelligent Machines ' (l'era delle macchine intelligenti) dove annunciava l'avvento dell'intelligenza artificiale.

"...presto ci saranno laboratori attrezzati per creare germi patogeni più letali delle peggiori armi nucleari....."

Donald H. Rumsfeld, Segretario della difesa.

"Ciò che il presidente diceva al mondo è che ci sono situazioni , nel mondo attuale, che creano presupposti diversi e distinti da quelli che si sono creati in altre epoche e tali presupposti vanno sottolineati. Il mondo ha il dovere di capire che esiste una possinilità enorme che milioni di persone muoiano o vengano uccise."

Carl Sagan, astronomo americano, planetologo, biologo, e divulgatore di ricerche scientifiche e spaziali.

"O si scapperà sullo spazio o ci si estinguerà......"

Mark Shuttleworth, secondo turista spaziale della terra.

"Avete avuto un'ottima idea! Siete sulla buona strada! Buona fortuna per il progetto!!"

Vernor Vinge, matematico, scienziato, e scrittore capace di prevedere la nascita di Internet dal 1981 e la 'Singolarità' nel 1993.

"Se la singolarità non può essere nè prevista nè delimitata, quanto sarà dura e difficile l'era post-umana? Beh ...sarà molto dura. L'estinzione fisica dell'umanità è una possibilità.... "