Nick Bostrom
BTexact Technologies white paper
Warren Buffett
Arthur C. Clarke
Eric Drexler
Robert A. Freitas Jr.
Stephen Hawking
Bill Joy
Ray Kurzweil
Donald H. Rumsfeld
Carl Sagan
Mark Shuttleworth
Vernor Vinge
Nick
Bostrom, winner of a Templeton Foundation grant, cofounder of
The World Transhumanist Association, also a professor at Yale.
"Allo stato attuale del progresso scientifico e tecnologico, c'è
una reale possibilità di ottenere molecole e intelligenze
artificiali entro la prima metà di questo secolo. Ciò
crea qualche considerevole pericolo. In uno scenario pessimistico
la vita sulla terra potrebbe sparire."
"Sviluppare nanotecnologie sembra più realistico che
sviluppare effettive difese contro di esse (un sistema 'immunitario
attivo'')."
"Il nostro approccio di fronte a questo pericolo esistenziale non
può basarsi sullo sbaglia e riprova. Non c'è possibilità
di imparare dagli errori. L'approccio reattivo vedere che
succede, limitare i danni, capire dall'esperienza non è
percorribile . Dobbiamo invece usare un approccio predittivo. Ci
viene richiesta la capacità di anticipare nuovi tipi di scenari
e prendere decisioni di tipo morale ed economico in seno a tali
scenari."
"Il paradosso di Fermi si riferisce al punto al dubbio che incombe
sul dato di fatto che non sono stati constatati segni di vita extraterrestre.
Tale dato sta a indicare l'impossibilità dell'evoluzione
della vita in una percentuale significativa dei pianeti dalle caratteristiche
similari a quelle della Terra; esso indica anche che non è
possibile che questa vita poi si evolva sino a sviluppare tecnologie
avanzate utilizzandole per colonizzare l'Universo, perché
ciò sarebbe stato rilevato dagli strumenti tecnici in nostro
possesso.
Ci deve essere un punto di confine un passo evolutivo estremamente
improbabile, al limite il cui rado di civiltà massima
raggiungibile sia in qualche modo misurabile.Se metodo di individuazione
di questo limite non è nel nostro passato, dobbiamo cercarlo
nel futuro. Probabilmente infatti, una civiltà che sviluppa
un elevato grado di tecnologia causa la sua autodistruzione."
BTexact Technologies white paper.
"E' chiaro da questa sezione che noi stiamo inventando modi
sempre più precisi di distruggere noi stessi, e il rischio
si fa via via sempre maggiore...."
A partire dal 2005 ci sarà una progressiva 'autodistruzione
biotecnologica causata da ricercatori maldestri' e "il terrorismo
supererà le capacità di autodifesa dei governi".
Warren Buffett, the world's second wealthiest
man, known as the 'Oracle of Omaha' for his astute investments.
"Non importa prevedere il diluvio ma è importante
costruire l'arca..."
"La paura può diminuire col tempo, ma il pericolo non lo
farà la guerra contro il terrorismo non potrà
mai essere vinta."
Arthur C. Clarke, the prophetic SF author who in 1945 predicted a world linked by geostationary satellites.
"Questo terrorismo è un pericolo tangibile così difficile
da individuare così come lo sono le maniere per combatterlo
.... ".
Eric Drexler, founder of the Foresight Institute, and founder
of the nanotechnology movement.
Le piante con foglie non di più efficienti di odierne
pile
solari potrebbero entrare in competizione con le piante reali, ammucchiando
nella biosfera un fogliame non commestibile. I batteri onnivori
resistenti terranno testa ai batteri reali: potrebbero spargersi
come polline, diffondersi rapidamente e ridurre la biosfera a
polvere in pochi giorni. I replicanti pericolosi potrebbero
facilmente essere troppo resistenti, piccoli e veloci da spargersi
per
e riprodursi fino alla saturazione- almeno se non ci prepariamo
per tempo. Abbiamo già abbastanza difficoltà a controllare
virus e batteri della frutta....
Dalla nascita delle nanotecnologie questo fenomeno è
conosciuto come il , 'gray goo problem', il problema Gray
Goo.
Masse incontrollate di replicanti 'pensanti' devono per forza essere
grigie (gray) e (gooey) ; il termine 'gray goo' enfatizza il fatto
che that replicators able to obliterate life might be less inspiring
than a single species of crabgrass. They might be superior in an
evolutionary sense, but this need not make them valuable.
Il pericolo Gray Goo ha reso una cosa perfettamente chiara
: non possiamo affrontare un certo tipo di problemi con assemblatori
replicanti .
Il gray goo potrebbe essere, anche solo a causa dell'errore commesso
inun piccolo laboratorio, la fine dell'umanità intera....."
Robert A. Freitas Jr., ricercatore e scienziato alla 'Zyvex
LLC' che è la prima compagnia di nanotecnologie della
terra.
"Specific public policy recommendations suggested by the results of the
present analysis include:
An immediate international moratorium on all artificial life experiments
implemented as nonbiological hardware. In this context, 'artificial
life' is defined as autonomous foraging replicators, excluding purely
biological implementations (already covered by NIH guidelines
tacitly accepted worldwide) and also excluding software simulations
which are essential preparatory work and should continue. Alternative
'inherently safe' replication strategies such as the broadcast
architecture are already well-known."
Stephen Hawking, famoso cosmologo che ha scoperto che i buchi neri
non sono completamente neri, ma emettono radiazioni e spesso evaporano
scomparendo....
"Nel lungo termine mi preoccupa soprattutto la biologia.
Le armi nucleari presuppongono grandi mezzi e conoscenze, mentre
l'ingegneria genetica può essere sviluppata in un piccolo
laboratorio. Non possiamo tenere sotto controllo tutti i laboratori
del mondo. Il pericolo è che chiunque , sia che segua un
progetto, sia che lo faccia accidentalmente, può creare un
arma biologica letale....."
"Penso che l'umanità non sopravviverà ai prossimi
cento anni a meno che non scappiamo nello spazio...."
Bill Joy, inventore dell' 'Unix word processor vi'. Cofondatore
e scientista di 'Sun Microsystems'.
"Siamo entrati nel nuovo secolo senza armi di difesa, controllo
e capacità previsionale...."
"Ma molte persone che conoscono i pericoli a cui andiamo incontro
sono stranamente silenziose. Messe sotto pressione, ribadiscono
che 'non c' niente di nuovo'- come se il pericolo di ciò
che potrebbe succedere non sia abbastanza."
"...se la nostra distruzione passa per lo sviluppo tecnologico allora
bisognerà procedere con estrema cautela....."
Ray Kurzweil, autore profetico nel 1960l, del libro' The Age of Intelligent
Machines ' (l'era delle macchine intelligenti) dove annunciava
l'avvento dell'intelligenza artificiale.
"...presto ci saranno laboratori attrezzati per creare germi
patogeni più letali delle peggiori armi nucleari....."
Donald H. Rumsfeld, Segretario della difesa.
"Ciò che il presidente diceva al mondo è che
ci sono situazioni , nel mondo attuale, che creano presupposti diversi
e distinti da quelli che si sono creati in altre epoche e tali presupposti
vanno sottolineati. Il mondo ha il dovere di capire che esiste una
possinilità enorme che milioni di persone muoiano o vengano
uccise."
Carl Sagan, astronomo americano, planetologo, biologo, e divulgatore
di ricerche scientifiche e spaziali.
"O si scapperà sullo spazio o ci si estinguerà......"
Mark Shuttleworth, secondo turista spaziale della terra.
"Avete avuto un'ottima idea! Siete sulla buona strada! Buona fortuna
per il progetto!!"
Vernor Vinge,
matematico, scienziato, e scrittore capace di prevedere la nascita
di Internet dal 1981 e la 'Singolarità' nel 1993.
"Se la singolarità non può essere nè
prevista nè delimitata, quanto sarà dura e difficile
l'era post-umana? Beh ...sarà molto dura. L'estinzione fisica
dell'umanità è una possibilità.... "
|