こういう会合には、ブルース・スターリングでも呼ばんとなあ
▼Scientists: Humans and machines will merge in future (CNN.com)
http://edition.cnn.com/2008/TECH/07/15/bio.tech/index.html
LONDON, England (CNN) -- A group of experts from around the world will hold a first of its kind conference Thursday on global catastrophic risks.
They will discuss what should be done to prevent these risks from becoming realities that could lead to the end of human life on Earth as we know it.
Speakers at the four-day event at Oxford University in Britain will talk about topics including nuclear terrorism and what to do if a large asteroid were to be on a collision course with our planet.
On the final day of the Global Catastrophic Risk Conference, experts will focus on what could be the unintended consequences of new technologies, such as superintelligent machines that, if ill-conceived, might cause the demise of Homo sapiens.
"Any entity which is radically smarter than human beings would also be very powerful," said Dr. Nick Bostrom, director of Oxford's Future of Humanity Institute, host of the symposium. "If we get something wrong, you could imagine the consequences would involve the extinction of the human species."
"Nanotechnology will not just be used to reprogram but to transcend biology and go beyond its limitations by merging with non-biological systems," Kurzweil said. "If we rebuild biological systems with nanotechnology, we can go beyond its limits."
The final revolution leading to the advent of Singularity will be the creation of artificial intelligence, or superintelligence, which, according to Kurzweil, could be capable of solving many of our biggest threats, like environmental destruction, poverty and disease.
"A more intelligent process will inherently outcompete one that is less intelligent, making intelligence the most powerful force in the universe," Kurzweil writes.
Yet the invention of so many high-powered technologies and the possibility of merging these new technologies with humans may pose both peril and promise for the future of mankind.
"I think there are grave dangers," Kurzweil said. "Technology has always been a double-edged sword."
今日、オクスフォード大学に諸分野の専門家が集まって、global catastrophic risks について話し合うカンファレンスを持っていたらしいのだが、その global catastrophic risks ってのが、SFファンの関心事そのものである。核テロが起こったらどうなるかとか、小惑星が地球にぶつかってきたらどうなるかとか、人類の知性をはるかに凌ぐ能力を持った機械知性が現れたらどうなるかとか、べつに珍しくもなんともない話なんじゃないかなあ、SFファンにとっては。この種のカンファレンスは初だと記事は伝えているが、ほんとにそうなの? SFファンってのは、寄るとさわるとこんな話ばかりしているし、SFファンには本職の学者も多いのである。おんなじようなもんなんじゃないの?
人類はいずれみずからを改造して機械と融合してゆくだろうなんてことを、いまさらのように言われてもねえ。しかもそれを“リスク”だと言われてもねえ。おれはそんなこと、リンゴが木から落ちるくらいあたりまえのことだと思ってたけどなあ。眼鏡や入れ歯となにがちがうというのだろう? それとも、“カタギの人”たちは、この期に及んで、人類と機械が今後融合してゆかないとでも、まだ思っているとでもいうのだろうか? そんなアホな。おれの貧しい見識に照らしてさえひとつだけ確かなのは、“人類というものは、できるようになったことは必ずやる”ということである。
そういうわけで、この記事、SFファンにとってはちっとも面白くないのだが、Dr. Ray Kurzweil の言葉にだけは、「それは、きっとそうだろう」と頷けるものがある。グレッグ・ベアが、かつて似たようなことを言ってたよね。Kurzweil 博士曰く、"This will happen faster than people realize."
そう、それはいままでも、常にそうだった。
| 固定リンク
コメント
A more intelligent process will inherently outcompete one that is less intelligent, making intelligence the most powerful force in the universe
この地球上で、わりと最近知的な人類がちょっと知的でない同類を滅ぼしたのは事実かもわからんけど、
the most powerful force in the universe
てのはスゴイ、普通は on the earth とか言うんじゃあるまいか、それだってたぶん不遜、地球でもヒトよりバクテリアの方がたぶんずっと強いと思う・・・・・
投稿: 村上 | 2008年7月18日 (金) 23時21分
>村上さん
intelligence が the most powerful force in the universe というのは、かなり無責任な言説ではありますね。アーサー・C・クラークの名言によると、It has yet to be proven that intelligence has any survival value. ですから。まあ、クラークの視野の広さのほうを私は支持しますが。
投稿: 冬樹蛉 | 2008年7月21日 (月) 22時23分