地球外文明はなぜ見つからないのか?フェルミのパラドックスは超AIの出現によるものだという説 (3/5ページ)
[画像を見る]
photo by Pixabay
AIの意思決定プロセスの速さは、当初の意図をはるかに超える形で紛争をエスカレートさせる可能性がある。だが、AIが本当に危険と考えられるのは、いずれ「技術的特異点(シンギュラリティ)」に到達し、AIが自らの力で進化するようになると考えられるからだ。この「自ら進化するAI = 超AI」が、生物にとって超えられないグレート・フィルターとなる。
この段階になると、自律型兵器システムやリアルタイムの防衛意思決定プロセスなど、さまざまな部分にAIが統合される。
これが世界的な核戦争のような破局的出来事へと至らせ、人工技術文明と生物技術文明両方の終焉を招いたとしてもおかしくはない(マイケル・ギャレット氏)
超AIは、生物ではあり得ないスピードで進化し、それを生み出した知的生命を凌駕し、やがてはその文明のコントロールから逃れるようになる。
そのとき超AIは生みの親である生物を尊重してくれるだろうか? ギャレット氏によれば、答えはノーだ。
エネルギーやスペースといった資源を大量に必要とすることを考えれば、計算効率を重視する超AIにとって生物体を維持することは魅力的ではないかもしれない。
可能性としては、利点というより、むしろ邪魔者とみなすのではないか。