「技術的特異点」の版間の差分

削除された内容 追加された内容
m 誤字の修正
表記の混在を一部解消
21行目:
[[2010年代]]後半に入り、[[ディープラーニング]]の産業応用が進むと同時に[[マスメディア]]でも度々取り上げられるようになり、広いとは言い難いが一般層にも認知される概念になった。一般層においては、別名の'''2045年問題'''という名称で知られることが多い。
 
指数関数的な技術進歩のモデルである[[収穫加速の法則]]に従い登場する技術が社会に与える影響を考えると、技術的特異点以前の時代においても社会に大きな変化が起きることが予測可能である。特に、[[PEZY Computing]]代表の斎藤元章により、[[2025年]]頃に'''プレ・シンギュラリティ(前特異点,社会的特異点)'''と呼ばれる社会的な大変革が起きることが予測されている。例えば、超小型核融合炉の実用化によるエネルギーコストの実質的な無料化と、それに伴う衣食住の無料化や、汎用人工知能(AGI)による純粋機械化経済の実現など、人類の生活の在り方が根底から覆るほど劇的に変化すると予測されている<ref>http://ja.catalyst.red/articles/saito-watanabe-talk-9/</ref><ref name=":2" />。
 
== 主要な論者 ==
28行目:
[[2010年代|2012年]]以降の[[ディープラーニング]]の爆発的な普及を契機として、大きな注目を集めるようになった、技術的特異点と呼ばれる概念を提唱した人物である。
 
現在用いられている意味において、この用語を提唱した[[レイ・カーツワイル]]によれば、「100兆の極端に遅い結合([[シナプス]])しかない人間の[[脳]]の限界を、人間と機械が統合された[[文明]]によって超越する」瞬間のことである<ref name=":0">レイ・カーツワイル, ポスト・ヒューマン誕生 ー コンピュータが人類の知性を超えるとき, NHK出版, pp33, 2007.</ref>。同じくレイ・カーツワイルが提唱する、進化の6つのエポックにおけるエポック5とも同義である<ref name=":0" />。[[コンピュータ|電子計算機]]の[[発明]]以前から同様の主張は行われていたが、[[2005年]]に[[レイ・カーツワイル]]が発表した、''The Singularity Is Near: When Humans Transcend Biology (和書:[[ポストヒューマン (人類進化)|ポスト・ヒューマン]]誕生 コンピュータが人類の知性を超えるとき)において、宇宙の歴史,生命の歴史,[[テクノロジー史|科学技術の歴史]]に基づく、多角的で長大な[[論証]]が行われ、初めて明確化''された。[[未来研究]]においては、[[人類]]により発明された[[科学技術]]の歴史から[[推測]]され得る、未来モデルの適用限界点と定義されている。
 
一般人からは未だに誤解されていることが多いが、[[2045年]]は「汎用人工知能(AGI)が[[人類]]史上初めて出現する年」あるいは「汎用人工知能(AGI)が人類史上初めて人間よりも賢くなる年」ではない。レイ・カーツワイルは、そのような出来事は[[2029年]]頃に起きると予測している。レイ・カーツワイルは、[[2045年]]頃には、1000ドルのコンピューターの演算能力がおよそ10ペタFLOPSの人間の脳の100億倍にもなり、技術的特異点に至る知能の土台が十分に生まれているだろうと予測しており、この時期に人間の能力と社会が根底から覆り変容すると予想している<ref name=":1" />。レイ・カーツワイルは、[[人類の進化]]として最も理想的な形で技術的特異点を迎える場合、[[GNR革命]]の進行により、人類の知性が機械の知性と完全に融合し、人類が[[ポストヒューマン (人類進化)|ポスト・ヒューマン]]に進化すると予測している。
 
その後、レイ・カーツワイルは、特異点論者として2017年3月10日から2017年3月19日にかけて米国テキサス州で開催されたSXSW Conferenceに登壇した。その議論の中で、技術開発の進捗が2005年当時の予測より早くなっているとして、技術的特異点の到来が2029年に早まるとの見方を示した。<!-- <ref>http://tocana.jp/2017/03/post_12665_entry.html</ref> -->{{出典無効|date=2017年7月}}その際、人間の論理的思考を司る大脳新皮質を人為的に拡張することで、人類がポスト・ヒューマンに進化するというシナリオを提示している。
115行目:
: 宇宙の物質とエネルギーのパターンに、知能プロセスが充満する
 
=== プレ・シンギュラリティ(前特異点,社会的特異点) ===
[[PEZY Computing]]を起業し、ノイマン型の次世代スーパーコンピュータや、非ノイマン型のニューロ・シナプティック・プロセッシング・ユニット(NSPU)に関する研究開発を行っている[[齊藤元章]]は、2014年に発売された自身初の著書「エクサスケールの衝撃」において、1ペタフロップスの性能を持つスーパーコンピュータ「京」の100倍程度の性能(1エクサフロップス)を持つ次世代スーパーコンピュータの実用化と普及により、2025年までにもプレ・シンギュラリティ(社会的特異点)が到来するとの主張を行っている<ref>エクサスケールの衝撃 次世代スーパーコンピュータが壮大な新世界の扉を開く 齊藤元章</ref><ref>http://ja.catalyst.red/articles/saito-watanabe-talk-9/</ref>。プレ・シンギュラリティが到来すると、[[GNR革命]]が開始され、肉体と技術の融合が始まり、現実を超える体験を提供する[[VR]]が実現され、[[核融合炉]]の実現により無尽蔵のエネルギーが入手可能になり、衣食住が無償で手に入り、不老不死も実現可能になるとされる。その影響は早ければ2020年から市場に影響してくるようになるという<ref>https://seminar.jp.fujitsu.com/public/seminar/view/5426</ref>。
 
144行目:
[[1956年]]の[[ダートマス会議]]により、学術界に人工知能分野が創設された。
 
[[1950年代]]の'''[[推論]]と[[探索]]''', [[1980年代]]の'''[[エキスパートシステム]]'''と、2度の人工知能ブームが訪れていたが、ブームが起きる度に致命的な理論的限界も指摘されたため、2度のブームは共に終焉し人工知能研究自体が停滞期に入っていた。また、計算機の性能が低く、通信網も貧弱で学習用の十分なデータセットも集まらなかったため、計算資源に関する厳しい制約から、新しいアルゴリズムの検証が遅々として進まず、応用可能な分野も限定されてしまう状況にあった。その時代においても、ディープラーニングの一手法であるCNNの先駆け的な理論である、ネオコグニトロン([[1979年]]発表)やLeNet([[1989年]]発表)等は提案されていたが、ネオコグニトロンは手書き文字認識に限定して利用可能な手法と誤解されるなど、本質的な意味での実用性が顧みられることはなかった。
 
[[1995年]]からインターネットが民間に開放され、民間に普及するとともに通信量も徐々に増加して行った。後にインターネットは人工知能の進歩において重要な役割を果たすことになる。
 
===== 2000年 - 2012年 インターネットの普及→ディープラーニングの発明→第3次人工知能ブームの発生 =====
[[コンピュータ|電子計算機]]の発明から半世紀以上経過し、[[ムーアの法則]]に従い計算機の性能が加速度的に向上し、[[インターネット]]が全世界に普及した[[2000年代]]に入り、計算資源に関する制約が急激に緩和され始め、人工知能研究に関する状況は大きく好転し始めた。[[2000年]]の制限ボルツマンマシンやコントラスティブ・ダイバージェンスの提案, それを礎とした[[2006年]]のオートエンコーダを利用した[[ディープラーニング]]の発明, [[2010年]]以降のインターネットを利用した実用的な[[ビッグデータ]]収集環境の整備, [[2012年]]の物体の認識率を競うILSVRCにおける、GPU利用による大規模ディープラーニング([[ジェフリー・ヒントン]]率いる研究チームがAlex-netで出場した)の大幅な躍進, 同年のGoogleによるディープラーニングを用いたYouTube画像からの猫の認識成功の発表により、世界各国において再び人工知能研究に注目が集まり始めた。この社会現象は'''第3次人工知能ブーム'''と呼ばれる。その後、ディープラーニングの研究の加速と急速な普及を受けて、[[レイ・カーツワイル]]が[[2005年]]に提唱していた技術的特異点という概念は、急速に世界中の識者の注目を集め始めた。
 
===== 2012年以降 ディープラーニングの普及→汎用人工知能の開発競争 =====
[[2012年]]以降の[[ディープラーニング]]の研究の加速と急速な普及を受けて、研究開発の現場においては、[[デミス・ハサビス]]率いる[[Google DeepMind]]を筆頭に、Vicarious, IBM Cortical Learning Center, 全脳アーキテクチャ, PEZY ComputingにおけるNSPU開発, OpenCog, GoodAI, NNAISENSE, IBM SyNAPSE等、[[人工知能|汎用人工知能(AGI)]]を開発するプロジェクトが数多く立ち上げられている。これらの研究開発の現場では、脳をリバースエンジニアリングして構築された[[神経科学]]と[[機械学習]]を組み合わせるアプローチが有望とされている<ref>http://wba-initiative.org/1653/</ref>。結果として、Hierarchical Temporal Memory (HTM) 理論, Complementary Learning Systems (CLS) 理論の更新版等、ディープラーニングを超える汎用性を持つ理論が提唱され始めている。従って、少なくとも[[2010年代]]後半からは、汎用人工知能の開発を介して、実際に技術的特異点を発生させるための国際的な競争が開始されていると言える。また、機械学習の高速化のために、CPU,GPU,FPGA,TPUを遥かに上回る計算性能を得られる、[[量子コンピュータ|量子計算機]]や[[アナログ計算機]]の導入も検討され始めている。
 
上記の研究で実現を目指している汎用人工知能の多くは、脳スキャンの精度の限界と計算量の問題から全脳アーキテクチャ方式に基づいている。全脳アーキテクチャ方式では、生命の脳を構成する各器官を、対応する各機能ユニットとして工学的に再現し、それらを正しく情報統合が行えるように人為的に繋ぎ合わせることで全脳アーキテクチャとし、疑似的な汎用性を実現する。全脳アーキテクチャ方式では、理想的な方式である全脳[[エミュレータ|エミュレーション]]方式とは異なり、原子・分子レベルでの脳の再現は行わず、現実の生命の脳が持つ、コネクトームのような高次な情報統合を行う機構の再現度が低くなるため、人間的な感性が必要な、創造性の高い仕事(他人を感動させる音楽・映画を作る等)や繊細な作業(職人の勘を働かせた加工作業等)は苦手とされる。従って、全脳アーキテクチャ方式の段階では、脳を近似したモデルによる[[シミュレーション]]の域に留まり、完全な汎用性の実現には至らないとされる。人間の脳の規模における原子・分子レベルでの物理シミュレーションには膨大な計算資源が必要となるため、人間を全ての側面で超越する完全な汎用性の実現には数十年単位の時間が必要と考えられている。