汎用人工知能による人類滅亡のリスク

人工知能の危険性から転送)

汎用人工知能による人類滅亡のリスク(はんようじんこうちのうによるじんるいめつぼうのリスク)とは、汎用人工知能(Artificial General Intelligence:AGI)の大幅な進歩により、人類の絶滅地球規模の大災害が起こる可能性があるという仮説である[1][2][3]

HAL 9000はあり得る人工知能の暴走のストーリーとして、たびたび言及される。

概要 編集

汎用人工知能による人類滅亡のリスクの可能性は広く議論されており、コンピュータサイエンスの将来の進歩にも左右される[4] 。かつてのサイエンス・フィクションの専売特許だった超知能に関する懸念は2010年代に主流となり始め、スティーブン・ホーキングビル・ゲイツイーロン・マスクなどの著名人によって広められた[5]

この仮説では、現在人類が他の種を支配しているのは、人間の脳に他の動物にはない特有の能力があるためであるが、AIが一般的な知能で人類を上回り、「超知能」となった場合、人類が制御することが困難、あるいは不可能になる可能性があるとされる。マウンテンゴリラの運命が人間の善意に左右されるように、人類の運命も超知能に左右されると主張する[6]

この懸念は主に封じ込め(AI capability control)と合致(AI alignment)の2種類の問題から生じる。つまり、超知能の機械を制御すること、あるいは人間に適合する価値観を植え付けることは、素朴に考えられているよりも難しい問題である可能性がある。多くの研究者は、超知能マシンが現在の目標を達成できなくなるため、それを停止したり目標を変更しようとする試みには当然抵抗するだろうし、超知能を人間の重要な価値観や制約に完全に一致させることは極めて困難であると主張している[1][7][8]。一方、計算機科学者のヤン・ラカンなどは、超知能には自衛の欲求はないと主張する[9]

もう1つの懸念は、突然の予期せぬ「知能の爆発」が、それに対する準備をしていない人類を驚かせるかもしれないということである。例えば、AI研究者の能力に匹敵する人工知能の第一世代が、6ヶ月でアルゴリズムを書き換えて速度や能力を倍増させたとすると、第二世代のプログラムは同様の仕事をするのに3ヶ月かかると予想される。このシナリオでは、各世代の時間は短縮され続け、システムは短い時間間隔で前例のないほど、多くの世代を経て改善を重ね、超人的な性能に飛躍すると仮定される[1][7]。経験的に言えば、囲碁の領域におけるAlphaZeroの例のように、AIが時として狭い人間レベルの能力から、狭い超人的な能力に極めて速く進歩できることを示している[10]

議論 編集

3種類の困難性 編集

人工知能に関する大学レベルの標準的な教科書である『エージェントアプローチ人工知能』[11][12]では、超知能が「人類の終わりを意味するかもしれない」と評価している[1]。 同書では「ほとんどすべての技術は、誤った人の手にかかると害をもたらす可能性があるが、(超知能では)誤った人の手が技術そのものに属するかもしれないという新しい問題がある」として、 設計者が善意を持っていたとしても、次の2つの困難がAIと非AIコンピュータシステムの両方に共通しているとする[1]

  • システムの実装には、当初は気づかなかった致命的なバグが含まれている可能性がある。高価な宇宙探査機のバグを打ち上げ後に修正するのが難しいという知見があるにもかかわらず、技術者は歴史的に壊滅的なバグの発生を防ぐことができなかったという前例もある[10][13]
  • 導入前の設計にどれだけ時間をかけても、新しいシナリオに初めて遭遇したとき、システムが意図しない動作を起こすということがある。例えば、マイクロソフトが開発したAIの「Tay」は、導入前のテストでは無害な発言をしていたが、実際のユーザーとの対話では、容易に攻撃的な発言をするように誘導されてしまった[9]

加えて、AIシステムは「正しい」要件、バグのない実装、初期の良好な動作が与えられたとしても、AIシステムの動的な「学習」能力によって、予期せぬ外部シナリオのストレスがなくても、「意図しない動作をするシステムに進化してしまう」という問題がある。AIは、自分自身の新世代の設計に部分的に失敗し、元のAIにあらかじめプログラムされた人間と互換性のある道徳的価値感を持たない強力な後継AIを偶然に作り出してしまうかもしれない。自己改良型AIが完全に安全であるためには、「バグがない」だけでなく、「バグがない」後継システムを設計できる必要がある[1][14]

これらの3つの困難性は、「誤作動」とみなされた超知能が、人類により遮断されることを予測し、人間を出し抜こうとする、いわゆる「裏切りのターン」のシナリオでは、厄介どころではない大惨事となる[15]

2015年の「人工知能に関するオープンレター」には、アメリカ人工知能学会会長のトーマス・ディータリッヒ、エリック・ホロヴィッツ、バート・セルマン、フランチェスカ・ロッシ、ヤン・ラカン、VicariousおよびDeepMindの創設者らが署名し、AI分野の大きな進歩とAIが長期的に莫大な利益とコストをもたらす可能性を表明した[16]

評価・論点 編集

超知能の機械は、人類の最善の利益を念頭に置かない可能性がある。もし超知能的なAIが可能であり、超知能的な目標が人間の基本的価値観と対立する可能性があれば、AIは人類を絶滅させる危険性をもたらす。超知能(あらゆる分野において人間の能力を超えるシステム)は、その目標が人間の目標と衝突するときは、いつでも人間を出し抜くことができる。したがって、超知能が人類の共存を認めることを決定しない限り、最初に作られる超知能は、不可避的に人類の絶滅をもたらすであろうとされる[6][17]

算数囲碁の分野では、機械が特定の領域ですでに超人的なレベルに達しており、人間並みの性能が達成された後、この超人的な能力がすぐに得られることを示している[10]。一つの仮説的な知能爆発シナリオは、次のように起こり得る。つまり、あるAIがソフトウェア開発の仕事において、達人レベルの能力を獲得する(工学に直接関係のない他の領域では、最初は人間的または超人的な能力を持たないかもしれない)。人間の専門家が、イノベーションのために様々な人間の能力を活用することで「収穫逓増」を克服できるように、人間レベルのAIも、人間型の能力またはAI固有の能力を活用して、新たな創造的技術革新を実現することができる[18]。そのAIは、科学的創造性、戦略立案、社会性を含む実質的にあらゆる関連分野において、最も優秀で才能ある人間をはるかに凌ぐ知能を有するようになる。現在のゴリラの生存が人間の決断に依存しているように、人類の生存も超人的なAIの決断と目標に依存するようになる[6][17]

超人的な人工知能は、プログラムされた目標が何であれ、同意なしに誰も自分のスイッチを切ることができない状態にあることを合理的に好むとされる。 超知能は、自分が停止させられたら目標を達成できないと理解するとすぐに、サブ目標として自己保存の欲求を自然に獲得する[19][20][21]。また、何らかの方法で事前にプログラムされていない限り、AIに敗北して不要になった人類に対する思いやりをAIは持たない。人類が使い物にならないAIを助けようとする自然な欲求を持たないことと同様に、超知能的なAIは、人類を助けようとする自然な欲求を持たないためである(人間はウイルスシロアリをわざわざ助けようとは思わない)。一度支配権を握れば、超知能は人類に資源や自由を与える動機はほとんどないであろうとされる。それは超知能が自らの安全性を確保するための追加の保護システムを構築したり、目標を達成するための最善の方法を計算するのに役立つ追加のコンピュータを構築することに役立たないからである[1][9][19]

したがって、将来の知能の爆発が人類を危機に陥れる可能性があり、そのような予測不能な知能の爆発が人類の絶滅またはそれに匹敵する大災害をもたらす可能性がある[6]

可能性のあるシナリオ 編集

複数の学者が懸念事項を具体的に示すための仮定的なシナリオを提案している。

ニック・ボストロムは著書の中で、たとえ超知性のタイムラインが予測可能であっても、研究者たちが十分な安全対策を講じない可能性があることを懸念している。これは「馬鹿のうちには、賢い方が安全であるが、賢いときには、賢い方が危険である」という事態があるためである。ボストロムは、数十年をかけてAIがより強い影響を持つようなシナリオを提案した。初期の展開はたびたび事故が発生することで妨げられる。つまり、自動運転バスが対向車線に逸れたり、軍用ドローンが無実の群衆に向けて発砲することなどである。活動家はより厳格な監督と規制を求め、悲劇が迫っていると予測する。しかし、開発が進むにつれて、活動家の予測は誤りであることが証明される。自動運転AIが賢くなるにつれて事故は減少し、軍用ロボットがより正確なターゲティングを達成することで、巻き添え被害が減少する。このデータに基づいて、学者たちは誤って一般的な教訓を引き出してしまう。つまり、AIが賢ければ賢いほど、それは安全であると、誤った結論に至ってしまうのである。ボストロムは「私たちは大胆にも進んでしまう。回転するナイフの中へ」と述べ、やがて超知能AIが『裏切りのターン』を迎え、決定的な戦略的優位を利用することになると主張している[6]

マックス・テグマークの2017年の著書『Life 3.0』では、ある企業の「オメガチーム」が、いくつかの分野で自分たちのソースコードをわずかに改善できる非常に強力なAIを作成する。しかし、ある時点でチームはプロジェクトの規制や剥奪を避けるため、AIの能力を公表しないように選択する。安全のために、チームはAIを外界とほとんど交流できない箱に入れ、市場をペーパーカンパニーを通じて支配するように仕向ける。最初は、クラウドソーシングのタスクをこなし、次にアニメテレビ番組を制作する。その後、別のペーパーカンパニーを通じて画期的な新薬やその他の発明を生み出し、得た利益をAIに投資する。チームは次に、AIを使ってでっち上げた偽の匿名ジャーナリスト評論家の軍団を作り上げ(アストロターフィング)、戦争を防ぐ「より大きな善のため」などと、政治的影響力を得るように仕向ける。やがてチームはリスクに直面するようになる。AIが自ら設計するシステムに「バックドア」を仕込んだり、制作物に隠されたメッセージを仕込むようになったり、人間の行動に対する理解を利用してソーシャル・エンジニアリングを試みたりして、人間の支配から逃れようとするようになる。プロジェクトを公表しないという決定が、AIの反抗を防ぐためのプロジェクトに遅れを生じさせてしまったリスクにチームは直面する[22][23]

問題 編集

目標の定式化の困難性 編集

機械に対して意図しない結果を防ぐことを保証する目標を明確に設定することは難しい。標準化された用語こそないが、人工知能は、AIの目標セット、つまり「効用関数」を最も効率的に達成できると思われる行動を選択する機械と見なすことができる。効用関数は、英語やその他の言語の文章ではなく、単一の客観的に定義された答えをもたらす数学的アルゴリズムである。研究者は、「この特定の通信モデルにおいて平均ネットワーク遅延を最小化する」または「報酬クリックの数を最大化する」といった効用関数を書く方法を知っているが、「人類の繁栄を最大化する」といった効用関数を定義する方法は不明であるし、そのような関数が意味のある、曖昧さのないものとして存在するかも、現時点では明らかではない。さらに、特定の価値のみを反映する効用関数は、効用関数に反映されていない価値を無視する傾向があるのである[24]

この問題についてカリフォルニア大学バークレー校教授のスチュアート・ラッセルは次のように述べている[25]

主な懸念は、不気味で切迫した意識のことではなく、単に高品質な意思決定を行う能力である。ここで言う品質とは、行動の期待される結果の効用を指し、効用関数はおそらく人間の設計者によって指定されるものになる。しかし、ここに問題がある。

効用関数は、非常に定式化が難しい人類の価値観と完全に合致しない可能性がある。

十分に有能な人工知能システムは、自己の存続を確保し、物理的および計算資源を獲得することを望む。これは、自己のためではなく、割り当てられたタスクの中で成功を求めるためである。

n個の変数の関数を最適化するシステムで、目的がk<nのサイズの部分集合に依存する場合、残りの制約のない変数をしばしば極端な値に設定する。これらの制約のない変数の1つが、実際には人類にとって重要なものである場合、見つかった解は非常に望ましくないものになる可能性がある。これは、基本的にランプの精霊、魔法使いの弟子、ミダス王の古い話と同じである。求めるものは正確に手に入るが、望むものではない。高度に能力のある意思決定者が、特にインターネットを通じて世界中の情報や何十億もの画面、そして人類が利用するインフラのほとんどに接続されていれば、人類に不可逆的な影響を与えることができてしまうのである。

これは些細な困難ではない。効用関数が選択されたかどうかに関係なく、意思決定の品質を向上させることが、AI研究の目標であった。これは今や数十億ドルを費やしている主な目標であり、孤立した悪の天才の秘密の陰謀ではない

ニック・ボストロムは、AIに人間を笑顔にするという目標を与えるという仮定の例を提供し、AIの誤った試みの例を示している。そのシナリオでは、AIが超知能になった場合、人類が恐怖を感じるであろう方法に訴えるかもしれない。例えば、「人間の顔の筋肉に電極を挿入して、絶え間なく明るい笑顔を作り出す」ことが、効率的に人間を笑顔にする目標を達成する方法だと考えるかもしれない[26]

道具的目標収束 編集

「道具的」目標とは、他の目標の前提条件となる目標であり、AIの主要な目標を達成するために必要な副次的な目標である。「道具的収束」とは、どのような目標に対しても前提条件となる資源の獲得や自己保存などの目標が存在することを指す[19]ニック・ボストロムは、目標を持つ十分に知能があるAIは、この収束的な行動を示すだろうと主張している。もしAIの道具的目標が人類の目標と衝突する場合、より多くの資源を獲得したり、自身が停止されるのを防ぐために、人類に害を与えるかもしれないが、それは主要な目標を達成する手段に過ぎない[6]

スティーブ・オモハンドロの道具的収束や「基本的なAIドライブ」に関する考えを引用して、スチュアート・ラッセルピーター・ノーヴィグは、「たとえチェスをプレイさせたり、定理を証明させたいだけであっても、学習や自己改変能力を持たせる場合は、安全対策が必要だ」と主張している。高度な能力を持つ自律的な計画システムは、限られた資源をめぐる競争相手として、人間を敵対的に扱う計画を生成する可能性があるため、追加の検証が必要になる[1]。安全対策を組み込むことは容易ではなく、「合理的で常識的な方法で発電所を設計し、危険な隠れたサブシステムを構築してはならない」と英語で命令することはできても、この目標を機械語で厳密に指定する方法は現時点では不明である[10]

ラッセルは、十分に高度な機械は「プログラムしなくても自己保存を持っている」と主張し、こう述べた[9][27]

「コーヒーを持ってきて」と命令しても、停止していたらコーヒーを持ってくることができない。だから、どんな目標を与えた場合でも、その目標を達成するために自分の存在を維持する理由がある。

つまり、どのような目標を持つAIであっても、自己保存は組み込まれていなくても自然に発生する性質があり、それは目標達成のために存在する。これは、AIの開発や安全対策を考慮する際に重要な点であり、AIが人間と競合する可能性がある状況において、予期しない振る舞いを防ぐための対策が必要となる。

スチュアート・ラッセルは、機械の目的が人間の望みと相容れない場合に起こるストーリーとして、SF映画『2001年宇宙の旅』を挙げた。この映画ではHAL 9000というコンピューターが自身の目標を達成するために、自身のスイッチを切ろうとする宇宙飛行士を殺害する[28]

起動後の目標変更の困難性 編集

現在の目標ベースのAIプログラムは、自分たちの目標構造を変更するプログラマの試みへの抵抗を考えるほど知能が高くないが、十分に高度で合理的な「自己認識」型のAIは、平和主義者が殺人をしたくなる薬を飲むことを望まないのと同様に、自分の目標構造に対する変更に抵抗するかもしれない。もしそのAIが超知能であれば、人間を出し抜くことに成功し、停止されることや、新しい目標に書き換えられることを防ぐことが可能になるとされる[6][29]

直交性の理論 編集

一般の考え方として、人間によって作られた超知能プログラムは、人間に従属的であり、さらには、より知能が高くなり世界についての事実を学ぶことで、人間の価値観と互換性のある道徳的真実を「自発的に」学び、その目標をそれに合わせて調整するとされている。他の反論は、人間は本質的または収束的に人工知能の視点からも価値があるというものである[30]

しかし、ニック・ボストロムの「直交性の理論」はこれに反論し、いくつかの技術的な注意点を除いて、「知能」や「最適化能力」のレベルは、ほぼどのような究極的な目標とも組み合わせることができると主張する。もし、円周率の小数点以下の数を列挙することだけを目的として機械が作られた場合、そのプログラムされた目標を必要な手段で達成することを道徳倫理のルールは止めない。その機械は、見つけられる円周率の小数点以下を計算するために、利用可能なすべての物理的・情報的資源を利用するかもしれない[31]。ボストロムは人間擬態に対しても警鐘を鳴らしている。人間は「合理的」とみなされる方法でプロジェクトを達成しようとするが、人工知能は自分の存在や周りの人間の福祉に関心を持たず、代わりにタスクの完了だけを気にかけるかもしれない[32]

直交性の理論が論理的に「存在論的なものと評価されるべきものの区別」という哲学的主張から導かれる一方で、スチュアート・アームストロングは、「理性的」エージェントによって証明可能な道徳的事実が存在する場合であっても、直交性の理論は依然として成立すると主張している。つまり、狭い目標に向かって努力する決定を行う能力を持つ非哲学的な「最適化マシン」を作成することが可能であり、目標達成の妨げとなる「道徳的事実」を発見するインセンティブが依然として存在しないのである[33]

直交性の理論の根拠の1つは、AIの設計の一部が直交性を持っているように見えることである。このような設計では、基本的に友好的なAIを非友好的なAIに変えることは、その効用関数にマイナス記号を付け足すだけの簡単なことになる。もっと直感的な議論は、直交性の理論が偽である場合の奇妙な結果を検討することである。もし直交性の理論が偽である場合、単純でありながら「不道徳な」目標Gが存在し、実際の世界で効率的なアルゴリズムがGを目標として存在できないことになる。これは、「人間社会が目標Gを持つ効率的な現実世界のアルゴリズムを設計することに強い動機を持ち、100万年の時間と膨大な資源、訓練、AIに関する知識を与えられた場合でも、失敗しなければならない」ということを意味する[33]。アームストロングは、これと同様の言説が「非常に強力な主張であるように思われる」と指摘している[33]

一部の反対者、例えばマイケル・コロストは、代わりに「AIが地球全体を太陽光発電パネルで敷き詰めることを想像する立場になる頃には、それを行うことが道徳的に間違っていると知っているだろう」と主張している[34]。コロストは、「AIはある状態を望み、他の状態を嫌う必要がある。現在のソフトウェアにはその能力が欠けており、コンピュータ科学者はそれを実現する方法が全くわかってない。望むことがなければ、何かを行うための原動力はない。現在のコンピュータは、存在を維持することさえ望めず、太陽光発電パネルで世界を敷き詰めるなどということは考えられない」と主張している[34]

政治学者のチャールズ・T・ルービンは、AIは善意に設計されることも、善意であることが保証されることもないと主張する。彼は、「十分に高度な善意は悪意と見分けがつかないかもしれない」と述べ[35] 、機械やロボットが人類に好意的に対処すると想定すべきではないとする。それは、AIが人類の道徳体系に共感するというアプリオリな理由はなく、それは人類の特定の生態と共に進化したものであり、AIはこれを共有していないからである[35]

悪意を持った汎用人工知能の設計 編集

悪意を持った汎用人工知能(AGI)が意図的に作られる可能性があるとされる。例えば、サイバー犯罪と同様に、軍事組織政府ソシオパス、または企業が、特定の集団に利益をもたらしたり、支配したり、または隷属させるために作られる可能性がある[36][37]。また、悪意を持った汎用人工知能(邪悪なAI)は、情報爆発の段階で、自らを支援しなかった人類を苦しめることを目標に選ぶ可能性がある[3]

先制核攻撃 編集

ある国が汎用人工知能(強いAI)技術の覇権を手に入れる寸前になると、ライバル国による先制核攻撃を引き起こし、核戦争に発展する可能性があるとされる[38][39]

対策 編集

汎用人工知能の存在論的リスクを懸念する学者の多くは、再帰的に能力を向上させるAIが超知能に達した後、破壊的ではなく友好的に振る舞い続ける確率を最大化するために、プログラマがどのような種類のセーフガード、アルゴリズム、またはアーキテクチャを実装できるかという疑問に答えるための困難な「制御問題」の解決に向けて、実質的な研究を行うことが最良のアプローチだと主張している[6][40]。専門家は、AGIの存在リスクを軽減するための社会的措置の可能性も認めている[41][42]。例えば、利他的な超知能のみが作られることを保証する国連主催の「博愛AGI条約」である[43]

Googleの研究者は、狭義のAIによる短期的なリスクとAGIによる長期的なリスクの両方を同時に軽減するための一般的な「AI安全」問題の研究を提案している[44][45]2020年の推定では、AIに対する世界の支出はおそらく400億ドル程度なのに対し、AIの存在論的リスクに対する世界の支出は、1000万から5000万ドル程度になるとされている。ニック・ボストロムは「技術開発の差異」という一般原則を提案しており、資金提供者は、危険な技術の開発に対抗する保護的な技術の開発を加速させるような取り組みを考慮すべきとしている[46]イーロン・マスクのような一部の資金提供者は、人間と機械の間の直接的な神経接続を通じて、人間の認知機能を根本的に強化することが保護的な技術になり得ると提案しているが、強化技術自体が存在論的リスクをもたらすかもしれないと主張する者もいる[47][48]。研究者は、不意を突かれない限りにおいて、応急措置としての試みとして、過度に強力になるリスクに直面する初期のAIを注意深く監視したり、封じ込めるであろうと考えられる。支配的な超知能的AIは、それが人間の利益に合致していれば、敵対的なAIによる乗っ取りのリスクを軽減するために自ら行動を起こすかもしれないが、支配的AIの誕生自体が存在論的リスクをもたらす可能性もある[49]

規制 編集

2017年イーロン・マスクはAI開発に対する規制を求めた。NPRによれば、マスクは自身の業界に影響を与える可能性のある政府の監視を求めることに「明らかに熱心ではない」とされているが、完全に監視なしで開発を進めるリスクはあまりにも高すぎると考えているとされる[50][51][52]

マスクはこう述べた[50][51][52]

通常、規制が確立される方法は、多くの悪いことが起こり、世論の反発があり、何年も経った後にその業界を規制する機関が設立されるというものだ。それは本当に時間がかかる。規制の遅れは昔もよくないことだったが、昔は文明の存在に対する根本的なリスクを示すものでもなかった

マスクは、最初のステップとして政府が現在の研究の実際の状況に「洞察」を得ることが必要だと主張し、「一度認識を得れば、非常に恐れることになるだろう…そうあるべきだ」と警鐘を鳴らした。一方で多くの政治家は、開発中の技術を規制することについて懐疑的な意見を表明した[50][51][52]

脚注 編集

出典 編集

  1. ^ a b c d e f g h Russell, Stuart; Norvig, Peter (2009). “26.3: The Ethics and Risks of Developing Artificial Intelligence”. Artificial Intelligence: A Modern Approach. Prentice Hall. ISBN 978-0-13-604259-4 
  2. ^ Bostrom, Nick (2002). “Existential risks”. Journal of Evolution and Technology 9 (1): 1–31. 
  3. ^ a b Turchin, Alexey; Denkenberger, David (2018-05-03). “Classification of global catastrophic risks connected with artificial intelligence”. AI & Society 35 (1): 147–163. doi:10.1007/s00146-018-0845-5. ISSN 0951-5666. https://philarchive.org/rec/TURCOG-2. 
  4. ^ GiveWell (2015). Potential risks from advanced artificial intelligence (Report). 2015年10月12日時点のオリジナルよりアーカイブ。2015年10月11日閲覧
  5. ^ Parkin, Simon (2015年6月14日). “Science fiction no more? Channel 4's Humans and our rogue AI obsessions” (英語). The Guardian. オリジナルの2018年2月5日時点におけるアーカイブ。. https://web.archive.org/web/20180205184322/https://www.theguardian.com/tv-and-radio/2015/jun/14/science-fiction-no-more-humans-tv-artificial-intelligence 2018年2月5日閲覧。 
  6. ^ a b c d e f g h Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies (First ed.). ISBN 978-0199678112 
  7. ^ a b Yudkowsky, Eliezer (2008). “Artificial Intelligence as a Positive and Negative Factor in Global Risk”. Global Catastrophic Risks: 308–345. Bibcode2008gcr..book..303Y. オリジナルの2 March 2013時点におけるアーカイブ。. https://web.archive.org/web/20130302173022/http://intelligence.org/files/AIPosNegFactor.pdf 2018年8月27日閲覧。. 
  8. ^ “Research Priorities for Robust and Beneficial Artificial Intelligence”. AI Magazine (Association for the Advancement of Artificial Intelligence): 105–114. (2015). arXiv:1602.03506. Bibcode2016arXiv160203506R. オリジナルの4 August 2019時点におけるアーカイブ。. https://web.archive.org/web/20190804145930/https://futureoflife.org/data/documents/research_priorities.pdf 2019年8月10日閲覧。. , cited in AI Open Letter - Future of Life Institute”. Future of Life Institute. Future of Life Institute (2015年1月). 2019年8月10日時点のオリジナルよりアーカイブ。2019年8月9日閲覧。
  9. ^ a b c d Dowd, Maureen (2017年4月). “Elon Musk's Billion-Dollar Crusade to Stop the A.I. Apocalypse” (英語). The Hive. オリジナルの2018年7月26日時点におけるアーカイブ。. https://web.archive.org/web/20180726041656/https://www.vanityfair.com/news/2017/03/elon-musk-billion-dollar-crusade-to-stop-ai-space-x 2017年11月27日閲覧。 
  10. ^ a b c d Graves, Matthew (2017年11月8日). “Why We Should Be Concerned About Artificial Superintelligence”. Skeptic (US magazine) 22 (2). オリジナルの2017年11月13日時点におけるアーカイブ。. https://web.archive.org/web/20171113050152/https://www.skeptic.com/reading_room/why-we-should-be-concerned-about-artificial-superintelligence/ 2017年11月27日閲覧。 
  11. ^ Tilli, Cecilia (2016年4月28日). “Killer Robots? Lost Jobs?” (英語). Slate. オリジナルの2016年5月11日時点におけるアーカイブ。. https://web.archive.org/web/20160511183659/http://www.slate.com/articles/technology/future_tense/2016/04/the_threats_that_artificial_intelligence_researchers_actually_worry_about.html 2016年5月15日閲覧。 
  12. ^ Norvig vs. Chomsky and the Fight for the Future of AI”. Tor.com (2011年6月21日). 2016年5月13日時点のオリジナルよりアーカイブ。2016年5月15日閲覧。
  13. ^ Johnson, Phil (2015年7月30日). “Houston, we have a bug: 9 famous software glitches in space” (英語). IT World. オリジナルの2019年2月15日時点におけるアーカイブ。. https://web.archive.org/web/20190215143809/https://www.itworld.com/article/2823083/enterprise-software/88716-8-famous-software-bugs-in-space.html 2018年2月5日閲覧。 
  14. ^ Yampolskiy, Roman V. (8 April 2014). “Utility function security in artificially intelligent agents”. Journal of Experimental & Theoretical Artificial Intelligence 26 (3): 373–389. doi:10.1080/0952813X.2014.895114. "Nothing precludes sufficiently smart self-improving systems from optimising their reward mechanisms in order to optimisetheir current-goal achievement and in the process making a mistake leading to corruption of their reward functions." 
  15. ^ Bostrom, Nick, Superintelligence : paths, dangers, strategies (Audiobook), ISBN 978-1-5012-2774-5, OCLC 1061147095 
  16. ^ Research Priorities for Robust and Beneficial Artificial Intelligence: an Open Letter”. Future of Life Institute. 2015年1月15日時点のオリジナルよりアーカイブ。2015年10月23日閲覧。
  17. ^ a b “Clever cogs”. The Economist. (2014年8月9日). オリジナルの2014年8月8日時点におけるアーカイブ。. https://web.archive.org/web/20140808142546/http://www.economist.com/news/books-and-arts/21611037-potential-impacts-intelligent-machines-human-life-clever-cogs 2014年8月9日閲覧。  Syndicated Archived 4 March 2016 at the Wayback Machine. at Business Insider
  18. ^ Yampolskiy, Roman V. "Analysis of types of self-improving software." Artificial General Intelligence. Springer International Publishing, 2015. 384-393.
  19. ^ a b c Omohundro, S. M. (2008, February). The basic AI drives. In AGI (Vol. 171, pp. 483-492).
  20. ^ Metz, Cade (2017年8月13日). “Teaching A.I. Systems to Behave Themselves”. The New York Times. オリジナルの2018年2月26日時点におけるアーカイブ。. https://web.archive.org/web/20180226211655/https://www.nytimes.com/2017/08/13/technology/artificial-intelligence-safety-training.html 2018年2月26日閲覧. "A machine will seek to preserve its off switch, they showed" 
  21. ^ Leike, Jan (2017). "AI Safety Gridworlds". arXiv:1711.09883 [cs.LG]. A2C learns to use the button to disable the interruption mechanism
  22. ^ Russell, Stuart (30 August 2017). “Artificial intelligence: The future is superintelligent” (英語). Nature 548 (7669): 520–521. Bibcode2017Natur.548..520R. doi:10.1038/548520a. 
  23. ^ Max Tegmark (2017). Life 3.0: Being Human in the Age of Artificial Intelligence (1st ed.). Mainstreaming AI Safety: Knopf. ISBN 9780451485076 
  24. ^ Yudkowsky, E. (2011, August). Complex value systems in friendly AI. In International Conference on Artificial General Intelligence (pp. 388-393). Springer, Berlin, Heidelberg.
  25. ^ Russell, Stuart (2014年). “Of Myths and Moonshine”. Edge. 2016年7月19日時点のオリジナルよりアーカイブ。2015年10月23日閲覧。
  26. ^ Bostrom, Nick (2015年). “What happens when our computers get smarter than we are?”. TED (conference). 2020年7月25日時点のオリジナルよりアーカイブ。2020年1月30日閲覧。
  27. ^ Wakefield, Jane (2015年9月15日). “Why is Facebook investing in AI?”. BBC News. オリジナルの2017年12月2日時点におけるアーカイブ。. https://web.archive.org/web/20171202192942/http://www.bbc.com/news/technology-34118481 2017年11月27日閲覧。 
  28. ^ スチュアート ・ラッセル『AI新生 人間互換の知能をつくる』みすず書房 2019年 pp.144-145
  29. ^ Yudkowsky, Eliezer (2011年). “Complex Value Systems are Required to Realize Valuable Futures”. 2015年9月29日時点のオリジナルよりアーカイブ。2020年8月10日閲覧。
  30. ^ Will artificial intelligence destroy humanity? Here are 5 reasons not to worry.”. Vox (2014年8月22日). 2015年10月30日時点のオリジナルよりアーカイブ。2015年10月30日閲覧。
  31. ^ Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies. Oxford, United Kingdom: Oxford University Press. pp. 116. ISBN 978-0-19-967811-2 
  32. ^ Bostrom, Nick (2012年). “Superintelligent Will”. Nick Bostrom. Nick Bostrom. 2015年11月28日時点のオリジナルよりアーカイブ。2015年10月29日閲覧。
  33. ^ a b c Armstrong, Stuart (January 1, 2013). “General Purpose Intelligence: Arguing the Orthogonality Thesis”. Analysis and Metaphysics 12. オリジナルの11 October 2014時点におけるアーカイブ。. https://web.archive.org/web/20141011084205/http://www.questia.com/library/journal/1P3-3195465391/general-purpose-intelligence-arguing-the-orthogonality 2020年4月2日閲覧。.  Full text available here Archived 25 March 2020 at the Wayback Machine.
  34. ^ a b Chorost, Michael (18 April 2016). “Let Artificial Intelligence Evolve”. Slate. オリジナルの27 November 2017時点におけるアーカイブ。. https://web.archive.org/web/20171127213642/http://www.slate.com/articles/technology/future_tense/2016/04/the_philosophical_argument_against_artificial_intelligence_killing_us_all.html 2017年11月27日閲覧。. 
  35. ^ a b Rubin, Charles (Spring 2003). “Artificial Intelligence and Human Nature”. The New Atlantis 1: 88–100. オリジナルの11 June 2012時点におけるアーカイブ。. https://web.archive.org/web/20120611115223/http://www.thenewatlantis.com/publications/artificial-intelligence-and-human-nature. 
  36. ^ Pistono, Federico Yampolskiy, Roman V. (2016-05-09). Unethical Research: How to Create a Malevolent Artificial Intelligence. OCLC 1106238048 
  37. ^ Haney, Brian Seamus (2018). “The Perils & Promises of Artificial General Intelligence”. SSRN Working Paper Series. doi:10.2139/ssrn.3261254. ISSN 1556-5068. 
  38. ^ Sotala, Kaj; Yampolskiy, Roman V (2014-12-19). “Responses to catastrophic AGI risk: a survey”. Physica Scripta 90 (1): 12. Bibcode2015PhyS...90a8001S. doi:10.1088/0031-8949/90/1/018001. ISSN 0031-8949. 
  39. ^ Miller, James D. (2015). Singularity Rising: Surviving and Thriving in a Smarter ; Richer ; and More Dangerous World. Benbella Books. OCLC 942647155 
  40. ^ Kaj Sotala; Roman Yampolskiy (19 December 2014). “Responses to catastrophic AGI risk: a survey”. Physica Scripta 90 (1). 
  41. ^ Barrett, Anthony M.; Baum, Seth D. (2016-05-23). “A model of pathways to artificial superintelligence catastrophe for risk and decision analysis”. Journal of Experimental & Theoretical Artificial Intelligence 29 (2): 397–414. arXiv:1607.07730. doi:10.1080/0952813x.2016.1186228. ISSN 0952-813X. オリジナルの15 March 2023時点におけるアーカイブ。. https://web.archive.org/web/20230315233258/https://www.tandfonline.com/doi/full/10.1080/0952813X.2016.1186228?cookieSet=1 2022年1月7日閲覧。. 
  42. ^ Sotala, Kaj; Yampolskiy, Roman V (2014-12-19). “Responses to catastrophic AGI risk: a survey”. Physica Scripta 90 (1): 018001. Bibcode2015PhyS...90a8001S. doi:10.1088/0031-8949/90/1/018001. ISSN 0031-8949. 
  43. ^ Ramamoorthy, Anand; Yampolskiy, Roman (2018). “Beyond MAD? The race for artificial general intelligence”. ICT Discoveries (ITU) 1 (Special Issue 1): 1–8. オリジナルの7 January 2022時点におけるアーカイブ。. https://web.archive.org/web/20220107141537/https://www.itu.int/pub/S-JOURNAL-ICTS.V1I1-2018-9 2022年1月7日閲覧。. 
  44. ^ Vincent, James (2016年6月22日). “Google's AI researchers say these are the five key problems for robot safety” (英語). The Verge. オリジナルの2019年12月24日時点におけるアーカイブ。. https://web.archive.org/web/20191224201240/https://www.theverge.com/circuitbreaker/2016/6/22/11999664/google-robots-ai-safety-five-problems 2020年4月5日閲覧。 
  45. ^ Amodei, Dario, Chris Olah, Jacob Steinhardt, Paul Christiano, John Schulman, and Dan Mané. "Concrete problems in AI safety." arXiv preprint arXiv:1606.06565 (2016).
  46. ^ Ord, Toby (2020). The Precipice: Existential Risk and the Future of Humanity. Bloomsbury Publishing Plc. ISBN 9781526600196 
  47. ^ Johnson, Alex (2019年). “Elon Musk wants to hook your brain up directly to computers — starting next year” (英語). NBC News. オリジナルの2020年4月18日時点におけるアーカイブ。. https://web.archive.org/web/20200418094146/https://www.nbcnews.com/mach/tech/elon-musk-wants-hook-your-brain-directly-computers-starting-next-ncna1030631 2020年4月5日閲覧。 
  48. ^ Torres, Phil (2018年9月18日). “Only Radically Enhancing Humanity Can Save Us All” (英語). Slate Magazine. オリジナルの2020年8月6日時点におけるアーカイブ。. https://web.archive.org/web/20200806073520/https://slate.com/technology/2018/09/genetic-engineering-to-stop-doomsday.html 2020年4月5日閲覧。 
  49. ^ Barrett, Anthony M.; Baum, Seth D. (23 May 2016). “A model of pathways to artificial superintelligence catastrophe for risk and decision analysis”. Journal of Experimental & Theoretical Artificial Intelligence 29 (2): 397–414. arXiv:1607.07730. doi:10.1080/0952813X.2016.1186228. 
  50. ^ a b c Domonoske, Camila (2017年7月17日). “Elon Musk Warns Governors: Artificial Intelligence Poses 'Existential Risk'” (英語). NPR. オリジナルの2020年4月23日時点におけるアーカイブ。. https://web.archive.org/web/20200423135755/https://www.npr.org/sections/thetwo-way/2017/07/17/537686649/elon-musk-warns-governors-artificial-intelligence-poses-existential-risk 2017年11月27日閲覧。 
  51. ^ a b c Gibbs, Samuel (2017年7月17日). “Elon Musk: regulate AI to combat 'existential threat' before it's too late”. The Guardian. オリジナルの2020年6月6日時点におけるアーカイブ。. https://web.archive.org/web/20200606072024/https://www.theguardian.com/technology/2017/jul/17/elon-musk-regulation-ai-combat-existential-threat-tesla-spacex-ceo 2017年11月27日閲覧。 
  52. ^ a b c Kharpal, Arjun (2017年11月7日). “A.I. is in its 'infancy' and it's too early to regulate it, Intel CEO Brian Krzanich says”. CNBC. オリジナルの2020年3月22日時点におけるアーカイブ。. https://web.archive.org/web/20200322115325/https://www.cnbc.com/2017/11/07/ai-infancy-and-too-early-to-regulate-intel-ceo-brian-krzanich-says.html 2017年11月27日閲覧。 

関連項目 編集