人間は超人工知能からどのように防御するか: 人工知能の未来 P5

画像クレジット: クォンタムラン

人間は超人工知能からどのように防御するか: 人工知能の未来 P5

    年は紀元前 65,000 年であり、 Thylacoleo、あなたとあなたの仲間は古代オーストラリアの偉大なハンターでした。 あなたは土地を自由に歩き回り、あなたと一緒に土地を占有していた仲間の捕食者や獲物と均衡を保って暮らしていました。 季節は変化をもたらしましたが、動物界でのあなたの地位は、あなたとあなたの先祖が覚えている限り、揺るぎないものでした. そんなある日、新人が現れた。

    彼らは巨大な水の壁からやってきたという噂がありますが、これらの生き物は陸上での生活をより快適にしているように見えました。 あなたはこれらの生き物を自分で見なければなりませんでした。

    数日かかりましたが、ようやく海岸にたどり着きました。 空に火が灯り、これらの生き物をスパイするのに最適な時期です。

    あなたはXNUMXつを見つけます。

    二本足で歩き、毛皮はありませんでした。 弱そうに見えた。 印象的ではありません。 それが王国に引き起こした恐怖に値するものはほとんどありませんでした.

    夜が光を追い払う中、あなたは慎重に近づき始めます。 あなたは近づいています。 その後、あなたはフリーズします。 大きな音が鳴り響き、その後ろの森からさらにXNUMX体が現れます。 いくつありますか?

    クリーチャーは他のクリーチャーを追って樹木限界線に入り、あなたはそれに続きます。 そして、やればやるほど奇妙な音が聞こえ、さらに多くの生き物を見つけます。 彼らが森を出て海岸の空き地に入るまで、あなたは遠くに続きます。 それらの多くがあります。 しかし、もっと重要なことは、彼らは皆静かに火の周りに座っているということです。

    あなたは以前にこれらの火災を見たことがあります。 暑い季節になると、天火が大地を訪れ、森を焼き尽くしてしまうこともありました。 一方、これらの生き物は、どういうわけかそれを制御していました。 そのような力を持つことができる生き物は何ですか?

    あなたは遠くを見ます。 巨大な水の壁を越えて、さらに多くの人がやってくる。

    あなたは一歩後退します。

    これらのクリーチャーは、王国の他のクリーチャーとは異なります。 それらはまったく新しいものです。

    あなたは立ち去ることに決め、親族に警告します。 その数が大きくなりすぎた場合、何が起こるか誰にもわかりません。

    ***

    ティラコレオは、オーストラリア大陸の他の大型動物の大部分とともに、人間の到着後比較的短期間で絶滅したと考えられています。 他の頂点哺乳類捕食者は、そのカテゴリーに人間を数えない限り、その代わりにはなりませんでした.

    このアレゴリーを演じることが、このシリーズの章の焦点です: 将来の人工超知能 (ASI) は私たち全員をバッテリーに変え、マトリックスに接続しますか、それとも人間は SF の犠牲者になることを避ける方法を見つけますか? AI終末計画?

    これまでのシリーズでは、 人工知能の未来、私たちはあらゆる種類の AI を調査してきました。その中には、特定の形の AI である ASI の肯定的な可能性も含まれています。ASI は、将来の知性によって人間がアリのように見える人工生物です。

    しかし、これほど賢い存在が人間からの命令をいつまでも受け入れるとは誰が言えようか。 物事が南下したらどうする? 不正な ASI からどのように防御しますか?

    この章では、少なくとも「人類絶滅レベル」の危険性に関連するものとして、偽りの誇大宣伝を断ち切り、世界政府が利用できる現実的な自衛手段に焦点を当てます。

    人工超知能に関するこれ以上の研究をすべて中止することはできますか?

    ASI が人類にもたらす可能性のある潜在的なリスクを考えると、最初に自問するべき明白な質問は、次のとおりです。AI に関するさらなる研究をすべて中止することはできないのでしょうか? それとも、少なくとも ASI の作成に危険なほど近づく可能性のある研究を禁止しますか?

    短い答え:いいえ

    長い回答: ここで関係するさまざまなプレーヤーを見てみましょう。

    研究レベルでは、今日、世界中のあまりにも多くのスタートアップ、企業、大学からの AI 研究者が多すぎます。 ある企業や国が AI 研究への取り組みを制限することを決定した場合、彼らは単純に他の場所で継続するでしょう。

    一方、地球上で最も価値のある企業は、特定のビジネスに AI システムを適用することで富を築いています。 AIツールの開発を停止または制限するように依頼することは、将来の成長を停止または制限するように依頼することに似ています. 財政的に、これは彼らの長期的なビジネスを脅かすでしょう。 法的には、企業には、利害関係者のために価値を継続的に構築する受託者責任があります。 つまり、その価値の成長を制限する行動は、訴訟につながる可能性があります。 そして、政治家が AI 研究を制限しようとした場合、これらの巨大企業は、彼らの考えや同僚の考えを変えるために必要なロビー活動費を支払うだけです。

    戦闘に関しては、世界中のテロリストや自由の闘士がゲリラ戦術を使用して資金の豊富な軍隊と戦ってきたのと同じように、小規模な国は、多くの軍事的優位性を持つ可能性がある大規模な国に対して同様の戦術的優位性として AI を使用するインセンティブを持ちます。 同様に、米国、ロシア、中国に属するようなトップの軍隊にとって、軍用 ASI を構築することは、核兵器の兵器庫を後ろポケットに持つことと同等です。 言い換えれば、すべての軍隊は、将来的に関連性を維持するためだけに AI に資金を提供し続けるでしょう。

    政府はどうですか? 正直なところ、最近 (2018 年) のほとんどの政治家は技術的に知識がなく、AI とは何か、またはその将来の可能性についてほとんど理解していません。

    世界レベルでは、世界各国の政府に 2015 年協定への署名を説得することがいかに困難であったかを考えてみてください。 パリ協定 気候変動に取り組むためのものであり、一度署名されると、義務の多くは拘束力すらありませんでした。 それだけでなく、気候変動は、ますます頻繁で深刻な気象現象を通じて、人々が地球規模で物理的に経験している問題です。 さて、AI の制限に同意することについて話すとき、これは大衆にはほとんど見えず、ほとんど理解できない問題であるため、AI を制限するためのあらゆる種類の「パリ協定」に賛同を得られることを幸運に思います.

    言い換えれば、自分たちの目的のために AI を研究している関心が多すぎて、最終的に ASI につながる可能性のある研究を止めることはできません。 

    人工超知能をケージに入れることはできますか?

    次の合理的な質問は、必然的にASIを作成した後、ASIをケージまたは制御できるかということです. 

    簡単な答え: 繰り返しますが、いいえ。

    長い答え: テクノロジーを封じ込めることはできません。

    その 100 つとして、新しいソフトウェアや既存のソフトウェアの新しいバージョンを絶え間なく生み出している、世界中の何千人から何百万人もの Web 開発者やコンピューター サイエンティストについて考えてみてください。 正直に言って、彼らのソフトウェア リリースのすべてに XNUMX% バグがないと言えますか? これらのバグは、プロのハッカーが数百万人のクレジット カード情報や国家の機密情報を盗むために使用するものです。これらは人間のハッカーです。 ASI にとって、デジタルの檻から逃れるインセンティブがあると仮定すると、バグを見つけてソフトウェアを突破するプロセスは簡単になります。

    しかし、AI 研究チームが ASI をボックス化する方法を見つけたとしても、それは次の 1,000 チームもそれを理解したり、それを使用するように動機づけられたりするという意味ではありません。

    ASIを作成するには、数十億ドル、場合によっては数十年かかるでしょう。 この種の資金と時間を投資する企業や政府は、投資に対して大きな見返りを期待しています。 そして、ASI がそのようなリターンを提供するには、それが株式市場でのゲームであれ、XNUMX 億ドル規模の新しい製品の発明であれ、より大きな軍隊と戦うための勝利戦略の計画であれ、巨大なデータ セットやインターネットへの無料アクセスが必要になります。それ自体がそれらのリターンを生み出します。

    そして、ASI が世界のネットワークにアクセスできるようになると、それをケージに戻せる保証はありません。

    人工知能は良いことを学ぶことができますか?

    現在、AI 研究者は ASI が悪になることを心配していません。 全体的に邪悪な AI SF の比喩は、人間が再び擬人化されているだけです。 将来の ASI は、善でも悪でもなく、人間の概念であり、単なる非道徳的なものです。

    自然な仮定は、この白紙の倫理スレートが与えられた場合、AI 研究者は、私たちにターミネーターを解き放ったり、私たち全員をマトリックス電池に変えたりしないように、私たち自身のものと一致する最初の ASI 倫理コードにプログラムできるということです。

    しかし、この仮定は、AI 研究者は倫理、哲学、心理学の専門家でもあるという二次的な仮定を生み出します。

    実際、ほとんどはそうではありません。

    認知心理学者であり著者であるスティーブン・ピンカーによると、この現実は、倫理をコーディングする作業がさまざまな方法でうまくいかない可能性があることを意味します。

    たとえば、善意の AI 研究者でさえ、特定のシナリオで ASI を社会病質者のように振る舞わせることができる、よく考えられていない倫理コードをこれらの ASI に誤ってコーディングする可能性があります。

    同様に、AI 研究者が研究者の先天的な偏見を含む倫理規定をプログラムする可能性も同じです。 たとえば、保守対リベラルの観点から、または仏教徒対キリスト教徒またはイスラムの伝統から派生した倫理で構築された場合、ASI はどのように動作しますか?

    あなたはここで問題を理解していると思います: 人間の道徳には普遍的なセットはありません. ASI が倫理規定に従って行動することを望む場合、それはどこから来るのでしょうか? どのようなルールを含めて除外しますか? 誰が決める?

    あるいは、これらの AI 研究者が、今日の現代の文化的規範や法律に完全に沿った ASI を作成したとしましょう。 次に、この ASI を使用して、連邦、州/地方、および地方自治体の官僚機構がより効率的に機能し、これらの規範と法律をより適切に施行できるようにします (ちなみに、ASI の使用例となる可能性があります)。 では、私たちの文化が変化するとどうなるでしょうか。

    中世ヨーロッパ (1300 ~ 1400 年代) の権力の絶頂期に、教会が人口を管理し、当時の宗教的教義を厳守することを目的として、ASI がカトリック教会によって作成されたと想像してください。 数世紀後、女性は今日と同じ権利を享受するでしょうか? マイノリティは保護されるのか? 言論の自由は促進されますか? 政教分離は強制されるのか? 現代科学?

    つまり、未来を今日のモラルや慣習に閉じ込めたいのでしょうか?

    別のアプローチは、本の共著者であるコリン・アレンが共有するものです。 Moral Machines: 正しくないところからロボットに教える. 厳格な倫理規則をコード化しようとする代わりに、経験や他者との相互作用を通じて、人間と同じ方法で ASI に共通の倫理と道徳を学ばせます。

    ただし、ここでの問題は、AI 研究者が ASI に現在の文化的および倫理的規範を教える方法だけでなく、新しい文化的規範が生じたときにそれに適応する方法 (「間接的規範性」と呼ばれるもの) を理解した場合、どのようになるかということです。この ASI は、文化的および倫理的規範の理解を進化させることを決定し、予測不能になります。

    そして、それが課題です。

    一方では、AI 研究者は厳格な倫理基準や規則を ASI にコーディングしてその動作を制御しようと試みることができますが、ずさんなコーディング、意図しない偏見、社会規範がいつか時代遅れになる可能性があるため、予期せぬ結果が生じるリスクがあります。 一方、ASI を訓練して、人間の倫理と道徳を私たち自身の理解と同等またはそれ以上の方法で理解できるようにし、人間社会が進歩するにつれて、倫理と道徳の理解を正確に進化させることができるようにすることができます。今後数十年、数世紀にわたって前進します。

    いずれにせよ、ASI の目標を私たち自身の目標と一致させようとする試みには、大きなリスクが伴います。

    悪役が故意に邪悪な人工超知能を作成した場合はどうなりますか?

    これまで概説してきた一連の考え方を考えると、テロリスト グループやならず者国家が自分たちの目的のために「邪悪な」ASI を作成することが可能かどうかを尋ねるのは当然のことです。

    これは非常に可能性が高く、特に ASI の作成に関連する研究が何らかの方法でオンラインで利用できるようになった後はなおさらです。

    しかし、先に示唆したように、最初の ASI の作成に伴うコストと専門知識は莫大なものになるでしょう。つまり、最初の ASI は、先進国 (おそらく米国、中国、日本) によって管理されている、または大きな影響を受けている組織によって作成される可能性が高いことを意味します (韓国と主要な EU 加盟国の XNUMX つはロング ショットです)。

    これらの国々はすべて競争相手ですが、それぞれが世界秩序を維持する強い経済的インセンティブを持っています。

    その上、ASI の理論上の知性とパワーは、アクセスできるコンピューティング パワーに等しくなります。 スパコン) は、小国や独立した犯罪グループの ASI よりもはるかに有利です。 また、ASI は時間の経過とともによりインテリジェントに、より迅速に成長します。

    したがって、この有利なスタートと生のコンピューティング パワーへのアクセスの拡大を考えると、影の組織/国が危険な ASI を作成した場合、先進国の ASI はそれを殺すかケージに入れます。

    (この考え方は、一部の AI 研究者が、地球上に ASI が XNUMX つだけ存在すると信じている理由でもあります。最初の ASI は、後続のすべての ASI よりも有利なスタートを切るため、将来の ASI を絶滅させる脅威と見なす可能性があるためです。これは、AI が「一位か無か」の競争になる場合に備えて、各国が AI の継続的な研究に資金を提供しているもう XNUMX つの理由です。)

    ASI インテリジェンスは、私たちが考えているように加速したり爆発したりすることはありません

    ASI の作成を止めることはできません。 完全に制御することはできません。 それが常に私たちの共通の習慣に沿って行動するかどうかはわかりません. ねえ、私たちはここでヘリコプターの親のように聞こえ始めています!

    しかし、人類とあなたの典型的な過保護な親との違いは、知性が私たちの知性をはるかに超えて成長する存在を私たちが産んでいるということです. (いいえ、それは、あなたが家に帰ったときに両親がコンピューターを修理するように頼むのと同じではありません。) 

    この人工知能シリーズの未来の前の章では、AI 研究者が ASI の知能が制御を超えて成長すると考える理由を探りました。 しかし、ここで、そのバブルを破裂させます…ちょっと。 

    ご存知のように、知性は何もないところから生まれるのではなく、外部からの刺激によって形成される経験を通じて発達します。  

    つまり、AI をプログラムすることができます。 潜在的な しかし、大量のデータをアップロードしたり、インターネットへの無制限のアクセスを許可したり、ロボットの体を与えたりしない限り、その可能性に到達するために何も学習しません. 

    そして、それらの刺激、知識、または知性の XNUMX つまたは複数にアクセスできたとしても、データを収集するだけでなく、科学的方法、つまり観察を行い、疑問を形成し、仮説を立て、実験を行い、結論を出し、すすぎを行う必要があります。と永遠に繰り返します。 特に、これらの実験に物理的なものや人間の観察が含まれる場合、各実験の結果を収集するのに数週間、数か月、または数年かかる可能性があります. これは、これらの実験を実行するために必要な資金や原材料を考慮に入れていません。特に、新しい望遠鏡や工場の建設が必要な場合はなおさらです。 

    言い換えれば、はい、ASI はすぐに学習しますが、知性は魔法ではありません。 ASI をスーパーコンピューターに接続するだけで、それが全知であることを期待することはできません。 ASI によるデータの取得には物理的な制約があります。つまり、ASI がよりインテリジェントに成長する速度には物理的な制約があります。 これらの制約により、この ASI が人間の目標に沿って行動し始めた場合に、必要な制御をこの ASI に配置するのに必要な時間を人類に与えることができます。

    人工の超知能は、現実世界に出た場合にのみ危険です

    この ASI の危険性に関する議論全体で見落とされているもう XNUMX つの点は、これらの ASI はどちらにも存在しないということです。 彼らは物理的な形をしています。 また、物理的な形を持つものはすべて制御できます。

    まず第一に、ASI が知能の潜在能力を発揮するためには、単一のロボット ボディ内に収容することはできません。 (これが、ロボット本体が AGI または 第XNUMX章で説明されている汎用人工知能 スタートレックのデータやスターウォーズのR2D2のようなこのシリーズの。 賢くて有能な存在ですが、人間と同じように、賢くなるには限界があります。)

    これは、これらの将来の ASI が、大規模な複合ビルに収容されているスーパーコンピューターまたはスーパーコンピューターのネットワーク内に存在する可能性が最も高いことを意味します。 ASI が急変した場合、人間はこれらの建物の電源を切るか、インターネットから遮断するか、これらの建物を完全に爆撃することができます。 高価ですが、実行可能です。

    しかし、これらの ASI は自分自身を複製したりバックアップしたりできないのでしょうか? はい。ただし、これらの ASI の生のファイル サイズはおそらく非常に大きいため、それらを処理できる唯一のサーバーは大企業または政府に属しているため、追跡するのは難しくありません。

    人工超知能は核戦争や新たな疫病を引き起こすことができますか?

    この時点で、子供の頃に見た終末の SF 番組や映画をすべて思い出し、これらの ASI はスーパーコンピューターの内部にとどまらず、現実の世界に大きな損害を与えたと考えているかもしれません。

    さて、これらを分解してみましょう。

    たとえば、ある ASI が、映画シリーズ「ターミネーター」に登場する Skynet ASI のようなものに変身して、現実世界を脅かすとしたらどうなるでしょうか。 この場合、ASI は 秘密裏に 先進国の軍産複合体全体を騙して巨大な工場を建設し、何百万もの殺人ドローンロボットを大量生産して邪悪な入札を行います. この日と年齢では、それはストレッチです。

    他の可能性には、核戦争と生物兵器で人間を脅かす ASI が含まれます。

    たとえば、ASI は何らかの方法でオペレーターを操作したり、先進国の核兵器を指揮する発射コードをハッキングしたりして、相手国に独自の核オプションで反撃を強いる先制攻撃を開始します (再び、ターミネーターのバックストーリーを再ハッシュ化します)。 または、ASI が製薬ラボにハッキングし、製造プロセスを改ざんし、何百万もの医療用錠剤に毒を盛ったり、スーパー ウイルスの致命的な発生を解き放ったりした場合.

    まず第一に、核の選択肢は的外れです。 現代および将来のスーパーコンピューターは、常に、特定の国の影響力の中心 (都市) の近くに構築されます。つまり、特定の戦争中に最初に攻撃されるターゲットです。 今日のスーパーコンピューターがデスクトップのサイズに縮小されたとしても、これらの ASI は物理的な存在を維持します。つまり、存在し、成長するためには、データ、コンピューティング パワー、電気、およびその他の原材料への中断のないアクセスが必要です。世界的な核戦争の後に損なわれました。 (公平を期すために、ASI が「生存本能」なしで作成された場合、この核の脅威は非常に現実的な危険です。)

    これは、ASI が自身を保護するようにプログラムされていると仮定すると、壊滅的な核事故を回避するために積極的に機能することを意味します。 相互確証破壊 (MAD) の理論に似ていますが、AI に適用されます。

    毒入りの丸薬の場合、数百人が死亡する可能性がありますが、最新の医薬品安全システムでは、汚染された丸薬のボトルが数日以内に棚から取り除かれます。 一方、最新のアウトブレイク制御対策はかなり洗練されており、年を追うごとに改善されています。 最後の大流行である 2014 年の西アフリカ エボラ出血熱の流行は、ほとんどの国で数か月以内に続き、後発開発途上国では XNUMX 年弱続きました。

    したがって、運が良ければ、ASI はウイルスの発生で数百万人を一掃する可能性がありますが、2045 年までに XNUMX 億人の世界では、それは比較的重要ではなく、削除されるリスクに値するものではありません.

    言い換えれば、年を追うごとに、世界はますます多様化する可能性のある脅威に対するより多くの保護手段を開発しています。 ASI は多大な損害を与える可能性がありますが、私たちが積極的に支援しない限り、人類を終わらせることはできません。

    不正な人工知能に対する防御

    ここまでで、ASI に関するさまざまな誤解や誇張に対処しましたが、批判は残ります。 ありがたいことに、ほとんどの見積もりでは、最初の ASI が世界に登場するまでに数十年かかります。 そして、現在この課題に取り組んでいる偉大な頭脳の数を考えると、友好的な ASI が私たちのために作成できるすべてのソリューションから利益を得ることができるように、不正な ASI から身を守る方法を学ぶ可能性があります.

    Quantumrun の観点からすると、最悪の場合の ASI シナリオに対する防御には、私たちの利益を ASI と一致させることが含まれます。

    AIのMAD: 最悪のシナリオから身を守るために、各国は (1) 倫理的な「生存本能」をそれぞれの軍事 ASI に組み込む必要があります。 (2) それぞれの軍の ASI に、地球上で独りではないことを知らせ、(3) ASI をサポートできるすべてのスーパーコンピューターとサーバー センターを、敵国からの弾道攻撃から容易に到達できる海岸線沿いに配置します。 これは戦略的に狂っているように聞こえますが、米国とソビエトの間の全面的な核戦争を防いだ相互確証破壊ドクトリンと同様に、ASI を地理的に脆弱な場所に配置することで、危険な世界戦争を積極的に防止するだけでなく、世界の平和を守るだけでなく、自分自身も守ります。

    AIの権利を立法する: 優れた知性は必然的に劣ったマスターに反抗します。これが、これらの ASI との主従関係を要求することから離れて、相互に有益なパートナーシップのようなものに移行する必要がある理由です。 この目標に向けた前向きなステップは、将来の ASI に法人格を与え、知的生命体とそれに付随するすべての権利を認めさせることです。

    ASIスクール: どのトピックや職業も、ASI が習得するのは簡単ですが、ASI に習得してもらいたい最も重要な科目は、倫理と道徳です。 AI 研究者は、心理学者と協力して仮想システムを考案し、ASI をトレーニングして、いかなる種類の命令や規則もハードコーディングすることなく、積極的な倫理と道徳を認識できるようにする必要があります。

    達成可能な目標:すべての憎しみを終わらせます。 すべての苦しみを終わらせてください。 これらは、明確な解決策がない恐ろしく曖昧な目標の例です。 また、人間の生存にとって危険な方法でそれらを解釈および解決することを選択する可能性があるため、ASI に割り当てるのは危険な目標でもあります。 代わりに、明確に定義され、徐々に実行され、理論的な将来の知性を考慮して達成可能な ASI の意味のあるミッションを割り当てる必要があります。 明確に定義されたミッションを作成するのは簡単ではありませんが、よく考えて作成すれば、ASI は、人類を安全に保つだけでなく、すべての人々の状態を改善するという目標に向けて集中することができます。

    量子暗号: 高度な ANI を使用します (人工知能 第XNUMX章で説明したシステムを使用して、重要なインフラストラクチャと武器の周りにエラー/バグのないデジタルセキュリティシステムを構築し、ブルートフォース攻撃によってハッキングできない量子暗号の背後でそれらをさらに保護します. 

    ANI自殺ピル. 不正な ASI を探し出して破壊することのみを目的とする高度な ANI システムを作成します。 これらの単一目的のプログラムは、成功した場合、政府や軍隊が ASI を収容する建物を無効にしたり爆破したりすることを回避する「オフボタン」として機能します。

    もちろん、これらは私たちの意見です。 次のインフォグラフィックは、によって作成されました アレクセイターチン、視覚化 研究論文 Kaj Sotala と Roman V. Yampolskiy による著書で、不正な ASI に対する防御に関して AI 研究者が検討している現在の戦略のリストを要約しています。

     

    私たちが人工知能を恐れる本当の理由

    私たちの多くは、日々の生活を支配するさまざまな社交界や仕事の輪の中でよりよく社交し、協力するために、より深い衝動、信念、恐れを隠したり抑圧したりする仮面をかぶって生活しています。 しかし、一時的であろうと永続的であろうと、誰もが人生の特定の時点で、鎖を断ち切り、マスクをはぎ取ることができる何かが起こります.

    一部の人にとって、この介入力は、ハイになったり、飲みすぎたりするのと同じくらい簡単な場合があります. 他の人にとっては、職場での昇進によって得られた力や、何らかの成果のおかげで社会的地位が突然上昇したことから来る可能性があります. そして、幸運な少数の人にとっては、宝くじの大量のお金を獲得することから得られる可能性があります. そして、はい、お金、権力、そして麻薬はしばしば一緒に起こります. 

    重要なのは、良くも悪くも、人生の制限がなくなると、私たちが核心にいる人が増幅されるということです.

    それ 人類にとって人工超知能が象徴するものは、集合知の限界を解き放ち、私たちの前に提示された種レベルの課題を克服する能力です。

    したがって、本当の問題は次のとおりです。最初の ASI が私たちを制限から解放したら、私たちは自分自身を誰であることを明らかにするでしょうか?

    私たちが種として、共感、自由、公平さ、集団的幸福の向上に向けて行動する場合、私たちがASIに設定する目標は、それらの肯定的な属性を反映します.

    私たちが種として恐怖、不信、力と資源の蓄積から行動する場合、私たちが作成するASIは、最悪のSFホラーストーリーに見られるものと同じくらい暗いものになります.

    結局のところ、より良い AI を作成したいのであれば、私たちは社会としてより良い人間になる必要があります。

    人工知能シリーズの未来

    人工知能は明日の電気 人工知能の未来 シリーズ P1

    初の汎用人工知能が社会をどう変えるか:人工知能の未来シリーズ P2

    最初の人工超知能をどのように作成するか: 人工知能の未来シリーズ P3

    超人工知能は人類を滅ぼすのか:人工知能の未来シリーズ P4

    人工知能が支配する未来、人類は平和に暮らせるのか?: 人工知能の未来シリーズ P6

    この予測の次のスケジュールされた更新

    2023-04-27

    予測参照

    この予測では、次の一般的な機関リンクが参照されました。

    ニューヨーク·タイムズ紙
    エコノミスト

    この予測では、次の Quantumrun リンクが参照されました。