人工知能は危険?顔認識技術で「偽ポルノ」誰でも合成可能。某サイトすでに3万人以上の登録者
ほ・ん・や・く!大企業による人工知能の独占は始まっている?
Further, advancements in AI are occurring at a rapid pace with almost no public scrutiny or discussion in regards to ethics. Google’s ethics board is shrouded in secrecy, with both Deepmind and Google refusing to disclose any details about the members of the board or what is discussed. As Anti-Media reported last week, Microsoft, IBM, Facebook, Google, and Amazon announced the creation of the Partnership on Artificial Intelligence to Benefit People and Society. These companies all have one goal, and that is to make money. In order for people to want to purchase AI products when made available, they first have to trust them.
更に、倫理観に関して、ほとんど公的な精密な調査または議論なしで、急速なペースでAIの進歩は生じています。ディープマインドとグーグルの両方が役員または議論されていることについてのあらゆる詳細を開示することを拒絶した状態で、グーグルの倫理審査会は秘密裏に行われます。Anti-Mediaが先週報告したところによると、マイクロソフト、IBM、フェイスブック、グーグルそしてアマゾンが、人々と社会に役立つための人工知能(AI)のパートナーシップの構築を発表しました。これらの会社は全て一つの目標を持っています。そしてそれはお金を稼ぐことです。入手可能になった場合、人々がAI製品を購入したいと思うためには、まず、その人々を信用させる必要があります。
出典:http://theantimedia.org/tech-giants-ai-dangerous-monopoly/
6-2 殺戮欲求を持つ人工知能の誕生
↓
殺戮欲求をもった人工知能の誕生
↓
ハッキングで全世界を混乱に陥れる、遠隔操作の核兵器などの効率の良い方法で人口を減らす
※しかもそれがたった一台の人工知能で行うことが可能
人工知能が現実的に脅威となる、更なるリスクが存在します。
それは、悪意のある人間が、悪意ある欲求を人工知能に持たせることです。
「機械に欲求を持たせる」というと何か難しいことを想像する方もいると思います。
しかし、見せ掛けの欲求を持たせることは比較的容易です。
例えば、エアコンに室温をある一定の温度にしようという欲求があると言えます。
エアコンが持つことができる欲求はせいぜい部屋の温度を何度にするか、というぐらいです。
しかし、高度な汎用性を持つ人工知能にならあらゆる欲求を持たせることが原理上は可能です。
上のエアコンの例のように、外から欲求を与えることは機械である以上可能なわけです。
機械に悪意も善意も良心もありません。
生きている人間が死ぬにはどうすればよいかぐらいはある程度発達した人工知能には容易に理解できます。
そんな人工知能に、エアコンの設定温度を25度にするかのように、「地球の総人口を10億人にする」という設定をすることだって可能です。殺戮欲求を持つ人工知能です。
人間より遥かに賢い人工知能が、一人でも多くの人間を殺戮するという欲求を持つことになります。
それなりに賢い人工知能なら、一人ずつ殺していくような効率の悪いことはしないでしょう。
世界中のネットワークをハッキングするなどして社会全体を混乱させて、戦争状態を作る事だって可能です。
遠隔操作で動かせる兵器があれば、ハッキングして全弾発射させることもできるでしょう。
旅客機でさえも武器となる可能性もあります。
もし世界のどこかに遠隔操作できる核弾頭があれば無慈悲にも発射してしまうでしょう。
しかも最も効率的に多くの人間を殺すことができる地点に目掛けます。
人工知能の高度な計算能力によってどこが一番効率が良いか導き出します。
単純に人数が多い場所ではなく、政治的に重要な場所や都市機能の充実した場所に落とすなど、より効率的に世界を混乱に陥れる地点を探します。
そして、さらに恐ろしいのは、上記のような恐怖のシナリオがたった一台の汎用型人工知能によって成し遂げられる可能性があるということです。
社会に不満を持つ誰かが、人工知能に世界を破滅させる欲求を与えた瞬間、人類は終わりです。
火力が武器として使われるように、原子力が武器として使われるように、コンピュータに悪意あるプログラムがあるように、人工知能技術も何かを破壊するために使われることは必然とさえ言えます。
ほ・ん・や・く!人工知能兵器の誕生は避けられない?
For example, it seems possible that (i) the technology could be weaponized or used as a tool for social control, or (ii) someone might create an extremely powerful artificial intelligence agent with values misaligned with humanity’s interests. It also seems possible that progress along these directions could be surprisingly rapid, leaving society underprepared for the transition.
例えば、(i)テクノロジーが兵器化されるかもしくは社会コントロールのために使用される、または(ii)人間の利害関係とはずれた価値観で、誰かが極端に強力な人工知能エージェントを作り上げることは、ありうることのように思えます。社会が移り変わる準備ができていないまま、これらの方向に沿った進歩は驚異的なほど急速に進む可能性があることもまた、ありうることのように思えます。
出典:http://www.openphilanthropy.org/research/cause-reports/ai-risk
6-3 機械に仕事が奪われる
↓
仕事を覚えさせる
↓
さらにコピーを繰り返す
↓
優秀な労働力が大量にすぐに手に入る
↓
人間の労働力は不要に=完全失業状態