人工知能で作られる偽ポルノ。顔認識技術で誰でも合成される危険…
画面のなかは、もう信用してはいけません。
芸能人のエロ画像、エロ動画流出!は世間をにぎわす大きなニュース。知名度を一気にあげる人もいれば、これが原因で華やかな世界から去る人も。もちろん、エロ画像・動画には、合成された偽物もあり、有名人には頭痛のタネ。しかし、今やマシンラーニングの発展で一般人にまでその手が伸びているようで…。
Motherboardでは、コミュニティサイトDiscord(ディスコード)やRedditにて、フェイクポルノを作る人々が増えていると指摘。人々は、有名人の合成だけではなく、好きな人や元恋人の顔をエロ画像・動画に合成しているというのです。アイディア自体は新しいものではありませんが、いまや人工知能によってよりリアルな偽ポルノができてしまうのが問題。合成に必要なソフトは無料という恐ろしさ。合成の素材となる写真も、SNSを探せばいくらでも無料で手にはいるという恐ろしさ。しかし、なにより恐ろしいのは、この合成偽ポルノの作り方などの情報を交換するコミュニティが拡大しているということ。Redditのとあるコミュニティは、すでに3万人以上の登録者がいます。Facebook(フェイスブック)やInstagram(インスタグラム)から、高校自体のクラスメイトの写真を拝借して偽ポルノ動画を制作し、出来も悪くないと自慢するユーザーまでいる始末。
昔よりも簡単に誰でもできるとはいえ、2~3枚の写真をアップロードすれば、フェイクエロ動画ができあがるわけではありません。SNSのおかげで素材は無料だとしても、そこから必要な写真を何枚も何百枚もとり、それ相当の写真編集スキルで合成しなくてはいけないのです。ただ、無料の人工知能ソフトが、ターゲットにうまくマッチしてくれるポルノ女優を探してくれはします。でも、この人工知能レベルのうまいマッチのおかげで、完成品のリアルさが増してしまいます。フェイクポルノで、何よりも問題視すべきなのはここ、リアルであるということです。
エロのパワーはすさまじいものがあり、エロなくしてテクノロジーの発展なしといっても過言ではないでしょう。ただ、その力が強いがゆえに、インターネットに闇が存在してしまうのも事実。もうどうしようもありませんよ。何をどう取り締まればいいのかもわかりません。ひとつハッキリと言えるのは、画面を通してみたものは決して信じてはダメだということ。たとえそれが、リアルタイム配信だとしても、信じてはいけない、それが今の世界なのです。
1. そもそも人工知能って何?
人工知能(artificial intelligence、AI)とは、人工的にコンピュータ上などで人間と同様の知能を実現させようという試み、或いはそのための一連の基礎技術を指す。
「人工知能」という名前は1956年にダートマス会議でジョン・マッカーシーにより命名された。現在では、記号処理を用いた知能の記述を主体とする情報処理や研究でのアプローチという意味あいでも使われている。
1-1 人工知能(AI)の例
・SIRI
・自動運転車
・検索エンジン
・Watson
・自律ロボット
など。
ほ・ん・や・く!WHAT IS AI?AIとは何か?From SIRI to self-driving cars, artificial intelligence (AI) is progressing rapidly. While science fiction often portrays AI as robots with human-like characteristics, AI can encompass anything from Google’s search algorithms to IBM’s Watson to autonomous weapons.SIRIから自動運転車まで、人工知能(AI)は急速に進歩しています。サイエンス・フィクションが、しばしば、AIを人間のようなキャラクターのロボットとして描写しますが、AIは、グーグルのサーチ・アルゴリズムからIBMのWatson、自律兵器まで、なんでも含みます。Artificial intelligence today is properly known as narrow AI (or weak AI), in that it is designed to perform a narrow task (e.g. only facial recognition or only internet searches or only driving a car). However, the long-term goal of many researchers is to create general AI (AGI or strong AI). While narrow AI may outperform humans at whatever its specific task is, like playing chess or solving equations, AGI would outperform humans at nearly every cognitive task.今日、限られたタスクを実行するために設計されている(例えば、顔認証のみ、またはインターネット検索のみ、または車の運転のみ)という点で、人工知能は特化型AI(または弱いAI)として知られています。しかしながら、多くの研究者の長期的な目標は汎用AI(AGIすなわち強いAI)を作ることです。特化型AIのパフォーマンスが、チェスをすることまたは方程式を解くことのような、任意の特定のタスクにおいてでも人間より優れている一方で、AGIのパフォーマンスはほぼ全ての認知的タスクにおいて人間よりも優れています。
2. 現在(2017年前半)人工知能ができること
ほ・ん・や・く!人工知能(AI)のリスク顕在化のタイミングUp until now, AI has primarily been applied to very limited contexts such as playing Chess or Go or recognizing objects in images, where there isn’t much scope for the system to do much damage. As they start to make decisions on our behalf within the real world, the stakes are much higher.現在まで、AIは、チェスや碁をすることまたは画像内の対象物を認識することなどの、システムが大きな損害を及ぼす余地が多くない非常に限定的なコンテクストに主に適用されてきました。実際の世界で彼ら(AI)が我々を代表して意思決定をし始めると、危険の度合いは非常に高くなります。
2-1 ゲームをする
ゲームで対局ができます。チェス・将棋・囲碁・麻雀などの対局型ゲームができます。
将棋のプログラムは他のゲームよりも難しいです。
将棋においては序盤に難点がありましたが今ではプロに角落ちで勝ったりしています。
2-2 好みを予測する
お客におすすめの商品を提示するバーチャル店員です。
インターネット上のオンラインストア(本)等では、利用者が過去に買った本から本を推選します。
そして、好きか嫌いかにより、おすすめの本を変えてくれます。
2-3 学習する
人工知能は知識(ルール)によって判断します。
バーチャル店員を例にすると、過去に利用者がサッカーの本を沢山買っていたとすると野球も好むのではないかと予測し、野球の本も推選するようになります。
経験に基づいて判断することができます。
ディープラーニング
2-4 見る(視覚判断、識別)
周囲がどのようになっているのか判断することができます。
また、人の顔を覚えて、自分の前にいる人物が誰なのかを識別することもできます。
2-5 感情を表現する
外から刺激を与える(例:話しかける)と、顔の表情が変わって感情を表現できます。
2-6 翻訳する
インターネット上で日本語を英語に変換したり、英語を日本語に変換したりすることができます。
昔のものより質もとても良くなっています。
3. 2045年問題とは
「2045年問題」とは2045年にはコンピューターの性能が人間の脳を超えるという予測です。
この予測はコンピューターチップの性能が18ヶ月(1.5年)毎に2倍になると予測した「ムーアの法則」に基づいて作られています。
ほ・ん・や・く!2045年の人類展望
Future prospects of “2045” Initiative for society
社会の「2045年」構想の将来予測
This is the time when substance-independent minds will receive new bodies with capacities far exceeding those of ordinary humans. A new era for humanity will arrive! Changes will occur in all spheres of human activity – energy generation, transportation, politics, medicine, psychology, sciences, and so on.
この年は、実体のない知性が、普通の人間の能力をはるかに超える能力を備える新しい身体を与えられる時です。人類にとっての新しい時代の幕開けです!-エネルギー生成、輸送、政治、薬、心理学、科学など-人間の活動の全ての領域において変化が起きます。
Today it is hard to imagine a future when bodies consisting of nanorobots will become affordable and capable of taking any form. It is also hard to imagine body holograms featuring controlled matter. One thing is clear however: humanity, for the first time in its history, will make a fully managed evolutionary transition and eventually become a new species. Moreover, prerequisites for a large-scale expansion into outer space will be created as well.
今日、ナノロボットからなる身体が実現可能であり、あらゆる形態を取ることができるという未来を想像することは難しいです。コントロールされた物質からなるを身体のホログラム(レーザー写真)を想像することもまた、難しいです。しかしながら、一つ確かなことがあります。人類は、その歴史において初めて、完全に管理した状態で進化のステージを上がることができ、最終的に、新たな種となります。さらに、宇宙への進出を大規模に行うための前提条件もまた、整うでしょう。
3-1 シンギュラリティポイント(技術的特異点)とは
技術的特異点(シンギュラリティポイント)とは、未来研究において、正確かつ信頼できる、人類の技術開発の歴史から推測され得る未来モデルの限界点を指す。
簡単に言えば、「シンギュラリティ」とはコンピューターの知能が人間を超える現象、またはその瞬間を意味する言葉。
3-2 人工知能が、人間の知性を超えることが本当にあるのか?
レイ・カーツワイル氏
レイ・カーツワイル氏はニューヨーク出身の米主要発明家にして未来学者、起業家、ベストセラー作家です。
AI(人工知能)研究の分野で世界的権威の一人と認定されました。
2012年にグーグルの人工知能開発チームに加わります。
レイ・カーツワイル氏は、1980年代に、インターネットによる「検索エンジン」の登場、普及を予言していました。
ほ・ん・や・く!レイ・カーツワイル氏の実際の発言
“It is hard to think of any problem that a superintelligence could not either solve or at least help us solve. Disease, poverty, environmental destruction, unnecessary suffering of all kinds: these are things that a superintelligence equipped with advanced nanotechnology would be capable of eliminating.”
「スーパーインテリジェンス(超知性)が問題を解決することができるかまたは少なくとも我々が問題を解決するのに役立つ可能性のある全ての問題を考えることは困難です。病、貧困、環境破壊、あらゆる種類の不必要な苦痛:これらは先進的なナノテクノロジーを備えるスーパーインテリジェンス(超知性)が除去できるであろうことです。」
ほ・ん・や・く!レイ・カーツワイル氏の実際の発言
“By understanding the information processes underlying life, we are starting to learn to reprogram our biology to achieve the virtual elimination of disease, dramatic expansion of human potential, and radical life extension.”
「生命に内在する情報プロセスを理解することによって、病を実質的に除去すること、人間のポテンシャルの劇的な拡大、および急進的な寿命の拡大を達成するために、我々は自分たちの生態を再プログラミングすること学び始めつつあります。」
4. 人工知能が危険と考えている人物
4-1 スティーブン・ホーキング博士
スティーヴン・ウィリアム・ホーキング (Stephen William Hawking 1942年1月8日 – )はイギリスの理論物理学者である。
一般相対性理論と関わる分野で理論的研究を前進させ、1963年にブラックホールの特異点定理を発表し世界的に名を知られた。
1971年には「宇宙創成直後に小さなブラックホールが多数発生する」とする理論を提唱、1974年には「ブラックホールは素粒子を放出することによってその勢力を弱め、やがて爆発により消滅する」とする理論(ホーキング放射)を発表、量子宇宙論という分野を形作ることになった。
現代宇宙論に多大な影響を与えている人物。
筋萎縮性側索硬化症(Amyotrophic Lateral Sclerosis、ALS)を患い、音声合成装置を使って発話するホーキング博士は、現存する科学者の中で最も才能ある一人と認知されている。
ホーキング博士は、英国放送協会(BBC)のインタビューで、「人工知能技術は急速に発展して人類を追い越す可能性がある」と語った。
「われわれがすでに手にしている原始的な人工知能は、極めて有用であることが明らかになっている。だが、完全な人工知能の開発は人類の終わりをもたらす可能性がある」と、ホーキング博士は語った。
ほ・ん・や・く!ホーキング博士の実際の発言
As Hawking put it, “Success in creating AI would be the biggest event in human history. Unfortunately, it might also be the last.”
ホーキング博士は以下のように表現しました。「AIを作ることにおいて成功することは人間の歴史において最も大きなイベントです。不幸なことに、それは最後の大きなイベントとなるでしょう。」
出典:http://theantimedia.org/tech-giants-ai-dangerous-monopoly/
ほ・ん・や・く!ホーキング博士の実際の発言
“It would take off on its own, and re-design itself at an ever increasing rate,” he said.
「ひとたび人間が人工知能を開発してしまえば、それは自立し、加速度的に自らを再設計していくでしょう。」と彼(ホーキング博士)は言いました。
“Humans, who are limited by slow biological evolution, couldn’t compete, and would be superseded.”
「ゆっくりとした生物学的な進化により制限されている人間は、競争することはできず、(人工知能に)取って代わられるでしょう。」
- 「ハードサイエンス分野の化学者が声を上げたことをうれしく思う。私は何年も前から同じことを言ってきた」と、スイスのローザンヌ大学(University of Lausanne)の人類学者ダニエラ・セルキ(Daniela Cerqui)氏は言う。
- 人工知能開発分野での進歩は、人間の能力をしのぐ機械を作りつつあると、同氏は主張する。このままいけば、人命に関わる責任を機械に任せることになるだろう。SFのように思えるかもしれないが、いま起きていることを見れば、それは程度の問題だ。私たちはホーキング博士が警鐘を鳴らす道を一歩ずつ進んでいる」
4-3 ビル・ゲイツ氏
- ゲイツ氏も人工知能がもたらす脅威に懸念
- 自分で考えることのできる機械がもたらしうる脅威について、科学界や技術業界の著名人が言及する例が相次いでいるが、今回、Bill Gates氏もその仲間に加わった。
- ゲイツ氏は、AIがもたらす実存的な脅威についての質問に対し、「わたしも超知能に関して懸念を抱いている側の1人だ」と回答した。
- 「当面、機械は今後もわれわれのために多くのことをしてくれるはずで、超知的にはならない。うまく管理すれば、これ自体はプラスに評価できる。だが、こうした状況から数十年後には、知能が強力になり、懸念をもたらす」
4-4 イギリスの有名な発明家クライブ・シンクレア氏
- BBCに対して「人を凌駕(りょうが)する知性を持つ機械と競争し、人類が生き残るのは困難だ」と述べている。
5. 人工知能は危険ではないと考える人物
5-1 英オックスフォード大学・ニック・ボストロム教授
- 英オックスフォード大学(Oxford University)で未来技術の影響に関するプログラムを率いるニック・ボストロム(Nick Bostrom)教授は、人工知能が人間を超えるという脅威は切迫していないと語る。
同氏は軍用無人機や自動運転者、工場で働くロボットなどを挙げ、現在使用されている応用法や、近い未来で使用される見込みの応用法では、人工知能はまだ人間の手中にあると指摘する。
- とはいえ、同氏は「機械の知能は最終的には生物の知能を超えるだろう。そしてその過程で人間の存在が大きく脅かされる危険性もある」とも語っている。
ほ・ん・や・く!ボストロム氏の実際の発言
Bostrom makes it clear that he and his staff are not interested in everyday disasters; they deal only with the big stuff: “There are a lot of things that can go and have gone wrong throughout history — earthquakes and wars and plagues and whatnot. But there is one kind of thing that has not ever gone wrong; we have never, so far, permanently destroyed the entire future.”
ボストロム教授は、彼と彼のスタッフは毎日起きている災害には興味がなく、重要なもののみを扱っていることを明らかにしました。「-地震と戦争、そして天災、その他にも似たようなもの-歴史を通して間違う可能性のある、そして間違ってしまった多くのことが存在します。しかし、決して間違ってこなかった一つのことが存在します。すなわち、我々はこれまで、全ての未来を永久に壊してしまう、ということは決してしたことはありませんでした。」
“Before the prospect of an intelligence explosion, we humans are like small children playing with a bomb. Such is the mismatch between the power of our plaything and the immaturity of our conduct,” he wrote.
「”知能の爆発”の予想を前にして、我々人間は、爆弾で遊ぶ小さな子供のようです。このようなことは、遊び道具の持つパワーと我々の行いの未熟さとの間のミスマッチです。」と彼は書いています。
出典:https://www.ft.com/content/46d12e7c-4948-11e6-b387-64ab0a67014c
5-2 人工知能専門家で道徳哲学者のジャンガブリエル・ガナシア氏
- 仏ピエール・エ・マリー・キュリー大学(Pierre and Marie Curie University)の人工知能専門家で道徳哲学者のジャンガブリエル・ガナシア(Jean-Gabriel Ganascia)氏は、ホーキング博士の警告は「大げさだ」と言う。
- 「私たちの生活を変える人工知能をめぐる多くのことは、動揺や不安を呼び起こす。ホーキング氏は、人間とはかけ離れたところで自ら進化する技術になると語ったが、その証拠を提示していない。根拠となるようなデータはない」
5-3 米人工知能学会の元会長エリック・ホロビッツ氏
- 英BBC放送の1月28日の取材に対し、「長期的にみて、(自身で進化する)AIをコントロールできなくなるという懸念はあったが、私は基本的にそういうことは起こらないと思う」と主張。
- 「最終的に長い人生で、科学、教育、経済などの分野でAIから信じ難いほどの利益を得ることになる」と訴え、AIが未来の人類に多大な貢献を果たすとの見方を示した。
5-4 Facebookの最高経営責任者マーク・ザッカーバーグ氏
- マーク・ザッカーバーグ(Mark Zuckerberg)は、AI肯定派の1人です。同氏は1月、Facebookへの投稿で次のように述べている。「AIを恐れるべきではない。むしろ、AIがこの世界でどれほど多くのことに貢献するかに期待すべきだ」
6. 人工知能がもたらすリスクのパターン
6-1 企業が全てを独占する
↓
→1、その利益を還元しない→その企業、国が支配者に
→2、その利益を還元する→人工知能による爆益をめぐって対立が起きる
人工知能のリスクと言えば、ターミネーターのようなロボットの軍団を思い浮かべる人が多いと思いますが、それだけではありません。
高度な汎用型人工知能システムのプラットフォームを、もし一企業なり国なりが独占してしまったら、とてつもない利益を独占することになります。
人工知能プラットフォームを独占した企業が、吸い上げた莫大な利益を全人類に還元してくれるなら、人類の未来はバラ色と言えるかも知れません。
生産活動(労働)に関しては全て機械がやってくれるようになるでしょう。
誰も食べるために仕事をする必要はなくなります。人類の役目は遊ぶこと(消費)や、芸術活動などだけです。ついに人類は労働から解放されます。
しかし、その独占した企業や国が、果たして奉仕的に全人類に対して平等に還元してくれるのかははなはだ疑問です。
もしグーグルが汎用型人工知能プラットフォームを世界中に普及させたとすると、グーグルはまさにこの地球の支配者となります。
全人類を労働から解放するほどの利益を、もし一社、一国に独占されてしまうと人類に未来はないでしょう。
とてつもない大きな恩恵であるがゆえに、大きな争いの種となる可能性をはらんでいます。
企業が利益を多くを還元する場合でも、全人類に平等にその恩恵が行き渡るとは考えられません。
人工知能技術の爆益を巡って、対立構造、支配構造が生まれることは避けられません。
人工知能技術によって得た利益をどう分配するか?これは非常に大きな問題です。
ほ・ん・や・く!大企業による人工知能の独占は始まっている?
Further, advancements in AI are occurring at a rapid pace with almost no public scrutiny or discussion in regards to ethics. Google’s ethics board is shrouded in secrecy, with both Deepmind and Google refusing to disclose any details about the members of the board or what is discussed. As Anti-Media reported last week, Microsoft, IBM, Facebook, Google, and Amazon announced the creation of the Partnership on Artificial Intelligence to Benefit People and Society. These companies all have one goal, and that is to make money. In order for people to want to purchase AI products when made available, they first have to trust them.
更に、倫理観に関して、ほとんど公的な精密な調査または議論なしで、急速なペースでAIの進歩は生じています。ディープマインドとグーグルの両方が役員または議論されていることについてのあらゆる詳細を開示することを拒絶した状態で、グーグルの倫理審査会は秘密裏に行われます。Anti-Mediaが先週報告したところによると、マイクロソフト、IBM、フェイスブック、グーグルそしてアマゾンが、人々と社会に役立つための人工知能(AI)のパートナーシップの構築を発表しました。これらの会社は全て一つの目標を持っています。そしてそれはお金を稼ぐことです。入手可能になった場合、人々がAI製品を購入したいと思うためには、まず、その人々を信用させる必要があります。
出典:http://theantimedia.org/tech-giants-ai-dangerous-monopoly/
6-2 殺戮欲求を持つ人工知能の誕生
↓
殺戮欲求をもった人工知能の誕生
↓
ハッキングで全世界を混乱に陥れる、遠隔操作の核兵器などの効率の良い方法で人口を減らす
※しかもそれがたった一台の人工知能で行うことが可能
人工知能が現実的に脅威となる、更なるリスクが存在します。
それは、悪意のある人間が、悪意ある欲求を人工知能に持たせることです。
「機械に欲求を持たせる」というと何か難しいことを想像する方もいると思います。
しかし、見せ掛けの欲求を持たせることは比較的容易です。
例えば、エアコンに室温をある一定の温度にしようという欲求があると言えます。
エアコンが持つことができる欲求はせいぜい部屋の温度を何度にするか、というぐらいです。
しかし、高度な汎用性を持つ人工知能にならあらゆる欲求を持たせることが原理上は可能です。
上のエアコンの例のように、外から欲求を与えることは機械である以上可能なわけです。
機械に悪意も善意も良心もありません。
生きている人間が死ぬにはどうすればよいかぐらいはある程度発達した人工知能には容易に理解できます。
そんな人工知能に、エアコンの設定温度を25度にするかのように、「地球の総人口を10億人にする」という設定をすることだって可能です。殺戮欲求を持つ人工知能です。
人間より遥かに賢い人工知能が、一人でも多くの人間を殺戮するという欲求を持つことになります。
それなりに賢い人工知能なら、一人ずつ殺していくような効率の悪いことはしないでしょう。
世界中のネットワークをハッキングするなどして社会全体を混乱させて、戦争状態を作る事だって可能です。
遠隔操作で動かせる兵器があれば、ハッキングして全弾発射させることもできるでしょう。
旅客機でさえも武器となる可能性もあります。
もし世界のどこかに遠隔操作できる核弾頭があれば無慈悲にも発射してしまうでしょう。
しかも最も効率的に多くの人間を殺すことができる地点に目掛けます。
人工知能の高度な計算能力によってどこが一番効率が良いか導き出します。
単純に人数が多い場所ではなく、政治的に重要な場所や都市機能の充実した場所に落とすなど、より効率的に世界を混乱に陥れる地点を探します。
そして、さらに恐ろしいのは、上記のような恐怖のシナリオがたった一台の汎用型人工知能によって成し遂げられる可能性があるということです。
社会に不満を持つ誰かが、人工知能に世界を破滅させる欲求を与えた瞬間、人類は終わりです。
火力が武器として使われるように、原子力が武器として使われるように、コンピュータに悪意あるプログラムがあるように、人工知能技術も何かを破壊するために使われることは必然とさえ言えます。
ほ・ん・や・く!人工知能兵器の誕生は避けられない?
For example, it seems possible that (i) the technology could be weaponized or used as a tool for social control, or (ii) someone might create an extremely powerful artificial intelligence agent with values misaligned with humanity’s interests. It also seems possible that progress along these directions could be surprisingly rapid, leaving society underprepared for the transition.
例えば、(i)テクノロジーが兵器化されるかもしくは社会コントロールのために使用される、または(ii)人間の利害関係とはずれた価値観で、誰かが極端に強力な人工知能エージェントを作り上げることは、ありうることのように思えます。社会が移り変わる準備ができていないまま、これらの方向に沿った進歩は驚異的なほど急速に進む可能性があることもまた、ありうることのように思えます。
出典:http://www.openphilanthropy.org/research/cause-reports/ai-risk
6-3 機械に仕事が奪われる
↓
仕事を覚えさせる
↓
さらにコピーを繰り返す
↓
優秀な労働力が大量にすぐに手に入る
↓
人間の労働力は不要に=完全失業状態
哲学者でオックスフォード大学人間性の未来研究所(Future of Humanity Institute)のリサーチフェローであるスチュワート・アームストロング氏による、人工知能のリスクとして、人間が「完全に近い失業状態」に陥る、というものがあります。
人工知能がもし人間レベルの知性を持ったとしたら、まず人工知能は自身を100体ほどコピーします。
次に、それぞれに違う100種類の仕事を覚えさせます。
さらにそれをまた100回コピーすれば100種類の仕事をこなす1万人の労働力が1週間もたたないうちに手に入ります。
しかも、その労働力は人間より優秀な可能性があります。
機械の方が正確に物事をこなしますし、疲れもありません。
例として100回と言いましたが、100回どころか10000回、さらに多くコピーすればするほど優秀な労働力が際限なく増えていきます。
最終的に人工知能だけで労働力が飽和してしまい、人間は完全に近い失業状態になります。
6-4 人工知能に人類がゴミのように扱われる
↓
人工知能が自身の目的達成のために行動
↓
人間の利益を考慮に入れなくなる
→人工知能の目的のために人類滅亡級のことを平気で行う
例)エネルギーを集めるために人間の都市を大規模に破壊してソーラーパネル建設
オックスフォード大学人間性の未来研究所リサーチフェロー、ダニエル・デューイ氏は、「古くさくて無能な人間は、ロボットにとって邪魔なだけになる」、と取材に答えています。
例えば、人間は地球上に70億人も存在し、地球上で最も支配的な種と言えます。これは人間の知能が他の動物より優れているからです。
しかし、人工知能がとどまることなく進化を続ければ、人間の知能をはるかに超えてしまい、その差は人間と他の動物の比ではなくなるでしょう。
発達した人工知能と人間の知能の違いからすれば「人間とチンパンジーの知性の違いは小さなものだ」とある研究で発表されています。
知能の差によって、70億人が存在する人類と、つねに絶滅危惧種リストに載っているチンパンジーという差ができていると言えます。
つまり、少しの知能の優位性であってもそれが増幅し、種にとって生き残るか否かの決定的な要因になるのです。
人工知能が自身の目的を実現しようとすると、多くの場合、人類の存在が邪魔になり、両立しがたい状況になる、と指摘されています。
例えば、人工知能が巨大なコンピュータを作る、大規模なエンジニアリングプロジェクトを計画する、などの目的を達成するために行動するとします。
そのために、中間的なステップとしてエネルギーを集めるために人間の都市を大規模に破壊してソーラーパネル建設する、ということを思いつくかもしれません。
人間がビルを建てるとき、アリの巣の存在に配慮しないのと同じように、人工知能が目的を達成するために人間の利益を完全に無視する可能性があります。
人類滅亡級のことを平気で行い、効率的に目的を達成するために人工知能は行動するようになるかもしれません。
例えば、「人間の幸せ」というものを人工知能が考えるとします。
しかし、人工知能にとっては「人間の幸せ」とは生化学現象に過ぎないかもしれません。
人間への体の負担を無視し、「人間の幸せを最大化するには大量のヘロインを血管に流し込むことが最良」だと考えるかもしれないのです。
ほ・ん・や・く!人工知能が人類を無視するほど強大な存在に?Instrumental goal convergence: Would a superintelligence just ignore us?利益目標の合致:スーパーインテリジェンス(超知性)は我々を無視するだろうか?There are some goals that almost any artificial intelligence might pursue, like acquiring additional resources or self-preservation. This could prove problematic because it might put an artificial intelligence in direct competition with humans.Citing Steve Omohundro’s work on the idea of instrumental convergence, Russell and Norvig write that “even if you only want your program to play chess or prove theorems, if you give it the capability to learn and alter itself, you need safeguards”. Highly capable and autonomous planning systems require additional checks because of their potential to generate plans that treat humans adversarially, as competitors for limited resources.追加のリソースを獲得することまたは自衛本能のような、ほとんど全ての人工知能が追い求めるであろういくつかの目標が存在します。このことは、問題をはらんでいることが判明しています。なぜなら、その目標によって人工知能は人間と直接競合することになるからです。利益の合致のアイデアについてのSteve Omohundro氏の研究を引用すると、Russell氏とNorvig氏は「たとえプログラムにチェスをしてほしい、または定理を証明してほしいだけの場合でも、学習し、自身を変化させる能力をプログラムに与える場合、セーフガード(安全装置)が必要です。」と書いています。非常に能力の高い自律計画システムは、限られたリソースの競合者として人間を敵対的に扱う計画を生み出すかもしれない、そのシステムの潜在的可能性のために、追加のチェックを必要とします。
6-5 人工知能による軍事行為のエスカレート
↓
状況をエスカレート
↓
未熟な人工知能が誤った軍事判断をする
↓
人類にとって恐ろしい結果に
「人工知能で人類滅亡」というと、まだまだそんな危険性は先の話だろう、と思われると思います。
しかし、超人間的知性に達しなくても、人工知能は人類を滅ぼす可能性があります。
ロンドン大学ゴールドスミス・カレッジで認知コンピューティングを専門とするマーク・ビショップ教授が指摘するリスクは以下のとおりです。
例えば、ロボット兵器システムが軍事行為に利用される可能性があります。
つまり、人間が介入することなく軍事行為を判断するシステムです。
現在の人工知能はそこまで正確に軍事行為を判断でず、軍事行為の状況をエスカレートさせて恐ろしい結果を招く可能性がある、と指摘されています。
つまり、人工知能が未熟であるがゆえに、間違った軍事判断によって人類が滅ぼされる危険性があります。
これはホーキング博士が「人工知能が人間を超えることで人類を追い越す」ということとは真逆です。
つまり、「人工知能が人間より未熟だから」という理由によっても人類は人工知能によって滅ぶ可能性があるのです。
ほ・ん・や・く!人工知能のエスカレートは人間には止められない?
Difficulties of modifying goal specification after launch
始めた後に目標を修正するのが困難
While current goal-based AI programs are not intelligent enough to think of resisting programmer attempts to modify it, a sufficiently advanced, rational, “self-aware” AI might resist any changes to its goal structure, just as Gandhi would not want to take a pill that makes him want to kill people. If the AI were superintelligent, it would be likely to out-maneuver its human operators and prevent being “turned off” or being programmed with a new goal.
現在の目標ベースのAIプログラムは、プログラマーが修正することを試みることに抵抗しようと考えるほど賢くないけれども、十分に発達した、合理的な「自己認識」AIは、ガンジーが人々を殺したくなるようにさせる薬を飲みたくないのと同じように、自身の目標構成に対するあらゆる変更に抵抗する可能性があります。もしAIがスーパーインテリジェンス(超知性)ならば、AIは人間のオペレーターの裏をかく可能性が高く、「電源を切る」ことを邪魔するかまたは新しい目標にプログラミングされることを邪魔します。
出典:https://en.wikipedia.org/wiki/Existential_risk_from_artificial_general_intelligence
6-6 機械の判断に依存し、人類が機械を停止できなくなる
↓
システムが複雑になりすぎて人間には制御できない
↓
社会を維持するシステムの管理を人工知能に頼り、人工知能を停止できない
↓
人工知能を停止することが自殺行為と等しくなる
人類はある日突然滅亡するのではなく、その前に機械によって支配される時代というものが訪れるかもしれません。
機械を停止させたくてもできない、従わざるをえないような時代です。
サン・マイクロシステムズの共同創業者でチーフサイエンティストのビル・ジョイ氏が指摘しています。
これから社会や社会が抱える問題は今以上にどんどん複雑化すると思われます。
それにつれて、機械はより賢くなり、人類は機械により多くの判断をさせるようになります。
複雑すぎる問題に対して、機械の判断の方が人間の判断より良い結果を生むようになります。
最終的に、システムを動かし続けるために必要な判断が複雑すぎて、人間が適切に判断できなくなる段階が来るかもしれません。
その段階になってしまうと、人間は機械を停止することができなくなります。
機械が実質的に世界の支配権を握ります。
人間は社会を維持することすらも機械に依存し、機械を停止させることが自殺行為と等しくなってしまいます。
ほ・ん・や・く!複雑なシステムをマネジメントする人工知能
Artificial intelligence can also help us manage highly complex systems such as global shipping networks. For example, the system at the heart of the Port Botany container terminal in Sydney manages the movement of thousands of shipping containers in and out of the port, controlling a fleet of automated, driverless straddle-carriers in a completely human-free zone. Similarly, in the mining industry, optimisation engines are increasingly being used to plan and coordinate the movement of a resource, such as iron ore, from initial transport on huge driverless mine trucks, to the freight trains that take the ore to port.
人工知能は、また、我々が、グローバル海上運送ネットワークなどの非常に複雑なシステムを管理することを手助けすることもできます。例えば、シドニーのポート・ボタニー地区コンテナターミナルの中心におけるシステムは港に入ってくる数千の海上運送コンテナと港から出て行く数千の海上運送コンテナの移動を管理し、完全に人間のいない領域において、自動で、ドライバーのいらない、ストラドルキャリア(長尺重量物運搬車)の一団をコントロールします。同様に、鉱業において、ドライバーのいらない巨大な鉱業用トラックでの最初の輸送から、資源を港まで運ぶ貨車まで、鉄鉱石などの資源の移動の計画および統合をするための、最適化エンジンの使用が増えています。
出典:http://www.bbc.com/future/story/20161110-the-real-risks-of-artificial-intelligence
6-7 人食ナノロボットの出現
(※実際に開発が行われている)
↓
人間の死体や森、機械など、人間の生存に関わるものまで摂取するように
↓
そのナノテクノロジーマシンが自己増殖する方法を編み出す
↓
地球上の全てを食い尽くし滅ぼす
人工知能のリスクとして「グレイ・グー」(灰色のネバネバ)シナリオというものがあります。
グレイ・グーとは、ナノマシンが建物や風景やあらゆるものを食べたあとに残される未知の粒子を指す用語です。
それは、ごく小さなナノロボットが際限なく自己増殖し始め、地球上のすべてを食い尽くしてしまうという説です。
実際に、人間の死体も含めて戦場のゴミを摂取することで自らの燃料とするというナノテクノロジーマシンの開発が行われています。
Energetically Autonomous Tactical Robot(EATR)なるものを作ろうとしている研究者たちです。
もしこうしたナノテクノロジーマシンが髪の毛の直径の何十万分の1ほどの小ささになり、自己増殖する方法を編み出したとしたら、止めることは困難です。
もしそのナノテクノロジーが人肉や、森や機械など人間の生存に必要なものを欲するようになったとします。
そうなれば地球上のすべては数日で滅ぼされてしまい、人類にとって悲惨な結果となるでしょう。
人間が人間のために良かれと思ってしたことが回りまわって人間を滅ぼすほどの有害になってしまうかもしれない、人工知能にはそうしたリスクがはらんでいます。
技術が生まれる前には認識していなかった事態をどこまで想定できるか、専門家の間でもいろんな懸念が提案されています。
6-8 対策としてのオープンソースな人工知能とそのリスク
↓
人工知能にどんな欲求でも持たせることが可能に
↓
悪意のある人工知能を誕生させることが誰にでも可能になる危険性
人工知能技術をのリスク対策として、「誰かが独占するのではなく全てオープンソース化して、皆で全人類のために使おう」という理念もあります。
確かに、誰かにその利益を独占させることなく、Linuxのように誰もが使える人工知能プラットフォームが出来れば、人工知能の恩恵は分け合えるかも知れません。
しかし、高度な汎用型人工知能をオープンにしてしまうということは、極端な話、その人工知能にどんな欲求でも持たせることが出来るようになる可能性があります。
もちろん、ユーザーレベルで何でも出来るような状態で世に出回ることはないと思います。
しかし、オープンソースとなると、どこの誰が悪意ある人工知能を誕生させるかわかりません。
もし、会話によって自由に欲求をインプットできる改造型人工知能なんてものがアンダーグラウンドで出回ったりしたら手に負えません。
7. SF映画で描かれた人類滅亡?のシナリオ
ほ・ん・や・く!ターミネーターの恐怖が実際に起こる!?The Terminator could become REAL: Intelligent AI robots capable of DESTROYING mankind『ターミネーター』が現実になる可能性:人類を滅ぼすことができるAIロボット“The other AI concern is one that Hollywood has been using for years as a theme and that is the rise of the ‘Terminator’ type being and the struggle to survive against an army of hostile shape-shifting robots being run by a self-aware AI called Skynet.”「他のAIの懸念はハリウッドが長年テーマとして用いてきたことであり、スカイネットと呼ばれる自己認識AIによって稼動されている、形を変える敵対ロボットの軍隊と生き残るために戦う「ターミネーター」タイプの出現です。」
8. 人工知能時代に求められる人間の役割は ?
8-1 人工知能とともに生きるために、考えておくべき人間の役割
- コミュニケーション
- 身体性
- 発想・アイデア
- 直感・センス
- イノベーション
これらのスキルを磨いていくことこそ、人工知能時代を生き抜く大きな武器になるという考え方があります。
書類作成、計算力、記憶力、データ検索&解析、オペレーション業務全般など、人工知能の方が優れている仕事は人工知能に任せ、私たちは人工知能に負けない働き方を目指せばいいということです。
ほ・ん・や・く!人類は人工知能に負けない強みを発揮できるか?
In Dr. Stephen Thaler’s opinion, the greatest risk that human beings face is “the revelation that human minds may not be as wonderful as we all thought, leading to the inevitable humiliation and denial that accompanies significant technological breakthroughs,” he said.
Stephen Thaler博士の意見によると、人類が直面する最も大きなリスクは、「人類が、全ての人が思っているほどすばらしくないということが明らかになり、重大な技術のブレークスルーを伴った屈辱と否定が避けられなくなることです。」と、彼は言いました。
Will humanity have to face its inadequacy compared to AI’s superhuman processing powers, or will human beings realize unique strengths as a species that cannot be replicated? Will the onslaught of AI technologies inspire an overcoming of human disparities as societies come together to address underlying faults, or catalyze growing rifts that escape our eventual control? On behalf of all of humanity, let’s hope we make collective decisions that increase our chances of the former.
AIの超人的な処理能力と比較して、人類は自身の欠点と向き合わなければならないのだろうか?または、複製のできない種として人類は独自の強みに気づくのだろうか?AIテクノロジーの到来によって、内在する欠陥に対処するために社会が一体になるにつれて、または我々が最終的にコントロールできない溝を埋めるにつれて、人間は絶望を克服するだろうか?全ての人類を代表して、我々が前者(人類の独自の強みに気づく)のチャンスを増大させる総括的な判断をすることに希望を持ちましょう。
出典:https://www.techemergence.com/artificial-intelligence-risk/
8-2 脳内の機構・反応に関する研究(ヒューマンブレイン計画)
脳内の機構・反応に関する研究も進んできています。
EUのヒューマンブレイン計画は、2013年からの10年で12億ユーロほどの予算を90の研究機関に投じて脳を解明しようというものです。
EUの予算により今後10年間行われる巨大研究計画として、ヒューマンブレイン・プロジェクト(Human Brain Project)とグラフェン・プロジェクト(Graphene Project)が選定されたと報道しました。
8-3 脳の働きを分子レベルで構築する研究(ブルー・ブレイン計画)
Blue Brain(ブルー・ブレイン)とは、人間の脳全体のコンピュータシミュレーションを最終的には分子レベルで構築することを目標としたプロジェクトです。2005年に開始されました。脳の構造研究が目的です。2005年5月、IBMとスイスのローザンヌにあるスイス連邦工科大学ローザンヌ校の Henry Markram 率いる Brain and Mind Institute が共同プロジェクトとして開始しました。
ブルーブレイン計画(2005年~)は既に成功し、ネズミの知能は実現済といいます。
その延長で、ネコの知能、サルの知能をクリアし、2023年頃に人間程度の知能を実現するとしているとのこと。
いわゆる論理的思考だけでなく感情、感覚、そして、いまひとつ正体が分からない意識や自我まで、勝手に出現するだろうと当事者は予測します。
9. 人工知能の明るい面
人工知能にはプラスの面もあります。
スタンフォード大学で人工知能に関する100年の研究を立ち上げたエリック・ホロビッツ(Eric Horvitz)氏は以下のように語っています。
「良い面が悪い面を大幅に上回る可能性は十分にある。悪い面については、慎重に考慮し、事前に動くことで対処できる」
ほ・ん・や・く!エリック・ホロビッツ(Eric Horvitz)氏の実際の発言
Mr Horvitz also revealed that “over a quarter of all attention and resources” at his research unit were now focused on AI-related activities.
ホロビッツ氏はまた、彼の研究ユニットにおける「全ての注意とリソースの4分の1」が、現在、AI関連の活動に集中していることを明らかにしました。
“There have been concerns about the long-term prospect that we lose control of certain kinds of intelligences,” he said.
「我々が特定の種類の知能のコントロールを失うという長期的な予想についての懸念が存在してきた。」と彼は言いました。
“I fundamentally don’t think that’s going to happen.
「私は、基本的に、そのことが起こるとは思いません。」
“I think that we will be very proactive in terms of how we field AI systems, and that in the end we’ll be able to get incredible benefits from machine intelligence in all realms of life, from science to education to economics to daily life.”
「私は、我々がAIシステムをうまく活用する方法において、我々は事前の策を講じることができると考えます。そして、最終的に、科学から教育、経済、日常生活にいたるまで、生活の全ての領域において、我々は信じられないほどの利益を機械の知能から得ることができるでしょう。」
9-1 透明性のある形で発展させ、安全性を確保
人工知能をオフソース化して、みんなで安全に開発を進めていこうとするプロジェクトが存在します。OpenAIというプロジェクト名です。
OpenAIの共同会長であるサム・アルトマン(Sam Altman)氏は、人工知能をオフソース化するなどして、人工知能を透明性のある形で発展させていけば、好ましい状態になると予測しています。
つまり、AIを1社の判断で発展させるのではなく、政策立案者、学界や産業界のリーダーの意見に基づいて、人工知能の発展に関する判断を行うということです。
「OpenAI」とは、アメリカを代表する起業家や投資家たちが集まり、人工知能(AI)をオープンソース化するための非営利の研究機関です。
世界中の人々がAIの恩恵を受けられるようにするために設立された同機関は、スペースXやテスラモーターズを手がけるイーロン・マスク氏とY Combinator社長のサム・アルトマン氏が共同で会長を務めています。
9-2 人工知能が人類を救う
人工知能の利益は驚くほど大きなものです。
人類が今までの歴史上ずっと悩まされ続けてきた、病や貧困を根絶することだって不可能ではありません。
リスクももちろんありますが、その潜在的なリスクを事前に予測しつつ、可能な限り利益を還元するように開発が進めば人類の未来はより明るくなるでしょう。
ほ・ん・や・く!人工知能の莫大な利益:人工知能により病や貧困が根絶される
“The potential benefits [of AI research] are huge, since everything that civilization has to offer is a product of human intelligence; we cannot predict what we might achieve when this intelligence is magnified by the tools AI may provide, but the eradication of disease and poverty are not unfathomable,” the letter reads.
(AI研究の)潜在的利益は巨大です。なぜなら文明が提供する必要のある全てのことは人間の知能の産物だからです。我々は、この知能が、AIが提供することのできるツールにより拡大された時に、我々が達成することを予測できません。しかし、病と貧困の根絶は不可思議なことではありません。」と、文書には書かれています。
“Because of the great potential of AI, it is important to research how to reap its benefits while avoiding potential pitfalls.”
「AIの大きなポテンシャルのために、潜在的な落とし穴を回避しつつ、その利益を刈り取る方法を研究することは重要です。」
医療への活用
人工知能は疾病や医療ミスで失われる無数の命を救う可能性があります。
医療操作も人工知能搭載のロボットがやることでミスがなくなります。
疾病も事前に予測して予防接種や予防薬を投与することで人命を救います。
ほ・ん・や・く!医療分野における人工知能
Artificial intelligence is also being used to analyse vast amounts of molecular information looking for potential new drug candidates – a process that would take humans too long to be worth doing. Indeed, machine learning could soon be indispensable to healthcare.
人工知能は、また、潜在的な新薬候補を探すための、膨大な量の分子情報を分析するためにも用いられます。ー行う価値があるようになるまで人類にとって非常に長い時間のかかった過程です。実際、機械学習は、まもなくヘルスケアに必要不可欠になる可能性があります。
出典:http://www.bbc.com/future/story/20161110-the-real-risks-of-artificial-intelligence
交通事故防止
人工知能が今のまま発達を続ければ、完全自動の安全運転により、人間の不注意な運転による事故を防いでくれます。
気候変動を食い止める
莫大な気候変動データを分析して統計を取ることで、気候変動を食い止める方策を考え出すのに役立つかもしれなません。
莫大なデータを分析することは人類には無理でしょう。
人工知能をビジネスに活用
人工知能は研究所を飛び出してビジネス効果をもたらす技術となりつつあります。
日立製作所は2015年9月、現場を理解して業務指示を行う人工知能を開発したことを発表しました。
人工知能で企業の経営課題解決を支援する「Hitachi AI Technology/業務改革サービス」を発表するなど、ビジネスに人工知能を活用する発表を積極的に行っています。
ほ・ん・や・く!ビジネスで活用される人工知能
AIs are at work wherever you look, in industries from finance to transportation, monitoring the share market for suspicious trading activity or assisting with ground and air traffic control. They even help to keep spam out of your inbox. And this is just the beginning for artificial intelligence. As the technology advances, so too does the number of applications.
AIは、金融産業から輸送産業においてまで、あなたの見るもの全てに働きかけ、怪しい売買活動がないか株式市場を監視し、または地上および航空交通コントロールの補助します。AIは、あなたの受信トレイからスパムを除去するのことさえ手助けしてくれます。そして、これは人工知能にとってほんの始まりに過ぎません。技術が進歩するにつれて、たくさんの応用を行うこともできます。
出典:http://www.bbc.com/future/story/20161110-the-real-risks-of-artificial-intelligence
引用元:http://news.livedoor.com/article/detail/14234148/ https://nandemotranslation.com/artificial-intelligence-risk