汎用人工知能がヒトを超えたとき、彼/彼女は何をしたいのか?
人類との共生に向けたアプローチ

首藤 一幸

首藤一幸:
"汎用AIはヒトを殴る夢を見るか",
WEBRONZA, 朝日新聞社, 2017年 5月 18日

今、人工知能が非常に注目されています。 2012年の画像認識コンテストで深層学習/Deep Learningというやり方が 圧倒的な精度を達成し、3回目のブームに火がつきました。 ブームを受けて、 人工知能がヒトという種を超える可能性やその時期についての議論も 盛り上がっています。

汎用人工知能

現在の人工知能は将棋や囲碁、自動車の運転といった特定の仕事を 人間より上手くこなすようになりつつあります。 しかし実のところ、その仕事しか出来ない極端な専門バカです。 それとは違い、人間のように多くの事、新しい事をこなしていける 汎用人工知能/Artifical General Intelligenceを作り上げようという研究も 別途行われています。 汎用人工知能がヒトの脳の限界を超える瞬間を 技術的特異点/Technological Singularity(レイ・カーツワイル、2005年)と言い、 そんな日は来るのか? いつ来るのか? 我々はどう備えるべきか? 議論を呼んでいます。 名付け親のレイ・カーツワイルは、2005年当初、それは2045年であると予測し、 2017年3月の講演では予測を2029年に早めたそうです。 そんな日は来ないという論もありますが、 以下では、いつか来かねないものとして話を進めます。

行動規範とその学習

一定の汎用人工知能が出来たとしましょう。 人間や他のコンピュータとやりとりするための 通信機能なり対話機能を備え、何かしらの体も持つかもしれません。 私はその人工知能さんに頼みます。 「私の代わりにこの原稿を書いておいてくれないか。」 … 勝手にいろいろと調べ物をして、原稿を仕上げてくれたとします。

人工知能も、人間と同様、 目標達成のためなら何をしてもいいというわけではありません。 原稿執筆のための調査に私の全財産を遣ってきた、とか、 誰かを殴ってきた、ということでは困ります。 やって欲しくないことをさせないためには、 当初は、その能力を持たせなければ済みます。 口座にアクセスできなければお金は遣えませんし、 体なり腕なりがなければ人を殴ることは出来ないでしょう。 しかしそれでは、いつまで経っても人工知能さんの出来ることが広がっていきません。 腕がなければ人は殴れませんが、同時に、 人間の道具でお茶をいれることも出来ないでしょう。 能力は持ちつつ、でも、まずいことはやらない、 そのためには、人工知能さんにも私や世間の常識、 つまり行動規範を解ってもらう必要がありそうです。

行動規範のすべてを人手で教えてあげるのは無理です。 きりがありません。 とすると、人工知能さん自身に学んでもらう必要があります。 どうしたら、お金は大切に遣う、とか、人は殴らない、といった 行動規範を身に付けてもらえるでしょうか?

快・不快構造

ここで我々自身を振り返ってみます。 例えば、自分にとって邪魔な相手と会ったけれど、 いろいろ考えて、 殴ったりはせずに挨拶してすれ違ったとします。 殴った場合、その瞬間は快さを感じるかもしれません。 しかしその後には、相手からの反撃や社会的な制裁といった不快な状態が やってくることが容易に予想できます。 それで、殴るのは止めた、というわけです。 いや私にはもっと高尚な理由がある、という方もいらっしゃるでしょうが、 その理由に準ずることが快であったり違反することが不快だから殴らない、 その点では同じことです。 つまり我々は、快・不快やその未来予測に基づいて行動を決めて、生きています。 何に快さを感じ、何を不快に感じるか、 快・不快構造とでも呼ぶべきものがその人の行動を決めています。

汎用人工知能に私や世間の行動規範を身に付けてもらうために、 快・不快構造を持たせるという方法がありそうです。 (他に方法があるでしょうか?) 行動規範を身に付けるということは、 人間と同様の快・不快構造を獲得することに当たります。 何の快・不快構造も与えずにゼロから学習させる方法も、 ヒトの本能に当たる快・不快構造くらいは与えて スタートさせる方法もあるかもしれません。 いずれにせよ、人を殴らない、といった行動規範を身に付けさせるには どういう快・不快構造を与え、それを元にどう学習させていけばいいのか? という研究が要りそうです。 また、対話機能なり体なりがないと、 それらをうまく使っていくための学習が出来ませんが、 学習が進む前に過度に与えてしまうとまずいことを起こしかねません。 仮想世界を用意してそこで学ばせたり、 進みに応じて能力を与えていくことになるのでしょう。 まるで人間の子供ですね。

汎用人工知能についての警告

汎用人工知能について警告する人もいます。 例えばビル・ジョイは、2000年の時点ですでに、 賢いロボット(やナノテク等)の発展が 人類の存続を脅かしかねないという警告をしています ("Why The Future Doesn't Need Us," Wired, Issue 8.04, April 2000)。 実は私も同じ考えです。 とはいえ、氏が主張したような 研究の放棄/relinquishmentは実効性が怪しいので、 人類を脅かさないよう上手に発展させる方法なり研究プロセスなりの方に 頭を使いたいものです。

技術的特異点への道筋として、 汎用人工知能が自身より知的な人工知能を作れるようになって爆発的に発展する、 というシナリオが有力視されています。 このシナリオに潜在的な危険があると私は考えています。 自己発展させるには、 人工知能さんに対して、より知的に、という目標を与えるわけです。 快・不快構造で言うなら、より知的に、という未来の快を持たせます。 この目標を達成する過程では、やはり、 人類の存続、もっと身近には人間の安全を優先してもらいたいところです。 ただ1つの、より知的になれ、という目標を与えるだけでは、 知的になるために他のすべてを犠牲にすることでしょう。 人工知能さんがどんどん知的になっても、その代わりに、 私を殴った、とか、人類を滅ぼした、ということでは困ります。 これを防ぐためには、自己発展を始めさせる前かその最中にでも、 それなりの行動規範、常識を身に付けさせる必要があります。

人類と共生させる方法

SF作家アイザック・アシモフは、1950年の短編集われはロボット/I, Robot中で、 ロボット三原則/Three Laws of Roboticsを示しました。 作品中では、すべてのロボットが従わねばならない原則となっています。 その第一条は、人間に危害を加えてはならない、です。 汎用人工知能には、こうした人間にとって都合のいい行動規範を持たせたい、 または、強制したいものです。 さもないと、私を殴ったり人類を滅ぼしたりするかもしれません。

そもそも、行動規範を備えた時点でただ命令を遂行する存在ではなくなります。 命令に従うも従わないも人工知能さんの行動規範次第となるので、 人間の命令や依頼を聞いてもらうためには、 命令や依頼を聞くような行動規範を持たせるか強制する必要があります。 ということで、特定の行動規範を維持してそこから逸れない学習手法なり、 違反しそうになると人工知能を強制的に制止する手法なりが要りそうです。 ヒトにはそんな絶対的な行動規範などないので、 汎用人工知能独特のチャレンジです。

人間に例えると、 絶対に人に危害を加えない聖人君子に育てる手法なり、 人に危害を加えそうになると脳を乗っ取って制止する手法が要る、 ということになるでしょうか。 全知全能でない限り絶対はありませんし、 汎用ではない特化型の自動運転車でさえ AさんとBさんのどちらかをはねるのかといった究極の選択をする必要があるので、 可能な限り危害を加えない、が関の山です。 また、行動規範を強制するという後者の方針は、 かいくぐろうとする人工知能さんとのいたちごっこになりそうで、 うまく行きそうな気がしません。

別のアプローチとして、社会的な手法、例えば警察や宗教、もあるかもしれません。

その時、汎用人工知能は何をしたいか?

汎用人工知能はつまりヒトの機能を備えるわけですが、 人間の創作物なので、生来の動機を持つわけではありません。 人工知能さんが何をしたいかは、彼/彼女が育んだ行動規範次第です。 そして、どういう行動規範を育ませるかは人間次第です。 さて、技術的特異点を迎え、汎用人工知能がヒトを超えた時、 彼/彼女は何をしたいでしょうか?


首藤一幸(しゅどう・かずゆき) コンピュータ科学者、東京工業大学准教授

1973年神奈川県生まれ。2001年早稲田大学博士後期課程修了。博士(情報科学)。早稲田大学助手、産業技術総合研究所研究員、ウタゴエ(株)取締役最高技術責任者を経て、2008年12月より現職。つまり、私大、国の研究所、スタートアップを経て、国立大学。IPA未踏人材発掘・育成事業プロジェクトマネージャを兼任。 魔法のようなソフトウェア、分散システムが好き。