プライムニュース 毎週月曜~金曜よる8:00~9:55(生放送)

テキストアーカイブ

2017年4月21日(金)
トップランナーに聞く 『人工知能』劇的進化

ゲスト

山際大志郎
自由民主党副幹事長 元経済産業副大臣 衆議院議員
松尾豊
東京大学大学院特任准教授

人工知能『劇的進化』 ディープラーニングとは
松村キャスター
「人工知能が目覚ましい進化を遂げています。近い将来、人間の労働力に置き換わり、社会を大きく変える可能性まであるといいます。そこで今夜は、人工知能、AI研究の世界的トップランナーを迎えて、人工知能技術がもたらす恩恵と課題を徹底検証します。まず人工知能技術の1つで、今日のゲスト松尾さんが専門的に研究されています、ディープラーニングについて詳しく聞いていきます。ディープラーニングはどういう技術かと言いますと、画像の認識、運動の習熟、言語の意味の理解ということですが、1つずつ聞いていきます。松尾さん、まずこの画像の認識、これはどういうことでしょう?」
松尾准教授
「コンピュータが画像に写ったものが何かというのを判断するというのが、これまですごく難しかったんですね。人間にとって当たり前のように思える、たとえば、猫が写った写真を見て、これは猫だというような単純なことでも非常に難しく、なかなか精度は上がらなかったというのが長い間続いてきたわけですけれども、そういった認識が最近このディープラーニングの技術によって、人間の精度か、それを超えるようなところまできているということです」
反町キャスター
「できるようになった背景というのは何が原因でできるようになったのでしょうか?」
松尾准教授
「従来から研究されていたニューラルネットワークという技術を使っていて、実はこれは研究すればするほど、1980年代にやっていた技術で良かったのだということがわかってきたのですけれども、コンピュータの性能が上がったこと、それから、データが増えたことによって昔からやっていた研究がすごく精度が上がるように最近なってきたということですね。最近こういう言い方をしていまして、機械が目を持ったのだと。これはどういうことかと言うと、人間の場合も、どうやって見ているかと言うと、網膜に写った信号を脳の後ろの方にある視覚野という部分で処理をして見えているんですね。この網膜の処理がカメラ、あるいはイメージセンサーです。これまではこの視覚野にあたる処理というのができてなかったんですね。ですから、機械、コンピュータは目が見えなかった。ところが現在ディープランニングができてきて、この視覚野の部分にあたる処理ができるようになってきたということが、イメージセンサー、カメラの技術とディープランニングの技術と組み合わせることで、機械に目が見えるようになってきたということですね」
反町キャスター
「なるほど、映像を捉えるだけではなくて、見える、認識できるようになってきたと。そのためには、たとえば、機械にこれは猫だよと言っても、猫という特徴を事前にこちらの人間から猫なるものの持っている要素、たとえば、大きさはこのくらい体重、重さ7kg~8kgぐらいとか、ふわふわしているとか、耳が出ているとか、髭がニョロとなって目が細くなるとか、そんないろいろなデータを機械に打ち込んで、それを機械が映像で上がってきたシグナルと照らし合わせて猫とジャッジする、こういうことですか?」
松尾准教授
「それは素晴らしいですね…」
反町キャスター
「それとも人間がプログラムしないで機械が猫だと思われるものを何十、何百と勝手に見ていくうちに、自分でデータを自ら溜め込んで、自分でジャッジするようになるのか?素材は自分で取り込むのですか?それとも誰かからもらうのですか?」
松尾准教授
「これは画像認識というレベルで言うと、これは画像だけの話なので、猫という画像的な特徴を捉えるだけですね。ところが、普通、人間が思っている猫というのは、画像だけではなくて動きもあれば、さわった時の柔らかさもあれば、いろいろな画像だけではない、音とか、体とかを通じた猫の概念ができているわけですね。それは脳で言うと視覚野から上がってきた情報をいろんな感覚情報と統合するような、高次の認識のところです。それは視覚ができたら、次はそういう話になってくるんです。より複雑な、高次の猫の概念は、ではどうやって捉えるか。そうすると、これは次の運動の習熟と言うところに関係するのですが、体がないとより複雑な高次の概念というのは理解できないから、次は体が絶対に必要になるんです」
反町キャスター
「触覚、触るとか、そういう意味?」
松尾准教授
「たとえば、ガラスのコップという概念を理解しようと思ったら、ガラスというのは割れちゃうんですね。何回か割って初めて、こういう透明で割れるものをガラスというのだと学んでいく。と言うことは、割ることができないと、ガラスという概念はそもそも理解できないはずです」
反町キャスター
「割らせないとダメ?」
松尾准教授
「そう。割ったことなないと、ガラスというのが割れるという…」
反町キャスター
「人間でもそうではないですか?やってはダメだよとボコッとやると、泣くと、やらなくなるみたいな、そういうプロセス?」
松尾准教授
「ですから、外界とインタラクションすることによってそのもの、そういうシーンの特徴を掴んでいくということを人間はやっているわけで、知能が進んでいくステップの中では必ず体が必要だと。これは身体性とも言うのですけれども、人工知能の研究では。身体性が重要だというのは前々から言われていて、それが現在、目ができたことによってようやく現実のものになろうとしている」
松村キャスター
「続いて、先ほど運動の習熟というものが出ましたけれど、動画があるので、見ながら説明していただけますか?」
松尾准教授
「囲碁で、すごく強い、AlphaGoというのをご存知かと思いますけれども、それをつくった会社が2013年頃にやっていた研究がこちらでして、ブロック崩しのゲームを学習すると、最初すごく下手だったのですけれど、暫くするとすごくうまくなるんです。人間のようにうまくなると。これがさらにうまくなっていきまして、このゲームやられた方はわかるかもしれないですけれども、端っこを狙うと、ボールを上に上げちゃうと点がすごく入るんですね。この技を見つけ出しているんですね、ということが起こると。これは画像認識で、ボールっぽいものがこのへんにある、自分が動かしているバーポイントがこのへんにある、これが合っている時に点が入りやすいとか、左の端とか、右端に通路ができている時に点が入りやすいのだということを学んでいくわけですね。目で見て、どういう状況で点が入りやすいかというのを学んでいっていると」
松村キャスター
「続いて、言語の意味の理解、松尾さん、どういうことができるようになったのでしょうか?」
松尾准教授
「言葉の意味をコンピュータに理解させたいというのは昔から研究者の夢で、これができると、たとえば、翻訳もできるようになりますし、人の話を聞いて要約するとか、いろいろなことができるようになるわけです」
反町キャスター
「翻訳というのは言葉の意味を理解できないとできないものですか?」
松尾准教授
「そうです。これは単語を置き換えるだけでできるのは、たとえば、日本語と韓国語とか、英語とスペイン語ぐらいだったらそれでも結構できます。ところが、日本語と英語になると文法構造が相当違いますから、同じことを言いたくても、言いまわしがだいぶ違ったりするんです。そうすると、文の意味がわかって訳せないと精度が上がってこないといことになります」
反町キャスター
「単語1つ1つを日本語に置き換えるのですけれども、全体として意味を1回咀嚼したうえでもう1回戻すという、この作業?」
松尾准教授
「そうです。単語も1個1個に複数の意味がありますね。その中のどの意味を当てはめればいいかというのは、どう訳したらいいかは、全体の文脈がわからないと決まってこないですから、すごく難しいですね」
反町キャスター
「よく英語でアイスクリームを食べたいと言うと自動翻訳機があるではないですか。あれはどうなのですか?単に短い言葉だからできる、そういう理解ですか?」
松尾准教授
「そうです」
反町キャスター
「それはAIではないのですか?ディープラーニングと遠い世界ですか?」
松尾准教授
「ディープラーニングは、これまで自動翻訳の分野で使われてこなかったんですね。ところが、この2014年、2015年くらいから、ディープラーニングを、自然言語処理と言いますけれども、この領域に活用しようという研究が出てきて、従来の自然言語処理のパフォーマンスを一気に超えちゃったと。Google翻訳というのが、昨年の秋から、従来方式からディープラーニング方式に変わったんですね。世界では9月ぐらい、日本版は11月ぐらいから使えるようになったのですけれど、相当レベルは上がっています。特に長い文ほど得意で専門用語が多い長い文とかが得意なので、たとえば、論文を読むような作業、これはウチの研究室でも学生が論文を読むのですけれど、それが出てから、それでコピペして、訳しちゃって、そちらの方で読んだ方で先に読んでしまうという方がよほどはやいというような、そういうような状況になっちゃっていますね」
反町キャスター
「先生の立場では困ったことではあるけれども、学問的にはデメリットはないですよね?英語で理解しろと言っているわけではないから」
松尾准教授
「もちろん、細かいところは英語の元の文を読まないとわからないのですが、でも、論文全体で書かれていることを把握するぐらいだったら、十分使いものになるし、それでたくさんの論文を読む方が生産的ですよね。と言うことなので、そういう使い方は良いと思いますし、そういう使い方はドンドン増えてくる。論文とかでなく、いろいろなビジネス上の文章だとか、日常の会話、海外旅行に行った時の会話だとか、仕事上での話だとか、こういうのもドンドン翻訳できるようになってくるはずだと思います」
反町キャスター
「自然に学習して、自ら知識を蓄積していくわけではないですよね?」
松尾准教授
「自らとよく説明されるのですけれど、自らと言うとあたかもコンピュータが勝手に学習していって、データを集めていって…、そんなことはないです。人間がプログラムを一生懸命書いて、何回も実行してはバグが出て、実行しては全然学習できないとがっかりして、というのを何回も何回も繰り返していると、ちょっとずつうまく学習するようになってきて、それでうまくいったら、学習できましたよとつくっているわけですね。その後ろ側では人間がめちゃくちゃがんばってやっています」
反町キャスター
「言語の理解の続きで、具体的にAIは言語の意味を理解するというので、こういうフリップを用意させていただきました。松尾さん、説明いただけますか?」
松尾准教授
「画像と文とを紐づけるような技術がたくさん出ていて、画像から文を生成するという、つまり、猫がテーブルの上で寝ているとか、そういうのを、写真を見て、文をつくるという技術もあれば、今度は逆に文から画像をつくるという技術もできていて、その例がこちらなのですけれども、『A stop sign is flying in blue skies』、止まれの標識が青空を飛んでいるという文を入れると、こういう映像を描いちゃうんですね。これは画像を検索して探しているのではなく、描いているんですね。止まれの標識が空を飛んでいる写真なんてそもそもありませんから、こういうのを描いている。これは我々が小さい頃にお話を聞きながら、その情景を頭の中に思い浮かべたというのとすごく近いことができるようになっている。実は、これはもっと学習させると、この画像の次にどういうことが起こりそうかということも、ある画像を見た時に、次にどういうことが起こりそうかということを人間は想像することができるんですね。たとえば、ビーチの写真を見ましたと、波がザバンと来ていますと、静止画ですよ。静止画1枚を見ると、この波はここらへんまで来ていたとすると、次はここらへんに来るんでしょうと予想できますでしょう。いきなり波がこうなったり、こうなったりしないですよね、というのをディープラーニングで学習することができるんですね。そうすると、この止まれの標識も飛んでいったら、そのうち山の方まで飛んで行っちゃいましたとか、空高く舞い上がって見えなくなっちゃいましたとか、次に何が起こりそうかを予想して、そういう絵を描くこともできるわけです」
反町キャスター
「なるほど。映像としてなかなか理解し難い部分もあるのですけれども、青空は後ろの青だと思っていいのですか?コンピュータは、AIは青空と言われたから青を勝手にイメージして、止まれのサインというのがこの赤なのですか?止まれのサインは、彼ら?の中で赤というイメージがあるのですか?青空が青だというのはわかりますが、止まれのサインがなぜ赤なのかと彼らは知っているのですか?」
松尾准教授
「もし止まれの標識というものが、青の止まれ標識や黄色の止まれ標識、緑の止まれ標識、いろいろあるのだったら、赤とは思わないはずです。でも、赤ですよね」
反町キャスター
「そういうデータが蓄積されているんですね。それを事前に打ち込んであるんですよね?」
松尾准教授
「画像をたくさん見せる。人間と一緒です。画像をたくさん見せる、映像をたくさん見せると、こういうものに。それと一緒に文も見せるんですね。こういう画像の時にこういう文が書かれていると一緒に、セットにして見せるとここで言っている止まれの標識というのが、画像中のここの部分を指すのだという、この関連性に気づいていくということで、逆に文を与えられると、こういう絵を描くことができる」
反町キャスター
「画質が非常に画素数が足りないと思う、この荒っぽい映像のイメージ、これはなぜなのですか?」
松尾准教授
「これはまだこのぐらいしかできないです。先ほどの計算量の問題で、非常に莫大な計算を必要としますから。このぐらいしかできないのですけれども、これでも、これから1年から1年半くらい経っていますから、現在だったら相当解像度が良くなっています。最新の技術ならば、本当に写真と見分けがつかないくらいのものができるようになってきています」
反町キャスター
「現在の1番新しいディープラーニングしたAIに、この止まれの標識が青空を飛んでいると、それをイメージした映像を出せと言うと、口頭で説明して、どんな映像が出てくると思うのですか?」
松尾准教授
「現在のですか?現在と近いのではないですか。ほとんど近いのだけれども、この画像がすごく鮮明で、本当にそういうロケをして、そういう写真をわざわざ撮ったかのような写真が得られるのではないでしょうか。ですから、コンテンツのつくり方も根本的に変わるはずだと思いますよ」
反町キャスター
「映画とか、映像コンテンツの話をされていますよね。変わりますよね?」
松尾准教授
「変わります、変わります。たとえば、現在、顔の表情を変えるとか、そういうこともできますから、そうすると、本当に役者さんを使わなくても、役者さんが何かいろいろやっているようなシーンを撮るとか、いくらでもできちゃうのですよね」
反町キャスター
「もともと役者さんの顔の映像だけを撮っておいて、役者さんの顔を、要するに、映像の中に出ている人間の中に張りつけ、表情はこちらでつくれるし、バックの背景はいろいろできるし、全部つくれると、そういう意味ですよね?」
松尾准教授
「従来だと張りつける時に、いろいろな顔のモデルをやって、一生懸命やるのですけれど、なかなか自然な感じにはならなかったと。ところが、ディープラーニングの技術だと非常に自然で見分けがつかないくらいにできますから、そうすると役者さんの顔を撮っておけば、あとはいろいろといじって、いろいろな顔にしたり、いろいろな動作にしたりできますよね」

ディープラーニング×既存産業
松村キャスター
「実際にこのディープラーニング、どうやって活用していくべきなのか。山際さん、国としてはこのディープラーニングをどうやって活用していくのですか?」
山際議員
「具体的には今のお話のようにコンテンツ産業においての役立て方というのも当然あるのだと思うのですが、いろいろな分野でいろいろなことができます。その中で、社会実装という言い方をしますけれども、社会に実際に役に立つものにしやすいものを、たくさんあるものの中から選んで、それをロードマップとしていつ頃までにこういうことができるだろう、あるいはそれを目標としてやりましょうというのを、この年度末、ですから、昨年ということになります、昨年度末、この3月31日までの間に、政府の方で策定しました。そこで選ばれた3つは自動運転、車の自動運転、それからものづくりの現場において効率性を高めるとか、全体としての最適を狙っていく、これも人工知能でかなりの部分ができるようになっていまして、ここのものづくりの分野、それと医療・介護等々の分野と、保健の分野と、この3つですね。これを実際に1番、社会に実装しやすい分野として挙げていまして、それがだいたいですが、2020年ぐらいまでにこういうことができるようにしましょう、2025年か2030年くらいにこういうものができるようになりましょう、さらにその先に進むようにしましょうというロードマップをこの間、発表したところです」
反町キャスター
「それは、要するに、医療の話をされましたけれども、イメージとしては、無医村とか、遠隔地診療とか、そういう意味なのですか?それとも、たとえば、画像診断というと人間ドックに行ってパンとやる時に、要するに、これまではいろいろな人が見ていたのを、機械でバンと判断するようになる、どういう使い道なのですか?」
山際議員
「全ての分野だと思っている、医療の全ての分野だと思っていただいていいのですが、おっしゃったように、この画像認識の部分というのは1番、ディープラーニングと親和性が高いですね。1番使いやすい分野で、最初に、ですから発展してきたんですね。先ほど、松尾先生からお話があったように、その画像の中で画像の中に写っているものが何なのかということが認識できるようになる。たとえば、病理診断で、癌の組織の写真があったとすると、細胞1つ1つに至るまで、癌の細胞というのを全部認識するわけですね。そうすると、それを無数にその画像を読み込ませていくと癌というのがこういうものだというのをだいたい学びますね。それにプラスしてある意味、メタデータと言うのでしょうか、その患者さんが何歳の方で、どういう病歴で、何癌か、治療は何をやったかみたいなものも全部をデータと突合させることができます。そうすると、この画像に写っている、こういう癌の形態の場合には何パーセントの確率で、こういう抗癌剤を使って、こういう手術をすると、その後の5年生存率がこうなりますみたいなものが瞬時に出てくると」
反町キャスター
「医者は要らない?」
山際議員
「ここは、そうではないと思います」
反町キャスター
「今の話は全部、ディープラーニングによってAIが全部できるようになるという、そこまでできるという意味ですよね?そうするとこれまで、たとえば、写真を撮って解析してもらって、サンプルを採って分析してもらって、それでうーんどうかな、これでやってみようかというところに過去のあなたはどうだったのというカウンセリングをして、データを取ってというのを、全部1度にコンピュータがやるのだったら、少なくともそこにかかった医療従事者はもう要らないわけですよね?」
山際議員
「いっぺんでそこまで行けないから、徐々にはそうなりますからだいぶの部分は、そういう意味で言うと、省力化できる余地はあります。しかし、これは診断として、こういうものです、ということはたぶん人工知能で出てくるのだろうと思うわけですが、医療というのは本当に難しいと思うのですけれども、1番大事なのは、正しいことだからと言って、それを我々人間が受け入れられるかというところです。治療の方法も、1つ、2つ、3つとあった場合にどの治療が1番良いのか、それは人工知能で、たとえば、5年生存率がこの治療だったら80%、この治療なら90%、この治療なら70%、というのが出るのかもしれません。しかし、1番良い治療成績の方法を選ぶと、体は1番辛いですと言った場合に、本当にそれ選びますかと、患者さんのご意思というのがあります。コミュニケーションをとりながらどの治療方法を選択していくかということをやるのは、生身の医者でなければ到底できない」

産業化への道筋
反町キャスター
「自動運転で日本というのはどういうレベルなのですか?」
山際議員
「これに関しては現在、私どもが世界の情勢と日本の情勢というのを色眼鏡でなく、見ていて、だいぶいいところまで日本も来たなという気がします。世界中どこも、越えなければいけない壁というのが自動運転の場合にはあります。結局、自動運転だろうが、人が運転しようが事故をゼロにするというようなことはできないと思います。1つの壁の例を示しますと、技術的には人間が運転するよりも自動運転の方が、事故が少ないと言っても、自動運転の車が事故を起こした時に社会が許容しますかと。ここは大変難しい話だと思います。社会の受容性という話があります。だから、技術としてかなりの部分きていますから、できるところからやろうというのはロードマップの中に書いてありまして、たとえば、運転する環境が、田舎の道でほとんど人通りもなく、車も通らない、そこを、たとえば、時速15kmで、自動運転で走る。すごく安全だと思いませんか?このお台場のあたりでバンバン人も車も飛び交うようなところで、そこで運転するというは、全然運転する環境が違いますね。そうすると、易しい環境から、ドンドン社会実装していこうではないですかと。そこでいろいろなデータが、先ほどの、松尾先生の話のようにデータが溜まり、ドンドン賢くなると、より難しいところに自動運転を少しずつ広げていくと、結局、事故を起こさない状況で社会にドンドン広げられるようになる。また、事故がないということをもって、我々日本人に限りませんけれども、人間というものはそれを社会的に受容する素地というのですか、それができあがってきて、自動運転、良いのではないの、そこそこ安全だしと、そういう全体としての雰囲気みたいなものができあがってくると一気に、先ほど、言ったリスクをどこまでとるかといった話もクリアできるようになるのだろうと思うんですね」
反町キャスター
「松尾さん、医療の話にしても、最後の部分、ないしは相手にとっての、ヒューマンタッチの相談ができるかどうか、カウンセリングできるかどうかといった部分は人間ではないとダメだろうとか、自動運転にしても、自動運転で事故が起きた時の社会的なインパクトを、誰がどう責任をとるのだみたいなことも含めた時、そこが1つの限界かもしれないという趣旨の話だと僕は理解したのですけれども。松尾さん、そういうのを乗り越えられると思っていませんか?」
松尾准教授
「完全自動運転になるに決まっていると思いますよ、いずれ。それが早いか遅いかという問題はあって、日本は山際先生がおっしゃるように、慎重な議論をちゃんとしていかないといけない国なので時間はかかると思いますが、やっちゃう国はやっちゃうと思うので。そうすると、グローバルに自動車メーカー、あるいは自動車部品をつくっているところが自動運転の市場においてどのぐらいシェアをとれるのか、売上げを伸ばしていけるかというところが、僕、実は1番気になっているところでして。半導体メーカー、あるいはGoogle、あるいは自動車メーカー、こういう中で誰が勝っていくのだろうというのはすさまじい競争が現在、繰り広げられている」
反町キャスター
「競争はもう既にピークに入っちゃっていると。そこで日本は戦うのが得策かどうか、こういう話でもありますか?」
松尾准教授
「それはあると思いますが、自動車産業は大きいので、ここを少しでも取れるといいというか、何とか勝てるといいなと思いますが、熾烈な戦いですよね」
山際議員
「もちろん、そういう問題意識を各社持っていますし、日本の政府としても、我々政治に携わっている者も皆持っているわけですね。それで、どこの部分でビジネスをやるのだろうと」
反町キャスター
「選択と集中ですよ。どこで勝負をかけるのか」
山際議員
「たとえば、スマートフォン等々の分野においては、Google、アップルというような、いわゆるプラットフォーマーと言われる方々が、ビジネスをやるうえのプラットフォームを握ってしまっているが故にそのうえで全てのビジネスをやらなければいけないから、言葉が悪いのですが、ピンハネみたいなことをされて、全然敵わないと。だけど、この自動運転に関して言ったら、自動運転は何を目的にやるのですかと言うと、安全に、速く、快適に、ある場所からある場所に人が運ばれればいいのだということになった場合、そこのシステム等々は本当に競争してやるべきところなのでしょうか。これはサーキットに行って、0.1秒速いか、遅いか、みたいなところは競争しなければいけないと思いますが、普通の移動でそこまでのものというのを皆が求めないのだとすると、ある一定の部分はかなり協調して、皆で、それこそオールジャパンでやるぐらいのことをして、プラットフォームをつくってしまう。そこでは競争はしませんよという話になった場合には、それはその先で何をやるかというところで競争ができるから、そういうビジネスモデルも考えられるのだと思うんです」

ディープラーニング×外食
松村キャスター
「松尾さんはディープラーニングを、外食、片付けと組み合わせるアイデアを持っているようなのですが、まず外食、これはどのようになると想定されますか?」
松尾准教授
「目ができたわけです、機械・コンピュータに目ができたわけです。では、目ができることによって初めて可能になる仕事とはいったい何なのかという観点で考えると、いろいろあるんですね。たとえば、農業もそうだし、建設とかもそうだし、いろいろあるのですけれども、調理というのはその1つですね。目がないと、たとえば、肉を上手に2つに切ることもできませんし、それをフライパンに入れて、色が変わったらひっくり返すことはできないわけです。ですから、これまで調理の機械、調理ロボットはなかったんです。調理は人間がしないといけなかった。全ての飲食店で調理は人がやっていますよね。と言うか、それが当たり前だと思っていますよね。家で自分が調理するのも当たり前だと思っている。ところが、これ当たり前ではなくて、人間がするしかなかったんですよ、これまでは。目ができると、いずれ、何年後かはわかりませんよ、10年後か、20年後かはわかりませんけれど、いずれ外食産業の調理、後ろのバックヤードは全部自動化していると思います」
反町キャスター
「何年後ぐらい?」
松尾准教授
「どの品目からいくかによるんです。難しいのは、たとえば、日本食の会席とか、難しいです。これは難しい、最後の方。最初はたぶん牛丼か、カレーか、ラーメンですよ。僕は牛丼だと思っているんです」
反町キャスター
「根拠は?なぜ牛丼が最初のディープラーニング×外食産業に?」
松尾准教授
「牛丼の話をするといつも笑われるのですけれども、牛丼というのは一品目で数千億円の市場がある異常な食べ物です。しかも、ラーメンとか、カレーも似たようなものですけども、ラーメンとか、カレーは皆さんこだわりが強いんですね。味とか、出汁とか、スープとか。ところが、牛丼はサイズだけでしかバリエーションないですよ、ほとんど。サイズだけで、あれだけ満足しているというのは相当すごいです、牛丼という食は」
反町キャスター
「なるほど、もともとのスタンダードが、平均値が高い?」
松尾准教授
「平均値がめちゃくちゃ高いから、サイズだけの違いで満足しているんです」
山際議員
「完全に同意しますね」
松尾准教授
「では、牛丼はなぜいまだに店舗で、日本全体数千店舗ありますけれども、全部のお店で1日に何十回も人間がつくっているんです。なぜ人がつくらないといけないか、機械化すればいいではないですかと言うと、肉を投入するタイミングだとか、それが浮いてきてとか、玉ねぎを入れる、目が必要です。牛丼がおそらく最初になるのですけど、牛丼からこれが自動化できれば、今度カレーもできるし、ラーメンもできるし、パスタもできるし、だんだん後ろの調理というのが、いろんな種類できるようになってきますよね。そうすると、日本の外食産業というのは、僕は世界一だと思っているんですね。日本の食というのは世界一美味しい。だけど、日本の外食産業がなかなか海外に出ていけない1番の理由はそのままお店を持っていっても、オペレーションがまわらないと。日本人の方のようにちゃんと出汁を取ってくれないし、味が落ちてくるわけですね。ところが、後ろが機械になれば、そのままの形で持っていけますよね。日本品質で持っていけるわけです。と言うことは、ロンドンでも、パリでも、ニューヨークでも日本の1番美味しいラーメン屋さんと同じ味で出せるわけです。これは絶対に売れますよね。そうすると、世界の外食産業の後ろを日本の調理機械、料理ロボットがつくっているという状態にできるかもしれないです。できたら、どういうことが起こるかと言うと、日本人が、たとえば、メキシコにあるメキシコ料理屋さんのメニューを開発しましたと、そうすると、これをそこに配信するわけですね、新しいメニューを。配信ビジネスになるわけです。ソフト産業ですね。プラットフォームです、完全に。そうすると、美味しいと…」
反町キャスター
「料理をする手足となる機械はどれも皆、同じなのですか?」
松尾准教授
「それは日本企業が結構、難しいので、調理の機械は。日本企業がつくったものですけれど、それが標準化されて、いろいろなところに入っていくということですね」
反町キャスター
「プログラムを、これはメキシコ料理のプログラムだと言って入れると、そこでいきなりトルティーヤをつくり出したりするわけですか?」
松尾准教授
「そう。新発売のおいしいトルティーヤができると。しかも、趣向のデータもとれますから、たとえば、僕がどういう食を食べた時にすごくおいしそうにしていたか、どういうものを残したかというのをデータとしてとることができる。と言うことは、たとえば、ニューヨークに行った時に、僕の味つけで、ニューヨークのステーキが調理されて出てくるわけです。となると、もう離れられないではないですか、このプラットフォームから。逃れられない。すごいロックイン効果ですよね」
反町キャスター
「ちょっと怖い話…」
松尾准教授
「食というのは非常に本能に結びついていて、お金を払うんです、おいしいものには。日本人は特にそうだと思うのですけれども、お金持ちはお金持ちなりにお金を払いますし、一般の方は一般の方なりに払う。これは面白いことに絶対的な価値ではなく、相対的な価値なので、その人が使えるお金の中で許容できるところまでは払うということなので、利益率が高くなるはずです。日本は食のレベル高いですから、ここで新しい料理をドンドン考えて、それを各国に配信していくということをやると、世界の外食産業を獲れるということですよね。そうすると、計算すると、ちょっと冗談ぽいのですけれども、だいたい世界全体で2000兆円ぐらいですね、1年間。GDP(国内総生産)が2000兆円にできるかもしれない。現在、日本政府は500兆円か600兆円ぐらいですよね。でも、料理のプラットフォームを世界で獲れば、2000兆円ぐらいですよ。もちろん、全部獲れるかもしれないし、獲れないかもしれないですよ。でも、その半分でも4分の1でも獲れば巨大産業になるわけですね」

ディープラーニング×片付け
松村キャスター
「松尾さん、外食の他に片付けとディープラーニングを組み合わせるというアイデアもあるそうですが、これは?」
松尾准教授
「組み合わせるというよりは、片付けというのはディープラーニングがないとできないですね。つまり、目がないとできない作業で、お掃除ロボット・ルンバは掃除してくれているように思いますけれども、あれは埃を取るということしかやっていなくて、ルンバを動かす前に片付けないといけないです。片付けという機械、ロボット、これまでないです。なぜないかと言うと、散らかり方は1回1回違いますから、どこに何があるのかが見えなければ、片付け作業はできないですね。でも、見えさえすれば元にあった場所に戻すということをやればいいだけだから、片付けができますよね。これができると何ができるかというと、朝会社に行きます、帰ってきます、すると全てのものが元の場所に戻っているわけです。これは、僕は家のホテル化と言っているのですけれども、すごく快適になりますよね。たぶん汚したい放題というか、朝に行く時とにかく散らかして出かけると、戻ってくると全部きれい。結構、堕落しちゃうと思うのですけれど。そのぐらい1回使いだすともうやめられないと。日本の社会の中で家をきれいにしていることがある種のステータスと言うか、ちゃんとしているというような印象で、プレッシャーになったりもするわけですけれど、でも、こういうのがあれば、これを買っておくだけでいつもきれいとなりますから、これはかなり高くても買うはずと。しかも、女性が、たとえば、社会で活躍するうえでも、すごく需要がある。これは家だけではなくて、オフィスでも片付けはありますと。それから、商業施設でも片付けがあります。ありとあらゆるところに片付けはあるんですね。考えてみればほとんどの方が片付けをちょっとは毎日やっているんですね。1日あたり全人類が地球上の全人類が片付けに使っている時間の総時間は何時間だろうと考えると、たぶん恐ろしいぐらいにやっているんです。これはたぶん運転している時間よりも相当長いはずですね、片付けをしている時間の方が。と言うことは、片付け市場というのはどのくらいあるのだろう。運転手の方の時給と片付けをする方の時給はそんなに変わらないですから、考えるとここが今から見えていない市場が顕在化してくるといった時に、この片付け市場の機械化というのは、どのぐらいの巨大市場になるかと考えると、かなり大きいと思いますね」
反町キャスター
「それは人型ロボットみたいなやつがこう持ち上げて包丁は包丁の場所に戻し、皿は皿の場所に戻しみたいな、そんなイメージなのですか?」
松尾准教授
「そんなイメージです。最初はそうですね。だんだん書類とかも、これは捨てておくとか、これは置いておくとか、これは捨ててはダメみたいなやつを捨てちゃって怒られるとか、そういうことを。紙を捨てていいかどうかの判断は最後まで一番難しいのではないかなと思っていますけれども。でも、コップを戻すとか、そういうことはできるようになりますよね」

社会への影響は?
松村キャスター
「便利になる一方、仕事がなくなってしまうのではないかという懸念も指摘されています。人工知能が人間の仕事に置き換わる可能性を示したものですが、2030年には言語の意味を理解して、教育の分野でも人工知能が進出していると言います。山際さん、いかがですか?私達の仕事が奪われてしまうのではないかと心配する人も多いと思いますが」
山際議員
「人類の近代史というものを見てくれば、こういったことがずっと続いてきた歴史ですよね。すなわち我々の日本という国は、瑞穂の国と呼ばれていたわけですから、農業をやって生きてきたわけです。第1次産業の国だったんです。それが、工業化が進むことによって、第2次産業に人手が必要になることになり、また農業機械が発達することにより農業の省力化というものが進んで、その農業で必要なくなった人材というものが、今度は第2次産業の方に移ってきた。簡単に言えば、そういうことがどの時代でも起きているわけですね。ですから、当然ですけれども、これから先も、こういう変化というのが起きて、現在やっている仕事が必要なくなって、代わりにやらなければいけない仕事が出てくるということは繰り返し繰り返し起きていくのだろうと思うんです。が、ここで注意しなくてはいけないのは、先ほどから言っているように、これは産業革命という、革命という言葉を使っているわけです。先ほどから松尾先生おっしゃっているように、1年経ったらまったく違う景色になっているんですよ。1年前にやれなかったことが1年後にはできるということが当たり前の、それくらい変化が速い。こういうところでおそらく変化に対応しきれない職種というのは山ほどこれからも出てくると思います。そうなると必要な部署に必要な人材を振り分けていくということに関して、これを、おそらく市場の理論だけに任せていたら、それは社会に大変大きなひずみを出してくる可能性があるので、ここは政治の役割なのだろうと思います、そこの調整をしていくというのは。注意深くやらなければいけないとは思います」
反町キャスター
「いかがですか?」
松尾准教授
「そうだと思います。これは人工知能に関係あるところもあれば、関係ないところもあると思いますけれども、科学技術の進展が速くなっているので、人生の最初の20年で学んで、あとの40年~50年でそれを使うというような、そういうモデルではなくなってきていると。必要な時に必要な学びをやって、自分のスキルを更新しながらやっていかないといけないと、こういうことだと」
反町キャスター
「大変なことですよ。そういう時代になったことを受け入れた人でないと、この時代には入っていけないわけですよね?」
松尾准教授
「そうですね。ただ、日本人というのは、非常に柔軟性が高い国民性だと思っていまして、たとえば、よく言われるのが就活です、新卒一括採用で、入ってから仕事が決まるなんて国はないですというのはよく批判されるんです。普通はプロフェッショナルがあってやるわけですけれども、でも、そのぐらい、日本人は柔軟性が高いということだと思うので、僕はある仕事が機械化されると、それにできないような他の仕事を学ぶ力というのが、日本人は非常に高いのではないかなと思っています」

山際大志郎 自由民主党副幹事長の提言 『変化を楽しむ』
山際議員
「変化を楽しむと書かせてもらいました。これは不可逆的な変化が、革命と呼ばれるような変化が起きているわけですね。これは好むと好まざるとに関わらず必ず起き続けます。となるなら、それを前向きに捉えるか、後ろ向きに捉えるか。前向きに捉えて、楽しむぐらいの勢いで、この変化というものに乗っていく、あるいは変化を起こしていく側にまわる。これが私はすごく重要なことだと思います。日本人はできると思います」

松尾豊 東京大学大学院特任准教授の提言 『若者の力を社会で使う』
松尾准教授
「若者の力を社会で使うということですけれども、お話したようなディープラーニングの技術、これは世界で1番活躍している人は20代です。考えてみればGoogleのセルゲイ・ブリン氏も、ラリー・ペイジ氏も、Googleを大きくした時は20代でしたし、フェイスブックのマーク・ザッカーバーグ氏も、20代で大きくした。最近では、スナップチャットのエヴァン・シュピーゲル氏も26歳ということで、世界のIT(情報技術)は20代です。日本はこの目の部分、ディープラーニングの部分は若者の力をちゃんと使わないといけない。それによって日本がずっと培ってきたモノづくりの力がまた生きてくるわけですし、それが先ほどの食とか、日本文化というのを広める、またこれを活用することによって日本全体が大きく成長できるというためにも、若者の力を日本全体で使うためにはどうしたらいいかということを考えていくべきだと思っています」