■AI業界がついにミッションクリティカルな分野に到達したのはいいが……
山本/今のAI業界ってそこが悪いところかもしれません。今までいわゆる人命に関わる世界に出たことがなかったんです。将棋のAIを私は一生懸命プログラムしましたが、いわばゲームなワケです。人の生き死にに関わる話じゃなかった。それがついに人の生き死にに関わるような、そういったミッションクリティカルなところにもついに到達できるようになったっていうのが誇るべきところですが、「次にそこでどうするか」って話については議論としてはまとまっていないです。
国沢/そこも興味深いです。
山本/私としては人よりもはるかに安全っていうものを作るしか社会に受け入れられないって思っています。例えば「事故率が3%から2%になりました」くらいだと社会に受け入れられない。
国沢/今の話を聞くと、例えばワクチンなんかも、副作用がありますし、もしかしたらそれで死ぬかもしれない。だけど、それが200万人にひとりだったら、まあしょうがないねというところまでやっていけば、それは認知されるという判断ですね。圧倒的に安全が担保できればいいと?
山本/そうですね。その安心に対する安全だけじゃなくて、それをこの先コモンセンスにしていく、常識にしていくっていうプロセスについてもすごく興味があります。
国沢/そういう意味ではやっぱりハードウェアが大事になってくる気がします。
山本/いえ、私はソフトウェアだと思っています。Liderですとcm級の誤差もわかりますが、それが安全な自動運転につながるワケでもないんです。
国沢/確かにつながらないんですよね。それも自動車業界みんな思ってます。人間もそうだけど、能力のない人にいろんな情報を渡しても何の判断もできないから、それはもう総合的に見なきゃいけないし。
山本/そうですね。
■リアルワールドで想定できないパターンへの対処は?
国沢/例えば、スバルはカメラをADASに使ってるんですけど、そんなにカメラ性能がいいわけじゃないんです。それでも情報としては充分だっていいます。カメラがうんと高性能になったってコンピュータがもう処理できない。何が言いたいかと言いうと、やっぱりイレギュラーケースみたいなのが出てくるわけです。そうすると、カメラで見えていても、AIがそれに対してどうしたらいいかわからない。今まで何度か起きてることがあればAIは処理できるんだけど、まったく新しいものに対してはたぶん処理はできないし、悪意のあるものに対してはなかなか対処が難しいと思います。すでに一般的な事故を見てると、どの自動車メーカーはもう90%以上防げると言います。AIじゃなくディープラーニングですよね。想定外のパターンは無理だと言います。そういった面に関してはどうですか?
山本/それはもう諦めるしかないです。例えば、最近出た論文で、信号をごまかすみたいな悪意ある攻撃をされるってのがあって、それに対して何か騙されてるみたいな話があったんですけど、具体的な攻撃に対しては人間も別に強いわけじゃないので諦めるしかないかと。
国沢/自動運転ってことはドライバーが周囲に注意を払っていません。自分の方向の信号が青で、向こうから直進したまま止まらない認知症のおじいさんが運転するクルマが来たようなケース。なかなかセンサーとしては判断が難しいものがあります。センサーの精度も必要だし。人間だったらとりあえず運転してれば、交差点まで行って「おかしいな」と思ってブレーキをかけられるワケです。そういうぶつかった時に自動運転でどうするかということになると思います。
山本/現状の話でですか?
国沢/いえ、山本さんが考える自動運転での話です。AIの精度を上げようとすると、やっぱりカメラだっていっぱい必要になってきますよね。そのカメラだって、ロバスト(頑健性)のために2個とか3個とか数が増えるわけじゃないですか。そのあたりを自動車メーカーはやっていますが、そこも同じように考えていますか?
山本/ああ、なるほど。私自身はロバストのために冗長系を二重にするっていうのは、あまりいいところがないんじゃないかと思っています。どういうふうに壊れるかって話があるんですけど、内部でやっぱりチェックし続ける機構が必要だと思っていて、そのカメラも要は「壊れた」「壊れてなくて中途半端に壊れた」「壊れそう」とかいろいろあると思うんですけど、そういうのを検知できるような何か機械学習システムを作りたいなと思っています。けど、いきなり急に壊れちゃうかもしれないから、それはわからないです。だから人間の心臓麻痺が起きる確率よりは下げたいと思っています(笑)。
コメント
コメントの使い方