deep learningをビジネスに活用しよう!

先日、東京大学大学院工学系研究科の松尾豊教授が「AIで世界と戦うには~AI時代における社会や企業のあり方~」と題して基調講演を行ったフォーラムに参加しました。 大変貴重なお話が沢山あったので、今回アップデートされたお話の一部だけでもシェアします。ちなみに、当日はAI関係者向けの講演ではなかったため、かえってビジネス的に捉えるには分かり易い内容だと思いました。

まず、ディープラーニング(深層学習、以下dl)ができることを3つに分け、その分野で松尾教授が言及された最新の技術などを合わせて紹介します。

①画像認識
・コンピューターが出現して初めて、画像を認識できるようになった。僅か6~7年で急激に精度が向上し、すでに人間を超えている。人間の誤差率は5.1%と言われるが、dlは2.3%と驚く精度を出している。

・アルゴリズム事例としては、YOLO(you only look once)を紹介。一般の物体検知において、処理速度がほぼリアルタイムに近づいており、1秒間に数十回のレベルの検知は、自動運転などに取り入れられている。

②ロボット・機械の運動習熟
・機械が眼を持つことにより、様々なことができるようになった。

・ロボット事例としては、「BRETT(ブレット)」を紹介。深層強化学習により、ハンガーをかける、ブロックをはめるなどの動きを子供が学ぶように学習していく。

・機械の事例では、DeepX(松尾研発)とフジタ(ゼネコン)により、油圧ショベルをオペレータなしで地面の掘削を行う、重機の自動運転を紹介していた。

③言葉の理解
・自然言語処理において、新しいモデルが次々に出現しており、言葉の意味理解においてはかなり進化しつつある。

・自然言語技術関連では、「BART」というGoogleが2018年に公開した、汎用的な分散表現を計算する技術を紹介。最新のフレームワーク「Transformer」を用いて学習し、現状のものに接続するだけで活用できるのが特徴。また、Googleは学習済みのデータも配布している。

そして、今年物議を醸したディープラーニングの原理ですが、「深い関数を使った最小二乗法」という定義を絵と共にご説明されました。これについては、文章のみで伝えることが大変難しいのですが、変数を多く増やすことと層を深くするという2つの側面が重要です。変数を多く増やすという点は、単回帰分析から重回帰分析へ変数の多さに触れ、層を増やすという点は、いわゆる畳み込みニューラルネットと言われる幾層も中間関数を重ねるやり方について説明。 総じて、表現力の高い関数を用いて、誤差を最小化して予測する仕組みを実現できるということです。

そして、今回最も感銘を受けたのは、「最小二乗法」を用いてビジネスにどう活用していくか、大変分かり易くご説明されていたことです。以下その部分を抜粋します。

『 y=ax+b 』

このxとyに何を入れるか、これを工夫することで様々な予測が実現可能
・画像認識 『x:画像 y:猫』
・顔認証 『x:顔画像 y:人の名前』
・アルファ碁『x:盤面の状態 y:次に打つ手』
目の前のビジネス課題に関して、一体何「y」を予測したいのか、入力情報「x」に何を入れるか、この組み合わせを当てはめていくことで、多様化が実現できる

この説明を聞いている時にふと、15年ほど前に協調フィルタリングを自社のシステムに用いる時に、様々な変数をディスカッションしたことを思い出しました。上記の場合「x」の説明変数は、実際ビジネスの現場ではかなり多く増やしていき、さらに何層にも中間関数を重ねることにより、誤差を最小化するプロセスが重要だと思われます。でも結局は、ディープラーニングにしろ機械学習に言えることは、技術は手段にすぎず、予測するための説明変数(入力情報)や予測する目標をどこにおくか、この点をいかに工夫を凝らすかがもっとも成功のカギを握っていそうです。 今後機会があれば、アイデアソンなどでこの議論を取り入れると、目からウロコのアイデアが出てきて面白そうです。

その他にもAIの進化のお話や産業に与える影響、今後に期待できる分野などのお話もあったので、また気が向いたらブログにアップします。

最後に松尾教授が理事をされている「日本ディープラーニング協会」をご紹介します。ディープラーニングのエンジニア育成やビジネス活用のプロフェッショナルを育成するための資格試験やプログラムがありますので、ご興味あれば下記からどうぞ。

コメントを残す

サブコンテンツ

このページの先頭へ