ストックマーク、LINE、DeNAのAIプロダクトショーケース──AIを実装したプロダクトの技術大公開

イベント
8月27日に開催された「AIプロダクトショーケース-AIを実装したプロダクトの技術大公開-」。自然言語処理(NLP)や画像認識といったテクノロジー領域で、AIプロダクトの開発に携わるストックマーク、LINE、DeNAの3社が登壇。プロダクトの概要や裏にある技術、開発アーキテクチャ、最近のトレンドなどについて紹介した。
ストックマーク、LINE、DeNAのAIプロダクトショーケース──AIを実装したプロダクトの技術大公開

【プロダクト①:3つのAISaaSサービスを展開/ストックマーク】

最初に登壇したのはストックマークCTOの有馬幸介氏。有馬氏は会社の紹介をした後、「技術進展と社会背景」「プロダクト」「AIによるアーキテクチャの破壊」と、主に3つの項目について説明した。

1
▲ストックマーク株式会社CTOの有馬幸介氏

「当社は東大発のスタートアップとして2016年に設立しましたが、他のベンチャーとは異なり、メンバーの平均年齢が30代半ばと比較的高い傾向にあります。そのためほとんどのメンバーが社会人経験、それも大企業での就業経験を持っています。大企業の多くに見られる既存のレガシィな意思決定プロセスを改革する必要があるのでは。そのような共通の問題意識を持つ者が集まり開発に取り組んでいます」(有馬氏)

同社では、最先端の自然言語処理技術をベースに、組織における意思決定プロセスを爆速化するSaaSを提供。現在は3つのAI SaaSサービスを展開している。

①Anews:ビジネスに必要なニュースの取得・共有

「ホワイトカラーの業務の20%は情報収集だと言われています。同業務にAIを活用することで、本業の割合を8割以上に高めてほしいとの想いから開発したサービスです。たとえば金融会社では出社すると大手5社の新聞を並べ、重要なニュースをピックアップし、上司などに提出するフローが毎朝行われていますが、Anewsがあれば同業務を代行。収集したニュースは上司も含めたメンバーに共有可能で、既に1500社ほどへの導入実績があります」(有馬氏)

②Astrategy:大量のテキストデータを分析し経営・戦略の意思決定をサポート

経営企画や新規事業領域で使えるのがAstrategyだ。新しい事業を企画する際、市場変化や競合動向を把握(情報収集)しアイデアを考え、レポートを作成するのが一般的な流れだが、同業務に1日3時間以上も費やしていると有馬氏は指摘。この部分をAIが自動化する。

また同サービスを使うことで、別のメリットも得られる。新たな気づきだ。たとえばAmazonの動向を調べていくと、地方の社会貢献活動を積極的に行っていることが分かったという。一般的にはあまり認知されていない情報を活かすことで、未知なる競合に備えたり、競合に先んじた新たなビジネスの発想に繋げる。

③Asales:営業が書いたフリーフォーマットのメモから顧客ニーズを読み取る

営業戦略のデジタル化ともいえるサービスだ。商談時や日々の業務の内容や気づきは、これまでの多くの営業がメモやテキストドキュメントとして保存していた。そしてこれらの情報の多くは定性的なフリーフォーマットのため、コンピュータが分析することは難しかった。そこを最新の自然言語処理技術で解析・デジタル化し、業務の効率化を図る。

「100名ほどの営業がいる組織では、年間のメモは100万枚にも及びます。これを人力で行うのは相当な労力がいりますし、果たして確かな情報分析が行われているのか疑問ですよね。同サービスを使えば、メモの中からお客様のニーズとなりそうなセンテンスを抽出・クラスタリングし、各ボリュームが分かるよう可視化します」(有馬氏)

【技術進展と社会背景】東大に合格するようなAIが登場

6年ほど前に画像処理領域で起きたブレイクスルーが、今まさに言語処理領域で再燃していると有馬氏は言う。

「コンピュータはこれまで、Excelなどの数値データしか扱えませんでした。しかしビジネスの現場では先のようなフリーフォーマットで作成された非構造なデータが、8割を占めています。メールやWord文書です。この非構造なデータを処理できるAIが去年ごろから登場したことで、大きな波となっています」(有馬氏)

有馬氏が言うAIエンジンはBERT。特徴を次のように続けた。

「これまでのAIは学習する際に大量のデータが必要でしたが、BERTの場合は既に学習済みAIなので、少量のデータで導入でき、それでいて高い精度を誇ります。先のAstrategyであれば、1000件程度の正解データを与えるだけで、正解率92%という精度になります。

それまでの正解率は70%ほどでしたから、いかにBERTが優れているかが分かります。さらにBERTは、さまざまなタイプの文章で使えるので、汎用的なAIでもある。当社でも積極的に導入しています」(有馬氏)

「AIは東大に合格できない」との発言や関連著書が一時期世間で話題となったが、BERTを使えば可能だと思うほど優秀なAIだと有馬氏。一方で、本当の意味で文章を理解しているわけではないので注意が必要とも続けた。

「『シリコンバレーの一流エンジニアが手がける開発プロジェクトサービス』という文章を読ませると、『一流エンジニア』のセンテンスは企業名だとBERTは認識します。たしかに企業名に置き換えても意味は通じますが……。このあたりのアルゴリズムが、奇妙だと感じています」(有馬氏)

こうしたことも含め、今後のAIは人間が対象を認識する際に行っているような、文章だけではなく画像情報なども含めて統合的に判断するアプローチやアルゴリズムも必要ではないかと、今後のAIの動向についての見解を述べた。

BERTについては日本語版を同社が作成し、ホームページ上で公開している。実際に使えるとのことなので、興味がある人は試してみるといいだろう。

【アーキテクチャ】サーバーレス化、ディープ化、エッジ化で構成

プロダクトのアーキテクチャはスライドのとおりで、サーバーレス化、ディープ化、エッジ化と3つの領域から構成。サーバーレス化はメディア(サイト)からデータを収集する領域、得たデータをAI・自然言語処理し分類するのがディープ化領域。エッジ化で顧客に提供する構成だ。

2

サーバーレス化:3万メディア10万にも及ぶ記事を1200台のサーバーで収集

「以前はCPUが高性能な大サーバーでデータを捌いていましたが、いくら性能が高くてもひとつの筐体で色々なプロセスを実行すると、OSレイヤーで競合してしまい、満足する処理スピードを得られませんでした。そこで、分散化することにしました」(有馬氏)

用いるサーバーは1200台にもなるが、新たな課題もあるという。

「実際の挙動ではサーバーが200台ほどになると頭打ちしてしまうことが判明しました。AWSに問い合わせると『ここまで多くのサーバーを使っている前例がないので分からない。本国に質問してください』とのこと。今、本国からの解答を待ちっている状態です。そのため現在は200のサーバーの塊を6個繋げた状態で動かしています」(有馬氏)

1日の処理量は3万メディア10万記事にもおよび、アクセスが集中する朝の時間帯は現状のスタックでは足りないため、サーバーを1万台にする計画もあるという。

ディープ化:優秀なAIだが巨大過ぎるのが課題

高い性能を誇るBERTだが、課題もある。

「BERTは24層3億パラメータからなる巨大でハイパフォーマンスコンピュータのため、CPUではなくGPUを大量に、かつ並列に動かすなどの工夫が必要です。学習モデルも巨大で、1つが500MBほどになるため、先のように朝の時間帯など大量のユーザーが利用すると、メモリやストラテジーを食いすぎるため、I/Oの際には圧縮するなど工夫しています」(有馬氏)

BERTは2018年に公開されたばかりだが、その後次々と新しいモデルが登場していることも問題だという。

エッジ化:エッジで処理する流れに

現在は精度向上がAI開発のポイントだが、今後は他のサービスや技術と同様に、スピード競争に向かうだろうと有馬氏。アーキテクチャではこのような流れにも配慮。中央サーバーなどユーザーから遠いところで処理するのではなく、一番近い、ユーザーのローカルコンピュータにGPUを乗せ、処理する構成とした。その結果、15秒かかっていた処理が0.1秒に短縮された。

AIプロダクトを活用することでアジャイル経営を実現してもらいたい

4

先のアーキテクチャで説明したように、エッジ部分でもAI技術が入ってくるなど、多くのソフトウェアでは今後AIが入ってくるだろうと有馬氏。実際、人工知能学会の講演でも、2020年にはソフトウェアの50%以上に入ってくると紹介されていたとのこと。今後はフロントエンドエンジニアなどにも、AIのスキルセットが必要になるだろうとの見解を述べた。

AIを利用する本質についても、会社のコアバリュー的な観点として触れていたので最後に紹介する。

「私たちがやりたいビジネスは、AIを活用することでこれまで人力で行っていた業務の効率化を図り、空いた時間で業務の本質である、お客様へのサービスや価値向上にフォーカスできる状況をつくることです。端的に言えば、最近話題となっている『アジャイル経営』です。当社のAIサービスを使うことで、多くの企業でアジャイル経営を実現してもらえればと思います」(有馬氏)

【プロダクト②:LINE・Clova】

続いてLINEが提供するAIアシスタントClovaの開発者であるNguyen(グエン)氏が登壇した。 5
▲LINE株式会社 Clova NLP Senior software engineerのNguyen Tung氏

「ClovaはもともとtoC向けデバイスでしたが、現在ではClovaで培った自然言語処理 、音声合成認識などを、9月から提供している無料のAIカーナビアプリ「LINEカーナビ」に活用しています。さらにはtoB向けのサービス『LINE BRAIN』として、チャットボット技術、文字認識技術、音声認識技術を外部提供しています」(Nguyen氏)

LINE Clovaのアーキテクチャ

6

Clovaは「クライアント」「ブレイン」「スキル」「プラットフォーム」と4つのコンポーネントから構成される。クライアントはユーザーとの接点となるデバイスやアプリで、ブレインは音声認識、自然言語処理、音声合成などのAIアーキテクチャ領域。ブレインでユーザーの意図を解析し、次のスキルコンポーネントで、音楽再生などを実行する。

プラットフォームは「CIC(Clova Interface Connect)」「CEK(Clova Extensions Kit)」といったAPIで、各コンポーネントを横断的に繋げる役割を担う。

「例えば、『今日の8時の天気は』とClovaに話しかけます。音声はデバイスを通し解析されテキストに変換。テキストはNLUに入り、Rule/機械学習両アーキテクチャでキーワードの抽出・分類、フィルターなどの処理を実行。2つのベースを使う理由は、それぞれのアーキテクチャで長所・短所があるからです」(Nguyen氏)

7

modeはユーザー発言以外の情報で、たとえばGPSから得られる位置情報などだ。これらの処理を経てユーザーの意図が判断されれば、スキルサーバーに情報を渡し、タスクの実行(ユーザーへ天気を知らせる)となる。

こうした例以外にも、NLU処理はQ&A、雑談、感情分析など様々ある。NLUを解くことこそが、AGI(汎用人工知能)だと言われていると説明。なおスキルにおいては、LINE関連サービスやサードパーティも含め、さまざまなものが開発されている。

世界の言語モデル研究動向&応用の課題

8

「私たちのチームは、早くから言語モデルの研究開発に着目してきました。ELMoやULMFitが出始めたころからで、私たちが日本語化し検証したモデルもあるほどです。このような経験から言語モデルの歩みを検証すると、アーキテクチャの主流はLSTMからTransformerに代わった2018年が、ターニングポイントだと考えています。BERTやGPTの登場です。以降は特にBERTの存在感が強く、GLUEランキングからも性能の高さが分かります」(Nguyen氏)

GLUEは「General Language Understanding Evaluation」の略で、AIモデル評価のベンチマークだ。Nguyen氏は最近のランキングも紹介。BERTベースのモデルが1位となっていることが分かる。ちなみに4位の「GLUE Human Baselines」は人であることから、既にAIが人よりも優れていることになる。そこでGLUEはSuperGLUEとのベンチマークを設定したが、こちらでも既にBERTベースのモデルがランキングの多くを占めている。

9

「今はまだ人がトップですが、いずれ新しい評価タスクでも、BERTがトップに立つ可能性がある」とNguyen氏。また同氏はBERTのアーキテクチャは汎用性が高いため、自然言語処理だけでなく、画像認識なども含めたマルチモーダル分野でも力を発揮していると説明した。

BERTとは?

BERTは先の有馬氏も触れたように、2018年の10月11日にGoogleが発表した言語モデルだ。機械学習アーキテクチャであるTransformerを、マスク言語モデル及び次文予測という複数タスクで学習させることによって高い言語能力を実現する。

「BERTのように、現在の言語モデルの潮流は汎用的であることです。大量な教師なしデータで学習済みですので、その後別のタスクに適用する際には、教師ありデータは少なくて済みます。このような技術を転移学習と言います」(Nguyen氏)

同氏はBERTの特徴を理解した上で、さらなる高性能言語モデルの研究開発を行っていると言い、その手法を紹介した。

10

11

「言語モデルの研究開発は頭打ちだと言う研究者もいますが、私はそうは思いません。BERTが次々と新しいバージョンを出していることも理由ですし、特に処理ではなく“理解”という部分においては、まだまだ人には及んでいないと思うからです」(Nguyen氏)

ただ言語モデルの開発、特にBERTに代表されるようなハイパフォーマンスコンピューティング化が進むと、スライドでもあるように、「more」「more」と巨大な開発ならびにアーキテクチャになっていくため、さまざまな課題が生じるという。

たとえば研究開発コストだ。同氏の試算によれば、2019年6月に登場したBERTを超えるとされる言語モデルXLNetの開発費用は約30億円。また当然だが、これだけのビッグモデルのエンジンのため、まわりのインフラもスケールアップする必要がある。

そこで同氏のチームでは、ビッグモデルの研究開発を進める一方で、軽量なアーキテクチャを独自に開発。プルンニング(BERTの中の学習の重みが小さいところを削除)、量子化(計算精度を落とす)、ディスティレーション(知識の蒸留)といったテクニックなども併用することで、軽量でありながらBERT並みの性能を誇るモデルの開発研究を進めている。

費用面においても、GPUではなくCPUでもある程度できるようなCPUチューニングにも取り組む。

「画像処理領域におけるAIの動向を見ていると、軽量化の方向に向かっています。この流れが自然言語処理の分野でも必ず来ると信じ、まさに今、準じた研究を行っているところです」(Nguyen氏)

言語モデルによる自然言語処理を手軽に始める方法(個人向け)

同氏は最後に、これから自然言語処理の勉強を始めたい人、もっと深く学びたい人向けの参考情報を提示した。前述のBERTはもちろん、実際に文章の入出力が行えるサイトもあるので興味がある人はアクセスしてもらいたい。また最後に以下のようなメッセージをくれた。 12

13

「先ほども言いましたが、言語処理の研究開発はかなり進んでいます。しかし言語理解においてはまだまだ、というのが私の考えです。ですからこれから自然言語処理を始める人でもチャンスがありますし、新しいアイデアで貢献できるかもしれません」(Nguyen氏)。

【プロダクト③】:DeNA/交通事故削減支援サービス「DRIVE CHART」

3番目に登壇した奥田氏は、DeNAにおけるAI開発の特徴から紹介した。 14
▲株式会社ディー・エヌ・エー AI本部AIシステム部AI研究開発第二グループ グループマネージャの奥田浩人氏

「DeNAはゲームに限らず、エンターテイメント、スポーツ、今日お話しするオートモーティブ事業など、多種多様な事業を展開しています。単にAI技術を活用したサービスを提供するだけではなく、公開したAIサービスで得られる大規模なデータを収集。同データをAIの研究開発にさらに活用することで、より高いレベルの研究開発を進めていく体制で進めています」(奥田氏)

15

交通事故の発生は、年間47万2165件(平成29年時。内閣府資料https://www8.cao.go.jp/koutu/taisaku/h30kou_haku/zenbun/genkyo/h1/h1b1s1_2.htmlより)もあり、大きな社会課題となっている。減らすにはドライバーの運転方法を変える必要があり、そのためのサービスが「DRIVE CHART」だ。

開発に要した期間は約2年。京王自動車、日立物流、首都圏物流などの協力の下、500台もの車両を使い2018年度に実証実験を行い、今年6月にローンチされた。

技術領域は、コンピュータビジョン、データサイエンス、機械学習などで、参加メンバーは同領域の国際学会で受賞した者、データサイエンティストが腕を競い合うコンペ・Kaggleの成績優秀者に送られるKaggle Master の称号を持つ者もいるという。

AIを搭載した車載器が危険運転をレポート

車両に搭載した専用のAI車載器(いわゆるドライブレコーダー)が、映像・センサー信号を収集・分析し、危険運転かどうかを判断する。一時停止で止まっていたかどうか、車間距離は不足していなかったか、などだ。結果は100点満点で点数・レポート化。レポートを振り返ることで、事故削減に繋げる狙いだ。運輸事業者の運行管理者がレポートを受け取り、運行管理者からのドライバーへの働きかけを通じて運転行動の改善を図る。
「開発に際し前提となったのは、より多くのお客様に使っていただくために低価格のハードウエアを用いることです。そのためステレオカメラやLiDARといった高額なデバイスではなく、通常のカメラを採用。メモリや処理速度も同じくそれほどハイスペックではない、廉価なSoC(System-on-chip)への実装を目指しました」(奥田氏)

危険運転を判断するAI車載器の役割や詳細は以下のとおりだ。

【AI車載器の役割】

外向きカメラ:車間距離不足(車両前方の映像)
内向きカメラ:脇見運転(ドライバーの顔を撮影)
加速度センサ/GPS:急ブレーキ、急ハンドル、急加速
加速度センサ/GPS/地図データ:一時不停止、制限速度超過

車間距離不足においては、単に前方車両を認識するだけでは足りず、距離を計算する必要があるが単独のカメラ画像のみからは無理なため、キャリブレーションを行っている。

具体的にはKeypoint Detectionという技術を活用してレーンを検出、レーンが無限遠で交差する点を消失点とする。消失点とカメラ高さの情報から距離を算出する。 さらにそこから速度、他車の割り込みなども考慮し定量化していくとのことだが、コアノウハウのため詳細は明かされなかった。

脇見運転の検出では、高速かつ高精度の両立を意識。二段構えのネットワークを構築し、一段目で顔および目のまわりの顔ランドマークの大まかな領域を検出。二段目ネットワークで、目の領域だけを切り出し向きなどを検出している。

16

【システム構成】エッジ+AWSクラウド

17 システムはエッジデバイス(車載器)+AWSクラウドという構成で、かんたんに説明すれば、車載器から入ってきた画像がストレージに蓄えられ、AI処理を経て結果として出力される。

「走行台数の変化に対応して計算資源を柔軟にスケールさせる必要がありますが、AWS Batchを利用すればサーバ台数を自動的にスケールアウトしてくれます。また深層学習に用いるサーバにせよストレージにせよ、使い勝手とコストは反比例する傾向にあります。低価格だが連続稼働が保証されないスポットインスタンスを多用するために、専用の監視ツールを開発するなど独自の試みも行なっています。 もうひとつ、事業部門が開発、運用を担当する車載器データ処理およびWebサービスからなる左側のシステムと、AI部門が開発、運用を担当するAI危険運転解析処理を行う右側のシステムは極力独立した疎結合のシステム構成としています。これにより、AIエンジニアにとっては使いやすく、事業部エンジニアにとっては安定して運用しやすい構成を実現しています。」(奥田氏)

ディープラーニングのエッジ実装における課題

安価なエッジデバイス(車載器)上での実装・処理のため、課題がいくつか上がったという。

「AIのモデルレベルで、ネットワークを軽量化するさまざまな検討を重ねました。独自のフレームワークを開発したり、LINE・Clovaエンジニアの方も説明していた軽量化技術(枝刈り:プルニング)などです。また、OpenCVなどの使い勝手がいい画像処理ライブラリは、メモリやストレージの制約から使えません。AI処理の前後に必要な各種画像処理も独自実装しています。

サービスの適用を進めていくと、例えば季節や天候の違い、地方と都市部などユースケースが拡大してゆくため、AIモデルを迅速に進化させてゆく必要があります。そこで柔軟かつ効率的にAIモデルを開発できるよう、Pythonが得意なAIエンジニアがC、C++、Rustでエッジ実装されたコードをPythonからテストできるようなツールを準備する等の効率化を図っています。

AIモデルの開発の効率化に加え、運用上の問題が発生した際の修正、デプロイも効率的になりました」(奥田氏)

17

奥田氏は「品質担保」についても言及。基本的にはソフトウェア工学的な方法論を適用しているが、ことAIの性能に関しては、AIの性能そのものが確率変数な振る舞いをすることから伝統的な品質保証の概念を適用できないとした。その上で、性能を保証するするのではなく、AIが適用できる限界、制約条件を理解し、関係者間で認識を共有することが重要。そのため将来の性能を保証すると言う意味での性能仕様も定義せず、かわりにリリース後の精度をモニタリングし、問題が発見された時は改良することで、性能維持、向上に努めている。

プロジェクトマネジメントについて

マネージャーである奥田氏は、開発におけるプロジェクトマネジメントについての課題なども紹介した。

「開発初期は6名ほどしかメンバーがいなかったので、Slackを使うことで、全員が情報共有も含め、密なコミュニケーションを取れていました。しかし開発が進みメンバー数が数十名レベルになってくると、共有される情報が膨大となり、それぞれのメンバにとって必要な情報を適切なレベルで共有、コミュニケーションすることが難しくなってきました。

そこでプロジェクトの成長に伴い、情報のキュレーションや、誰がどの役割を担うのか、責任の所在も含め明確にしました。また、情報の伝達方法やプロセスも明確にしました。意識したのは、うまくいっている場合は特に手を加えない、ということです。問題が発生しそうだな、と感じた時点で、解決となるプロセスを追加しています

特に今回のようなAI開発においては、事業部門やQA部門とAIエンジニアの連携がポイントになってきますから、その点においても、先のようにシステムレベルではお互いが仕事をやりやすい環境を構築しながらも、互いの技術や仕事の進め方を学ぶことで、会社全体としてより良いサービスが開発できれば、と考えています。

実際、今回のプロジェクトでも両部署が同じフロアで近い距離であったため、良き相乗効果が生まれたと感じています。ただまだ色々と課題もあるため、これからも先に言ったとおり、問題が生じそうになったら新たな手を加えることで、より強いチームならびにプロジェクト体制にしたいと考えています」(奥田氏)

関連するイベント

おすすめのコラム