• AI

「エッジAI」への期待と課題

 

こんにちは、AI技術部の古林です。

今後広まるであろうAIの利用形態のひとつに「エッジAIコンピューティング」というものがあります(長いので、この記事では略して「エッジAI」と呼びます)。
今回はエッジAIについて、それがどういうものなのか、なにが嬉しいのか、どんな課題があるのかということを整理してみます。

エッジAIとは

ひとことで言えば、データが発生する現場でAIによる処理を行ってしまい、中央にはその結果だけが送信されるようなAIの利用形態のことです。
エッジコンピューティングの形態でAIを動作させるということですね。
逆に「エッジでないAIコンピューティング」とはどのようなものかを考えると、データは一旦中央に集約され、AIによる処理を中央でまとめて行い、その結果をそれぞれの現場に配信するというものになります。
この記事ではこのような形態を「クラウドAI」と呼ぶことにします。

以下、具体的な想定をもとに、エッジAIの利点と課題を整理していきます。

例えば、音声認識会話アシスタント

5月上旬に行われたGoogleによる技術カンファレンス「Google I/O 2019」で、音声認識でAndroid端末を操作できる「Google Assistant」の次世代版は、Android端末内だけで処理が完結するエッジAI型に進化することが予告されました。
このニュースはどのような意味を持つのでしょうか?
Google Assistantのような音声認識会話アプリを題材に、クラウドAIにはどのような問題があり、逆にエッジAIにはどのような課題があるかを考えます。

通信量と通信コスト

完全なクラウドAI型の会話アシスタントは、ユーザの話した音声を一旦クラウドに送信し、クラウド内で生成された返答の音声を受信して再生することになります。
これが携帯電話で動作する場合、相応の量の通信が発生するため、利用者の月間通信量を圧迫すること(いわゆる「ギガが減る」問題)が懸念されます。
これを完全なエッジAI型の会話アシスタントに置き換えることができれば、会話自体では通信は発生しなくなります。
もちろん、たとえば明日の天気を聞くなどのインターネット上の情報の取得が必要なタスクではその分の通信が発生しますが、音声をまるごとやり取りすることに比べればはるかに通信量を削減できると言えます。
エッジAIのねらいの一つは、現場で発生する大量のデータをAIによってその場で抽象的なデータに変換することで、中央との通信の量とコストを低減することにあります。

一方で、エッジAIにおいても通信コストの課題はゼロではありません。
近年のAIは、その判断に「機械学習モデル」を用います。
機械学習モデルのデータサイズは、単純なモデルで数十メガバイト、複雑なモデルではギガバイト単位に上ることもあります。
機械学習モデルは精度を保つため定期的に更新する必要があり、利用者にとっては、更新のたびにモデルデータを取得する通信が発生することになります。

通信遅延

完全なクラウドAI型の会話アシスタントは、処理をクラウドに依頼し、そこから結果を受け取る通信によって発生する遅延の分、応答時間という面で不利になります。
現在使われている4G通信サービスにおける遅延は、通常時で往復0.05秒程度、混雑時で往復0.1秒程度が実効値であるようです。
人間は会話において0.5秒の遅延にも不自然さを感じるといわれるなかで、0.1秒遅延が増えることは、AIによる自然な会話を実現する上で大きなハードルとなります。

エッジAIでは、AIが判断する処理にインターネット通信に伴う遅延は発生しません。
ただし、処理性能はクラウドAIよりも制限が多く、処理本体の所要時間についてはエッジAIのほうが不利になる傾向があります。
したがって、処理の応答時間に関しては、複数の要因について総合的に評価する必要があります。

障害時の対応

完全なクラウドAI型の会話アシスタントは、なんらかの障害により通信が途絶した場合や、サーバに障害が発生した場合にはサービスが提供できなくなります。ユーザとしては障害の復旧を待つしかありません。

エッジAI型の会話アシスタントであっても、インターネットへのアクセスが必要な手続きを通信障害時に利用することはできません。しかし会話自体はできますので、携帯電話内のアプリを操作したり、ローカルネットワークに閉じた処理(スマート電灯を消すなど)は実行可能です

データの開示範囲

上述のとおり、クラウドAI型の会話アシスタントは会話内容を逐一中央に送信する必要がありますが、これはプライバシーや情報の機密性という観点からも難のある状況です。

以前Amazonによる会話アシスタントAlexaが録音したユーザの発話が、誤って他のユーザに開示されてしまうというケースがありましたが、会話データがクラウドに送信されないエッジAI型のアシスタントであればそもそもこのような事象は起こらなかったはずです。
サービスを提供する事業者としても、必要がないのであれば機微なデータとなりうるものは収集したくないと考えるのは自然なことといえます。

計算資源

エッジAIにおける大きな課題のひとつは、計算資源に制約のある中でいかに有用なAI処理を動作させるか、という点です。
エッジでないAIの場合、費用の許す限り理想に近い環境を中央に用意することができます。
一方エッジAIには、オフィスやデータセンターに比べて過酷な環境が待っていることが普通です。会話アシスタントを携帯電話上に実装する場合、CPU/GPUの性能やメモリは限られ、またiOSやAndroidといったプラットフォームの仕様の制約も受けることになります。

対応策としては、機械学習モデルの軽量化(モデルの構造に工夫を加えて、複雑な処理を同等の軽量な処理で代替する)を試みることや、匿名化や特徴量抽出などの基礎的な処理をエッジAIで行い、さらに複雑な処理については中央に逃がすなどの折衷案が考えられます。

まとめ:エッジAIが実現する未来

以上の特徴をまとめると、エッジAI型のサービスは「現場ですばやく判断する」「いろんな場所で動く」ということがウリとなってきます。
実際にサービスを実装する場合には、エッジAIとクラウドAIを適材適所で組み合わせていく必要がありますが、
エッジAIはより物理世界と強くリンクするような場面に使われるようになると思われます。

例えばスマートシティやスマート工場において、無数の小さなAIが互いに連動し、現場において最適なオペレーションを適切なタイミングで実行できるようになる、というのがエッジAI技術が描く未来のひとつと言えるでしょう。

関連記事

  1. 説明可能AIの実現方法:LIME、SHAP

  2. 今、もっともアツい決定木「XGBoost」

  3. [初心者向け]深層学習の勉強法

  4. 外国人に「SCSKってAIの会社?」と言わせた話(国際情報オリンピック…

  5. Google Colaboratory で無料のGPUを利用する

  6. DeepstreamでストリームAI処理する方法について

  7. 深層強化学習の学習経過を見てみた

  8. RGB画像からの深度推定手法の精度比較

PAGE TOP