ARM、機械学習に特化したエッジコンピューティングのためのIPコアを開発

arm
 
チップアーキテクチャ開発のARMは、端末側(エッジ側)での機械学習の演算処理を目的としたIPコア開発プロジェクト「Trillium」を発表しました。遠く離れたクラウドへのデータ転送をできるだけ少なくし、デバイス上で直接計算を済ませるエッジコンピューティングは、人工知能の普及には欠かせないものだといわれています。

これまでクラウドに頼っていたAIの計算処理はエッジへ

人工知能の基となっているニューラルネットワークは、高度な演算処理能力を要求します。従来、モバイルデバイスの処理能力は限られており、データの加工処理をほとんど行なわずにクラウドに転送するのが通例でした。
 
しかしながら通信データが大きくなり、計算の結果が届くのにより多くの時間がかかるようになるにつれて、近年デバイス上で計算処理をまかなうエッジコンピューティングが注目されています。
 
iPhone XのA11 Bionicチップには毎秒最大6,000億の演算処理が可能な強力なニューラルエンジンが搭載されており、AIを使用する高度な計算もデバイス上ですべて行なうことができます。
 
Appleのようにエッジ側でAIの演算処理をまかなう流れは大きくなってきており、ARMが機械学習に特化したIPコア開発プロジェクトを発表するに至ったわけです。

機械学習と物体検出のプロセッサとニューラルネットワークのライブラリ

ARMのプロジェクト「Trillium」の機械学習プロセッサは、オープンソースのソフトウェアによって開発され、高度なパフォーマンス効率性と推論処理をエッジ側で実現することができます。
 
機械学習プロセッサはより少ないピクセル分析で細粒度の物体認識が可能となっており、これまでの1秒あたり3兆回以上の演算(3 TOPs)を超える、1秒あたり4.6兆回以上の演算(4.6 TOPs)を行なうことができます。
 
物体検出プロセッサは、フルHD・60フレーム/秒の映像をリアルタイムで処理することができます。ARMによれば、第一世代の物体検出プロセッサは、英国に本社を置くHiveのセキュリティカメラに使用されるとのことです。
 

ARM


 
スマートカメラやその他の視覚ベースのデバイスだけでなく、機械学習プロセッサと物体検出プロセッサは街中の情報を収集して処理するスマートシティシステムにも応用できるといわれています。
 
「エッジデバイスコンピューティングの洗練度は誰の予想よりも速く高まっている」とARMのIP製品グループのプレジデントのレネ・ハース氏はコメントしています。「機械学習がエッジ側に移るにつれてより多くの適用方法が生まれてくるだろう」と同氏はエッジ側の演算処理を基にしたAIの普及について肯定的な意見を述べています。
 
 
Source:ARM via ZDNet
(lexi)
モバイルバージョンを終了