ACROFAN

AImotiveの最新のaiWare3Pが優れたNN生産加速のL2-L3自動車用AIを提供

記事公開日時 : December 19, 2019, 9:00 pm
ACROFAN=PRNasia | hkcs@prnasia.com | SNS

【ブダペスト(ハンガリー)2019年12月19日PR Newswire=共同通信JBN】

*aiWare3ハードウエアIPの最新リリースには、大幅に向上したホストCPUオフロード、より低いメモリー帯域幅、アップグレードされたSDKツールが含まれ、最大100+ TOPSのスケーラブルな低出力・低遅延のソリューションを可能にする

世界をリードするモジュラー自動運転技術のサプライヤーの1つであるAImotiveは、高く評価されている同社のaiWare3 NN(Neural Network)ハードウエア推論エンジンIPの最新リリースの出荷を開始した、と発表した。

aiWare3P IPコアは、大幅に改善された性能、より低い電力消費、より大きなホストCPUオフロード、そして、より大きなチップ設計のためのよりシンプルなレイアウトをもたらす新機能を組み込んでいる。

AImotiveのハードウエア工学担当のマートン・フェーヘル上級副社長は「生産準備の整った当社のaiWare3Pのリリースは、視覚ベースの自動車用AI推論アプリケーションのためのニューラルネットワーク(NN)の加速に関して、われわれが知っている全てのことを結集している。当社は現在、自動車業界で最も効率的かつ強力な大量生産のためのNN加速ソリューションの1つであるL2/L2+/L3 AIを持っている」と語った。

それぞれのaiWare3PハードウエアIPコアは、2GHzで最大16 TMAC/s(>32 TOPS)を提供し、マルチコア・マルチチップの実装によって最大50+ TMAC/s(>100 INT8 TOPS)を提供できる。コアはAEC-Q100の拡張温度オペレーションのために設計されており、ユーザーがASIL-Bおよびそれ以上の認証を獲得することを可能にするさまざまな機能を含んでいる。主要なアップグレードには以下のものが含まれている。

*オンチップデータの再利用および移動、スケジューリングアルゴリズム、外部メモリーの帯域幅管理の強化

*改良により大半のNNがホストCPUの介入なしにaiWare3Pコア内で実行することを保証

*さまざまなアップグレードで外部メモリーの帯域幅要件を縮小

*C-LAM畳み込みエンジンとF-LAM機能エンジンの間のクロスカップリングの進化

*大型aiWareコアのより容易な物理的実装を可能にする物理的タイルベースのマイクロアーキテクチャー

*コア当たり最大16 TMAC/sの効率的なワークロードスケーラビリティーを可能にする論理的タイルベースのデータ管理

*改良されたコンパイラーと新しい性能解析ツールを含むSDKの大幅なアップグレード

aiWare3PハードウエアIPは、L2/L2+生産ソリューション、ならびに異種センサーアプリケーションの研究の中で展開されている。顧客には、近く発売されるApache5 Imaging Edge ProcessorのNextchip、先進的な異種センサーの融合力を実証するためのAImotiveとの共同プロジェクトのON Semiconductorが含まれている。

現実的なアプリケーションを反映する十分にコントロールされたベンチマークを使用したオープンなベンチマーキングへのコミットメントの一環として、AImotiveはaiWare3P IPコアに基づいて2020年第1四半期に公開のベンチマーク結果の全面的なアップデートをリリースする予定である。

aiWare3P RTLは2020年1月から出荷される。

▽報道関係問い合わせ先

Imre Dozsa
CMO
imre.dozsa@aimotive.com

Daniel M Seager-Smith
Marketing Manager
daniel.seager@aimotive.com

Logo - https://mma.prnewswire.com/media/777482/ai_motive_landscape_logo_Logo.jpg

Related Links :

https://aimotive.com



Copyright ⓒ Acrofan All Right Reserved
 

Acrofan     |     Contact Us : guide@acrofan.com     |     Contents API : RSS

Copyright © Acrofan All Right Reserved