DevCon2017でのe-AI

昨日DevConに参加してきまして、e-AIの体験もしてきました。

残念ながら学習部分までマイコンに実装するのはできないとのことでしたが

推論実行部分をRZやRXだけでなくRL78まで対応するというのが

RL78で強化学習を実現しようと思案している身としては、いいなと思いました。

展示担当の方のお話では、マイコンに適した理論が確立されればハードウェア実装も

行いたいとのことで、DRPも含めて期待してます。

 

気になったのが、e-AIのソリューションがe2studioにのみ対応という事。

聞いてみましたがCS+への対応は今のところ予定なしとのことです。

 

e2studioだと準備しやすいからなのか、

今後e2studio強化路線で行くのか、

RZの関係からなのか、

気になるところではあります。

  • Sugachanceさん

    eAIの体験されてきたんですね。

    私のイメージだと学習データ=配列変数が書いてあるヘッダーファイルを読み込む程度なのかなーと思っています。なのでCS+でも簡単にインプリできそうな気がします。

    学習結果がどんな風になるか楽しみですね^^
    案外とパターンマッチングだったりして、、

  • Kirin様

    仰る通り、生成されたファイルを覗くとディープラーニング用のフレームワークで学習した各ユニットへの入力の重みが、配列形式で収まっているようでした。
    これを、用意されたNNのライブラリと合わせて計算しているのだと思われます。

    という事で、e2studio上で学習させているわけでもないし、CS+に搭載するのもそんなに難しくないのでは?と思った次第です(^_^;)

  • Sugachanceさん、こんにちは。
    DevCon、e-AIワークショップへのご参加、ありがとうございました。

    e-AI用のツールとしては、まずはご提供を開始するにあたり、
    RZ、Renesas Synergy、RX、RL78と幅広いマイコンをサポート
    しているe2 studioをベースとしました。

    CS+の対応については、現時点での計画はありませんが、
    今後、お客様からのご意見を伺いながら検討していきたいと
    考えています。

    なお、RL78をお使いの場合、CS+でCC-RLコンパイラをご使用であれば
    e2 studio環境で学習済みAIをソース/ヘッダファイル等の形式でプロジェクトへ
    登録した後、ルネサス共通プロジェクト形式でプロジェクトファイルを
    保存することで、このプロジェクトをCS+でも読み込めるようになります。
    読み込み後、CS+でAI処理を含むプログラムのビルド/デバッグをできるように
    なります。少し裏技的な使用方法ですが、ご紹介させていただきました。
  • > なお、RL78をお使いの場合、CS+でCC-RLコンパイラをご使用であれば
    ~ 略 ~
    > ビルド/デバッグをできるようになります。

    RL78 で GCC では不可能ということでしょうか?
    RX や ARM で GCC が使えるならば、RL78 ではダメという理屈もないと思いますが。

  • まあ、ルネサスは国内ではがじぇるねを除けば RL78 用の GCC はサポートの関係からかシカトしてる状態なので、その延長で考えれば e-AI での非対応もやむなしかなという気はしますが。
  • fujita nozomuさん、こんにちは。

    いえ、CS+をご使用の場合、e2 studio環境とCS+環境で共通で使用可能なコンパイラは
    CC-RLのみですので、「CC-RLをご使用であれば」と書きました。
    Sugachanceさんの文面から、CS+をご利用と思いましたので。
    GCCが使用できません、という意味で書いたものではありません。
  • > GCCが使用できません、という意味で書いたものではありません。

    ターゲットに RL78 が含まれていて GCC が使用できるのであれば e-AI の Webコンパライラでの GR-KURUMI 等のサポートもあって良い気がしますが、なんか奥歯にものが挟まった感じですね。

  • dartsman様

    お世話になります。

    なるほど、e2studio → CS+で行けるんですね。
    情報ありがとうございます。
  • コレの事?
    eetimes.jp/.../news027.html
    AIってamazonとかの大規模サーバーとかだけの話と思ってたけれど
    androidlover.net/google-home
    このタイプってAI本体はクラウドサーバー内に有るんですよね?
    GoogleHome本体は単なる入出力装置に過ぎなくて

    で、本件のe-AIは組み込み系マイコン単体でAI可能なの?
    よーするにスタンドアローンのオフラインでって意味で

    メモリとかどれくらい必要なんでしょうか?
    最近は32ギガのSDカードとかコンビニでも置いてあるし
    CPU内臓メモリだけでAI可能なんでしょうか?

    それとも昔、流行ったファジーコントローラのバージョンアップ程度?
    www.m-system.co.jp/.../index.html
    もしくはファジーとは全く違うもの?
  • lumiheart様

    AI本体といいますか、深層学習の自体は別フレームワークで行い、マイコン側は実行するのみですね。
    "GoogleHome本体は単なる入出力装置に過ぎなくて"という表現で行くと、現状では
    「マイコンは学習した内容を実行するものにすぎない」といったところでしょうか。

    推論の実行部だけなので、MNISTのデモでは
    RXでRAM:19KB,ROM:384KB (KEIBERで学習したモデル)
    RZでRAM:47KB,ROM:89KB (Caffeで学習したモデル)
    という紹介でした。
    RX64Mでいくと10%かからないレベルなので、
    既存プログラムへの追加も可能という事だと思われます。