TensorFlow ハード部#2

4/21(金)にgoogleで開催された「TensorFlow ハード部#2」に行ってきた。

「Tensor Processing Unit (TPU) のアーキテクチャとパフォーマンス」

登壇者:佐藤さん@google

  • ニューラルネットワークに特化している。。
  • 推論に特化している。
  • シンプルでシングルスレッドに特化している。
  • CISCで設計した。
  • INT8×65,535マトリックスで計算する
項目
CPU スカラー型
GPU ベクター型
TPU マトリックス型
  • Systolic Array = Pipeline

「TensorFlow XLAは、中で何をやっているのか?」

登壇者:@Vengineerさん

かなり駆け足でしたが内容は面白かったです。

感想は全体をじっくり見てから・・・

懇親タイム

なつたんさんにてくのたんの名刺を貰いました。

と、いうかgoogleさんも太っ腹です。

聞いたところ、会社に申請が通れば2,000円/人×参加者のスポンサーになってくれるとか・・・

「TensorFlowでマルチGPUトレーニング(仮)」

登壇者:村上さん@nVivia

nVidiaと自分の社会人歴が一緒というのが判明(^-^;

前半はnVivia製品の紹介でしたが長めの紹介だったけどうーん、何かが抜けてるような気がする。

後半がGPUとディープラーニングについてでした。

「FPGA環境でのalexnet」

登壇者:篠塚@Intel

Intel FPGAでAlexnetでnVidiaさんがいろいろ出してしまったために出遅れ感が大きく見えてしまった。

Intel FPGAは低電力化しかメリットがないIntel FPGAはヤバイという発表に見えました。

「Kerasで組み込み向けフレームワークを作ろう」

登壇者:なつたんさん@パソナテック

なつたんさん、すげぇ!の一言です。

大企業が抱える闇の部分をサクサクと切り込んでいました。

Python無し、ベタCでできるようにフレームワークを作成。

とにかく、ベタCで組込みに特化したというのが良かった。

最後は「PythonとCができればいいよ」と「Python無しでよかったんじゃないんかぁ〜!」といい感じでした。

って、Pythonが無くても良いのは大企業だったんですね。

まとめ

質問者は質問内容を即座に吟味して質問したほうがいいですね。

今回の質問者の質問はみんなの前で質問するような内容ではありませんでした。

個人的な質問が多かったなぁ、みんなの前で質問するならまず、使ってから質問しましょうよ。

そしたら、出てこない質問ばかりですから・・・

それか、懇親会で直接質問すべきです。

今回、ハード部に参加して感じたのは特化することは大切だなぁと再認識した。

write: 2017/04/22/ 21:18:00