Cloud TPUは、TPUアクセラレータハードウェア上でTensorFlowを使用して機械学習ワークロードを実行できるGoogle Cloudのサービス。

Cloud TPUとは

Cloud TPUは、TPUアクセラレータハードウェア上でTensorFlowを使用して機械学習ワークロードを実行できるGoogle Cloudのサービス。

Cloud TPUとは

■概要

Cloud TPUは、TPUアクセラレータハードウェア上でTensorFlowを使用して機械学習ワークロードを実行できるGoogle Cloudのサービス。

■基本説明

Cloud TPUは、研究者/開発者/企業などが「CPU」「GPU」「TPU」を活用できるTensorFlowコンピューティングクラスタを構築できるサービス。

高レベルのTensorflow APIを利用して、最大限のパフォーマンスと柔軟性を実現するように設計されており、Cloud TPUハードウェア上でモデルを実行できる。

Google Cloudの各種AIサービスと連携して利用でき、最先端の機械学習モデルを高速実行できる処理能力を提供する。

■ユースケース

特定ワークロード向き

Cloud TPUは特定のワークロード用に最適化されている。

ニューラルネットワークのワークロードはTPU上でトレーニングループ全体の複数の反復を実行できる必要がある。これは、TPU自体の要件ではないが、効率性に必要なTPUソフトウェアエコシステムの制約の1つとなっている。

適していないケース

Cloud TPUは以下のケースには向いていないため、状況によってはCompute EngineインスタンスでGPUまたはCPUを使用した機械学習ワークロード実行が適している。
・「頻繁な分岐を必要とする」もしくは「代数によって要素ごとに支配される」などの特徴を持つ線形代数プログラム
・スパースな方法でメモリにアクセスするワークロード
・高精度演算を必要とするワークロード---倍精度演算など
・C++実装のカスタムTensorFlowオペレーションを含むニューラルネットワークワークロード など

■オフィシャルサイト情報

オフィシャルサイト情報

→Google Cloud →CLOUD TPU

料金情報

→Google Cloud →CLOUD TPU →料金

主な特徴

■TPU(Tensor Processing Unit)

TPUとは、ディープラーニングモデルのトレーニングと実行に必要となる膨大な処理能力に対応するべく処理高速化のためにGoogleが開発したプロセッサ。

Googleの主要プロダクト(翻訳、フォト、検索、アシスタント、Gmailなど)に利用されている。

■ハイパフォーマンス

複数TPUが連携してMLワークロードを処理するカスタム高速ネットワークの場合、Cloud TPUでは1つのポッドで最大11.5PFLOPSのパフォーマンスを実現できる。

Cloud TPUを利用すると、従来のハードウェアプラットフォームでのトレーニングに数週間かかっていたモデルを数時間で完了できる場合もある。

■リファレンスモデル

「パフォーマンス」「精度」「品質」の面で最適化されたGoogle認定のリファレンスモデルを使用すると、「データ取り込み」「リファレンスモデルダウンロード」「トレーニング」だけでソリューションを構築できる。

「オブジェクト検出」「言語モデリング」「感情分析」「翻訳」「画像分類」などのさまざまな用途に対応できる。

主な機能

■プロファイリングツール

TensorFlowのTensorBoardコンソールでプロファイルをキャプチャし、Cloud TPU上のプログラムパフォーマンスを識別/分析することにより、プロファイリングを実行できる。

→Google Cloud →Cloud TPU →Cloud TPU Tools

■監査ログ機能

「管理アクティビティログ」と「データアクセスログ」の2種類の監査ログを取得できる。

→Google Cloud →Cloud TPU →Cloud TPU Audit Logs

 

参考元サイト

Cloud TPU最新TOPICS

最新情報はありません。

Cloud TPU最新CLOSEUPコラム

  • 勉強会
  • OSSNEWSに広告を掲載しませんか?

facebook

twitter