Cloud TPUは、TPUアクセラレータハードウェア上でTensorFlowを使用して機械学習ワークロードを実行できるGoogle Cloudのサービス。
Cloud TPUは、研究者/開発者/企業などが「CPU」「GPU」「TPU」を活用できるTensorFlowコンピューティングクラスタを構築できるサービス。
高レベルのTensorflow APIを利用して、最大限のパフォーマンスと柔軟性を実現するように設計されており、Cloud TPUハードウェア上でモデルを実行できる。
Google Cloudの各種AIサービスと連携して利用でき、最先端の機械学習モデルを高速実行できる処理能力を提供する。
Cloud TPUは特定のワークロード用に最適化されている。
ニューラルネットワークのワークロードはTPU上でトレーニングループ全体の複数の反復を実行できる必要がある。これは、TPU自体の要件ではないが、効率性に必要なTPUソフトウェアエコシステムの制約の1つとなっている。
Cloud TPUは以下のケースには向いていないため、状況によってはCompute EngineインスタンスでGPUまたはCPUを使用した機械学習ワークロード実行が適している。
・「頻繁な分岐を必要とする」もしくは「代数によって要素ごとに支配される」などの特徴を持つ線形代数プログラム
・スパースな方法でメモリにアクセスするワークロード
・高精度演算を必要とするワークロード---倍精度演算など
・C++実装のカスタムTensorFlowオペレーションを含むニューラルネットワークワークロード など
TPUとは、ディープラーニングモデルのトレーニングと実行に必要となる膨大な処理能力に対応するべく処理高速化のためにGoogleが開発したプロセッサ。
Googleの主要プロダクト(翻訳、フォト、検索、アシスタント、Gmailなど)に利用されている。
複数TPUが連携してMLワークロードを処理するカスタム高速ネットワークの場合、Cloud TPUでは1つのポッドで最大11.5PFLOPSのパフォーマンスを実現できる。
Cloud TPUを利用すると、従来のハードウェアプラットフォームでのトレーニングに数週間かかっていたモデルを数時間で完了できる場合もある。
「パフォーマンス」「精度」「品質」の面で最適化されたGoogle認定のリファレンスモデルを使用すると、「データ取り込み」「リファレンスモデルダウンロード」「トレーニング」だけでソリューションを構築できる。
「オブジェクト検出」「言語モデリング」「感情分析」「翻訳」「画像分類」などのさまざまな用途に対応できる。
TensorFlowのTensorBoardコンソールでプロファイルをキャプチャし、Cloud TPU上のプログラムパフォーマンスを識別/分析することにより、プロファイリングを実行できる。
→Google Cloud →Cloud TPU →Cloud TPU Tools
「管理アクティビティログ」と「データアクセスログ」の2種類の監査ログを取得できる。
→Google Cloud →Cloud TPU →Cloud TPU Audit Logs
参考元サイト
Analytics News ACCESS RANKING