DeepMindが、スケーラブルなAIアプリケーション向けに、初回トークン生成までの時間を2.5倍、出力速度を45%向上させた、同社最速かつ最もコスト効率の高いAIモデル「Gemini 3.1 Flash-Lite」を発表しました。
Gemini 3.1 Flash-Liteのリリースは、開発者にスケーラブルなAIアプリケーション構築のための強力かつ低コストなツールを提供します。その処理速度と効率の向上は、コンテンツモデレーションやインタラクティブなユーザーインターフェースといったリアルタイムサービスの開発を加速させ、調整可能な推論深度は複雑な問題解決に新たな柔軟性をもたらします。これにより、高度なAI搭載製品の創出への参入障壁が低下する可能性があります。
タスクに応じた推論を最適化するための調整可能な「思考レベル」機能を搭載している。
Google AI StudioのGemini APIおよびエンタープライズ向けのVertex AIでプレビュー版が利用可能である。
Gemini 3.1 Flash-Liteは、DeepMind史上最速かつ最もコスト効率の高いAIモデルである。
初回トークン生成までの時間が2.5倍、出力速度が45%向上した。
タスクに応じた推論を最適化するための調整可能な「思考レベル」機能を搭載している。
DeepMindは、同社史上最速かつ最もコスト効率の高いAIモデル「Gemini 3.1 Flash-Lite」を発表しました。これは、開発者向けに大量のAIアプリケーション処理を可能にするツールです。このモデルは、処理速度の向上と調整可能な「思考レベル」により、スケーラブルなAI搭載製品の開発を加速し、複雑な問題解決への参入障壁を下げることを目指しています。
Sign in to save notes on signals.
ログイン