DeepMind가 가장 빠르고 비용 효율적인 AI 모델인 Gemini 3.1 Flash-Lite를 출시하며, 확장 가능한 AI 애플리케이션을 위해 첫 토큰 생성 시간 2.5배 단축 및 출력 속도 45% 향상을 제공합니다.
Gemini 3.1 Flash-Lite의 출시는 개발자들에게 확장 가능한 AI 애플리케이션 구축을 위한 강력하고 저렴한 도구를 제공합니다. 향상된 속도와 효율성은 콘텐츠 중재 및 대화형 사용자 인터페이스와 같은 실시간 서비스 개발을 가속화할 수 있으며, 조절 가능한 추론 깊이는 복잡한 문제 해결에 새로운 유연성을 제공합니다. 이는 정교한 AI 기반 제품 생성의 진입 장벽을 낮출 수 있습니다.
다양한 작업에 대한 추론을 최적화하기 위해 조절 가능한 '사고 수준(thinking levels)'을 포함합니다.
Google AI Studio의 Gemini API 및 기업용 Vertex AI를 통해 프리뷰로 제공됩니다.
Gemini 3.1 Flash-Lite는 DeepMind의 역대 가장 빠르고 비용 효율적인 AI 모델입니다.
이전 버전에 비해 첫 토큰 생성 시간(time-to-first-token)이 2.5배 빠르고 출력 속도는 45% 향상되었습니다.
다양한 작업에 대한 추론을 최적화하기 위해 조절 가능한 '사고 수준(thinking levels)'을 포함합니다.
DeepMind가 역대 가장 빠르고 비용 효율적인 AI 모델인 Gemini 3.1 Flash-Lite를 출시했습니다. 이 모델은 개발자들에게 고용량 AI 애플리케이션을 위한 도구를 제공합니다. 향상된 속도와 조절 가능한 '사고 수준(thinking levels)'은 확장 가능한 AI 기반 제품 개발을 가속화하고 복잡한 문제 해결을 위한 진입 장벽을 낮추는 것을 목표로 합니다.
Sign in to save notes on signals.
로그인