AWS와 Cerebras는 독점적으로 Amazon Bedrock을 통해 제공되는 분산형 AI 추론 솔루션을 위해 하드웨어를 통합합니다. 이를 통해 프롬프트 처리와 토큰 생성을 AWS Trainium 및 Cerebras CS-3 시스템으로 분리합니다. 이번 파트너십은 AWS 내에서 특화된 고성능 AI 하드웨어를 사용할 수 있게 하여, 대규모 모델의 추론 병목 현상을 해결하고 기업의 지연 시간 및 비용 절감 가능성을 높입니다.
이번 협력으로 Cerebras의 특화된 고성능 AI 하드웨어를 AWS 생태계 내에서 직접 활용할 수 있게 됩니다. 이는 대규모 모델의 추론 병목 현상에 대한 실질적인 해결책을 제시하며, 기업이 생성형 AI 애플리케이션을 대규모로 배포할 때 지연 시간과 비용을 절감할 수 있는 잠재력을 가집니다.
AWS와 Cerebras, 분산형 AI 추론 솔루션을 위한 하드웨어 통합
AWS Trainium 및 Cerebras CS-3 시스템 전반에 걸쳐 프롬프트 처리(prefill)와 토큰 생성(decode) 분리
LLM 성능 가속화를 위해 Amazon Bedrock을 통해서만 솔루션 제공 예정
LLM 성능 가속화를 위해 Amazon Bedrock을 통해서만 솔루션 제공 예정
Cerebras의 특화된 추론 아키텍처가 주요 클라우드 플랫폼에 처음으로 제공되는 사례
Sign in to save notes on signals.
로그인