AI/해외 AI 뉴스 소식

[AI 정보] Fireworks AI의 Azure 합류, 오픈모델 인프라 경쟁이 더 치열해졌다

AIThinkLab 2026. 3. 24. 07:09
SMALL

🔥 Fireworks AI가 Azure로 들어왔습니다. 오픈모델 인프라 경쟁은 이제 더 직접적인 전면전이 됐습니다

 

마이크로소프트가 2026년 3월, Fireworks AI를 Microsoft Foundry에 퍼블릭 프리뷰 형태로 통합한다고 발표했습니다. 표면적으로 보면 ‘오픈모델 추론 성능이 좋은 파트너가 Azure 생태계에 들어왔다’ 정도로 보일 수 있습니다. 하지만 실제 의미는 그보다 큽니다. 이 발표는 기업용 AI 시장에서 오픈모델을 단순 실험 대상이 아니라, 본격적인 운영 자산으로 보겠다는 신호에 가깝습니다.

 

📌 공식 발표문은 매우 분명한 문제의식을 깔고 있습니다. 기업들은 오픈모델을 통해 비용·성능·커스터마이징·벤더 종속성 완화 측면의 이점을 얻고 싶어 합니다. 하지만 실전에서는 모델 선택, 평가, 배포, 거버넌스, 모니터링을 모두 따로 구성해야 하다 보니 인프라가 쉽게 파편화됩니다. 마이크로소프트는 Foundry를 이 파편화를 줄이는 단일 제어면으로, Fireworks AI를 그 위에서 고성능 추론을 제공하는 엔진으로 제시하고 있습니다.

 

⚙️ 이번 발표의 핵심은 ‘오픈모델 성능’이 아니라 ‘오픈모델 운영 체계’입니다

 

Fireworks AI는 공식 글에서 하루 13조 토큰 처리, 초당 약 18만 요청, 대형 모델 기준 초당 1,000토큰 이상 생성 같은 성능 수치를 강조합니다. 물론 이 숫자들은 인상적입니다. 그러나 기업 입장에서는 숫자만으로 의사결정을 내리기 어렵습니다. 중요한 것은 이 성능이 자사 거버넌스, 배포 정책, 비용 구조, 커스텀 모델 운용 방식과 얼마나 잘 맞물리느냐입니다.

 

마이크로소프트는 바로 그 지점을 파고듭니다. Foundry 안에서 평가, 배포, 커스터마이징, 운영, 에이전트 개발, 거버넌스까지 하나의 워크스페이스 경험으로 묶겠다는 것입니다. 이 조합이 실현되면 기업은 빠른 추론 성능을 얻으면서도, 별도 인프라를 덕지덕지 붙이지 않고 오픈모델을 실전 서비스에 넣을 수 있게 됩니다.

 

🧩 왜 Fireworks AI인가

 

현재 오픈모델 시장은 모델 수 자체보다, 그 모델을 얼마나 빠르고 안정적으로 서비스할 수 있는지가 더 큰 경쟁 포인트가 되고 있습니다. 좋은 모델을 찾는 일보다, 그 모델을 기업 환경에서 예측 가능한 비용과 지연시간으로 돌리는 일이 더 어렵기 때문입니다. Fireworks AI는 이 지점에서 강한 브랜드를 쌓아왔고, 마이크로소프트는 그 강점을 Azure의 기업 신뢰 레이어와 결합하려는 모습입니다.

 

💡 공식 발표에 따르면 Foundry에서는 DeepSeek V3.2, OpenAI gpt-oss-120b, Kimi K2.5, MiniMax M2.5 같은 오픈모델을 Fireworks AI 경로로 활용할 수 있습니다. 여기서 흥미로운 부분은 OpenAI 이름이 붙은 오픈 가중치 계열 모델까지 함께 배치된다는 점입니다. 폐쇄형 API 중심이던 시장 구도가 조금씩 흔들리면서, ‘누가 제일 좋은 독점 모델을 갖고 있느냐’에서 ‘누가 가장 유연한 모델 운영 플랫폼을 제공하느냐’로 무게가 이동하는 장면으로 읽힙니다.

 

🏢 기업 고객에게 어떤 의미가 있나

 

첫째, 선택지가 넓어집니다. 특정 모델 제공자 한 곳에 묶이지 않고, 워크로드별로 다른 모델을 골라 쓸 수 있다는 점은 큰 장점입니다. 둘째, 비용 통제가 수월해질 수 있습니다. 발표문에서도 서버리스 토큰 과금과 PTU 기반 예측 가능한 처리량 옵션을 모두 제시하는데, 이는 실험 단계와 운영 단계의 비용 전략을 다르게 가져가려는 수요를 겨냥한 것으로 보입니다.

 

셋째, 커스텀 가중치 운용이 중요해집니다. 마이크로소프트는 BYOW, 즉 가져온 가중치를 등록하고 동일한 서빙 스택에서 운영할 수 있다는 점을 강조합니다. 이 기능이 안정적으로 작동한다면 기업은 자체 튜닝 모델이나 외부에서 학습한 가중치를 더 일관된 방식으로 배포할 수 있습니다. 다시 말해, 오픈모델을 쓰는 이유가 단순한 비용 절감이 아니라 ‘우리 상황에 맞게 조정 가능한 AI’를 갖기 위함이라는 점을 더 명확히 해줍니다.

 

📈 시장 관점에서는 어떤 신호인가

 

이번 발표는 클라우드 빅테크가 오픈모델을 더 이상 변방의 실험물로 보지 않는다는 뜻입니다. 이제는 오픈모델 자체가 엔터프라이즈 AI 전략의 한 축이 되었고, 클라우드 사업자는 그 오픈모델을 얼마나 관리 가능하고 안전하며 빠르게 제공하느냐를 경쟁력으로 삼기 시작했습니다. 결국 클라우드 경쟁은 GPU 확보전만이 아니라, 모델 카탈로그·평가 도구·거버넌스·추론 엔진을 얼마나 매끄럽게 엮느냐의 싸움으로 진화하고 있습니다.

 

📊 특히 마이크로소프트는 Foundry를 ‘단일 제어면’으로 반복해서 강조합니다. 저는 이 표현이 꽤 중요하다고 봅니다. 기업 고객은 새로운 모델이 나올 때마다 플랫폼을 갈아엎고 싶어 하지 않습니다. 모델은 계속 바뀌어도, 운영 기준과 보안 체계, 관찰 가능성, 승인 절차는 최대한 유지되길 원합니다. Foundry는 그 안정성을 약속하는 틀이고, Fireworks AI는 그 틀 안의 고성능 실행 엔진으로 자리 잡으려는 것으로 해석됩니다.

 

⚠️ 물론 체크할 부분도 있습니다

 

오픈모델 운영은 선택지가 많다는 장점이 있지만, 동시에 품질 편차와 거버넌스 복잡성이 커질 수 있습니다. 모델별 특성이 다르고, 추론 최적화 방식도 다르며, 안전 필터와 평가 기준도 제각각일 수 있기 때문입니다. 결국 발표가 약속한 통합 경험이 실제 현장에서 얼마나 일관되게 작동하는지가 관건입니다.

 

또한 ‘고성능 추론’은 결국 고객이 체감하는 비용과 안정성으로 환산돼야 합니다. 벤치마크가 훌륭해도, 실제 운영 시점의 SLA와 지원 범위, 지역별 가용성, 데이터 경계 정책이 기대에 못 미치면 기업 도입은 느려질 수 있습니다. 그래서 이번 뉴스는 흥미로운 시작점이지만, 진짜 평가는 올해 하반기 실사용 사례에서 갈릴 가능성이 큽니다.

 

🧭 종합해보면

 

마이크로소프트의 이번 발표는 단순 파트너십 뉴스가 아닙니다. 오픈모델 시대의 엔터프라이즈 AI가 어떤 방식으로 굴러갈지를 보여주는 청사진에 가깝습니다. 앞으로 기업은 단 하나의 독점 모델보다, 여러 모델을 안정적으로 평가·배포·운영할 수 있는 플랫폼을 더 중요하게 볼 가능성이 큽니다. Fireworks AI의 Azure 합류는 바로 그 흐름을 상징합니다.

 

🐛 제 눈에는 이번 발표가 “좋은 모델을 찾는 시대”에서 “좋은 모델 운영 체계를 가진 곳이 이기는 시대”로 넘어가는 장면처럼 보였습니다. 모델 경쟁은 여전히 치열하겠지만, 실제 돈을 쓰는 기업은 결국 운영이 되는 쪽으로 움직입니다. 그리고 그 판에서 Foundry와 Fireworks AI 조합은 분명 주목할 만한 카드입니다.

 

🔗 출처

 

1) Microsoft Azure Blog - Introducing Fireworks AI on Microsoft Foundry

 

https://azure.microsoft.com/en-us/blog/introducing-fireworks-ai-on-microsoft-foundry-bringing-high-performance-low-latency-open-model-inference-to-azure/

 

2) Microsoft Foundry

 

https://ai.azure.com/

 

LIST