• Turing Post Korea
  • Posts
  • Cerebras: NVIDIA에 맞설, 경이로운 엔지니어링 기술을 가진 스타트업인가?

Cerebras: NVIDIA에 맞설, 경이로운 엔지니어링 기술을 가진 스타트업인가?

...아니면 대마불사(大馬不死)의 길을 노리는 또 하나의 AI 하드웨어 스타트업인가?

지난 6월, 한국의 대표적 AI 반도체 스타트업이라고 할 수 있는 리벨리온과 사피온코리아의 합병 소식으로 국내 반도체 및 AI 업계가 떠들썩(?)했는데요. NVIDIA가 GPU 사업을 중심으로 AI 인프라 시장에서 부동의 선두주자 자리를 굳히고 있는 가운데, 경쟁력 강화를 위한 목적으로 합병을 추진하는 것으로 발표가 되어 있고, 올해 3분기 중 합병 본계약, 연내 통합법인을 출범한다고 합니다.

국내 시장에서 1, 2위를 다툰다고 할 수 있는 두 AI 반도체 회사의 합병이 과연 어떤 결실을 맺을지, 지속적으로 NVIDIA와 겨룰 만한 기술을 개발하면서 시장에서 인정받을 수 있을지 흥미로운데요. 여기에 NVIDIA와의 한 판을 준비하고 있는 또 하나의 AI 반도체 스타트업, Cerebras Systems(이후 Cerebras로 표기)가 있습니다. 올 3월, 전세계에서 가장 대형 AI 칩이자 H100 대비 50배의 트랜지스터 수를 보유한 WSE-3 (Wafer Scale Engine-3) 칩을 발표한 Cerebras. 이 회사의 창업팀과 성장 과정, 주요 기술과 제품, 그리고 과연 Cerebras가 NVIDIA를 위협하는 진정한 경쟁자로 성장할 수 있을지 한 번 살펴보죠.

Cerebras의 이야기는, 한 번의 성공적인 엑시트 (Exit: 스타트업이 IPO나 M&A 등을 통해 투자자들이 투자한 자금을 회수시켜 주거나 창업자가 사업에 대한 성과를 거두는 과정. 이 글에서는 Cerebras Systems의 창업자들이 이전 회사를 성공시키고 성과를 거둔 것을 의미함)가 어떻게 새로운 혁신으로 또 다시 이어질 수 있는지에 대한, 꽤 설득력있는 이야기입니다. 수 개월간의 브레인스토밍을 통해서, 너무 어려울 것 같았던 문제를 해결해 보기로 한 야심찬 결정이, 결국 새로운 회사와 획기적인 제품을 탄생시키고 있습니다. Cerebras는 단지 사업적인 꿈만 크게 꾸는 것이 아니라 제품도 말 그대로 ‘크게’ 만들고 있는데, 이 회사의 AI 칩은 ‘접시’라든가 ‘피자 박스’에 비유될 정도로 지금까지 생산된 단일 실리콘 조각 중에 가장 큰 크기입니다. 물론 실제로 작동하구요.

창업한지 8년 된 회사인 Cerebras는 최근 4조 개의 트랜지스터와 90만 개의 AI 최적화 컴퓨팅 코어를 갖춘 5nm 기반의 거대한 칩인 웨이퍼 스케일 엔진(WSE-3)의 세 번째 버전을 출시하여 CS-3 AI 슈퍼컴퓨터를 구동하고 있습니다. 또한 지난주에는 증가하는 AI 워크로드 수요에 대응하기 위해 Dell Technologies와의 협력도 발표했습니다.

이 모든 것이 의미하는 바가 과연 무엇인지, NVIDIA의 칩을 능가한다고 계속 주장하면서도 왜 아직도 NVIDIA 대비 너무나 덜 알려져 있는지, 그리고 최근 기업가치가 40억 달러(다음 목표는 IPO인 것으로 보입니다)를 넘어선 이유에 대해 알아보겠습니다.

이 글에서 아래 내용을 다루려고 합니다:

Cerebras의 시작: Andrew Feldman의 도전

그건 엄청난 성공이었습니다 - 데이터 처리를 위해서 새로운 방식으로 전력 효율을 높이는 컴퓨터 서버, SeaMicro를 개발한 Andrew Feldman과 Gary Lauterbach는 5년만에 AMD에 3억 3천 4백만 달러에 매각합니다. 이후 2년 더 이사회에서 활동한 두 사람은 2014년 마침내 휴식을 취하기 위해서 회사를 그만둡니다. 그렇지만, 한 번 기업가는 영원한 기업가죠. 특히 엄청난 인재들이 주변에 많이 있을 때는 말이죠. Andrew와 Gary는 SeaMicro의 다른 동료 세 명 - Michael James, J.P. Fricker, 그리고 Sean Lie - 과 계속 연락을 주고받으면서 브레인스토밍을 했는데, 이들은 소프트웨어, 하드웨어, 시스템 아키텍처 분야에서 각각 깊은 전문성을 가진 사람들입니다. 다섯 명이 머리를 맞대고, 기존에 있는 무언가를 개선하는 게 아니라 무언가 새로운, ‘Next Big Thing’을 만들어내자는 꿈을 꾼 것이죠.

처음에는, 인텔에서 내놓은 획기적인 기술 3D XPoint 메모리에 최적화된 새로운 유형의 서버를 만들어보자는 아이디어에 빠져 있었는데, 이 기술이 전례없이 빠른 속도와 내구성으로 컴퓨팅을 한 단계 더 발전시킬 것이다라고 생각했다고 합니다. 그렇지만 얼마 안 가서 인텔의 기술 독점으로 인한 한계를 깨닫게 되고, 이 팀은 ‘인공지능에 최적화된 컴퓨터를 개발하자’는, 한층 더 대담한 비전으로 목표를 전환합니다.

Andrew는, 다른 모든 기능은 제쳐놓고 AI 작업만을 전문적으로 실행하는 컴퓨터를 구상했습니다. 이 구상에는 기존의 칩보다 60배 이상 큰, ‘웨이퍼 수준으로 큰’ 사이즈의 칩을 제작하여 비교 자체가 불가능한 컴퓨팅 성능을 구현하는 것이 포함되어 있었습니다.

“All we put on our chip is stuff for A.I. For now, progress will come through specialization.”

Andrew Feldman at The New Yorker

말 그대로, 이들이 ‘Big Thing’이라고 할 만큼 큰 도전과제라고 할 수 있었죠. 사실 Trilogy Systems에서 수십 년 전에 한 번 시도했던, 웨이퍼 사이즈 규모의 시스템을 구축하려다가 실패했던 일을 떠올리게 하는데, 그야말로 누구라도 벅찬 도전이라고 할 만 했습니다. 물론 이런 문제를 해결만 한다면, 경쟁자가 거의 없이 독보적인 시장 우위를 점할 수 있을 테니 도전 의식은 충만했습니다.

Andrew가 이전 회사 - SeaMicro - 에서 거둔 엄청난 성공, 그리고 그 과정에서 구축한 인적 네트워크 덕분에 초기 자금 조달에는 어려움이 없었습니다. Andrew는 유난히 비유와 은유를 좋아한다고 하는데, Mark Leslie와의 한 인터뷰에서는 ‘전문가’와 ‘제너럴리스트’를 ‘치타’와 ‘하이에나’에 비유하기도 했는데, Cerebras가 개발한 WSE (웨이퍼 스케일 엔진)이 GPU와 비교하면 ‘치타’라는 이야기죠. Spectrum의 기사에서는 GPU를 ‘양복 한 벌을 함께 만들 수 없는 재단사’에 비유한다든지, The New Yorker 인터뷰에서는 “Cerebras는 두 개의 쿠키 사이의 작은 쿠키 반죽을 통해서 의사소통할 수 있는 기술을 발명했다”고 한 적도 있구요. 또 TechCrunch에서는 Cerebras의 도전을 에베레스트 산 등반에 비유하면서, “첫 번째 등반팀이 에베레스트산 등반에 실패하고 나서 ‘젠장, 첫 번째 코스가 정말 힘들었어’라고 하고 나서, 다음 팀이 나타나서 ‘그건 아무 것도 아니었어. 마지막 100미터, 그게 문제였어’라고 말하는 것과 같아요”라고 이야기합니다. 네, 비유이니만큼 정확한 의미를 캐치하기 어려울 수도 있기는 하지만, 어쨌든 즉석에서 비유와 은유를 만들어내는 점에서는 Andrew가 ChatGPT 다음가는 사람이 아닌가 싶고, 의외로 이러한 스타일이 투자자들에게 잘 먹혔던 모양입니다. 창업팀도 매우 탄탄한 팀이고, 멋진(?) 비유와 은유로 자기들의 비전과 제품을 설명하니, 투자자들은 Cerebras가 앞으로 해내야 할 일이 얼마나 복잡하고 어려운 일인지 완전히 깨닫지 못한 채 이 회사에 빠져들었나 봅니다.

투자자들이 어느 정도 관심을 보일지 한 번 체크해 보자는 마음으로 논의를 시작한 지 채 일주일도 되기 전에, Andrew와 이 팀은 1억 달러가 넘는 투자 약정을 받았고, 2016년 3월, Andrew Feldman, Gary Lauterbach, Michael James, J.P. Fricker, Sean Lie를 공동 창업자로 하여 Cerebras가 출범합니다.

유니콘으로의 성장 - 재무 상태

그러나, 결과적으로 첫 번째 라운드의 투자금은 약 3,000만 달러 수준이었고, 이듬해의 시리즈 B에서도 추가 투자금은 약 2,500만 달러에 그쳤습니다. 스텔스 모드로 있다가 첫 번째 WSE (웨이퍼 스케일 엔진) 칩 제품을 출시하기까지 2017년부터 2019년까지 2년이 걸렸고, 그 사이에 두 번의 투자라운드를 더 진행했습니다. 2019년에 진행된 시리즈 E 투자라운드에서는 - 제품이 나왔기 때문일까요 - 2억 7천 2백만 달러라는 엄청난 금액의 투자를 받게 되면서 바로 유니콘 스타트업으로 도약했습니다.

2019년의 Cerebras에 대한 언론 보도량을 보면 흥미로운데요. WSE 출시와 함께 엄청난 보도가 이어지다가 잠잠해진 후, 다시 WSE 업데이트 및 대규모의 시리즈 E 투자라운드와 함께 보도량이 급증하고, 이내 다시 조용해집니다. Cerebras의 비전이 AI를 위한 칩과 슈퍼컴퓨터를 만드는 것이었다는 점을 생각해 보면, ChatGPT를 필두로 생성AI가 모두의 관심을 끌고 NVIDIA가 지면을 쓸어버리기 시작한 2022년에 Cerebras에 대한 언급이 별로 없다는 점은 이상하기까지 합니다.

Cerebras의 투자자들 면면을 살펴보면 Sam Altman, Ilya Sutskever, Greg Brockman, Fred Weber 등 흥미로운 인물들이 꽤 많네요:

Image Credit: Cerebras

Cerebras가 제공하는 것이 정확히 무엇인가?

WSE (Wafer-scale Engine, 웨이퍼 스케일 엔진)

다른 칩 개발회사들은 눈에 보이지도 않고 만질 수도 없을 정도로 작은 칩을 만드는데 집중하지만, Cerebras의 접근 방식은 완전히 달랐습니다.

Cerebras는 46,225 mm2 (제곱밀리리터) 크기의 거대한 단일 실리콘 조각으로 이루어진 큰 프로세서를 만드는데 집중했습니다. 쉽게 설명하자면, A4 용지의 긴 면을 기준으로 정사각형으로 만든 것 정도의 크기인데요, 당연히 이는 기존의 전통적인 칩의 크기보다 훨씬 큰 것입니다.

Cerebras의 3세대 칩 WSE-3는 엄청난 수의 연산을 동시에 수행할 수 있는데요. 특히 4조 개의 트랜지스터, 90만 개의 코어, 44GB의 온칩 메모리 덕분에 125 페타플롭스 (petaFLOPS)라는 수치를 달성했습니다. 페타플롭스는 초당 1경 (0이 15개죠)의 부동소수점 연산을 의미하는데, 125 페타플롭스는 엄청나게 빠른 속도로 아주 복잡한 연산 작업도 효율적으로 빠르게 처리할 수 있습니다.

WSE-3가 이렇게 빠른 속도를 보일 수 있는데는 몇 가지 주요한 기술적 요소가 있습니다:

  • 4조 개의 트랜지스터: 아주 간단히 이야기하자면, 트랜지스터는 전기가 흐르게 하거나 멈추게 하거나 할 수 있는 작은 스위치인데요. 4조 개의 트랜지스터가 탑재된 WSE-3는 다양한 연산을 병렬 처리할 수 있습니다.

  • 90만 개의 코어: 코어란 프로그램 명령을 읽고 실행할 수 있는 개별적인 처리 장치라고 보면 되는데요. 코어가 90만 개라는 것 역시 WSE-3가 방대한 양의 연산을 동시에 처리할 수 있다는 것을 의미합니다.

  • 44GB 온칩 메모리: 이 형태의 메모리는 칩에 직접적으로 통합되어 있어서 오프칩 메모리보다 빠르게 작동합니다. 44GB의 온칩 메모리를 사용하면 많은 양의 데이터를 빠르게 저장하고 액세스할 수 있겠죠.

Cerebras에 따르면, 이런 요소들 덕분에 WSE-3가 NVIDIA H100보다 뛰어난 성능을 발휘한다고 합니다:

이 제품은 크기와 단일 칩의 성능 면에서 다른 AI 전용 프로세서들과 크게 차별화되는데요. Forbes도 이러한 차별화된 기능을 강조한 기사를 낸 적이 있습니다:

“As a result, there really is no fair comparison to any other semiconductor solution in terms of size or single chip performance.”

Cerebras는 자사 제품이 기존의 칩에서 사용하는 아키텍처 대비 다음과 같은 장점이 있다고 주장합니다:

  • 지연 시간 (Latency): WSE-3는 단일 실리콘 웨이퍼를 사용하기 때문에 멀티 칩 구성시에 흔히 발생하는 상호 연결, 메모리 지연 시간을 제거해서 데이터 처리 속도가 빨라집니다.

  • 전력 소비 (Power consumption): WSE-3는 모든 구성 요소를 하나의 웨이퍼에 통합해서, 멀티 서버 시스템 대비 전력 요구사항과 운영 지연 시간을 대폭 줄여줍니다.

  • 확장성 (Scalability): 통합 실리콘 설계로 코어를 원활하게 통합, 동기화할 수 있어서 오버헤드없이 복잡한 계산을 간편하게 확장해서 실행할 수 있게 해 줍니다.

  • 프로그래밍 (Programming): WSE-3는 PyTorch와 같은 표준 AI 프레임웍을 사용해서 단일 프로세서 시스템처럼 프로그래밍할 수 있기 때문에 AI 모델의 배포와 관리가 용이합니다.

  • AI 최적화 (AI-optimized): AI 작업을 위해 특별히 설계된 WSE-3는 딥러닝 연산을 효율적으로 처리하는데 매우 중요한 높은 메모리 대역폭과 광범위한 온칩 메모리를 갖추고 있습니다.

AI 슈퍼컴퓨터

2023년 7월, Cerebras는 캘리포니아 산타 클라라에서 자사의 첫 번째 AI 슈퍼컴퓨터인 ‘Condor Galaxy 1’의 출시를 알렸습니다. 이 슈퍼컴퓨터의 개발에 1억 달러 이상의 비용이 소요된 것으로 알려졌으며, OpenAI, Dell, IBM, Microsoft, NVIDIA, AstraZeneca, Illumina 등 거대 기술 기업과 긴밀한 관계를 맺고 있는 아랍의 기술 회사 Group 42(G42)와 협력하여 만들었다고 합니다. 중국과 Group 42의 관계에 대응하기 위해서 Microsoft가 최근 15억 달러를 투자했고, Microsoft의 Vice Chair 겸 President인 Brad Smith가 이 투자와 함께 G42의 이사회에 합류했습니다.

캘리포니아에서 두 대의 슈퍼컴퓨터를 운영 중인 Cerebras는 2024년 2분기에 세 번째 슈퍼컴퓨터인 Condor Galaxy 3를 출시할 예정이라고 발표했습니다. Condor Galaxy 3는 Cerebras의 새로운 칩 WSE-3를 기반으로 구축된, 이번에 새로 발표한 CS-3 인프라에서 구동됩니다. WSE-3는 전력 소비와 비용은 동일하게 유지하면서 이전 모델보다 성능은 두 배로 높일 수 있게 설계되었습니다.

AI 슈퍼컴퓨터 CS-3: AI 인프라의 혁명

Cerebras는 개별 칩이 아닌 완전한 서버 솔루션을 판매합니다. 최신 서버인 CS-3는 WSE-3 칩을 수용하는 새로운 섀시 디자인을 포함하고 있습니다. 이 서버의 셋업은 프로세서를 전원 공급 장치, 냉각 시스템, 연결 옵션과 같은 필수 지원 인프라와 통합합니다.

생성AI를 위해서 태어나다

CS-3는 최대 2,048개까지 클러스터링하여 쌓을 수 있습니다. 시스템을 모듈형으로 설계해서 소규모부터 대규모 배포까지 확장이 용이합니다. Falcon 및 Llama와 같은 대규모 언어 모델을 활용하는 경우에도 선형적으로 확장하기 쉬울 뿐 아니라, 동시에 작고 효율적인 모델이 관심을 받고 있는 요즘, CS-3 내부의 이 거대한 칩은 효율성을 위한 훌륭한 옵션이기도 합니다.

Cerebras의 미션

Andrew에 따르면, Cerebras의 미션은 ‘이 일 - AI 작업 - 을 더 빨리, 더 적은 에너지로, 더 적은 비용으로 할 수 있다는 것을 세상에 보여주는 것’이라고 합니다.

트레이닝 성능

첫 번째 WSE 칩을 출시한 이후 Cerebras는 주로 딥러닝 모델 훈련을 위한 하드웨어로 널리 알려졌습니다. 시스템이 잘 작동한다는 것을 보여주려고 Cerebras는 자체적으로 개발한 LLM들을 훈련해 왔는데요, 2022년에는 1억 1천 백만개에서 130억 개에 이르는 파라미터의 Cerebras-GPT 모델을 소개하기도 했습니다. 이 LLM들은 WSE를 기반으로 하는 Cerebras의 CS-2 시스템의 성능을 선보이기 위해 만들어진 것들로, 오픈소스로 Hugging Face에서 확인하고 테스트해 볼 수 있습니다. 보통은 Meta나 OpenAI와 같은 다른 거대 기술기업이 모델 학습에 소요하는 시간보다 훨씬 짧은 시간 내에 학습이 진행됩니다.

추론에 있어서의 과제, 그리고 Qualcomm과의 파트너십

다른 AI 반도체 대비 뒤쳐져 있는 부분이 바로 ‘추론’ 영역이었습니다. 활용 자체야 물론 가능했지만, 크게 두 가지의 주요 과제가 있었습니다:

  1. 비용 (Cost): 고사양 솔루션인 Cerebras 시스템은 소규모 추론 작업보다는 대규모의 훈련 과정에 더 비용 최적화된 측면이 있습니다.

  2. 전문성 (Specialization): 고도로 전문화된 Cerebras의 시스템 대비, 더 광범위한 추론 작업에는 GPU 같은 솔루션이 더 일반적으로 활용되기가 쉽습니다.

2024년 3월, Cerebras는 AI 추론 성능을 향상시키기 위해 Qualcomm과 파트너십을 맺었습니다. Qualcomm Cloud AI 100 Ultra는 Cerebras의 CS-3 AI 가속기와 결합하여 달러당 최대 10배 더 많은 토큰을 제공하여 AI 배포 비용을 절감할 수 있습니다. 이 파트너십은 Unstructured Sparsity, Speculative Decoding, Efficient MX6 Inference 등의 고급 기술을 활용하여 고성능이면서도 비용 효율적인 AI 솔루션을 제공하는데, 특히 제약 산업 등과 같이 운영 비용이 중요한 고려 요소인 산업에 유용합니다.

Cerebras 대 NVIDIA: 또 하나의 비유, 그리고 근본적인 차이점

Cerebras의 CEO인 Andrew는 또 다른 비유를 듭니다: "배송업체가 각각의 상자를 검사하고 싶지 않기 때문에 팔레트에 있는 물건을 그대로 옮기려고 하는 것과 같습니다. 메모리 대역폭은 각 상자가 비어 있지 않은지 검사할 수 있는 능력입니다. 비어 있으면 옆으로 치워두고 움직이지 않는 것이죠." Andrew는 Forbes와의 인터뷰에서 트랜지스터 수만 놓고 보면 앞으로 6년 동안은 GPU가 WSE-3를 따라잡지 못할 것이라고 말했습니다. "57배나 더 많습니다. 코어도 52배 더 많습니다. 메모리 온 칩도 800배 더 많습니다. 메모리 대역폭은 7,000배, 패브릭 대역폭은 3,700배 이상 더 넓습니다. 이것이 바로 WSE-3가 보여주는 성능의 토대입니다."

Cerebras와 NVIDIA 비교: 주요 차이점

1. 아키텍처 (Architecture)

  • Cerebras: 하나의 대형 칩을 사용해서 코어 간의 통신 오버헤드를 최소화함으로써 특정한 AI 작업에서 지연 시간을 줄이고 처리량을 높입니다.

  • NVIDIA: 여러 개의 작은 칩이 함께 작동하는 GPU 클러스터를 사용하기 때문에 통신 오버헤드가 높아질 수 있습니다.

2. 성능 (Performance)

  • Cerebras: 거대 언어모델에서 흔히 쓰이는 트랜스포머 모델처럼, 높은 메모리 대역폭과 낮은 지연 시간이 필요한 워크로드에 탁월합니다. 이 접근 방식은 여러 장치에서 분산 컴퓨팅의 필요성을 줄여 모델의 트레이닝 프로세스를 간소화합니다.

  • NVIDIA: 기존 데이터센터에 쉽게 통합할 수 있는 GPU를 통해 높은 유연성과 확장성을 제공합니다. NVIDIA의 GPU는 다목적이며 다양한 AI 작업을 효과적으로 처리합니다.

3. 소프트웨어 생태계 (Software Ecosystem)

  • Cerebras: 하드웨어에 최적화된, 보다 특화된 소프트웨어 스택을 제공합니다. 특정 작업에는 효과적이지만 NVIDIA가 누리는 광범위한 생태계와 커뮤니티 지원에 대응하기는 어렵습니다.

  • NVIDIA: CUDA 및 기타 소프트웨어 도구를 통해 광범위한 AI 프레임웍 및 애플리케이션에 대한 광범위한 지원을 제공하기 때문에, 개발자가 솔루션을 보다 쉽게 채택하고 확장할 수 있습니다.

4. 도입 현황 및 시장 내 입지 (Adoption & Market Position)

  • Cerebras: 특정한 AI 작업을 위해 극한의 성능을 요구하는 틈새 시장에서 주목을 받고 있습니다. Mayo Clinic, Aleph Alpha, National Center for Supercomputing Applications, AstraZeneca, G42 등의 기관에서 Cerebras의 하드웨어를 채택하고 있습니다. 더 많은 고객사는 Cerebras의 웹사이트에서 확인할 수 있습니다.

  • NVIDIA: AI 연구를 비롯한 다양한 산업 분야에서 폭넓게 채택되어 AI 하드웨어 시장을 지배하고 있습니다. NVIDIA의 GPU는 AI 및 머신 러닝 작업의 사실상 표준이라고 할 수 있습니다.

Cerebras가 NVIDIA의 GPU를 대체할 수 있을까?

제한적인 특정한 시나리오에서는 그럴 수 있습니다. 대규모 언어 모델을 트레이닝하거나 기타 연산량이 많은 AI 애플리케이션과 같이 Cerebras의 고유한 아키텍처를 잘 활용할 만한 작업의 경우, 통신 상의 오버헤드를 줄이고 효율성을 개선하여 기존 GPU 클러스터보다 뛰어난 성능을 발휘할 수 있습니다. 하지만, 아래와 같은 이유를 생각해 보면 단기간 내에 NVIDIA GPU를 완전히 대체하기는 어려울 것으로 보입니다:

  1. 용도의 다양성 (Versatility): NVIDIA GPU는 AI 뿐 아니라 AI가 아닌 더 다양한 용도 - Graphic Rendering, Scientific Computing 등 - 에 활용할 수 있습니다.

  2. 생태계 (Ecosystem): NVIDIA의 광범위한 소프트웨어 생태계, 그리고 커뮤니티 지원은 개발자가 더 쉽게 AI 솔루션을 구축, 배포할 수 있게 해 줍니다.

  3. 확장성 및 통합 (Scalability & Integration): NVIDIA의 솔루션은 기존 데이터센터 인프라에 잘 통합되고 원활하게 확장할 수 있습니다. AI 모델을 만드는 사람들이 NVIDIA의 AI 칩에서 작동하는 소프트웨어를 사용하는데 익숙하기도 하구요.

Cerebras의 수익 모델

우선, Cerebras의 수익 모델에 대해서 자세한 내용이 공식적으로 알려져 있지는 않습니다.

Barron의 보도에 따르면, Cerebras가 칩을 개별적으로 판매하는 대신 완전한 컴퓨팅 시스템에 통합하는 등 여타의 AI 반도체 회사들과는 다른 접근 방식을 취하고 있습니다. 이런 형태의 비즈니스 모델을 기준으로 두 가지 방식으로 수익을 창출하고 있는 것으로 보입니다.:

  • 매출의 20%: 전체 시스템을 고객에게 직접 판매합니다.

  • 매출의 80%: 아마존 웹 서비스, 마이크로소프트 애저, 구글 클라우드와 같은 클라우드 컴퓨팅 서비스의 운영 방식과 유사하게 시스템에 대한 액세스 권한을 판매합니다.

Cerebras의 CEO인 Andrew는 "2023년에 회사는 전년도보다 8배 많은 시스템을 구축했고, 2024년에는 총 10배 증가할 것으로 예상합니다."라고 언급한 적이 있습니다. Andrew에 따르면, Cerebras가 현금 흐름 측면에서 손익분기점에 이미 도달했다고 하네요. 대단합니다.

결론

우선, Cerebras가 ‘Trilogy Systems의 저주’를 깨고 현존하는 가장 큰 AI 칩을 만들었다는 것은 그 자체로 놀라운 일입니다. 문제는, Cerebras의 하드웨어가 특정한 AI 워크로드를 대상으로는 상당한 이점을 제공하지만 전반적으로 NVIDIA GPU가 누리고 있는 다목적성, 소프트웨어 생태계 및 광범위한 도입의 드라이브가 부족합니다. 결국, Cerebras가 NVIDIA GPU를 전면적으로 대체할 수는 없다고 생각합니다.

Andrew가 비유, 은유를 아주 즐긴다고 말씀드렸었는데요. 앞으로 Andrew를 비롯한 Cerebras의 모든 팀은, 비유든 은유든 거기에 쏟을 모든 창의력을 NVIDIA와 경쟁할 수 있는 큰 그림을 그리는데 쏟아부어야 할 것 같습니다. 지금 우리는 - 어쩌면 앞으로도 상당 기간 - NVIDIA의 CEO, Jensen Huang이 상상하고 만들어가는 세상 속에 살고 있습니다. Cerebras가 이 거대한 시장의 일부를 차지할 수는 있겠지만, Jensen Huang과 같이 우리 모두가 공감할 수 있는 비전의 세계를 만들어내지 못한다면 결국 NVIDIA에 대항하려는 여러 칩 제조사 중 하나로 남을 뿐일 것입니다.

Cerebras는 현재 40억 달러 규모의 IPO를 계획하고 있는 것으로 알려져 있습니다. NVIDIA의 시가총액은 현재 이 규모의 810배(2024년 6월 15일 기준, 3조 2,400억 달러)에 달합니다.

읽어주셔서 감사합니다. 재미있게 보셨다면 친구와 동료 분들에게도 뉴스레터를 추천해 주세요.

Reply

or to participate.