banner
뉴스 센터
회사는 최고의 인재를 찾고 있습니다.

새로운 Microsoft AI 칩은 Nvidia에 위협이 되지 않지만 성장하는 LLM은 맞춤형 실리콘을 구동해야 합니다.

Sep 30, 2023

7월 11~12일 샌프란시스코에서 최고 경영진과 함께 리더들이 성공을 위해 AI 투자를 통합하고 최적화하는 방법을 들어보세요. 더 알아보기

오늘 더 인포메이션(The Information)의 보도에 따르면 마이크로소프트는 이르면 2019년부터 내부적으로 코드명 아테나(Athena)라는 새로운 인공지능(AI) 칩을 개발해 왔다. 회사는 이르면 내년부터 회사 자체와 OpenAI 내에서 Athena를 광범위하게 사용할 수 있도록 할 수 있습니다.

전문가들은 Nvidia가 이러한 움직임으로 인해 위협을 받지는 않을 것이라고 말합니다. 하지만 이는 하이퍼스케일러가 자체 맞춤형 실리콘을 개발해야 한다는 신호입니다.

Google(TPU) 및 Amazon(Trainium 및 Inferentia 프로세서 아키텍처)이 자체 개발한 칩과 마찬가지로 이 칩은 LLM(대형 언어 모델) 교육을 처리하도록 설계되었습니다. Gartner의 분석가인 Chirag Dekate는 VentureBeat에 이메일을 통해 고급 생성 AI 모델의 규모가 이를 훈련하는 데 필요한 컴퓨팅 기능보다 빠르게 성장하고 있기 때문에 이는 필수적이라고 말했습니다.

John Peddie Research에 따르면 Nvidia는 AI 칩 공급 부문에서 약 88%의 시장 점유율을 차지하며 1위를 차지하고 있습니다. 기업들은 각각 수만 달러에 달하는 고급 A100 및 H100 GPU에 대한 액세스 권한을 확보하기 위해 경쟁하고 있으며 이는 GPU 위기라고 할 수 있는 상황을 야기합니다.

트랜스폼 2023

7월 11~12일 샌프란시스코에서 최고 경영진이 성공을 위해 AI 투자를 통합하고 최적화하고 일반적인 함정을 피한 방법을 공유합니다.

"최첨단 생성 AI 모델은 이제 엑사스케일 컴퓨팅 기능이 필요한 수천억 개의 매개변수를 사용하고 있습니다."라고 그는 설명했습니다. "수조 개의 매개변수에 달하는 차세대 모델을 통해 선도적인 기술 혁신가들이 교육에 소요되는 시간과 비용을 줄이면서 훈련을 가속화하기 위해 다양한 계산 가속기를 탐색하고 있다는 것은 놀라운 일이 아닙니다."

마이크로소프트가 비용을 절감하면서 생성적 AI 전략을 가속화하고자 하는 만큼 회사가 차별화된 맞춤형 AI 가속기 전략을 개발하는 것이 합리적이며, 이는 "전통적인 상품화된 기술 접근 ​​방식을 사용하여 가능한 것 이상으로 파괴적인 규모의 경제를 제공하는 데 도움이 될 수 있습니다"라고 덧붙였습니다. "

가속의 필요성은 중요하게도 기계 학습 추론을 지원하는 AI 칩에도 적용됩니다. 즉, 모델이 일련의 가중치로 요약된 다음 실시간 데이터를 사용하여 실행 가능한 결과를 생성하는 경우입니다. 예를 들어 ChatGPT가 자연어 입력에 대한 응답을 생성할 때마다 컴퓨팅 인프라는 추론에 사용됩니다.

J Gold Associates의 분석가 Jack Gold는 VentureBeat에 보낸 이메일에서 Nvidia는 매우 강력한 범용 AI 칩을 생산하고 ML 교육을 구체적으로 수행하는 방법으로 병렬 컴퓨팅 플랫폼 CUDA(및 그 파생 제품)를 제공한다고 말했습니다. 그러나 추론에는 일반적으로 더 적은 성능이 필요하며 하이퍼스케일러는 맞춤형 실리콘을 통해 고객의 추론 요구 사항에 영향을 줄 수 있는 방법을 찾고 있다고 그는 설명했습니다.

"추론은 궁극적으로 ML보다 훨씬 더 큰 시장이 될 것이므로 모든 공급업체가 여기에 제품을 제공하는 것이 중요합니다."라고 그는 말했습니다.

Gold는 Microsoft의 Athena가 10년 전 회사가 딥 러닝 "혁명"을 지원한 이래로 Nvidia가 지배해 온 AI/ML 부문에 대한 위협이 된다고 생각하지 않는다고 말했습니다. 강력한 플랫폼 전략과 소프트웨어 중심 접근 방식을 구축했습니다. GPU가 많이 사용되는 생성 AI 시대에 주가가 상승했습니다.

그는 "필요가 확장되고 사용의 다양성도 확장됨에 따라 Microsoft와 다른 하이퍼스케일러가 자체 아키텍처와 최적화된 알고리즘(CUDA 전용이 아님)에 최적화된 AI 칩 버전을 추구하는 것이 중요합니다"라고 말했습니다.

그는 클라우드 운영 비용에 관한 것이지만 고가의 Nvidia 옵션이 필요하지 않거나 원하지 않는 다양한 고객에게 저렴한 옵션을 제공하는 것에 관한 것이라고 설명했습니다. "저는 모든 하이퍼스케일러가 Nvidia뿐만 아니라 범용 클라우드 컴퓨팅 분야에서 Intel과도 경쟁하기 위해 자체 실리콘을 계속 개발할 것으로 기대합니다."