인텔이 11일 오전 9시 여의도 전경련회관에서 인텔 비전 미디어 간담회를 열고 국내 AI 기업의 선두 주자 네이버와의 전략적 협력을 비롯해 새로운 AI 가속기 인텔 가우디 3(Intel Gaudi 3)의 성능과 추후 비전에 대해 자세한 로드맵을 공개했다.
행사는 인텔코리아 박민진 상무의 인사말로 시작되었으며, 곧이어 네이버 클라우드 하이퍼스케일 AI 담당 이동수 이사가 인텔과 네이버의 협력 관련 내용 및 Q&A를 진행했다. 이후 인텔코리아 나승주 상무의 인텔 비전 2024(현지 시각 9일 진행)의 발표 내용 및 가우디 기술 브리핑을 진행했다.
인텔-네이버
LLM 대중화와 AI 개방형 생태계를 위해 연합전선 구축
네이버 클라우드는 거대언어모델(LLM) '하이퍼클로바X'를 보유하고 있다. 이에 네이버는 LLM을 효율적으로 운영하기 위한 방안으로 가우디 도입을 적극 검토하고 있으며 인텔과 이해관계가 맞아떨어진다. 네이버의 입장으론 고가의 엔비디아 AI 칩을 통해 확장하는 것에 대한 부담감이 클 수밖에 없기에 이는 좋은 방안이 될 수 있을 것으로 생각된다.
첫 세션은 네이버 클라우드 하이퍼스케일 AI 담당 이동수 이사의 협력 발표 및 QnA로 시작됐다. 이곳에서 이동수 이사는 “거대언어모델(LLM) 용도의 AI 서버에 적용하기 위해 인텔이 제안했던 가우디 2를 평가할 것“이라며 “가우디 2의 경우 비용 절감은 물론 전력 대비 성능에 경쟁력이 있다“고 말했다.
네이버클라우드는 인텔과 함께 국내 학계 및 스타트업 등과의 공동 연구를 통해 ‘가우디(Gaudi)’ 기반의 새로운 AI 칩 소프트웨어 생태계 구축에 나선다. 해당 내용은 지난 9일 미국 피닉스에서 개최된 '인텔 비전 2024' 행사에서 펫 겔싱어 CEO의 키노트를 통해 공개됐고, 양사 간 협약이 진행됐다.
양사는 국내 스타트업과 대학들이 AI 연구를 진행할 수 있도록 인텔의 AI 가속기 칩인 ‘가우디’ 기반의 IT 인프라를 제공해 ‘가우디’ 기반 다양한 소프트웨어 개발과 산학 연구 과제 등을 운영할 예정이다. 이를 위해 양사는 ‘AI 공동연구센터(NICL: NAVER Cloud·Intel·Co-Lab)’를 설립하며, 여기에는 카이스트를 중심으로 서울대학교, 포스텍을 포함한 국내 20여 개 연구실 및 스타트업들이 참여한다.
무엇보다도 최근 AI 칩 구매 부담으로 인해 국내 스타트업과 학교들의 AI 리소스 환경이 매우 열악해진 상황으로, 네이버클라우드는 국내 AI 연구 활성화와 AI 칩 생태계 다양성 강화를 위해 이러한 공동 연구 방식을 인텔 측에 제안했다고 덧붙였다. 이를 통해 인텔은 ‘가우디’의 성능을 입증하고 소프트웨어, 하드웨어를 포함한 가우디 기반 AI 생태계를 구축하며, 네이버클라우드는 해당 연구들을 주도해 나가면서 하이퍼클로바X 중심의 AI 생태계를 확장해 나간다는 계획이다.
네이버클라우드 김유원 대표는 "네이버클라우드처럼 초거대 언어모델(LLM)를 ‘프롬 스크래치(From Scratch, 맨 처음부터)'로 개발하여 운영하고 있는 기업은 전세계적으로도 많지 않으며, 더 나아가 고비용 LLM을 효율적으로 운용하기 위한 최적화 기술뿐 아니라 이에 대한 솔루션까지 제안할 수 있는 기업은 미국과 중국의 빅테크를 제외하면 네이버클라우드가 거의 유일하다" 고 양사 협력의 배경을 설명했다.
김대표는 "네이버는 지난 25년간 검색엔진, 클라우드, 생성형 AI 등 글로벌 빅테크 중심의 시장에서 사용자에게 또 다른 선택권을 제공해 왔고, 이러한 다양성은 네이버가 추구해 온 중요 가치 중 하나"라며 "이러한 맥락에서 현재 AI 칩 생태계의 다양성을 확보하는 것은 매우 의미가 있다고 판단했다"고 강조했다.
인텔의 기업용 AI 가속기 "가우디"
AI 개방형 시스템 전략 및 가우디 3 발표
인텔코리아 나승주 상무가 발표한 인텔 비전 발표 내용은 다음과 같다. 개방형 생태계 접근 방식을 통해 기업 내 AI의 모든 부문을 다루는 확장 가능한 시스템 전략, 기업 고객의 AI 배포 및 성공 사례, 기업용 AI를 발전시키기 위한 개방형 생태계 접근 방식, 생성형 AI 솔루션에 대한 미충족 요구사항을 충족하는 인텔 가우디 3 AI 가속기, AI 워크로드용 엣지 플랫폼 및 이더넷 기반 네트워킹 연결 제품에 대한 내용이다.
인텔 가우디 3 AI 가속기는 공통 표준을 따르는 이더넷을 통해 최대 수만 개의 가속기를 연결해 AI 시스템을 구동한다. 기존 모델 대비 BF16용 AI 컴퓨팅에서 4배, 1.5배 커진 메모리 대역폭을 지원한다.
엔비디아의 AI 칩 H100과 비교하여 인텔 가우디 3는 70억 개 및 130억 개의 매개변수가 있는 라마2(Llama2) 모델과 GPT-3 1,750억 개 매개변수 모델 전체에서 평균적으로 50% 더 빠른 학습 시간을 제공할 것으로 예상한다.
또한 인텔 가우디 3 가속기 추론 처리량은 평균적으로 H100보다 50%, 전력 효율성의 경우 라마(Llama) 70억 개 및 700억 개 매개변수와 팔콘(Falcon) 1,800억 개 매개변수 모델에서 평균 40% 더 우수할 것으로 예상한다.
개방형 커뮤니티 기반 소프트웨어와 업계 표준 이더넷 네트워킹을 제공한다. 또한 기업은 싱글 노드에서 클러스터, 슈퍼 클러스터, 수천 개의 노드가 있는 메가 클러스터로 유연하게 확장할 수 있으며, 최대 규모의 추론, 미세 조정 및 학습을 지원한다.
인텔 가우디 3(Intel Gaudi 3)는 2024년 2분기에 델 테크놀로지스(Dell Technologies), HPE, 레노버(Lenovo), 슈퍼마이크로(Supermicro)를 비롯한 OEM 시스템에 탑재될 예정이다.
인텔
기업용 생성형 AI 시장 독점 구조, 타개할 수 있을까
대당 5천만 원, 지금 사도 1년 뒤 도착. 엔비디아가 개발하고 판매하는 GPU 기반 AI 가속기 시장의 현실이다. 현재 AI 가속기가 AI 서비스의 고도화를 위한 필수 요소로 꼽히는 이 시점에 소위 "돈 주고도 못 사는 상황"이라고 보면 된다.
이에 인텔은 H100 대비 전력 효율은 40% 향상, 학습(추론) 성능은 50% 향상시킨 고성능의 가우디3와 AI 생태계 협력을 통해 AI 반도체 시장에 도전장을 내밀었다. 과연 인텔은 AI 반도체 시장의 독점구조를 타개하고 새로운 희망이 될 수 있을까.