인텔이 오늘 대만에서 진행된 컴퓨텍스(Computex)에서 데이터센터, 클라우드와 네트워크에서 엣지 및 PC에 이르기까지 AI 생태계를 획기적으로 가속화할 최첨단 기술 및 아키텍처를 공개했다. 이를 통해 고객은 더 많은 처리 능력, 첨단 전력 효율성, 낮은 총소유비용(TCO)을 통해 완전한 AI 시스템에서의 가능성을 실현할 수 있다.

팻 겔싱어(Pat Gelsinger) 인텔 CEO는 “AI는 업계 역사상 가장 중대한 혁신의 시대를 주도하고 있다. 실리콘의 마법은 다시 한번 기하급수적인 컴퓨팅 성능의 진전을 가져올 것이며 이는 인간의 잠재력의 한계를 뛰어넘고 향후 수년간 전세계 경제를 견인할 것이다”라며, “인텔은 반도체 제조부터 PC, 네트워크, 엣지 및 데이터센터 시스템에 이르기까지 AI 시장 기회의 전 영역에 걸쳐 혁신을 창출하고 있는 전 세계 유일한 기업 중 하나다. 인텔의 최신 제온, 가우디 및 코어 Ultra 플랫폼은 인텔의 하드웨어 및 소프트웨어 생태계의 역량과 결합하여미래의 엄청난 기회를 극대화하는 데 필요한 유연하고 안전하며 지속가능하고 비용효율적인 솔루션을 고객에게 제공한다.”라고 말했다.


인텔, ‘AI 에브리웨어’ 구현


겔싱어 CEO는 컴퓨텍스 기조연설에서 AI 기회를 가속화할 개방형 표준과 인텔의 강력한 생태계를 강조했다. 그의 발표에는 제이슨 첸(Jason Chen) 에이서 회장 겸 CEO, 조니 시(Jonney Shih) 에이수스 회장, 사티아 나델라(Satya Nadella) 마이크로소프트 회장 겸 CEO, 잭 차이(Jack Tsai) 인벤텍 사장 등 업계 전문가 및 선도 기업들이 함께 해 지지를 표명했다.

겔싱어 CEO와 업계 리더들은 인텔이 AI 혁신을 이끌고 차세대 기술을 예정보다 앞서 제공하고 있다는 점을 분명히 했다. 인텔은 불과 6개월 만에 5세대 인텔® 제온®(5th Gen Intel® Xeon®) 프로세서를 출시한데 이어 제온 6 첫 제품을 선보였으며, 가우디 AI 가속기를 선공개하고 기업 고객에게 비용 효율적인 고성능 생성형 AI 훈련 및 추론 시스템을 제공했다. 또한, 800만 대 이상의 디바이스에 인텔® 코어™ Ultra(Intel® Core™ Ultra) 프로세서를 탑재해 AI PC 시대를 열었고, 올해 말 출시 예정인 클라이언트 아키텍처도 공개했다.

이러한 발전을 통해 인텔은 실행 속도를 가속화하는 동시에 혁신과 생산 속도의 한계를 넘어 AI를 대중화하고 업계를 활성화하고 있다


AI를 위한 데이터센터 현대화

디지털 혁신이 가속화됨에 따라 기업들은 노후화된 데이터센터 시스템을 교체하여 비용 절감, 지속 가능성 목표 달성, 물리적 공간 및 랙 공간 활용 극대화하고 기업 전반에 걸쳐 새로운 디지털 역량을 창출해야 한다는 압박에 직면해 있다.

모든 제온 6 플랫폼 및 프로세서 제품군은 이러한 과제를 해결할 목적으로 E-코어(Efficient -core) 및 P-코어(Performance-core) 모델이 설계되었으며, AI 및 기타 고성능 컴퓨팅 요구사항부터 확장 가능한 클라우드 네이티브 애플리케이션에 이르기까지 광범위한 워크로드 및 사용 사례를 처리할 수 있다. E-코어와 P-코어는 모두 공통의 소프트웨어 스택과 하드웨어 및 소프트웨어 공급업체의 개방형 생태계와 호환 가능한 아키텍처를 기반으로 구축되었다.

가장 먼저 출시되는 제온 6 프로세서는 인텔 제온 6 E-코어(Intel Xeon 6 E-core, 코드명 시에라 포레스트)로, 오늘부터 사용 가능하다. 제온 6 P-코어(Xeon 6 P-core, 코드명 그래나이트 래피즈)는 다음 분기에 출시될 예정이다.

고집적도 코어 및 뛰어난 와트당 성능을 갖춘 인텔 제온 6 E-코어는 전력 비용을 크게 낮추면서 효율적인 컴퓨팅을 제공한다. 향상된 성능 및 전력 효율성은 클라우드 네이티브 애플리케이션 및 콘텐츠 전송 네트워크, 네트워크 마이크로서비스, 소비자 디지털 서비스 등 가장 까다로운 고밀도 스케일아웃 워크로드에 적합하다.

또한, 제온 6 E-코어는 집적도가 매우 뛰어나 랙 수준을 3대 1로 통합할 수 있어 미디어 트랜스코딩 워크로드1에서 2세대 인텔® 제온® 프로세서(2nd Inte®l Xeon® Processor) 대비 최대 4.2배의 랙 레벨 성능 향상과 최대 2.6배의 와트당 성능 향상을 고객에게 제공할 수 있다. 더 적은 전력과 랙 공간을 사용하는 제온 6 프로세서는 혁신적인 새로운 AI 프로젝트를 위한 컴퓨팅 용량과 인프라를 확보한다.


인텔 가우디 AI 가속기로 전체 비용을 낮추면서 고성능 생성형AI 제공

오늘날, 생성형 AI의 역량을 활용하는 것은 더 빠르고 저렴해졌다. 주요 인프라인 x86은 거의 모든 데이터센터 환경에서 대규모로 운영되며, 비용 효율적인 상호운용성과 개발자 및 고객으로 구성된 개방형 생태계의 이점을 제공하면서, AI 역량을 통합하는 데 기반 역할을 한다.

인텔 제온 프로세서는 AI 워크로드에 이상적인 CPU 헤드 노드이며, AI 워크로드를 위해 특별히 설계된 인텔 가우디 AI 가속기와 함께 시스템에서 구동한다. 이를 통해 기존 인프라에 원활하게 통합되는 강력한 솔루션을 제공한다.

대규모 언어 모델(LLM)의 훈련 및 추론을 위한 MLPerf 벤치마크 결과를 제공 가능한 엔비디아의 H100의 유일한 대안인 가우디 아키텍처는 더 낮은 총 운영 비용으로 빠른 배포 시간을 제공하는 가격 대비 성능의 이점을 제공하여 고객이 원하는 생성형AI 성능을 제공할 수 있다.

시스템 공급업체(SP)에 제공되는 8개의 인텔 가우디 2 가속기와 범용 베이스보드(UBB)가 포함된 표준 AI 키트는 6만 5천 달러로 동급 경쟁 플랫폼 가격의 3분의 1 수준으로 예상된다. 8개의 인텔 가우디 3 가속기와 UBB가 포함된 키트는 12만 5천 달러에 판매되며, 이는 동급 경쟁 플랫폼4 가격의 약 3분의 2 수준이다.

인텔 가우디 3 가속기는 생성형 모델 훈련 및 추론 작업에서 상당한 성능 향상을 제공하여 기업이 자체 데이터의 가치를 실현할 수 있도록 지원한다. 8,192개 가속기 클러스터를 갖춘 인텔 가우디 3는 동급 규모의 엔비디아 H100 GPU 클러스터에 비해 학습 시간이 최대 40% 빠르며5, 64개 가속기 클러스터의 경우 엔비디아 H100의 라마2 700억개(Llama2-70B) 모델에 비해 최대 15% 빠른 학습6 처리량을 제공할 것으로 예상된다. 또한, 인텔 가우디 3는 라마2 700억개(Llama2-70B) 및 미스트랄 70억개(Mistral-7B)와 같은 LLM을 실행할 때 엔비디아 H100 대비 평균 최대 2배 빠른 추론7을 제공할 것으로 예상된다.

인텔은 AI 시스템을 광범위하게 제공하기 위해 인텔 가우디 3를 출시하겠다고 이미 발표한 6개의 신규 공급업체를 포함해 최소 10개 이상의 글로벌 시스템 공급업체와 협력하고 있다. 오늘 새롭게 합류한 협력사에는 에이수스(Asus), 폭스콘(Foxconn), 기가바이트(Gigabyte), 인벤텍(Inventec), 콴타(Quanta) 및 위스트론(Wistron)이 포함되며, 델(Dell), HPE(Hewlett-Packard Enterprise), 레노버(Lenovo) 및 슈퍼마이크로(Supermicro)와 같은 주요 시스템 공급업체를 통해 제품 공급을 확대한다.


노트북 PC용 온디바이스 AI 가속화


데이터센터를 넘어, 인텔은 엣지와 PC에서 AI 족적을 넓히고 있다. 9만개 이상의 엣지 배포와 2억개 이상의 CPU를 생태계에 제공한 인텔은, 수십 년 동안 기업들에게 선택을 폭을 넓혀주었다.

오늘날 AI PC분야는 컴퓨팅 경험의 모든 측면을 변화시키고 있으며, 인텔은 이 새로운 카테고리를 창출하는 최전선에 있다. 이제 더이상 빠른 처리 속도나 더 세련된 디자인 뿐만이 아니라, 고객의 필요를 예측해 선호도에 맞게 실시간으로 적용하며 생산성, 효율성 및 창의성의 완전히 새로운 시대를 예고하는 엣지 디바이스를 만들고 있다.

AI PC가 2027년까지 신규 PC 중 60%를 차지할 것으로 예상됨에 따라, 인텔은 AI PC를 위한 최고의 하드웨어 및 소프트웨어 플랫폼을 발빠르게 구축했다. 100개 이상의 독립 소프트웨어 제작사(ISV)와 협력해, 300개의 기능을 제공하고 코어 Ultra 플랫폼 전반에 걸쳐 500개의 AI 모델을 지원하고 있다.

이러한 압도적인 이점들을 빠르게 구축하며, 오늘 인텔은 AI PC용 차세대 플래그십 프로세서인 루나 레이크(Lunar Lake)의 아키텍처와 관련한 세부 내용을 공개했다. 그래픽과 AI 처리 성능에서 대대적인 발전을 이루고, 얇고 가벼운 디자인을 위한 전력 효율적인 컴퓨팅 성능에 중점을 둔 루나 레이크는 최대 40% SoC 전력3과 3배 이상의 AI 컴퓨팅8을 제공한다. 연말 성수기를 겨냥해 2024년 3분기에 시장에 출시할 예정이다.

새롭게 설계된 루나 레이크로 가능해진 기능들

· 새로운 P-코어 및 E-코어로 크게 향상된 성능과 에너지 효율성
· 최대 48 40 NPU TOPS(초당 테라 연산)의 AI 성능을 제공하는 4세대 인텔 NPU. 이 강력한 NPU는 이전 버전보다 최대 4배의 AI 컴퓨팅을 제공하여 생성형 AI의 개선을 이끌어낸다
· 완전히 새로운 GPU 디자인(코드명 배틀메이지(Battlemage))는 그래픽을 위한 Xe2 GPU 코어와 AI를 위한 XMX(Xe Matrix Extension) 어레이의 두 가지 부분의 새로운 혁신을 결합했다. Xe2 GPU 코어는 이전 세대 대비 게임 및 그래픽 성능을 1.5배 향상시키고, 새로운 XMX 어레이는 AI 콘텐츠 제작시 탁월한 처리량을 위해 최대 67 TOPS의 성능을 갖춘 두 번째 AI 가속기를 지원한다.
· 향상된 저전력 아일랜드, 새로운 컴퓨팅 클러스터, 백그라운드, 생산성 작업을 매우 효율적으로 처리하는 인텔 혁신 기술을 통해 뛰어난 노트북 배터리 수명을 제공한다.

다른 기업들이 AI PC 시장에 진입할 준비를 하는 동안, 인텔은 이미 대규모로 제품을 공급하고 있으며, 2024년 1분기 동안 경쟁사를 모두 합친 것보다 더 많은 AI PC 프로세서를 공급하고 있다. 루나 레이크는 20개의 PC 제조사를 통해 80개 이상의 다양한 AI PC 디자인을 공급할 예정이며 인텔은 올해 4천만 개 이상의 코어 Ultra 프로세서 출하 목표 달성을 예상하고 있다.

고든 무어(Gordon Moore)가 “무엇을 이루었더라도 그 이상을 해낼 수 있다(Whatever has been done, can be outdone)” 고 말한 바와 같이, 인텔은 끊임없이 발전을 추구하는 최전선에 서있다. 클라이언트, 엣지, 데이터센터 및 클라우드를 아우르는 글로벌 규모, 개방형 표준에 기반한 탄탄한 생태계, 강력하고 비용측면에서 효율적인 솔루션을 통해 인텔은 모든 곳에서 AI를 지원하는데 그치지 않고 미래를 만들어나가고 있다. 오늘의 발표는 단순한 기술적 도약에 대한 것만이 아닌, 고객과 파트너가 전례 없는 가능성을 포착하고 자체적인 혁신의 다음 시대를 개척할 문을 연 것이라 할 수 있다.

자료제공 - 인텔