반응형

피크 엔비디아

 

Nvidia World Headquarters
게티 이미지를 통한 웰즈엔터프라이즈/아이스톡 에디토리얼

 

투자 서세

시가총액은 여전히 매출의 3배에 달하는인텔(INTC)의약 2배에 달하는 것으로, 여전히 매출의 2배에 달하는 것으로 보인다. 20배 이상의 포워드 P/S와 51배 이상의 P/E. 경쟁 증가 (칩 부족 가운데). 암호화 분석.

나는 투자자가 액면가로 이 모든 약세 신호를 가져와 주식을 피할 것을 제안합니다. 주식의 소유자에 대한, 마찬가지로, 나는 차트를보고, 이익을 잠글 투자자를 제안 할 것입니다. 피크 엔비디아(NVDA)에서주식을 판매합니다.

 

개요

나는 전자가 팔의 인수를 발표 했을 때 작년에 엔비디아와 인텔을 비교했다. 간단히 말해서, 내 분석은 이 인수가 비즈니스 모델 (라이센스 대 칩 판매)의 엄청난 차이를 감안할 때 몇 가지 시너지 효과를 얻을 것이라고 지적했습니다. 또한, 나는 또한 엔비디아는 인텔의 전략을 모방 하기 시작 했다 발견: IoT에서 예를 들어, 암CPU 사업 자체를 시작 하 여, 그리고 데이터 센터를 향해 피벗 하 여 (멜라 녹스 포함). 이미 반년 전, 인텔은 "데이터 중심" 회사가 될 것이라고 발표했습니다.

공정하게, 나는 이것이 올바른 전략이라고 결론을 내렸기 때문에, 그 관점에서, 두 회사가 CPU 또는 GPU에서 각자의 힘을 활용하면서 분명히 동일한 전략을 추구하는 것이 합리적입니다. 따라서 충돌로 인해 충돌이 발생합니다. 예를 들어 인텔은 6월에 가속 컴퓨팅 시스템과 그래픽 그룹을 만들어 GPU의 선두 주자가 되었다고 발표했습니다.

그럼에도 불구하고, 나는 또한 둘 다 차별화 된 전략을 가지고 있지만, 하나는 투자 위험을 크게 감소, 다른 것보다 현저하게 저렴했다 지적했다.

황의 법칙

이제 엔비디아가 아직 모방하지 않은 것으로 보입니다. 그러나 먼저 몇 가지 추가 배경. 종종 과학 기술에서 현상은 자연의 행동을 정당한 발견자의 이름을 따서 이름이 부여됩니다. 예를 들어, 우주론의 상징적 인 뉴턴의 법칙, 또는 호킹 방사선. 이는 중요한 기여에 대한 인식역할을 합니다. 마찬가지로, 고든 무어 자신이 반도체 개선 속도에 대한 유명한 정액 관측인 '무어의 법칙'을 만들어내면 놀랄 것입니다.

그러나 그것은 엔비디아가'황의 법칙'이라는것을 발명함으로써 한 것과 정확히 같습니다. 이 의도적인 법에 따르면 AI의 추론 성과는 매년 두 배로 증가합니다.

확실히, 나는 AI가 엔비디아, 인텔, 심지어 퀄컴 (QCOM)모두에 대해 만드는 기회에 대해 광범위하게 논의했습니다.

 

이 기회는 급속한 개발과 하드웨어 발전으로 이어졌습니다. 엔비디아의 그래프에서 볼 수 있듯이, 그것은 (실제로) 이후 칩의 INT8 성능을 두 배로, 케플러와 함께 28nm. 엔비디아가 강조하듯이, 이러한 발전의 대부분은 무어의 법칙 때문이 아니었다, 이는 단지 두 배로했다 2.5 배: 28nm에서 20/16nm, 그리고 7nm (이는 1.5 노드 점프입니다). 그래서 이 "법"은 주로 텐서 코어와 같은 건축 개선으로 인해 유지되었습니다. 엔비디아는 또한이 법이 곧 끝나는 것을 볼 수 없다고 말합니다.

이 법을 일관되게 유지하기 위해 NVIDIA는 W 또는 100 TOP당 100조 OP의 정격 성능으로 신경망의 모듈식 발전기 가속기인 MAGNet 도구를 개발했습니다. 이는 시장에서 사용할 수 있는 액셀러레이터보다 10배 이상 높습니다.

분석

첫눈에, 이 모든 믿을 수 없을만큼 인상적인 보일 수 있습니다. 무어의 법칙은 점점 더 균열을 보여주기 시작 (인텔의 10nm 지연,TSMC의 (TSM)3nm와 2.5 년 케이던스), 여기에 엔비디아는 두 배 속도로 개선되는 새로운 법을 제시하고있다.

그러나, 이것은 놀라운 일이 아니다. 그것은 시장 풀이라고합니다 : AI를 위해 특별히 제품은 큰 시장 기회가되었을 때 설계되었습니다. 다음 기사에서 설명한바와 같이, AI의 현대 시대 (딥 러닝)는 2012 년에 시작되었습니다. 따라서 새로운 시장의 초기 개선이 더 성숙하고 개발된 세그먼트를 능가하는 것이 합리적입니다.

앞서 언급한 주요 돌파구인 2012년 ImageNet 대규모 시각 인식 챌린지(ILSVRC)는 이미지 인식을 위해 심층 신경망을 사용하는 결정적인 순간이었습니다. 일리아 수츠스케버와 크리제프스키박사 고문 힌턴과 함께 발행된 알렉스 크리제프스키(Alex Krizhevsky)가 설계한 복잡한 신경망(CNN)은 Imagenet 시각적 인식의 기존 오류율을 15.3%로 절반으로 줄였습니다. CNN은 "알렉스넷"이라는 별명을 얻었습니다.

토론토 대학 팀은 경쟁에서 75 %의 정확도를 깨는 최초의 팀이었다. AlexNet 논문은 CNN에 대한 일종의 "나오는 파티"이기때문에 기계 학습 업계의 호황에 도움이되었으며, 모델을 훈련하기 위해 GPU를 사용하는 것을 포함한 새로운 기술을 강조하고 중퇴 레이어및 정류 선형 활성화 장치 (ReLU)를 포함하여 현재 일반적으로 사용되는 방법을 강조했습니다.

그 이후로 더욱 복잡한 딥 러닝 모델이 개발되었고,구글(GOOG)과같은 대기업에서도 널리 배포되기 시작했습니다. 따라서 갑자기 AI는 데이터 센터와 가장자리에 새롭고 중요하고 빠르게 성장하는 워크로드가 되었습니다.

이로 인해 기업과 실리콘 밸리 의 신생 기업이 특히 AI를 겨냥한 칩을 개발하게되었고, 2015년 Google의 TPU가 가장 주목할 만한 예입니다. 2016년 인텔은 데이터 센터와 에지 AI를 위해 네르바나와 모비디우스를 각각 인수했습니다. 이것은 또한 인텔의 "AI-everywhere" 전략의 시작을 표시, DLBoost는 CPU에 도입 되 고 본, 그리고 AI 최적화 된 FPGA의 출시.

 

하지만 이는 AI와 AI 하드웨어에 투자한 엔비디아만이 아니라는 것을 보여줍니다. AI가 GPU에서 시작된 이유는 CPU보다 더 많은 원시 성능(초당 작업)을 제공하며 아직 전용 NPO(신경 처리 장치)가 없었기 때문입니다.

그럼에도 불구하고, 엔비디아가 주로 채택 된 모델의 추론 또는 배포 전에 발생하는 AI 모델 개발의 교육 부분입니다. 즉, CPU를 기반으로 하는 인텔의 시장 점유율은 실제로 엔비디아보다 높습니다. 예를 들어 2019년 이 문서에서 인텔이 데이터 센터에서 회사를 이길 것을 요청하는 것으로 확인되었습니다.

또한, (용도 변경) GPU 대신 전용 액셀러레이터의 존재와 최근의 출현은 GPU가 AI에 대해 전혀 최적이 아님을 보여줍니다. 예를 들어, 아난드텍과의5월 인터뷰에서 업계 베테랑 짐 켈러는 엔비디아의 접근 방식을 "인사이더"라고 부릅니다.

그래서 한 결론으로, 엔비디아는 여전히 AI에 대 한 실리콘에 대 한 가장 높은 시장 점유율 및 수익 중 (데이터 센터에서), 인텔과 동등 하 게, 기술 측면에서 틀린 실제로 엔비디아의 용도 변경 GPU 전략은 이미 더 진보 된 접근 방식에 의해 도약 되었습니다.

그래서 그런 의미에서, 엔비디아가 달성 한 속도 향상의 대부분은 단순히 AI전용 실리콘에 대한 시장 당김 때문에, 이는 엔비디아가 GPU를 용도를 변경하도록 주도. GPU는 전통적으로 그래픽 워크로드에 최적화되었기 때문에 AI 이전 시대 케플러 GPU보다 훨씬 더 큰 성능을 허용했습니다. GPU는 또한 그래픽 작업에 대한 다양한 다른 실리콘 회로를 포함합니다.

엔비디아는 AI의 중요성을 인식하고 특히 AI를 위해 특히 인텔의 DLBoost와 유사하게 최적화(CPU 측의 인텔 DLBoost와 유사)를 추구했습니다. 특히 엔비디아는 그래픽 워크로드에 대한 모든 인접 한 기능을 멀리하고 대신 AI가 필요로하는 매우 조밀 한 컴퓨팅 단위를 제공하는 텐서 코어를 도입했습니다. 혁신을 요약하려면 다음을 수행하십시오.

  • 엔비디아의 기준선인 케플러는 INT8(8비트 넘버 포맷)을 지원하지 않으며, 그 성능은 당시 GPU에서 일반 32비트 부동 포인트 성능을 나타냅니다. 근사치를 위해 회로 영역은 사분적으로 확장되므로 32비트는 8비트보다 16배 더 비싸다는 것을 의미합니다.
  • INT8은 2016년 파스칼(P100)에만 도입되었습니다. 그래프에서 알 수 있듯이, 그 이전에는 4년 만에 2배 미만의 스피드업이 이루어졌으며, 이는 '황의 법칙'의 상태보다 훨씬 낮습니다. 파스칼은 또한 FP16 (교육에 사용)를 도입, 이는 스마트 폰 GPU 공간에서 온 기능이었다.
  • 텐서 코어는 2017년 볼타 V100에 출시된 엔비디아전용 AI 유닛으로, 20TOPS에서 125TOPS로 6배의 성능을 향상시켰습니다. 볼타텐서 코어는 FP16만 지원합니다.
  • 튜링은 정밀도가 낮은 2세대 텐서 코어를 도입했습니다.
  • 2020년, 엔비디아는 7nm로 점프하여 3세대 텐서 코어를 장착한 Ampere A100을 도입했습니다. 적어도 이 기능을 사용할 수 있는 네트워크에서 성능이 2배 향상되는 "스파니티"에 대한 지원이 도입되었습니다.
 

이 개요에서 볼 수 있듯이, 이익의 대부분은 전용 텐서 코어의 도입을 통해 달성되었다, 이는 물론 기존의 GPU부족. 그래서 엔비디아는 그것의 속도 향상의 일부만 무어의 법칙 때문, FP16 텐서 코어 성능 가장 최근 A100은 312 TFLOPS. 이는 V100과 A100 사이의 3년 동안 2.5배 증가한 것으로, 16nm에서 7nm까지의 밀도 향상과 정확히 동일합니다.

이것은 아니, 엔비디아는 FP16 성능에서 무어의 법칙을 이길 수 없었다 는 것을 나타냅니다. 그런 다음 312 TFLOPS에서 1248 TOPS로 이동하여 FP16에서 INT8(2x)으로 이동한 다음 엔비디아조차도 모든 경우에 사용할 수 없다고 인정하는 희소성 기능(2x)을 사용하여 달성됩니다(엔비디아는 희소성 및 무당함 모두에 대한 성능 사양을 제공하므로). A100은 INT4를 지원하므로 2배의 속도 향상도 제공합니다.

즉, 이러한 텐서 코어는 일회성 트릭이었고, 따라서 개선의 속도는 프로세스 기술 (무어의 법칙)의 개선으로 되돌아 갔습니다. INT8에서 INT4로 가는 것도 일회성 트릭입니다.

또한 엔비디아의 황의 법칙 그래프는 INT8 성능을 보여 주지만, 해당 그래프의 대부분의 GPU는 INT8을 지원하지 않습니다. 이것은 내가 시장 풀이라고 부르는 것입니다 : AI의 성장은 AI에 최적화 된 제품과 기능의 도입을 일으켰습니다. 그러나 이러한 기능을 정상화할 때 AI 성능은 실제로 무어의 법칙을 아주 깔끔하게 따랐습니다.

마지막으로, 위에서 언급 한 바와 같이, AI에서 엔비디아의 지배력은 주로 훈련 부분에서 유래. 교육에서 16비트는 INT8의 경우 대부분 사용되며 더 작은 형식은 사용되지 않습니다.

미래

더 높은 성능을 위한 이러한 기술은 무어의 법칙에 기반하지 않기 때문에 성능을 향상시키기 위해 일회성 트릭(예: 작은 숫자 형식, 전용 유닛, 스파클리티)이라는 것을 의미합니다.

그들은 물론 유효한 건축 혁신입니다. 그러나 그들은 상당한 이득을 남긴 정말 영향력있는 트릭이 없기 전에 멀리 갈 수 있습니다. 그런 일이 발생하면 황씨의 법칙이 2년마다 2배의 속도로 되돌릴 것이라고 예측할 수 있습니다. 그러나 그것은 단지 (인텔의) 무어의 법칙입니다.

이것은, 실제로, 인텔의 2018 아키텍처 데이에 보여 준.

 

인텔은 처음에는 GPU에 비해 일회성 속도 향상을 달성하기 위해 전용 AI 가속기(레드 라인)를 예상했지만, 그 진화는 다른 제품과 마찬가지로 무어의 법칙을 더욱 밀접하게 따를 것입니다.

하지만 공정하기 위해 황씨의 법칙에 관한 추론에 대한 연구는 이미 더 진전되었습니다. 그래서 엔비디아가 말한 것처럼 매년 2배(2년마다)로 "황의 법칙"의 끝은 실제로 여전히 몇 년이 지날 지도 모릅니다.

예를 들어, 훨씬 더 이국적인 혁신은 전력 효율성을 높이고 따라서 훨씬 더 높은 성능을 높일 수있는 연구 및 경로 찾는에 있습니다. 연구에 있는 일부 영역에는 정밀도가 낮아지고(최대 1비트), 메모리 에 가까운 컴퓨팅, 메모리 내 계산, 아날로그 컴퓨팅 등이 있습니다. 다음은 AI 효율성에 대한 스냅샷입니다.

소스.

CPU는 인텔의 DLBoost에서도 0.1 TOPS/W, GPU 및 전용 가속기는 1TOPS/W 이상을 달성합니다. 예를 들어, 400W를 가정하면 엔비디아의 A100은 INT8의 경우 2TOPS/W의 효율을 가지고 있습니다. 반면, 인텔의 NNP-I는 10nm에서 5TOPS/W를 달성했으며 퀄컴의 클라우드 AI 100도 비슷한 효율성을 달성했습니다.

연구에 있는 더 '이국적인' 기술은 100 TOPS 또는 더 많은 것을 달성할 수 있었습니다. 예를 들어 인텔은 메모리 에 가까운 컴퓨팅 연구 칩을 설명했습니다. 물론, 연구와 상용화에 대한 격차는 종종 가파른 것이므로 언제 어떤 기술이 도입될지는 보장되지 않습니다.

CPU는 AI에서 왕남아

내가 주장 할 때마다, 사실, 인텔과 CPU는 AI의 왕, 의심의 이 부분을 넣어 대신 AI의 의심없는 지도자로 엔비디아를 넣어 주로 엔비디아 황소의 군대가있는 것 같다.

확실히, 엔비디아는 분명히 AI 교육 (AI 모델을 만드는)의 왕입니다. 그러나 CPU는 AI 추론(모델 사용)에서 왕으로 남아 있습니다. 증거 나 예에서, 아래는 페이스 북의(FB)교육 및 추론에 걸쳐 AI의 배포입니다.

 

 

 

페이스 북은 모든 AI 추론 작업에 CPU를 사용 하 고 심지어 그것의 훈련의 일부에 대 한. 인텔의 DLBoost 최적화에 대한 지속적인 투자를 감안할 때, 이것은 또한 변경될 가능성이 낮습니다.

금융

내 보기에, 엔비디아는 가장 큰 또는 AI에서 혜택을 유일한 회사: 인텔은 실제로 꽤 가까운 일치. 위에서 언급한 바와 같이 AI 시장과 워크로드는 AI 모델 교육과 AI 모델(추론)으로 나뉩니다.

엔비디아의 데이터 센터 수익은 주로 교육의 기량으로 인해 분기당 $ 1B의 순서입니다.

인텔의 AI 수익은 예측하기 가 더 어렵습니다. 그러나 인텔이 제공한 최신 데이터는 2019년에 모든 비즈니스에서 $3.8B였습니다. 즉, 이 수치에는 IoT 및 Mobileye와 같은 가장자리에 AI 수익도 포함됩니다. 2018년에는 데이터 센터에서 이미 거의 $2B에 불과했습니다.

여전히, 정확 하 게 사과-사과, $3.8B 그림 인텔이미 1 년 전 분기 당 $1B의 순서에 생성 했다 의미. 이 숫자는 그 이후로만 증가할 가능성이 높습니다.

어쨌든 AI의 미래에 대한 이전 섹션도 설명하기 위한 것이었기 때문에 곧 AI에 약세를 보이고 딥 러닝을 할 이유가 없어야 합니다.

결론

엔비디아는 '황의 법칙'을 발명함으로써 레거시 GPU에서 부터 최근 GPU에 이르기까지 속도와 효율성면에서 놀라운 스피드업을 달성하기 위해 등을 두드렸습니다. 법에 따르면 INT8 추론 성능은 매년 한 번의 속도로 두 배로 증가했으며 엔비디아는 법이 한동안 더 오래 지속될 것으로 예상합니다.

그러나 논의된 바와 같이 투자자들은 엔비디아의 의도적인 "법"이 매우 오해의 소지가 있다는 것을 알고 있어야합니다. 첫째, 엔비디아의 오래된 GPU는 INT8과 같은 기능을 지원하지 않습니다.이 새로운 시장에 대한 시장 유입으로 인해 도입되었습니다. 둘째, 엔비디아는 GPU에 전용 AI 텐서 코어를 투입함으로써 본질적으로 GPU를 용도변경하여 AI 가속기가 되었습니다.

순전히 재정적 관점에서, 엔비디아의 접근 방식은 다소 효율적 일 수있다 (그것은 단지 두 개의 매우 뚜렷한 시장을 해결하기 위해 하나의 칩을 개발해야), 하지만 성능 관점에서 칩의 "모든 거래의 잭, 없음의 마스터"종류의 발생할 수 있습니다.

또한, 엔비디아는 이러한 성능을 달성 할 수있는 유일한 회사가 아니다, 또한 전용 AI 실리콘을 만든 신생 기업 (인텔의 하바나포함)의 문자 그대로 수십이 있기 때문에. 레거시 GPU 기능이 없습니다. 마찬가지로 인텔은 DLBoost를 도입하고 소프트웨어를 개선함으로써 CPU에 대해 수백 번의 성능 향상을 달성했습니다. 이로 인해 인텔은 AI와 관련성이 매우 높았으며 실제로 수익 측면에서도 비슷한 규모를 달성했습니다. 2020년 인텔은 AI 텐서 블록으로 Stratix 10 NX FPGA를 출시하여 성능을 15배 향상시켰습니다. 다시 엔비디아의 텐서 코어와 비슷한 이득.

따라서 AI 전용 컴퓨팅 실리콘을 도입하여 성능이 단계적 향상을 달성하는 것은 엔비디아만의 고유하지 않습니다.

또한 업계와 학계 모두에서 다른 많은 혁신이 연구되고 있습니다. 이는 무어의 법칙보다 더 높은 비율로 개선을 계속할 수 있는 추가 경로를 제공할 수 있습니다. 첫 10년 동안 무어의 법칙도 매년 2배의 속도로 진행되었습니다.

따라서 이러한 산업 발전을 황씨의 법칙이라고 부르는 것은 의미가 없습니다. 엔비디아는 AI를 발명하지 않았고, 전용 NPU가 개발되기 전에 GPU가 CPU보다 빠르기 때문에 우연히 AI를 투자했습니다. 아마도 일부 신용에, 엔비디아는 AI에 최적화 된 실리콘을 상용화 하는 첫 번째 (텐서 코어), 시장에 모든 신생 기업 (구글의 TPU 제외) 이길. 그럼에도 불구하고 엔비디아는 이 일을 하는 유일한 회사와는 거리가 멀기 때문에 엔비디아의 CEO에게 부여된 용어를 정당화할 수 있는 개척자라고 할 수 없습니다.

마지막으로, AI에서 엔비디아의 지배력은 주로 훈련에 기반을 두고 있으며, 여전히 남아 있습니다. 추론에 없습니다. 추론에서, 황의 법칙이 실제로 무엇에 대해, CPU는 여전히 왕이다. 그래서 아마도 황의 법칙은 정말 크자니치의 법칙, 당시 인텔의 CEO라고해야합니다.

대신, 나는 오히려 인텔의 라자 코두리의 2018 제안을 보증할 것입니다, 이는 우리가 지금 '건축 시대'에 있다는 것입니다. 엔비디아가 적어도 동의함에 따라, 건축은 성능과 효율성을 지속적으로 개선할 수 있도록 중요성이 증가하고 있습니다.

피크 엔비디아

논의된 바와 같이, 엔비디아는 데이터 센터와 IoT의 우위를 점하고 Arm으로 CPU 비즈니스를 시작하여 인텔의 전략을 모방하기 시작했습니다. 물론 이는 다른 기업들이 동일한 (성장) 기회를 보고 있으며 AI와 같은 새로운 시장에서 경쟁하고 있음을 나타냅니다.

그럼에도 불구하고, 황의 법칙이라는 것을 소개함으로써 엔비디아는 모방 게임의 절정에 도달했을것입니다. 다른 사람들이 AI 속도를 높이는 데 있어 성과를 인식하기를 기다리지도 않았습니다. 그러나 엔비디아는 점점 더 높은 AI 성능을 추구하는 유일한 실체와는 거리가 멀기 때문에 엔비디아가 이것에 대해 인정받아야하는 기관이라는 사실은 의심스럽습니다. 퀄컴은 최근 엔비디아를 도약시켰습니다.

그 엔비디아는 절정에 도달 했을 수 있습니다., 그 끝에, 또한 그것의 시장 평가에서 볼 수 있습니다., 천문학에 상승 했다 ~$500B 쓰기의 시간에. 뿐만 아니라 이 약 두 번 인텔, 이는 몇 배 높은 수익과 수입을 가지고, 그것은 또한 ~ 20 x의 앞으로 P / S 비율과 ~ 51 x의 P / E를 나타냅니다, SaaS 회사처럼 매우 가치.

명백하게, 마이크로 소프트(MSFT)의좋아하는에 비해, 엔비디아는 "만"~ 1.5 배로 과대 평가 될 수 있습니다, 그 성장은 또한 높은 동안, 적어도 멜라녹스 인수와 암호 붐을 흡수하는 동안. 그럼에도 불구하고 시장은 약 10배의 P/E로 성장속도가 느려지는 동료 인 인텔을 평가하고 있습니다. 이것은 인텔이 저평가되어 있는지 여부를 논쟁할 수 있습니다. 두 번째 경우, 그래도, 시장은 결실에 올 수도 또는하지 않을 수 있습니다 성장의 전체 많은 가격.

이것은 엔비디아에 대 한 단점 위험이 거 대 한 의미.

사실, 과거는 이미 엔비디아에 투자와 관련하여 몇 가지 주의 이야기가 포함되어 있습니다. 몇 년 전, 암호화에 관한 유사한 과대 광고 주기가 있었다. 그 여파로 엔비디아의 성장이 무너졌고, 그 가치의 절반을 잃은 주식도 마찬가지입니다.

만약 다시 그런 일이 일어나고, 지난 몇 달 과 분기동안 암호화주위에 생성된 모든 과대 광고의 투자자를 생각나게 하는 것 외에는 아무것도 예측하지 않을 것이라는 점을 확신하기 위해, 엔비디아는 2020년 이후 대부분의 이익을 잃을 수 있습니다.

한편 AMD의 RDNA2와 CDNA2의 도입으로 경쟁이 크게 치열해졌으며, AMD가 경쟁력으로 복귀했습니다. 완전히 새롭고 자금이 잘 조달된 경쟁업체는 인텔과 함께 게임 및 AI(교육) 데이터 센터 사업에 모두 진출하고 있습니다. 인텔의 실행은 상대적으로 느렸지만, 새로운 CEO 팻 겔싱거는 인텔의 투자를 증가시켜 페달을 밟고 있다.

의심의 여지가 게임과 특히 AI는 성장을 계속하지만, 이것은 의미있는 시장 점유율 하락의 잠재력을 도입, 엔비디아의 성장을 둔화. 엔비디아의 ~ 60 % 총 마진도 보여주듯이, 그것은 리더십 실리콘에 대한 매우 무거운 프리미엄을 충전하고 있습니다. Pat Gelsinger가 "모든 카테고리에서 의심할 여지없는 리더십"(2024-2025년까지)의 목표가 결실을 맺고 고객이 더 저렴한 인텔 실리콘으로 이동할 수 있다면 이러한 마진은 상당한 압박을 받을 수 있습니다.

이들은 단지 헛되이 또는 멀리 엔비디아에 대 한 위협. 아마존(AMZN)AWS는 이미 곧 출시 할 인텔 하바나 인스턴스가 엔비디아 인스턴스에 비해 교육에 대한 성능 당 40 % 더 높은 가격을 가지고 있다고 주장했다. 비교는 엔비디아의 7nm 실리콘에 대한 하바나의 16nm 실리콘이며, 이는 엔비디아의 AI 칩이 용도가 변경되는 문서에서 기술적 인 논의의 일부를 입증. 또한, 인텔의 폰테 베키오 (TSMC의 최신 및 고급 5nm에서 제조 될 것으로 추정) 널리 지금까지 가장 실리콘 칩 중 하나로 서 평가 되고있다.

위험

요컨대, 곰 의 정문에 주요 위험은 엔비디아 주주가 주식의 천문학적 인 가격을 지불하는 무관심 남아있을 수 있다는 것입니다, 엔비디아는 성장을 계속으로. 이를 위해 칩 부족은 수요가 높고 계속 성장할 것으로 예상되기 때문에 회사에 대한 강세 신호로 볼 수 있습니다. 논쟁의 요점은 가격을 정당화하기 위해 성장이 장기적으로 얼마나 강한지입니다.

엔비디아 투자자들은 데이터 센터 의 성장을 촉진하는 지속적인 AI 확산에 힘입어 수년간 지속적인 성장을 이어가고 있습니다. 팔과 멜라녹스와 같은 인수로 인한 추가 성장; 다가오는 자율 주행 교통 혁명; 그리고 게임과 같은 레거시 비즈니스. 인텔과 같은 경쟁업체들이 추구하는 성장 부문이라는 것은 의심의 여지가 없습니다. '피크 엔비디아'는 오히려 시장 평가를 의미합니다.

그러나 '피크 엔비디아' 론서의 위험은 이러한 가능한 주식 수축이 발생하기 위해 경쟁업체가 상당한 시장 점유율을 차지하여 일반 시장 성장을 상쇄해야 한다는 것입니다. 시장 선두 주자로서, 텐서 코어와 같은 기능의 빠른 도입에 의해 보여, 그것은 엔비디아실제로 일어날 것이다 정도로 중단 될 수 있다는 의심 스러울 수 있습니다.

또한 경쟁업체가 퀄컴 클라우드 AI 100, 하바나 또는 인텔의 폰테 베키오와 같이 훨씬 더 나은 제품을 출시할 수 있더라도 엔비디아가 시장 점유율에 크게 해로운 금액을 잃을 것이라고 는 보장되지 않습니다. 예를 들어 CPU AMD의 경우 이미 몇 년 동안 리더십 위치를 차지했지만 데이터 센터에서 여전히 10% 미만의 시장 점유율을 차지하고 있습니다.

이것은 시장 리더가 실제 기술 리더인지 아닌지 여부에 관계없이 실질적인 관성으로부터 이익을 가져다 주는 것을 보여줍니다.

따라서 일반적으로 엔비디아가 인텔이 CPU에서 와 같이 주요 부문에서 비슷한 위치를 유지한다면 간단한 관성은 다른 사람들이 시장 점유율을 방해하지 못하게 하여 여기에 설명된 대로 피크 엔비디아 시나리오를 방지할 수 있습니다.

투자자 테이크 아웃

두 주요 반도체 회사(엔비디아와 인텔)가 불가피한 경쟁의 길을 걷고 있다는 일반적인 사례는 9월에 설명된 대로 계속 진행되고 있습니다.

최근에는 전설적인 무어의 법칙과 비교하면서 "황의 법칙"을 발명함으로써 엔비디아의 휴브리스가 절정에 이르렀을 것이라고 주장했습니다. 마찬가지로, 나는 너무 확고한 주식 예측을하지 않지만, 확실히 엔비디아의 평가도 절정에 도달했다는 주장이있을 수 있습니다. 이를 위해, 반드시 AI (업계에서 가장 밝은 성장 전망 중 하나 남아) 하지만 오히려 암호화 과대 광고는 지금부터 아마도 몇 분기에 주식에 대 한 문제를 일으킬 수 있습니다.

 
반응형
  • 네이버 블러그 공유하기
  • 네이버 밴드에 공유하기
  • 페이스북 공유하기
  • 카카오스토리 공유하기