«Вход — электроны, выход — токены, посередине — NVIDIA»: Дженсен Хуанг объясняет, почему его компанию невозможно заменить
Разбор интервью главы NVIDIA Дваркешу Пателю: ментальная модель бизнеса, supply chain moat, спор о Китае, ошибки с Anthropic и будущее токеномики
«Вход — электроны, выход — токены, посередине — NVIDIA»: Дженсен Хуанг объясняет, почему его компанию невозможно заменить
15 апреля 2026 года Дженсен Хуанг сел напротив Дваркеша Пателя — парня, который за последние пару лет превратил свой подкаст в место, куда приходят говорить люди уровня Терренса Тао, Дарио Амодеи и основателей DeepSeek. Пятель задаёт вопросы так, как будто готовился к ним полгода (он и готовился). Гости не могут отделаться общими фразами.
И вот этот разговор с Хуангом — 90 минут, которые стоит разобрать. Не потому что он рекламирует Vera Rubin (он рекламирует, конечно). А потому что это редкий случай, когда CEO компании стоимостью $3,5 триллиона объясняет свою ментальную модель бизнеса, признаёт ошибки и на полном серьёзе спорит о геополитике, не переключаясь в режим пресс-релиза.
Я вытащил субтитры, перечитал транскрипт на сайте Дваркеша, прошёлся по источникам, которые упоминаются в разговоре, и проверил ключевые цифры. Вот что получилось.
Электроны → токены: самая ёмкая метафора в tech
Дваркеш начинает разговор с провокационного вопроса. Суть: NVIDIA отправляет GDS2-файлы на TSMC, TSMC делает чипы, SK Hynix делает память, тайваньский подрядчик собирает стойки. Получается, NVIDIA — это, по сути, софтверная компания. А если AI коммодитизирует софт, не коммодитизирует ли он и NVIDIA?
Хуанг отвечает фразой, которая, мне кажется, войдёт в учебники по стратегии:
«Вход — электроны. Выход — токены. Посередине — NVIDIA. Наша задача — делать столько, сколько необходимо, и так мало, как только возможно, чтобы это превращение происходило с невероятной эффективностью.»
Это не пафос ради красоты. Это рабочая метафора, которая объясняет всю бизнес-модель компании. «Делать так мало, как только возможно» — значит всё, что NVIDIA не обязана делать сама, она отдаёт партнёрам. Облака? Пусть будут CoreWeave, Nebius, Nscale. Модели? Пусть строят OpenAI и Anthropic. Серверы? Пусть собирают ODM. NVIDIA концентрируется на том, что без неё не произойдёт: архитектура чипов, CUDA-стек, NVLink, Spectrum-X.
А дальше он добавляет кое-что менее очевидное: само превращение электрона в токен — это не инженерная задачка с известным решением. Это «путешествие», в котором «наука далека от полного понимания, и дорога далека от завершения». Перевожу с корпоративного: мы ещё даже не знаем, какие алгоритмы будут работать через два года, поэтому нужна гибкая, программируемая архитектура, а не захардкоженный ASIC.
Supply chain как оружие: как Дженсен «продаёт будущее» поставщикам
Дваркеш приводит цифру из отчётности: почти $100 миллиардов в purchase commitments с литейщиками, памятью и упаковщиками. SemiAnalysis оценивает реальную цифру в $250 миллиардов. Вопрос: это и есть настоящий moat NVIDIA? Просто забронировали дефицитные компоненты на годы вперёд?
Хуанг соглашается, что это одно из преимуществ, но объясняет механику. Часть обязательств — явные контракты. Часть — неявные: поставщики сами инвестируют в расширение мощностей, потому что Хуанг лично убеждает их CEO. Буквально: «Я объясняю им, какой будет индустрия, почему она будет именно такой, и как я это вижу. И они готовы вкладываться.»
Это, кстати, отдельный навык, который мало кто обсуждает. Хуанг превратил GTC из конференции с анонсами в площадку, где upstream (TSMC, SK Hynix, ASML) встречает downstream (AWS, Google, Meta, тысячи стартапов). Каждый видит масштаб экосистемы и понимает, что спрос реален. По словам Хуанга, его кейноуты специально содержат «образовательную» часть, которая кажется затянутой — но на самом деле она нужна, чтобы вся цепочка поставок «могла рассуждать системно, как рассуждаю я».
Конкретный пример: история с Micron. Хуанг вспоминает встречу с CEO Санджаем Мехротрой, на которой «чётко объяснил, что произойдёт и почему». Micron удвоил ставку на HBM-память. Результат — «это было грандиозно для компании». Кто пришёл позже, тоже пришёл. Но первые получили преимущество.
Ещё одна деталь: когда возникают bottleneck’и в цепочке — будь то CoWoS-упаковка, HBM или оптика — NVIDIA «сваливается» на проблему всеми ресурсами. CoWoS два года назад был узким местом. Его «удвоили, удвоили, и ещё раз удвоили». Сейчас TSMC масштабирует CoWoS с той же скоростью, что и логику. Проблема решена.
А какое узкое место самое сложное? Хуанг смеётся: «Сантехники. Сантехники и электрики.» Физическая инфраструктура дата-центров. Людей, которые тянут трубы и кабели, нельзя масштабировать как литографию. «Сантехников пригласим на следующую GTC», шутит Дваркеш. «Отличная идея, кстати», отвечает Хуанг без тени иронии.
TPU, Trainium и ASIC: почему Хуанг не боится конкурентов (и его аргумент сильнее, чем кажется)
Дваркеш заходит с сильной позиции: две из трёх лучших моделей в мире — Claude и Gemini — обучены на TPU. Если Google тренирует Gemini на TPU и Anthropic перешла на Trainium, что это значит для NVIDIA?
Ответ Хуанга строится на трёх уровнях.
Первый: масштаб рынка. NVIDIA строит не tensor processing unit, а accelerated computing — платформу для любых вычислений: молекулярная динамика, квантовая хромодинамика, обработка данных, физика частиц, и да, AI тоже. «Наш рыночный охват куда шире, чем у любого TPU или ASIC.»
Второй: программируемость. Дваркеш цитирует AI-исследователей, которые говорят: TPU — это большой систолический массив, идеальный для matrix multiply; GPU — гибкий, но тратит площадь кристалла на планировщики потоков. AI — это же просто матричные умножения? Зачем лишняя гибкость?
Хуанг не соглашается: «Matrix multiply — важная часть AI, но не единственная.» Если вы хотите изобрести новый механизм внимания, создать гибрид SSM и трансформера, сделать fusion diffusion + autoregressive — вам нужна программируемая архитектура. Именно благодаря гибкости CUDA прирост Blackwell над Hopper составил 50x по энергоэффективности. Закон Мура даёт ~25% в год. Остальное — алгоритмы, MoE, новые ядра, системный co-design. На TPU вы привязаны к тому, что было заложено при проектировании. CUDA позволяет менять всё на лету.
И кстати, цифра 50x подтверждается: SemiAnalysis’ Дилан Пател написал статью, где Хуанг «занизил» первоначальные 35x — реальный прирост оказался ещё больше.
Третий: бенчмарки. Хуанг прямо вызывает конкурентов: «Есть InferenceMAX от SemiAnalysis — открытый бенчмарк инференса. TPU не приходит. Trainium не приходит. Есть MLPerf. Я бы с удовольствием увидел, как Trainium продемонстрирует свои “40% экономии”, о которых они постоянно говорят. Но никто не приходит.»
«Anthropic — единичный случай, а не тренд»
Дваркеш давит: хорошо, если NVIDIA лучшая по TCO, почему тогда Anthropic уходит на TPU и Trainium?
Хуанг отвечает неожиданно прямо: «Anthropic — уникальный случай, не тренд. Без Anthropic зачем бы вообще рос TPU? Это 100% Anthropic. Без Anthropic зачем бы рос Trainium? Это 100% Anthropic.»
А дальше объясняет, почему так получилось. И здесь начинается самая человечная часть интервью.
«Давным-давно у нас просто не было возможности это сделать.» Когда Anthropic и OpenAI нуждались в миллиардных инвестициях на ранней стадии, NVIDIA не была в позиции вкладывать такие деньги. Google и AWS вложили — и получили эксклюзивность на использование своего compute.
«Моя ошибка: я не осознал до конца, насколько сложно построить компанию масштаба Anthropic, и что VC никогда не вложат $5–10 миллиардов в AI-лабораторию с надеждой, что из неё вырастет Anthropic. Это было их гениальным ходом. Они поняли тогда то, чего не понял я.»
Факты подтверждают: NVIDIA потом инвестировала $30 миллиардов в OpenAI (изначально обсуждались $100 миллиардов, но сделку масштабировали вниз) и $10 миллиардов в Anthropic. Но было уже поздно для эксклюзивности. Хуанг добавляет: «Даже если Anthropic пошла к другим — я рад, что она существует. Anthropic — это хорошо для мира.»
При этом инвестиционная стратегия NVIDIA выглядит любопытно: инвестировать во всех, не выбирая победителей. Почему? Хуанг приводит историю из собственного прошлого: «Когда NVIDIA появилась, было 60 компаний 3D-графики. Мы единственные выжили. Если бы вы спросили, кто из 60 выживет, NVIDIA была бы первой в списке тех, кто не выживет. Наша архитектура была точно неправильной. Не немного неправильной — точно неправильной.»
Отсюда принцип: никогда не угадаешь, кто победит. Либо помогай всем, либо не помогай никому.
Почему NVIDIA не становится облаком
Логичный вопрос Дваркеша: у вас горы кэша, GPU в дефиците, middleman-экосистема (CoreWeave, Crusoe, Lambda) конвертирует CapEx в OpEx и зарабатывает на этом. Почему бы NVIDIA самой не стать гиперскейлером?
Ответ — та же формула: «делай столько, сколько нужно, и так мало, как возможно».
«Если бы мы не создали NVLink так, как мы его создали, не построили весь стек, не посвятили себя 20 годам CUDA, теряя деньги большую часть этого времени — никто другой бы этого не сделал. Я абсолютно в этом уверен. Но облаков в мире и без нас достаточно. Если бы я не делал это, кто-нибудь появился бы.»
При этом NVIDIA активно поддерживает «неооблака»: CoreWeave, Nebius, Nscale. Без поддержки NVIDIA они бы не существовали. Но это не финансирование как бизнес-модель. Это экосистемный подход: «Мы хотим, чтобы наша архитектура и AI были доступны в как можно большем количестве индустрий и стран, и чтобы планета строилась на AI и на американском tech-стеке.»
Китай: 40 минут дебатов, и никто не победил
Это самая горячая часть интервью. Дваркеш приводит аргумент со стороны ястребов: Anthropic только что выпустила Claude Mythos Preview — модель с такими кибернаступательными возможностями, что компания не рискнула выложить её в открытый доступ. Mythos нашла тысячи zero-day уязвимостей во всех основных ОС и браузерах, включая баг в OpenBSD, который существовал 27 лет. Если Китай получит достаточно compute для обучения аналогичной модели и запустит миллионы её инстансов, не станет ли это угрозой национальной безопасности?
Хуанг парирует с нескольких сторон одновременно.
Аргумент 1: Mythos обучалась на «обычных» мощностях. «Это экстраординарная компания, но объём и тип compute, на которых она обучалась, в изобилии доступен в Китае.»
Аргумент 2: AI — это пятислойный торт. Нижний слой — энергия. У Китая энергии в избытке. «Когда у тебя бесконечно много ватт — зачем тебе performance-per-watt? Ты просто ставишь в 4–10 раз больше чипов.» 7-нм чипы — это примерно уровень Hopper. Большинство сегодняшних моделей обучены на Hopper. Значит, 7 нм вполне достаточно.
Аргумент 3: Huawei уже поставляет миллионы чипов. «У Huawei только что был рекордный год. Миллионы чипов. Это больше, чем у Anthropic.» (Дваркеш пытается возразить про bandwidth HBM2 vs HBM3e — Хуанг отвечает: «Huawei — сетевая компания. Они уже продемонстрировали silicon photonics для объединения compute в один суперкомпьютер.»)
Аргумент 4: компьютерная наука важнее транзисторов. Закон Мура даёт 25% в год. Но алгоритмические прорывы дают 10x. MoE, механизмы внимания, дистилляция — это всё computer science. А 50% AI-исследователей мира — китайцы. «DeepSeek — это не мелкий шаг вперёд. В тот день, когда DeepSeek выйдет сначала на Huawei — это будет ужасный исход для нашей страны.»
Аргумент 5: уступить рынок — не стратегия. Китай — 40% мирового технологического рынка. Отдать его — «это плохая услуга стране, плохая услуга национальной безопасности, плохая услуга технологическому лидерству. И всё ради выгоды одной компании.» (Намёк, видимо, на Huawei, которая выигрывает от санкций.)
Хуанг сравнивает с телеком-индустрией: политика экспортных ограничений привела к тому, что «американская телекоммуникационная индустрия была фактически выжата из мирового рынка, до такой степени, что мы больше не контролируем собственные телекоммуникации».
Дваркеш не сдаётся и цитирует Дарио Амодеи: «Это как если бы Boeing хвастался, что мы продаём Северной Корее ядерные боеголовки, но корпуса-то делает Boeing.»
Хуанг: «Сравнивать AI с чем бы то ни было из того, что вы перечислили — это безумие.» И чуть позже: «Отношение проигравшего — мол, мы всё равно проиграем этот рынок — для меня лишено смысла. Вы сейчас разговариваете не с человеком, который проснулся утром проигравшим.»
Независимо от того, на чьей вы стороне, дебат показывает одну вещь: единственного правильного ответа нет. Есть trade-off между краткосрочной безопасностью (ограничить compute) и долгосрочным технологическим лидерством (не отдавать рынок). Хуанг делает ставку на второе. Амодеи — на первое. Оба по-своему правы, и оба могут оказаться неправы.
Groq, premium-токены и сегментация рынка инференса
Ближе к концу разговор заходит о том, почему NVIDIA купила Groq за ~$20 миллиардов (лицензировала технологию + наняла команду, если точнее).
Хуанг объясняет: раньше все токены стоили примерно одинаково — дёшево или вообще бесплатно. Но рынок созрел. Появились клиенты, которым нужны быстрые токены и которые готовы за них платить. Пример: инженеры-разработчики. Если дать им более отзывчивые токены, их продуктивность вырастет, и компания заплатит premium.
Это создаёт новый сегмент: не «максимум throughput», а «максимум responsiveness при допустимом throughput». NVIDIA расширяет Парето-фронтир. Groq отлично подходит: их LPU-архитектура оптимизирована именно под low-latency инференс.
Хуанг подчёркивает: это не альтернативная архитектура. Groq будет интегрирован в экосистему CUDA. Не «вместо», а «в дополнение к».
«Если бы deep learning не случился»
Финальный вопрос Дваркеша: «Представьте, что deep learning revolution не произошла. Чем бы занималась NVIDIA?»
Хуанг: «Accelerated computing. То же самое, чем мы занимались все эти годы.» Молекулярная динамика, обработка сейсмических данных, компьютерная графика, вычислительная литография. «Даже без AI, NVIDIA была бы очень большой компанией. Потому что эра general purpose computing по большому счёту закончилась.»
И добавляет неожиданно тепло: «Без AI мне было бы очень грустно. Но благодаря тому, что мы сделали в compute, мы демократизировали deep learning. Мы сделали так, чтобы любой исследователь, любой студент мог взять GeForce-карту и заниматься невероятной наукой.»
Что из этого следует
Вот что я вынес из этого интервью.
NVIDIA — это не чип-компания. Это оператор экосистемы. Чипы — инструмент. Настоящий актив — сотни миллионов GPU в мире, CUDA-стек, отношения с поставщиками, десятки тысяч AI-стартапов, которые строят на этой платформе. Flywheel работает: чем больше install base, тем больше разработчиков, тем больше фреймворков, тем больше причин покупать NVIDIA.
Философия «делай так мало, как только возможно» — контринтуитивная, но мощная. Хуанг сознательно не превращает компанию в конгломерат. Он не строит облако, не создаёт AI-модели, не покупает ODM. Концентрация на одном слое стека и партнёрство на всех остальных — это то, что позволяет NVIDIA иметь 70%+ маржинальность.
Китай — тема, которая определит следующее десятилетие. И аргументы обеих сторон разумны. Хуанг прав, что полная изоляция ускоряет развитие альтернативного китайского стека. Ястребы правы, что compute — это input для моделей с наступательными кибервозможностями. Нюансированная политика необходима, но мир плохо справляется с нюансами.
Ошибки можно признавать, даже если вы стоите $3,5 триллиона. Хуанг открыто говорит, что не понял вовремя необходимость инвестировать в AI-лаборатории. Не оправдывается, не переводит стрелки. «Я бы сделал это раньше, если бы мог.» В мире, где каждый CEO — непогрешимый стратег, это освежает.
Полный транскрипт: dwarkesh.com/p/jensen-huang
Видео: YouTube