Автомобили перестают быть средствами передвижения, а в дальнейшем они вообще могут стать ИИ-суперкомпьютерами на колесах, а это значит, что им потребуется оперативной памяти больше, чем в топовых рабочих станциях. Micron прогнозирует, что машины с автопилотом четвертого уровня (L4) будут нуждаться в более чем 300 ГБ RAM. Если производители начнут выпускать такие авто массово, рынок памяти ждет новый виток дефицита.

Генеральный директор Micron Санджай Мехротра сделал это заявление после публикации квартального отчета компании: $23,86 млрд выручки за второй квартал 2026 года — рост на 200% по сравнению с $8,03 млрд годом ранее. Причина в бешеном спросе на высокомаржинальные HBM-чипы со стороны AI-гиперскейлеров в сочетании с ограниченным предложением.
Новые фабрики — не спасение?
Micron уже строит новые заводы в Японии, Сингапуре и «мегафабрику» в Нью-Йорке. Проекты должны заработать в 2028–2029 годах. В 2026-м компания планирует нарастить выпуск на 20%, что немного ослабит давление на рынок.
Но, по словам Мехротры, даже этих мощностей может не хватить, когда в игру вступит новый потребитель памяти — автомобильная промышленность.
Уровни автономности: от L0 до L4
| Уровень | Описание | Пример |
| L0 | Нет автоматизации | Обычный автомобиль |
| L1 | Одна автоматизированная система | Круиз-контроль |
| L2 | ADAS управляет рулем и ускорением | Tesla Autopilot, Cadillac Super Cruise |
| L3 | Условная автоматизация, водитель нужен для вмешательства | Некоторые Mercedes |
| L4 | Высокая автоматизация — водитель не нужен в большинстве сценариев | Waymo, Nvidia Drive Hyperion |
L4-автономность означает, что машина сама принимает решения: обгонять, перестраиваться, проезжать сложные перекрестки. Человек может вмешаться, но в обычном режиме не требуется.
Сколько памяти нужно автомобилям?
Сегодня большинство машин довольствуются 16 ГБ оперативной памяти. Но L4-автономность — это полноценный AI-компьютер, который обрабатывает данные с десятков камер, лидаров и радаров в реальном времени.
Micron прогнозирует, что такие автомобили потребуют более 300 ГБ RAM. Для сравнения:
- Mac Studio с 512 ГБ унифицированной памяти стоила $4000, пока Apple не сняла ее с продажи.
- Топовые рабочие станции для AI-разработки обычно имеют 128–256 ГБ.
- Серверы для обучения нейросетей — сотни гигабайт HBM.
Кто уже готовится
Nvidia объявила о сотрудничестве с китайскими автопроизводителями BYD и Geely, а также японскими Isuzu и Nissan для внедрения платформы Nvidia Drive Hyperion — комплексного решения для L4-автономности. Это AI-система, которая, по логике, будет требовать огромных объемов высокоскоростной памяти.
Риск нового дефицита
Если автопроизводители начнут выпускать L4-автомобили миллионными тиражами, спрос на память взлетит до небес. При этом производственные мощности уже сейчас загружены под AI-сектор. Новые фабрики Micron заработают только через 2–3 года. Автомобили требуют не только объемов, но и автомобильного класса надежности, что усложняет производство
Рынок уже видел, что происходит, когда спрос резко превышает предложение: цены на оперативную память в 2025 году выросли на сотни процентов, а 32-гигабайтные наборы DDR5 исчезли из продажи. Следующий виток дефицита может быть еще более масштабным — на этот раз из-за автомобилей.