"Дефіцит пропозиції" є головним пріоритетом інвестиційної тематики AI, а оптичні інтерконекти та чіпи пам'яті по праву вважаються "найжорсткішими технологічними трендами".
За інформацією Zhìtōng Caijing, цього тижня європейський фінансовий гігант BNP Paribas опублікував свіже аналітичне дослідження, у якому зазначається: на фоні активного будівництва ультравеликих AI дата-центрів світу, найбільший інвестиційний потенціал, за оцінками цієї європейської установи, полягає у двох основних технологічних напрямках — оптична взаємозв’язок і чіпи пам’яті, які наразі перебувають у стані гострого "дефіциту". У майбутньому незалежно від того, йдеться про AI GPU інфраструктурні кластери Nvidia чи TPU-кластери Google (TPU — це технологічний шлях AI ASIC), всі вони не можуть обійтися без найсучаснішого оптичного взаємозв’язку та високопродуктивних чіпів пам’яті для дата-центрів.
BNP Paribas відзначає, що компанії Arista Networks (ANET.US), Fabrinet (FN.US) та Ciena (CIEN.US), які працюють у сферах оптичного взаємозв’язку для AI дата-центрів/DCI/когерентної оптичної комунікації/оптичної передачі, є найпривабливішими технологічними акціями у переддень виходу звітів про прибутки технологічних компаній, оскільки інвестори зараз в першу чергу вибирають акції тих компаній, що виробляють ключові апаратні компоненти AI дата-центрів, що залишаються в стані хронічного дефіциту. Зокрема, це акції компаній, пов’язаних з оптичною технологією як вузькоспеціалізованою AI-інвестиційною темою, а також – як виділяє BNP Paribas – іншою гарячою інвестиційною темою, що виграє від хвилі AI-інфраструктурного будівництва, — чіпи пам’яті.
За даними BNP Paribas, іншими провідними технологічними акціями до початку сезону публікації звітності на американському ринку стають Celestica (CLS.US), Seagate (STX.US), Broadcom (AVGO.US), Credo (CRDO.US), MACOM (MTSI.US), Coherent (COHR.US), а також Marvell Technology (MRVL.US), які вирізняються на фоні стійкого попиту, пов’язаного з AI; Крім того, за оцінкою BNP Paribas, цільова ціна акцій Broadcom протягом наступних 12 місяців може сягнути $600, того часу як у середу на закритті ринку ціна акцій цього технологічного гіганта підскочила більш ніж на 4% до $396.720.
"Дефіцит" — це найвищий пріоритет
Старший аналітик акцій відділу досліджень BNP Paribas Карл Акерман заявив у нещодавньому звіті для інвесторів: “Ширша інвестиційна тема AI-інфраструктури в цілому залишається на висхідній траєкторії напередодні сезону звітності, що підкреслює, як ринки ігнорують геополітичний шум і знову цілком зосереджуються на безпрецедентному AI-бумі інфраструктури, який може призвести до сплеску прибутковості низки технологічних компаній". “
Однак порівняно з найважливішими AI-серверами та високопродуктивним Ethernet-мережевим обладнанням, інвестори зараз надають перевагу в першу чергу компонентам дата-центрів, котрі переживають гострий дефіцит і можуть залишатися у стані тривалого дефіциту упродовж наступних 2 років — наприклад, мікросхеми пам’яті та ключові оптичні компоненти. "Ми підвищуємо прогнози зростання для низки xPU, що веде до апгрейду оцінки для високопродуктивних мережевих комутаторів, HBM і оптичних трансиверних компонентів, і відповідно — до підвищення цільових цін для наших покритих технологічних компаній. Ми залишаємося дуже позитивними щодо сегментів пам’яті та оптики, таких як HDD та оптичні модулі, CPO, OCS оптичні компоненти", — додав Акерман.
BNP Paribas наразі прогнозує, що до 2028 року загальний об’єм цільового ринку для великих комутаторів дата-центрів і оптичних трансиверів перевищить $140 мільярдів.
Водночас, компанія Lumentum (LITE.US), яка є ключовим учасником “ланцюга AI потужностей TPU Google” і незамінним постачальником ключових оптичних/оптичних модульних компонентів для “ланцюга AI GPU потужностей Nvidia й AMD”, нещодавно оголосила, що її портфель замовлень може бути розписаний до 2028 року, а Nvidia вже наперед забезпечила собі більшість виробничих потужностей виділенням $2 мільярдів.
Генеральний директор Lumentum Майкл Херлстон заявив, що капітальні витрати американських гіперскейлерів (хмарних провайдерів) величезні та, схоже, не мають тенденції до зниження: “ми дедалі більше відстаємо від попиту. Очікуємо, що протягом двох кварталів наші виробничі потужності на період до кінця 2028 року будуть повністю розписані”.
Акерман у дослідженні додає: “Наш глибокий аналіз понад 50 різновидів DRAM SKU і 75 різновидів NAND SKU на контракти першого кварталу поточного календарного року дозволяє нам прогнозувати, що на фоні стрімкого зростання попиту на AI-сервери середня контрактна ціна DRAM у першому кварталі може вирости у квартальному вираженні на 90%, а у другому кварталі — ще на 24%, навіть за консервативною оцінкою”. “Щодо NAND, ми очікуємо, що на тлі сприятливого розподілу біт для корпоративних рішень пам’яті та обережного нарощування потужностей середня контрактна ціна у першому кварталі зросте на 80% QoQ, а у другому кварталі — ще на 30%. На нашу думку, динаміка попиту й пропозиції для HDD є найбільш сталою, і з масовим впровадженням технології HAMR об’ємом 40 ТБ у другій половині 2026 року прибутковість Seagate має значно перевищити середньоринковий рівень.”
Головне припущення Волл-стріт стосовно динаміки попиту й пропозиції для чіпів пам’яті полягає у тому, що дефіцит HBM-пам’яті та NAND-флеш може зберігатися до 2028 року, а ринок і досі недооцінює траєкторію зростання прибутків виробників чіпів пам’яті у цій хвилі. Саме тому із початку 2026 року акції SanDisk (闪迪) значно виросли в ціні та протягом року зазнали екстремально високої переоцінки — це не проста емоційна гра, а процес переоцінки “AI-драйвери ціноутворення в пам’яті”. Упродовж усього 2025 року акції SanDisk виросли аж на 580%, а цьогоріч продовжують легендарне ралі “глобального чіпу пам’яті” — із початку року зросли вже на 300%, ставши беззаперечним “суперлідером” AI-інфраструктурної тематики на світових ринках.
Оптичний взаємозв’язок і пам’ять фактично пожинають усі плоди AI-інфраструктури! Незалежно від переваг технологій GPU Nvidia чи TPU Google, обидві можуть продовжити бичачий тренд
У AI дата-центрах висуване на передній план не тільки потреба у потужності, а насамперед — переведення даних між стелажами, pod-а та кластерами. Коли кластери з десятків тисяч GPU/TPU переходять на ще більший рівень, вузьким місцем швидко стають не індивідуальні чіпи, а пропускна здатність, затримка мережі й енергоспоживання; саме це CNBC відзначали Broadcom, Coherent і Lumentum на OFC 2026 як ключовий напрям розвитку: від 102.4T-комутаторів до 400G/lane оптичних DSP, і до 1.6T та навіть 3.2T оптичних модулів у майбутньому — усе це спрямовано на вирішення проблем “стіни пропускної здатності” та “стіни енергоспоживання” для ще масштабніших AI-кластерів.
І для TPU-, і для GPU-кластерів характерна одна спільна риса: дата-центрам потрібен надвисокий bandwidth, ультранизька затримка й дуже висока енергоефективність для внутрішніх взаємозв’язків. Традиційні мідні кабелі або електронна комутація при масштабуванні до тисяч чи десятків тисяч чіпів призводять до вибухового зростання енергоспоживання та тепловтрат і вже не відповідають вимогам. Технології оптичного зв’язку (зокрема спільнопакетовані оптичні CPO, кремнієві оптичні комутатори, OCS — оптичні перемикачі) замінюють електричні сигнали на оптичні, значно підвищуючи щільність пропускної здатності та енергоефективність, а також знижуючи затримки й енергоспоживання в масштабних AI-мережах тренування/інференсу. Саме зростання потреби у більш містких оптичних взаємозв’язках є спільною рисою для всіх кластерів GPU і TPU.
Найновіші анонси Broadcom, Coherent і Lumentum одностайно вказують на одне: 1.6T вже виходить із розряду “об’єкта досліджень” до порогу масового виробництва, 400G/lane стає новою фізичною основою для 3.2T, 12.8T і більших AI-кластерів, а найсучасніші технології “оптичної науки” — CPO та OCS — все частіше з опції перетворюються на необхідність для AI fabric (мережі оптимізованої для навантажень штучного інтелекту дата-центрів).
“Суперцикл пам’яті” став однією з найміцніших AI-інвестиційних ліній завдяки тому, що HBM/DRAM/NAND стали не просто циклічними товарами, а одним з найбільш дефіцитних ресурсів для побудови обчислювальної потужності. Останній висновок BNP Paribas чітко вказує: інвестиції перед сезоном звітності більше спрямовуються у дефіцитні чіпи пам’яті та оптичну тематику, а не суто у самі AI-процесори; TrendForce прогнозує, що ціна контрактів на DRAM для серверів виросте у першому кварталі 2026 р. на рекордні 90% QoQ, а пам’яті-гігант SK Hynix стверджує, що AI-бум продовжує підвищувати ціни як на сучасну, так і на традиційну пам’ять, штовхаючи її прибуток на нові максимуми.
Якою би потужною не була AI-інфраструктура GPU/TPU, якщо немає пропускної здатності від HBM, корпоративного NAND та ємких HDD для чекпойнтів тренування, векторних баз даних та озер даних для інференсу, то вся AI-інфраструктурна платформа не зможе забезпечити максимальну ефективність навантажень; тому світові фінансові ринки готові оцінювати пам’ятний ланцюжок за вищими коефіцієнтами, оскільки власне тут концентрується ефект “зростання кількості + зростання ціни + тривала обмеженість пропозиції”, а не лише проста динаміка збуту.
Відмова від відповідальності: зміст цієї статті відображає виключно думку автора і не представляє платформу в будь-якій якості. Ця стаття не повинна бути орієнтиром під час прийняття інвестиційних рішень.
Вас також може зацікавити
Установа: золото є якісним ліквідним активом і виконує свою належну роль

Коливання SATS (1000SATS) за 24 години досягло 44,9%: обсяг торгів зріс на 340% і спричинив відновлення
ORDI (ORDI) за 24 години коливання 85,7%: обсяг торгів різко зріс у понад 10 разів, що спричинило сильний відскок
ALCH (AlchemistAI) 24-годинна амплітуда 58,3%: різке зростання обсягу торгів і коротке стискання ф'ючерсів
