Рік тому DeepSeek усіх вразив. Де компанія сьогодні?
Майже рік тому про DeepSeek говорили всі — класний AI за мало грошей. Акції західних технологічних компаній різко впали, ринок у паніці — нізвідки взялась модель від маловідомої на той момент китайської AI-лабораторії, яка поставила під сумнів уявлення про домінування США.
- Nvidia обвалилася на 17%, втративши майже $600 млрд ринкової капіталізації.
- Американський виробник чипів Broadcom також просів на 17%, а ASML втратила 7% за один день.
Рік потому все інакше: Nvidia у жовтні стала першою компанією з оцінкою $5 трлн, акції Broadcom зросли на 49% упродовж 2025 року, а ASML додала 36%. А DeepSeek випустила сім оновлень моделей. Жодне з них не викликало хвиль, подібних до січневих. Чому ж ринки не відреагували?
Фактор шоку
Заснована у 2023 році, DeepSeek наприкінці 2024-го представила безкоштовну open-source велику мовну модель V3, заявивши, що вона була навчена на менш потужних чипах і за значно нижчої вартості, ніж моделі OpenAI чи Google.
За кілька тижнів, у січні 2025 року, компанія випустила reasoning-модель R1, яка досягала схожих або навіть кращих показників, ніж багато провідних світових LLM.
«Січневий реліз китайської лабораторії справді здивував ринок. Тодішній наратив полягав у тому, що Китай відстає від США на 9–12 місяців», — говорили експерти.
Обіцянка моделі з аналогічними результатами, але з меншими обчислювальними витратами, викликала побоювання, що попит на AI-інфраструктуру скоротиться, а доходи таких компаній, як Nvidia, постраждають.
Втім, цього не сталось. Перший шок пройшов, а всі релізи DeepSeek після січня були радше оновленнями V3 і R1, а не принципово новими моделями. Хоча останні випуски є «переконливими кроками вперед» з погляду ефективності та можливостей, ринок сприйняв їх як «продовження і консолідацію, а не нову шокову хвилю».
- Однією з причин відсутності нової великої моделі можуть бути обмежені обчислювальні ресурси, вважають аналітики.
- DeepSeek відклала реліз моделі R2, запланований на травень, через труднощі з її навчанням на вітчизняних чипах Huawei.
- Китайська влада заохочувала DeepSeek використовувати ці процесори, прагнучи зменшити залежність від американських альтернатив на тлі експортних обмежень на найпотужніші чипи Nvidia.
- Експерти певні: щоб будувати передові моделі, потрібен доступ до передових обчислень». У DeepSeek їх у потрібні кількості не було, нещодавно компанія сама визнала існування певних обмежень.
Ринок заспокоївся
Ринки перестав хвилюватись на тлі нових релізів від західних frontier-лабораторій.
- OpenAI представила GPT-5;
- Anthropic випустила Claude Opus 4.5;
- Google у листопаді запустила Gemini 3.
Як наслідок, американські компанії знову почали конкурувати між собою, видаючи першокласний продукт.
Втім, є ознаки, що DeepSeek готується до більш значного релізу в найближчі місяці. У новорічну ніч компанія опублікувала роботу, яка описує ефективніший спосіб розробки AI-моделей. Експерти припускають, що це сигнал до нового релізу.
Рік тому DeepSeek усіх вразив. Де компанія сьогодні?
Майже рік тому про DeepSeek говорили всі — класний AI за мало грошей. Акції західних технологічних компаній різко впали, ринок у паніці — нізвідки взялась модель від маловідомої на той момент китайської AI-лабораторії, яка поставила під сумнів уявлення про домінування США.
- Nvidia обвалилася на 17%, втративши майже $600 млрд ринкової капіталізації.
- Американський виробник чипів Broadcom також просів на 17%, а ASML втратила 7% за один день.
Рік потому все інакше: Nvidia у жовтні стала першою компанією з оцінкою $5 трлн, акції Broadcom зросли на 49% упродовж 2025 року, а ASML додала 36%. А DeepSeek випустила сім оновлень моделей. Жодне з них не викликало хвиль, подібних до січневих. Чому ж ринки не відреагували?
Фактор шоку
Заснована у 2023 році, DeepSeek наприкінці 2024-го представила безкоштовну open-source велику мовну модель V3, заявивши, що вона була навчена на менш потужних чипах і за значно нижчої вартості, ніж моделі OpenAI чи Google.
За кілька тижнів, у січні 2025 року, компанія випустила reasoning-модель R1, яка досягала схожих або навіть кращих показників, ніж багато провідних світових LLM.
«Січневий реліз китайської лабораторії справді здивував ринок. Тодішній наратив полягав у тому, що Китай відстає від США на 9–12 місяців», — говорили експерти.
Обіцянка моделі з аналогічними результатами, але з меншими обчислювальними витратами, викликала побоювання, що попит на AI-інфраструктуру скоротиться, а доходи таких компаній, як Nvidia, постраждають.
Втім, цього не сталось. Перший шок пройшов, а всі релізи DeepSeek після січня були радше оновленнями V3 і R1, а не принципово новими моделями. Хоча останні випуски є «переконливими кроками вперед» з погляду ефективності та можливостей, ринок сприйняв їх як «продовження і консолідацію, а не нову шокову хвилю».
- Однією з причин відсутності нової великої моделі можуть бути обмежені обчислювальні ресурси, вважають аналітики.
- DeepSeek відклала реліз моделі R2, запланований на травень, через труднощі з її навчанням на вітчизняних чипах Huawei.
- Китайська влада заохочувала DeepSeek використовувати ці процесори, прагнучи зменшити залежність від американських альтернатив на тлі експортних обмежень на найпотужніші чипи Nvidia.
- Експерти певні: щоб будувати передові моделі, потрібен доступ до передових обчислень». У DeepSeek їх у потрібні кількості не було, нещодавно компанія сама визнала існування певних обмежень.
Ринок заспокоївся
Ринки перестав хвилюватись на тлі нових релізів від західних frontier-лабораторій.
- OpenAI представила GPT-5;
- Anthropic випустила Claude Opus 4.5;
- Google у листопаді запустила Gemini 3.
Як наслідок, американські компанії знову почали конкурувати між собою, видаючи першокласний продукт.
Втім, є ознаки, що DeepSeek готується до більш значного релізу в найближчі місяці. У новорічну ніч компанія опублікувала роботу, яка описує ефективніший спосіб розробки AI-моделей. Експерти припускають, що це сигнал до нового релізу.