Qualcomm йде на конкуренцію AI-чіпів — представили власне рішення

Qualcomm представила власні AI-чіпи, щоб конкурувати з AMD та Nvidia. Вони будуть направлені на inference, а не тренування, що дозволить компанії боротись за клієнтів на ринку, що зростає, і не кидати ресурси на боротьбу лише з Nvidia, яка є лідером на ринку чіпів для тренування.

  • Qualcomm заявила, що її нові моделі — AI200, яка надійде у продаж у 2026 році, та AI250, запланована на 2027 — постачатимуться у вигляді систем, здатних займати цілу стійку серверів із рідинним охолодженням.
  • Це дозволяє компанії стати на один рівень із Nvidia та AMD, які пропонують свої графічні процесори (GPU) у форматі повноцінних серверних систем, де до 72 чіпів працюють як єдиний комп’ютер. Така потужність потрібна AI-лабораторіям для запуску найпросунутіших моделей.
  • Це суттєва зміна курсу для Qualcomm, яка традиційно спеціалізувалася на напівпровідниках для бездротового зв’язку та мобільних пристроїв, а не для масивних дата-центрів. Це величезний ринок: до 2030 року на будівництво дата-центрів буде витрачено близько $6,7 трлн, і більшість цих коштів піде на системи з AI-чіпами.

Qualcomm зосереджується на inference — тобто виконанні вже навчених моделей, а не їхньому тренуванні. Компанія наголошує, що її системи будуть економнішими в експлуатації для клієнтів, таких як провайдери хмарних сервісів.

Ринок AI-обчислень досі належав Nvidia, яка контролює понад 90 % сегмента GPU. Саме її чіпи використовувалися для тренування GPT-моделей від OpenAI — тих самих, що лежать в основі ChatGPT.

Однак великі компанії шукають альтернативи: на початку жовтня OpenAI оголосила, що купуватиме чіпи у другого за масштабом виробника GPU — AMD, і навіть розглядає можливість інвестувати у компанію. Інші гравці, як-от Google, Amazon і Microsoft, розробляють власні AI-прискорювачі для хмарних сервісів.

Помітили помилку? Виділіть його мишею та натисніть Shift+Enter.

Qualcomm йде на конкуренцію AI-чіпів — представили власне рішення

Qualcomm представила власні AI-чіпи, щоб конкурувати з AMD та Nvidia. Вони будуть направлені на inference, а не тренування, що дозволить компанії боротись за клієнтів на ринку, що зростає, і не кидати ресурси на боротьбу лише з Nvidia, яка є лідером на ринку чіпів для тренування.

  • Qualcomm заявила, що її нові моделі — AI200, яка надійде у продаж у 2026 році, та AI250, запланована на 2027 — постачатимуться у вигляді систем, здатних займати цілу стійку серверів із рідинним охолодженням.
  • Це дозволяє компанії стати на один рівень із Nvidia та AMD, які пропонують свої графічні процесори (GPU) у форматі повноцінних серверних систем, де до 72 чіпів працюють як єдиний комп’ютер. Така потужність потрібна AI-лабораторіям для запуску найпросунутіших моделей.
  • Це суттєва зміна курсу для Qualcomm, яка традиційно спеціалізувалася на напівпровідниках для бездротового зв’язку та мобільних пристроїв, а не для масивних дата-центрів. Це величезний ринок: до 2030 року на будівництво дата-центрів буде витрачено близько $6,7 трлн, і більшість цих коштів піде на системи з AI-чіпами.

Qualcomm зосереджується на inference — тобто виконанні вже навчених моделей, а не їхньому тренуванні. Компанія наголошує, що її системи будуть економнішими в експлуатації для клієнтів, таких як провайдери хмарних сервісів.

Ринок AI-обчислень досі належав Nvidia, яка контролює понад 90 % сегмента GPU. Саме її чіпи використовувалися для тренування GPT-моделей від OpenAI — тих самих, що лежать в основі ChatGPT.

Однак великі компанії шукають альтернативи: на початку жовтня OpenAI оголосила, що купуватиме чіпи у другого за масштабом виробника GPU — AMD, і навіть розглядає можливість інвестувати у компанію. Інші гравці, як-от Google, Amazon і Microsoft, розробляють власні AI-прискорювачі для хмарних сервісів.

Помітили помилку? Виділіть його мишею та натисніть Shift+Enter.
Читати на тему
This site is registered on wpml.org as a development site. Switch to a production site key to remove this banner.