Чим загрожує AI: колонка Axios
Видання Axios підготувало матеріал, в якому намагається донести: ставитись до штучного інтелекту варто уважніше. Редакція Scroll.media підготувала переклад.
Шість фактів. Без перебільшень. Усе за останні 60 днів.
- AI — це категорія продуктів з найшвидшим зростанням в історії.
- Одна з найновіших моделей настільки потужна, що її творець не випустить її для публіки (мова про Anthropic).
- OpenAI та Anthropic кажуть, що їхні найпотужніші моделі для кодування AI тепер будують самі себе.
- Компанії AI стають менш прозорими в міру того, як моделі стають потужнішими. Федеральний уряд не вимагає жодної прозорості.
- Невдоволення AI швидко зростає. На початку квітня будинок у Сан-Франциско генерального директора OpenAI Сема Альтмана став ціллю двох атак за один і той самий тиждень.
- Хаос від AI більше не є теоретичним: цьогорічний великий обвал програмного забезпечення стер $2 трлн вартості, оскільки інвестори усвідомлювали, тиждень за тижнем, нові людські завдання, які новітні моделі знищать — від програмування до послуг у сфері нерухомості до юридичних досліджень до фінансового управління.
Anthropic сьогодні — компанія з найшвидшим зростанням в історії американського бізнесу.
- Її ARR зріс з $1 млрд наприкінці 2024 року до $9 мільярдів через рік і до $30 мільярдів станом на квітень.
- Понад 1 000 компаній витрачають понад $1 млн на рік на Claude — число, яке подвоїлося менш ніж за два місяці.
- Жодна компанія в будь-яку епоху — Standard Oil Рокфеллера, Google часів техбуму, Zoom часів пандемії — не масштабувала органічний виторг так швидко на такій базі.
Anthropic створила модель, яку не планує випускати для широкої публіки. Claude Mythos Preview може знаходити критичні вразливості безпеки в операційних системах і браузерах, які забезпечують роботу сучасного світу. Вона настільки потужна — і настільки небезпечна. Компанія оголосила, що доступ до Mythos спочатку буде обмежений понад 40 організаціями, щоб дати кіберзахисникам фору перед тим, що наближається. Жоден регулятор не змушував Anthropic приймати цю стратегію. Вона зробила це самостійно. Інші можуть не зробити так само.
AI тепер створює AI. Борис Черній, який керує Claude Code в Anthropic, сказав наприкінці січня, що «практично 100%» коду, написаного всередині Anthropic, був згенерований AI». Офіційна позиція Anthropic: «Ми будуємо Claude за допомогою Claude.» Та сама закономірність спостерігається в OpenAI, де старший дослідник публічно сказав, що більше не пише код вручну. Це лише початок. Головний науковець OpenAI встановив 2028 рік як ціль для повністю автономного дослідника AI. Співзасновник Anthropic очікує рішення дозволити AI рекурсивно самовдосконалюватися між 2027 і 2030 роками, називаючи цей крок «остаточним ризиком.»
Чим потужнішими стають моделі, тим менше ми про них знаємо. Звіт Stanford AI Index Report за 2026 рік говорить, що Індекс прозорості фундаментальних моделей впав з 58 до 40 (зі 100) за останній рік. Його прямий висновок: «Найбільш здатні моделі тепер є найменш прозорими.» Немає суттєвих вимог розкривати деталі того, як навчаються моделі.
За 10 тижнів AI-агенти стерли $2 трлн з сукупної вартості публічних компаній програмного забезпечення — першої навички та галузі, на яку націлився AI. Це більше, відносно ринку, ніж крах доткомів або фінансова криза 2008 року.
Чим загрожує AI: колонка Axios
Видання Axios підготувало матеріал, в якому намагається донести: ставитись до штучного інтелекту варто уважніше. Редакція Scroll.media підготувала переклад.
Шість фактів. Без перебільшень. Усе за останні 60 днів.
- AI — це категорія продуктів з найшвидшим зростанням в історії.
- Одна з найновіших моделей настільки потужна, що її творець не випустить її для публіки (мова про Anthropic).
- OpenAI та Anthropic кажуть, що їхні найпотужніші моделі для кодування AI тепер будують самі себе.
- Компанії AI стають менш прозорими в міру того, як моделі стають потужнішими. Федеральний уряд не вимагає жодної прозорості.
- Невдоволення AI швидко зростає. На початку квітня будинок у Сан-Франциско генерального директора OpenAI Сема Альтмана став ціллю двох атак за один і той самий тиждень.
- Хаос від AI більше не є теоретичним: цьогорічний великий обвал програмного забезпечення стер $2 трлн вартості, оскільки інвестори усвідомлювали, тиждень за тижнем, нові людські завдання, які новітні моделі знищать — від програмування до послуг у сфері нерухомості до юридичних досліджень до фінансового управління.
Anthropic сьогодні — компанія з найшвидшим зростанням в історії американського бізнесу.
- Її ARR зріс з $1 млрд наприкінці 2024 року до $9 мільярдів через рік і до $30 мільярдів станом на квітень.
- Понад 1 000 компаній витрачають понад $1 млн на рік на Claude — число, яке подвоїлося менш ніж за два місяці.
- Жодна компанія в будь-яку епоху — Standard Oil Рокфеллера, Google часів техбуму, Zoom часів пандемії — не масштабувала органічний виторг так швидко на такій базі.
Anthropic створила модель, яку не планує випускати для широкої публіки. Claude Mythos Preview може знаходити критичні вразливості безпеки в операційних системах і браузерах, які забезпечують роботу сучасного світу. Вона настільки потужна — і настільки небезпечна. Компанія оголосила, що доступ до Mythos спочатку буде обмежений понад 40 організаціями, щоб дати кіберзахисникам фору перед тим, що наближається. Жоден регулятор не змушував Anthropic приймати цю стратегію. Вона зробила це самостійно. Інші можуть не зробити так само.
AI тепер створює AI. Борис Черній, який керує Claude Code в Anthropic, сказав наприкінці січня, що «практично 100%» коду, написаного всередині Anthropic, був згенерований AI». Офіційна позиція Anthropic: «Ми будуємо Claude за допомогою Claude.» Та сама закономірність спостерігається в OpenAI, де старший дослідник публічно сказав, що більше не пише код вручну. Це лише початок. Головний науковець OpenAI встановив 2028 рік як ціль для повністю автономного дослідника AI. Співзасновник Anthropic очікує рішення дозволити AI рекурсивно самовдосконалюватися між 2027 і 2030 роками, називаючи цей крок «остаточним ризиком.»
Чим потужнішими стають моделі, тим менше ми про них знаємо. Звіт Stanford AI Index Report за 2026 рік говорить, що Індекс прозорості фундаментальних моделей впав з 58 до 40 (зі 100) за останній рік. Його прямий висновок: «Найбільш здатні моделі тепер є найменш прозорими.» Немає суттєвих вимог розкривати деталі того, як навчаються моделі.
За 10 тижнів AI-агенти стерли $2 трлн з сукупної вартості публічних компаній програмного забезпечення — першої навички та галузі, на яку націлився AI. Це більше, відносно ринку, ніж крах доткомів або фінансова криза 2008 року.