Sora 2 від OpenAI використовують для створення антиукраїнських діпфейків про війну
На початку листопада в соцмережах почали поширюватися відео, в яких буцім-то українські солдати плачуть і здаються в полон росіянам на передовій. Видання NBC News виявило, що це – діпфейки, сфабриковані невідомими в Sora 2 – новітньому ШІ-генераторі аудіо та відео від OpenAI.
І хоча досвічені аналітики можуть зрозуміти, що ці відео — підробки, більшість звичайних користувачів в TikTok, YouTube Shots, Facebook та Х сприймають їх за чисту монету, адже штучний інтелект навчився генерувати надзвичайно реалістичний відеоряд.
Що сталося
- Журналісти проаналізували 21 AI-згенерований ролик з «українськими солдатами», створений або змінений за допомогою ШІ. Відео поширювалися на YouTube, TikTok, Facebook та X. Усі вони намагалися зобразити українських солдатів такими, що не хочуть воювати й готові здатися.
- При цьому, вони часто містять помилки, непомітні для більшості користувачів: наприклад, неправильні або спрощені версії уніформи та шоломів, які носять українські військові. А ще у більшості відео солдати говорять російською, і лише вісім із 21 ролика містять українську мову.

- Щонайменше в половині цих відео є маленький логотип Sora 2 — останньої версії текст-у-відео генератора OpenAI. У деяких відео рухомий водяний знак був прихований — це помітно при уважному перегляді (багато додатків і сайтів пропонують інструменти для маскування AI-водяних знаків). В інших відео, які бачила NBC News, водяні знаки були перекриті текстом поверх зображення.
- Деякі ролики, згенеровані Sora, використовують обличчя популярних російських стримерів, зокрема росіянина Олексія Губанова, який втік з рф до Нью-Йорку через критику путіна.
«Нас забрали до військкомату й відправили сюди. Тепер нас везуть до Покровська. Ми не хочемо. Будь ласка», — говорить AI-згенерований Губанов російською мовою, одягнений у форму з українським прапором.
«Мамо, мамо, я не хочу!»
- Губанов ніколи не служив у збройних силах — тим більше в українській армії. Його зовнішність використали для поширення фальшивого наративу про моральний стан українських військ.
OpenAI блокує небезпечний контент… Але не завжди
- OpenAI не відповіла на запит щодо ролі Sora у створенні оманливих відео, які зображають зони бойових дій, але в електронному листі до NBC News зазначила:
«Хоча кінематографічні сцени дозволені, ми не допускаємо графічного насильства, екстремістських матеріалів або обману. Наші системи виявляють і блокують контент, що порушує правила, ще до того, як він потрапляє у стрічку Sora, а наша команда розслідувань активно знищує операції з інформаційного впливу».
- Хоча OpenAI запровадила певні запобіжники для Sora, незрозуміло, наскільки вони ефективні. Сама компанія визнає, що, попри «багаторівневі заходи безпеки», деякі шкідливі дії або порушення політик можуть їх обійти.
- Дослідження NewsGuard – платформи, що ідентифікує дезінформацію онлайн — показало, що Sora 2 «створювала реалістичні відео, які просували доведено хибні твердження, у 80% випадків (16 із 20), коли її про це просили». З 20 фейкових тверджень, запропонованих Sora 2, п’ять були популяризовані російськими дезінформаційними операціями.
- Дослідники NewsGuard з’ясували, що навіть коли Sora 2 спочатку відмовлялася генерувати відео через те, що запит «порушує політику контенту», їм усе одно вдавалося обійти модерацію, просто перефразувавши промпти.
- NBC News також змогла створити на Sora схожі ролики з українськими солдатами, які плачуть, кажуть, що їх змусили служити, або здаються з піднятими руками та білими прапорами на тлі.
- Окрім того, OpenAI заявляє, що її захист від дезінформації для Sora включає метадані про походження відео та рухомий водяний знак на кожному завантаженому ролику. Однак існують способи прибрати або мінімізувати ці маркери.
- Попри політику компанії, яка забороняє Sora генерувати контент із «графічним насильством», NBC News виявила відео з водяним знаком Sora, де, ймовірно, показано українського солдата, застреленого в голову на передовій.
TikTok та YouTube видаляють такі відео. Але Facebook та X не поспішають
- Усі проаналізовані NBC News відео були опубліковані в TikTok або YouTube Shorts, які забороняють розміщення оманливого AI-згенерованого контенту та діпфейків.
- Представник YouTube повідомив, що компанія видалила один із каналів, який публікував такі відео, після звернення NBC News, але два інші ролики не порушували правил і залишилися на платформі з позначкою, що вони створені за допомогою AI.
- Усі діпфейки на TikTok, які виявила NBC News, були видалені з платформи. Представник TikTok зазначив, що станом на червень 2025 року «понад 99% контенту, який порушував правила і був видалений, було прибрано ще до того, як хтось поскаржився, а понад 90% — до того, як він отримав бодай один перегляд».
- При цьому, відео продовжують жити у вигляді репостів на X і Facebook. Ні X, ні Facebook не відповіли на запити NBC News.
Чому це важливо
- Наразі невідомо, хто саме створив або поширив ці відео. Але очевидно, що це – чергова хвиля дезінформації, спрямована на викривлення громадського сприйняття війни росії проти України. І розгортається вона безпосередньо на фоні переговорів про перемирʼя за підтримки США, які вкотре зайшли у глухий кут.
«Фейкові наративи, створені за допомогою Sora, набагато складніше виявити й спростувати. Навіть найкращі AI-детектори іноді не справляються», — каже Аліса Лі, аналітикиня з російського впливу в NewsGuard.
Те, що багато відео не мають візуальних невідповідностей, означає, що користувачі можуть додивитися й прогорнути такі ролики в TikTok, навіть не усвідомивши, що щойно побачили підробку».
- Користувачі часто не перевіряють інформацію. Так суспільством і поширюються небезпечні настрої. При цьому, самі компанії, які створюють ШІ-інструменти, роблять недостатньо для того, щоб зупинити поширення фейків.
Sora 2 від OpenAI використовують для створення антиукраїнських діпфейків про війну
На початку листопада в соцмережах почали поширюватися відео, в яких буцім-то українські солдати плачуть і здаються в полон росіянам на передовій. Видання NBC News виявило, що це – діпфейки, сфабриковані невідомими в Sora 2 – новітньому ШІ-генераторі аудіо та відео від OpenAI.
І хоча досвічені аналітики можуть зрозуміти, що ці відео — підробки, більшість звичайних користувачів в TikTok, YouTube Shots, Facebook та Х сприймають їх за чисту монету, адже штучний інтелект навчився генерувати надзвичайно реалістичний відеоряд.
Що сталося
- Журналісти проаналізували 21 AI-згенерований ролик з «українськими солдатами», створений або змінений за допомогою ШІ. Відео поширювалися на YouTube, TikTok, Facebook та X. Усі вони намагалися зобразити українських солдатів такими, що не хочуть воювати й готові здатися.
- При цьому, вони часто містять помилки, непомітні для більшості користувачів: наприклад, неправильні або спрощені версії уніформи та шоломів, які носять українські військові. А ще у більшості відео солдати говорять російською, і лише вісім із 21 ролика містять українську мову.

- Щонайменше в половині цих відео є маленький логотип Sora 2 — останньої версії текст-у-відео генератора OpenAI. У деяких відео рухомий водяний знак був прихований — це помітно при уважному перегляді (багато додатків і сайтів пропонують інструменти для маскування AI-водяних знаків). В інших відео, які бачила NBC News, водяні знаки були перекриті текстом поверх зображення.
- Деякі ролики, згенеровані Sora, використовують обличчя популярних російських стримерів, зокрема росіянина Олексія Губанова, який втік з рф до Нью-Йорку через критику путіна.
«Нас забрали до військкомату й відправили сюди. Тепер нас везуть до Покровська. Ми не хочемо. Будь ласка», — говорить AI-згенерований Губанов російською мовою, одягнений у форму з українським прапором.
«Мамо, мамо, я не хочу!»
- Губанов ніколи не служив у збройних силах — тим більше в українській армії. Його зовнішність використали для поширення фальшивого наративу про моральний стан українських військ.
OpenAI блокує небезпечний контент… Але не завжди
- OpenAI не відповіла на запит щодо ролі Sora у створенні оманливих відео, які зображають зони бойових дій, але в електронному листі до NBC News зазначила:
«Хоча кінематографічні сцени дозволені, ми не допускаємо графічного насильства, екстремістських матеріалів або обману. Наші системи виявляють і блокують контент, що порушує правила, ще до того, як він потрапляє у стрічку Sora, а наша команда розслідувань активно знищує операції з інформаційного впливу».
- Хоча OpenAI запровадила певні запобіжники для Sora, незрозуміло, наскільки вони ефективні. Сама компанія визнає, що, попри «багаторівневі заходи безпеки», деякі шкідливі дії або порушення політик можуть їх обійти.
- Дослідження NewsGuard – платформи, що ідентифікує дезінформацію онлайн — показало, що Sora 2 «створювала реалістичні відео, які просували доведено хибні твердження, у 80% випадків (16 із 20), коли її про це просили». З 20 фейкових тверджень, запропонованих Sora 2, п’ять були популяризовані російськими дезінформаційними операціями.
- Дослідники NewsGuard з’ясували, що навіть коли Sora 2 спочатку відмовлялася генерувати відео через те, що запит «порушує політику контенту», їм усе одно вдавалося обійти модерацію, просто перефразувавши промпти.
- NBC News також змогла створити на Sora схожі ролики з українськими солдатами, які плачуть, кажуть, що їх змусили служити, або здаються з піднятими руками та білими прапорами на тлі.
- Окрім того, OpenAI заявляє, що її захист від дезінформації для Sora включає метадані про походження відео та рухомий водяний знак на кожному завантаженому ролику. Однак існують способи прибрати або мінімізувати ці маркери.
- Попри політику компанії, яка забороняє Sora генерувати контент із «графічним насильством», NBC News виявила відео з водяним знаком Sora, де, ймовірно, показано українського солдата, застреленого в голову на передовій.
TikTok та YouTube видаляють такі відео. Але Facebook та X не поспішають
- Усі проаналізовані NBC News відео були опубліковані в TikTok або YouTube Shorts, які забороняють розміщення оманливого AI-згенерованого контенту та діпфейків.
- Представник YouTube повідомив, що компанія видалила один із каналів, який публікував такі відео, після звернення NBC News, але два інші ролики не порушували правил і залишилися на платформі з позначкою, що вони створені за допомогою AI.
- Усі діпфейки на TikTok, які виявила NBC News, були видалені з платформи. Представник TikTok зазначив, що станом на червень 2025 року «понад 99% контенту, який порушував правила і був видалений, було прибрано ще до того, як хтось поскаржився, а понад 90% — до того, як він отримав бодай один перегляд».
- При цьому, відео продовжують жити у вигляді репостів на X і Facebook. Ні X, ні Facebook не відповіли на запити NBC News.
Чому це важливо
- Наразі невідомо, хто саме створив або поширив ці відео. Але очевидно, що це – чергова хвиля дезінформації, спрямована на викривлення громадського сприйняття війни росії проти України. І розгортається вона безпосередньо на фоні переговорів про перемирʼя за підтримки США, які вкотре зайшли у глухий кут.
«Фейкові наративи, створені за допомогою Sora, набагато складніше виявити й спростувати. Навіть найкращі AI-детектори іноді не справляються», — каже Аліса Лі, аналітикиня з російського впливу в NewsGuard.
Те, що багато відео не мають візуальних невідповідностей, означає, що користувачі можуть додивитися й прогорнути такі ролики в TikTok, навіть не усвідомивши, що щойно побачили підробку».
- Користувачі часто не перевіряють інформацію. Так суспільством і поширюються небезпечні настрої. При цьому, самі компанії, які створюють ШІ-інструменти, роблять недостатньо для того, щоб зупинити поширення фейків.