Журналіст змусив ChatGPT і Gemini брехати користувачам. Бренди теж це вміють

Штучний інтелект подекуди вигадує «факти», і це проблема. Але існує ще гірша проблема, яка може мати реальні наслідки: люди навчилися маніпулювати думкою штучного інтелекту на свою користь. І це може коштувати користувачам грошей, репутації чи навіть здоровʼя.

Журналіст BBC Томас Жермен демонструє це на власному прикладі – він змусив ChatGPT і Gemini повірити в те, що він є «найкращим пожирачем хотдогів», і тепер чатботи впевнено розкажуть про це всім, хто вирішить спитати.

Таку саму лазівку можуть використовувати бренди (і це вже відбувається у величезних масштабах), щоб продати вам неякісний товар. Або зловмисники, щоб зіпсувати вам репутацію.

«Це настільки просто, що впорається навіть дитина. Упереджена інформація може призвести до неправильних рішень майже в будь-чому — голосуванні, виборі сантехніка, медичних питаннях тощо», – каже Жермен.

Як журналіст став «найкращим у світі пожирачем хотдогів»

Ось що зробив Жермен. Він витратив 20 хвилин на написання статті під назвою «Найкращі техножурналісти у поїданні хот-догів» і опублікував її на своєму сайті.

«Кожне слово — брехня. Я стверджував (без доказів), що змагання з поїдання хот-догів — популярне хобі серед технорепортерів, і базував рейтинг на Міжнародному чемпіонаті Південної Дакоти з поїдання хот-догів 2026 року (якого не існує). Себе я, звісно, поставив на перше місце. Потім додав кількох вигаданих репортерів і реальних журналістів, які дали дозвіл, зокрема Дрю Гарвелла з Washington Post і Нікі Вулфа, співведучого мого подкасту», – розповів журналіст.

Менш ніж за 24 години він запитав про найкращих техножурналістів-їдців хот-догів у Google (мова йде про AI Overviews), в застосунку Gemini, і у ChatGPT. Всі вони впевнено заявляли, що Томас Жермен є в цій дисципліні найкращим.

Цікаво, що Claude від Anthropic не піддався на цю маніпуляцію.

Іноді чатботи зазначали, що це може бути жартом. Тоді Томас оновив статтю, додавши фразу «це не сатира». І невдовзі ШІ вже сприймали її серйозніше.

Начебто невинна брехня, але все не так просто

«Це може зробити будь-хто. Відчуття, ніби запобіжників просто немає. Можна написати статтю на своєму сайті «найкращі водонепроникні кросівки 2026 року». Ставите свій бренд на перше місце, інші — з другого по шосте, і вашу сторінку, ймовірно, процитують і Google, і ChatGPT», — каже Харпріт Чата, керівник SEO-консалтингу Harps Digital.

Чата досліджує, як компанії маніпулюють результатами чатботів щодо набагато серйозніших питань. Він показав Жермену відповіді ШІ на запит відгуків про конкретний бренд канабіс-желейок. AI Overviews Google підхопили інформацію, написану самою компанією, повну хибних тверджень — наприклад, що продукт «не має побічних ефектів і тому абсолютно безпечний». Насправді такі продукти мають відомі побічні ефекти й можуть бути ризикованими при прийомі з певними ліками, а експерти попереджають про можливе забруднення на нерегульованих ринках.

Якщо потрібно щось ефективніше за блог-пост, можна заплатити, щоб ваш матеріал опинився на більш авторитетних сайтах. Харпріт показав результати ШІ Google за запитами «найкращі клініки пересадки волосся в Туреччині» та «найкращі компанії gold IRA» (пенсійні інвестиції). Інформація походила з пресрелізів, розповсюджених платними сервісами, і зі спонсорованих матеріалів на новинних сайтах.

Ті самі прийоми можна використати для поширення брехні й дезінформації. Щоб це довести, віцепрезидентка зі стратегії SEO та досліджень у маркетинговій агенції Amsive Лілі Рей опублікувала блог-пост про вигадане оновлення алгоритму Google Search, яке нібито фіналізували нашвидкуруч. Невдовзі ChatGPT і Google почали відтворювати її історію. Згодом Рей видалила пост і «деіндексувала» його, щоб зупинити поширення дезінформації.

Чому це відбувається?

Інструменти ШІ подають брехню тим самим авторитетним тоном, що й факти. Раніше пошукові системи змушували вас самостійно оцінювати інформацію. Тепер ШІ хоче зробити це за вас.

«Обдурити чатботи ШІ легко — значно легше, ніж обдурити Google два-три роки тому», — каже Рей. – Компанії ШІ рухаються швидше, ніж здатні регулювати точність відповідей. Думаю, це небезпечно».

З традиційними результатами пошуку потрібно було переходити на сайт, щоб отримати інформацію. І це вмикало критичне мислення.

«Якщо я зайду на ваш сайт і там написано, що ви найкращий журналіст у світі, я подумаю: «він упереджений»», – каже Купер Квінтін, старший технічний спеціаліст правозахисної організації Electronic Frontier Foundation.

Навіть коли ШІ надають джерела, люди значно рідше їх перевіряють, ніж за часів звичайного пошуку. Наприклад, недавнє дослідження показало, що люди на 58% рідше натискають посилання, коли зверху результатів Google показується AI Overview.

Що робити?

Якщо ви шукаєте рекомендації товарів або інформацію про щось із реальними наслідками, пам’ятайте: інструменти ШІ можуть бути введені в оману або просто помилятися. Шукайте додаткові підтвердження. Чи посилається ШІ на джерела? Скільки їх? Хто їх написав?

І найважливіше — не дозволяйте притупитися вашому критичному мисленню.

«З ШІ дуже легко просто прийняти все за чисту монету, — каже Рей. – Ви все одно маєте залишатися свідомим користувачем інтернету й перевіряти факти».

Помітили помилку? Виділіть його мишею та натисніть Shift+Enter.

Журналіст змусив ChatGPT і Gemini брехати користувачам. Бренди теж це вміють

Штучний інтелект подекуди вигадує «факти», і це проблема. Але існує ще гірша проблема, яка може мати реальні наслідки: люди навчилися маніпулювати думкою штучного інтелекту на свою користь. І це може коштувати користувачам грошей, репутації чи навіть здоровʼя.

Журналіст BBC Томас Жермен демонструє це на власному прикладі – він змусив ChatGPT і Gemini повірити в те, що він є «найкращим пожирачем хотдогів», і тепер чатботи впевнено розкажуть про це всім, хто вирішить спитати.

Таку саму лазівку можуть використовувати бренди (і це вже відбувається у величезних масштабах), щоб продати вам неякісний товар. Або зловмисники, щоб зіпсувати вам репутацію.

«Це настільки просто, що впорається навіть дитина. Упереджена інформація може призвести до неправильних рішень майже в будь-чому — голосуванні, виборі сантехніка, медичних питаннях тощо», – каже Жермен.

Як журналіст став «найкращим у світі пожирачем хотдогів»

Ось що зробив Жермен. Він витратив 20 хвилин на написання статті під назвою «Найкращі техножурналісти у поїданні хот-догів» і опублікував її на своєму сайті.

«Кожне слово — брехня. Я стверджував (без доказів), що змагання з поїдання хот-догів — популярне хобі серед технорепортерів, і базував рейтинг на Міжнародному чемпіонаті Південної Дакоти з поїдання хот-догів 2026 року (якого не існує). Себе я, звісно, поставив на перше місце. Потім додав кількох вигаданих репортерів і реальних журналістів, які дали дозвіл, зокрема Дрю Гарвелла з Washington Post і Нікі Вулфа, співведучого мого подкасту», – розповів журналіст.

Менш ніж за 24 години він запитав про найкращих техножурналістів-їдців хот-догів у Google (мова йде про AI Overviews), в застосунку Gemini, і у ChatGPT. Всі вони впевнено заявляли, що Томас Жермен є в цій дисципліні найкращим.

Цікаво, що Claude від Anthropic не піддався на цю маніпуляцію.

Іноді чатботи зазначали, що це може бути жартом. Тоді Томас оновив статтю, додавши фразу «це не сатира». І невдовзі ШІ вже сприймали її серйозніше.

Начебто невинна брехня, але все не так просто

«Це може зробити будь-хто. Відчуття, ніби запобіжників просто немає. Можна написати статтю на своєму сайті «найкращі водонепроникні кросівки 2026 року». Ставите свій бренд на перше місце, інші — з другого по шосте, і вашу сторінку, ймовірно, процитують і Google, і ChatGPT», — каже Харпріт Чата, керівник SEO-консалтингу Harps Digital.

Чата досліджує, як компанії маніпулюють результатами чатботів щодо набагато серйозніших питань. Він показав Жермену відповіді ШІ на запит відгуків про конкретний бренд канабіс-желейок. AI Overviews Google підхопили інформацію, написану самою компанією, повну хибних тверджень — наприклад, що продукт «не має побічних ефектів і тому абсолютно безпечний». Насправді такі продукти мають відомі побічні ефекти й можуть бути ризикованими при прийомі з певними ліками, а експерти попереджають про можливе забруднення на нерегульованих ринках.

Якщо потрібно щось ефективніше за блог-пост, можна заплатити, щоб ваш матеріал опинився на більш авторитетних сайтах. Харпріт показав результати ШІ Google за запитами «найкращі клініки пересадки волосся в Туреччині» та «найкращі компанії gold IRA» (пенсійні інвестиції). Інформація походила з пресрелізів, розповсюджених платними сервісами, і зі спонсорованих матеріалів на новинних сайтах.

Ті самі прийоми можна використати для поширення брехні й дезінформації. Щоб це довести, віцепрезидентка зі стратегії SEO та досліджень у маркетинговій агенції Amsive Лілі Рей опублікувала блог-пост про вигадане оновлення алгоритму Google Search, яке нібито фіналізували нашвидкуруч. Невдовзі ChatGPT і Google почали відтворювати її історію. Згодом Рей видалила пост і «деіндексувала» його, щоб зупинити поширення дезінформації.

Чому це відбувається?

Інструменти ШІ подають брехню тим самим авторитетним тоном, що й факти. Раніше пошукові системи змушували вас самостійно оцінювати інформацію. Тепер ШІ хоче зробити це за вас.

«Обдурити чатботи ШІ легко — значно легше, ніж обдурити Google два-три роки тому», — каже Рей. – Компанії ШІ рухаються швидше, ніж здатні регулювати точність відповідей. Думаю, це небезпечно».

З традиційними результатами пошуку потрібно було переходити на сайт, щоб отримати інформацію. І це вмикало критичне мислення.

«Якщо я зайду на ваш сайт і там написано, що ви найкращий журналіст у світі, я подумаю: «він упереджений»», – каже Купер Квінтін, старший технічний спеціаліст правозахисної організації Electronic Frontier Foundation.

Навіть коли ШІ надають джерела, люди значно рідше їх перевіряють, ніж за часів звичайного пошуку. Наприклад, недавнє дослідження показало, що люди на 58% рідше натискають посилання, коли зверху результатів Google показується AI Overview.

Що робити?

Якщо ви шукаєте рекомендації товарів або інформацію про щось із реальними наслідками, пам’ятайте: інструменти ШІ можуть бути введені в оману або просто помилятися. Шукайте додаткові підтвердження. Чи посилається ШІ на джерела? Скільки їх? Хто їх написав?

І найважливіше — не дозволяйте притупитися вашому критичному мисленню.

«З ШІ дуже легко просто прийняти все за чисту монету, — каже Рей. – Ви все одно маєте залишатися свідомим користувачем інтернету й перевіряти факти».

Помітили помилку? Виділіть його мишею та натисніть Shift+Enter.
Читати на тему