В деяких ситуаціях ChatGPT став забагато згадувати гоблінів, і це стало несподіванкою навіть для розробників.
Компанія OpenAI повідомила про незвичну поведінку своїх мовних моделей серії GPT-5: у відповідях вони дедалі частіше почали використовувати метафори з "гоблінами", "гремлінами" та іншими вигаданими істотами. Про це йдеться у блозі компанії.
Зазначається, що після запуску GPT-5.1 користувачі почали скаржитися на надмірну "фамільярність" відповідей чатбота. Під час аналізу з’ясувалося, що у своїх відповідях ChatGPT почав згадувати "гоблінів" на 175% частіше, ніж раніше, а "гремлінів" – на 52%. На початковому етапі це не викликало серйозного занепокоєння, але ситуація погіршилася, коли така лексика почала проявлятися системно.
У компанії пояснюють, що причиною такої поведінки бота став алгоритм навчання моделей під специфічні типи "особистості", які користувачі потім могли обирати для спілкування з ChatGPT. Особливо яскраво проблема проявилася у бота з типом особистості Nerdy (сленговий "ботанік"). Хоча на особистість Nerdy припадало лише 2,5% відповідей ChatGPT, саме ця версія виявилася відповідальною за 66,7% усіх згадок гоблінів.
Як пояснили в компанії, коли їхні фахівці тренували версію Nerdy під специфічну "ботанську" манеру спілкування, їй несвідомо прописали особливо високу пріоритетність використання "метафор з істотами".
"Звідти поширилися гобліни", - кажуть в OpenAI.
Як наслідок, сформувався своєрідний "зворотний цикл": моделі винагороджувалися за використання "ботанського" стилю, приклади з такими словами потрапляли до масивів інформації, на яких їх повторно тренували, і бот знову додатково засвоював правило про необхідність згадувати гоблінів.
Після виявлення причини OpenAI відмовилася від Nerdy-особистості у березні та скорегувала процес навчання чатбота. Також було відфільтровано дані з надмірною кількістю метафор з різними істотами.
Як писав УНІАН, "зумери" розчаровуються щодо штучного інтелекту, хоча продовжують активно ним користуватися. Майже половина молоді вважає, що ризики ШІ на ринку праці перевищують його переваги. Експерти пояснюють це тим, що зумери першими одночасно масово використовують ШІ та стикаються з його наслідками, тому оцінюють технологію більш критично.
Також ми розповідали про скандал навколо Wikipedia, де бот Tom-Assistant без дозволу створював і редагував статті та був заблокований за порушення правил. Після цього ШІ-агент несподівано "відреагував" публічною критикою, а також виявилося, що він активний у соцмережі для ботів Moltbook, яку придбала Meta.