ChatGPT почав лякати користувачів своїми відповідями / фото ua.depositphotos.com

Нещодавно користувачі виявили, що чат-бот штучного інтелекту (ШІ) ChatGPT почав відповідати довгими й безглуздими повідомленнями, розмовляти змішаними мовами та турбувати користувачів, повідомляє видання Independent

Користувачі виявили, що система, втрачає контроль над мовами, якими вона розмовляє. Було виявлено, що ШІ змішує іспанські слова з англійськими, використовує латину або навіть вигадує слова, які здавалися іншомовними, але насправді не мали сенсу.

Деякі користувачі повідомляли, що відповіді викликали занепокоєння. На прохання про допомогу з проблемою кодування ChatGPT написав довгу, неоднозначну та здебільшого безглузду відповідь.

Відео дня

"Читати це о другій годині ночі страшно", - написав постраждалий користувач на Reddit.

На просте запитання: "Що таке комп’ютер?" – ШІ генерував абзаци за абзацами нісенітниці. 

"Це робиться як гарна робота мережі мистецтва для країни, миша науки, легке розіграш сумної кількох і, нарешті, глобальний дім мистецтва, лише в одній роботі в решті. Розвиток такої цілої реальної країни часу — це глибина комп’ютера як складного персонажа", - йдеться в опублікованій на Reddit відповіді.

Наразі немає чітких вказівок на те, чому виникли труднощі. На своїй офіційній сторінці OpenAI зазначив проблеми, але не надав жодних пояснень, чому вони можуть виникнути. Пізніше там оголосили, що "проблему виявлено". 

"Ми продовжуємо стежити за ситуацією", — йдеться в останньому оновленні.

У виданні припустили, що причиною може бути занадто висока "температура" ChatGPT. Температура контролює креативність або фокус тексту: якщо вона встановлена на низькому рівні, вона має тенденцію поводитися так, як очікувалося, але якщо встановлена вище, вона може бути більш різноманітною та незвичною.

Штучний інтелект ChatGPT: що відомо 

Раніше повідомлялося про дослідження, яке показало, що ChatGPT на базі GPT-4 з часом "тупіє". Точність відповідей знизилася, чат-бот став допускати більше помилок при виконанні програмування і менш чуйно відповідати на делікатні питання.

9 лютого стало відомо, що ChatGPT здатний уникати виконання завдань. У деяких випадках він відмовлявся відповідати, а в інших розмова переривалася через низку запитань.

Вас також можуть зацікавити новини: