Учені знайшли докази того, що ШІ іноді думає як людина / фото Ideogram

Китайські дослідники вперше представили переконливі докази того, що моделі штучного інтелекту, зокрема, ChatGPT, обробляють інформацію аналогічно до людського мозку. Про це повідомляє портал The Independent.

Нове дослідження підтвердило, що мультимодальні великі мовні моделі (LLM) можуть спонтанно впорядковувати об'єкти так само, як це робить людський мозок – незважаючи на те, що їх не навчали цьому. Це відкриття може вплинути на розвиток ШІ та змінити підхід до оцінки його когнітивних здібностей.

Вчені об'єднали поведінкові експерименти та нейровізуалізацію, щоб зрозуміти, наскільки концепти об'єктів у LLM збігаються з уявленнями в людському мозку. Або, іншими словами, з'ясувати, чи може ШІ розпізнавати та класифікувати речі на основі функції, емоції, навколишнього середовища тощо.

Відео дня

Щоб з'ясувати, чи так це, дослідники доручили ChatGPT-3.5 і Gemini Pro Vision виконати завдання "третій зайвий". У результаті автори отримали 4,7 млн суджень про схожість між 1 854 об'єктами з реального світу – від тварин до меблів. Аналіз виявив, що ШІ створив 66 концептуальних вимірів для їхньої організації, точно так само, як це зробили б люди. Ці виміри виходять за рамки основних категорій, як-от "їжа", і охоплюють складні атрибути, включно з текстурою, емоційною значущістю і придатністю для дітей.

Найбільша схожість між ШІ і людиною спостерігалася під час оцінювання семантичних ознак, а ось візуальні аспекти у мовних моделей, такі як форма, залишалися менш вираженими. У мультимодальній версії (MLLM) ступінь збігу з людським сприйняттям виявився помітно вищим.

Крім того, вчені виявили кореляцію між активацією ділянок мозку людини, що відповідають за сприйняття навколишнього середовища, і векторними уявленнями об'єктів у ШІ. Особливо яскраво це проявилося в парагіпокампальній ділянці, пов'язаній із розпізнаванням сцен.

Таким чином, великі мовні моделі – це далеко не "папуги", які лише імітують мову. Навпаки, вони мають внутрішнє розуміння концепцій реального світу, дуже схоже на людське. Це може стати кроком до створення більш "людяних" когнітивних систем – від інтерфейсів до гуманоїдних роботів.

Як УНІАН уже писав, понад 52 тисячі айтішників було звільнено по всьому світу з початку 2025 року. Причина – розвиток штучного інтелекту, який може ефективно виконувати рутинні завдання програмування, включно з написанням коду і тестуванням.

Раніше вчені таємно провели експеримент над користувачами Reddit: ШІ-моделі успішно змінювали погляди коментаторів, видаючи себе за людей. Етичність експерименту викликала суперечки, хоча самі дослідники вважають його допустимим.

Вас також можуть зацікавити новини: