
Меми здатні погіршувати когнітивні здібності та критичне мислення не лише людей, а й штучного інтелекту. До такого висновку дійшли дослідники з Техаського університету в Остіні, Техаського університету A&M та Університету Пердью.
За їхніми словами, великі мовні моделі, які навчаються з використанням великої кількості популярного, але низькоякісного контенту, можуть поступово "тупішати".
Ці результати співпдають з дослідженнями, які проводилися на людях. Вони споживали велику кількість низькоякісного вмісту у соціальних мережах, що безпосередньо впливало на їхні когнітивні здібності. Примітно, що в 2024 році через поширеність цього явища в Оксфордському словнику для цього з'явився відповідний термін – "брейнрот".
"Ми живемо в епоху, коли інформація зростає швидше, ніж тривалість концентрації уваги, і значна її частина розроблена для того, щоб фіксувати кліки, а не передавати правду чи глибину", – сказав майбутній доцент Національного університету Сінгапуру, який працював над дослідженням як аспірант Техаського університету в Остіні Джуньюань Хонг.
Хонг та його колеги завантажували різні типи текстів у дві відкриті мовні моделі на етапі попереднього навчання та спостерігали, як моделі реагують на поєднання надто "цікавих" або популярних публікацій із соцмереж, а також на тексти з сенсаційними словами, такими як "вау", "дивіться" чи "тільки сьогодні".
Далі команда дослідників застосувала кілька контрольних метрик, щоб оцінити, як така "сміттєва" інформаційна дієта впливає на моделі Llama від Meta та Qwen від Alibaba.
Результати дослідження показали, що LLM, натреновані на неякісному контенті, почали демонструвати ознаки "штучного брейнроту" – погіршення когнітивних здібностей, зниження здатності до логічного мислення та проблеми з пам'яттю. Більше того, вони ставали менш етично узгодженими та проявляли більш психопатичні риси, згідно з двома показниками.
Також дослідники з'ясували, що моделі ШІ, які "отруїлися" великою кількістю низькоякісного контенту, було складно відновити або повторно натренувати. Ще вони дійшли висновку, що системи, побудовані на базі соціальних мереж, як-от Grok від xAI, можуть мати серйозні проблеми з контролем якості, якщо в навчанні використовуються пости користувачів без перевірки їхньої правдивості.
За словами Хонга, результати цього дослідження мають велике значення для ШІ-галузі. Розробники нерідко вважають пости із соцмереж як корисне джерело даних для навчання моделей, але насправді такий контент може непомітно знижувати їхню здатність до міркування, етичність і увагу до довготривалого контексту.
Штучний інтелект: останні новини
Раніше УНІАН повідомляв, що генерал-майор Вільям Хенк Тейлор, головнокомандувач збройних сил США зізнався, що радиться із ChatGPT із важливих питань. За словами генерала, він використовує ChatGPT, щоб дослідити, як він ухвалює військові та особисті рішення, що впливають не лише на нього, а й на тисячі солдатів, якими він командує. Тейлор додав, що хоча ця технологія корисна, він визнав, що встигати за темпами прогресу у цій галузі непросто.
Також ми писали, що компанія Microsoft у звіті Digital Defense Report 2025 зазначила, що штучний інтелект кардинально посилив ефективність фішингових атак. В компанії зазначили, що листи, згенеровані нейромережами, отримують 54% переходів за шкідливими посиланнями проти 12% у звичайних розсилок. Як пояснюють дослідники, ШІ допомагає зловмисникам створювати більш переконливі та персоналізовані повідомлення.