За оцінками глави відділу систем безпеки, деякі з наступників поточної "міркуючої" моделі o3 досягнуть цього рівня.
Керівники OpenAI попередили, що їхнє наступне покоління моделей штучного інтелекту (ChatGPT) може нести нові ризики – аж до створення біологічної зброї, що дасть змогу людям без наукової освіти створювати потенційно небезпечні речовини.
Хоча точних термінів появи високоризикових ШІ не називають, голова відділу систем безпеки OpenAI Йоханнес Гайдеке підкреслив, що "деякі з наступників o3 досягнуть цього рівня".
"Ми ще не в тому світі, де є щось нове, абсолютно невідоме, що створює біологічні загрози, які не існували раніше. Ми більше турбуємося про відтворення речей, з якими вже добре знайомі експерти", – пояснив Гайдеке.
Складність обмеження ШІ полягає в тому, що деякі з тих самих можливостей, які могли б дозволити великим мовним моделям (LLM) здійснювати прориви в медицині, також можуть бути використані на шкоду.
Він визнав, що OpenAI та іншим компаніям потрібні системи виявлення, здатні запобігати шкідливому використанню з точністю вище 99%, а краще – в межах одного випадку на сто тисяч. Водночас важливим є людський нагляд: моніторингові команди мають швидко реагувати на інциденти, які обходять автоматичну фільтрацію, і оперативно усувати потенційну загрозу.
Ще 2024 року OpenAI заявляла про розробку системи раннього попередження, здатної блокувати спроби використання ChatGPT для отримання даних, що могли б сприяти створенню біологічної зброї. У квітні цього року було впроваджено систему спостереження за моделями o3 і o4-mini, що відстежує потенційно небезпечні запити, пов'язані з хімічними та біологічними загрозами. Ці заходи спрямовані на те, щоб ШІ не давав інструкцій, здатних призвести до розробки реальної зброї.
Напередодні вчені вперше знайшли докази того, що ШІ може мислити як людина. Це відкриття може вплинути на розвиток ШІ та змінити підхід до оцінки його когнітивних здібностей.
Як УНІАН уже писав, понад 52 тисячі айтішників було звільнено в усьому світі з початку 2025 року. Причина – розвиток штучного інтелекту, який може ефективно виконувати рутинні завдання програмування, включно з написанням коду і тестуванням.