
Генеральний директор NVIDIA Дженсен Хуанг розповів, що перші експерименти з машинним навчанням проводили 2012 року на звичайній споживчій відеокарті, точніше, на парі GTX 580 із 3 ГБ пам'яті, об'єднаних у SLI.
Як Хуанг розповів на подкасті Джо Рогана, саме на цьому залізі запрацював AlexNet, що став поворотною точкою для всієї індустрії.
Дослідники Торонтського університету Алекс Крижевський, Ілля Суцкевер і Джеффрі Хінтон шукали спосіб поліпшити розпізнавання зображень, коли нейромереж у звичному вигляді ще не існувало.
До того розробники покладалися на вручну написані алгоритми для виділення граней, кутів і текстур. AlexNet став проривом, у якому було 8 шарів і близько 60 мільйонів параметрів, здатних навчатися самостійно за допомогою комбінації згорткових і глибоких нейронних мереж.
Результат виявився настільки вражаючим, що модель перевершила провідне рішення в комп'ютерному зорі більш ніж на 70%.
Хуанг зазначив, що AlexNet був оптимізований під дві GTX 580 і обмінювався даними між GPU тільки тоді, коли це було необхідно, що серйозно скорочувало час навчання.
У ті роки NVIDIA майже не займалася ШІ-технологіями, фокус компанії був на 3D-графіці, геймінгу та розвитку ядер CUDA. GTX 580 створювалася для ігор і не мала жодних спеціалізованих можливостей для прискорення нейромереж, але саме її паралельна архітектура виявилася ідеальною для таких завдань.
За словами Хуанга, успіх AlexNet змусив NVIDIA повністю переглянути стратегію і в 2012 році вкластися в технології машинного навчання. Так з'явилися пристрої DGX, один з яких було подаровано Ілону Маску, з'явилася архітектура Volta з першими тензорними ядрами і технології на кшталт DLSS.
Раніше ми розповідали, що очільник NVIDIA насварив своїх менеджерів, які радять менше використовувати ШІ. Водночас Дженсен Хуанг запевняє, що нейромережі не відберуть у людей роботу.