ХЗ. Хто знає, яким буде майбутнє - Тім О’Райлі
Застосовуючи машинне навчання, розробники користаються зі здатності комп’ютерів швидко повторювати одну й ту саму операцію багато разів — із незначними варіаціями. Янн якось пожартував: «Найбільша проблема реального світу в тому, що він не може рухатися швидше, ніж у реальному часі»192. А от комп’ютери роблять це постійно. Програму штучного інтелекту AlphaGo для гри в ґо від британської DeepMind, яка 2016 року обіграла одного з найкращих гравців у світі, навчали за допомогою бази даних на 30 мільйонів комбінацій із відомих ігор за участі реальних гравців. Потім програма зіграла мільйони ігор сама з собою, щоб відшліфувати модель.
Машинне навчання стало важливою частиною пошукової системи Google. Так, 2016 року Google оголосила про запуск RankBrain. Ця модель машинного навчання визначає сторінки, що стосуються пошукового запиту користувача, але не містять слів із нього. Це доцільно, коли користувачі вводять незнайомі для системи запити. Як повідомляє Google, висновки RankBrain посідають третє місце серед 200 факторів, які враховує пошуковик, розподіляючи сторінки за рейтингом193.
Google застосовує глибинне навчання і для онлайн-перекладача. Після кількамісячних тестувань метод виявився настільки дієвим, що розробники зупинили роботу над старою системою машинного перекладу, що вже згадувалася в цьому розділі, і повністю замінили її на нову, засновану на глибинному навчанні194. Google Translate досі не зрівняється з перекладачами-людьми, але система до цього близька — принаймні для повсякденних потреб, а не для літературного перекладу.
Глибинне навчання використовується в сервісі Google Photos. Якщо ви ним користувалися, то знаєте, що система здатна розпізнавати об’єкти на ваших фотографіях. Уведіть слово «кінь», і програма видасть усі фотографії із зображенням коней, навіть якщо немає цього слова в підписах. Уведіть «палац» чи «паркан», і побачите фотографії з відповідними зображеннями. Це диво!
Неймовірно, але Google Photos виконує такі запити, обробляючи фотографії понад 200 мільйонів користувачів — сотні мільярдів фотографій, які бачить уперше.
Ця технологія називається «навчання з учителем»: Google Photos ніколи не бачив ваших фотографій, зате бачив багато інших. Системі «показували» набір даних для навчання, де дані — категоризовані. Mechanical Turk від Amazon або схожі сервіси розсилають по одній картинці тисячам працівників, які мають описати зображені об’єкти, відповісти на запитання (наприклад: який колір?) або, у випадку Google Photos, просто зробити підпис.
Amazon називає такі мікрозавдання HITs (абревіатура від англійського Human Intelligence Tasks — завдання для людського інтелекту). У кожному завданні одне запитання, а іноді навіть варіанти відповіді: «Якого кольору машина на цьому зображенні?»; «Яка це тварина?». Один HIT надсилається багатьом працівникам: якщо більшість дає однакову відповідь, припускається, що вона правильна. За рахунок економіки вільного заробітку (так званої гіг-економіки), яка виводить водіїв Uber на рівень працівників середнього класу, кожний HIT обходиться не більше ніж у пенні.
Роль Mechanical Turk у машинному навчанні засвідчує, як тісно взаємопов’язані люди і машини, що розробляють програми нового покоління. Дослідниця Microsoft Мері Ґрей, яка аналізує Mechanical Turk, наголосила: історія розвитку штучного інтелекту простежується в тому, як змінювалися HITs при формуванні наборів даних для навчання. (Цікавий приклад: на початку 2017 року Google оновила систему Site Rater Guidelines («Принципи оцінювання сайтів»), яка, за словами Пола Гаагра, стала інженером Google з ранжування. Оновлення передбачає інший підхід до наборів даних для навчання, щоб алгоритми визначали фейкові новини)195.
Святий Грааль штучного інтелекту — «навчання без учителя», за якого машина навчається самостійно, без ретельної підготовки. Розробники DeepMind викликали резонанс, повідомивши, що їхні алгоритми «здатні навчатися самі за рахунок практики або даних»196. Компанія Google придбала DeepMind за 500 мільйонів доларів, коли 2014 року розробники представили програму штучного інтелекту, яка «подивилася», як грають у старі ігри для консолі Atari, і собі навчилася грати.
Славнозвісна перемога AlphaGo над провідним гравцем у ґо Лі Седолом була великим проривом у галузі штучного інтелекту. Це напрочуд складна гра, для якої забракне звичайного аналізу кожного можливого ходу. Втім співзасновник DeepMind Деміс Гассабіс пише: «Нам іще далеко до машин, здатних навчитися гнучкого виконання різноманітних інтелектуальних завдань, які до снаги людям, адже ефективність штучного інтелекту вимірюється людськими можливостями»197.
Янн Лекун розкритикував людей, які перебільшують значення перемоги AlphaGo: «Люди і тварини здебільшого навчаються “без учителя”. Дозволю собі аналогію з тортом: “навчання без учителя” — це торт, “навчання з учителем” — це крем, а “навчання з підкріпленням” — це вишенька. Ми знаємо, як приготувати крем і вишеньку, а от спекти торта не вміємо. Нам треба вирішити проблему з навчанням “без учителя”, перш ніж замислюватися про штучний інтелект»198.
Наразі без участі людей ніяк: люди розробляють моделі і навчають моделі, використовуючи дані. Це може призводити до мимовільних упереджень. Мабуть, найважливіше в технологіях штучного інтелекту — не розробка нових алгоритмів, а формування набору неупереджених даних для навчання. На цю тему варто почитати книжку Кейті О’Ніл «Зброя математичного знищення» (Weapons of Math Destruction). Наприклад, вам треба навчити машинну модель для предиктивної правоохоронної системи за допомогою набору даних про арешти. Однак у реєстраційних записах не відображено, що поліція заарештовує всіх афроамериканців, які завинили, а білим просто каже: «Щоб більше мені не попадався!». У такому разі модель не дає реальної картини. Отож особливості даних для навчання набагато більше впливають на результат, аніж алгоритми. Якщо розробники цього не розуміють — це вже серйозне упередження, і, скільки не штудіювати комп’ютерні науки, подолати його нелегко.
Цей сумний приклад спонукає замислитися, як саме працює машинне навчання. Кожна модель має багато векторів ознак, що створюють n-вимірний простір, де класифікатор або розпізнавач розміщує нову одиницю для обробки. Ведуться ґрунтовні дослідження для суттєвих змін в алгоритмах машинного навчання, але найважливіший аспект у прикладному машинному навчанні лишається незмінним: визначити ознаки, які обіцяють бажаний результат.
Джеремі Говард — колишній директор із розвитку компанії Kaggle, яка проводить краудсорсингові конкурси з аналітики даних. Сам він був п’ятиразовим переможцем цих конкурсів, перш ніж приєднався до команди Kaggle. Я запитав, що вирізняє переможців, а він відповів: «Креативність! Усі використовують однакові алгоритми.