ХЗ. Хто знає, яким буде майбутнє - Тім О’Райлі
Ми також розуміємо, коли IT-компанії використовують дані проти нас або продають їх людям, яким до нас байдуже. Якщо мені не показують найвигідніших цін на якомусь сайті, бо той визначив, що я маю змогу або готовність платити більше, мої дані несправедливо використовуються проти мене. Одна зі скандальних історій: сайт Orbitz спрямовував користувачів макбуків на дорожчі готелі204, а користувачів ПК — на дешевші. Це практика «червоної лінії»: так колись на мапах позначали території районів, мешканцям яких не видавали позик і страховок або завищували ставки — часто за расовою ознакою. Без сумніву, тест на «підозрілість» не пройде й дезінформація, яку політики орієнтують на певну аудиторію, використовуючи дані користувачів.
Усе це вороги приватності, які користаються з дисбалансу сил, копирсаються в подробицях нашого приватного життя — ніяк не пов’язаних із послугами, що дали їм доступ до цих даних. Державні норми про приватність треба спрямовувати проти цих ворогів, а не зациклюватися на збереженні й використанні даних.
Уповноважені чиновники мають розуміти, де межа сприятливої передачі даних від споживачів до постачальників послуг. На мою думку, страхові компанії мають право знижувати тарифи для відповідальних водіїв, а також перевіряти, скільки кілометрів долає автомобіль за рік, або чи не перевищує клієнт швидкості. А от коли страховик раптом підвищує тарифи за моїми взагалі-то приватними даними про правову поведінку (скажімо, ризики у зв’язку з місцем праці чи особистими поїздками), я маю всі підстави «підозрювати», що дані використовуються проти мене.
Найкращий спосіб боротьби з практикою «червоної лінії» — заборона компаніям із доступом до даних на зловживання. Заборона на збір даних (до чого закликають захисники приватності) — не вихід. Як зазначив Девід Брін, «знати напевно, чи немає в когось на вас інформації, неможливо. Простіше довідатися, чи цей хтось не завдає вам шкоди інформацією».
Чиновники мають проаналізувати потенційні шкідливі дії проти людей, які розкривають свої дані. А тоді боротися з цими діями. Обмеження на збір даних не допоможуть. Коли людям відмовляють у медичній страховці через їхню історію хвороб, дані використовуються на шкоду (цій проблемі зарадив Акт про доступну медицину). Натомість правила, визначені в Законі 1996 року про захист інформації, наданої для медичного страхування (HIPAA), гарантують конфіденційність, а не регулюють використання даних. Однак цей Закон ускладнив багато медичних досліджень, а також обмежив пацієнтам доступ до власних даних.
Подібно до того, як було вирішено проблему махінацій із банківськими картками, чиновники мають стимулювати IT-компанії до чесної діяльності в інтересах споживачів. Наприклад, достатньо запровадити відповідальність за зловживання даними, проданими третім сторонам, щоб знеохотити підприємців до продажу інформації. Схожий підхід застосовується для контролю за законними механізмами, як-от інсайдерська торгівля: ви маєте право отримувати від інсайдерів важливу внутрішню інформацію, але не можете на ній заробляти.
Особливу увагу слід звернути на агрегатори даних, які збирають інформацію не для послуг споживачам, а для того, щоб передавати дані зацікавленим компаніям. За браку безпосередньої передачі даних від користувача до постачальника послуг, більше шансів, що дані будуть використані на користь покупця, а не власника даних.
Нині діють вимоги стосовно розкриття інформації і згоди на використання особистих даних, а це вкрай слабкі регуляторні інструменти. Постачальники послуг маскують підступні наміри складними юридичними формулюваннями, які люди рідко читають, а коли читають, не розуміють. Ліцензії для машинного зчитування на об’єкти авторського права, як-от Creative Commons, були б непоганим початком для послуг, які не порушують приватності. Ліцензія Creative Commons дозволяє тим, хто публікує контент, чітко і доступно пояснювати свої наміри: традиційне «усі права захищені» чи ліцензія CC BY-NC-ND (що вимагає посилання на автора і забороняє переробляти контент, але дозволяє вільно поширювати його для некомерційних потреб) тощо205. П’ять ретельно продуманих ліцензійних положень Creative Commons, що читаються і машиною, і людиною, дозволяють користувачам сайту Flickr для розміщення фотографій чи відеогостингу Youtube шукати контент, який відповідає умовам певних ліцензій. Якщо запровадити таку систему приватності всюди, вийде досить ефективний механізм.
За президентства Обами була така ініціатива «Смарт-розкриття інформації» (Smart Disclosure), яка передбачала «своєчасну передачу комплексу інформації й даних у стандартизованих форматах для машинного зчитування, що дозволяють користувачам приймати доцільніші рішення»206. Нові технології, на зразок блокчейну, теж можна використати для цифрової версії угод і правил, розробивши такі собі «смарт-контракти»207. Такі контракти суттєво змінять підхід до приватності даних. Замість послуговуватися безапеляційним інструментом «не відстежувати» у браузерах, користувачі будуть визначати конкретні обмеження на використання даних. На відміну від паперових, цифрові угоди про приватність мають більшу юридичну силу і відстежуються.
Утім з автоматизованими системами контролю важливо розуміти критерії прийняття рішень. У майбутньому, за «алгократії» (як дехто каже), тобто за доби використання алгоритмів для прийняття рішень у реальній площині (кому видавати кредит, а кому — ні; кому пересаджувати пожертвувані органи; кого випускати, а кого не випускати з в’язниці), треба подбати про справедливі механізми.
Якщо, так само як мене, дорожні камери спостереження піймали вас на проїзді на червоне світло, ви знаєте, що алгоритми справедливо пильнують безпеку на дорозі. Мені видали зображення, де зазначено час і видно, що моя машина рушила, коли на світлофорі загорілося червоне світло. Тож жодних претензій!
Викладач права Тал Зарскі, який досліджує етику використання даних й алгоритмічних рішень, стверджує: навіть коли програма приймає рішення на основі тисячі показників, а розробник алгоритму може лише запевнити, що враховано «попередні випадки», має сенс вимога про інтерпретованість даних208. Якщо ми цінуємо свободу особистості, треба дбати, щоб кожний міг дізнатися, чому алгоритм визначив для нього той чи інший захід.
Щоправда, на тлі стрімкого розвитку машинного навчання, це буде дедалі складніше. Компаніям, що не уточнюють, який саме регуляторний режим здавна використовують чи планують розробити (це був би оптимальний варіант), слід очікувати судових позовів.