Олександрія Оказьо-Кортес каже, що алгоритми можуть бути расистськими. Ось чому вона права.

Pin
Send
Share
Send

Минулого тижня новообраний представник США Олександра Окасіо-Кортес виголосив заголовки, коли вона сказала, що в рамках четвертого щорічного заходу MLK Now, що технології та алгоритми розпізнавання обличчя "завжди мають ці расові нерівності, які перекладаються, оскільки алгоритми все ще зроблені людьми, і ці алгоритми все ще прив’язані до основних припущень людини. Вони просто автоматизовані. А автоматизовані припущення - якщо ви не виправите упередження, то ви просто автоматизуєте зміщення ".

Чи означає це, що алгоритми, які теоретично базуються на об'єктивних істинах математики, можуть бути "расистськими?" І якщо так, то що можна зробити, щоб усунути цю зміщення?

Виявляється, вихід алгоритмів дійсно може дати необ’єктивні результати. Вчені даних кажуть, що комп'ютерні програми, нейронні мережі, алгоритми машинного навчання та штучний інтелект (AI) працюють, оскільки вони вчаться поводитись із даних, які їм надаються. Програмне забезпечення написано людьми, які мають упередження, а дані про навчання також формуються людьми, які мають упередженість.

Два етапи машинного навчання показують, як це зміщення може перерости в, здавалося б, автоматизований процес. На першому етапі, навчальному етапі, алгоритм вивчається на основі набору даних або за певними правилами чи обмеженнями. Другий етап - етап висновку, на якому алгоритм застосовує те, що вивчив на практиці. Цей другий етап розкриває ухили алгоритму. Наприклад, якщо алгоритм тренується із зображеннями лише жінок, які мають довге волосся, то він подумає, що хто з коротким волоссям - це чоловік.

Google ганебно потрапив під обстріл у 2015 році, коли Google Photos позначив чорношкірих людьми горилами, ймовірно, тому, що це були єдині темношкірі істоти в навчальному наборі.

І упередженість може прокрастися через багато проспектів. "Поширена помилка - це підготовка алгоритму для прогнозування, заснованого на минулих рішеннях від упереджених людей", - розповіла Live Science Софі Сірсі, старший науковець у навчальному завантажувальному кабінеті Metis. "Якщо я буду алгоритм для автоматизації рішень, прийнятих раніше групою кредитних службовців, я міг би пройти легку дорогу і навчити алгоритм попередніх рішень цих кредитних службовців. Але тоді, звичайно, якби ці позичальники були упередженими, тоді алгоритм, який я будую, продовжить ці упередження ".

Searcy наводила приклад COMPAS - інструменту прогнозування, який застосовується в американській системі кримінального правосуддя для винесення вироку, який намагається передбачити, де буде відбуватися злочин. ProPublica провів аналіз на КОМПАС і виявив, що, контролюючи інші статистичні пояснення, інструмент завищив ризик рецидивування чорних підсудних і постійно недооцінював ризик для білих підсудних.

Щоб допомогти боротися з алгоритмічними упередженнями, Searcy розповів Live Science, інженерам та науковцям даних слід будувати більш різноманітні набори даних для нових проблем, а також намагатися зрозуміти та пом’якшити упередження, вбудовані в існуючі набори даних.

Перш за все, зазначає Іра Коен, науковець з даних прогностичної аналітичної компанії Anodot, інженерам слід мати навчальний набір з відносно рівномірним представленням усіх типів населення, якщо вони навчають алгоритм визначення етнічних чи гендерних ознак. "Важливо представляти достатню кількість прикладів з кожної групи населення, навіть якщо вони є меншиною в цілій популяції, що обстежується", - сказав Коен Live Science. Нарешті, Коен рекомендує перевірити наявність упередженості на тестовому наборі, який включає людей з усіх цих груп. "Якщо для певної гонки точність статистично значно нижча, ніж для інших категорій, алгоритм може мати упередження, і я би оцінив дані тренувань, які для цього використовувались", - сказав Коен LiveScience. Наприклад, якщо алгоритм може ідентифікувати 900 з 1000 білих облич, але правильно виявляє лише 600 з 1000 азіатських облич, то алгоритм може мати упередженість "проти" азіатців, додав Коен.

Усунення зміщення може бути надзвичайно складним для AI.

Навіть Google, який вважався передвісником комерційного AI, очевидно, не міг придумати комплексного рішення своєї проблеми горили з 2015 року. Wired встановив, що замість того, щоб знайти алгоритми, щоб розрізняти кольорів і горил, Google просто заблокував його алгоритми розпізнавання зображень взагалі від ідентифікації горил.

Приклад Google - гарне нагадування про те, що навчання програмного забезпечення AI може бути складним завданням, особливо коли програмне забезпечення не тестується та не навчається представницькою та різноманітною групою людей.

Pin
Send
Share
Send