Legatus

Ученые предлагают новый подход к созданию объективного ИИ

Февраль 03
08:03 2019

Алгоритмы ИИ могут быть не менее предвзятыми, чем люди, и руководствоваться искаженными данными при определении суммы кредита, устройстве на работу или вынесении приговора. Исследователи из Бостона предложили для начала определить саму «справедливость».

По мере того как искусственный интеллект становится все более умелым в решении сложных задач, мы начинаем ему доверять принимать важные решения. Но насколько справедливые решения он принимает? Работа специалистов Бостонского университета «From Soft Classifiers to Hard Decisions: How fair can we be?», которая будет представлена на этой неделе на конференции Ассоциации вычислительной техники ACT FAT, пытается дать ответ на этот вопрос. Она основана на изучении исследований последних лет, посвященных предвзятости ИИ, сообщает VentureBeat.

Ученые, которые занимаются этой темой, сталкиваются с отсутствием четкого критерия оценки непредвзятости ИИ. У разный научных групп — разные определения справедливости. Каждое по отдельности кажется верным, но они абсолютно не совместимы друг с другом.

Невозможно создать систему, которая удовлетворяла бы им всем, говорит профессор Адам Смит, соавтор статьи.

Бостонская группа использовала в качестве отправной точки данные, опубликованные в рамках исследования программы оценки рецидивизма COMPASS. Проводившая исследование организация ProPublica пришла к выводу, что COMPASS предвзята к афроамериканцам и рекомендует осуждать их на более продолжительные сроки тюремного заключения.

На основании этих данных ученые разработали новый подход к оценке риска повторного совершения преступления. Он снижает и ложно положительные и ложно отрицательные значения, то есть добивается большей объективности для различных групп населения. Кроме того, платформа научилась отмечать случаи, в оценке которых она не уверена.

Протестировав свой алгоритм на данных расследования ProPublica, ученые обнаружили, что только 75% случаев получили верную оценку программы COMPASS. Четверть нуждается в перепроверке.

Осенью прошлого года IBM выпустила эксперта по предвзятости — пакет программ AI Fairness 360. Это комплексное решение с открытым кодом, с помощью которого можно проверить, есть ли у используемого алгоритма нежелательные предубеждения.

Источник: hightech.plus

Share

Статьи по теме







0 Комментариев

Хотите быть первым?

Еще никто не комментировал данный материал.

Написать комментарий

Комментировать

Залишаючи свій коментар, пам'ятайте, що зміст та тональність вашого повідомлення можуть зачіпати почуття реальних людей, що безпосередньо чи опосередковано пов'язані із цією новиною. Виявляйте повагу та толерантність до своїх співрозмовників. Користувачі, які систематично порушують це правило, будуть заблоковані.

Website Protected by Spam Master


Останні новини

Челси не преодолел Легию, но пробился в полуфинал Лиги конференций

Читать всю статью

Ми у соцмережах




Наші партнёри

UA.TODAY - Украина Сегодня UA.TODAY
enfrdeitplptruestruk