У современных систем AI при внедрении выявляется большая проблема — они предвзяты так же, как и люди. В прошлом году компания Amazon попыталась внедрить систему искусственного интеллекта в процесс отбора работников для найма.
Как это происходило в подробностях, компания не комментирует, но известно, что к концу 2018 года от этих планов торговый гигант отказался, хотя вкладывался в создание рекрутинговых систем, начиная с 2014 года.
В прессу просочились сведения о том, что алгоритм AI оказался «женоненавистником». Для него кандидаты-мужчины выглядели однозначно предпочтительнее, чем женщины. Возможно, это было связано с тем, что AI учился на выборке данных, которые были собраны в HR отделах компании Amazon за 10 лет людьми. А люди, как выяснилось, предпочитали нанимать мужчин.
На условиях анонимности некоторые сотрудники компании, имевшие отношение к проекту, рассказали, что для рекрутинга в разные отделы было разработано 500 компьютерных моделей. И все они оказались в разной степени необъективными. Мало того, что алгоритмы выбирали из кандидатов в основном мужчин. Они еще и выбирали низкоквалифицированных мужчин.
Почему-то искусственному интеллекту «нравились» в резюме всякие агрессивные термины, которыми описывали себя кандидаты. А этими терминами злоупотребляли как раз не самые лучшие потенциальные сотрудники.
В конце концов компания Amazon объявила, что пока свернула эксперименты с AI в этой сфере. И особо отметила, что в реальном рекрутинговом отборе алгоритмы не применялись.
Другой случай предвзятости AI был еще более чувствительным. В системе по условно-досрочному освобождению осужденных за преступления в США однажды начали применять искусственный интеллект. Алгоритм предсказывал, какие из осужденных более склонны к повторному совершению преступления, если их освободить сейчас. Мнение AI учитывалось при вынесении решения об освобождении.
Система называлась COMPAS и являлась коммерческим продуктом. Ее работу изучили техно-энтузиасты из американской некоммерческой организации журналистов ProPublica и сравнили результаты предсказания AI с реальными событиями.
Оказалось, что рецидивизм в целом искусственный интеллект предсказывал верно только в 61% случаев. А в сфере насильственных преступлений — только в 20%. Вместе с тем выяснилось, что алгоритм был склонен чаще подозревать в будущем рецидивизме темнокожих арестантов и реже — белых. И, конечно, в реальной картине прогнозы AI оказались неверными. Меж тем, многих людей, которые могли бы получить условно-досрочное освобождение, из тюрьмы не выпустили из-за рекомендаций алгоритма.
Пока такому AI нельзя давать реальную власть
Подобные алгоритмы пытаются применить в сфере определения кредитоспособности заемщиков банков, в персонализации рекламы на онлайн-площадках и в социальных сетях и прочих важных и неважных сферах жизни.
Однако доказанные случаи предвзятости алгоритмов заставили такие компании как Google, Facebook и Apple создать организацию «Партнерство по искусственному интеллекту», одна из миссий которой — быть «полицейским патрулем» на пути внедрения небезопасных моделей AI.
Создатели Партнерства сообщают: «В тех случаях, когда инструменты ИИ используются для дополнения или замены процесса принятия решений человеком, мы должны быть уверены, что они безопасны, заслуживают доверия и соответствуют этическим нормам и предпочтениям людей, на которых влияют их действия»,
Специалисты в сфере AI пока сходятся в одном: искусственный интеллект не может быть лучше того общества, которое его породило. Предвзятость разных моделей AI вызвана предвзятостью тех, кто их создает, загружает в них массивы данных для обучения, а также формирует принципы обучения.