Главная » Инвестиции » Человеческая слабость: как избавить искусственный интеллект от расизма

Человеческая слабость: как избавить искусственный интеллект от расизма

Охотники на рассистов

DeepMind — одна из ведущих мировых компаний в области искусственного интеллекта, которая была приобретена Google в 2014 году и вошла в состав холдинга Alphabet. DeepMind проникли в самую суть того, как ИИ принимает свои решения.

Лондонская компания под руководством Демиса Хассабиса недавно опубликовала статью на arXiv — хранилище научных документов, в которой предлагается новый способ построения алгоритмов без дискриминации людей по гендерным, расовым и другим «чувствительным» признакам. Статья под заголовком «Контрфактическая справедливость в принятии решений», была представлена научными сотрудниками DeepMind Сильвией Кьяппой и Томасом Гилламом в конце февраля. В ней говорилось о том, насколько важно понимание сложных механизмов, на основании которых искусственный разум будет делать соответствующий выбор.

«Контрфактическая справедливость» — это метод принятия решений с помощью ИИ. Он предполагает, что компьютеры могут квалифицировать то или иное суждение о какой-либо личности как «справедливое», если такое же суждение было сделано в воображаемом мире, в котором личность относилась к другой демографической группе на основе «несправедливых ориентиров» — другими словами, если в параллельном мире женщина была бы фактически мужчиной, или белый мужчина был бы фактически темнокожим.

Вклад DeepMind в эту дискуссию едва заметный, но имеет потенциальную значимость, учитывая тот факт, что облачные технологии Google широко используются многими разработчиками, и их предположения на эту тему будут важны.

На последней конференции по искусственному интеллекту, организованной Re:Work в Лондоне, Кьяппа объяснила, что «вместо того, чтобы ограничивать систему, мы естественным образом обучаем ее, при этом вносим изменения, исправляя все переменные, возникшие вследствие таких «чувствительных» признаков, как раса или пол, на основе «несправедливых ориентиров».

Трудности борьбы за равноправие

В какой-то степени такие научные работы должны столкнуться с определением того, что такое истинно «справедливое» решение, а это нелегкая философская задача. Для этого в октябре 2017 года DeepMind создала новую группу, которая будет заниматься вопросами этики, что очень своевременно, учитывая степень озабоченности разнообразием программных решений и важности принятия непредвзятого решения с помощью ИИ. Это группа включает несколько сторонних партнеров, в частности, институт изучения ИИ AI Now Institute и Британское Королевское Сообщество. Они составили свой собственный набор принципов того, как ИИ должен использоваться в интересах общества.

Одна из проблем заключается в том, что нейронные сети, как те, что компания DeepMind создала в прошлом году для игры «го», напоминают «черные ящики». Происходящие в них процессы трудно отследить, и они самообучаемы.

«Понимание риска предвзятости искусственного разума не является той проблемой, которую научно-технические специалисты могут разрешить «в вакууме», — говорит Крити Шарма, консультант по искусственному интеллекту в Sage, британской компании, специализирующейся на разработке программных решений в области управления предприятиями. «Мы должны сотрудничать с экспертами в области антропологии, права, с ответственными за формирование политики, а также крупными предпринимателями, чтобы решать те вопросы, которые ставят перед нами технологии».

«Интересно наблюдать за расширением научно-исследовательской деятельности в области справедливости искусственного интеллекта за последние 18 лет, — говорит Кьяппа, — но, честно говоря, мы не видим достаточного количества бизнес-лидеров или компаний, применяющих ИИ, тех, кто в конечном итоге будет использовать технологии в каждом аспекте нашей жизни, кто возьмет на себя такой уровень ответственности, чтобы создать непредвзятый ИИ».

Перевод Натальи Танюк

Читайте также

Запутать робота: как и зачем люди обманывают искусственный интеллект