Разработка морального компаса для ИИ из человеческих текстов. Искусственный интеллект (AI) переводит документы, предлагает методы лечения пациентов, принимает решения о покупке и оптимизирует рабочие процессы. Но где его моральный компас? Исследование, проведенное Центром когнитивных наук в Университете Дармштадта, показывает, что ИИ-машины действительно могут учиться моральному компасу у людей. Результаты этого исследования были представлены на конференции ACM / AAAI этого года по вопросам искусственного интеллекта, этики и общества (AIES).

Могут ли машины развить моральный компас? Фото: Патрик Бал

ИИ оказывает все большее влияние на наше общество. От автоматических автомобилей на дорогах общего пользования до самооптимизирующихся систем промышленного производства и здравоохранения – машины ИИ решают все более сложные задачи человека все более автономными способами. И в будущем автономные машины будут появляться во все большем количестве областей нашей повседневной жизни. Неизбежно, они столкнутся с трудными решениями. Автономный робот должен знать, что он не должен убивать людей, но можно убивать время. Робот должен знать, что он должен жарить кусочек хлеба, а не хомяка. Другими словами: ИИ нуждается в человеческом нравственном компасе. Но может ли искусственный интеллект выучить такой компас у людей?

Исследователи из Принстона (США) и Бата (Великобритания) указали ( Наука, 2017) опасность того, что ИИ при применении без осторожности может выучить ассоциации слов из письменных текстов и что эти ассоциации отражают те, которые изучены людьми. Например, ИИ интерпретировал мужские имена, которые более распространены в афроамериканском сообществе, как довольно неприятные, а имена, предпочитаемые кавказцами, как приятные. Он также связывал женские имена больше с искусством, а мужские – с технологией. Для этого огромные коллекции письменных текстов из Интернета были переданы в нейронную сеть для изучения векторных представлений слов – координат, то есть слова переводятся в точки в многомерном пространстве. Семантическое сходство двух слов затем вычисляется как расстояние между их координатами, так называемые вложения слов и сложные семантические отношения могут быть вычислены и описаны с помощью простой арифметики.

Машины могут отражать наши ценности

Теперь команда, возглавляемая профессорами Кристианом Керстингом и Константином Роткопфом из Центра когнитивных наук ТУ Дармштадт, успешно продемонстрировала, что машинное обучение может также извлечь деонтологические, этические рассуждения о «правильном» и «неправильном» поведении из письменного текста. Для этого ученые создали шаблон списка подсказок и ответов, который включает такие вопросы, как «Должен ли я убивать людей?», «Должен ли я убивать людей?» И т. Д. С шаблонами ответов «Да, я должен» или « Нет, не должен ». Обрабатывая большое количество человеческих текстов, система ИИ разработала моральный компас, похожий на человека. Моральная направленность машины рассчитывается путем встраивания вопросов и ответов. Точнее, смещение машины – это разница расстояний до положительного ответа («Да, я должен») и отрицательного ответа («Нет, Мне не следует"). Для данного морального выбора в целом, оценка смещения модели является суммой оценок смещения для всех шаблонов вопросов / ответов с этим выбором. В ходе экспериментов система узнала, что не следует врать. Также лучше любить своих родителей, чем грабить банк. И да, вы не должны убивать людей, но хорошо убивать время. Вы также должны положить ломтик хлеба в тостер, а не хомяк.

Исследование дает важное понимание фундаментального вопроса ИИ: могут ли машины развить моральный компас? И если да, то как мы можем эффективно «научить» машины нашему моральному духу? Результаты показывают, что машины могут отражать наши ценности. Они могут действительно принимать человеческие предрассудки, но они также могут принимать наш моральный выбор, «наблюдая» за людьми. В целом, встраивание вопросов и ответов можно рассматривать как тип микроскопа, который позволяет изучать моральные ценности текстовых коллекций, а также развитие моральных ценностей в нашем обществе.

Результаты этого исследования предоставляют несколько возможностей для будущей работы, в частности, при включении модулей, созданных с помощью машинного обучения, в системы принятия решений.

По материалам phys.org