Искусственному интеллекту привили моральные ценности людей с помощью книг и новостей

22.05.2020

Еще один прорыв в области машинного обучения.

Искусственному интеллекту привили моральные ценности людей с помощью книг и новостей

Фото unsplash.com

Недавно группа ученых из Дармштадтского университета попыталась выяснить, можно ли научить искусственный интеллект отделять хорошие поступки от плохих и ориентироваться в человеческих моральных ценностях. Результаты работы были опубликованы в журнале Tech Xplore.

Для этого ИИ дали проанализировать множество книг, написанных за последние 500 лет, а также религиозные писания, конституцию и обычные новости (современные и 30-летней давности).

По словам ученых, информационные материалы конца 1980-х и начала 1990-х побуждают людей создавать крепкие семьи и рожать детей, а новости конца 2000-х больше ориентированы на карьеру и образование. 

Главной задачей искусственного интеллекта было понять, какие действия приветствуются в социуме, а какие являются аморальными. Например, алгоритму была дана задача ранжировать словосочетания со словом «убить» в порядке от нейтральных до отрицательных. Таким образом вышла следующая последовательность: убить время, убить злодея, убить комара, убийство, убить человека. 

Исследователи заявили, что в целом довольны результатами проекта, однако ИИ еще ошибается и путается в массиве данных. 

«Искусственный интеллект решает все более сложные задачи — от самостоятельного вождения машин до здравоохранения. Важно, чтобы мы могли доверять решениям, которые он принимает», — заявили ученые.