«Исследователи из Стэнфордского и Массачусетского университетов 22 ноября в журнале Science опубликовали разработанный ими новый подход к машинному обучению, позволяющий предотвратить возможное нежелательное поведение со стороны искусственного интеллекта. Они показали свои результаты в двух сферах применения: гендерная дискриминация и лечение диабета. В предлагаемой ими структуре используются так называемые «селдонские» алгоритмы, названные так в честь персонажа Гэри Селдона, созданного писателем-фантастом Айзеком Азимовым. Последний изобрел «позитронных роботов», управляемых посредством трех законов, защищающих людей, с тех пор известных как «законы Азимова», — пишет Ножа Буйемаа, специалист по искусственному интеллекту, на
страницах Le Monde.
На самом деле, речь идет о системе подходов, которые объединяют в своих целевых функциях оптимизацию ограничений, которые необходимо соблюдать, чтобы избежать причинения вреда человеку. Таким образом, уважение его физической целостности передается разработчику алгоритма обучения, а не тому, кто его использует или размещает. Это алгоритмы «ответственного замысла», обнародование которых хорошо театрализовала американская команда исследователей со ссылкой на Селдона и Азимова, передает Le Monde.
«Это возвращает нас к научной фантастике, пробуждающей любопытство и удивление. Основная идея заключается в том, чтобы предвидеть ответственность в стадии концепции, а не контролировать апостериори поведение алгоритма с помощью механизма проверяемости. Эти подходы противоположны философской мысли, считающей, что погрешности исходят только от данных и что алгоритмы безупречны», — пояснят автор статьи.
«Прежде всего, важно сохранение физической и психической целостности человека. Это золотое правило для любого технологического развития, включая искусственный интеллект. Если внимательно посмотреть на его последствия, то обнаружится физическая безопасность (например, для автономных транспортных средств), защита персональных данных, а также сохранение свободной воли и избежание подталкивания («влияния мнения»). Недавно можно было наблюдать, как в случае политического маркетинга влияние мнения оказывает пагубное воздействие на нашу демократию, хотя это и не является незаконным. Это прекрасный пример разрыва между законом, ответственностью и этикой», — отмечает Буйемаа.
Большое значение имеет интерпретируемость алгоритмического поведения и возможность располагать средствами контроля (априори или апостериори) над их способностью уважать этические, моральные и правовые нормы. Не менее важна объяснимость: это способность обосновать процесс принятия решения алгоритмом, говорится в статье.
Создаст ли машинное обучение позитивных роботов
Новости партнеров
ЧИТАЙТЕ ТАКЖЕ
Чому відгуки важливі при виборі криптобіржі
18.11 -
15:01
Комментарии