Новые алгоритмы машинного обучения гарантируют безопасность и справедливость
Семьдесят лет назад писатель-фантаст Исаак Азимов вообразил мир, в котором роботы будут служить людям бесчисленными способами, и он снабдил их встроенными средствами защиты, известными как «Три закона робототехники» Азимова, чтобы предотвратить их, среди прочих целей, от когда-либо вредить человеку.
По словам исследователя машинного обучения и ведущего автора Филиппа Томаса из Университета Массачусетса в Амхерсте, обеспечение безопасности и справедливого поведения машины все еще остается проблемой. «Когда кто-то применяет алгоритм машинного обучения, его поведение трудно контролировать», — отмечает он. Это рискует получить нежелательные результаты от алгоритмов, которые направляют все, начиная от самостоятельного вождения транспортных средств и заканчивая инсулиновыми помпами, и заканчивая вынесением приговоров, говорят он и соавторы.
Читайте также: обзор игры transport fever 2, это вторая часть игры про логистику. Нравятся поезда, тогда эта игра будет вам интересна.
В статье «Наука о науке» Томас и его коллеги Юрий Брун, Эндрю Барто и аспирант Стивен Жигере из UMass Amherst, Бруно Кастро да Силва из Федерального университета Рио-Гранде-дель-Соль, Бразилия, и Эмма Бранскилл из Стэнфордского университета на этой неделе представляют новую концепцию для разработки алгоритмов машинного обучения, которые облегчают пользователям алгоритма указывать ограничения безопасности и справедливости.
«Мы называем алгоритмы, созданные с помощью нашего нового фреймворка,« Seldonian »после персонажа Азимова Хари Селдона, — объясняет Томас. «Если я использую алгоритм Селдона для лечения диабета, я могу указать, что нежелательное поведение означает опасно низкий уровень сахара в крови или гипогликемию. Я могу сказать машине:« Пока вы пытаетесь улучшить контроллер инсулиновой помпы, не надо » не вносить изменения, которые бы увеличивали частоту гипогликемии ». Большинство алгоритмов не дают вам способа наложить этот тип ограничения на поведение, оно не было включено в ранние разработки ».
«Но упростить обеспечение справедливости и избежать вреда становится все более важным, поскольку алгоритмы машинного обучения все больше влияют на нашу жизнь», — говорит он.
Тем не менее, «в недавнем документе перечислены 21 различные определения справедливости в машинном обучении. Важно, чтобы мы позволили пользователю выбрать определение, соответствующее его предполагаемому применению», добавляет он. «Интерфейс, который поставляется с алгоритмом Seldonian, позволяет пользователю делать именно это: определять, что означает« нежелательное поведение »для их приложения».
В серии «Основание Азимова» Селдон находится в той же вселенной, что и его серия «Роботы». Томас объясняет: «Все развалилось, галактическая империя рушится, отчасти потому, что Три закона робототехники требуют определенности. При таком уровне безопасности роботы парализованы нерешительностью, потому что они не могут действовать с уверенностью и гарантируют, что ни один человек не будет нанесен ущерб своими действиями. «
Селдон предлагает исправить это, обратившись к вероятностным рассуждениям о безопасности. «Это хорошо вписывается в то, что мы делаем, — говорит Томас. — Новый подход, который он и его коллеги обеспечивают, учитывает вероятностные ограничения и требует, чтобы алгоритм указывал способы, которыми пользователь может сказать, что ограничивать. Он говорит:« Структура — это инструмент для исследователя машинного обучения. Он направляет их к созданию алгоритмов, которые пользователям легче применять ответственно к реальным проблемам ».
Чтобы протестировать новую структуру, они применили ее для прогнозирования средних баллов в наборе данных из 43 000 учащихся в Бразилии, создав алгоритм Селдона с ограничениями. Он успешно избежал нескольких типов нежелательных предубеждений по признаку пола. В другом тесте они показывают, как алгоритм может улучшить контроллер в инсулиновой помпе, гарантируя, что он не увеличит частоту гипогликемии.
Томас говорит: «Мы считаем, что есть огромные возможности для улучшения в этой области. Даже с нашими алгоритмами, сделанными из простых компонентов, мы получили впечатляющие результаты. Мы надеемся, что исследователи машинного обучения продолжат разрабатывать новые и более сложные алгоритмы, используя нашу среду, которая может использоваться ответственно для приложений, в которых машинное обучение считалось слишком рискованным. Это призыв к другим исследователям проводить исследования в этой области «.
Короткий URL: https://nexusrus.com/?p=128627