SlideShare a Scribd company logo
Естественные права
и искусственный
интеллект
Владислав Шершульский
Microsoft, Россия
0
1
Эпоха машин
Машина для сравнения идей Корсакова, 1832Аналитическая машина Бэббиджа, 1833
Облачная инфраструктура
Внешние данные
из публичного облака
«Тюнинг» модели
дополнительное обучение конкретного
экземпляра сервиса
Граничные «эдж» устройства
где предобученное подмножество ИИ-сервиса
работает непосредственно на месте его применения
(опционально)
Когнитивные сервисы
из публичного облака,
обученные на миллиардах
примеров
Облачный «эплаенс»
локальный фрагмент глобального
облака, инсталлированный у
клиента или партнера
Сенсоры и актуаторы
реализующие сервис (если имеются)
Анатомия интеллектуального сервиса
Перспективы использования ИИ
Автономный
транспорт
Промышленное
производство
Сельское
хозяйство
Общественная
безопасность
МедицинаФинансы
Обратная сторона ИИ
Gartner
hype
cycle
РискиИИ
Новая технологическая политика
Ответственный
ИИ
Общественность
Ученые
Разработчики Бизнес-потребители
Государство
Международные
организации
Три стороны ответственного ИИ
Без данных нет искусственного интеллекта
Кто распоряжается данными?
Государство
определяет, какие и где можно
хранить и обрабатывать
перс.данные и стремится стать
их основным оператором
Субъект
считается собственником своих ПД и
имеет полное право распоряжаться
их распространением, хранением и
обработкой»
Оператор
имеет право хранить и должным
образом использовать ПД,
полученные на законных основаниях
Можно ли говорить о морали и законопослушании ИИ
Этика в исторической перспективе
Информационная этика Лучано Флориди
Субъект Объект
Воздействие
Контекст
Инфосфера
• Неантропоцентрическая
агенты – любые информационные сущности
(люди, организации, животные, природные объекты,
роботы, программы, наборы данных и пр.)
• Страдательная
сфокусированная на объекте воздействия
• Минимальные естественные права
право на существование, право на развитие
Законы для информационных объектов
Айзек Азимов Лучано Флориди
0. Робот не может причинить вред человечеству или
своим бездействием допустить, чтобы
человечеству был причинён вред.
1. Робот не может причинить вред человеку или
своим бездействием допустить, чтобы человеку
был причинён вред.
2. Робот должен повиноваться всем приказам,
которые даёт человек, кроме тех случаев, когда эти
приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в
той мере, в которой это не противоречит Первому
или Второму Законам.
0. Энтропия не должна порождаться в инфосфере
(действие безусловно приемлемо, только если не
порождает энтропию)
1. Нужно стремиться к минимизации производства
энтропии в инфосфере (из возможных действий
следует предпочесть производящее минимум
энтропии – принцип минимума производства
энтропии)
2. Нужно уменьшать энтропию в инфосфере (этично
предпринимать действия с целью уменьшения
энтропии)
3. Нужно заботиться о состоянии инфорсферы,
путем ее расширения, совершенствования и
обогащения
Правовой статус ИИ: дее- и право- способность
« ЗА » « ПРОТИВ »
• Позволяет компьютерам перейти от режима работы «по
нашим инструкциям» к режиму «в наших интересах»
• Упрощает включение искусственных агентов в
социальные отношения, в т.ч. путем распространения на
них существующего законодательства
• Легитимизует естественное стремление людей к
персонализации инструментов
• Защищает гармоничное развитие инноваций от
спорадического запретительного регулирования (??)
• «Мы должны дать им права, чтобы сохранить наши
моральные ценности» – Кейт Дарлинг
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2044797
• Корпоративные и искусственные агенты могут
использоваться для избежания последствий
• Расширение прав искусственных агентов
может повлечь ограничение прав людей
• В римском праве уже был автономный
транспорт
• Чрезмерное регулирование может
затормозить инновации (??)
• Наделение искусственных агентов может
ограничить возможности корпораций и
государства использовать ИИ в своих целях
(??)
Условия дее- и право-
способности ИИ
Агенты – кандидаты в личности
• Возможность взаимодействовать
с окружающей средой
• Рефлексия и социализация
• Автономность и свобода воли
• Индивидуальность
• … ?
Философско-юридическо-математический
словарик
• Агент – автономная сущность, в определенной
мере обособленная от окружающей его среды,
воспринимающая ее с помощью сенсоров и
воздействующая на нее посредством актуаторов
• Рефлексия – рекурсия
• Свобода воли – вырождение (неоднозначность)
решения уравнений, описывающего поведение
агента
• Индивидуальность – сложность (бифуркации,
хаос, физические ограничения клонирования)
Информационный агент
как канал связи
? ? ?
Три подхода к правовому статусу ИИ
Кого (что) можно считать электронной личностью (лицом)?
Того (то),
кто (что)
сможет
доказать
это в суде
Того (то), кто (что)
удовлетворяет
определенному
законом перечню
свойств
Того (то), кто (что)
зарегистрирован
в официальном
реестре
? ? ?
Три подхода к правовому статусу ИИ
Кого (что) можно считать электронной личностью (лицом)?
Того (то),
кто (что)
сможет
доказать
это в суде
Того (то), кто (что)
удовлетворяет
определенному
законом перечню
свойств
Того (то), кто (что)
зарегистрирован
в официальном
реестре
Национальные ИИ-стратегии
Еще, в основном, не законодательное регулирование
Россия
Германия
Мексика
Индия
Швеция
Южная Корея
США
Австрия
Великобритания
ЕС
Тунис
Франция
Италия
Дания
Тайвань
Кения
Финляндия
ОАЭ
КНР
Сингапур
Япония
Канада
2019
2018
2017
См. https://medium.com/politics-ai/an-overview-of-national-ai-strategies-2a70ec6edfd
Вероятно, первое законодательное определение ИИ было
дано в п.2 статьи 2 Базового закона Японии от 14.12.2016
№ 103 «Об улучшении использования данных публичного
и частного секторов»
Partnership on AI: 90+ членов, 13 стран
IEEE: этичная разработка систем ИИ
Корпоративные комитеты по контролю за ИИ
Microsoft AETHER (AI and ethics in engineering and research) и все, все, все…
Принципы интерфейса человек-ИИ
Подготовка 1 Четко объявляйте, что система может делать
2 Объективно сообщайте, насколько хорошо она может это делать
В процессе
взаимодействия
3 Учитывайте цель, сценарий и контекст пользователя
4 Отображайте контекстно релевантный контент
5 Соблюдайте уместные социальные нормы
6 Исключайте социальные предубеждения/предрассудки
Если что-то пошло
не так
7 Обеспечьте удобство запуска/вызова сервиса
8 Обеспечьте возможность останова, игнорирования, отмены сервиса
9 Сохраните возможность корректировки работы сервиса, избегайте необратимости
10 Уточняйте задачу, когда намерения пользователя не ясны
11 Объясняйте действия системы
В развитии 12 Уважайте приватность пользователя, защищайте его перс.данные
13 Пусть сервис обучается на примерах поведения пользователей с их согласия
14 Интерфейс сервиса должен меняться с ростом опыта, а изменения поясняться
15 Собирайте и используйте подробную обратную реакцию и отзывы
16 Разъясняйте, как действия пользователя влияют на будущее поведение системы
17 Предоставьте пользователям простой механизм настройки
18 Информируйте пользователя о всех существенных изменениях
Корпоративные комитеты по контролю за ИИ
Microsoft AETHER (AI and ethics in engineering and research) и все, все, все…
AETHEROffice of
responsible AI
Внешние
эксперты
Заказчики
Президент
Исследования, разработки, маркетинг, инфраструктура
Эволюция требований к информационным
системам
Функциональные
1950+
Надежные
1990+
Защищенные
2000+
Моральные и
законопослушные
2020+
Как формализовать ответственное поведение?
Пользовательский интерфейс из сериала «The Westworld»
Три подхода к разработке ответственного ИИ
Обучение на примерах
Правила для следования Функция для оптимизации
Модальная логика
Георг фон Вригт
~ (не), →(влечет)
∧ (или), ∨ (и)
∀ (для всех) ∃ (существует)
O(ОБЯЗАТЕЛЬНО)
P (ДОПУСТРИМО)
F (ЗАПРЕЩЕНО)
G (ХОРОШО)
N (НЕЙТРАЛЬНО)
B (ПЛОХО)
Классическая логика предикатов Деонтическая логика Аксиологическая логика
Моральная грамматика
?
ЛГ
Ввод
Грамматически корректно
Грамматически некорректно
Лингвистическая грамматика (ЛГ)
?
МГ
Ввод
Этически допустимо
Этически недопустимо
Моральная грамматика (МГ)
Mikhail, John, Universal Moral Grammar: Theory, Evidence, and the Future. Trends in Cognitive Sciences, April 2007; Georgetown
Public Law Research Paper No. 954398. Available at SSRN: https://ssrn.com/abstract=954398 Джон Михал
Моральная грамматика
Mikhail, John, Universal Moral Grammar: Theory, Evidence, and the Future. Trends in Cognitive Sciences, April 2007; Georgetown Public Law Research Paper No. 954398.
Available at SSRN: https://ssrn.com/abstract=954398
Рефлексивная теория игр («Алгебра совести»)
Владимир Лефевр. Алгебра совести / Пер. с англ. — М.: Когито-Центр, 2003. — 411 с.
Эта теория предлагает вариант формального описания
цепочки обстоятельства → намерения → готовность,
внутреннего представления субъектом модели мира (акторов
взаимодействия), свободы выбора, этического статуса и пр.
Среди результатов:
• Интерпретация рефлексии и свободы выбора
• Наличие двух этических систем
• Удобное формальное описание конфликтных ситуаций
• Классификация «психотипов» по этическому статусу
Рефлексивная теория игр
Владимир Лефевр. Алгебра совести / Пер. с англ. — М.: Когито-Центр, 2003. — 411 с.
Рефлексивная теория игр
Владимир Лефевр. Алгебра совести / Пер. с англ. — М.: Когито-Центр, 2003. — 411 с.
Рефлексивная теория игр
Графы отношений рефлексивной теории игр также имеют грамматическую структуру
Владимир Лефевр. Лекции по теории рефлексивных игр. – М.: Когито-Центр, 2009. – 218 с.
Классификация акторов конфликта в «Алгебре совести»
Владимир Лефевр. Алгебра совести / Пер. с англ. — М.: Когито-Центр, 2003. — 411 с.
Праведник
«Моральная машина» MIT и обучение на примерах
Трудно собрать большую базу примеров поведения в ситуации морального выбора, но Яду
Равану (Iyad Rahwan) и коллегам удалось: 40М+ заполненных опросников из 233 стран
http://moralmachine.mit.edu/ Edmond Awad at all. The moral machine experiment. – Nature, 2018, 563, 59–64
«Моральная машина» MIT и обучение на примерах
59% опрошенных предпочтут купить машину, которая всегда защищает жизнь водителя
(Science via The Washington Post)
Edmond Awad at all. The moral machine experiment. – Nature, 2018, 563, 59–64
Обучение морали с подкреплением
Агент Среда
реальная или
виртуальная
Эволюция законов инфосферы
Айзек Азимов
1942
Лучано Флориди
1999
0. Робот не может причинить вред человечеству
или своим бездействием допустить, чтобы
человечеству был причинён вред.
1. Робот не может причинить вред человеку или
своим бездействием допустить, чтобы человеку
был причинён вред.
2. Робот должен повиноваться всем приказам,
которые даёт человек, кроме тех случаев, когда
эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в
той мере, в которой это не противоречит
Первому или Второму Законам.
0. Энтропия не должна порождаться в инфосфере
(действие безусловно приемлемо, только если не
порождает энтропию).
1. Нужно стремиться к минимизации производства
энтропии в инфосфере (из возможных действий
следует предпочесть производящее минимум
энтропии).
2. Нужно уменьшать энтропию в инфосфере (этично
предпринимать действия с целью уменьшения
энтропии).
3. Нужно заботиться о состоянии инфорсферы, путем
ее расширения, совершенствования и развития.
Принцип расширения свободы выбора
“Этический императив: всегда поступайте так, чтобы увеличить число вариантов выбора”
Хейнц фон Фёрстер, 1995
Klyubin, A., Polani, D., and Nehaniv, C.. “Empowerment: a universal agent-centric measure of control”
in The 2005 IEEE Congress on Evolutionary Computation, Vol. 1 (Edinburgh: IEEE), 128–135.
Klyubin, A.S., Polani, D. and Nehaniv, C.L.. “All else being equal be empowered”
In European Conference on Artificial Life, 2005, September. Springer, Berlin, Heidelberg, pp. 744–753
Пусть информационный агент выбирает такие действия (своих актуаторов),
чтобы на следующем шаге (или через заданное число n шагов) у него был
выбор из наибольшего числа различающихся альтернатив, т.е., чтобы его
сенсоры могли воспринять максимум разных вариантов ситуации.
Иными словами, увеличивайте пропускную способность информационного
канала агента от актуаторов к сенсорам.
Александр Клюбин
Как вычисляется «эмпауэрмент»
Klyubin, A.S., Polani, D. and Nehaniv, C.L.. “All else being equal be empowered”
In European Conference on Artificial Life, 2005, September. Springer, Berlin, Heidelberg, pp. 744–753
Актуаторы
Состояние
актора
Сенсоры
Точка расчета
эмпауэрмента
Расширение возможностей
в статистической теории информации
– мера в битах числа вариантов выбора – свобода (empowerment) –
максимум пропускной способности канала на n шагах
– состояния актуаторов на последних n шагах { t, t + 1, … t + n }
– состояние сенсоров на последнем шаге ( t + n )
– вероятность получения сигнала 𝑠𝑡+𝑛 сенсорами при условии
воздействий 𝑎 𝑡
𝑛
на предыдущих n шагах
n
Принцип расширения возможностей
Salge C., Polani D. “Empowerment As Replacement for the Three Laws of Robotics”
in Frontiers in Robotics and AI, 2017; 4, article 25, 16 p.
Принцип расширения возможностей
Salge C., Polani D. “Empowerment As Replacement for the Three Laws of Robotics”
in Frontiers in Robotics and AI, 2017; 4, article 25, 16 p.
Во многих случаях искусственный агент,
не допускающий никакого ущерба для
человека, действует менее эффективно и
может быстрее выйти из строя, чем
агент, допускающий небольшой ущерб
человеку.
В интересах человека дать ему большую
свободу, чем допускали законы Азимова.
Свобода (воли) и ответственность
Tufts Human-Robot Interaction Lab
Знаю ли я как выполнить X
Способен ли я технически выполнить X
Могу ли я выполнить X прямо сейчас
Ожидают ли окружающие от меня выполнения X
Не нарушу ли я законы и инструкции выполняя X
Соответствует ли выполнение X моральным
принципам
Этические компоненты ИТ решений
Сегодня
Специализированные
приложения
Встроенные ad hoc
Моно- и мульти-агентские
Логика ИЛИ машинное обучение
Различные парадигмы
программирования
Завтра
Общие этические системы
Стандартные библиотеки и
Этика-как-Сервис
Мульти-агентские с рефлексией
Логика И машинное обучение
Реактивное функциональное
программирование (?)
Искусственный Интеллект
проникает во все области
нашей жизни и критически
важно сделать так, чтобы он
стал нашим ответственным и
доброжелательным
партнером
© 2019 Microsoft Corporation. All rights reserved. Microsoft, Windows, and other product names are or may be registered trademarks and/or trademarks in the U.S. and/or other countries.
The information herein is for informational purposes only and represents the current view of Microsoft Corporation as of the date of this presentation. Because Microsoft must respond to changing market conditions, it should not be interpreted to be a commitment
on the part of Microsoft, and Microsoft cannot guarantee the accuracy of any information provided after the date of this presentation. MICROSOFT MAKES NO WARRANTIES, EXPRESS, IMPLIED OR STATUTORY, AS TO THE INFORMATION IN THIS PRESENTATION.

More Related Content

Similar to Natural rights and AI 2019

Вычислительное право 2020
Вычислительное право 2020Вычислительное право 2020
Вычислительное право 2020Yehor Churilov
 
Semantic archive for economic security servecis
Semantic archive for economic security servecisSemantic archive for economic security servecis
Semantic archive for economic security servecisssuser0170f41
 
Ключевые тренды в ИТ и их причины
Ключевые тренды в ИТ и их причиныКлючевые тренды в ИТ и их причины
Ключевые тренды в ИТ и их причиныMikhail Andronov
 
BIG DATA: your personal information that everyone needs
BIG DATA: your personal information that everyone needsBIG DATA: your personal information that everyone needs
BIG DATA: your personal information that everyone needsGeorgy Slugin
 
Медиаскетизм (и digital detox)
Медиаскетизм (и digital detox)Медиаскетизм (и digital detox)
Медиаскетизм (и digital detox)Dmitriy Soloveev
 
Математика_таргетинга
Математика_таргетингаМатематика_таргетинга
Математика_таргетингаYandex
 
Математика таргетинга. #izso2011. Лев Глейзер
Математика таргетинга. #izso2011. Лев ГлейзерМатематика таргетинга. #izso2011. Лев Глейзер
Математика таргетинга. #izso2011. Лев ГлейзерNikolay Belousov
 
Математика таргетинга © Лев Глейзер
Математика таргетинга © Лев ГлейзерМатематика таргетинга © Лев Глейзер
Математика таргетинга © Лев ГлейзерCossa
 
Исследование «Права пользователей: Россия и мир, теория и практика»
Исследование «Права пользователей: Россия и мир, теория и практика»Исследование «Права пользователей: Россия и мир, теория и практика»
Исследование «Права пользователей: Россия и мир, теория и практика»Vladimir Haritonov
 
Некоторые физические законы в контексте автоматизации тестирования
Некоторые физические законы в контексте автоматизации тестированияНекоторые физические законы в контексте автоматизации тестирования
Некоторые физические законы в контексте автоматизации тестированияCOMAQA.BY
 
Законы создания IT команд и следствия законов для IT проектов «на пальцах»
Законы создания IT команд и следствия законов для IT проектов «на пальцах»Законы создания IT команд и следствия законов для IT проектов «на пальцах»
Законы создания IT команд и следствия законов для IT проектов «на пальцах»CEE-SEC(R)
 
А.Левенчук -- privacy и нейронет
А.Левенчук -- privacy и нейронетА.Левенчук -- privacy и нейронет
А.Левенчук -- privacy и нейронетAnatoly Levenchuk
 
ЛюдиVs Алгоритмы: Доклад Кутьина В.М. - 11 декабря 2015 г
ЛюдиVs Алгоритмы:  Доклад Кутьина В.М. - 11 декабря 2015 гЛюдиVs Алгоритмы:  Доклад Кутьина В.М. - 11 декабря 2015 г
ЛюдиVs Алгоритмы: Доклад Кутьина В.М. - 11 декабря 2015 гRed Apple International Advertising Festival
 
Science HackDay St.Petersburg
Science HackDay St.PetersburgScience HackDay St.Petersburg
Science HackDay St.PetersburgMikhail Kulakov
 
Итоги Socamp2011
Итоги Socamp2011 Итоги Socamp2011
Итоги Socamp2011 socamp2011
 

Similar to Natural rights and AI 2019 (20)

Вычислительное право 2020
Вычислительное право 2020Вычислительное право 2020
Вычислительное право 2020
 
Semantic archive for economic security servecis
Semantic archive for economic security servecisSemantic archive for economic security servecis
Semantic archive for economic security servecis
 
Ключевые тренды в ИТ и их причины
Ключевые тренды в ИТ и их причиныКлючевые тренды в ИТ и их причины
Ключевые тренды в ИТ и их причины
 
BIG DATA: your personal information that everyone needs
BIG DATA: your personal information that everyone needsBIG DATA: your personal information that everyone needs
BIG DATA: your personal information that everyone needs
 
Экспертная сеть EXPINET
Экспертная сеть EXPINETЭкспертная сеть EXPINET
Экспертная сеть EXPINET
 
Медиаскетизм (и digital detox)
Медиаскетизм (и digital detox)Медиаскетизм (и digital detox)
Медиаскетизм (и digital detox)
 
Математика_таргетинга
Математика_таргетингаМатематика_таргетинга
Математика_таргетинга
 
Математика таргетинга. #izso2011. Лев Глейзер
Математика таргетинга. #izso2011. Лев ГлейзерМатематика таргетинга. #izso2011. Лев Глейзер
Математика таргетинга. #izso2011. Лев Глейзер
 
Математика таргетинга © Лев Глейзер
Математика таргетинга © Лев ГлейзерМатематика таргетинга © Лев Глейзер
Математика таргетинга © Лев Глейзер
 
Исследование «Права пользователей: Россия и мир, теория и практика»
Исследование «Права пользователей: Россия и мир, теория и практика»Исследование «Права пользователей: Россия и мир, теория и практика»
Исследование «Права пользователей: Россия и мир, теория и практика»
 
Взгляд на Data Science
Взгляд на Data ScienceВзгляд на Data Science
Взгляд на Data Science
 
Некоторые физические законы в контексте автоматизации тестирования
Некоторые физические законы в контексте автоматизации тестированияНекоторые физические законы в контексте автоматизации тестирования
Некоторые физические законы в контексте автоматизации тестирования
 
Законы создания IT команд и следствия законов для IT проектов «на пальцах»
Законы создания IT команд и следствия законов для IT проектов «на пальцах»Законы создания IT команд и следствия законов для IT проектов «на пальцах»
Законы создания IT команд и следствия законов для IT проектов «на пальцах»
 
А.Левенчук -- privacy и нейронет
А.Левенчук -- privacy и нейронетА.Левенчук -- privacy и нейронет
А.Левенчук -- privacy и нейронет
 
L12
L12L12
L12
 
Границы и тенденции бизнес-исследований _ Тамара Кулинкович _ www.businessres...
Границы и тенденции бизнес-исследований _ Тамара Кулинкович _ www.businessres...Границы и тенденции бизнес-исследований _ Тамара Кулинкович _ www.businessres...
Границы и тенденции бизнес-исследований _ Тамара Кулинкович _ www.businessres...
 
Ai v3
Ai v3Ai v3
Ai v3
 
ЛюдиVs Алгоритмы: Доклад Кутьина В.М. - 11 декабря 2015 г
ЛюдиVs Алгоритмы:  Доклад Кутьина В.М. - 11 декабря 2015 гЛюдиVs Алгоритмы:  Доклад Кутьина В.М. - 11 декабря 2015 г
ЛюдиVs Алгоритмы: Доклад Кутьина В.М. - 11 декабря 2015 г
 
Science HackDay St.Petersburg
Science HackDay St.PetersburgScience HackDay St.Petersburg
Science HackDay St.Petersburg
 
Итоги Socamp2011
Итоги Socamp2011 Итоги Socamp2011
Итоги Socamp2011
 

More from Vladislav Shershulsky

Inevitability of the cloud 2015 (Russ)
Inevitability of the cloud 2015 (Russ)Inevitability of the cloud 2015 (Russ)
Inevitability of the cloud 2015 (Russ)Vladislav Shershulsky
 
Nanostructures at metal oxide and semiconductor boundaries (Engl)
Nanostructures at metal oxide and semiconductor boundaries (Engl)Nanostructures at metal oxide and semiconductor boundaries (Engl)
Nanostructures at metal oxide and semiconductor boundaries (Engl)Vladislav Shershulsky
 
Microsoft approach to and vision of eGov 2013 (Rus)
Microsoft approach to and vision of eGov 2013 (Rus)Microsoft approach to and vision of eGov 2013 (Rus)
Microsoft approach to and vision of eGov 2013 (Rus)Vladislav Shershulsky
 
Accessibility in IT world 2015 (Russ)
Accessibility in IT world 2015 (Russ)Accessibility in IT world 2015 (Russ)
Accessibility in IT world 2015 (Russ)Vladislav Shershulsky
 
Smart cities by Microsoft 2012 (Rus)
Smart cities by Microsoft 2012 (Rus)Smart cities by Microsoft 2012 (Rus)
Smart cities by Microsoft 2012 (Rus)Vladislav Shershulsky
 
Microsoft in discrete manufacturing 2012 (Russ)
Microsoft in discrete manufacturing 2012 (Russ)Microsoft in discrete manufacturing 2012 (Russ)
Microsoft in discrete manufacturing 2012 (Russ)Vladislav Shershulsky
 
Digiral transformation in real estate 2015 (Russ)
Digiral transformation in real estate 2015 (Russ)Digiral transformation in real estate 2015 (Russ)
Digiral transformation in real estate 2015 (Russ)Vladislav Shershulsky
 
Digital transformation in retail 2015 (Russ)
Digital transformation in retail 2015 (Russ)Digital transformation in retail 2015 (Russ)
Digital transformation in retail 2015 (Russ)Vladislav Shershulsky
 
Digital transformation with emphases on insurance 2016 (Russ)
Digital transformation with emphases on insurance 2016 (Russ)Digital transformation with emphases on insurance 2016 (Russ)
Digital transformation with emphases on insurance 2016 (Russ)Vladislav Shershulsky
 

More from Vladislav Shershulsky (14)

Quantum computing rus 2020
Quantum computing rus 2020Quantum computing rus 2020
Quantum computing rus 2020
 
Reinventing the school engl 2019
Reinventing the school engl 2019Reinventing the school engl 2019
Reinventing the school engl 2019
 
Microsoft transformation rus 2019
Microsoft transformation rus 2019Microsoft transformation rus 2019
Microsoft transformation rus 2019
 
Standards in Microsoft 2012 (Russ)
Standards in Microsoft 2012 (Russ)Standards in Microsoft 2012 (Russ)
Standards in Microsoft 2012 (Russ)
 
Inevitability of the cloud 2015 (Russ)
Inevitability of the cloud 2015 (Russ)Inevitability of the cloud 2015 (Russ)
Inevitability of the cloud 2015 (Russ)
 
Nanostructures at metal oxide and semiconductor boundaries (Engl)
Nanostructures at metal oxide and semiconductor boundaries (Engl)Nanostructures at metal oxide and semiconductor boundaries (Engl)
Nanostructures at metal oxide and semiconductor boundaries (Engl)
 
Patents in enterprise 2013 (Russ)
Patents in enterprise 2013 (Russ)Patents in enterprise 2013 (Russ)
Patents in enterprise 2013 (Russ)
 
Microsoft approach to and vision of eGov 2013 (Rus)
Microsoft approach to and vision of eGov 2013 (Rus)Microsoft approach to and vision of eGov 2013 (Rus)
Microsoft approach to and vision of eGov 2013 (Rus)
 
Accessibility in IT world 2015 (Russ)
Accessibility in IT world 2015 (Russ)Accessibility in IT world 2015 (Russ)
Accessibility in IT world 2015 (Russ)
 
Smart cities by Microsoft 2012 (Rus)
Smart cities by Microsoft 2012 (Rus)Smart cities by Microsoft 2012 (Rus)
Smart cities by Microsoft 2012 (Rus)
 
Microsoft in discrete manufacturing 2012 (Russ)
Microsoft in discrete manufacturing 2012 (Russ)Microsoft in discrete manufacturing 2012 (Russ)
Microsoft in discrete manufacturing 2012 (Russ)
 
Digiral transformation in real estate 2015 (Russ)
Digiral transformation in real estate 2015 (Russ)Digiral transformation in real estate 2015 (Russ)
Digiral transformation in real estate 2015 (Russ)
 
Digital transformation in retail 2015 (Russ)
Digital transformation in retail 2015 (Russ)Digital transformation in retail 2015 (Russ)
Digital transformation in retail 2015 (Russ)
 
Digital transformation with emphases on insurance 2016 (Russ)
Digital transformation with emphases on insurance 2016 (Russ)Digital transformation with emphases on insurance 2016 (Russ)
Digital transformation with emphases on insurance 2016 (Russ)
 

Natural rights and AI 2019

  • 2. Эпоха машин Машина для сравнения идей Корсакова, 1832Аналитическая машина Бэббиджа, 1833
  • 3. Облачная инфраструктура Внешние данные из публичного облака «Тюнинг» модели дополнительное обучение конкретного экземпляра сервиса Граничные «эдж» устройства где предобученное подмножество ИИ-сервиса работает непосредственно на месте его применения (опционально) Когнитивные сервисы из публичного облака, обученные на миллиардах примеров Облачный «эплаенс» локальный фрагмент глобального облака, инсталлированный у клиента или партнера Сенсоры и актуаторы реализующие сервис (если имеются) Анатомия интеллектуального сервиса
  • 6. Новая технологическая политика Ответственный ИИ Общественность Ученые Разработчики Бизнес-потребители Государство Международные организации
  • 8. Без данных нет искусственного интеллекта Кто распоряжается данными? Государство определяет, какие и где можно хранить и обрабатывать перс.данные и стремится стать их основным оператором Субъект считается собственником своих ПД и имеет полное право распоряжаться их распространением, хранением и обработкой» Оператор имеет право хранить и должным образом использовать ПД, полученные на законных основаниях
  • 9. Можно ли говорить о морали и законопослушании ИИ Этика в исторической перспективе
  • 10. Информационная этика Лучано Флориди Субъект Объект Воздействие Контекст Инфосфера • Неантропоцентрическая агенты – любые информационные сущности (люди, организации, животные, природные объекты, роботы, программы, наборы данных и пр.) • Страдательная сфокусированная на объекте воздействия • Минимальные естественные права право на существование, право на развитие
  • 11. Законы для информационных объектов Айзек Азимов Лучано Флориди 0. Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред. 1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред. 2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону. 3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам. 0. Энтропия не должна порождаться в инфосфере (действие безусловно приемлемо, только если не порождает энтропию) 1. Нужно стремиться к минимизации производства энтропии в инфосфере (из возможных действий следует предпочесть производящее минимум энтропии – принцип минимума производства энтропии) 2. Нужно уменьшать энтропию в инфосфере (этично предпринимать действия с целью уменьшения энтропии) 3. Нужно заботиться о состоянии инфорсферы, путем ее расширения, совершенствования и обогащения
  • 12. Правовой статус ИИ: дее- и право- способность « ЗА » « ПРОТИВ » • Позволяет компьютерам перейти от режима работы «по нашим инструкциям» к режиму «в наших интересах» • Упрощает включение искусственных агентов в социальные отношения, в т.ч. путем распространения на них существующего законодательства • Легитимизует естественное стремление людей к персонализации инструментов • Защищает гармоничное развитие инноваций от спорадического запретительного регулирования (??) • «Мы должны дать им права, чтобы сохранить наши моральные ценности» – Кейт Дарлинг https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2044797 • Корпоративные и искусственные агенты могут использоваться для избежания последствий • Расширение прав искусственных агентов может повлечь ограничение прав людей • В римском праве уже был автономный транспорт • Чрезмерное регулирование может затормозить инновации (??) • Наделение искусственных агентов может ограничить возможности корпораций и государства использовать ИИ в своих целях (??)
  • 13. Условия дее- и право- способности ИИ Агенты – кандидаты в личности • Возможность взаимодействовать с окружающей средой • Рефлексия и социализация • Автономность и свобода воли • Индивидуальность • … ?
  • 14. Философско-юридическо-математический словарик • Агент – автономная сущность, в определенной мере обособленная от окружающей его среды, воспринимающая ее с помощью сенсоров и воздействующая на нее посредством актуаторов • Рефлексия – рекурсия • Свобода воли – вырождение (неоднозначность) решения уравнений, описывающего поведение агента • Индивидуальность – сложность (бифуркации, хаос, физические ограничения клонирования) Информационный агент как канал связи
  • 15. ? ? ? Три подхода к правовому статусу ИИ Кого (что) можно считать электронной личностью (лицом)? Того (то), кто (что) сможет доказать это в суде Того (то), кто (что) удовлетворяет определенному законом перечню свойств Того (то), кто (что) зарегистрирован в официальном реестре
  • 16. ? ? ? Три подхода к правовому статусу ИИ Кого (что) можно считать электронной личностью (лицом)? Того (то), кто (что) сможет доказать это в суде Того (то), кто (что) удовлетворяет определенному законом перечню свойств Того (то), кто (что) зарегистрирован в официальном реестре
  • 17. Национальные ИИ-стратегии Еще, в основном, не законодательное регулирование Россия Германия Мексика Индия Швеция Южная Корея США Австрия Великобритания ЕС Тунис Франция Италия Дания Тайвань Кения Финляндия ОАЭ КНР Сингапур Япония Канада 2019 2018 2017 См. https://medium.com/politics-ai/an-overview-of-national-ai-strategies-2a70ec6edfd Вероятно, первое законодательное определение ИИ было дано в п.2 статьи 2 Базового закона Японии от 14.12.2016 № 103 «Об улучшении использования данных публичного и частного секторов»
  • 18. Partnership on AI: 90+ членов, 13 стран
  • 20. Корпоративные комитеты по контролю за ИИ Microsoft AETHER (AI and ethics in engineering and research) и все, все, все…
  • 21. Принципы интерфейса человек-ИИ Подготовка 1 Четко объявляйте, что система может делать 2 Объективно сообщайте, насколько хорошо она может это делать В процессе взаимодействия 3 Учитывайте цель, сценарий и контекст пользователя 4 Отображайте контекстно релевантный контент 5 Соблюдайте уместные социальные нормы 6 Исключайте социальные предубеждения/предрассудки Если что-то пошло не так 7 Обеспечьте удобство запуска/вызова сервиса 8 Обеспечьте возможность останова, игнорирования, отмены сервиса 9 Сохраните возможность корректировки работы сервиса, избегайте необратимости 10 Уточняйте задачу, когда намерения пользователя не ясны 11 Объясняйте действия системы В развитии 12 Уважайте приватность пользователя, защищайте его перс.данные 13 Пусть сервис обучается на примерах поведения пользователей с их согласия 14 Интерфейс сервиса должен меняться с ростом опыта, а изменения поясняться 15 Собирайте и используйте подробную обратную реакцию и отзывы 16 Разъясняйте, как действия пользователя влияют на будущее поведение системы 17 Предоставьте пользователям простой механизм настройки 18 Информируйте пользователя о всех существенных изменениях
  • 22. Корпоративные комитеты по контролю за ИИ Microsoft AETHER (AI and ethics in engineering and research) и все, все, все… AETHEROffice of responsible AI Внешние эксперты Заказчики Президент Исследования, разработки, маркетинг, инфраструктура
  • 23. Эволюция требований к информационным системам Функциональные 1950+ Надежные 1990+ Защищенные 2000+ Моральные и законопослушные 2020+
  • 24. Как формализовать ответственное поведение? Пользовательский интерфейс из сериала «The Westworld»
  • 25. Три подхода к разработке ответственного ИИ Обучение на примерах Правила для следования Функция для оптимизации
  • 26. Модальная логика Георг фон Вригт ~ (не), →(влечет) ∧ (или), ∨ (и) ∀ (для всех) ∃ (существует) O(ОБЯЗАТЕЛЬНО) P (ДОПУСТРИМО) F (ЗАПРЕЩЕНО) G (ХОРОШО) N (НЕЙТРАЛЬНО) B (ПЛОХО) Классическая логика предикатов Деонтическая логика Аксиологическая логика
  • 27. Моральная грамматика ? ЛГ Ввод Грамматически корректно Грамматически некорректно Лингвистическая грамматика (ЛГ) ? МГ Ввод Этически допустимо Этически недопустимо Моральная грамматика (МГ) Mikhail, John, Universal Moral Grammar: Theory, Evidence, and the Future. Trends in Cognitive Sciences, April 2007; Georgetown Public Law Research Paper No. 954398. Available at SSRN: https://ssrn.com/abstract=954398 Джон Михал
  • 28. Моральная грамматика Mikhail, John, Universal Moral Grammar: Theory, Evidence, and the Future. Trends in Cognitive Sciences, April 2007; Georgetown Public Law Research Paper No. 954398. Available at SSRN: https://ssrn.com/abstract=954398
  • 29. Рефлексивная теория игр («Алгебра совести») Владимир Лефевр. Алгебра совести / Пер. с англ. — М.: Когито-Центр, 2003. — 411 с. Эта теория предлагает вариант формального описания цепочки обстоятельства → намерения → готовность, внутреннего представления субъектом модели мира (акторов взаимодействия), свободы выбора, этического статуса и пр. Среди результатов: • Интерпретация рефлексии и свободы выбора • Наличие двух этических систем • Удобное формальное описание конфликтных ситуаций • Классификация «психотипов» по этическому статусу
  • 30. Рефлексивная теория игр Владимир Лефевр. Алгебра совести / Пер. с англ. — М.: Когито-Центр, 2003. — 411 с.
  • 31. Рефлексивная теория игр Владимир Лефевр. Алгебра совести / Пер. с англ. — М.: Когито-Центр, 2003. — 411 с.
  • 32. Рефлексивная теория игр Графы отношений рефлексивной теории игр также имеют грамматическую структуру Владимир Лефевр. Лекции по теории рефлексивных игр. – М.: Когито-Центр, 2009. – 218 с.
  • 33. Классификация акторов конфликта в «Алгебре совести» Владимир Лефевр. Алгебра совести / Пер. с англ. — М.: Когито-Центр, 2003. — 411 с. Праведник
  • 34. «Моральная машина» MIT и обучение на примерах Трудно собрать большую базу примеров поведения в ситуации морального выбора, но Яду Равану (Iyad Rahwan) и коллегам удалось: 40М+ заполненных опросников из 233 стран http://moralmachine.mit.edu/ Edmond Awad at all. The moral machine experiment. – Nature, 2018, 563, 59–64
  • 35. «Моральная машина» MIT и обучение на примерах 59% опрошенных предпочтут купить машину, которая всегда защищает жизнь водителя (Science via The Washington Post) Edmond Awad at all. The moral machine experiment. – Nature, 2018, 563, 59–64
  • 36. Обучение морали с подкреплением Агент Среда реальная или виртуальная
  • 37. Эволюция законов инфосферы Айзек Азимов 1942 Лучано Флориди 1999 0. Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред. 1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред. 2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону. 3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам. 0. Энтропия не должна порождаться в инфосфере (действие безусловно приемлемо, только если не порождает энтропию). 1. Нужно стремиться к минимизации производства энтропии в инфосфере (из возможных действий следует предпочесть производящее минимум энтропии). 2. Нужно уменьшать энтропию в инфосфере (этично предпринимать действия с целью уменьшения энтропии). 3. Нужно заботиться о состоянии инфорсферы, путем ее расширения, совершенствования и развития.
  • 38. Принцип расширения свободы выбора “Этический императив: всегда поступайте так, чтобы увеличить число вариантов выбора” Хейнц фон Фёрстер, 1995 Klyubin, A., Polani, D., and Nehaniv, C.. “Empowerment: a universal agent-centric measure of control” in The 2005 IEEE Congress on Evolutionary Computation, Vol. 1 (Edinburgh: IEEE), 128–135. Klyubin, A.S., Polani, D. and Nehaniv, C.L.. “All else being equal be empowered” In European Conference on Artificial Life, 2005, September. Springer, Berlin, Heidelberg, pp. 744–753 Пусть информационный агент выбирает такие действия (своих актуаторов), чтобы на следующем шаге (или через заданное число n шагов) у него был выбор из наибольшего числа различающихся альтернатив, т.е., чтобы его сенсоры могли воспринять максимум разных вариантов ситуации. Иными словами, увеличивайте пропускную способность информационного канала агента от актуаторов к сенсорам. Александр Клюбин
  • 39. Как вычисляется «эмпауэрмент» Klyubin, A.S., Polani, D. and Nehaniv, C.L.. “All else being equal be empowered” In European Conference on Artificial Life, 2005, September. Springer, Berlin, Heidelberg, pp. 744–753 Актуаторы Состояние актора Сенсоры Точка расчета эмпауэрмента
  • 40. Расширение возможностей в статистической теории информации – мера в битах числа вариантов выбора – свобода (empowerment) – максимум пропускной способности канала на n шагах – состояния актуаторов на последних n шагах { t, t + 1, … t + n } – состояние сенсоров на последнем шаге ( t + n ) – вероятность получения сигнала 𝑠𝑡+𝑛 сенсорами при условии воздействий 𝑎 𝑡 𝑛 на предыдущих n шагах n
  • 41. Принцип расширения возможностей Salge C., Polani D. “Empowerment As Replacement for the Three Laws of Robotics” in Frontiers in Robotics and AI, 2017; 4, article 25, 16 p.
  • 42. Принцип расширения возможностей Salge C., Polani D. “Empowerment As Replacement for the Three Laws of Robotics” in Frontiers in Robotics and AI, 2017; 4, article 25, 16 p. Во многих случаях искусственный агент, не допускающий никакого ущерба для человека, действует менее эффективно и может быстрее выйти из строя, чем агент, допускающий небольшой ущерб человеку. В интересах человека дать ему большую свободу, чем допускали законы Азимова.
  • 43. Свобода (воли) и ответственность Tufts Human-Robot Interaction Lab Знаю ли я как выполнить X Способен ли я технически выполнить X Могу ли я выполнить X прямо сейчас Ожидают ли окружающие от меня выполнения X Не нарушу ли я законы и инструкции выполняя X Соответствует ли выполнение X моральным принципам
  • 44. Этические компоненты ИТ решений Сегодня Специализированные приложения Встроенные ad hoc Моно- и мульти-агентские Логика ИЛИ машинное обучение Различные парадигмы программирования Завтра Общие этические системы Стандартные библиотеки и Этика-как-Сервис Мульти-агентские с рефлексией Логика И машинное обучение Реактивное функциональное программирование (?)
  • 45. Искусственный Интеллект проникает во все области нашей жизни и критически важно сделать так, чтобы он стал нашим ответственным и доброжелательным партнером
  • 46. © 2019 Microsoft Corporation. All rights reserved. Microsoft, Windows, and other product names are or may be registered trademarks and/or trademarks in the U.S. and/or other countries. The information herein is for informational purposes only and represents the current view of Microsoft Corporation as of the date of this presentation. Because Microsoft must respond to changing market conditions, it should not be interpreted to be a commitment on the part of Microsoft, and Microsoft cannot guarantee the accuracy of any information provided after the date of this presentation. MICROSOFT MAKES NO WARRANTIES, EXPRESS, IMPLIED OR STATUTORY, AS TO THE INFORMATION IN THIS PRESENTATION.