Ethics of AI. What can and should be the Artificial Intelligence legal regime. How to ensure its responsible development and use. Whether it needs rights. How it will affect our rights.
3. Облачная инфраструктура
Внешние данные
из публичного облака
«Тюнинг» модели
дополнительное обучение конкретного
экземпляра сервиса
Граничные «эдж» устройства
где предобученное подмножество ИИ-сервиса
работает непосредственно на месте его применения
(опционально)
Когнитивные сервисы
из публичного облака,
обученные на миллиардах
примеров
Облачный «эплаенс»
локальный фрагмент глобального
облака, инсталлированный у
клиента или партнера
Сенсоры и актуаторы
реализующие сервис (если имеются)
Анатомия интеллектуального сервиса
8. Без данных нет искусственного интеллекта
Кто распоряжается данными?
Государство
определяет, какие и где можно
хранить и обрабатывать
перс.данные и стремится стать
их основным оператором
Субъект
считается собственником своих ПД и
имеет полное право распоряжаться
их распространением, хранением и
обработкой»
Оператор
имеет право хранить и должным
образом использовать ПД,
полученные на законных основаниях
9. Можно ли говорить о морали и законопослушании ИИ
Этика в исторической перспективе
10. Информационная этика Лучано Флориди
Субъект Объект
Воздействие
Контекст
Инфосфера
• Неантропоцентрическая
агенты – любые информационные сущности
(люди, организации, животные, природные объекты,
роботы, программы, наборы данных и пр.)
• Страдательная
сфокусированная на объекте воздействия
• Минимальные естественные права
право на существование, право на развитие
11. Законы для информационных объектов
Айзек Азимов Лучано Флориди
0. Робот не может причинить вред человечеству или
своим бездействием допустить, чтобы
человечеству был причинён вред.
1. Робот не может причинить вред человеку или
своим бездействием допустить, чтобы человеку
был причинён вред.
2. Робот должен повиноваться всем приказам,
которые даёт человек, кроме тех случаев, когда эти
приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в
той мере, в которой это не противоречит Первому
или Второму Законам.
0. Энтропия не должна порождаться в инфосфере
(действие безусловно приемлемо, только если не
порождает энтропию)
1. Нужно стремиться к минимизации производства
энтропии в инфосфере (из возможных действий
следует предпочесть производящее минимум
энтропии – принцип минимума производства
энтропии)
2. Нужно уменьшать энтропию в инфосфере (этично
предпринимать действия с целью уменьшения
энтропии)
3. Нужно заботиться о состоянии инфорсферы,
путем ее расширения, совершенствования и
обогащения
12. Правовой статус ИИ: дее- и право- способность
« ЗА » « ПРОТИВ »
• Позволяет компьютерам перейти от режима работы «по
нашим инструкциям» к режиму «в наших интересах»
• Упрощает включение искусственных агентов в
социальные отношения, в т.ч. путем распространения на
них существующего законодательства
• Легитимизует естественное стремление людей к
персонализации инструментов
• Защищает гармоничное развитие инноваций от
спорадического запретительного регулирования (??)
• «Мы должны дать им права, чтобы сохранить наши
моральные ценности» – Кейт Дарлинг
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2044797
• Корпоративные и искусственные агенты могут
использоваться для избежания последствий
• Расширение прав искусственных агентов
может повлечь ограничение прав людей
• В римском праве уже был автономный
транспорт
• Чрезмерное регулирование может
затормозить инновации (??)
• Наделение искусственных агентов может
ограничить возможности корпораций и
государства использовать ИИ в своих целях
(??)
13. Условия дее- и право-
способности ИИ
Агенты – кандидаты в личности
• Возможность взаимодействовать
с окружающей средой
• Рефлексия и социализация
• Автономность и свобода воли
• Индивидуальность
• … ?
14. Философско-юридическо-математический
словарик
• Агент – автономная сущность, в определенной
мере обособленная от окружающей его среды,
воспринимающая ее с помощью сенсоров и
воздействующая на нее посредством актуаторов
• Рефлексия – рекурсия
• Свобода воли – вырождение (неоднозначность)
решения уравнений, описывающего поведение
агента
• Индивидуальность – сложность (бифуркации,
хаос, физические ограничения клонирования)
Информационный агент
как канал связи
15. ? ? ?
Три подхода к правовому статусу ИИ
Кого (что) можно считать электронной личностью (лицом)?
Того (то),
кто (что)
сможет
доказать
это в суде
Того (то), кто (что)
удовлетворяет
определенному
законом перечню
свойств
Того (то), кто (что)
зарегистрирован
в официальном
реестре
16. ? ? ?
Три подхода к правовому статусу ИИ
Кого (что) можно считать электронной личностью (лицом)?
Того (то),
кто (что)
сможет
доказать
это в суде
Того (то), кто (что)
удовлетворяет
определенному
законом перечню
свойств
Того (то), кто (что)
зарегистрирован
в официальном
реестре
17. Национальные ИИ-стратегии
Еще, в основном, не законодательное регулирование
Россия
Германия
Мексика
Индия
Швеция
Южная Корея
США
Австрия
Великобритания
ЕС
Тунис
Франция
Италия
Дания
Тайвань
Кения
Финляндия
ОАЭ
КНР
Сингапур
Япония
Канада
2019
2018
2017
См. https://medium.com/politics-ai/an-overview-of-national-ai-strategies-2a70ec6edfd
Вероятно, первое законодательное определение ИИ было
дано в п.2 статьи 2 Базового закона Японии от 14.12.2016
№ 103 «Об улучшении использования данных публичного
и частного секторов»
20. Корпоративные комитеты по контролю за ИИ
Microsoft AETHER (AI and ethics in engineering and research) и все, все, все…
21. Принципы интерфейса человек-ИИ
Подготовка 1 Четко объявляйте, что система может делать
2 Объективно сообщайте, насколько хорошо она может это делать
В процессе
взаимодействия
3 Учитывайте цель, сценарий и контекст пользователя
4 Отображайте контекстно релевантный контент
5 Соблюдайте уместные социальные нормы
6 Исключайте социальные предубеждения/предрассудки
Если что-то пошло
не так
7 Обеспечьте удобство запуска/вызова сервиса
8 Обеспечьте возможность останова, игнорирования, отмены сервиса
9 Сохраните возможность корректировки работы сервиса, избегайте необратимости
10 Уточняйте задачу, когда намерения пользователя не ясны
11 Объясняйте действия системы
В развитии 12 Уважайте приватность пользователя, защищайте его перс.данные
13 Пусть сервис обучается на примерах поведения пользователей с их согласия
14 Интерфейс сервиса должен меняться с ростом опыта, а изменения поясняться
15 Собирайте и используйте подробную обратную реакцию и отзывы
16 Разъясняйте, как действия пользователя влияют на будущее поведение системы
17 Предоставьте пользователям простой механизм настройки
18 Информируйте пользователя о всех существенных изменениях
22. Корпоративные комитеты по контролю за ИИ
Microsoft AETHER (AI and ethics in engineering and research) и все, все, все…
AETHEROffice of
responsible AI
Внешние
эксперты
Заказчики
Президент
Исследования, разработки, маркетинг, инфраструктура
23. Эволюция требований к информационным
системам
Функциональные
1950+
Надежные
1990+
Защищенные
2000+
Моральные и
законопослушные
2020+
25. Три подхода к разработке ответственного ИИ
Обучение на примерах
Правила для следования Функция для оптимизации
26. Модальная логика
Георг фон Вригт
~ (не), →(влечет)
∧ (или), ∨ (и)
∀ (для всех) ∃ (существует)
O(ОБЯЗАТЕЛЬНО)
P (ДОПУСТРИМО)
F (ЗАПРЕЩЕНО)
G (ХОРОШО)
N (НЕЙТРАЛЬНО)
B (ПЛОХО)
Классическая логика предикатов Деонтическая логика Аксиологическая логика
27. Моральная грамматика
?
ЛГ
Ввод
Грамматически корректно
Грамматически некорректно
Лингвистическая грамматика (ЛГ)
?
МГ
Ввод
Этически допустимо
Этически недопустимо
Моральная грамматика (МГ)
Mikhail, John, Universal Moral Grammar: Theory, Evidence, and the Future. Trends in Cognitive Sciences, April 2007; Georgetown
Public Law Research Paper No. 954398. Available at SSRN: https://ssrn.com/abstract=954398 Джон Михал
28. Моральная грамматика
Mikhail, John, Universal Moral Grammar: Theory, Evidence, and the Future. Trends in Cognitive Sciences, April 2007; Georgetown Public Law Research Paper No. 954398.
Available at SSRN: https://ssrn.com/abstract=954398
29. Рефлексивная теория игр («Алгебра совести»)
Владимир Лефевр. Алгебра совести / Пер. с англ. — М.: Когито-Центр, 2003. — 411 с.
Эта теория предлагает вариант формального описания
цепочки обстоятельства → намерения → готовность,
внутреннего представления субъектом модели мира (акторов
взаимодействия), свободы выбора, этического статуса и пр.
Среди результатов:
• Интерпретация рефлексии и свободы выбора
• Наличие двух этических систем
• Удобное формальное описание конфликтных ситуаций
• Классификация «психотипов» по этическому статусу
32. Рефлексивная теория игр
Графы отношений рефлексивной теории игр также имеют грамматическую структуру
Владимир Лефевр. Лекции по теории рефлексивных игр. – М.: Когито-Центр, 2009. – 218 с.
33. Классификация акторов конфликта в «Алгебре совести»
Владимир Лефевр. Алгебра совести / Пер. с англ. — М.: Когито-Центр, 2003. — 411 с.
Праведник
34. «Моральная машина» MIT и обучение на примерах
Трудно собрать большую базу примеров поведения в ситуации морального выбора, но Яду
Равану (Iyad Rahwan) и коллегам удалось: 40М+ заполненных опросников из 233 стран
http://moralmachine.mit.edu/ Edmond Awad at all. The moral machine experiment. – Nature, 2018, 563, 59–64
35. «Моральная машина» MIT и обучение на примерах
59% опрошенных предпочтут купить машину, которая всегда защищает жизнь водителя
(Science via The Washington Post)
Edmond Awad at all. The moral machine experiment. – Nature, 2018, 563, 59–64
36. Обучение морали с подкреплением
Агент Среда
реальная или
виртуальная
37. Эволюция законов инфосферы
Айзек Азимов
1942
Лучано Флориди
1999
0. Робот не может причинить вред человечеству
или своим бездействием допустить, чтобы
человечеству был причинён вред.
1. Робот не может причинить вред человеку или
своим бездействием допустить, чтобы человеку
был причинён вред.
2. Робот должен повиноваться всем приказам,
которые даёт человек, кроме тех случаев, когда
эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в
той мере, в которой это не противоречит
Первому или Второму Законам.
0. Энтропия не должна порождаться в инфосфере
(действие безусловно приемлемо, только если не
порождает энтропию).
1. Нужно стремиться к минимизации производства
энтропии в инфосфере (из возможных действий
следует предпочесть производящее минимум
энтропии).
2. Нужно уменьшать энтропию в инфосфере (этично
предпринимать действия с целью уменьшения
энтропии).
3. Нужно заботиться о состоянии инфорсферы, путем
ее расширения, совершенствования и развития.
38. Принцип расширения свободы выбора
“Этический императив: всегда поступайте так, чтобы увеличить число вариантов выбора”
Хейнц фон Фёрстер, 1995
Klyubin, A., Polani, D., and Nehaniv, C.. “Empowerment: a universal agent-centric measure of control”
in The 2005 IEEE Congress on Evolutionary Computation, Vol. 1 (Edinburgh: IEEE), 128–135.
Klyubin, A.S., Polani, D. and Nehaniv, C.L.. “All else being equal be empowered”
In European Conference on Artificial Life, 2005, September. Springer, Berlin, Heidelberg, pp. 744–753
Пусть информационный агент выбирает такие действия (своих актуаторов),
чтобы на следующем шаге (или через заданное число n шагов) у него был
выбор из наибольшего числа различающихся альтернатив, т.е., чтобы его
сенсоры могли воспринять максимум разных вариантов ситуации.
Иными словами, увеличивайте пропускную способность информационного
канала агента от актуаторов к сенсорам.
Александр Клюбин
39. Как вычисляется «эмпауэрмент»
Klyubin, A.S., Polani, D. and Nehaniv, C.L.. “All else being equal be empowered”
In European Conference on Artificial Life, 2005, September. Springer, Berlin, Heidelberg, pp. 744–753
Актуаторы
Состояние
актора
Сенсоры
Точка расчета
эмпауэрмента
40. Расширение возможностей
в статистической теории информации
– мера в битах числа вариантов выбора – свобода (empowerment) –
максимум пропускной способности канала на n шагах
– состояния актуаторов на последних n шагах { t, t + 1, … t + n }
– состояние сенсоров на последнем шаге ( t + n )
– вероятность получения сигнала 𝑠𝑡+𝑛 сенсорами при условии
воздействий 𝑎 𝑡
𝑛
на предыдущих n шагах
n
41. Принцип расширения возможностей
Salge C., Polani D. “Empowerment As Replacement for the Three Laws of Robotics”
in Frontiers in Robotics and AI, 2017; 4, article 25, 16 p.
42. Принцип расширения возможностей
Salge C., Polani D. “Empowerment As Replacement for the Three Laws of Robotics”
in Frontiers in Robotics and AI, 2017; 4, article 25, 16 p.
Во многих случаях искусственный агент,
не допускающий никакого ущерба для
человека, действует менее эффективно и
может быстрее выйти из строя, чем
агент, допускающий небольшой ущерб
человеку.
В интересах человека дать ему большую
свободу, чем допускали законы Азимова.
43. Свобода (воли) и ответственность
Tufts Human-Robot Interaction Lab
Знаю ли я как выполнить X
Способен ли я технически выполнить X
Могу ли я выполнить X прямо сейчас
Ожидают ли окружающие от меня выполнения X
Не нарушу ли я законы и инструкции выполняя X
Соответствует ли выполнение X моральным
принципам
44. Этические компоненты ИТ решений
Сегодня
Специализированные
приложения
Встроенные ad hoc
Моно- и мульти-агентские
Логика ИЛИ машинное обучение
Различные парадигмы
программирования
Завтра
Общие этические системы
Стандартные библиотеки и
Этика-как-Сервис
Мульти-агентские с рефлексией
Логика И машинное обучение
Реактивное функциональное
программирование (?)
45. Искусственный Интеллект
проникает во все области
нашей жизни и критически
важно сделать так, чтобы он
стал нашим ответственным и
доброжелательным
партнером