Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №3 "Различные алгоритмы кластеризации"
Лектор - Николай Анохин
Иерархическая кластеризация. Agglomerative и Divisive алгоритмы. Различные виды расстояний между кластерами. Stepwise-optimal алгоритм. Случай неэвклидовых пространств. Критерии выбора количества кластеров: rand, silhouette. DBSCAN.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №3 "Различные алгоритмы кластеризации"
Лектор - Николай Анохин
Иерархическая кластеризация. Agglomerative и Divisive алгоритмы. Различные виды расстояний между кластерами. Stepwise-optimal алгоритм. Случай неэвклидовых пространств. Критерии выбора количества кластеров: rand, silhouette. DBSCAN.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Лекция №6 "Линейные модели для классификации и регрессии" Technosphere1
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №6 "Линейные модели для классификации и регрессии"
Лектор - Николай Анохин
Обобщенные линейные модели. Постановка задачи оптимизации. Примеры критериев. Градиентный спуск. Регуляризация. Метод Maximum Likelihood. Логистическая регрессия.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №4 "Задача классификации"
Лектор - Николай Анохин
Постановка задач классификации и регрессии. Теория принятия решений. Виды моделей. Примеры функций потерь. Переобучение. Метрики качества классификации. MDL. Решающие деревья. Алгоритм CART.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Лекция №2 "Задача кластеризации и ЕМ-алгоритм"Technosphere1
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №2 "Задача кластеризации и ЕМ-алгоритм"
Лектор - Николай Анохин
Постановка задачи кластеризации. Функции расстояния. Критерии качества кластеризации. EM-алгоритм. K-means и модификации.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №7 "Машина опорных векторов"
Лектор - Николай Анохин
Разделяющая поверхность с максимальным зазором. Формулировка задачи оптимизации для случаев линейно-разделимых и линейно-неразделимых классов. Сопряженная задача. Опорные векторы. KKT-условия. SVM для задач классификации и регрессии. Kernel trick. Теорема Мерсера. Примеры функций ядра.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №5 "Обработка текстов, Naive Bayes"
Лектор - Николай Анохин
Условная вероятность и теорема Байеса. Нормальное распределение. Naive Bayes: multinomial, binomial, gaussian. Сглаживание. Генеративная модель NB и байесовский вывод. Графические модели.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №8 "Методы снижения размерности пространства"
Лектор - Владимир Гулин
Проблема проклятия размерности. Отбор и выделение признаков. Методы выделения признаков (feature extraction). Метод главных компонент (PCA). Метод независимых компонент (ICA). Методы основанные на автоэнкодерах. Методы отбора признаков (feature selection). Методы основанные на взаимной корреляции признаков. Метод максимальной релевантность и минимальной избыточности (mRMR). Методы основанные на деревьях решений.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №10 "Алгоритмические композиции. Завершение"
Лектор - Владимир Гулин
Ключевые идеи бустинга. Отличия бустинга и бэггинга. Алгорим AdaBoost. Градиентный бустинг. Мета-алгоритмы над алгоритмическими композициями. Алгоритм BagBoo.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №9 "Алгоритмические композиции. Начало"
Лектор - Владимир Гулин
Комбинации классификаторов. Модельные деревья решений. Смесь экспертов. Stacking. Стохастические методы построения ансамблей классификаторов. Bagging. RSM. Алгоритм RandomForest.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Лекция №6 "Линейные модели для классификации и регрессии" Technosphere1
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №6 "Линейные модели для классификации и регрессии"
Лектор - Николай Анохин
Обобщенные линейные модели. Постановка задачи оптимизации. Примеры критериев. Градиентный спуск. Регуляризация. Метод Maximum Likelihood. Логистическая регрессия.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №4 "Задача классификации"
Лектор - Николай Анохин
Постановка задач классификации и регрессии. Теория принятия решений. Виды моделей. Примеры функций потерь. Переобучение. Метрики качества классификации. MDL. Решающие деревья. Алгоритм CART.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Лекция №2 "Задача кластеризации и ЕМ-алгоритм"Technosphere1
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №2 "Задача кластеризации и ЕМ-алгоритм"
Лектор - Николай Анохин
Постановка задачи кластеризации. Функции расстояния. Критерии качества кластеризации. EM-алгоритм. K-means и модификации.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №7 "Машина опорных векторов"
Лектор - Николай Анохин
Разделяющая поверхность с максимальным зазором. Формулировка задачи оптимизации для случаев линейно-разделимых и линейно-неразделимых классов. Сопряженная задача. Опорные векторы. KKT-условия. SVM для задач классификации и регрессии. Kernel trick. Теорема Мерсера. Примеры функций ядра.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №5 "Обработка текстов, Naive Bayes"
Лектор - Николай Анохин
Условная вероятность и теорема Байеса. Нормальное распределение. Naive Bayes: multinomial, binomial, gaussian. Сглаживание. Генеративная модель NB и байесовский вывод. Графические модели.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №8 "Методы снижения размерности пространства"
Лектор - Владимир Гулин
Проблема проклятия размерности. Отбор и выделение признаков. Методы выделения признаков (feature extraction). Метод главных компонент (PCA). Метод независимых компонент (ICA). Методы основанные на автоэнкодерах. Методы отбора признаков (feature selection). Методы основанные на взаимной корреляции признаков. Метод максимальной релевантность и минимальной избыточности (mRMR). Методы основанные на деревьях решений.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №10 "Алгоритмические композиции. Завершение"
Лектор - Владимир Гулин
Ключевые идеи бустинга. Отличия бустинга и бэггинга. Алгорим AdaBoost. Градиентный бустинг. Мета-алгоритмы над алгоритмическими композициями. Алгоритм BagBoo.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №9 "Алгоритмические композиции. Начало"
Лектор - Владимир Гулин
Комбинации классификаторов. Модельные деревья решений. Смесь экспертов. Stacking. Стохастические методы построения ансамблей классификаторов. Bagging. RSM. Алгоритм RandomForest.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
1. Квантовые алгоритмы:
возможности и ограничения.
Лекция 3: Сложность булевых функций в модели
запросов
М. Вялый
Вычислительный центр
им. А.А.Дородницына
Российской Академии наук
Санкт-Петербург, 2011
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 1 / 30
2. План
1 Определения и основные результаты
2 Квантовое вычисление дизъюнкции
3 Вероятностное вычисление дизъюнкции: нижняя оценка
4 Степень многочлена, приближающего булеву функцию
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 2 / 30
3. Три вида запросов
Булева функция x → f (x), x ∈ {0, 1}n , f (x) ∈ {0, 1}.
Классический запрос
Посылаем k, 1 k n.
Получаем xk .
Вероятностный запрос
Посылаем k, выбранное по некоторому вероятностному распределению
(pk ).
Получаем xk .
Квантовый запрос
Оператор Ox : |k, b → |k, b ⊕ xk (общий случай) или фазовый запрос
Ox : |k → (−1)xk |k .
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 3 / 30
4. Три вида запросов
Булева функция x → f (x), x ∈ {0, 1}n , f (x) ∈ {0, 1}.
Классический запрос
Посылаем k, 1 k n.
Получаем xk .
Вероятностный запрос
Посылаем k, выбранное по некоторому вероятностному распределению
(pk ).
Получаем xk .
Квантовый запрос
Оператор Ox : |k, b → |k, b ⊕ xk (общий случай) или фазовый запрос
Ox : |k → (−1)xk |k .
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 3 / 30
5. Три вида запросов
Булева функция x → f (x), x ∈ {0, 1}n , f (x) ∈ {0, 1}.
Классический запрос
Посылаем k, 1 k n.
Получаем xk .
Вероятностный запрос
Посылаем k, выбранное по некоторому вероятностному распределению
(pk ).
Получаем xk .
Квантовый запрос
Оператор Ox : |k, b → |k, b ⊕ xk (общий случай) или фазовый запрос
Ox : |k → (−1)xk |k .
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 3 / 30
6. Три вида запросов
Булева функция x → f (x), x ∈ {0, 1}n , f (x) ∈ {0, 1}.
Классический запрос
Посылаем k, 1 k n.
Получаем xk .
Вероятностный запрос
Посылаем k, выбранное по некоторому вероятностному распределению
(pk ).
Получаем xk .
Квантовый запрос
Оператор Ox : |k, b → |k, b ⊕ xk (общий случай) или фазовый запрос
Ox : |k → (−1)xk |k .
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 3 / 30
7. Формулировка задачи
Задача(-и) вычисления булевой функции f
Дано: Черный ящик , который выдает значения переменных из
некоторого набора (x1 , . . . , xn ).
Найти: значение f (x).
Сложность алгоритма: количество запросов.
Вероятность ошибки: меньше 1/3.
Определения
D(f ) минимальная сложность алгоритма вычисления f по
классическим запросам.
R1/3 (f ) минимальная сложность алгоритма вычисления f по
вероятностным запросам.
Q1/3 (f ) минимальная сложность алгоритма вычисления f по
квантовым запросам.
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 4 / 30
8. Формулировка задачи
Задача(-и) вычисления булевой функции f
Дано: Черный ящик , который выдает значения переменных из
некоторого набора (x1 , . . . , xn ).
Найти: значение f (x).
Сложность алгоритма: количество запросов.
Вероятность ошибки: меньше 1/3.
Определения
D(f ) минимальная сложность алгоритма вычисления f по
классическим запросам.
R1/3 (f ) минимальная сложность алгоритма вычисления f по
вероятностным запросам.
Q1/3 (f ) минимальная сложность алгоритма вычисления f по
квантовым запросам.
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 4 / 30
9. Полиномиальная эквивалентность между сложностями
Теорема
Для любой всюду определенной булевой функции f
Q1/3 (f ) R1/3 (f ) D(f ) = O Q1/3 (f )6 .
Наилучший известный разрыв
Для дизъюнкции OR = x1 ∨ x2 ∨ · · · ∨ xn выполняется
√
Q1/3 (OR) = O( n); R1/3 (OR) = Ω(n); D(OR) = n.
Открытая проблема
Какова точная величина разрыва между сложностями?
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 5 / 30
10. Полиномиальная эквивалентность между сложностями
Теорема
Для любой всюду определенной булевой функции f
Q1/3 (f ) R1/3 (f ) D(f ) = O Q1/3 (f )6 .
Наилучший известный разрыв
Для дизъюнкции OR = x1 ∨ x2 ∨ · · · ∨ xn выполняется
√
Q1/3 (OR) = O( n); R1/3 (OR) = Ω(n); D(OR) = n.
Открытая проблема
Какова точная величина разрыва между сложностями?
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 5 / 30
11. Полиномиальная эквивалентность между сложностями
Теорема
Для любой всюду определенной булевой функции f
Q1/3 (f ) R1/3 (f ) D(f ) = O Q1/3 (f )6 .
Наилучший известный разрыв
Для дизъюнкции OR = x1 ∨ x2 ∨ · · · ∨ xn выполняется
√
Q1/3 (OR) = O( n); R1/3 (OR) = Ω(n); D(OR) = n.
Открытая проблема
Какова точная величина разрыва между сложностями?
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 5 / 30
12. Очевидные соотношения
Q1/3 (f ) R1/3 (f ) D(f )
Классический алгоритм это вероятностный, который использует
только детерминированные распределения (одна из вероятностей
равна 1).
Вероятностные и детерминированные запросы можно моделировать
квантовыми, как уже объяснялось.
D(OR) = n
Дизъюнкция от нулевого набора равна 0, а от остальных 1. Если
сделать меньше n запросов противник даст нулевые ответы и затем
обмануть алгоритм.
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 6 / 30
13. Очевидные соотношения
Q1/3 (f ) R1/3 (f ) D(f )
Классический алгоритм это вероятностный, который использует
только детерминированные распределения (одна из вероятностей
равна 1).
Вероятностные и детерминированные запросы можно моделировать
квантовыми, как уже объяснялось.
D(OR) = n
Дизъюнкция от нулевого набора равна 0, а от остальных 1. Если
сделать меньше n запросов противник даст нулевые ответы и затем
обмануть алгоритм.
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 6 / 30
14. План
1 Определения и основные результаты
2 Квантовое вычисление дизъюнкции
3 Вероятностное вычисление дизъюнкции: нижняя оценка
4 Степень многочлена, приближающего булеву функцию
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 7 / 30
15. Квантовое вычисление дизъюнкции
Модификация алгоритма Гровера обеспечит вычисление дизъюнкции
√
за O( n) квантовых запросов.
Аналогично предыдущим случаям, попробуем фазовый запрос
Ox : |k → (−1)xk |k .
Будем применять итерацию Гровера G = Rψ Ox , начиная с вектора |ψ .
Здесь, как и раньше
Rψ = 2|ψ ψ| − I .
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 8 / 30
16. Квантовое вычисление дизъюнкции
Модификация алгоритма Гровера обеспечит вычисление дизъюнкции
√
за O( n) квантовых запросов.
Аналогично предыдущим случаям, попробуем фазовый запрос
Ox : |k → (−1)xk |k .
Будем применять итерацию Гровера G = Rψ Ox , начиная с вектора |ψ .
Здесь, как и раньше
Rψ = 2|ψ ψ| − I .
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 8 / 30
17. Квантовое вычисление дизъюнкции
Модификация алгоритма Гровера обеспечит вычисление дизъюнкции
√
за O( n) квантовых запросов.
Аналогично предыдущим случаям, попробуем фазовый запрос
Ox : |k → (−1)xk |k .
Будем применять итерацию Гровера G = Rψ Ox , начиная с вектора |ψ .
Здесь, как и раньше
Rψ = 2|ψ ψ| − I .
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 8 / 30
18. Инвариантное двумерное подпространство
G : C(|ψ , |ξ ) → C(|ψ , |ξ )
1
|ξ = √ |k
h k:x =1
k
Проверим:
1 1
|ψ = √ |k + √ |k =
n n
k:xk =1 k:xk =0
h n−h 1 h n−h
= |ξ + √ |k = |ξ + |η
n n n−h n n
k:xk =0
Ox |ξ = −|ξ
Ox |η = |η
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 9 / 30
19. Инвариантное двумерное подпространство
G : C(|ψ , |ξ ) → C(|ψ , |ξ )
1
|ξ = √ |k
h k:x =1
k
Проверим:
1 1
|ψ = √ |k + √ |k =
n n
k:xk =1 k:xk =0
h n−h 1 h n−h
= |ξ + √ |k = |ξ + |η
n n n−h n n
k:xk =0
Ox |ξ = −|ξ
Ox |η = |η
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 9 / 30
20. Инвариантное двумерное подпространство
G : C(|ψ , |ξ ) → C(|ψ , |ξ )
1
|ξ = √ |k
h k:x =1
k
Проверим:
1 1
|ψ = √ |k + √ |k =
n n
k:xk =1 k:xk =0
h n−h 1 h n−h
= |ξ + √ |k = |ξ + |η
n n n−h n n
k:xk =0
Ox |ξ = −|ξ
Ox |η = |η
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 9 / 30
21. Инвариантное двумерное подпространство
G : C(|ψ , |ξ ) → C(|ψ , |ξ )
1
|ξ = √ |k
h k:x =1
k
Проверим:
1 1
|ψ = √ |k + √ |k =
n n
k:xk =1 k:xk =0
h n−h 1 h n−h
= |ξ + √ |k = |ξ + |η
n n n−h n n
k:xk =0
Ox |ξ = −|ξ
Ox |η = |η
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 9 / 30
22. Инвариантное двумерное подпространство
G : C(|ψ , |ξ ) → C(|ψ , |ξ )
1
|ξ = √ |k
h k:x =1
k
Проверим:
1 1
|ψ = √ |k + √ |k =
n n
k:xk =1 k:xk =0
h n−h 1 h n−h
= |ξ + √ |k = |ξ + |η
n n n−h n n
k:xk =0
Ox |ξ = −|ξ
Ox |η = |η
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 9 / 30
23. Инвариантное двумерное подпространство
G : C(|ψ , |ξ ) → C(|ψ , |ξ )
1
|ξ = √ |k
h k:x =1
k
Проверим:
1 1
|ψ = √ |k + √ |k =
n n
k:xk =1 k:xk =0
h n−h 1 h n−h
= |ξ + √ |k = |ξ + |η
n n n−h n n
k:xk =0
Ox |ξ = −|ξ
Ox |η = |η
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 9 / 30
24. Инвариантное двумерное подпространство
G : C(|ψ , |ξ ) → C(|ψ , |ξ )
1
|ξ = √ |k
h k:x =1
k
Проверим:
1 1
|ψ = √ |k + √ |k =
n n
k:xk =1 k:xk =0
h n−h 1 h n−h
= |ξ + √ |k = |ξ + |η
n n n−h n n
k:xk =0
Ox |ξ = −|ξ
Ox |η = |η
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 9 / 30
25. Угол поворота
1 1 h
sin ϑ = ψ|ξ = h √ √ =
n h n
|ξ
2ϑ
|ψ
ϑ
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 10 / 30
26. Схема алгоритма
Количество итераций зависит от числа единиц. Оно нам неизвестно.
Будем выбирать случайно.
Алгоритм Q∨ :
1 Повторить следующие действия 5 раз:
(a) выбрать номер переменной k по равномерному распределению на
[1; n];
(b) запросить xk ;
(c) если xk = 1, то завершить алгоритм с результатом 1.
√
2 Положить m = n.
3 Выбрать t по равномерному распределению на [0; m − 1];
4 Приготовить состояние |ψ .
5 Выполнить t итераций Гровера.
6 Измерить полученное состояние, результат обозначим k.
7 Закончить работу с результатом xk .
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 11 / 30
27. Схема алгоритма
Количество итераций зависит от числа единиц. Оно нам неизвестно.
Будем выбирать случайно.
Алгоритм Q∨ :
1 Повторить следующие действия 5 раз:
(a) выбрать номер переменной k по равномерному распределению на
[1; n];
(b) запросить xk ;
(c) если xk = 1, то завершить алгоритм с результатом 1.
√
2 Положить m = n.
3 Выбрать t по равномерному распределению на [0; m − 1];
4 Приготовить состояние |ψ .
5 Выполнить t итераций Гровера.
6 Измерить полученное состояние, результат обозначим k.
7 Закончить работу с результатом xk .
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 11 / 30
28. Схема алгоритма
Количество итераций зависит от числа единиц. Оно нам неизвестно.
Будем выбирать случайно.
Алгоритм Q∨ :
1 Повторить следующие действия 5 раз:
(a) выбрать номер переменной k по равномерному распределению на
[1; n];
(b) запросить xk ;
(c) если xk = 1, то завершить алгоритм с результатом 1.
√
2 Положить m = n.
3 Выбрать t по равномерному распределению на [0; m − 1];
4 Приготовить состояние |ψ .
5 Выполнить t итераций Гровера.
6 Измерить полученное состояние, результат обозначим k.
7 Закончить работу с результатом xk .
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 11 / 30
29. Схема алгоритма
Количество итераций зависит от числа единиц. Оно нам неизвестно.
Будем выбирать случайно.
Алгоритм Q∨ :
1 Повторить следующие действия 5 раз:
(a) выбрать номер переменной k по равномерному распределению на
[1; n];
(b) запросить xk ;
(c) если xk = 1, то завершить алгоритм с результатом 1.
√
2 Положить m = n.
3 Выбрать t по равномерному распределению на [0; m − 1];
4 Приготовить состояние |ψ .
5 Выполнить t итераций Гровера.
6 Измерить полученное состояние, результат обозначим k.
7 Закончить работу с результатом xk .
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 11 / 30
30. Схема алгоритма
Количество итераций зависит от числа единиц. Оно нам неизвестно.
Будем выбирать случайно.
Алгоритм Q∨ :
1 Повторить следующие действия 5 раз:
(a) выбрать номер переменной k по равномерному распределению на
[1; n];
(b) запросить xk ;
(c) если xk = 1, то завершить алгоритм с результатом 1.
√
2 Положить m = n.
3 Выбрать t по равномерному распределению на [0; m − 1];
4 Приготовить состояние |ψ .
5 Выполнить t итераций Гровера.
6 Измерить полученное состояние, результат обозначим k.
7 Закончить работу с результатом xk .
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 11 / 30
31. Схема алгоритма
Количество итераций зависит от числа единиц. Оно нам неизвестно.
Будем выбирать случайно.
Алгоритм Q∨ :
1 Повторить следующие действия 5 раз:
(a) выбрать номер переменной k по равномерному распределению на
[1; n];
(b) запросить xk ;
(c) если xk = 1, то завершить алгоритм с результатом 1.
√
2 Положить m = n.
3 Выбрать t по равномерному распределению на [0; m − 1];
4 Приготовить состояние |ψ .
5 Выполнить t итераций Гровера.
6 Измерить полученное состояние, результат обозначим k.
7 Закончить работу с результатом xk .
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 11 / 30
32. Схема алгоритма
Количество итераций зависит от числа единиц. Оно нам неизвестно.
Будем выбирать случайно.
Алгоритм Q∨ :
1 Повторить следующие действия 5 раз:
(a) выбрать номер переменной k по равномерному распределению на
[1; n];
(b) запросить xk ;
(c) если xk = 1, то завершить алгоритм с результатом 1.
√
2 Положить m = n.
3 Выбрать t по равномерному распределению на [0; m − 1];
4 Приготовить состояние |ψ .
5 Выполнить t итераций Гровера.
6 Измерить полученное состояние, результат обозначим k.
7 Закончить работу с результатом xk .
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 11 / 30
33. Схема алгоритма
Количество итераций зависит от числа единиц. Оно нам неизвестно.
Будем выбирать случайно.
Алгоритм Q∨ :
1 Повторить следующие действия 5 раз:
(a) выбрать номер переменной k по равномерному распределению на
[1; n];
(b) запросить xk ;
(c) если xk = 1, то завершить алгоритм с результатом 1.
√
2 Положить m = n.
3 Выбрать t по равномерному распределению на [0; m − 1];
4 Приготовить состояние |ψ .
5 Выполнить t итераций Гровера.
6 Измерить полученное состояние, результат обозначим k.
7 Закончить работу с результатом xk .
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 11 / 30
34. Схема алгоритма
Количество итераций зависит от числа единиц. Оно нам неизвестно.
Будем выбирать случайно.
Алгоритм Q∨ :
1 Повторить следующие действия 5 раз:
(a) выбрать номер переменной k по равномерному распределению на
[1; n];
(b) запросить xk ;
(c) если xk = 1, то завершить алгоритм с результатом 1.
√
2 Положить m = n.
3 Выбрать t по равномерному распределению на [0; m − 1];
4 Приготовить состояние |ψ .
5 Выполнить t итераций Гровера.
6 Измерить полученное состояние, результат обозначим k.
7 Закончить работу с результатом xk .
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 11 / 30
35. Схема алгоритма
Количество итераций зависит от числа единиц. Оно нам неизвестно.
Будем выбирать случайно.
Алгоритм Q∨ :
1 Повторить следующие действия 5 раз:
(a) выбрать номер переменной k по равномерному распределению на
[1; n];
(b) запросить xk ;
(c) если xk = 1, то завершить алгоритм с результатом 1.
√
2 Положить m = n.
3 Выбрать t по равномерному распределению на [0; m − 1];
4 Приготовить состояние |ψ .
5 Выполнить t итераций Гровера.
6 Измерить полученное состояние, результат обозначим k.
7 Закончить работу с результатом xk .
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 11 / 30
36. Свойства алгоритма
√
Количество запросов O( n).
Если OR(x) = 0, то вероятность ошибки 0.
Утверждение
Если OR(x) = 1, то вероятность ошибки < 3/4.
Повторив алгоритм k раз, сделаем вероятность ошибки < (3/4)k .
Теорема
Существует алгоритм, который вычисляет дизъюнкцию n переменных
√
с вероятностью ошибки ε за O( n log ε−1 ) квантовых запросов.
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 12 / 30
37. Свойства алгоритма
√
Количество запросов O( n).
Если OR(x) = 0, то вероятность ошибки 0.
Утверждение
Если OR(x) = 1, то вероятность ошибки < 3/4.
Повторив алгоритм k раз, сделаем вероятность ошибки < (3/4)k .
Теорема
Существует алгоритм, который вычисляет дизъюнкцию n переменных
√
с вероятностью ошибки ε за O( n log ε−1 ) квантовых запросов.
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 12 / 30
38. Свойства алгоритма
√
Количество запросов O( n).
Если OR(x) = 0, то вероятность ошибки 0.
Утверждение
Если OR(x) = 1, то вероятность ошибки < 3/4.
Повторив алгоритм k раз, сделаем вероятность ошибки < (3/4)k .
Теорема
Существует алгоритм, который вычисляет дизъюнкцию n переменных
√
с вероятностью ошибки ε за O( n log ε−1 ) квантовых запросов.
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 12 / 30
39. Свойства алгоритма
√
Количество запросов O( n).
Если OR(x) = 0, то вероятность ошибки 0.
Утверждение
Если OR(x) = 1, то вероятность ошибки < 3/4.
Повторив алгоритм k раз, сделаем вероятность ошибки < (3/4)k .
Теорема
Существует алгоритм, который вычисляет дизъюнкцию n переменных
√
с вероятностью ошибки ε за O( n log ε−1 ) квантовых запросов.
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 12 / 30
40. Свойства алгоритма
√
Количество запросов O( n).
Если OR(x) = 0, то вероятность ошибки 0.
Утверждение
Если OR(x) = 1, то вероятность ошибки < 3/4.
Повторив алгоритм k раз, сделаем вероятность ошибки < (3/4)k .
Теорема
Существует алгоритм, который вычисляет дизъюнкцию n переменных
√
с вероятностью ошибки ε за O( n log ε−1 ) квантовых запросов.
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 12 / 30
41. Оценка вероятности ошибки: два случая
1 Количество единиц велико: h n/5.
Вторая стадия алгоритма потребуется с вероятностью, не
превосходящей
5
1
1− ≈ e −1
5
и вероятность ошибки не больше этой величины.
2 Количество единиц мало: 0 < h < n/5.
Будем оценивать вероятность успеха при итерациях Гровера.
Успех: такое измерение, которое дает номер переменной, равной 1.
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 13 / 30
42. Оценка вероятности ошибки: два случая
1 Количество единиц велико: h n/5.
Вторая стадия алгоритма потребуется с вероятностью, не
превосходящей
5
1
1− ≈ e −1
5
и вероятность ошибки не больше этой величины.
2 Количество единиц мало: 0 < h < n/5.
Будем оценивать вероятность успеха при итерациях Гровера.
Успех: такое измерение, которое дает номер переменной, равной 1.
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 13 / 30
43. Оценка вероятности ошибки: два случая
1 Количество единиц велико: h n/5.
Вторая стадия алгоритма потребуется с вероятностью, не
превосходящей
5
1
1− ≈ e −1
5
и вероятность ошибки не больше этой величины.
2 Количество единиц мало: 0 < h < n/5.
Будем оценивать вероятность успеха при итерациях Гровера.
Успех: такое измерение, которое дает номер переменной, равной 1.
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 13 / 30
44. Оценка вероятности ошибки: два случая
1 Количество единиц велико: h n/5.
Вторая стадия алгоритма потребуется с вероятностью, не
превосходящей
5
1
1− ≈ e −1
5
и вероятность ошибки не больше этой величины.
2 Количество единиц мало: 0 < h < n/5.
Будем оценивать вероятность успеха при итерациях Гровера.
Успех: такое измерение, которое дает номер переменной, равной 1.
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 13 / 30
45. Оценка вероятности успеха для заданного числа
итераций
Лемма
Вероятность успеха после t итераций Гровера, начиная с состояния
|ψ , равна sin2 ((2t + 1)ϑ).
Доказательство
|ξ
2ϑ
|ψ
ϑ
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 14 / 30
46. Оценка вероятности успеха для заданного числа
итераций
Лемма
Вероятность успеха после t итераций Гровера, начиная с состояния
|ψ , равна sin2 ((2t + 1)ϑ).
Доказательство
|ξ
Начальный угол ϑ. 2ϑ
|ψ
ϑ
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 14 / 30
47. Оценка вероятности успеха для заданного числа
итераций
Лемма
Вероятность успеха после t итераций Гровера, начиная с состояния
|ψ , равна sin2 ((2t + 1)ϑ).
Доказательство
|ξ
Начальный угол ϑ. 2ϑ
Каждая итерация поворачивает |ψ
вектор на угол 2ϑ. ϑ
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 14 / 30
48. Оценка вероятности успеха для заданного числа
итераций
Лемма
Вероятность успеха после t итераций Гровера, начиная с состояния
|ψ , равна sin2 ((2t + 1)ϑ).
Доказательство
|ξ
Начальный угол ϑ. 2ϑ
Каждая итерация поворачивает |ψ
вектор на угол 2ϑ. ϑ
Координаты вектора после t итераций
(cos((2t + 1)ϑ), sin((2t + 1)ϑ))
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 14 / 30
49. Оценка вероятности успеха для заданного числа
итераций
Лемма
Вероятность успеха после t итераций Гровера, начиная с состояния
|ψ , равна sin2 ((2t + 1)ϑ).
Доказательство
|ξ
Вероятность успеха квадрат модуля 2ϑ
амплитуды базисного вектора |ξ : |ψ
ϑ
sin2 ((2t + 1)ϑ)
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 14 / 30
50. Случайный выбор числа итераций
Лемма
Вероятность успеха
1 sin(4mϑ)
Pm = − .
2 4m sin(2ϑ)
Доказательство
По формуле полной вероятности
m−1 m−1
1 1
Pm = sin2 ((2j + 1)ϑ) = 1 − cos((2j + 1)2ϑ) .
m 2m
j=0 j=0
Теперь свернем сумму косинусов, используя формулу
m−1
sin(2mϕ)
cos((2j + 1)ϕ) = .
2 sin ϕ
j=0
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 15 / 30
51. Случайный выбор числа итераций
Лемма
Вероятность успеха
1 sin(4mϑ)
Pm = − .
2 4m sin(2ϑ)
Доказательство
По формуле полной вероятности
m−1 m−1
1 1
Pm = sin2 ((2j + 1)ϑ) = 1 − cos((2j + 1)2ϑ) .
m 2m
j=0 j=0
Теперь свернем сумму косинусов, используя формулу
m−1
sin(2mϕ)
cos((2j + 1)ϕ) = .
2 sin ϕ
j=0
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 15 / 30
52. Вероятность успеха на второй стадии алгоритма
Из второй леммы
1 sin(4mϑ)
Pm = −
2 4m sin(2ϑ)
При m > 1/ sin(2ϑ) вероятность успеха не меньше 1/4.
Если h < n/5, то sin(2ϑ) > sin ϑ = h/n.
Поэтому
√ n 1 1
n> = > .
h sin ϑ sin(2ϑ)
Вероятность успеха не меньше 1/4.
Вероятность ошибки меньше 3/4.
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 16 / 30
53. Вероятность успеха на второй стадии алгоритма
Из второй леммы
1 sin(4mϑ)
Pm = −
2 4m sin(2ϑ)
При m > 1/ sin(2ϑ) вероятность успеха не меньше 1/4.
Если h < n/5, то sin(2ϑ) > sin ϑ = h/n.
Поэтому
√ n 1 1
n> = > .
h sin ϑ sin(2ϑ)
Вероятность успеха не меньше 1/4.
Вероятность ошибки меньше 3/4.
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 16 / 30
54. Вероятность успеха на второй стадии алгоритма
Из второй леммы
1 sin(4mϑ)
Pm = −
2 4m sin(2ϑ)
При m > 1/ sin(2ϑ) вероятность успеха не меньше 1/4.
Если h < n/5, то sin(2ϑ) > sin ϑ = h/n.
Поэтому
√ n 1 1
n> = > .
h sin ϑ sin(2ϑ)
Вероятность успеха не меньше 1/4.
Вероятность ошибки меньше 3/4.
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 16 / 30
55. Вероятность успеха на второй стадии алгоритма
Из второй леммы
1 sin(4mϑ)
Pm = −
2 4m sin(2ϑ)
При m > 1/ sin(2ϑ) вероятность успеха не меньше 1/4.
Если h < n/5, то sin(2ϑ) > sin ϑ = h/n.
Поэтому
√ n 1 1
n> = > .
h sin ϑ sin(2ϑ)
Вероятность успеха не меньше 1/4.
Вероятность ошибки меньше 3/4.
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 16 / 30
56. Вероятность успеха на второй стадии алгоритма
Из второй леммы
1 sin(4mϑ)
Pm = −
2 4m sin(2ϑ)
При m > 1/ sin(2ϑ) вероятность успеха не меньше 1/4.
Если h < n/5, то sin(2ϑ) > sin ϑ = h/n.
Поэтому
√ n 1 1
n> = > .
h sin ϑ sin(2ϑ)
Вероятность успеха не меньше 1/4.
Вероятность ошибки меньше 3/4.
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 16 / 30
57. Вероятность успеха на второй стадии алгоритма
Из второй леммы
1 sin(4mϑ)
Pm = −
2 4m sin(2ϑ)
При m > 1/ sin(2ϑ) вероятность успеха не меньше 1/4.
Если h < n/5, то sin(2ϑ) > sin ϑ = h/n.
Поэтому
√ n 1 1
n> = > .
h sin ϑ sin(2ϑ)
Вероятность успеха не меньше 1/4.
Вероятность ошибки меньше 3/4.
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 16 / 30
58. План
1 Определения и основные результаты
2 Квантовое вычисление дизъюнкции
3 Вероятностное вычисление дизъюнкции: нижняя оценка
4 Степень многочлена, приближающего булеву функцию
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 17 / 30
59. Чувствительность
Определение
Чувствительность sx (f ) функции f в точке x равна количеству
переменных xk , для которых f (x) = f (x ⊕ ek ). Здесь
ek = (0, . . . , 0, 1, 0, . . . , 0).
k−1
(Сколько соседей на булевом кубе имеют другое значение функции.)
Чувствительность s(f ) функции f равна maxx sx (f ).
Пример
s(OR) = n, так как s0n (OR) = n (у всех соседей точки 0n значение 1, а
у самой точки 0).
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 18 / 30
60. Чувствительность
Определение
Чувствительность sx (f ) функции f в точке x равна количеству
переменных xk , для которых f (x) = f (x ⊕ ek ). Здесь
ek = (0, . . . , 0, 1, 0, . . . , 0).
k−1
(Сколько соседей на булевом кубе имеют другое значение функции.)
Чувствительность s(f ) функции f равна maxx sx (f ).
Пример
s(OR) = n, так как s0n (OR) = n (у всех соседей точки 0n значение 1, а
у самой точки 0).
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 18 / 30
61. Чувствительность
Определение
Чувствительность sx (f ) функции f в точке x равна количеству
переменных xk , для которых f (x) = f (x ⊕ ek ). Здесь
ek = (0, . . . , 0, 1, 0, . . . , 0).
k−1
(Сколько соседей на булевом кубе имеют другое значение функции.)
Чувствительность s(f ) функции f равна maxx sx (f ).
Пример
s(OR) = n, так как s0n (OR) = n (у всех соседей точки 0n значение 1, а
у самой точки 0).
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 18 / 30
62. Чувствительность
Определение
Чувствительность sx (f ) функции f в точке x равна количеству
переменных xk , для которых f (x) = f (x ⊕ ek ). Здесь
ek = (0, . . . , 0, 1, 0, . . . , 0).
k−1
(Сколько соседей на булевом кубе имеют другое значение функции.)
Чувствительность s(f ) функции f равна maxx sx (f ).
Пример
s(OR) = n, так как s0n (OR) = n (у всех соседей точки 0n значение 1, а
у самой точки 0).
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 18 / 30
63. Нижняя оценка вероятностной сложности
Теорема
s(f ) 3R1/3 (f )
Доказательство
Аналогично оценке для числа вероятностных запросов в задаче
поиска.
Пусть в x достигается максимум sx (f ) = s, а x1 , . . . , xs
соответствующие переменные.
Если алгоритм делает k s/3 запросов, то вероятность того, что одна
из этих переменных пропущена, не меньше 1/3.
Но в этом случае противник может гарантировать ошибку, так как
f (x) = f (x ⊕ ej ).
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 19 / 30
64. Нижняя оценка вероятностной сложности
Теорема
s(f ) 3R1/3 (f )
Доказательство
Аналогично оценке для числа вероятностных запросов в задаче
поиска.
Пусть в x достигается максимум sx (f ) = s, а x1 , . . . , xs
соответствующие переменные.
Если алгоритм делает k s/3 запросов, то вероятность того, что одна
из этих переменных пропущена, не меньше 1/3.
Но в этом случае противник может гарантировать ошибку, так как
f (x) = f (x ⊕ ej ).
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 19 / 30
65. Нижняя оценка вероятностной сложности
Теорема
s(f ) 3R1/3 (f )
Доказательство
Аналогично оценке для числа вероятностных запросов в задаче
поиска.
Пусть в x достигается максимум sx (f ) = s, а x1 , . . . , xs
соответствующие переменные.
Если алгоритм делает k s/3 запросов, то вероятность того, что одна
из этих переменных пропущена, не меньше 1/3.
Но в этом случае противник может гарантировать ошибку, так как
f (x) = f (x ⊕ ej ).
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 19 / 30
66. Нижняя оценка вероятностной сложности
Теорема
s(f ) 3R1/3 (f )
Доказательство
Аналогично оценке для числа вероятностных запросов в задаче
поиска.
Пусть в x достигается максимум sx (f ) = s, а x1 , . . . , xs
соответствующие переменные.
Если алгоритм делает k s/3 запросов, то вероятность того, что одна
из этих переменных пропущена, не меньше 1/3.
Но в этом случае противник может гарантировать ошибку, так как
f (x) = f (x ⊕ ej ).
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 19 / 30
67. Нижняя оценка вероятностной сложности
Теорема
s(f ) 3R1/3 (f )
Доказательство
Аналогично оценке для числа вероятностных запросов в задаче
поиска.
Пусть в x достигается максимум sx (f ) = s, а x1 , . . . , xs
соответствующие переменные.
Если алгоритм делает k s/3 запросов, то вероятность того, что одна
из этих переменных пропущена, не меньше 1/3.
Но в этом случае противник может гарантировать ошибку, так как
f (x) = f (x ⊕ ej ).
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 19 / 30
68. План
1 Определения и основные результаты
2 Квантовое вычисление дизъюнкции
3 Вероятностное вычисление дизъюнкции: нижняя оценка
4 Степень многочлена, приближающего булеву функцию
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 20 / 30
69. Многочлены и булевы функции
Определения
Многочлен p : Rn → R приближает булеву функцию
f : {0, 1}n → {0, 1}, если для любого x ∈ {0, 1}n выполняется
1
|p(x) − f (x)| < .
3
Степенью (приближения) deg(f ) булевой функции f называется
наименьшая степень многочлена, приближающего f .
Задача
Докажите, что для любой булевой функции f от n переменных
существует единственный мультилинейный многочлен p степени не
выше n, который точно представляет f : равенство f (x) = p(x)
выполняется для всех x ∈ {0, 1}n .
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 21 / 30
70. Многочлены и булевы функции
Определения
Многочлен p : Rn → R приближает булеву функцию
f : {0, 1}n → {0, 1}, если для любого x ∈ {0, 1}n выполняется
1
|p(x) − f (x)| < .
3
Степенью (приближения) deg(f ) булевой функции f называется
наименьшая степень многочлена, приближающего f .
Задача
Докажите, что для любой булевой функции f от n переменных
существует единственный мультилинейный многочлен p степени не
выше n, который точно представляет f : равенство f (x) = p(x)
выполняется для всех x ∈ {0, 1}n .
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 21 / 30
71. Многочлены и булевы функции
Определения
Многочлен p : Rn → R приближает булеву функцию
f : {0, 1}n → {0, 1}, если для любого x ∈ {0, 1}n выполняется
1
|p(x) − f (x)| < .
3
Степенью (приближения) deg(f ) булевой функции f называется
наименьшая степень многочлена, приближающего f .
Задача
Докажите, что для любой булевой функции f от n переменных
существует единственный мультилинейный многочлен p степени не
выше n, который точно представляет f : равенство f (x) = p(x)
выполняется для всех x ∈ {0, 1}n .
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 21 / 30
72. Многочлены и булевы функции
Определения
Многочлен p : Rn → R приближает булеву функцию
f : {0, 1}n → {0, 1}, если для любого x ∈ {0, 1}n выполняется
1
|p(x) − f (x)| < .
3
Степенью (приближения) deg(f ) булевой функции f называется
наименьшая степень многочлена, приближающего f .
Задача
Докажите, что для любой булевой функции f от n переменных
существует единственный мультилинейный многочлен p степени не
выше n, который точно представляет f : равенство f (x) = p(x)
выполняется для всех x ∈ {0, 1}n .
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 21 / 30
73. Оценка Q1/3 (f ) через степень приближения
Теорема
Для любой булевой функции deg(f ) 2Q1/3 (f ).
Лемма
Если алгоритм вычисления f делает d квантовых запросов, то
состояние его памяти перед финальным измерением имеет вид
αw (x)|w ,
w ∈W
где w состояния памяти алгоритма, а αw (x) (комплексные)
многочлены от x степени не выше d .
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 22 / 30
74. Оценка Q1/3 (f ) через степень приближения
Теорема
Для любой булевой функции deg(f ) 2Q1/3 (f ).
Лемма
Если алгоритм вычисления f делает d квантовых запросов, то
состояние его памяти перед финальным измерением имеет вид
αw (x)|w ,
w ∈W
где w состояния памяти алгоритма, а αw (x) (комплексные)
многочлены от x степени не выше d .
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 22 / 30
75. Оценка Q1/3 (f ) через степень приближения
Перед измерением: αw (x)|w , deg αw (x) d.
w ∈W
Вывод теоремы из леммы
Исход w наблюдается при измерении с вероятностью
pw (x) = |αw (x)|2 .
W1 множество тех состояний памяти, в которых алгоритм выдает
ответ 1 . Вероятность ответа 1 равна
p1 (x) = pw (x).
w ∈W1
Это многочлен от x степени 2d и такой, что
1 p1 (x) > 2/3 при f (x) = 1;
1/3 > p1 (x) 0 при f (x) = 0.
Таким образом, deg(f ) deg p1 (x) 2d .
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 23 / 30
76. Оценка Q1/3 (f ) через степень приближения
Перед измерением: αw (x)|w , deg αw (x) d.
w ∈W
Вывод теоремы из леммы
Исход w наблюдается при измерении с вероятностью
pw (x) = |αw (x)|2 .
W1 множество тех состояний памяти, в которых алгоритм выдает
ответ 1 . Вероятность ответа 1 равна
p1 (x) = pw (x).
w ∈W1
Это многочлен от x степени 2d и такой, что
1 p1 (x) > 2/3 при f (x) = 1;
1/3 > p1 (x) 0 при f (x) = 0.
Таким образом, deg(f ) deg p1 (x) 2d .
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 23 / 30
77. Оценка Q1/3 (f ) через степень приближения
Перед измерением: αw (x)|w , deg αw (x) d.
w ∈W
Вывод теоремы из леммы
Исход w наблюдается при измерении с вероятностью
pw (x) = |αw (x)|2 .
W1 множество тех состояний памяти, в которых алгоритм выдает
ответ 1 . Вероятность ответа 1 равна
p1 (x) = pw (x).
w ∈W1
Это многочлен от x степени 2d и такой, что
1 p1 (x) > 2/3 при f (x) = 1;
1/3 > p1 (x) 0 при f (x) = 0.
Таким образом, deg(f ) deg p1 (x) 2d .
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 23 / 30
78. Оценка Q1/3 (f ) через степень приближения
Перед измерением: αw (x)|w , deg αw (x) d.
w ∈W
Вывод теоремы из леммы
Исход w наблюдается при измерении с вероятностью
pw (x) = |αw (x)|2 .
W1 множество тех состояний памяти, в которых алгоритм выдает
ответ 1 . Вероятность ответа 1 равна
p1 (x) = pw (x).
w ∈W1
Это многочлен от x степени 2d и такой, что
1 p1 (x) > 2/3 при f (x) = 1;
1/3 > p1 (x) 0 при f (x) = 0.
Таким образом, deg(f ) deg p1 (x) 2d .
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 23 / 30
79. Оценка Q1/3 (f ) через степень приближения
Перед измерением: αw (x)|w , deg αw (x) d.
w ∈W
Вывод теоремы из леммы
Исход w наблюдается при измерении с вероятностью
pw (x) = |αw (x)|2 .
W1 множество тех состояний памяти, в которых алгоритм выдает
ответ 1 . Вероятность ответа 1 равна
p1 (x) = pw (x).
w ∈W1
Это многочлен от x степени 2d и такой, что
1 p1 (x) > 2/3 при f (x) = 1;
1/3 > p1 (x) 0 при f (x) = 0.
Таким образом, deg(f ) deg p1 (x) 2d .
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 23 / 30
80. deg(f ) 2Q1/3 (f ): доказательство леммы
Состояние памяти алгоритма после k запросов:
|ψk = Uk Ox Uk−1 Ox . . . U1 Ox |ψ0 .
Доказательство индукцией по k.
Для k = 0 амплитуды не зависят от x, степень 0.
Применение запроса.
Было
· · · + α(x)|w , k, 0 + β(x)|w , k, 1 + . . .
Стало
· · ·+(β(x)xk +α(x)(1−xk ))|w , k, 0 +(α(x)xk +β(x)(1−xk ))|w , k, 1 +. . .
Степень увеличилась самое большее на 1.
Унитарное преобразование: новая амплитуда линейная
комбинация старых (коэффициенты от x не зависят). Степень не
увеличивается.
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 24 / 30
81. deg(f ) 2Q1/3 (f ): доказательство леммы
Состояние памяти алгоритма после k запросов:
|ψk = Uk Ox Uk−1 Ox . . . U1 Ox |ψ0 .
Доказательство индукцией по k.
Для k = 0 амплитуды не зависят от x, степень 0.
Применение запроса.
Было
· · · + α(x)|w , k, 0 + β(x)|w , k, 1 + . . .
Стало
· · ·+(β(x)xk +α(x)(1−xk ))|w , k, 0 +(α(x)xk +β(x)(1−xk ))|w , k, 1 +. . .
Степень увеличилась самое большее на 1.
Унитарное преобразование: новая амплитуда линейная
комбинация старых (коэффициенты от x не зависят). Степень не
увеличивается.
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 24 / 30
82. deg(f ) 2Q1/3 (f ): доказательство леммы
Состояние памяти алгоритма после k запросов:
|ψk = Uk Ox Uk−1 Ox . . . U1 Ox |ψ0 .
Доказательство индукцией по k.
Для k = 0 амплитуды не зависят от x, степень 0.
Применение запроса.
Было
· · · + α(x)|w , k, 0 + β(x)|w , k, 1 + . . .
Стало
· · ·+(β(x)xk +α(x)(1−xk ))|w , k, 0 +(α(x)xk +β(x)(1−xk ))|w , k, 1 +. . .
Степень увеличилась самое большее на 1.
Унитарное преобразование: новая амплитуда линейная
комбинация старых (коэффициенты от x не зависят). Степень не
увеличивается.
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 24 / 30
83. deg(f ) 2Q1/3 (f ): доказательство леммы
Состояние памяти алгоритма после k запросов:
|ψk = Uk Ox Uk−1 Ox . . . U1 Ox |ψ0 .
Доказательство индукцией по k.
Для k = 0 амплитуды не зависят от x, степень 0.
Применение запроса.
Было
· · · + α(x)|w , k, 0 + β(x)|w , k, 1 + . . .
Стало
· · ·+(β(x)xk +α(x)(1−xk ))|w , k, 0 +(α(x)xk +β(x)(1−xk ))|w , k, 1 +. . .
Степень увеличилась самое большее на 1.
Унитарное преобразование: новая амплитуда линейная
комбинация старых (коэффициенты от x не зависят). Степень не
увеличивается.
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 24 / 30
84. deg(f ) 2Q1/3 (f ): доказательство леммы
Состояние памяти алгоритма после k запросов:
|ψk = Uk Ox Uk−1 Ox . . . U1 Ox |ψ0 .
Доказательство индукцией по k.
Для k = 0 амплитуды не зависят от x, степень 0.
Применение запроса.
Было
· · · + α(x)|w , k, 0 + β(x)|w , k, 1 + . . .
Стало
· · ·+(β(x)xk +α(x)(1−xk ))|w , k, 0 +(α(x)xk +β(x)(1−xk ))|w , k, 1 +. . .
Степень увеличилась самое большее на 1.
Унитарное преобразование: новая амплитуда линейная
комбинация старых (коэффициенты от x не зависят). Степень не
увеличивается.
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 24 / 30
85. deg(f ) 2Q1/3 (f ): доказательство леммы
Состояние памяти алгоритма после k запросов:
|ψk = Uk Ox Uk−1 Ox . . . U1 Ox |ψ0 .
Доказательство индукцией по k.
Для k = 0 амплитуды не зависят от x, степень 0.
Применение запроса.
Было
· · · + α(x)|w , k, 0 + β(x)|w , k, 1 + . . .
Стало
· · ·+(β(x)xk +α(x)(1−xk ))|w , k, 0 +(α(x)xk +β(x)(1−xk ))|w , k, 1 +. . .
Степень увеличилась самое большее на 1.
Унитарное преобразование: новая амплитуда линейная
комбинация старых (коэффициенты от x не зависят). Степень не
увеличивается.
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 24 / 30
86. deg(f ) 2Q1/3 (f ): доказательство леммы
Состояние памяти алгоритма после k запросов:
|ψk = Uk Ox Uk−1 Ox . . . U1 Ox |ψ0 .
Доказательство индукцией по k.
Для k = 0 амплитуды не зависят от x, степень 0.
Применение запроса.
Было
· · · + α(x)|w , k, 0 + β(x)|w , k, 1 + . . .
Стало
· · ·+(β(x)xk +α(x)(1−xk ))|w , k, 0 +(α(x)xk +β(x)(1−xk ))|w , k, 1 +. . .
Степень увеличилась самое большее на 1.
Унитарное преобразование: новая амплитуда линейная
комбинация старых (коэффициенты от x не зависят). Степень не
увеличивается.
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 24 / 30
87. Насколько хорошо степень приближает Qε (f )?
Амбайнис (2006) построил семейство функций, для которых
deg(fk ) = 2k , а Q1/3 (f ) = Ω(2.5k ).
Для доказательства нижней оценки на квантовую сложность он
использовал метод квантового противника (Амбайнис, 2002).
Рейхарт (2010) доказал для одной из версий метода квантового
противника, что она дает оценку Qε (f ) с точностью до
мультипликативной константы.
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 25 / 30
88. Насколько хорошо степень приближает Qε (f )?
Амбайнис (2006) построил семейство функций, для которых
deg(fk ) = 2k , а Q1/3 (f ) = Ω(2.5k ).
Для доказательства нижней оценки на квантовую сложность он
использовал метод квантового противника (Амбайнис, 2002).
Рейхарт (2010) доказал для одной из версий метода квантового
противника, что она дает оценку Qε (f ) с точностью до
мультипликативной константы.
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 25 / 30
89. Насколько хорошо степень приближает Qε (f )?
Амбайнис (2006) построил семейство функций, для которых
deg(fk ) = 2k , а Q1/3 (f ) = Ω(2.5k ).
Для доказательства нижней оценки на квантовую сложность он
использовал метод квантового противника (Амбайнис, 2002).
Рейхарт (2010) доказал для одной из версий метода квантового
противника, что она дает оценку Qε (f ) с точностью до
мультипликативной константы.
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 25 / 30
94. Оценка квантовой сложности дизъюнкции (окончание)
Завершение доказательства
Специализация
p (t) = p sym (1, 1, . . . , 1, 0, . . . , 0) = p sym (xt ).
˜
t единиц
t
Это многочлен степени d , так как σj (xt ) = j .
Свойства специализации
|˜(0)| < 1/3;
p
|˜(k) − 1| < 1/3 при 1
p k n.
Отсюда следует
d = deg p deg p sym deg p
˜ n/6.
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 28 / 30
95. Оценка квантовой сложности дизъюнкции (окончание)
Завершение доказательства
Специализация
p (t) = p sym (1, 1, . . . , 1, 0, . . . , 0) = p sym (xt ).
˜
t единиц
t
Это многочлен степени d , так как σj (xt ) = j .
Свойства специализации
|˜(0)| < 1/3;
p
|˜(k) − 1| < 1/3 при 1
p k n.
Отсюда следует
d = deg p deg p sym deg p
˜ n/6.
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 28 / 30
96. Оценка квантовой сложности дизъюнкции (окончание)
Завершение доказательства
Специализация
p (t) = p sym (1, 1, . . . , 1, 0, . . . , 0) = p sym (xt ).
˜
t единиц
t
Это многочлен степени d , так как σj (xt ) = j .
Свойства специализации
|˜(0)| < 1/3;
p
|˜(k) − 1| < 1/3 при 1
p k n.
Отсюда следует
d = deg p deg p sym deg p
˜ n/6.
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 28 / 30
97. Оценка квантовой сложности дизъюнкции (окончание)
Завершение доказательства
Специализация
p (t) = p sym (1, 1, . . . , 1, 0, . . . , 0) = p sym (xt ).
˜
t единиц
t
Это многочлен степени d , так как σj (xt ) = j .
Свойства специализации
|˜(0)| < 1/3;
p
|˜(k) − 1| < 1/3 при 1
p k n.
Отсюда следует
d = deg p deg p sym deg p
˜ n/6.
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 28 / 30
98. Оценка квантовой сложности дизъюнкции (окончание)
Завершение доказательства
Специализация
p (t) = p sym (1, 1, . . . , 1, 0, . . . , 0) = p sym (xt ).
˜
t единиц
t
Это многочлен степени d , так как σj (xt ) = j .
Свойства специализации
|˜(0)| < 1/3;
p
|˜(k) − 1| < 1/3 при 1
p k n.
Отсюда следует
d = deg p deg p sym deg p
˜ n/6.
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 28 / 30
99. Оценка степени многочлена
Теорема (нижняя оценка на степень многочлена)
Пусть f (x) многочлен и |f (0)| < 1/3, |f (1) − 1| < 1/3, а
−1/3 < f (k) < 4/3 при 2 k n.
Тогда deg f n/6.
Теорема (Марков, 1889)
Если |f (x)| 1 на отрезке [−1; 1], то |f (x)| (deg f )2 на отрезке
[−1; 1].
Задача
Выведите нижнюю оценку на степень многочлена из неравенства
Маркова.
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 29 / 30
100. Оценка степени многочлена
Теорема (нижняя оценка на степень многочлена)
Пусть f (x) многочлен и |f (0)| < 1/3, |f (1) − 1| < 1/3, а
−1/3 < f (k) < 4/3 при 2 k n.
Тогда deg f n/6.
Теорема (Марков, 1889)
Если |f (x)| 1 на отрезке [−1; 1], то |f (x)| (deg f )2 на отрезке
[−1; 1].
Задача
Выведите нижнюю оценку на степень многочлена из неравенства
Маркова.
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 29 / 30
101. Оценка степени многочлена
Теорема (нижняя оценка на степень многочлена)
Пусть f (x) многочлен и |f (0)| < 1/3, |f (1) − 1| < 1/3, а
−1/3 < f (k) < 4/3 при 2 k n.
Тогда deg f n/6.
Теорема (Марков, 1889)
Если |f (x)| 1 на отрезке [−1; 1], то |f (x)| (deg f )2 на отрезке
[−1; 1].
Задача
Выведите нижнюю оценку на степень многочлена из неравенства
Маркова.
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 29 / 30
102. Оценка степени многочлена
Теорема (нижняя оценка на степень многочлена)
Пусть f (x) многочлен и |f (0)| < 1/3, |f (1) − 1| < 1/3, а
−1/3 < f (k) < 4/3 при 2 k n.
Тогда deg f n/6.
Теорема (Марков, 1889)
Если |f (x)| 1 на отрезке [−1; 1], то |f (x)| (deg f )2 на отрезке
[−1; 1].
Задача
Выведите нижнюю оценку на степень многочлена из неравенства
Маркова.
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 29 / 30
103. Оценка квантовой сложности дизъюнкции: итог
Теорема
√ √
√1 n Q1/3 (OR) n.
24
Зазор между вероятностной и квантовой сложностью
1√ R1/3 (OR) √ √
n 24 n
3 Q1/3 (OR)
М. Вялый (ВЦ РАН) Лекция 3: сложность запросов Санкт-Петербург, 2011 30 / 30