Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №5 "Обработка текстов, Naive Bayes"
Лектор - Николай Анохин
Условная вероятность и теорема Байеса. Нормальное распределение. Naive Bayes: multinomial, binomial, gaussian. Сглаживание. Генеративная модель NB и байесовский вывод. Графические модели.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №9 "Алгоритмические композиции. Начало"
Лектор - Владимир Гулин
Комбинации классификаторов. Модельные деревья решений. Смесь экспертов. Stacking. Стохастические методы построения ансамблей классификаторов. Bagging. RSM. Алгоритм RandomForest.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Лекция №6 "Линейные модели для классификации и регрессии" Technosphere1
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №6 "Линейные модели для классификации и регрессии"
Лектор - Николай Анохин
Обобщенные линейные модели. Постановка задачи оптимизации. Примеры критериев. Градиентный спуск. Регуляризация. Метод Maximum Likelihood. Логистическая регрессия.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №10 "Алгоритмические композиции. Завершение"
Лектор - Владимир Гулин
Ключевые идеи бустинга. Отличия бустинга и бэггинга. Алгорим AdaBoost. Градиентный бустинг. Мета-алгоритмы над алгоритмическими композициями. Алгоритм BagBoo.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №7 "Машина опорных векторов"
Лектор - Николай Анохин
Разделяющая поверхность с максимальным зазором. Формулировка задачи оптимизации для случаев линейно-разделимых и линейно-неразделимых классов. Сопряженная задача. Опорные векторы. KKT-условия. SVM для задач классификации и регрессии. Kernel trick. Теорема Мерсера. Примеры функций ядра.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Лекция №2 "Задача кластеризации и ЕМ-алгоритм"Technosphere1
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №2 "Задача кластеризации и ЕМ-алгоритм"
Лектор - Николай Анохин
Постановка задачи кластеризации. Функции расстояния. Критерии качества кластеризации. EM-алгоритм. K-means и модификации.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №5 "Обработка текстов, Naive Bayes"
Лектор - Николай Анохин
Условная вероятность и теорема Байеса. Нормальное распределение. Naive Bayes: multinomial, binomial, gaussian. Сглаживание. Генеративная модель NB и байесовский вывод. Графические модели.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №9 "Алгоритмические композиции. Начало"
Лектор - Владимир Гулин
Комбинации классификаторов. Модельные деревья решений. Смесь экспертов. Stacking. Стохастические методы построения ансамблей классификаторов. Bagging. RSM. Алгоритм RandomForest.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Лекция №6 "Линейные модели для классификации и регрессии" Technosphere1
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №6 "Линейные модели для классификации и регрессии"
Лектор - Николай Анохин
Обобщенные линейные модели. Постановка задачи оптимизации. Примеры критериев. Градиентный спуск. Регуляризация. Метод Maximum Likelihood. Логистическая регрессия.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №10 "Алгоритмические композиции. Завершение"
Лектор - Владимир Гулин
Ключевые идеи бустинга. Отличия бустинга и бэггинга. Алгорим AdaBoost. Градиентный бустинг. Мета-алгоритмы над алгоритмическими композициями. Алгоритм BagBoo.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №7 "Машина опорных векторов"
Лектор - Николай Анохин
Разделяющая поверхность с максимальным зазором. Формулировка задачи оптимизации для случаев линейно-разделимых и линейно-неразделимых классов. Сопряженная задача. Опорные векторы. KKT-условия. SVM для задач классификации и регрессии. Kernel trick. Теорема Мерсера. Примеры функций ядра.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Лекция №2 "Задача кластеризации и ЕМ-алгоритм"Technosphere1
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №2 "Задача кластеризации и ЕМ-алгоритм"
Лектор - Николай Анохин
Постановка задачи кластеризации. Функции расстояния. Критерии качества кластеризации. EM-алгоритм. K-means и модификации.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №4 "Задача классификации"
Лектор - Николай Анохин
Постановка задач классификации и регрессии. Теория принятия решений. Виды моделей. Примеры функций потерь. Переобучение. Метрики качества классификации. MDL. Решающие деревья. Алгоритм CART.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Лекция 5. Метод конечных разностей (параллельные алгоритмы в стандарте MPI)Alexey Paznikov
ЛЕКЦИЯ 5. Метод конечных разностей (параллельные алгоритмы в стандарте MPI)
Курс "Параллельные вычислительные технологии" (ПВТ), осень 2015
Сибирский государственный университет телекоммуникаций и информатики
Пазников Алексей Александрович
к.т.н., доцент кафедры вычислительных систем СибГУТИ
http://cpct.sibsutis.ru/~apaznikov
http://cpct.sibsutis.ru/~apaznikov/teaching
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №3 "Различные алгоритмы кластеризации"
Лектор - Николай Анохин
Иерархическая кластеризация. Agglomerative и Divisive алгоритмы. Различные виды расстояний между кластерами. Stepwise-optimal алгоритм. Случай неэвклидовых пространств. Критерии выбора количества кластеров: rand, silhouette. DBSCAN.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №1 "Задачи Data Mining"
Лектор - Николай Анохин
Обзор задач Data Mining. Стандартизация подхода к решению задач Data Mining. Процесс CRISP-DM. Виды данных. Кластеризация, классификация, регрессия. Понятие модели и алгоритма обучения.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №8 "Методы снижения размерности пространства"
Лектор - Владимир Гулин
Проблема проклятия размерности. Отбор и выделение признаков. Методы выделения признаков (feature extraction). Метод главных компонент (PCA). Метод независимых компонент (ICA). Методы основанные на автоэнкодерах. Методы отбора признаков (feature selection). Методы основанные на взаимной корреляции признаков. Метод максимальной релевантность и минимальной избыточности (mRMR). Методы основанные на деревьях решений.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Лекция №12 "Ограниченная машина Больцмана" Technosphere1
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №12 "Ограниченная машина Больцмана"
Лектор - Павел Нестеров
Нейросетейвой автоэнкодер. Стохастические и рекурентные нейронные сети. Машина Больцмана и ограниченная машина Больцмана. Распределение Гиббса. Алгоритм contrastive divergence для обучения РБМ. Сэмплирование данных из РБМ. Бинарная РБМ и гауссово-бинарная РБМ. Влияние регуляризации, нелинейное сжатие размерности, извлечение признаков. Semantic hashing.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №4 "Задача классификации"
Лектор - Николай Анохин
Постановка задач классификации и регрессии. Теория принятия решений. Виды моделей. Примеры функций потерь. Переобучение. Метрики качества классификации. MDL. Решающие деревья. Алгоритм CART.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Лекция 5. Метод конечных разностей (параллельные алгоритмы в стандарте MPI)Alexey Paznikov
ЛЕКЦИЯ 5. Метод конечных разностей (параллельные алгоритмы в стандарте MPI)
Курс "Параллельные вычислительные технологии" (ПВТ), осень 2015
Сибирский государственный университет телекоммуникаций и информатики
Пазников Алексей Александрович
к.т.н., доцент кафедры вычислительных систем СибГУТИ
http://cpct.sibsutis.ru/~apaznikov
http://cpct.sibsutis.ru/~apaznikov/teaching
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №3 "Различные алгоритмы кластеризации"
Лектор - Николай Анохин
Иерархическая кластеризация. Agglomerative и Divisive алгоритмы. Различные виды расстояний между кластерами. Stepwise-optimal алгоритм. Случай неэвклидовых пространств. Критерии выбора количества кластеров: rand, silhouette. DBSCAN.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №1 "Задачи Data Mining"
Лектор - Николай Анохин
Обзор задач Data Mining. Стандартизация подхода к решению задач Data Mining. Процесс CRISP-DM. Виды данных. Кластеризация, классификация, регрессия. Понятие модели и алгоритма обучения.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №8 "Методы снижения размерности пространства"
Лектор - Владимир Гулин
Проблема проклятия размерности. Отбор и выделение признаков. Методы выделения признаков (feature extraction). Метод главных компонент (PCA). Метод независимых компонент (ICA). Методы основанные на автоэнкодерах. Методы отбора признаков (feature selection). Методы основанные на взаимной корреляции признаков. Метод максимальной релевантность и минимальной избыточности (mRMR). Методы основанные на деревьях решений.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Лекция №12 "Ограниченная машина Больцмана" Technosphere1
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №12 "Ограниченная машина Больцмана"
Лектор - Павел Нестеров
Нейросетейвой автоэнкодер. Стохастические и рекурентные нейронные сети. Машина Больцмана и ограниченная машина Больцмана. Распределение Гиббса. Алгоритм contrastive divergence для обучения РБМ. Сэмплирование данных из РБМ. Бинарная РБМ и гауссово-бинарная РБМ. Влияние регуляризации, нелинейное сжатие размерности, извлечение признаков. Semantic hashing.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Рассматриваются методы решения систем линейных алгебраических уравнений с трехдиагональными, симметричными и положительно определенными матрицами коэффициентов.
Обзор работ 7-ой Европейской конференции по космическому мусору (офис центра управления полетами ЕКА, Дармштадт, Германия, 18-21 апреля 2017 г)
Презентация к семинару кафедры теоретической механики Самарского университета (16.05.17)
Презентация к семинару кафедры теоретической механики. По материалам статьи “Detumbling Space Debris Using Modified Yo-Yo Mechanism” (Юдинцев В. В.,
Асланов В. С.) Journal of Guidance, Control, and Dynamics, Vol. 40, No. 3. https://arc.aiaa.org/doi/abs/10.2514/1.G000686
(2017), pp. 714-721.
Основы языка Питон: функции, элементы функционального программирования, списочные выражения, генераторы. Презентация к лекции курса "Технологии и языки программирования".
Презентация для IV Всероссийской научно-технической
конференции "Актуальные проблемы ракетно-космической техники» ("IV Козловские чтения")". г. Самара, 14-17 сентября 2015 г.
1. Методы вычислений
Многочлены наилучших приближений
Кафедра теоретической механики
Пикалов Р. С.
Самарский государственный аэрокосмический университет
им. академика С. П. Королёва
(национальный исследовательский университет)
23 ноября 2012 г.
2. Постановка задачи
Постановка задачи
Задана таблица значений функции yi = f (xi ), (i = 0, ..., n), на
интервале [x0 , xn ].
n
n
Требуется построить аппроксимирующую функцию:
Φ(x) = c0 ϕ0 (x) + c1 ϕ1 (x) + ... + cm ϕm (x)
Кафедра ТМ (СГАУ) Методы вычислений 23 ноября 2012 г. 2 / 22
3. Постановка задачи
Применение метода наименьших квадратов к аппроксимации функции
f (x) функцией ϕ(x) означает подбор такой функции ϕ(x), которая
минимизирует среднеквадратическую погрешность приблеженного
равенства ϕ(x) ≈ f (x).
Кафедра ТМ (СГАУ) Методы вычислений 23 ноября 2012 г. 3 / 22
4. Постановка задачи
Наилучшее среднеквадратическое приближение
Функция ϕ(x) называется наилучшим среднеквадратическим
приближением функцииf (x) на заданном семействе функции.
Расмотрим случай когда аппроксимирующая функция ϕ(x)
представляет собой линейную комбинацию нескольких других, вообще
говоря, более простых (базисных) функций.
Кафедра ТМ (СГАУ) Методы вычислений 23 ноября 2012 г. 4 / 22
5. Скалярное произведение функций Скалярное произведение для непрерывных функций
Скалярное произведение функций
Скалярное произведение для непрерывных на отрезке [a, b] функций
Для пространства CL [a, b] непрерывных на [a, b] функций:
b
1
скалярное произведение: (f (x), g(x)) = b−a f (x)g(x)dx
a
b
1
метрика (растояние):ρ(f (x), g(x)) = b−a [f (x) − g(x)]2 dx
a
b
1
норма: f (x) = ρ(f (x), 0) = b−a f (x)2 dx
a
Кафедра ТМ (СГАУ) Методы вычислений 23 ноября 2012 г. 5 / 22
6. Скалярное произведение функций Скалярное произведение для сеточных функций
Скалярное произведение функций
Скалярное произведение для сеточных функций
Для пространства Rn+1 [a, b] сеточных функций, определённых в точках
xi ∈ [a, b](i = 0, ..., n):
n
1
скалярное произведение: (f (x), g(x)) = n+1 f (xi )g(xi )
i=0
n
1
метрика: ρ(f (x), g(x)) = n+1 [f (xi ) − g(xi )]2
i=0
n
1
норма: f (x) = ρ(f (x), 0) = n+1 f (xi )2 dx
i=0
Кафедра ТМ (СГАУ) Методы вычислений 23 ноября 2012 г. 6 / 22
7. Обобщенный многочлен
Среднеквадратические ошибки
Введеные указанным способом метрики характерезуют близость
функций f (x) и ϕ(x) по отношению к приближенному равенству
f (x) ≈ ϕ(x) при x ∈ [a, b] они представляют собой интегральную и
точечную среднекадратические ошибки:
n
(f (xi ) − ϕ(xi ))2 = min ⇐⇒ ρ(f, ϕ)Rn+1 [a,b] = min
i=0
n
(f (x) − ϕ(x))2 = min ⇐⇒ ρ(f, ϕ)CL [a,b] = min
i=0
Кафедра ТМ (СГАУ) Методы вычислений 23 ноября 2012 г. 7 / 22
8. Обобщенный многочлен
Обобщенный многочлен
Пусть {ϕj (x)}m - некоторая заданная на [a, b] система линейно
j=0
независимых функций. Обобщенным многочленом называется
функция вида
Φ(x) := c0 ϕ0 (x) + c1 ϕ1 (x) + ... + cm ϕm (x), (1)
где c0 , c1 , ..., cm - произвольные вещественные числа (коэфициенты
обобщенного многочлена).
Построение обобщенного многочленна (1) , сводиться к нахождению
оптимального набора коэффициентов cj , т.е к решению задачи
минимизации:
n
[co ϕ0 + c1 ϕ1 + ... + cm ϕm − f (xi )]2 → min
i=0
Кафедра ТМ (СГАУ) Методы вычислений 23 ноября 2012 г. 8 / 22
9. Обобщенный многочлен
Для задачи минимизации
n
[co ϕ0 + c1 ϕ1 + ... + cm ϕm − f (xi )]2 → min
i=0
необходимые (и достаточные) условия выражаются системой:
n
i=0 ϕ0 (xi )(c0 ϕ0 (xi ) + c1 ϕ1 (xi ) + ... + cm ϕm (xi )) = 0,
n
ϕ (x )(c ϕ (x ) + c ϕ (x ) + ... + c ϕ (x )) = 0,
1 i 0 0 i 1 1 i m m i
(2)
i=0
...
n
ϕm (xi )(c0 ϕ0 (xi ) + c1 ϕ1 (xi ) + ... + cm ϕm (xi )) = 0
i=0
Кафедра ТМ (СГАУ) Методы вычислений 23 ноября 2012 г. 9 / 22
10. Обобщенный многочлен
Преобразуем и перепишем систему (2) в терминах скалярных
произведений:
(ϕ0 , ϕ0 )c0 + (ϕ0 , ϕ1 )c1 + ... + (ϕ0 , ϕm )cm = (ϕ0 , f ),
(ϕ1 , ϕ0 )c0 + (ϕ1 , ϕ1 )c1 + ... + (ϕ1 , ϕm )cm = (ϕ1 , f ),
(3)
...
(ϕm , ϕ0 )c0 + (ϕm , ϕ1 )c1 + ... + (ϕm , ϕm )cm = (ϕm , f )
Система (3) чрезвычайно упрощается в случае, когда базисные
функции ϕj (x) (j = 0..m) образуют на [a, b] ортогональную систему.
Кафедра ТМ (СГАУ) Методы вычислений 23 ноября 2012 г. 10 / 22
11. Обобщенный многочлен
Ортогональная система базисных функций
Взаимная ортогональность функций ϕj (x) означает что
(ϕk (x), ϕj (x)) = 0 при любых k = j
Следовательно систему (3) можно переписать в виде
(ϕ0 , ϕ0 )c0 = (ϕ0 , f ) = ϕ0 (x) ,
(ϕ1 , ϕ1 )c1 = (ϕ1 , f ) = ϕ1 (x) ,
(4)
...
(ϕm , ϕm )cm = (ϕm , f ) = ϕm (x) .
Из (4) =⇒
(ϕj , f ) (ϕj , f )
cj = = , (j = 0, .., m)
(ϕj , ϕj ) ϕj (x)
Кафедра ТМ (СГАУ) Методы вычислений 23 ноября 2012 г. 11 / 22
12. Обобщенный многочлен
Ортонормированная система базисных функций
Для ортонормированной системы {ϕj (x)}m , норма:
j=0
(ϕj (x)ϕj (x)) = ϕj (x) = 1,
Следовательно коэффиценты cj определяются по формуле:
(ϕj , f )
cj = = (ϕj , f ), (j = 0, .., m)
1
т.е. аппроксимация функции f (x) обобщенным многочленом имеет
вид:
f (x) ≈ (ϕ0 , f )ϕ0 (x) + (ϕ1 , f )ϕ1 (x) + ... + (ϕm , f )ϕm (x).
Кафедра ТМ (СГАУ) Методы вычислений 23 ноября 2012 г. 12 / 22
13. Системы ортогональных многочленов
Системы ортогональных многочленов
Приведем некоторые сведения справочного характера об
ортогональных многочленах:
Лежандра:
χ0 = 1, χ1 = x, χ2 = 1 (3x2 − 1), ....
2
Чебышева:
T0 = 1, T1 = x, T2 = 2x2 − 1, ....
Лагерра:
L0 = 1, L1 = 1 − x, L2 = x2 − 4x + 2, ....
Эрмита:
H0 = 1, H1 = 2x, H2 = 4x2 − 2, ....
Кафедра ТМ (СГАУ) Методы вычислений 23 ноября 2012 г. 13 / 22
14. Системы ортогональных многочленов Многочлены Лежандра
Многочлены Лежандра
Многочлены Лежандра χn (x) - наиболее употребительные из
классических ортогональных многочленов. Единственные для которых
условие ортогональности на отрезке [−1, 1] выполняется в "чистом
виде".
1
0, если k = j,
χk (x)χj (x)dx = 2
2k+1 , если k = j.
−1
1 1 dn 2
χ0 = 1, χ1 = x, χ2 = (3x2 − 1), χn = (x − 1)n
2 n!2n dxn
Многочлены Лежандра связаны рекуррентным соотношением:
(n + 1)χn+1 (x) − (2n + 1)xχn (x) + nχn−1 (x) = 0
Кафедра ТМ (СГАУ) Методы вычислений 23 ноября 2012 г. 14 / 22
15. Системы ортогональных многочленов Многочлены Чебышева
Многочлены Чебышева
Многочленом Чебышева называется функция
Tn (x) = cos(n arccos x),
где n ∈ N0 , x ∈ [−1, 1]. Многочлены Чебышева ортогональны, с весом
1
p(x) = √1−x2 . А именно, условие ортогональности имеет вид:
1 0, если k = j,
dx
Tk (x)Tj (x) √ = π , если k = j = 0,
1 − x2 2
π, если k = j.
−1
T0 = 1, T1 = x, T2 = 2x2 − 1.
Многочлены Чебышева связаны рукурентным соотношением:
Tn+1 (x) = 2xTn (x) − Tn−1 (x)
Кафедра ТМ (СГАУ) Методы вычислений 23 ноября 2012 г. 15 / 22
16. Системы ортогональных многочленов Многочлены Чебышева
1.0
0.5
1.0 0.5 0.5 1.0
0.5
1.0
Многочлены Чебышева
Кафедра ТМ (СГАУ) Методы вычислений 23 ноября 2012 г. 16 / 22
17. Системы ортогональных многочленов Многочлены Лагерра
Многочлены Лагерра
Многочлены Лагерра ортогональны на промежутке [0, +∞), с весом
p(x) = e−x . Условие ортогональности имеет вид:
+∞
0, если k = j,
e−x Lk (x)Lj (x)dx =
(k!)2 , если k = j.
0
L0 = 1, L1 = 1 − x, L2 = x2 − 4x + 2.
Многочлены Лагерра связаны рекуррентным соотношением:
Ln+1 (x) − (2n + 1 − x)Ln (x) + n2 Ln−1 (x) = 0
Кафедра ТМ (СГАУ) Методы вычислений 23 ноября 2012 г. 17 / 22
18. Системы ортогональных многочленов Многочлены Эрмита
Многочлены Эрмита
Многочлены Эрмита Hn (x) ортогональны на всей числовой оси с
2
весом p(x) = e−x . Условие ортогональности имеет вид:
+∞
2 0, если k = j,
e−x Hk (x)Hj (x)dx = k k!√π, если k = j.
2
−∞
H0 = 1, H1 = 2x, H2 = 4x2 − 2.
Многочлены Эрмита связаны рекуррентным соотношением:
Hn+1 (x) − 2xHn (x) + 2bHn−1 (x) = 0
Кафедра ТМ (СГАУ) Методы вычислений 23 ноября 2012 г. 18 / 22
19. Пример аппроксимации таблично-заданной функции
Пример
На интервале [−1, 1] задана табличная функция f (x):
x -1 -0.9 -0.8 -0.7 -0.6 -0.5 -0.4 -0.3 -0.2 -0.1 0
y -0.8 -0.7 -0.71 -0.6 0.5 -0.4 -0.3 -0.2 -0.1 -0.09 0
x 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
y 0.09 0.1 0.2 0.3 0.4 0.5 0.6 0.71 0.7 0.8
Необходимо построить аппроксимирующую функцию ϕ(x).
Кафедра ТМ (СГАУ) Методы вычислений 23 ноября 2012 г. 19 / 22
20. Пример аппроксимации таблично-заданной функции
В качестве базисных функций используем многочлены Лежандра, 0,1 и
второго порядка:
1
ϕ(x) = c0 + xc1 + (3x2 − 1)c2
2
Используя формулы скалярного произведения для сеточных функций,
(χ ,f )
определим коэффиценты cj = (χjj,χj ) , (j = 0, 1, 2)
c0 = −0.0420735, c1 = 0.902449, c3 = −0.205244
Кафедра ТМ (СГАУ) Методы вычислений 23 ноября 2012 г. 20 / 22
21. Пример аппроксимации таблично-заданной функции
Подставляя найденные коэффиценты, получим аппроксимирующую
функцию:
0.205244
ϕ(x) = −0.0420735 + 0.902449x − (3x2 − 1)
2
Кафедра ТМ (СГАУ) Методы вычислений 23 ноября 2012 г. 21 / 22
22. Список использованных источников
Список использованных источников
1 Вержбицкий В. М. Основы численных методов. М.:Высшая школа,
2002.
2 Вержбицкий В. М. Численные методы. Математический анализ и
обыкновенные дифференциальные уавнения. М.:Высшая школа,
2001.
Кафедра ТМ (СГАУ) Методы вычислений 23 ноября 2012 г. 22 / 22