Проектирование и
обучение нейронной сети
для генерации с
использованием TensorFlow
ДИПЛОМНЫЙ ПРОЕКТ
СВИТНЕВ А.С.
РУКОВОДИТЕЛЬ: ЛАДЫГИН Н.С.
Мокшан 2025
Введение
С момента своего появления искусственные
нейронные сети (ИНС) используются для решения
различных прикладных задач. ИНС успешно
применяются в распознавании образов,
прогнозировании, выявлении зависимостей,
сжатии данных, управлении и других. У
нейронных сетей большой потенциал благодаря
их нелинейности, что делает их более выгодными,
нежели обычные программы.
Цель и задачи проекта
Цель:
Разработка и обучение нейронной сети для
генерации изображений с использованием
TensorFlow, включая проектирование архитектуры и
настройку обучения.
– Анализ методов и архитектур генеративных
нейронных сетей с акцентом на TensorFlow.
– Проектирование и реализация архитектуры
нейронной сети для генерации изображений.
– Реализация процесса обучения модели и
подготовка данных.
– Оценка качества генерируемых изображений с
использованием стандартных метрик.
Понятие нейрона
Искусственный нейрон – математическая модель
биологического нейрона, выполняющая функции
сумматора. На вход поступают данные X1...Xn,
которые преобразуются весами w1...wn,
суммируются и проходят через функцию
активации F(u).
Виды нейронных сетей
Основные типы ИНС:
– Сети прямого распространения и персептроны
– Сеть Хопфилда
– Машина Больцмана
– Свёрточные нейронные сети (CNN)
– Рекуррентные нейронные сети (RNN)
– Сети Кохонена (SOM)
Методы обучения
нейронных сетей
Алгоритмы обучения:
– Обучение с учителем
– Обучение без учителя
– Параметрическое обучение
– Непараметрическое обучение
Архитектуры
генеративных моделей
Основные семейства генеративных моделей:
– Автокодировщики (Autoencoders)
– Вариационные автокодировщики (VAE)
– Генеративно-состязательные сети (GAN)
– VQ-VAE и VQGAN
Обзор TensorFlow
TensorFlow — платформа для машинного
обучения от Google. Обеспечивает
высокоуровневый API Keras и низкоуровневое
управление вычислениями, поддерживает eager и
graph режимы, автоматическое
дифференцирование, распределённое
обучение и TensorBoard.
Подход к выбору
архитектуры
 Для генерации изображений выбрана модель
VQGAN, обеспечивающая лучшее сочетание
FID и SSIM за счёт дискретного латентного
пространства и состязательного обучения,
несмотря на повышенные вычислительные
затраты.
Архитектура VQGAN
Компоненты VQGAN:
1. Энкодер: извлечение признаков
2. Квантайзер: дискретизация признаков
3. Декодер: восстановление изображения
4. Дискриминатор: оценка реалистичности
Использование GAN
Генератор (декодер) создаёт изображения,
дискриминатор отличает реальные и
синтетические. Состязательная потеря улучшает
фотореализм и текстуру, снижая эффект
размытия.
Функции потерь и
метрики
Функции потерь:
– Reconstruction (MSE)
– VQ loss и commitment loss
– Adversarial loss
Метрики качества:
– SSIM
– FID
Общий алгоритм
обучения
 1. Предобучение автоэнкодера
 2. Подключение дискриминатора
 3. Попеременное обновление генератора и
дискриминатора
 4. Мониторинг FID и сохранение лучшей
модели
Заключение
Использование VQGAN на базе TensorFlow
позволило разработать модель генерации
изображений с высоким качеством
реконструкции и реалистичностью,
подтверждаемой метриками SSIM и FID.
Список литературы
 Основные источники:
 – Goodfellow I. et al. Generative Adversarial
Networks. 2014.
 – Kingma D., Welling M. Auto-Encoding Variational
Bayes. 2013.
 – Oord A. v. d. et al. Neural Discrete Representation
Learning. 2017.

Дипломная_Презентация_TensрачмorFlow.pptx

  • 1.
    Проектирование и обучение нейроннойсети для генерации с использованием TensorFlow ДИПЛОМНЫЙ ПРОЕКТ СВИТНЕВ А.С. РУКОВОДИТЕЛЬ: ЛАДЫГИН Н.С. Мокшан 2025
  • 2.
    Введение С момента своегопоявления искусственные нейронные сети (ИНС) используются для решения различных прикладных задач. ИНС успешно применяются в распознавании образов, прогнозировании, выявлении зависимостей, сжатии данных, управлении и других. У нейронных сетей большой потенциал благодаря их нелинейности, что делает их более выгодными, нежели обычные программы.
  • 3.
    Цель и задачипроекта Цель: Разработка и обучение нейронной сети для генерации изображений с использованием TensorFlow, включая проектирование архитектуры и настройку обучения. – Анализ методов и архитектур генеративных нейронных сетей с акцентом на TensorFlow. – Проектирование и реализация архитектуры нейронной сети для генерации изображений. – Реализация процесса обучения модели и подготовка данных. – Оценка качества генерируемых изображений с использованием стандартных метрик.
  • 4.
    Понятие нейрона Искусственный нейрон– математическая модель биологического нейрона, выполняющая функции сумматора. На вход поступают данные X1...Xn, которые преобразуются весами w1...wn, суммируются и проходят через функцию активации F(u).
  • 5.
    Виды нейронных сетей Основныетипы ИНС: – Сети прямого распространения и персептроны – Сеть Хопфилда – Машина Больцмана – Свёрточные нейронные сети (CNN) – Рекуррентные нейронные сети (RNN) – Сети Кохонена (SOM)
  • 6.
    Методы обучения нейронных сетей Алгоритмыобучения: – Обучение с учителем – Обучение без учителя – Параметрическое обучение – Непараметрическое обучение
  • 7.
    Архитектуры генеративных моделей Основные семействагенеративных моделей: – Автокодировщики (Autoencoders) – Вариационные автокодировщики (VAE) – Генеративно-состязательные сети (GAN) – VQ-VAE и VQGAN
  • 8.
    Обзор TensorFlow TensorFlow —платформа для машинного обучения от Google. Обеспечивает высокоуровневый API Keras и низкоуровневое управление вычислениями, поддерживает eager и graph режимы, автоматическое дифференцирование, распределённое обучение и TensorBoard.
  • 9.
    Подход к выбору архитектуры Для генерации изображений выбрана модель VQGAN, обеспечивающая лучшее сочетание FID и SSIM за счёт дискретного латентного пространства и состязательного обучения, несмотря на повышенные вычислительные затраты.
  • 10.
    Архитектура VQGAN Компоненты VQGAN: 1.Энкодер: извлечение признаков 2. Квантайзер: дискретизация признаков 3. Декодер: восстановление изображения 4. Дискриминатор: оценка реалистичности
  • 11.
    Использование GAN Генератор (декодер)создаёт изображения, дискриминатор отличает реальные и синтетические. Состязательная потеря улучшает фотореализм и текстуру, снижая эффект размытия.
  • 12.
    Функции потерь и метрики Функциипотерь: – Reconstruction (MSE) – VQ loss и commitment loss – Adversarial loss Метрики качества: – SSIM – FID
  • 13.
    Общий алгоритм обучения  1.Предобучение автоэнкодера  2. Подключение дискриминатора  3. Попеременное обновление генератора и дискриминатора  4. Мониторинг FID и сохранение лучшей модели
  • 14.
    Заключение Использование VQGAN набазе TensorFlow позволило разработать модель генерации изображений с высоким качеством реконструкции и реалистичностью, подтверждаемой метриками SSIM и FID.
  • 15.
    Список литературы  Основныеисточники:  – Goodfellow I. et al. Generative Adversarial Networks. 2014.  – Kingma D., Welling M. Auto-Encoding Variational Bayes. 2013.  – Oord A. v. d. et al. Neural Discrete Representation Learning. 2017.