Программа курса
День 1: Глубокое обучение и нейронные сети
Основы глубокого обучения
Архитектура нейронных сетей
- Что такое нейронная сеть: основные компоненты (нейроны, слои, связи).
- Типы слоев: входной, скрытые, выходной.
- Популярные архитектуры: feedforward, свёрточные нейронные сети (CNN), рекуррентные нейронные сети (RNN).
Обучение глубоких нейронных сетей
- Процесс обучения: функции потерь, градиентный спуск.
- Переобучение и способы его предотвращения (регуляризация, dropout).
- Валидация и тестирование моделей.
Применение глубокого обучения
Обзор успешных проектов с использованием глубокого обучения
- GPT-4 и другие модели обработки естественного языка.
- Проекты в области компьютерного зрения (например, распознавание лиц, сегментация объектов).
Тенденции в развитии глубокого обучения
- Новые архитектуры и методы (Transformers, Attention Mechanisms).
- Автоматизация машинного обучения (AutoML).
День 2: Техническое применение ИИ
Инструменты для разработки ИИ-приложений
Библиотеки и фреймворки
- Популярные библиотеки: TensorFlow, PyTorch, Keras.
- Особенности и различия между ними.
- Дополнительные инструменты: NumPy, Pandas, Scikit-learn.
Инструменты для разработки моделей и их внедрения
- Jupyter Notebook для разработки и тестирования.
- Облачные сервисы для обучения и развертывания моделей (DataSphere, Google Colab, Azure ML).
- Непрерывная разработка и интеграция ИИ-моделей.
- Практика MLOps: CI/CD для ИИ-моделей.
Практическое задание: создание простой модели с использованием TensorFlow или PyTorch
- Выбор библиотеки (TensorFlow или PyTorch).
- Построение и обучение простой модели (например, MNIST классификация).
- Визуализация результатов и оценка точности модели.
Оптимизация и настройка моделей
Техники оптимизации и настройки параметров моделей
- Настройка гиперпараметров: выбор оптимальных параметров модели.
- Методы оптимизации: Adam, RMSProp, SGD.
- Использование кросс-валидации для оценки моделей.
Практическое задание: оптимизация созданной модели и сравнение результатов
- Применение техник настройки гиперпараметров.
- Повторное обучение модели с новыми параметрами.
- Сравнение производительности оригинальной и оптимизированной моделей.