Основы технологий искусственного интеллекта 2.0 (AIF) – Программа курса

Программа курса

День 1: Введение в искусственный интеллект

Основы искусственного интеллекта

  • Определение ИИ и его происхождение
  • История развития ИИ
  • Важные вехи и прорывы в области ИИ
  • Основные ученые и их вклад в ИИ
  • Основные понятия: машинное обучение, глубокое обучение, нейронные сети
  • Различия между ИИ, машинным обучением и глубоким обучением
  • Что такое нейронные сети и как они работают
  • Примеры нейронных сетей: полносвязные, свёрточные, рекуррентные

Применения искусственного интеллекта

  • Обзор областей применения ИИ
  • Промышленность: автоматизация производства, предиктивное обслуживание
  • Медицина: диагностика заболеваний, персонализированное лечение
  • Финансовый сектор: управление рисками, торговые стратегии
  • Развлечения: рекомендательные системы, создание контента
  • Транспорт: автономные транспортные средства, оптимизация маршрутов
  • Успешные примеры внедрения ИИ
  • Case study 1
  • Case study 2
  • Case study 3

Установка и использование инструментов

  • Установка и настройка необходимых инструментов
  • Обзор популярных инструментов и библиотек для ИИ (Python, TensorFlow, PyTorch, Scikit-learn)
  • Установка Python и Jupyter Notebook
  • Установка библиотек через pip

Практическое задание

  • Настройка рабочего окружения
  • Написание первой программы на Python, использующей библиотеку для машинного обучения

День 2: Основы машинного обучения

Введение в машинное обучение

  • Что такое машинное обучение и как оно отличается от традиционного программирования
  • Основные методы машинного обучения: supervised learning, unsupervised learning, reinforcement learning

Роль данных в машинном обучении

  • Важность качества данных
  • Методы сбора и подготовки данных
  • Понятие "обучающая выборка" и "тестовая выборка"

Обучение с учителем и без учителя

  • Различия между обучением с учителем и без учителя
  • Основные концепции и примеры supervised learning и unsupervised learning
  • Преимущества и недостатки каждого подхода

Примеры задач: классификация, регрессия, кластеризация

  • Классификация: распознавание изображений, спам-фильтры
  • Регрессия: предсказание цен на жилье, прогнозирование продаж
  • Кластеризация: сегментация клиентов, обнаружение аномалий

Практическое задание: создание простой модели машинного обучения на основе данных

  • Сбор и подготовка данных
  • Загрузка датасета (например, из библиотеки Scikit-learn или Kaggle)
  • Очистка и предобработка данных
  • Разработка модели
  • Выбор алгоритма (например, линейная регрессия, k-ближайших соседей)
  • Обучение модели на тренировочных данных
  • Оценка модели
  • Разделение данных на тренировочную и тестовую выборки
  • Оценка точности модели на тестовых данных
  • Визуализация и интерпретация результатов
  • Построение графиков и визуализация результатов
  • Интерпретация результатов и выводы

День 3: Глубокое обучение и нейронные сети

Основы глубокого обучения

  • Архитектура нейронных сетей
  • Что такое нейронная сеть: основные компоненты (нейроны, слои, связи)
  • Типы слоев: входной, скрытые, выходной
  • Популярные архитектуры: feedforward, свёрточные нейронные сети (CNN), рекуррентные нейронные сети (RNN)

Обучение глубоких нейронных сетей

  • Процесс обучения: функции потерь, градиентный спуск
  • Переобучение и способы его предотвращения (регуляризация, dropout)
  • Валидация и тестирование моделей

Применение глубокого обучения

  • Обзор успешных проектов с использованием глубокого обучения
  • GPT-4 и другие модели обработки естественного языка
  • Проекты в области компьютерного зрения (например, распознавание лиц, сегментация объектов)

Тенденции в развитии глубокого обучения

  • Новые архитектуры и методы (Transformers, Attention Mechanisms)
  • Автоматизация машинного обучения (AutoML)

День 4: Техническое применение ИИ и большие языковые модели (LLM)

Инструменты для разработки ИИ-приложений

  • Популярные библиотеки: TensorFlow, PyTorch, Keras
  • Особенности и различия между ними
  • Дополнительные инструменты: NumPy, Pandas, Scikit-learn

Инструменты для разработки моделей и их внедрения

  • Jupyter Notebook для разработки и тестирования
  • Облачные сервисы для обучения и развертывания моделей (DataSphere, Google Colab, Azure ML)
  • Непрерывная разработка и интеграция ИИ-моделей
  • Практика MLOps: CI/CD для ИИ-моделей

Большие языковые модели (LLM)

  • Что такое LLM и как они работают
  • Архитектура Transformers и Attention
  • Области применения: чат-боты, генерация текста, резюмирование
  • Примеры: GPT, BERT, Claude, LLaMA

Практическое задание: создание простой модели с использованием TensorFlow или PyTorch

  • Выбор библиотеки (TensorFlow или PyTorch)
  • Построение и обучение простой модели (например, MNIST классификация)
  • Визуализация результатов и оценка точности модели

День 5: Оптимизация моделей и генерация с поддержкой извлечения (RAG)

Техники оптимизации и настройки параметров моделей

  • Настройка гиперпараметров: выбор оптимальных параметров модели
  • Методы оптимизации: Adam, RMSProp, SGD
  • Использование кросс-валидации для оценки моделей

Retrieval-Augmented Generation (RAG)

  • Что такое RAG и зачем он нужен
  • Принцип работы: соединение генерации (LLM) с поиском в документах
  • Компоненты RAG-системы
  • Векторные базы: FAISS, Chroma, Pinecone
  • Интеграция с LangChain, LlamaIndex
  • Примеры применения: интеллектуальные ассистенты, чат с базой знаний, документы компании

Практическое задание: оптимизация модели и создание простого RAG-приложения

  • Применение техник настройки гиперпараметров
  • Повторное обучение модели с новыми параметрами
  • Сравнение производительности оригинальной и оптимизированной моделей
  • Создание простого RAG-примера
  • Индексация текста
  • Генерация ответа на основе извлечённой информации
  • Запуск в Jupyter Notebook или через Streamlit