Детальная информация

Название Сравнение стратегий разностной эволюции для метода приближенных байсовских вычислений (АВС): выпускная квалификационная работа магистра: направление 01.04.02 «Прикладная математика и информатика» ; образовательная программа 01.04.02_01 «Прикладная математика и биоинформатика»
Авторы Альмасри Рим
Научный руководитель Козлов Константин Николаевич
Организация Санкт-Петербургский политехнический университет Петра Великого. Физико-механический институт
Выходные сведения Санкт-Петербург, 2025
Коллекция Выпускные квалификационные работы ; Общая коллекция
Тематика оптимизация гиперпараметров ; приближенное байесовское вычисление (ABC) ; разностная эволюция (DE) ; CatBoost ; SNP ; TSW ; hyperparameter optimization ; approximate bayesian computation (abc) ; difference evolution (DE)
Тип документа Выпускная квалификационная работа магистра
Тип файла PDF
Язык Русский
Уровень высшего образования Магистратура
Код специальности ФГОС 01.04.02
Группа специальностей ФГОС 010000 - Математика и механика
DOI 10.18720/SPBPU/3/2025/vr/vr25-4238
Права доступа Доступ по паролю из сети Интернет (чтение, печать, копирование)
Дополнительно Новинка
Ключ записи ru\spstu\vkr\38012
Дата создания записи 23.09.2025

Разрешенные действия

Действие 'Прочитать' будет доступно, если вы выполните вход в систему или будете работать с сайтом на компьютере в другой сети

Действие 'Загрузить' будет доступно, если вы выполните вход в систему или будете работать с сайтом на компьютере в другой сети

Группа Анонимные пользователи
Сеть Интернет

В этом исследовании сравнивается эффективность различных стратегий мутации разностной эволюции (DE) при настройке гиперпараметров алгоритма машинного обучения CatBoost в рамках приближенных байесовских вычислений с разностной эволюцией (ABCDE). Мы пытаемся оптимизировать три гиперпараметра: скорость обучения, глубину и регуляризацию L2, используя пять стратегий DE: rand/1, best/1, hybrid, current-to-best/1 и rand-to-best/1. Гиперпараметры итеративно оптимизировались с использованием метода последовательного Монте-Карло (SMC) для приближения апостериорного распределения оптимальных значений. В этом проекте демонстрируется, как выбор стратегии DE повлияет на эффективность и результативность реализации процесса оптимизации гиперпараметров, основанного на ABC, для сложной нелинейной модели, такой как CatBoost.

This research compares different mutation strategies in differential evolution (DE) for tuning the hyperparameters of the CatBoost machine learning algorithm within the Approximate Bayesian Computation with Differential Evolution (ABCDE) framework. We aim to optimize three hyperparameters: learning rate, depth, and L2 regularization using five DE strategies: rand/1, best/1, hybrid, current-to-best/1, and rand-to-best/1. The hyperparameters are iteratively optimized using a sequential Monte Carlo (SMC) method to approximate the posterior distribution of the optimal values. This project demonstrates how the choice of DE strategy impacts the efficiency and effectiveness of ABC-based hyperparameter optimization process for a complex nonlinear model such as CatBoost.

Место доступа Группа пользователей Действие
Локальная сеть ИБК СПбПУ Все
Прочитать Печать Загрузить
Интернет Авторизованные пользователи СПбПУ
Прочитать Печать Загрузить
Интернет Анонимные пользователи
  • 1. Введение
  • 2. Цель и задачи исследования
  • 3. Математическая подготовка
    • 3.1. Приближенное байесовское вычисление (ABC)
    • 3.2. Разностная эволюция (DE)
    • 3.3. ABC с DE (ABCDE)
    • 3.4. Стратегии мутации
      • I. Rand/1
      • II. Best/1
        • III. Гибрид (hybrid):
      • IV. Current-to-best/1
      • V. Rand-to-best/1
  • 4. Экспериментальная установка
    • 4.1. Набор данных и задача
    • 4.2. Метрика оценки
    • 4.3. Конфигурация ABCDE
    • 4.4. Стратегии разностной эволюции
    • 4.5. Кроссовер
    • 4.6. Описание программы
  • 5. Результаты
    • 5.1 Апостериорная эволюция и тенденции среднеквадратичной ошибки
      • Стратегия Rand/1
      • Best/1 стратегия
      • Гибридная Стратегия (hybrid)
      • Current-to-best/1 Стратегия
      • Стратегия Rand-to-best/1
    • 5.2. Сводка алгоритма и лучших результатов
  • 6. Выводы
  • 7. Заключение
  • 8. Ссылки (Список Использованных Источников)

Количество обращений: 0 
За последние 30 дней: 0

Подробная статистика