Details

Title Сравнение стратегий разностной эволюции для метода приближенных байсовских вычислений (АВС): выпускная квалификационная работа магистра: направление 01.04.02 «Прикладная математика и информатика» ; образовательная программа 01.04.02_01 «Прикладная математика и биоинформатика»
Creators Альмасри Рим
Scientific adviser Козлов Константин Николаевич
Organization Санкт-Петербургский политехнический университет Петра Великого. Физико-механический институт
Imprint Санкт-Петербург, 2025
Collection Выпускные квалификационные работы ; Общая коллекция
Subjects оптимизация гиперпараметров ; приближенное байесовское вычисление (ABC) ; разностная эволюция (DE) ; CatBoost ; SNP ; TSW ; hyperparameter optimization ; approximate bayesian computation (abc) ; difference evolution (DE)
Document type Master graduation qualification work
File type PDF
Language Russian
Level of education Master
Speciality code (FGOS) 01.04.02
Speciality group (FGOS) 010000 - Математика и механика
DOI 10.18720/SPBPU/3/2025/vr/vr25-4238
Rights Доступ по паролю из сети Интернет (чтение, печать, копирование)
Additionally New arrival
Record key ru\spstu\vkr\38012
Record create date 9/23/2025

Allowed Actions

Action 'Read' will be available if you login or access site from another network

Action 'Download' will be available if you login or access site from another network

Group Anonymous
Network Internet

В этом исследовании сравнивается эффективность различных стратегий мутации разностной эволюции (DE) при настройке гиперпараметров алгоритма машинного обучения CatBoost в рамках приближенных байесовских вычислений с разностной эволюцией (ABCDE). Мы пытаемся оптимизировать три гиперпараметра: скорость обучения, глубину и регуляризацию L2, используя пять стратегий DE: rand/1, best/1, hybrid, current-to-best/1 и rand-to-best/1. Гиперпараметры итеративно оптимизировались с использованием метода последовательного Монте-Карло (SMC) для приближения апостериорного распределения оптимальных значений. В этом проекте демонстрируется, как выбор стратегии DE повлияет на эффективность и результативность реализации процесса оптимизации гиперпараметров, основанного на ABC, для сложной нелинейной модели, такой как CatBoost.

This research compares different mutation strategies in differential evolution (DE) for tuning the hyperparameters of the CatBoost machine learning algorithm within the Approximate Bayesian Computation with Differential Evolution (ABCDE) framework. We aim to optimize three hyperparameters: learning rate, depth, and L2 regularization using five DE strategies: rand/1, best/1, hybrid, current-to-best/1, and rand-to-best/1. The hyperparameters are iteratively optimized using a sequential Monte Carlo (SMC) method to approximate the posterior distribution of the optimal values. This project demonstrates how the choice of DE strategy impacts the efficiency and effectiveness of ABC-based hyperparameter optimization process for a complex nonlinear model such as CatBoost.

Network User group Action
ILC SPbPU Local Network All
Read Print Download
Internet Authorized users SPbPU
Read Print Download
Internet Anonymous
  • 1. Введение
  • 2. Цель и задачи исследования
  • 3. Математическая подготовка
    • 3.1. Приближенное байесовское вычисление (ABC)
    • 3.2. Разностная эволюция (DE)
    • 3.3. ABC с DE (ABCDE)
    • 3.4. Стратегии мутации
      • I. Rand/1
      • II. Best/1
        • III. Гибрид (hybrid):
      • IV. Current-to-best/1
      • V. Rand-to-best/1
  • 4. Экспериментальная установка
    • 4.1. Набор данных и задача
    • 4.2. Метрика оценки
    • 4.3. Конфигурация ABCDE
    • 4.4. Стратегии разностной эволюции
    • 4.5. Кроссовер
    • 4.6. Описание программы
  • 5. Результаты
    • 5.1 Апостериорная эволюция и тенденции среднеквадратичной ошибки
      • Стратегия Rand/1
      • Best/1 стратегия
      • Гибридная Стратегия (hybrid)
      • Current-to-best/1 Стратегия
      • Стратегия Rand-to-best/1
    • 5.2. Сводка алгоритма и лучших результатов
  • 6. Выводы
  • 7. Заключение
  • 8. Ссылки (Список Использованных Источников)

Access count: 0 
Last 30 days: 0

Detailed usage statistics