Details

Title: Сравнение эффективности двух sv-алгоритмов восстановления регрессии: выпускная квалификационная работа бакалавра: направление 01.03.02 «Прикладная математика и информатика» ; образовательная программа 01.03.02_01 «Математическое моделирование»
Creators: Кутузова Кристина Салаватовна
Scientific adviser: Кадырова Наталья Олеговна
Other creators: Арефьева Людмила Анатольевна
Organization: Санкт-Петербургский политехнический университет Петра Великого. Институт прикладной математики и механики
Imprint: Санкт-Петербург, 2020
Collection: Выпускные квалификационные работы; Общая коллекция
Subjects: машина опорных векторов; восстановление регрессии; квадратичная функция потерь; разреженное приближение ко всюду плотному решению; krls-алгоритм; gsls-алгоритм; support vector machine; regression recovery; quadratic loss function; sparse least squares support vector machines; algorithm krls; algorithm gsls
Document type: Bachelor graduation qualification work
File type: PDF
Language: Russian
Level of education: Bachelor
Speciality code (FGOS): 01.03.02
Speciality group (FGOS): 010000 - Математика и механика
Links: Отзыв руководителя; Отчет о проверке на объем и корректность внешних заимствований
DOI: 10.18720/SPBPU/3/2020/vr/vr20-1542
Rights: Доступ по паролю из сети Интернет (чтение, печать, копирование)
Record key: ru\spstu\vkr\8263

Allowed Actions:

Action 'Read' will be available if you login or access site from another network Action 'Download' will be available if you login or access site from another network

Group: Anonymous

Network: Internet

Annotation

Предмет ВКР: задача восстановления регрессии с квадратичной функцией потерь и методы ее решения на основе машин опорных векторов. Цель ВКР: сравнительный анализ эффективности двух SV-алгоритмов восстановления регрессии: Kernel Recursive Least Squares Algorithm (KRLS) и Greedy Training Algorithm for Sparse Least Squares Support Vector Machines (GSLS). Методологии проведения ВКР: работа включает в себя изучение алгоритмов KRLS и GSLS, реализацию алгоритмов в среде программирования Matlab, анализ и сравнение результатов работы реализованных методов на модельных и реальных данных. Результаты ВКР: в основной части работы рассмотрены теоретические основы для SVM задач восстановления регрессии с квадратичной функцией потерь, описаны базовые идеи алгоритмов, их основные этапы, продемонстрированы результаты работы реализованных методов, проведен сравнительный анализ их эффективности. Область применения: SVM-подход к решению задачи восстановления регрессии с квадратичной функцией потерь широко применим на практике, например, при прогнозировании временных рядов, при химическом анализе веществ, в биоинформатике. Выводы: оба SV-алгоритма, KRLS и GSLS, строят хорошее, устойчивое к шуму, разреженное приближение ко всюду плотному решению задачи восстановления регрессии с квадратичной функцией потерь.

The subject: the problem of regression recovery with a quadratic loss function and methods for it sparse solving. The purpose: a comparative analysis of the effectiveness of two SV regression algorithms: Kernel Recursive Least Squares Algorithm (KRLS) and Greedy Training Algorithm for Sparse Least Squares Support Vector Machines (GSLS). Methodologies: the work includes the study of KRLS and GSLS algorithms, the implementation of algorithms in the Matlab programming environment, analysis of the work results of implemented methods on model and benchmark data, comparison of the methods. Results: in the main part of the work, the theoretical foundations for SVM regression problems with a quadratic loss function are considered, basic ideas of the algorithms, their main stages are described, the work results of the implemented methods are demonstrated, a comparative analysis of the effectiveness is carried out. Application field: SVM approach to solving the regression problem with a quadratic loss function is widely applicable in practice, for example, in predicting time series, in chemical analysis of substances, in bioinformatics. Conclusions: Both SV-algorithms, KRLS and GSLS, build a good, noise-resistant, sparse approximation for an everywhere dense solution of the regression reconstruction problem with a quadratic loss function.

Document access rights

Network User group Action
ILC SPbPU Local Network All Read Print Download
Internet Authorized users SPbPU Read Print Download
-> Internet Anonymous

Table of Contents

  • ВВЕДЕНИЕ
  • ГЛАВА 1. Постановка задачи
  • ГЛАВА 2. Описание алгоритма KRLS
    • 2.1. Базовая идея
    • 2.2. Основные этапы алгоритма
  • ГЛАВА 3. Описание алгоритма GSLS
    • 3.1. Базовая идея
    • 3.2. Основные этапы алгоритма
  • ГЛАВА 4. Анализ результатов экспериментальных исследований
    • 4.1. Восстановление однофакторной регрессии по точным данным
    • 4.2. Восстановление однофакторной регрессии по зашумленным данным
    • 4.3. Исследование зависимости ошибки от количества опорных векторов
    • 4.4. Сравнительный анализ алгоритмов на реальных данных
  • ЗАКЛЮЧЕНИЕ
  • СПИСОК ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ
  • ПРИЛОЖЕНИЕ 1. Реализация алгоритма KRLS
  • ПРИЛОЖЕНИЕ 2. Реализация алгоритма GSLS

Usage statistics

stat Access count: 67
Last 30 days: 10
Detailed usage statistics