Детальная информация

Название: Сравнение эффективности двух sv-алгоритмов восстановления регрессии: выпускная квалификационная работа бакалавра: направление 01.03.02 «Прикладная математика и информатика» ; образовательная программа 01.03.02_01 «Математическое моделирование»
Авторы: Кутузова Кристина Салаватовна
Научный руководитель: Кадырова Наталья Олеговна
Другие авторы: Арефьева Людмила Анатольевна
Организация: Санкт-Петербургский политехнический университет Петра Великого. Институт прикладной математики и механики
Выходные сведения: Санкт-Петербург, 2020
Коллекция: Выпускные квалификационные работы; Общая коллекция
Тематика: машина опорных векторов; восстановление регрессии; квадратичная функция потерь; разреженное приближение ко всюду плотному решению; krls-алгоритм; gsls-алгоритм; support vector machine; regression recovery; quadratic loss function; sparse least squares support vector machines; algorithm krls; algorithm gsls
Тип документа: Выпускная квалификационная работа бакалавра
Тип файла: PDF
Язык: Русский
Уровень высшего образования: Бакалавриат
Код специальности ФГОС: 01.03.02
Группа специальностей ФГОС: 010000 - Математика и механика
Ссылки: Отзыв руководителя; Отчет о проверке на объем и корректность внешних заимствований
DOI: 10.18720/SPBPU/3/2020/vr/vr20-1542
Права доступа: Доступ по паролю из сети Интернет (чтение, печать, копирование)
Ключ записи: ru\spstu\vkr\8263

Разрешенные действия:

Действие 'Прочитать' будет доступно, если вы выполните вход в систему или будете работать с сайтом на компьютере в другой сети Действие 'Загрузить' будет доступно, если вы выполните вход в систему или будете работать с сайтом на компьютере в другой сети

Группа: Анонимные пользователи

Сеть: Интернет

Аннотация

Предмет ВКР: задача восстановления регрессии с квадратичной функцией потерь и методы ее решения на основе машин опорных векторов. Цель ВКР: сравнительный анализ эффективности двух SV-алгоритмов восстановления регрессии: Kernel Recursive Least Squares Algorithm (KRLS) и Greedy Training Algorithm for Sparse Least Squares Support Vector Machines (GSLS). Методологии проведения ВКР: работа включает в себя изучение алгоритмов KRLS и GSLS, реализацию алгоритмов в среде программирования Matlab, анализ и сравнение результатов работы реализованных методов на модельных и реальных данных. Результаты ВКР: в основной части работы рассмотрены теоретические основы для SVM задач восстановления регрессии с квадратичной функцией потерь, описаны базовые идеи алгоритмов, их основные этапы, продемонстрированы результаты работы реализованных методов, проведен сравнительный анализ их эффективности. Область применения: SVM-подход к решению задачи восстановления регрессии с квадратичной функцией потерь широко применим на практике, например, при прогнозировании временных рядов, при химическом анализе веществ, в биоинформатике. Выводы: оба SV-алгоритма, KRLS и GSLS, строят хорошее, устойчивое к шуму, разреженное приближение ко всюду плотному решению задачи восстановления регрессии с квадратичной функцией потерь.

The subject: the problem of regression recovery with a quadratic loss function and methods for it sparse solving. The purpose: a comparative analysis of the effectiveness of two SV regression algorithms: Kernel Recursive Least Squares Algorithm (KRLS) and Greedy Training Algorithm for Sparse Least Squares Support Vector Machines (GSLS). Methodologies: the work includes the study of KRLS and GSLS algorithms, the implementation of algorithms in the Matlab programming environment, analysis of the work results of implemented methods on model and benchmark data, comparison of the methods. Results: in the main part of the work, the theoretical foundations for SVM regression problems with a quadratic loss function are considered, basic ideas of the algorithms, their main stages are described, the work results of the implemented methods are demonstrated, a comparative analysis of the effectiveness is carried out. Application field: SVM approach to solving the regression problem with a quadratic loss function is widely applicable in practice, for example, in predicting time series, in chemical analysis of substances, in bioinformatics. Conclusions: Both SV-algorithms, KRLS and GSLS, build a good, noise-resistant, sparse approximation for an everywhere dense solution of the regression reconstruction problem with a quadratic loss function.

Права на использование объекта хранения

Место доступа Группа пользователей Действие
Локальная сеть ИБК СПбПУ Все Прочитать Печать Загрузить
Внешние организации №2 Все Прочитать
Внешние организации №1 Все
Интернет Авторизованные пользователи СПбПУ Прочитать Печать Загрузить
Интернет Авторизованные пользователи (не СПбПУ, №2) Прочитать
Интернет Авторизованные пользователи (не СПбПУ, №1)
-> Интернет Анонимные пользователи

Оглавление

  • ВВЕДЕНИЕ
  • ГЛАВА 1. Постановка задачи
  • ГЛАВА 2. Описание алгоритма KRLS
    • 2.1. Базовая идея
    • 2.2. Основные этапы алгоритма
  • ГЛАВА 3. Описание алгоритма GSLS
    • 3.1. Базовая идея
    • 3.2. Основные этапы алгоритма
  • ГЛАВА 4. Анализ результатов экспериментальных исследований
    • 4.1. Восстановление однофакторной регрессии по точным данным
    • 4.2. Восстановление однофакторной регрессии по зашумленным данным
    • 4.3. Исследование зависимости ошибки от количества опорных векторов
    • 4.4. Сравнительный анализ алгоритмов на реальных данных
  • ЗАКЛЮЧЕНИЕ
  • СПИСОК ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ
  • ПРИЛОЖЕНИЕ 1. Реализация алгоритма KRLS
  • ПРИЛОЖЕНИЕ 2. Реализация алгоритма GSLS

Статистика использования

stat Количество обращений: 35
За последние 30 дней: 0
Подробная статистика