Details
Title | Разработка и исследование интерпретируемой модели обучения на концептах для интеграции экспертных правил в модели машинного обучения: выпускная квалификационная работа магистра: направление 02.04.01 «Математика и компьютерные науки» ; образовательная программа 02.04.01_03 «Искусственный интеллект и машинное обучение» |
---|---|
Creators | Ляхова Софья Александровна |
Scientific adviser | Уткин Лев Владимирович |
Organization | Санкт-Петербургский политехнический университет Петра Великого. Институт компьютерных наук и кибербезопасности |
Imprint | Санкт-Петербург, 2024 |
Collection | Выпускные квалификационные работы; Общая коллекция |
Subjects | интерпретируемые модели обучения; обучение на концептах; экспертные правила; индуктивное и дедуктивное обучение; нейронные сети; interpretable learning models; concept learning; expert rules; inductive and deductive learning; neural networks |
Document type | Master graduation qualification work |
File type | |
Language | Russian |
Level of education | Master |
Speciality code (FGOS) | 02.04.01 |
Speciality group (FGOS) | 020000 - Компьютерные и информационные науки |
DOI | 10.18720/SPBPU/3/2024/vr/vr24-5048 |
Rights | Доступ по паролю из сети Интернет (чтение, печать, копирование) |
Additionally | New arrival |
Record key | ru\spstu\vkr\33217 |
Record create date | 8/29/2024 |
Allowed Actions
–
Action 'Read' will be available if you login or access site from another network
Action 'Download' will be available if you login or access site from another network
Group | Anonymous |
---|---|
Network | Internet |
Цель дипломной работы - разработка и исследование интерпретируемой модели обучения на концептах для объединения дедуктивного и индуктивного обучения посредством интеграции экспертных правил в модели машинного обучения с целью повышения точности предсказания и улучшения объяснимости принимаемых моделью решений. Предметом исследования является разработка модели обучения на концептах, включающей интеграцию экспертных правил, и анализ её влияния на точность и объяснимость моделей машинного обучения. Задачи, решаемые в ходе исследования: 1. Проведение обзора существующих методов и моделей машинного обучения с акцентом на интерпретируемость; 2. Разработка алгоритма для интеграции экспертных правил в модели машинного обучения на концептах; 3. Реализация предложенного алгоритма на языке программирования Python с использованием соответствующих фреймворков и библиотек; 4. Проведение экспериментов для оценки эффективности и объяснимости разработанной модели на исходных данных; 5. Анализ результатов экспериментов и оценка их значимости. В результате работы был реализован алгоритм обучения на концептах, способный учитывать экспертные правила и данные, а также обеспечивать интерпретируемость принимаемых решений. Была продемонстрирована работа данного инструмента на двух сгенерированных наборах данных, что позволило получить результаты, подтверждающие его эффективность и применимость. Полученные результаты могут быть использованы в качестве основы для дальнейших исследований и разработки приложений в различных областях, где требуется высокая степень интерпретируемости моделей машинного обучения.
The goal of this thesis is to develop and research an interpretable concept learning model that combines deductive and inductive learning through the integration of expert rules into machine learning models to enhance prediction accuracy and improve the explainability of the models decisions. Subject of Research: The development of a concept learning model that integrates expert rules and the analysis of its impact on the accuracy and interpretability of machine learning models. Research Tasks: 1. Conduct a review of existing machine learning methods and models with an emphasis on interpretability. 2. Develop an algorithm for integrating expert rules into concept-based machine learning models. 3. Implement the proposed algorithm in Python using appropriate frameworks and libraries. 4. Conduct experiments to evaluate the effectiveness and interpretability of the developed model on real-world data. 5. Analyze experimental results and evaluate their significance. As a result of this work, an algorithm for concept learning was implemented, capable of incorporating expert rules and data while ensuring the interpretability of decisions. The performance of this tool was demonstrated on two generated datasets, yielding results that confirm its effectiveness and applicability. The obtained results can serve as a basis for further research and application development in various fields requiring high interpretability of machine learning models, such as medicine, finance, and law.
Network | User group | Action |
---|---|---|
ILC SPbPU Local Network | All |
|
Internet | Authorized users SPbPU |
|
Internet | Anonymous |
|
Access count: 2
Last 30 days: 2