Details
Title | Система сравнения мультимодальных языковых моделей: выпускная квалификационная работа бакалавра: направление 01.03.02 «Прикладная математика и информатика» ; образовательная программа 01.03.02_04 «Биоинформатика» |
---|---|
Creators | Мартынов Александр Дмитриевич |
Scientific adviser | Чуканов Вячеслав Сергеевич |
Organization | Санкт-Петербургский политехнический университет Петра Великого. Физико-механический институт |
Imprint | Санкт-Петербург, 2025 |
Collection | Выпускные квалификационные работы ; Общая коллекция |
Subjects | машинное обучение ; языковые модели ; статистика ; machine learning ; language models ; statistics |
Document type | Bachelor graduation qualification work |
File type | |
Language | Russian |
Level of education | Bachelor |
Speciality code (FGOS) | 01.03.02 |
Speciality group (FGOS) | 010000 - Математика и механика |
DOI | 10.18720/SPBPU/3/2025/vr/vr25-3154 |
Rights | Доступ по паролю из сети Интернет (чтение) |
Additionally | New arrival |
Record key | ru\spstu\vkr\37043 |
Record create date | 8/28/2025 |
Allowed Actions
–
Action 'Read' will be available if you login or access site from another network
Group | Anonymous |
---|---|
Network | Internet |
Данная работа посвящена разработке метода ранжирования мультимодальных языковых моделей (Multimodal Language Models, MLLM) с целью повышения точности и объективности их сравнения. Актуальность темы обусловлена возросшим количеством подобных моделей и популяризацией их применения в самых различных областях, что усложняет процесс выбора наилучшего алгоритма в каждом приложении, а также недостатком универсальной системы оценки их качества. В основе метода лежит анализ метрик качества, которые получают модели на валидационном наборе данных, а также их статистических свойств. Разрабатываемая процедура представляет собой улучшенную версию метода PROMETHEE, что позволяет точнее ранжировать модели с учетом противоречивых критериев качества и учитывает специфику работы с моделями машинного обучения. В ходе экспериментальной оценки показанопреимущество такого подхода по сравнению с другими методиками. Полученные результаты свидетельствуют о возможности применения предложенной системы в реальных задачах с разнотипными данными, что особенно полезно при отсутствии возможности определения относительной значимости каждого критерия.
This work is devoted to the development of a ranking method for multimodal Language Models (MLLM) in order to improve the accuracy and objectivity of their comparison. The relevance of the topic is due to the increased number of such models and the popularization of their use in various fields, which complicates the process of choosing the best algorithm in each application, as well as the lack of a universal system for evaluating their quality. The method is based on the analysis of quality metrics obtained by models based on a validation dataset, as well as their statistical properties. The procedure being developed is an improved version of the PROMETHEE method, which makes it possible to more accurately rank models based on conflicting quality criteria and takes into account the specifics of working with machine learning models. The experimental evaluation shows the advantage of this approach in comparison with other methods. The results obtained indicate the possibility of using the proposed system in real-world problems with different types of data, which is especially useful in the absence of the possibility of determining the relative importance of each criterion.
Network | User group | Action |
---|---|---|
ILC SPbPU Local Network | All |
|
Internet | Authorized users SPbPU |
|
Internet | Anonymous |
|
- Введение
- Формализация задачи
- Обзор существующих подходов
- Метод средних
- PCRA
- PROMETHEE
- Точность оценок чистых потоков
- Предлагаемое решение
- Применение Bootstrap
- Анализ статистической значимости
- Применение на реальных данных
- Визуально-текстовая задача
- Задача резюмирования текста
- Интеграция с ClearML
- Заключение
- Список использованных источников
Access count: 1
Last 30 days: 1