Details

Title: Сравнение и улучшение качества работы open source архитектур для задачи NER в условиях ограниченности ресурсов: выпускная квалификационная работа бакалавра: направление 01.03.02 «Прикладная математика и информатика» ; образовательная программа 01.03.02_02 «Системное программирование»
Creators: Гвоздев Святослав Юрьевич
Scientific adviser: Малеев Олег Геннадьевич
Organization: Санкт-Петербургский политехнический университет Петра Великого. Физико-механический институт
Imprint: Санкт-Петербург, 2024
Collection: Выпускные квалификационные работы; Общая коллекция
Subjects: эмбеддинг; LSTM; transformers; токен; LLM; self-attention; embedding; token
Document type: Bachelor graduation qualification work
File type: PDF
Language: Russian
Level of education: Bachelor
Speciality code (FGOS): 01.03.02
Speciality group (FGOS): 010000 - Математика и механика
DOI: 10.18720/SPBPU/3/2024/vr/vr24-5361
Rights: Доступ по паролю из сети Интернет (чтение, печать, копирование)
Additionally: New arrival
Record key: ru\spstu\vkr\30031

Allowed Actions:

Action 'Read' will be available if you login or access site from another network Action 'Download' will be available if you login or access site from another network

Group: Anonymous

Network: Internet

Annotation

Целью работы является сравнение и подбор инструментов для создания сервиса по извлечению сущностей из корпоративных документов. Предметом исследования являются современные архитектуры нейронных сетей, методы их дообучения и развёртывания. Задачи, решаемые в ходе исследования: 1. Разметка данных для оценки качества и дообучения. 2. Реализация алгоритма выделения релевантных частей документов для борбы с ограниченным контекстом языковых моделей. 3. Дообучение языковых моделей и достижение оптимальной скорости их отклика. В ходе работы была исследована архитектура transformers и подробна разобран принцип действия слоя self-attention. Были проанализированы способы улучшения качества и увелечения скорости генерации ответов языковых моделей. В результате работы был разработан сервис, который позволяет извлекать необходимые данные из документов, для оптимизации процессов внутри компании.

The objective of this work is to compare and select tools for creating a service to extract entities from corporate documents. The subject of the study includes modern neural network architectures, methods of their fine-tuning, and deployment. The tasks addressed in the course of the research are: 1. Data annotation for quality assessment and fine-tuning. 2. Implementation of an algorithm to extract relevant parts of documents to address the limited context of language models. 3. Fine-tuning language models and achieving optimal response speed. During the work, the transformers architecture was studied, and the functioning of the self-attention layer was thoroughly analyzed. Methods to improve the quality and increase the response speed of language models were examined. As a result of the work, a service was developed that allows the extraction of necessary data from documents to optimize processes within the company.

Document access rights

Network User group Action
ILC SPbPU Local Network All Read Print Download
Internet Authorized users SPbPU Read Print Download
-> Internet Anonymous

Table of Contents

  • СПИСОК ОБОЗНАЧЕНИЙ И СОКРАЩЕНИЙ
  • ВВЕДЕНИЕ
  • ГЛАВА 1. Обзор существующих решений
    • Некоторые понятия
    • RNN - Recurrent neural network
    • LSTM - Long short-term memory
    • Transformers
      • Self-Attention
      • Декодер
      • BERT
    • LLM
      • Prompt engineering
      • Дообучение моделей
      • Lora - Low-Rank Adaptation
      • Векторная база данных
    • vLLM
      • Пакетная обработка
      • Статическая обработка пакетов
      • Непрерывная обработка пакетов
      • PageAttention
  • ГЛАВА 2. Практическая часть работы.
    • Извлечение текста из сканов
    • Датасет для оценки качества сервиса
    • Начало работы
    • Проблемы с длиной контекста
    • Генерация лучшего промпта
    • Дообучение модели
    • Дополнительные исследования
      • Тестирование 70B модели
      • BERT
  • ЗАКЛЮЧЕНИЕ
  • =СПИСОК ИСПОЛЬЗОВАННОЙ ЛИТЕРАТУРЫ
  • ПРИЛОЖЕНИЕ

Usage statistics

stat Access count: 0
Last 30 days: 0
Detailed usage statistics