Details

Title Исследование параметров генерации и архитектурных особенностей больших языковых моделей с целью выявления факторов, повышающих вероятность возникновения галлюцинаций: выпускная квалификационная работа бакалавра: направление 09.03.03 «Прикладная информатика» ; образовательная программа 09.03.03_03 «Интеллектуальные инфокоммуникационные технологии» = Research on generation parameters and architectural features of large language models to identify factors that increase the likelihood of hallucinations
Creators Мурзич Олеся Алексеевна
Scientific adviser Хахина Анна Михайловна
Organization Санкт-Петербургский политехнический университет Петра Великого. Институт компьютерных наук и кибербезопасности
Imprint Санкт-Петербург, 2026
Collection Выпускные квалификационные работы ; Общая коллекция
Subjects большие языковые модели ; галлюцинации ии ; искусственный интеллект ; генерация текста ; large language models ; ai hallucinations ; artificial intelligence ; text generation
Document type Bachelor graduation qualification work
Language Russian
Level of education Bachelor
Speciality code (FGOS) 09.03.03
Speciality group (FGOS) 090000 - Информатика и вычислительная техника
DOI 10.18720/SPBPU/3/2026/vr/vr26-582
Rights Доступ по паролю из сети Интернет (чтение, печать)
Additionally New arrival
Record key ru\spstu\vkr\40377
Record create date 4/20/2026

Allowed Actions

Action 'Read' will be available if you login or access site from another network

Group Anonymous
Network Internet

Работа посвящена анализу факторов, влияющих на возникновение галлюцинаций в больших языковых моделях (LLM). Объектом исследования являются LLM, используемые для генерации текстов. Предметом исследования являются факторы, влияющие на появление галлюцинаций по отдельности или в совокупности. Целью работы является выявление факторов, влияющих на возникновение галлюцинаций, и получение новых знаний о закономерностях формирования галлюцинаций. Работа рассматривает три LLM различного масштаба (Mistral-7B, Gemma-2B, Pythia-70M) и опирается на фиксацию их скрытых представлений, вероятностных характеристик токенов и параметров генерации. Влияние факторов сравнивалось с помощью коэффициента корреляции Спирмена, а также метрик embeddings score (семантическая близость) и BERTScore. Было показано, что температура генерации, длина ответа и logprob являются ключевыми факторами повышения вероятности галлюцинаций, а вклад архитектурных особенностей проявляется через модификацию эффекта параметров генерации. Область применения результатов включает тестирование, разработку и настройку языковых моделей для задач, чувствительных к фактической корректности. Результаты работы уточняют механизм формирования галлюцинаций и могут быть использованы для повышения устойчивости генерации и разработки методов контроля качества ответов LLM. В процессе работы использовались облачный сервис Google Colab, облачное хранилище Google Drive и платформа Hugging Face.

The work is devoted to analyzing the factors that influence the emergence of hallucinations in large language models (LLMs). The object of the study is LLMs used for text generation. The subject of the study is the factors that affect the appearance of hallucinations either individually or in combination. The goal of the work is to identify the factors that influence the occurrence of hallucinations and to obtain new knowledge about the patterns behind their formation. The work examines three LLMs of different scales (Mistral-7B, Gemma-2B, Pythia-70M) and relies on capturing their hidden states, token probability characteristics, and generation parameters. The influence of factors was compared using Spearman’s correlation coefficient, as well as the embeddings score (semantic similarity) and BERTScore metrics. It was shown that generation temperature, answer length, and logprob are key factors increasing the likelihood of hallucinations, while the contribution of architectural features manifests through the modification of the effect of generation parameters. The scope of the results includes testing, developing, and tuning language models for tasks sensitive to factual correctness. The results of the work refine the mechanism of hallucination formation and can be used to improve generation robustness and develop methods for controlling LLM answer quality. The Google Colab cloud service, Google Drive cloud storage, and Hugging Face platform were used in the process.

Network User group Action
ILC SPbPU Local Network All
Read Print
Internet Authorized users SPbPU
Read Print
Internet Anonymous
  • Исследование параметров генерации и архитектурных особенностей больших языковых моделей с целью выявления факторов, повышающих вероятность возникновения галлюцинаций
    • Введение
    • 1. Анализ предметной области
    • 2. Проектирование метода для получения и анализа экспериментальных данных
    • 3. Программная реализация сбора, подготовки и обработки данных
    • 4. Анализ результатов экспериментального исследования
    • 5. Тестирование, верификация и сопоставление результатов исследования
    • Заключение
    • Словарь терминов
    • Список использованных источников
    • Приложение 1 Таблица факторов, влияющих на галлюцинации по результатам исследования
    • Приложение 2 Программный код метода для получения и анализа экспериментальных данных
    • Приложение 3 Программный код тестирования метода для получения и анализа экспериментальных данных
    • Приложение 4 Диаграммы работы метода для получения и анализа экспериментальных данных

Access count: 0 
Last 30 days: 0

Detailed usage statistics