Details

Title Информационная система для защиты веб-сервера от AI Crawlers: выпускная квалификационная работа бакалавра: направление 09.03.02 «Информационные системы и технологии» ; образовательная программа 09.03.02_02 «Информационные системы и технологии» = Information system for protecting a web server from AI crawlers
Creators Рогулев Кирилл Станиславович
Scientific adviser Ефремов Артем Александрович
Organization Санкт-Петербургский политехнический университет Петра Великого. Институт компьютерных наук и кибербезопасности
Imprint Санкт-Петербург, 2026
Collection Выпускные квалификационные работы ; Общая коллекция
Subjects ai crawler ; бот ; обратный прокси ; доказательство выполнения работы ; honeypot ; bot ; reverse proxy ; proof of work
Document type Bachelor graduation qualification work
Language Russian
Level of education Bachelor
Speciality code (FGOS) 09.03.02
Speciality group (FGOS) 090000 - Информатика и вычислительная техника
DOI 10.18720/SPBPU/3/2026/vr/vr26-571
Rights Доступ по паролю из сети Интернет (чтение)
Additionally New arrival
Record key ru\spstu\vkr\40366
Record create date 4/20/2026

Allowed Actions

Action 'Read' will be available if you login or access site from another network

Group Anonymous
Network Internet

Данная работа посвящена исследованию защиты от систем автоматического сбора информации с веб страниц для последующего обучения ИИ. Задачи, которые решались в ходе исследования: а) Изучение предметной области, программных аналогов и методов. б) Постановка проблемы задачи. в) Выявление применяемых методов и технологий. г) Разработка обратного прокси-сервера для решения проблемы. д) Проведение вычислительного эксперимента разработки. В результате была разработана программа для решения проблемы, а именно обратный прокси сервер с методами анализа поведения клиента, ловушек и Proof of Work. Для достижения данных результатов в работе были использованы ОС Linux, язык программирования Rust, NodeJS, Python, Gnuplot.

The given work is devoted to investigation for defence against systems that automatically collect information from web pages for subsequent AI training. The research set the following goals: 1) Study of the subject area, software analogues and methods. 2) Stating problem of the task. 3) Identification of methods and technologies used. 4) Developing reverse proxy to solve the problem. 5) Conducting a computational experiment of the development. As a result, a software was developed to solve the problem, namely a reverse proxy server with methods for analysing client behaviour, traps and Proof of Work. To achieve these results, Linux OS, Rust programming language, NodeJS, Python, Gnuplot were used in this work.

Network User group Action
ILC SPbPU Local Network All
Read
Internet Authorized users SPbPU
Read
Internet Anonymous

Access count: 0 
Last 30 days: 0

Detailed usage statistics