Детальная информация

Название: Использование состязательных атак для защиты от автоматического распознавания текста в сервисах CAPTCHA: выпускная квалификационная работа бакалавра: направление 10.03.01 «Информационная безопасность» ; образовательная программа 10.03.01_03 «Безопасность компьютерных систем»
Авторы: Цуркан Иван Сергеевич
Научный руководитель: Москвин Дмитрий Андреевич
Другие авторы: Малышев Егор Валерьевич
Организация: Санкт-Петербургский политехнический университет Петра Великого. Институт кибербезопасности и защиты информации
Выходные сведения: Санкт-Петербург, 2023
Коллекция: Выпускные квалификационные работы; Общая коллекция
Тематика: машинное обучение; состязательные атаки; сервисы CAPTCHA; machine learning; adversarial attacks; CAPTCHA services
Тип документа: Выпускная квалификационная работа бакалавра
Тип файла: PDF
Язык: Русский
Уровень высшего образования: Бакалавриат
Код специальности ФГОС: 10.03.01
Группа специальностей ФГОС: 100000 - Информационная безопасность
DOI: 10.18720/SPBPU/3/2023/vr/vr23-2180
Права доступа: Доступ по паролю из сети Интернет (чтение)
Ключ записи: ru\spstu\vkr\23217

Разрешенные действия:

Действие 'Прочитать' будет доступно, если вы выполните вход в систему или будете работать с сайтом на компьютере в другой сети

Группа: Анонимные пользователи

Сеть: Интернет

Аннотация

Цель работы – сохранить скорость прохождения пользователем проверки человек-робот при усложнении генерируемых изображений путём применения к ним состязательных атак. Предмет исследования – сервисы CAPTCHA, к которым для затруднения автоматизированного распознавания применяют состязательные атаки. Задачи, решаемые в ходе исследования: 1. Изучение подходов для генерации CAPTCHA и методов её обхода. 2. Изучение исследований в области применения состязательных атак для усложнения автоматического распознавания текста на изображениях. 3. Разработка метода генерации капчи с применением состязательных атак. 4. Разработка программного комплекса, применяющего состязательные атаки для защиты от автоматического распознавания на примере капчи с текстом. В ходе работы были исследованы методы состязательных атак и генерации CAPTCHA, проанализированы современные исследования по их применению. Был сделан вывод, что их совместное использование применимо. В результате работы были разработаны метод генерации текстовой капчи с применением состязательной атаки и программный комплекс, который включает модуль с этим методом. Полученные результаты возможно интегрировать в существующие на рынке решения.

The purpose of the study is saving the speed of passing the human-robot check by the user when complicating the generated images by applying adversarial attacks to them. The subject of the work is CAPTCHA services, to which to impede automated recognition use adversarial attacks. The research set the following goals: 1. Studying CAPTCHA generation approaches and circumvention methods. 2. Study of research on the use of adversarial attacks to complicate automatic text recognition on images. 3. Development of a captcha generation method using adversarial attacks. 4. Development of a software package that uses adversarial attacks to protect against automatic recognition on the example of captchas with text. During the work the methods of adversarial attacks and CAPTCHA generation were studied, and current research on their use was analyzed. The work resulted in development of a method of text captcha generation using adversarial attack and a software package that includes a module with this method. The studying point to conclusion that their combined use is applicable. The results could be used as a base to integrate the obtained results into existing solutions on the market.

Права на использование объекта хранения

Место доступа Группа пользователей Действие
Локальная сеть ИБК СПбПУ Все Прочитать
Интернет Авторизованные пользователи СПбПУ Прочитать
-> Интернет Анонимные пользователи

Оглавление

  • Введение
  • 1 Модель угроз атак на нейронные сети
    • 1.1 Общие положения
    • 1.2 Классификация угроз
      • 1.2.1 По типу воздействия
        • 1.2.1.1 Атака отравления данных
        • 1.2.1.2 Атака уклонения
      • 1.2.2 По доступу к модели
      • 1.2.3 По цели воздействия
      • 1.2.4 По используемой метрике
    • 1.3 Методология состязательных атак
    • 1.4 Выводы
  • 2 Типовые методы состязательных атак
    • 2.1 Атаки подхода «белого ящика»
      • 2.1.1 Fast Gradient Sign Method
        • 2.1.1.1 FGM
        • 2.1.1.2 I-FGSM
        • 2.1.1.3 MI-FGSM
      • 2.1.2 BIM и PGD
      • 2.1.3 Carlini&Wagner
      • 2.1.4 Jacobian-Based Saliency Map
    • 2.2 Атаки подхода «чёрного ящика»
      • 2.2.1 Общие сведения
      • 2.2.2 Разработка атаки
      • 2.2.3 Примеры атак
        • 2.2.3.1 Simple Black-Box Adversarial attack
        • 2.2.3.2 ZOO
    • 2.3 Выводы
  • 3 Механизмы защиты от состязательных атак
    • 3.1 Механизмы защиты
      • 3.1.1 Модифицирование обучения
        • 3.1.1.1 Метод обучения грубой силой
        • 3.1.1.2 Использование сжатия данных
        • 3.1.1.3 Защита на основе углубления
        • 3.1.1.4 Рандомизация данных
      • 3.1.2 Модификация сети
        • 3.1.2.1 Глубокие контрактивные сети
        • 3.1.2.2 Защитная дистилляция
        • 3.1.2.3 Глубокая маскировка
      • 3.1.3 Дополнения нейронных сетей
        • 3.1.3.1 Защита от универсальных возмущений
        • 3.1.3.2 Защита на основе GAN
    • 3.2 Применение генеративно-состязательных сетей для защиты от состязательных атак
      • 3.2.1 Изучение генеративных состязательных сетей
      • 3.2.2 Модификации GAN
        • 3.2.2.1 WGAN
        • 3.2.2.2 DCGAN
      • 3.2.3 Анализ методов защиты на основе GAN
        • 3.2.3.1 APE-GAN
        • 3.2.3.2 Defense-GAN
    • 3.3 Экспериментальные запуски
      • 3.3.1 Материалы и методы
      • 3.3.2 Разработанное решение
      • 3.3.3 Полученные результаты
    • 3.4 Выводы
  • 4 Изучение предметной области
    • 4.1 Краткие теоретические сведения
    • 4.2 Поиск существующих решений
      • 4.2.1 reCAPTCHA
      • 4.2.2 Yandex SmartCaptcha
      • 4.2.3 hCaptcha
      • 4.2.4 Cloudflare Turnstile
    • 4.3 Проблема нелегитимного распознавания CAPTCHA
      • 4.3.1 Использование ошибок в алгоритме защиты
      • 4.3.2 Использование автоматического распознавания
      • 4.3.3 Полуавтоматическое распознавание с привлечением человеческих ресурсов
    • 4.4 Дополнительные исследования
      • 4.4.1 Существующие исследования в области применения состязательных атак к CAPTCHA-изображениям
      • 4.4.2 Оценка влияния модификации изображения на результаты распознавания
    • 4.5 Выводы
  • 5 Реализация программного комплекса
    • 5.1 Работа с изображениями CAPTCHA
      • 5.1.1 Подходы к генерации изображений
      • 5.1.2 Генерация целевых образов
      • 5.1.3 Выбор модели автоматического распознавания текста
    • 5.2 Описание программного комплекса
      • 5.2.1 Требования к программному комплексу и выбор средств разработки
      • 5.2.2 Архитектура программного комплекса
      • 5.2.3 Схема и описание отношений базы данных, используемой в программном комплексе
    • 5.3 Экспериментальное тестирование
      • 5.3.1 Принципы функционирования
      • 5.3.2 Сбор статистической информации и её анализ
    • 5.4 Выводы
  • Заключение
  • Список использованных источников
  • Приложение. Экспериментальные запуски GAN

Статистика использования

stat Количество обращений: 4
За последние 30 дней: 2
Подробная статистика