Таблица | Карточка | RUSMARC | |
Разрешенные действия: –
Действие 'Прочитать' будет доступно, если вы выполните вход в систему или будете работать с сайтом на компьютере в другой сети
Группа: Анонимные пользователи Сеть: Интернет |
Аннотация
Проведенная работа посвящена исследованию зависимости процесса обучения автокодировщиков от набора параметров которыми на абстрактном уровне возможно описать изображения из группы данных для обучения. Если процесс обучения автокодировщика был сведен к тому, что на латентном пространстве автокодировщика все переменные оказались взаимозависимы, а также кодируют абстрактные параметры изображения (например цвет глаз, форма объекта и т.д.), то такая реализация нейросети называется распутанной. Понятие распутанности позволяет: 1. Повышать точность работы автокодировщика 2. Использоваться для сжатия данных 3. Позволяет генерировать реалистичные данные из имеющихся примеров Формальная гипотеза: существует другое признаковое пространство с меньшей размерностью, в котором свойства объекта проявляются лучше, и там где новые признаки поддаются интерпретации. Распутанное представление в настоящее время остается неустановленным. Для этого есть две основные причины: Еще не существует конечного и формального определения распутанности представления Как следствие еще не существует единой метрики для измерения распутанности представления Данная работа ставит под сомнение 3 из этих показателей: FactorVAE, IRS и MIG и выявляет недостатки и компромиссы подхода агрегированного ранжирования. Метрики были подсчитаны с помощью классических методов понижения размерности такие как: метод главных компонент, прямое сжатие изображения, а также с помощью методов глубокого обучения с использованием вариационного автокодировщика.
The related work consists of investigating the autoencoder training process dependency on artificial factors representing and describing the input data. When the latent space totally not correlating itself and all the factors are mapped to the latent space variables (for instance eye color, face shape, etc.) we call such realization the disentangled representation. The disentangling enable to be used as following: 1. Increase the accuracy of trained model 2. To be used for data compression 3. Being able to generate new data relying the existing one There is a hypothesis: the smaller dimensional factor space exists and factors in this space are better describing the data and factors are interpretable Hence the disentangled representation still does not have final determination it is because of no any resolution on disentanglement score set in the scientific society. In this paper the consistency of three existing disentanglement indicators (MIG, FactorVAE, IRS) are declined in a proof of several models such as: PCA, Downsampling, VAE. The combination of metrics and practices proposed in this work.
Права на использование объекта хранения
Место доступа | Группа пользователей | Действие | ||||
---|---|---|---|---|---|---|
Локальная сеть ИБК СПбПУ | Все |
![]() |
||||
Внешние организации №2 | Все |
![]() |
||||
Внешние организации №1 | Все | |||||
Интернет | Авторизованные пользователи СПбПУ |
![]() |
||||
Интернет | Авторизованные пользователи (не СПбПУ, №2) |
![]() |
||||
Интернет | Авторизованные пользователи (не СПбПУ, №1) | |||||
![]() |
Интернет | Анонимные пользователи |
Статистика использования
|
Количество обращений: 7
За последние 30 дней: 0 Подробная статистика |