Details

Title: Разработка программных средств автоматизации процессов проектирования горизонтальной трассировки инженерных систем водоснабжения и канализации многоквартирных жилых домов: выпускная квалификационная работа бакалавра: направление 09.03.01 «Информатика и вычислительная техника» ; образовательная программа 09.03.01_02 «Технологии разработки программного обеспечения»
Creators: Обоенкова Владилена Евгеньевна
Scientific adviser: Малышев Игорь Алексеевич
Organization: Санкт-Петербургский политехнический университет Петра Великого. Институт компьютерных наук и кибербезопасности
Imprint: Санкт-Петербург, 2024
Collection: Выпускные квалификационные работы; Общая коллекция
Subjects: ieee 754; posit; bfloat16; арифметики пониженной точности; обучение нейронных сетей; low-precision arithmetics; training of neural networks
Document type: Bachelor graduation qualification work
File type: PDF
Language: Russian
Level of education: Bachelor
Speciality code (FGOS): 09.03.01
Speciality group (FGOS): 090000 - Информатика и вычислительная техника
DOI: 10.18720/SPBPU/3/2024/vr/vr24-2175
Rights: Доступ по паролю из сети Интернет (чтение, печать, копирование)
Additionally: New arrival
Record key: ru\spstu\vkr\30355

Allowed Actions:

Action 'Read' will be available if you login or access site from another network Action 'Download' will be available if you login or access site from another network

Group: Anonymous

Network: Internet

Annotation

В данной работе рассмотрены форматы машинных чисел с плавающей точкой пониженной разрядности – FP16, BF16, Posit16 и выполнен анализ эффективности их применения для обучения нейронных сетей. Были решены следующие задачи: 1. Изучение технических характеристик форматов машинных чисел с плавающей точкой: FP32, FP16, BF16 и Posit16. 2. Выбор программных средств и реализация комплекса моделей вычислений с исследуемыми форматами машинных чисел. 3. Проведение экспериментов на различных форматах с плавающей точкой для решения задачи классификации изображений и последующее тестирование полученных результатов на новом наборе данных. 4. Оценка и сравнение полученных показателей эффективности, таких как точность предсказаний, время обучения и использование памяти, визуализация результатов. Работа выполнялась с использованием фреймворка PyTorch и библиотек QPyTorch и Qtorch+ для работы с арифметиками пониженной точности и форматом Posit. В результате выполнения работы был проведен ряд экспериментов по обучению искусственной нейронной сети с форматами машинных чисел с плавающей точкой. Получены оценки точности (accuracy), времени обучения и затрат памяти.

This paper examines the low-precision floating-point machine number formats – FP16, BF16, Posit16 and analyzes the effectiveness of their use for training neural networks. The following tasks were solved: 1. Study the technical characteristics of floating-point formats: FP32, FP16, BF16 and Posit16. 2. Selection of software tools and implementation of a set of calculation models with the studied machine number formats. 3. Conducting experiments on various floating-point formats to solve the problem of image classification and then testing the results obtained on a new data set. 4. Evaluate and compare the obtained performance indicators, such as accuracy, training time and memory use, and visualize the results. The work was done using the PyTorch framework and the QPyTorch and Qtorch+ libraries for working with reduced precision arithmetic and the Posit format. As a result of the work, a number of experiments were carried out on training an artificial neural network with floating-point machine number formats. Estimates of accuracy, training time and memory costs were obtained.

Document access rights

Network User group Action
ILC SPbPU Local Network All Read Print Download
Internet Authorized users SPbPU Read Print Download
-> Internet Anonymous

Usage statistics

stat Access count: 1
Last 30 days: 1
Detailed usage statistics