Описание тега half-precision-float

16-битная плавающая точка половинной точности
1 ответ

Арифметика с плавающей точкой половинной точности на чипах Intel

Можно ли выполнить арифметику с плавающей запятой половинной точности на чипах Intel? Я знаю, как загружать / хранить / преобразовывать числа с плавающей запятой половинной точности [1], но я не знаю, как добавить / умножить их без преобразования в …
1 ответ

tf.keras.layers.Conv2D() не работает с бэкэндом Keras, установленным в float16

Я пытаюсь обучить CNN в Google Colab (также пробовал с Tesla v100), с бэкэндом keras, установленным на float16. tf.keras.backend.set_floatx('float16') но он выдает ошибку при компиляции модели с Conv2D. model = tf.keras.models.Sequential([ tf.keras.…
0 ответов

Как получить представление числа с плавающей запятой половинной точности?

Я хочу получить двоичное представление переменной x в представлении с плавающей точкой половинной точности. x может быть любым (например, -1.25 или 10 и т. д.). Я перепробовал несколько вещей, но не могу понять это правильно.Я попытался сделать свою…
18 апр '19 в 17:23
0 ответов

Почему базовое обучение смешанной точности CNN не работает с тензорным потоком (разветвление NVIDA)?

Я пытаюсь обучить основному CNN, используя смешанную точность, т.е. используя тензорные ядра RTX 2080. Код прекрасно работает с tenorflow 13.1 в Ubuntu, но завершается неудачно с вилкой tenorflow от nvidia, говоря "Переменные не найдены". Понятия не…
0 ответов

Почему размеры тензоров должны быть кратны 8 при использовании смешанной точности для обучения модели?

Так что я недавно искал смешанную точность обучения и наткнулся на эту ссылку, Еще одна ссылка, чтобы убедиться, что приведенная выше информация подходит от Nvidia Из раздела 2.2 На практике более высокая производительность достигается, когда размер…
1 ответ

С плавающей точкой с половиной точности

У меня небольшой вопрос по поводу полу-точности IEEE-754. 1) У меня есть следующее упражнение: 13,7625 должно быть записано в 16 битах (половина точности) поэтому я начал преобразовывать число из DEC в двоичное, и я получил это 13,7625 = 1101.110000…
29 июн '19 в 03:15
0 ответов

Почему сложная арифметика с половинной точностью не поддерживается в Python и CUDA?

NumPY имеет complex64, соответствующий двум типам float32. Но он также имеет float16, но не сложный32. Как придешь? У меня есть расчет обработки сигналов с использованием БПФ, где я думаю, что я буду в порядке с complex32, но я не вижу, как туда доб…
26 июн '19 в 20:00
1 ответ

Как сделать свертку с fp16(Eigen::half) на тензорном потоке

Как я могу использовать tenorflow, чтобы сделать свертку, используя fp16 на GPU? (Python API, используя __half или Eigen::half). Я хочу протестировать модель с fp16 на тензорном потоке, но я застрял. На самом деле я обнаружил, что свертка fp16 в тен…
21 авг '19 в 15:01
0 ответов

NoneTenor 2tensor float16 Использование графического процессора ниже, чем float

Когда я изменяю tenor2tensor на float16, моя загрузка графического процессора низкая, иногда она будет равна 0%, когда я использую процессор до 2000, загрузка графического процессора будет выше, чем раньше. Linux Centos 7 TITAN V тензор потока 1,14 …
1 ответ

Является ли TensorRT режим точности с плавающей точкой 16 недетерминированным на Jetson TX2?

Я использую прецизионный режим TensorRT FP16 для оптимизации моей модели глубокого обучения. И я использую эту оптимизированную модель на Jetson TX2. При тестировании модели я заметил, что механизм вывода TensorRT не является детерминированным. Друг…
1 ответ

Отчет о тренировке смешанной точности RET_CHECK, ShapeUtil::Equal(first_reduce->shape(), inst->shape())

Новая настройка: 2x2080ti Драйвер Nvidia: 430 Cuda 10.0 Cudnn 7.6 Tensorflow 1.13.1 Старая настройка: 2x1080ti Nvidia драйвер:410 Cuda 9.0 Tensorflow 1.10 Я реализовал модель для сегментации, она может быть обучена под FP32 или смешанной точностью (…
04 июн '19 в 07:49
0 ответов

Tensorflow автоматическая смешанная точность fp16 медленнее, чем fp32 на официальном реснете

Я пытаюсь использовать официальные тесты модели ResNet с https://github.com/tensorflow/models/blob/master/official/resnet/estimator_benchmark.py чтобы поэкспериментировать с поддержкой AMP, включенной в tensorflow-gpu==1.14.0rc0, Я работаю на 2080 T…
04 июн '19 в 19:36
0 ответов

Ошибка точности преобразования при преобразовании с плавающей точкой половинной точности IEE в десятичную

У меня есть некоторые ошибки точности при преобразовании из 16-битного формата с плавающей запятой половинной точности в десятичный. Он способен точно конвертировать определенные числа, в то же время не точно для других. Код был изначально разработа…
1 ответ

Заполнение MTLBuffer 16-битными числами

Я заполняю MTLBuffer векторами float2. Буфер создается и заполняется так: struct Particle { var position: float2 ... } let particleCount = 100000 let bufferSize = MemoryLayout<Particle>.stride * particleCount particleBuffer = device.makeBuffer…
11 июн '19 в 01:00
0 ответов

Как тренировать (передавать обучение) тонкую модель с использованием fp16?

Как пройти обучение с использованием fp16 & train_image_classifier.py? Я использую трансферное обучение на основе предварительно обученной модели pnasnet из Slim Zoo. Насколько я понимаю, модель загружается и тренируется с использованием fp32 по умо…
18 июн '19 в 03:06
0 ответов

Как правильно выполнить вывод под float16 с помощью Tensorflow на C++?

Я работаю над проектом, который очень требует скорости вывода. Я выполнил процесс вывода с помощью float32, но скорость не достигла цели, поэтому я пытаюсь сделать вывод с половинной точностью, чтобы увидеть, ускорит ли это процесс. У меня есть пред…
24 авг '20 в 13:25
0 ответов

числа с плавающей запятой половинной точности

Я хочу использовать числа с плавающей запятой половинной точности в C++ на процессоре ARM. Я хочу использовать числа половинной точности в арифметических целях. Я не знаю, как определить половинные числа в C++? Есть ли в C++ какой-либо тип данных дл…
17 окт '19 в 12:37
1 ответ

Кодирование чисел в IEEE754 половинной точности

У меня быстрый вопрос о проблеме, которую я пытаюсь решить. Для решения этой проблемы мне нужно преобразовать (0,0A)16 в стандарт IEEE754 с плавающей запятой половинной точности. Я преобразовал его в двоичный (0000.0000 1010), нормализовал (1.010 * …
12 дек '19 в 20:30
0 ответов

Поддержка C++ _Float16

Я хочу выполнять вычисления с плавающей точкой половинной точности на Jetson AGX Xavier(с архитектурой armv8.2), который изначально поддерживает плавающую точку половинной точности. Поскольку тип данных _Float16 является арифметическим типом данных …
11 мар '20 в 00:54
1 ответ

Обучение с Keras / TensorFlow в fp16 / половинной точности для карт RTX

У меня только что появился RTX 2070 Super, и я хотел бы попробовать тренировку с половинной точностью с использованием Keras и серверной части TensorFlow. Пока что я нашел статьи, подобные этой, в которых предлагается использовать следующие настройк…
25 окт '19 в 18:20