Описание тега half-precision-float
16-битная плавающая точка половинной точности
1
ответ
Арифметика с плавающей точкой половинной точности на чипах Intel
Можно ли выполнить арифметику с плавающей запятой половинной точности на чипах Intel? Я знаю, как загружать / хранить / преобразовывать числа с плавающей запятой половинной точности [1], но я не знаю, как добавить / умножить их без преобразования в …
24 апр '18 в 07:19
1
ответ
tf.keras.layers.Conv2D() не работает с бэкэндом Keras, установленным в float16
Я пытаюсь обучить CNN в Google Colab (также пробовал с Tesla v100), с бэкэндом keras, установленным на float16. tf.keras.backend.set_floatx('float16') но он выдает ошибку при компиляции модели с Conv2D. model = tf.keras.models.Sequential([ tf.keras.…
20 май '19 в 13:55
0
ответов
Как получить представление числа с плавающей запятой половинной точности?
Я хочу получить двоичное представление переменной x в представлении с плавающей точкой половинной точности. x может быть любым (например, -1.25 или 10 и т. д.). Я перепробовал несколько вещей, но не могу понять это правильно.Я попытался сделать свою…
18 апр '19 в 17:23
0
ответов
Почему базовое обучение смешанной точности CNN не работает с тензорным потоком (разветвление NVIDA)?
Я пытаюсь обучить основному CNN, используя смешанную точность, т.е. используя тензорные ядра RTX 2080. Код прекрасно работает с tenorflow 13.1 в Ubuntu, но завершается неудачно с вилкой tenorflow от nvidia, говоря "Переменные не найдены". Понятия не…
07 май '19 в 16:42
0
ответов
Почему размеры тензоров должны быть кратны 8 при использовании смешанной точности для обучения модели?
Так что я недавно искал смешанную точность обучения и наткнулся на эту ссылку, Еще одна ссылка, чтобы убедиться, что приведенная выше информация подходит от Nvidia Из раздела 2.2 На практике более высокая производительность достигается, когда размер…
12 июн '19 в 11:52
1
ответ
С плавающей точкой с половиной точности
У меня небольшой вопрос по поводу полу-точности IEEE-754. 1) У меня есть следующее упражнение: 13,7625 должно быть записано в 16 битах (половина точности) поэтому я начал преобразовывать число из DEC в двоичное, и я получил это 13,7625 = 1101.110000…
29 июн '19 в 03:15
0
ответов
Почему сложная арифметика с половинной точностью не поддерживается в Python и CUDA?
NumPY имеет complex64, соответствующий двум типам float32. Но он также имеет float16, но не сложный32. Как придешь? У меня есть расчет обработки сигналов с использованием БПФ, где я думаю, что я буду в порядке с complex32, но я не вижу, как туда доб…
26 июн '19 в 20:00
1
ответ
Как сделать свертку с fp16(Eigen::half) на тензорном потоке
Как я могу использовать tenorflow, чтобы сделать свертку, используя fp16 на GPU? (Python API, используя __half или Eigen::half). Я хочу протестировать модель с fp16 на тензорном потоке, но я застрял. На самом деле я обнаружил, что свертка fp16 в тен…
21 авг '19 в 15:01
0
ответов
NoneTenor 2tensor float16 Использование графического процессора ниже, чем float
Когда я изменяю tenor2tensor на float16, моя загрузка графического процессора низкая, иногда она будет равна 0%, когда я использую процессор до 2000, загрузка графического процессора будет выше, чем раньше. Linux Centos 7 TITAN V тензор потока 1,14 …
10 июл '19 в 06:35
1
ответ
Является ли TensorRT режим точности с плавающей точкой 16 недетерминированным на Jetson TX2?
Я использую прецизионный режим TensorRT FP16 для оптимизации моей модели глубокого обучения. И я использую эту оптимизированную модель на Jetson TX2. При тестировании модели я заметил, что механизм вывода TensorRT не является детерминированным. Друг…
19 июл '19 в 19:12
1
ответ
Отчет о тренировке смешанной точности RET_CHECK, ShapeUtil::Equal(first_reduce->shape(), inst->shape())
Новая настройка: 2x2080ti Драйвер Nvidia: 430 Cuda 10.0 Cudnn 7.6 Tensorflow 1.13.1 Старая настройка: 2x1080ti Nvidia драйвер:410 Cuda 9.0 Tensorflow 1.10 Я реализовал модель для сегментации, она может быть обучена под FP32 или смешанной точностью (…
04 июн '19 в 07:49
0
ответов
Tensorflow автоматическая смешанная точность fp16 медленнее, чем fp32 на официальном реснете
Я пытаюсь использовать официальные тесты модели ResNet с https://github.com/tensorflow/models/blob/master/official/resnet/estimator_benchmark.py чтобы поэкспериментировать с поддержкой AMP, включенной в tensorflow-gpu==1.14.0rc0, Я работаю на 2080 T…
04 июн '19 в 19:36
0
ответов
Ошибка точности преобразования при преобразовании с плавающей точкой половинной точности IEE в десятичную
У меня есть некоторые ошибки точности при преобразовании из 16-битного формата с плавающей запятой половинной точности в десятичный. Он способен точно конвертировать определенные числа, в то же время не точно для других. Код был изначально разработа…
05 авг '19 в 11:34
1
ответ
Заполнение MTLBuffer 16-битными числами
Я заполняю MTLBuffer векторами float2. Буфер создается и заполняется так: struct Particle { var position: float2 ... } let particleCount = 100000 let bufferSize = MemoryLayout<Particle>.stride * particleCount particleBuffer = device.makeBuffer…
11 июн '19 в 01:00
0
ответов
Как тренировать (передавать обучение) тонкую модель с использованием fp16?
Как пройти обучение с использованием fp16 & train_image_classifier.py? Я использую трансферное обучение на основе предварительно обученной модели pnasnet из Slim Zoo. Насколько я понимаю, модель загружается и тренируется с использованием fp32 по умо…
18 июн '19 в 03:06
0
ответов
Как правильно выполнить вывод под float16 с помощью Tensorflow на C++?
Я работаю над проектом, который очень требует скорости вывода. Я выполнил процесс вывода с помощью float32, но скорость не достигла цели, поэтому я пытаюсь сделать вывод с половинной точностью, чтобы увидеть, ускорит ли это процесс. У меня есть пред…
24 авг '20 в 13:25
0
ответов
числа с плавающей запятой половинной точности
Я хочу использовать числа с плавающей запятой половинной точности в C++ на процессоре ARM. Я хочу использовать числа половинной точности в арифметических целях. Я не знаю, как определить половинные числа в C++? Есть ли в C++ какой-либо тип данных дл…
17 окт '19 в 12:37
1
ответ
Кодирование чисел в IEEE754 половинной точности
У меня быстрый вопрос о проблеме, которую я пытаюсь решить. Для решения этой проблемы мне нужно преобразовать (0,0A)16 в стандарт IEEE754 с плавающей запятой половинной точности. Я преобразовал его в двоичный (0000.0000 1010), нормализовал (1.010 * …
12 дек '19 в 20:30
0
ответов
Поддержка C++ _Float16
Я хочу выполнять вычисления с плавающей точкой половинной точности на Jetson AGX Xavier(с архитектурой armv8.2), который изначально поддерживает плавающую точку половинной точности. Поскольку тип данных _Float16 является арифметическим типом данных …
11 мар '20 в 00:54
1
ответ
Обучение с Keras / TensorFlow в fp16 / половинной точности для карт RTX
У меня только что появился RTX 2070 Super, и я хотел бы попробовать тренировку с половинной точностью с использованием Keras и серверной части TensorFlow. Пока что я нашел статьи, подобные этой, в которых предлагается использовать следующие настройк…
25 окт '19 в 18:20