Описание тега tensorflow-xla

XLA (Accelerated Linear Algebra) - это предметно-ориентированный компилятор для линейной алгебры, который оптимизирует вычисления TensorFlow. Результатом являются улучшения в скорости, использовании памяти и переносимости на серверных и мобильных платформах. Изначально большинство пользователей не увидят больших преимуществ XLA, но могут поэкспериментировать, используя XLA посредством JIT-компиляции или предварительной компиляции (AOT).
2 ответа

Тензор потока XLA не производит файл точек

Я пытаюсь следовать руководству по XLA и JIT ( https://www.tensorflow.org/performance/xla/jit). Согласно https://www.tensorflow.org/performance/xla/jit, когда я запускаю команду https://www.tensorflow.org/performance/xla/jit#step_3_run_with_xla Это …
14 авг '17 в 19:06
0 ответов

Ошибка при запуске Tensorflow из источника с включенным XLA и без графического процессора

Я построил и установил тензор потока из источника с включенным XLA и графическим процессором (в основном я выбрал N для всего, что настраивалось через./config, за исключением включения XLA в качестве Y). Было много предупреждений относительно устаре…
28 июн '17 в 21:35
0 ответов

TensorFlow - XLA_GPU не хватает памяти, а GPU_BFC содержит много свободных байтов

Я использую распределенную программу TensorFlow, и каждая машина оснащена графическим процессором Maxwell Titan X. Я получил ошибку OOM (сообщение об ошибке ниже) в начале программы: tensorflow.python.framework.errors_impl.ResourceExhaustedError: Fa…
05 дек '18 в 20:40
0 ответов

Оптимизация XLA JIT на процессоре

Я пытаюсь взять сохраненную модель (или замороженный график) и включить компиляцию JA JIT. Я использую параметры оптимизации configProto, чтобы установить его на L1, но, похоже, это не имеет никакого значения для выполнения графика TF. Я прочитал, ч…
1 ответ

Чтение TFRecord становится медленным

Я разделил набор данных на 10 файлов tfrecords и хочу прочитать по 100 точек данных из каждой, чтобы создать серию из 10 последовательностей из 100 точек данных. Я использую следующую функцию, чтобы сделать это. Время загрузки данных из tfrecords на…
08 июл '17 в 14:58
1 ответ

Что означает b/xxxx, например b/36865746, в комментариях к коду Tensorflow?

В tensorflow\compiler\xla\service\Flatten_call_graph.h, это говорит: // Flattening associates each call site with a unique computation (for // sequential calling contexts) This simplifies buffer assignment and // points-to analysis (see b/36865746 f…
13 апр '18 в 05:54
1 ответ

Ошибка связи при попытке скомпилировать XLA AOT для Tensorflow

Я пытаюсь следовать этому уроку, чтобы создать пример XLA AOT (с некоторыми вещами из этого). Я смог собрать Tensorflow из исходного кода и заставить XLA JIT работать над небольшим mnist_softmax_xla.py. Шаги, которые я сделал до сих пор: 1) #from te…
1 ответ

Как сбросить тензор потока XLA LLVM IR?

Я использовал следующую команду в Tensorflow 1.2: export TF_XLA_FLAGS='--dump_ir_before_passes=true --dump_temp_products_to=./tmp' для сброса LLVM IR в Tensorflow. Однако файл определения этого флага link_to_the_flag_definition удален в Tensorflow 1…
08 сен '17 в 19:55
2 ответа

Как использовать XLA с C ++ API в тензорном потоке

Tensorflow предоставляет способ запуска графа тензорного потока через XLA, однако в нем ничего не говорится о том, как запустить граф тензорного потока через XLA с использованием API-интерфейса C++. Посоветовать кому-нибудь дать мне какой-нибудь сов…
24 май '17 в 06:08
0 ответов

Тензор потока XLA: ошибка сегмента в __xla_cpu_runtime_EigenMatMulF32

У меня есть нейронная сеть, из которой я создал 3 библиотеки, с tf_library следуя этому примеру: https://www.tensorflow.org/performance/xla/tfcompile Тогда я получаю lib*.pic.a файлы, которые я помещаю в один двоичный файл, используя: native.cc_bina…
20 сен '17 в 15:23
0 ответов

ResourceExhaustedError при попытке определить последовательную модель в Keras в менеджере контекста тензорного потока XLA jit_scope

Итак, моя проблема в том, что я пытаюсь использовать XLA для процессора через Keras, который встроен в TensorFlow 1.8, используя tf.contrib.compiler.jit.experimental_jit_scope (для процессора это единственный способ, которым я знаю, чтобы включить X…
30 сен '18 в 17:01
0 ответов

Как получить тензор потока для оценки формы во время выполнения?

Я хотел бы оценить форму тензора во время выполнения. Я рассчитываю пересечение между двумя наборами. Количество пересечений есть размерность тензора x, При определении графика форма тензора устанавливается на [Dimension(None)], Таким образом, обычн…
1 ответ

Индексирование в тензорном потоке медленнее, чем собирать

Я пытаюсь индексировать в тензор, чтобы получить срез или отдельный элемент из 1d тензоров. Я обнаружил, что при использовании numpy способ индексации [:] а также slice vs tf.gather (почти 30-40%). Также я наблюдаю, что tf.gather имеет значительные …
0 ответов

Реализация AOT Tensorflow: не удается найти узел фида: idx_list_placeholder:0

Я пытаюсь реализовать реализацию AOT тензорного потока. Я добавил следующий код в tenenflow/compiler/aot/BUILD Изображение конфигурации прилагается СТРОИМ При выполнении команды bazel build tenorflow/compiler/aot:graph1 я получаю следующую ошибку: Н…
22 фев '19 в 06:58
1 ответ

Две реализации виртуальной пакетной нормы приводят к двум разным результатам

Вводный вопрос: должны ли оба примера кода приводить к различному поведению на тренировках (любые потери / любой оптимизатор)? # first code inputs1 = tf.placeholder(shape=[16,1,32,32], dtype=tf.float32) inputs2 = tf.placeholder(shape=[16,1,32,32], d…
2 ответа

Невозможно создать окончательный двоичный файл с использованием AOT-компиляции tenorflow для серверной части процессора

Я следовал этому уроку: сборка TensorFlow AOT В соответствии с шагами 1 и 2 я скомпилировал подграф и сгенерировал заголовок (test_graph_tfmatmul.h) и объект (test_graph_tfmatmul.o) файлы; Согласно шагу 3, я использовал пример кода (названный как my…
04 окт '17 в 03:29
2 ответа

Как открыть тензор потока xla

Я попробовал пример в tenorflow / examples / tutorials / mnist и попытался применить xla для ускорения. Однако я не вижу XlaLaunch, как сказал https://www.tensorflow.org/performance/xla/jit. Кроме того, я пытаюсь профилировать время выполнения с пом…
19 окт '18 в 10:00
0 ответов

Есть ли способ объединить полностью подключенный слой (gemm) и активационный слой (relu/sigmoid) на gpu в dnn?

Обычно один слой в dnn состоит из MatMul, BiasAdd, Relu, cuBlas предоставляет Gemm для MatMul, и мы можем сделать BiasAdd и Relu в другом ядре для GPU. Это два вызова GPU lanuch, есть ли способ объединить их всех и сделать их одним? Я заглянул в cuB…
25 окт '17 в 05:03
1 ответ

Tensorflow - XLA | Как TF ops понижен до XLA для обучения

Как тензорные операции снижаются до операций XLA во время тренировок? Файлы в тензорном потоке / компиляторе /tf2xla/kernels определяют только прямой проход / вывод в терминах операций в ComputationBuilder. Этот вопрос относится к " Tensorflow - XLA…
17 июл '17 в 14:06
1 ответ

Является ли добавление измерений вещания?

Дано a = tf.constant([[1, 2, 3], [10, 20, 30], [100, 200, 300], [1000, 2000, 3000]]) все перечисленное ниже эквивалентно b = tf.constant([100000, 200000, 300000]) print((a+b).eval()) bb = tf.constant([[100000, 200000, 300000]]) print((a+bb).eval()) …