OpenCL BLAS в Юлии

Я действительно поражен языком julia, который реализовал множество алгоритмов машинного обучения для моего текущего проекта. Несмотря на то, что julia 0.2 удается получить отличные результаты от моего MBA 2011 года, превосходящего все другие решения на аналогичном оборудовании Linux (я полагаю, из-за vecLib blas), я бы, конечно, хотел бы большего. Я нахожусь в процессе покупки Radeon 5870 и хотел бы продвинуть свои операции с матрицами там. Я использую в основном только простые операции BLAS, такие как matmul, additios и транспозиции. Я использую компактный синтаксис Джулии A' * B + C и, конечно, хотел бы сохранить его.

Есть ли какой-либо способ (или ожидающий рубеж), который я могу заставить выполнять эти основные операции на GPU? Мне нравятся матрицы с одинарной точностью 2500x2500, поэтому я ожидаю значительного ускорения.

1 ответ

Решение

Я не верю, что интеграция GPU в ядро ​​Юлии запланирована в это время. Одна из ключевых проблем заключается в том, что при переносе данных в и из графического процессора возникают значительные накладные расходы, что делает невозможной замену операций BLAS.

Я ожидаю, что большая часть прогресса в этой области будет на самом деле обеспечена пакетной экосистемой, в частности пакетами в рамках организации JuliaGPU. Я вижу, что там есть пакет CLBLAS.

Другие вопросы по тегам