Разница между результатами doublefann и floatfann
Быстрая искусственная нейронная сетевая библиотека имеет центральный тип данных fann_type, который может быть определен как float или double, когда я компилирую пример программы xor train с использованием fannfloat linking, она дает очень отличные результаты, чем fanndouble, в основном итерации обучения в double удваиваются, более сложные программы дают ошибки обучения и не прикрывают.
Может кто-нибудь объяснить, почему выбор типа из float <-> double кардинально меняет поведение библиотеки, в моем понимании float или double просто для перспективы использования, то есть: если вы используете массив float, вы будете использовать fannfloat вот так, результаты не должен сильно меняться.