Почему мой scipy.optimize.minimize терпит неудачу?

Я пытаюсь с fmin_bfgs, чтобы найти локальный минимум абсолютной функции abs(x), Начальная точка установлена ​​на 100,0; ожидаемый ответ - 0,0. Тем не менее, я получаю:

In [184]: op.fmin_bfgs(lambda x:np.abs(x),100.0)
Warning: Desired error not necessarily achieved due to precision loss.
         Current function value: 100.000000
         Iterations: 0
         Function evaluations: 64
         Gradient evaluations: 20
Out[184]: array([100.0])

Зачем?

1 ответ

Решение

Такие методы, как fmin_bfgs и fmin_slsqp, требуют гладких функций (с непрерывной производной), чтобы обеспечить надежные результаты. abs(x) имеет двойственную производную в своем минимуме. Такой метод, как симплекс Нелдера-Мида, который не требует непрерывных производных, может обеспечить лучшие результаты в этом случае.

Другие вопросы по тегам