Метод "альтернативной оптимизации" для обучения нескольких метрик
В процессе обучения метрическому обучению, если функция стоимости выпуклая, я могу использовать метод градиентного спуска и получить оптимальное решение.
Теперь я хочу обучить N(N может быть очень большой, например, 100) метрик из обучающего набора, и один метод состоит в том, чтобы отрегулировать функцию стоимости, чтобы позволить этим N метрикам объединяться в качестве большой матрицы метрик и использовать метод градиентного спуска, Тем не менее, если N очень большое, этот метод не очень хорош, в таком состоянии, есть ли какой-нибудь метод "альтернативной оптимизации", который я могу использовать? Хорошо, что я исправляю 2-ю и N-ю метрики и делаю градиентный спуск только для 1-ую метрику и затем исправьте 1-ую, 3-ую и N-ую метрику и сделайте градиентный спуск только для 2-й метрики. Есть ли существенное условие для такого метода "альтернативной оптимизации"
1 ответ
Метод АО не может получить оптимальное решение, даже локальное оптимальное решение не может быть. потому что N выпуклые задачи не могут одновременно достичь условий ККТ.