Предварительное обучение / повторное обучение регрессии гребня ядра с помощью SKlearn
В настоящее время я обучаю модель регрессии Kernel Ridge на первых 30% набора данных, чтобы предсказать последние 70%. Поскольку у меня есть множество наборов данных, которые в чем-то похожи, я хотел бы использовать уже обученную модель (обученную на всем наборе данных) и подогнать ее к новому набору данных, где параметры и веса не просто перезаписываются, а вместо этого настраиваются на новые данные из старой модели. Просматривая документацию из SKlearns Kernel Ridge Regression, я не могу понять, как это сделать. Я обнаружил, что в других моделях есть функция partial.fit(), но ее нет для KRR.
Поэтому я хотел бы знать, есть ли обходной путь для этого или действительно есть функция, которая может достичь того, что я пытаюсь сделать.