Как выучить один общий гауссовский процесс для всех функций gpytorch
Я пытаюсь повторно реализовать пример на этом веб-сайте: https://docs.gpytorch.ai/en/v1.1.1/examples/06_PyTorch_NN_Integration_DKL/Deep_Kernel_Learning_DenseNet_CIFAR_Tutorial.html Где у них есть код:
```class DKLModel(gpytorch.Module):
def __init__(self, feature_extractor, num_dim, grid_bounds=(-10., 10.)):
super(DKLModel, self).__init__()
self.feature_extractor = feature_extractor
self.gp_layer = GaussianProcessLayer(num_dim=num_dim, grid_bounds=grid_bounds)
self.grid_bounds = grid_bounds
self.num_dim = num_dim
def forward(self, x):
features = self.feature_extractor(x)
features = gpytorch.utils.grid.scale_to_bounds(features, self.grid_bounds[0], self.grid_bounds[1])
# This next line makes it so that we learn a GP for each feature
features = features.transpose(-1, -2).unsqueeze(-1)
res = self.gp_layer(features)
return res
model = DKLModel(feature_extractor, num_dim=num_features)
likelihood = gpytorch.likelihoods.SoftmaxLikelihood(num_features=model.num_dim, num_classes=num_classes)
# If you run this example without CUDA, I hope you like waiting!
if torch.cuda.is_available():
model = model.cuda()
likelihood = likelihood.cuda()```
Они упомянули, что изучают один GP для каждой функции, но я хотел бы иметь один и тот же гауссовский язык для всех функций. Кто-нибудь знает, как это сделать?