Кто может помочь мне понять "torch.einsum('ijh,jhf->ihf', a, g)"?
Когда я следовал руководству по реализации GAT(Graph Attention Network) здесь. В строке 191:attn_res = torch.einsum('ijh,jhf->ihf', a, g)
, я не знаю, как работает правило. Затем я пошел к документу Pytorch и заметил предложение:
Например, следующее уравнение вычисляет транспонирование матричного умножения: 'ij,jk->ki'.
Я могу понять это, но я просто не могу понятьijh,jhf->ihf
, может мне кто-нибудь помочь?
Я просто не понимаю вещи раньше, нечего пробовать.