Логиты и логистическая регрессия - это одно и то же?
У меня есть следующий фрагмент кода, который используется для предсказания сходства текста:
text_A = 'Some sentence .'
text_B = 'Another sentence .'
encoded_inputs = tokenizer.encode_plus(text_A, text_B, add_special_tokens=True, return_token_type_ids=True)
subwords, token_type_ids = encoded_inputs["input_ids"], encoded_inputs["token_type_ids"]
subwords = torch.LongTensor(subwords).view(1, -1).to(model.device)
token_type_ids = torch.LongTensor(token_type_ids).view(1, -1).to(model.device)
logits = model(subwords, token_type_ids)[0]
label = torch.topk(logits, k=1, dim=-1)[1].squeeze().item()
print(f'Text A: {text_A}')
print(f'Text B: {text_B}')
print(f'Label : {i2w[label]} ({F.softmax(logits, dim=-1).squeeze()[label] * 100:.3f}%)')
Когда я печатаю
logits
переменная, она дает результат вроде
[-0.4221, 0.9551]
поэтому я прихожу к выводу, что
logits
переменная хранит исходное значение прогноза (называемое логитами), которое будет передано в функцию нормализации, такую как
softmax
.
Но что меня до сих пор смущает, так это то, что логиты и логистическая регрессия - это одно и то же? Я просто не могу сделать вывод, использует ли приведенный выше фрагмент кода только логиты или также использует логистическую регрессию для прогнозирования вероятности сходства текста. У кого-нибудь есть четкий ответ по этому поводу?
Заранее спасибо.