Логиты и логистическая регрессия - это одно и то же?

У меня есть следующий фрагмент кода, который используется для предсказания сходства текста:

text_A = 'Some sentence .'
text_B = 'Another sentence .'

encoded_inputs = tokenizer.encode_plus(text_A, text_B, add_special_tokens=True, return_token_type_ids=True)
subwords, token_type_ids = encoded_inputs["input_ids"], encoded_inputs["token_type_ids"]

subwords = torch.LongTensor(subwords).view(1, -1).to(model.device)
token_type_ids = torch.LongTensor(token_type_ids).view(1, -1).to(model.device)

logits = model(subwords, token_type_ids)[0]
label = torch.topk(logits, k=1, dim=-1)[1].squeeze().item()

print(f'Text A: {text_A}')
print(f'Text B: {text_B}')
print(f'Label : {i2w[label]} ({F.softmax(logits, dim=-1).squeeze()[label] * 100:.3f}%)')

Когда я печатаю logits переменная, она дает результат вроде [-0.4221, 0.9551] поэтому я прихожу к выводу, что logitsпеременная хранит исходное значение прогноза (называемое логитами), которое будет передано в функцию нормализации, такую ​​как softmax.

Но что меня до сих пор смущает, так это то, что логиты и логистическая регрессия - это одно и то же? Я просто не могу сделать вывод, использует ли приведенный выше фрагмент кода только логиты или также использует логистическую регрессию для прогнозирования вероятности сходства текста. У кого-нибудь есть четкий ответ по этому поводу?

Заранее спасибо.

0 ответов

Другие вопросы по тегам