Не в состоянии правильно пометить предложение хинди
Недавно я начал проект по обработке данных на хинди. Я попытался выполнить определенный ниже код, но не получил ожидаемый результат.
e = u"पूर्ण प्रतिबंध हटाओ : इराक"
tokens=nltk.word_tokenize(e)
from nltk import pos_tag
print tokens
tag = nltk.pos_tag(tokens)
print tag
Вывод, который я получил, показан ниже:
[u'\u092a\u0942\u0930\u094d\u0923', u'\u092a\u094d\u0930\u0924\u093f\u092c\u0902\u0927', u'\u0939\u091f\u093e\u0913', u':', u'\u0907\u0930\u093e\u0915']
[(u'\u092a\u0942\u0930\u094d\u0923', 'NN'), (u'\u092a\u094d\u0930\u0924\u093f\u092c\u0902\u0927', '``'), (u'\u0939\u091f\u093e\u0913', ':'), (u':', ':'), (u'\u0907\u0930\u093e\u0915', ':')]
Мой запрос помечает первое слово моего ввода как существительное, а остальные помечены неправильно. Тот же запрос дает правильный вывод для английских данных.
Что я делаю не так? Есть ли какая-то конкретная функция, которую я должен использовать для пометки данных хинди.
Спасибо за помощь.
1 ответ
Решение
Ты можешь использовать tnt
Tagger для обучения, а затем тестирования с вашими собственными данными.
word_to_be_tagged = u"पूर्ण प्रतिबंध हटाओ : इराक"
word_to_be_tagged_next = u"मैं बहुत हैरान हूँ"
from nltk.corpus import indian
train_data = indian.tagged_sents('hindi.pos')[:300] //used for training
test_data = indian.tagged_sents('hindi.pos')[301:] //used for testing
print train_data
[[(u'\u092a\u0942\u0930\u094d\u0923', u'JJ'), (u'\u092a\u094d\u0930\u0924\u093f\u092c\u0902\u0927', u'NN'), (u'\u0939\u091f\u093e\u0913', u'VFM'), (u':', u'SYM'), (u'\u0907\u0930\u093e\u0915', u'NNP')], [(u'\u0938\u0902\u092f\u0941\u0915\u094d\u0924', u'NNC'), (u'\u0930\u093e\u0937\u094d\u091f\u094d\u0930', u'NN'), (u'\u0964', u'SYM')], ...]
print hindi_sents[0][0][0]
पूर्ण
print hindi_sents[0][0][1]
JJ
from nltk.tag import tnt
tnt_pos_tagger = tnt.TnT()
tnt_pos_tagger.train(train_data)
tnt_pos_tagger.evaluate(test_data)
0.6599664991624791
tnt_pos_tagger.tag(nltk.word_tokenize(word_to_be_tagged))
[(u'\u092a\u0942\u0930\u094d\u0923', u'JJ'),
(u'\u092a\u094d\u0930\u0924\u093f\u092c\u0902\u0927', u'NN'),
(u'\u0939\u091f\u093e\u0913', u'VFM'),
(u':', u'SYM'),
(u'\u0907\u0930\u093e\u0915', u'NNP')]
tnt_pos_tagger.tag(nltk.word_tokenize(word_to_be_tagged_next))
[(u'\u092e\u0948\u0902', u'PRP'),
(u'\u092c\u0939\u0941\u0924', u'INTF'),
(u'\u0939\u0948\u0930\u093e\u0928', 'Unk'),
(u'\u0939\u0942\u0901', 'Unk')]