Как я могу извлечь GPE(местоположение), используя NLTK ne_chunk?
Я пытаюсь реализовать код для проверки погодных условий в конкретной области, используя API OpenWeatherMap и NLTK, чтобы найти распознавание имени объекта. Но я не могу найти способ передачи сущности, присутствующей в GPE(которая дает местоположение), в данном случае, Чикаго, в мой запрос API. Пожалуйста, помогите мне с синтаксисом. Код приведен ниже.
Спасибо вам за вашу помощь
import nltk
from nltk import load_parser
import requests
import nltk
from nltk import word_tokenize
from nltk.corpus import stopwords
sentence = "What is the weather in Chicago today? "
tokens = word_tokenize(sentence)
stop_words = set(stopwords.words('english'))
clean_tokens = [w for w in tokens if not w in stop_words]
tagged = nltk.pos_tag(clean_tokens)
print(nltk.ne_chunk(tagged))
1 ответ
GPE
это Tree
метка объекта от предварительно обученного ne_chunk
модель.
>>> from nltk import word_tokenize, pos_tag, ne_chunk
>>> sent = "What is the weather in Chicago today?"
>>> ne_chunk(pos_tag(word_tokenize(sent)))
Tree('S', [('What', 'WP'), ('is', 'VBZ'), ('the', 'DT'), ('weather', 'NN'), ('in', 'IN'), Tree('GPE', [('Chicago', 'NNP')]), ('today', 'NN'), ('?', '.')])
Чтобы пройти дерево, см. Как пройти объект дерева NLTK?
Возможно, вы ищете что-то, что является небольшой модификацией для распознавания именованных сущностей NLTK в списке Python
from nltk import word_tokenize, pos_tag, ne_chunk
from nltk import Tree
def get_continuous_chunks(text, label):
chunked = ne_chunk(pos_tag(word_tokenize(text)))
prev = None
continuous_chunk = []
current_chunk = []
for subtree in chunked:
if type(subtree) == Tree and subtree.label() == label:
current_chunk.append(" ".join([token for token, pos in subtree.leaves()]))
elif current_chunk:
named_entity = " ".join(current_chunk)
if named_entity not in continuous_chunk:
continuous_chunk.append(named_entity)
current_chunk = []
else:
continue
return continuous_chunk
[из]:
>>> sent = "What is the weather in New York today?"
>>> get_continuous_chunks(sent, 'GPE')
['New York']
>>> sent = "What is the weather in New York and Chicago today?"
>>> get_continuous_chunks(sent, 'GPE')
['New York', 'Chicago']
Вот решение, которое я хотел бы предложить для вашей ситуации:
Шаг 1. Word_tokenize,POS_tagging, Имя Entity распознавания: код это:
Xstring = "What is the weather in New York and Chicago today?"
tokenized_doc = word_tokenize(Xstring)
tagged_sentences = nltk.pos_tag(tokenized_doc )
NE= nltk.ne_chunk(tagged_sentences )
NE.draw()
Шаг 2. Извлечение всей именованной сущности после распознавания именной сущности (сделано выше)
named_entities = []
for tagged_tree in NE:
print(tagged_tree)
if hasattr(tagged_tree, 'label'):
entity_name = ' '.join(c[0] for c in tagged_tree.leaves()) #
entity_type = tagged_tree.label() # get NE category
named_entities.append((entity_name, entity_type))
print(named_entities) #all entities will be printed,check at your end once
Шаг 3. Теперь извлеките только теги GPE
for tag in named_entities:
#print(tag[1])
if tag[1]=='GPE': #Specify any tag which is required
print(tag)
Вот мой вывод:
('New York', 'GPE')
('Chicago', 'GPE')