Как отправить метаданные в LLM вместе с документами и контекстом?

Как я могу включить метаданные документа из векторной базы данных (в моем случае Qdrant) и отправить их вместе с контекстом в LLM (в моем случае OpenAI). Например, я храню анонимные резюме в своей векторной базе данных, и каждое из них имеет метаданные с источником (имя файла), как я могу включить их и попросить OpenAI ответить мне этими метаданными?Пример полезной нагрузки (сохранена небольшая часть содержимого страницы):

{"metadata":{"page":0,"source":"C:\Users\username\Desktop\resumes_dataset\50328713.pdf"},"page_content":"Прогнозируемая производительность многослойных \nметаллических сетчатых экранов. SPE Бурение и заканчивание. SPE-178955-PA. https://blablabla.org/10.2118/178955-PA."}

Пример звонка в LLM:

          def run_llm(query: str):
    chat = ChatOpenAI(verbose=True, temperature=0)
    qa = RetrievalQA.from_chain_type(llm=chat, chain_type="stuff", retriever=qdrant.as_retriever(),
                                     return_source_documents=True)
    return qa({"query": query})


print(run_llm(query="Which unique resume has the longest working experience as accountant?"))

Он отлично справляется с поиском правильного ответа, но я не могу заставить его ответить мне именем документа, только включив return_source_documents=True, он показывает мне, где он нашел ответ.

0 ответов

Другие вопросы по тегам