Встраивания Langchain с несколькими источниками данных
Прежде всего извините, если мой вопрос окажется глупым или не будет иметь особого смысла, у меня не так много опыта работы с langchain и в целом с LLM.
Итак, у меня есть следующий сценарий
мне нужно использовать в качестве встраивания книгу (300 страниц), чтобы проинструктировать OpenAI, как использовать и как получать информацию из списка требований.
Мне также нужно передать очень большой список требований в качестве источника входных данных.
и мне нужно попросить LLM проанализировать список требований, получить методологии из документа для анализа и вернуть список результатов, полученных в результате этого анализа.
Например:
Список требований:
- машина должна иметь две двери
- в каждой двери машины есть хотя бы одно окно
Содержание книги, позволяющее определить, является ли автомобиль семейным или спортивным автомобилем, также важно проверить количество дверей.
Вопрос: Дайте список требований, пожалуйста, не могли бы вы предоставить мне, какой тип автомобиля и, возможно, список уже существующих автомобилей на рынке.
Я знаю, что этот пример довольно глупый, но он позволяет понять, что у меня разные источники и к ним нужно относиться по-разному.
Итак, мой вопрос:
Возможно ли это сделать в langchain или с помощью какой-либо библиотеки? если да, не могли бы вы помочь мне привести пример?
Я уже провел несколько тестов с использованием ChromaDB, но проблема в том, что у меня есть только одна база данных для всей информации, и результаты очень и очень плохие.
заранее спасибо
1 ответ
Посмотрите бесплатный краткий курс LangChain: Chat with Your Dataздесь .
Мне очень помогло!