Встраивания Langchain с несколькими источниками данных

Прежде всего извините, если мой вопрос окажется глупым или не будет иметь особого смысла, у меня не так много опыта работы с langchain и в целом с LLM.

Итак, у меня есть следующий сценарий

мне нужно использовать в качестве встраивания книгу (300 страниц), чтобы проинструктировать OpenAI, как использовать и как получать информацию из списка требований.

Мне также нужно передать очень большой список требований в качестве источника входных данных.

и мне нужно попросить LLM проанализировать список требований, получить методологии из документа для анализа и вернуть список результатов, полученных в результате этого анализа.

Например:

Список требований:

  1. машина должна иметь две двери
  2. в каждой двери машины есть хотя бы одно окно

Содержание книги, позволяющее определить, является ли автомобиль семейным или спортивным автомобилем, также важно проверить количество дверей.

Вопрос: Дайте список требований, пожалуйста, не могли бы вы предоставить мне, какой тип автомобиля и, возможно, список уже существующих автомобилей на рынке.

Я знаю, что этот пример довольно глупый, но он позволяет понять, что у меня разные источники и к ним нужно относиться по-разному.

Итак, мой вопрос:

Возможно ли это сделать в langchain или с помощью какой-либо библиотеки? если да, не могли бы вы помочь мне привести пример?

Я уже провел несколько тестов с использованием ChromaDB, но проблема в том, что у меня есть только одна база данных для всей информации, и результаты очень и очень плохие.

заранее спасибо

1 ответ

Посмотрите бесплатный краткий курс LangChain: Chat with Your Dataздесь .

Мне очень помогло!

Другие вопросы по тегам