Описание тега llama-index

0 ответов

Как загрузить модель Лораса из таблицы лидеров Huggingface?

В open_llm_leaderboard есть много интересных моделей 30b loras с чрезвычайно хорошей производительностью. Но КАК Я МОГУ ЭТО ЗАГРУЗИТЬ без адаптера_config.json? Мне очень жаль, что я новичок в этой области, но, если я не правильно понял, при наличии …
23 июл '23 в 15:38
0 ответов

Как я могу сохранить ObjectIndex в своей файловой системе, чтобы мне не приходилось каждый раз заново создавать его с помощью LlamaIndex?

Начну с того, что я совершенно новичок в этом, поэтому очень благодарен за любую помощь, которую могу получить! У меня есть следующий код (из одного из примеров SQL с сайта LlamaIndex) engine = create_engine('url') sql_database = SQLDatabase(engine)…
11 июл '23 в 13:08
1 ответ

Как я могу использовать графический процессор в GPTVectorStoreIndex

Я работаю над проектом, в котором хочу обучить/настроить чатgpt, как в моей собственной модели, и для этого я использую приведенный ниже код. Я могу получить результат, однако я хочу использовать графический процессор для большей скорости. from gpt_…
02 май '23 в 13:34
1 ответ

Защита данных при индексировании и запросе собственных документов с помощью LlamaIndex и LangChain

у нас есть некоторые конфиденциальные данные, которые мы хотим использовать для приема данных, индексирования данных локально, но не следует отправлять извне из сети компании. В этом случае, например, langchain.vectorstores хранит локально для прием…
21 апр '23 в 00:33
0 ответов

Как добавить полнотекстовый поиск в llamaindex

Я делаю чат-бота, способного обсуждать фильмы с помощью langchain и llamaindex. Я следую этому руководству . Я бы хотел, чтобы llamaindex выполнял не только поиск по векторному knn, но и добавлял некоторые результаты на основе прямых попаданий по кл…
02 сен '23 в 09:53
0 ответов

Невозможно загрузить индексный файл S3 с помощью индекса Llama.

Я пытаюсь загрузить индексный файл Llama, который я уже создал и сохранил в S3. Это пример кода, предоставленный документацией Llama Index (https://gpt-index.readthedocs.io/en/latest/how_to/storage/save_load.html). Однако когда я использую этот код …
20 июн '23 в 21:06
2 ответа

Точная настройка Llama для немаркированных данных

Я хотел бы использовать Llama для создания диалогового чат-бота, который будет отвечать на вопросы в научных новостных статьях. Могу ли я использовать коллекцию немаркированных научных статей для тонкой настройки Llama и «увеличения ее словарного за…
07 июн '23 в 02:04
1 ответ

Ошибка импорта: невозможно импортировать имя «load_index_from_storage» из «llama_index».

Я столкнулся с ошибкой, когда пытался запустить пример кода в git Llammaindex 0.6.5. Как правильно импортировать load_index_from_storage? или есть какая-то альтернатива? Язык: питон. IDE: VScode. from llama_index import GPTVectorStoreIndex, SimpleDi…
11 май '23 в 09:31
0 ответов

StreamResponse FastAPI с Llama_index

Я пытаюсь передать ответ моего чат-агента. Я действительно новичок в Python и пытаюсь научиться делать подобные вещи. Это идентификатор кода: async def chat(input_text): custom_prompt = Prompt( """ xxx """ ) try: query_engine = index.as_query_engine…
03 авг '23 в 19:06
1 ответ

Ошибка ImportError: невозможно импортировать имя SimpleDirectoryReader из llama_index (неизвестное местоположение)

from llama_index import SimpleDirectoryReader, ServiceContext, VectorStoreIndex from llama_index.llms import OpenAI При попытке импорта выше я получаю следующую ошибку: Ошибка ImportError: невозможно импортировать имя SimpleDirectoryReader из llama…
03 авг '23 в 22:52
1 ответ

ModuleNotFoundError: нет модуля с именем «llama_index.langchain_helpers.chatgpt».

Я хотел бы использоватьChatGPTLLMPredictorотllama_index.langchain_helpers.chatgpt, но на M1 Macbook Air я получил ошибку ниже. ModuleNotFoundError: No module named 'llama_index.langchain_helpers.chatgpt' Мой код выглядит так, и проблема в строке 3. …
0 ответов

Как я могу устранить ошибку атрибута в llama_index в Google Colab

AttributeError Traceback (последний вызов, последний) в <строке ячейки: 1>() ----> 1 Ask_ai() 2 кадра /usr/local/lib/python3.10/dist-packages/llama_index/indices/loading.py в load_indices_from_storage(storage_context, index_ids, **kwargs) 6…
04 май '23 в 13:11
1 ответ

API ChatGPT Специально обученный чат-бот с искусственным интеллектом, отвечающий «Нет» на запрос Python

Я подключаюсь к своему первому чат-боту. На основе процесса, описанного здесь:https://beebom.com/how-train-ai-chatbot-custom-knowledge-base-chatgpt-api/ Я создал код, который он предложил, чтобы ChatGPT анализировал мой PDF-файл. Однако код был немн…
28 авг '23 в 03:29
1 ответ

использовать индекс ламы для создания вложений для коммерческого трубопровода

У меня есть код Python 3 ниже. В коде я использую llama_index из мета для создания индексного объекта из моего собственного текстового корпуса. Затем я передаю запросы этому индексному объекту, чтобы получить ответы от чата openai, используя мой доп…
2 ответа

Непредвиденная ошибка аргумента ключевого слова Llama_index в модели ChatGPT Python

Я тестирую пару широко опубликованных моделей GPT, просто пытаясь намочить ноги, и сталкиваюсь с ошибкой, которую не могу устранить. Я запускаю этот код: from llama_index import SimpleDirectoryReader, GPTListIndex, GPTSimpleVectorIndex, LLMPredictor…
03 апр '23 в 22:27
1 ответ

Как я могу индексировать таблицы вместе с текстами, присутствующими в PDF-файле, с помощью Llammaindex и LangChain? (я использую ключ Openai)

def ask(file): print(" Loading...") PDFReader = download_loader("PDFReader") loader = PDFReader() documents = loader.load_data(file=Path(file)) print("Path: ", Path(file)) # Check if the index file exists if os.path.exists(INDEX_FILE): # Load the i…
1 ответ

Ошибка механизма запросов (Python, OpenAI, Pinecone, Llama_Index)

Некоторое время я использовал старую версию llama_index, я только что обновил пакет, и многое в синтаксисе изменилось... В настоящее время я пытаюсь использовать Pinecode для векторных индексов и OpenAI для встраивания и завершения. Это мой код: wit…
2 ответа

llama_index получает документ, на который ссылается node_sources

Я получаю хорошие результаты, когда llama_index индексирует PDF-файлы, однако мне не удается определить, в каком PDF-файле он нашел результаты, чтобы основывать свои ответы. result.node_sources использует идентификатор документа, который, по-видимом…
22 май '23 в 16:13
1 ответ

Используйте LlamaIndex для загрузки пользовательской модели LLM.

Я тестирую LlamaIndex, используя модели Vicuna-7b или 13b. Я столкнулся с проблемой, из-за которой использование памяти модели при загрузке в память ЦП выглядит нормальным. Однако, когда я помещаю его на графический процессор, кажется, что использов…
30 май '23 в 11:42
1 ответ

Llama-index, как выполнить поисковый запрос по индексу OpenSearch Elasticsearch?

У меня есть этот код, в котором я могу создать индекс в Opensearch Elasticsearch: def openes_initiate(file): endpoint = getenv("OPENSEARCH_ENDPOINT", "http://localhost:9200") # index to demonstrate the VectorStore impl idx = getenv("OPENSEARCH_INDEX…