Ошибка механизма запросов (Python, OpenAI, Pinecone, Llama_Index)
Некоторое время я использовал старую версию llama_index, я только что обновил пакет, и многое в синтаксисе изменилось... В настоящее время я пытаюсь использовать Pinecode для векторных индексов и OpenAI для встраивания и завершения. Это мой код:
with open(file_path, 'r', encoding='utf-8') as file:
content = file.read()
chunk_size = 1000
texts = [content[i:i+chunk_size] for i in range(0, len(content), chunk_size)]
embeddings = LangchainEmbedding(OpenAIEmbeddings(model="text-embedding-ada-002", chunk_size=1))
pinecone_index = pinecone.Index(index_name)
vector_store = PineconeVectorStore(pinecone_index=pinecone_index)
docs = [Document(t) for t in texts]
storage_context = StorageContext.from_defaults(vector_store=vector_store)
service_context = ServiceContext.from_defaults(embed_model=embeddings)
index = GPTVectorStoreIndex.from_documents(docs, storage_context=storage_context, service_context=service_context)
query_engine = index.as_query_engine()
response = query_engine.query(query)
Последняя строка генерирует эту ошибку: «openai.error.InvalidRequestError: необходимо предоставить параметр «engine» или «deployment_id», чтобы создать <класс «openai.api_resources.completion.Completion»>». Я точно не знаю, как это решить. , я не нашел в документации решения, которое бы решало эту проблему с моим текущим кодом. Есть идеи? Заранее спасибо !
(PS: я пытался добавить и изменить множество параметров на разных этапах процесса, но ни один из них, похоже, не решил мою проблему. Моя среда также настроена правильно.)
1 ответ
Кажется, у вас возникли проблемы с настройкой версии OpenAI API и модели развертывания. Я думаю, вам также нужно указать модель LLM. Не просто встраиваемая модель.
Предлагаю вам заполнить параметрllm_predictor
в пределахServiceContext
. Где вы можете указать два вышеуказанных значения с помощью параметра llm объекта ChatGPTLLMPredictor.
ссылка:https://clemenssiebler.com/posts/using-llamaindex-with-turbo-and-azure-openai-service/