Оллама с Docker

Привет. Можете ли вы помочь мне отладить это:

Я нажал докер llama2 и вызываю его по ссылке https, и он активен.

Я перетащил llama2:70b в этот экземпляр.

У меня в браузере написано «Оллама работает», я могу получить доступ с помощью API/тегов.

Теперь, когда я вызываю свою модель следующим образом:

      chat_model = ChatOllama(
            base_url="https://mylink", model="llama2:70b", verbose=True, callback_manager=callback_manager, 
        )

Тогда я делаю

      chain = RetrievalQA.from_chain_type(llm=chat_model_2...)

и попробуй сделать

      chain(MYQUERY)

у меня ошибка.

если я использую ChatOllama и указываю свой местный житель, все работает нормально.

Любая помощь, пожалуйста?

Использование Ollama с Docker на другом экземпляре. Ожидается, что вы будете работать так же, как вы развертываете модель на своем локальном компьютере, но это не так.

0 ответов

Другие вопросы по тегам