Как правильно настроить модель OpenAI LLM с использованием их API?

      const port = process.env.PORT || 3080;

app.listen(port, () => {
  console.log(`Example app listening on port ${port}`);
});

app.post("/firegpt", async (req, res) => {
  const { conversation } = req.body;

  app.use(express.static(path.join(__dirname, "dist")));

  app.get("*", function (req, res) {
    res.sendFile(path.join(__dirname, "dist", "index.html"));
  });

  let message = `I am FireGPT -  I know all about firefighting. I''m here to answer all of your questions about fire-fighting and what fire-fighters do.
`;

  conversation.forEach((msg) => {
    if (msg.role === "user") {
      message += `User: ${msg.message}\n`;
    } else if (msg.role === "assistant") {
      message += `${msg.message.replace("Fire DBT: ", "")}\n`; // <-- Updated line
    }
  });
  const response = await openai.createChatCompletion({
    model: "gpt-3.5-turbo-16k",
    messages: [
      {
        role: "assistant",
        content: message,
      },
      {
        role: "user",
        content: "",
      },
    ],
    temperature: 1.3,
    max_tokens: 1131,
    top_p: 1,
    frequency_penalty: 0.8,
    presence_penalty: 1.1,
  });
  res.json({
    message: "FireGPT: " + response.data.choices[0].message.content.trim(),
  });
});

Могу ли я изменитьlet messageпеременную в JSON и просто импортируйте столько данных, сколько захочу, или как правильно реализовать точную настройку с учетом этого бэкэнд-экспресс API? У меня проблемы с поиском хорошего YouTube и проблемы с DOC, я новичок в программировании.

Спасибо!

0 ответов

Другие вопросы по тегам