Как правильно настроить модель OpenAI LLM с использованием их API?
const port = process.env.PORT || 3080;
app.listen(port, () => {
console.log(`Example app listening on port ${port}`);
});
app.post("/firegpt", async (req, res) => {
const { conversation } = req.body;
app.use(express.static(path.join(__dirname, "dist")));
app.get("*", function (req, res) {
res.sendFile(path.join(__dirname, "dist", "index.html"));
});
let message = `I am FireGPT - I know all about firefighting. I''m here to answer all of your questions about fire-fighting and what fire-fighters do.
`;
conversation.forEach((msg) => {
if (msg.role === "user") {
message += `User: ${msg.message}\n`;
} else if (msg.role === "assistant") {
message += `${msg.message.replace("Fire DBT: ", "")}\n`; // <-- Updated line
}
});
const response = await openai.createChatCompletion({
model: "gpt-3.5-turbo-16k",
messages: [
{
role: "assistant",
content: message,
},
{
role: "user",
content: "",
},
],
temperature: 1.3,
max_tokens: 1131,
top_p: 1,
frequency_penalty: 0.8,
presence_penalty: 1.1,
});
res.json({
message: "FireGPT: " + response.data.choices[0].message.content.trim(),
});
});
Могу ли я изменитьlet message
переменную в JSON и просто импортируйте столько данных, сколько захочу, или как правильно реализовать точную настройку с учетом этого бэкэнд-экспресс API? У меня проблемы с поиском хорошего YouTube и проблемы с DOC, я новичок в программировании.
Спасибо!