From 0e849085c5e8f640414886f8d642897dbcf5a567 Mon Sep 17 00:00:00 2001 From: =?UTF-8?q?=D0=90=D1=80=D1=82=D1=91=D0=BC?= Date: Mon, 12 Aug 2024 08:52:37 +0300 Subject: [PATCH] =?UTF-8?q?=D0=97=D0=B0=D0=B1=D1=8B=D0=BB=20=D0=BF=D0=BE?= =?UTF-8?q?=D0=BC=D0=B5=D0=BD=D1=8F=D1=82=D1=8C=20=D0=BD=D0=B0=D0=B7=D0=B2?= =?UTF-8?q?=D0=B0=D0=BD=D0=B8=D0=B5=20=D0=BC=D0=BE=D0=B4=D0=B5=D0=BB=D0=B8?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- content/posts/nextcloud_x_litellm_x_ollama.md | 10 ++++------ 1 file changed, 4 insertions(+), 6 deletions(-) diff --git a/content/posts/nextcloud_x_litellm_x_ollama.md b/content/posts/nextcloud_x_litellm_x_ollama.md index dfd7ce0..277fa25 100644 --- a/content/posts/nextcloud_x_litellm_x_ollama.md +++ b/content/posts/nextcloud_x_litellm_x_ollama.md @@ -93,14 +93,12 @@ pipx install 'litellm[proxy]' ```bash model_list: - - model_name: llama3 + - model_name: saiga-llama3 litellm_params: - model: ollama/llama3 - - model_name: qwen2 + model: ollama/saiga-llama3 + - model_name: название_модели litellm_params: - model: ollama/qwen2 - -# ну далее по шаблону, если есть другие модели + model: ollama/название_модели ``` ### Сервис systemd {#litellm_systemd} Затем я сделал **systemd** сервис, чтобы не запускать это дело ручками, он должен располагаться в