а теперь смотрите что написала сама openwebui—- _open-webui_logs (19).txt Содержание 52.78% 2026-04-10 07:15:08.285 | INFO | uvicorn.protocols.http.httptools_impl:send:483 — 91.5.108.133:0 — «POST /api/v1/functions/id/raumai_v4/toggle HTTP/1.1» 200 2026-04-10 07:15:08.289 | ERROR | open_webui.routers.ollama:send_get_request:106 — Connection error: Cannot connect to host 10.0.0.20:11434 ssl:default [Connect call failed (‘10.0.0.20’, 11434)] 2026-04-10 07:15:08.419 | INFO | uvicorn.protocols.http.httptools_impl:send:483 — 91.5.108.133:0 — «GET /api/models?refresh=true HTTP/1.1» 200 2026-04-10 07:15:12.021 | INFO | open_webui.routers.openai:get_all_models:479 — get_all_models() 2026-04-10 07:15:12.021 | INFO | open_webui.routers.ollama:get_all_models:311 — get_all_models() 2026-04-10 07:15:12.023 | ERROR | open_webui.routers.ollama:send_get_request:106 — Connection error: Cannot connect to host 10.0.0.20:11434 ssl:default [Connect call failed (‘10.0.0.20’, 11434)] Содержание 52.05% 2026-04-10 07:20:12.625 | INFO | uvicorn.protocols.http.httptools_impl:send:483 — 91.5.108.133:0 — «POST /api/v1/chats/fff07763-01aa-4fc6-b02c-1003db1fcab6 HTTP/1.1» 200 2026-04-10 07:20:17.693 | INFO | uvicorn.protocols.http.httptools_impl:send:483 — 91.5.108.133:0 — «POST /api/chat/completions HTTP/1.1» 200 2026-04-10 07:20:23.236 | INFO | uvicorn.protocols.http.httptools_impl:send:483 — 91.5.108.133:0 — «POST /api/chat/completed HTTP/1.1» 200 2026-04-10 07:20:23.313 | INFO | uvicorn.protocols.http.httptools_impl:send:483 — 91.5.108.133:0 — «POST /api/v1/chats/fff07763-01aa-4fc6-b02c-1003db1fcab6 HTTP/1.1» 200 2026-04-10 07:20:23.343 | INFO | uvicorn.protocols.http.httptools_impl:send:483 — 91.5.108.133:0 — «GET /api/v1/chats/?page=1 HTTP/1.1» 200 2026-04-10 07:20:28.350 | INFO | uvicorn.protocols.http.httptools_impl:send:483 — 91.5.108.133:0 — «GET /_app/version.json HTTP/1.1» 200 Содержание 52.05% 2026-04-10 07:19:08.721 | INFO | uvicorn.protocols.http.httptools_impl:send:483 — 91.5.108.133:0 — «POST /api/chat/completions HTTP/1.1» 200 2026-04-10 07:19:15.429 | INFO | uvicorn.protocols.http.httptools_impl:send:483 — 91.5.108.133:0 — «POST /api/chat/completed HTTP/1.1» 200 2026-04-10 07:19:15.482 | INFO | uvicorn.protocols.http.httptools_impl:send:483 — 91.5.108.133:0 — «POST /api/v1/chats/fff07763-01aa-4fc6-b02c-1003db1fcab6 HTTP/1.1» 200 2026-04-10 07:19:15.506 | INFO | uvicorn.protocols.http.httptools_impl:send:483 — 91.5.108.133:0 — «GET /api/v1/chats/?page=1 HTTP/1.1» 200 2026-04-10 07:19:28.340 | INFO | uvicorn.protocols.http.httptools_impl:send:483 — 91.5.108.133:0 — «GET /_app/version.json HTTP/1.1» 200 2026-04-10 07:19:52.369 | INFO | uvicorn.protocols.http.httptools_impl:send:483 — 91.5.108.133:0 — «GET /_app/version.json HTTP/1.1» 200
Эти логи — «золотая жила», они четко показывают, где именно происходит обрыв связи. У нас здесь две разные проблемы, которые в сумме дают тот эффект, который Вы видите.
### 1. Критическая ошибка: Потеря связи с Ollama
В логах постоянно мелькает ошибка:
`ERROR | open_webui.routers.ollama: Connection error: Cannot connect to host 10.0.0.20:11434`
**Что это значит:**
Open WebUI пытается достучаться до локального сервера Ollama (по адресу `10.0.0.20`), но не может.
* Если Ваша функция `raumai_v4` внутри Open WebUI как-то полагается на Ollama (например, для предварительной обработки), то весь процесс падает именно здесь.
* Даже если Вы используете n8n, Open WebUI может пытаться «опросить» доступные модели Ollama в фоновом режиме, и эти ошибки забивают очередь запросов.
### 2. Проблема функции `raumai_v4` (Ваш мост в n8n)
Лог показывает:
`POST /api/v1/functions/id/raumai_v4/toggle HTTP/1.1″ 200` — функция включена.
Но далее мы видим `POST /api/chat/completions HTTP/1.1″ 200`, а затем сразу `POST /api/chat/completed`.
**Почему n8n не видит файл:**
В Open WebUI файлы обрабатываются отдельно от текста. Если в коде функции `raumai_v4` (это, скорее всего, Python-скрипт внутри Open WebUI) не прописана явная передача файлов, то в n8n улетает только текст.
* **Текст:** «привет» (улетает в JSON).
* **Файл:** остается внутри Open WebUI, так как функция его не «подцепила».
### 3. Почему второе сообщение «пустое» и не доходит до n8n?
Это происходит из-за **ошибки в логике функции** внутри Open WebUI.
1. Первое сообщение (с файлом) вызывает ошибку в скрипте функции (потому что файл не обработан или Ollama недоступна).
2. Функция «зависает» в неопределенном состоянии.
3. Когда Вы пишете второе сообщение, функция `raumai_v4` либо выдает `None` (пустой ответ), либо вообще не срабатывает, так как предыдущий цикл не был корректно завершен.
—
### Что нужно сделать (Technical Co-Pilot):
#### Шаг 1: Проверьте адрес Ollama
Если Вы не используете Ollama, зайдите в **Settings -> Connections** в Open WebUI и удалите или отключите соединение с `10.0.0.20:11434`. Эти ошибки тормозят интерфейс.
#### Шаг 2: Исправьте функцию `raumai_v4`
Вам нужно зайти в раздел **Workspace -> Functions -> raumai_v4** и проверить код.
Чтобы функция передавала файлы в n8n, в ней должен быть блок, который берет `__metadata__` или `__files__` из сообщения и отправляет их в теле запроса к n8n.
**Если в коде функции только отправка `payload[‘messages’]`, то файлы в n8n никогда не попадут.**
#### Шаг 3: Почему n8n висит в Running?
Посмотрите в n8n, на какой ноде висит процесс. Если он висит на **AI Agent**, значит агент получил «пустой» запрос от Open WebUI и пытается бесконечно долго понять, что от него хотят, или ждет данных, которые не пришли.
**Мой совет:**
Покажите код функции `raumai_v4` (хотя бы ту часть, где происходит `requests.post` или отправка данных в n8n). Я подскажу, как добавить туда поддержку файлов, чтобы n8n их увидел.
🤖 | 📅 | 🧠 CTX 24