[BUG] Application Silent Crash During Local AI Transcription #1

Closed
opened 2026-02-15 00:30:44 +00:00 by Shifty · 3 comments
Owner

Severity

HIGH - Application terminates unexpectedly without error messages

Environment

  • Date: February 15, 2026
  • Platform: macOS
  • Mode: Local AI (Ollama + Whisper)
  • Audio Pipeline: SystemAudioDump → 24kHz PCM → Resample → 16kHz PCM → VAD → Whisper → Ollama

Symptoms

Observed Behavior

Application closes immediately and silently after speech transcription completes. No error messages, no stack traces, no crash dialog.

Console Output Before Crash

[LocalAI] Speech started (RMS: 0.2135)
[LocalAI] Speech ended, accumulated 63 chunks
[LocalAI] Processing audio: 201600 bytes
[LocalAI] Starting transcription, audio length: 201600 bytes

What Does NOT Appear

  • No [LocalAI] Transcription: <text> log
  • No [LocalAI] Sending to Ollama: log
  • No error messages from Whisper
  • No error messages from Ollama
  • No uncaught exceptions
  • No unhandled rejections

Reproduction

  1. Start application in Local AI mode (Ollama + Whisper)
  2. Speak for ~2-3 seconds (enough to accumulate 60+ audio chunks)
  3. Wait for silence detection to trigger
  4. Crash occurs during or immediately after transcribeAudio() call

Reproduction Rate

100% - Consistent crash with:

  • Voice input (RMS > 0.2)

Ollama Logs (when available)

time=2026-02-15T02:02:08.612+03:00 level=INFO source=device.go:240 msg="model weights" device=Metal size="4.3 GiB"
time=2026-02-15T02:02:08.612+03:00 level=INFO source=device.go:251 msg="kv cache" device=Metal size="4.0 GiB"
time=2026-02-15T02:02:08.867+03:00 level=INFO source=sched.go:490 msg="Load failed" model=<...> error="context canceled"
[GIN] 2026/02/15 - 02:02:08 | 499 |  7.990804792s |  127.0.0.1 | POST "/api/chat"

Note: Ollama receives HTTP 499 (client closed connection) suggesting the Electron process terminates before Ollama can respond.


RU:

Критичность

ВЫСОКАЯ - Приложение неожиданно завершается без сообщений об ошибках

Окружение

  • Дата: 15 февраля 2026
  • Платформа: macOS
  • Режим: Local AI (Ollama + Whisper)
  • Аудио-конвейер: SystemAudioDump → 24kHz PCM → Resample → 16kHz PCM → VAD → Whisper → Ollama

Симптомы

Наблюдаемое поведение

Приложение закрывается мгновенно и беззвучно после завершения транскрипции речи. Никаких сообщений об ошибках, стека вызовов или диалога о сбое.

Вывод в консоль перед крашем

[LocalAI] Speech started (RMS: 0.2135)
[LocalAI] Speech ended, accumulated 63 chunks
[LocalAI] Processing audio: 201600 bytes
[LocalAI] Starting transcription, audio length: 201600 bytes

Что НЕ появляется

  • НЕТ лога [LocalAI] Transcription: <текст>
  • НЕТ лога [LocalAI] Sending to Ollama:
  • НЕТ сообщений об ошибках от Whisper
  • НЕТ сообщений об ошибках от Ollama
  • НЕТ неперехваченных исключений (uncaught exceptions)
  • НЕТ необработанных отклонений промисов (unhandled rejections)

Воспроизведение

  1. Запустить приложение в режиме Local AI (Ollama + Whisper)
  2. Говорить ~2-3 секунды (достаточно для накопления 60+ аудио-чанков)
  3. Подождать срабатывания детектора тишины
  4. Происходит краш во время или сразу после вызова transcribeAudio()

Частота воспроизведения

100% - Стабильный краш при:

  • Голосовом вводе (RMS > 0.2)

Логи Ollama (когда доступны)

time=2026-02-15T02:02:08.612+03:00 level=INFO source=device.go:240 msg="model weights" device=Metal size="4.3 GiB"
time=2026-02-15T02:02:08.612+03:00 level=INFO source=device.go:251 msg="kv cache" device=Metal size="4.0 GiB"
time=2026-02-15T02:02:08.867+03:00 level=INFO source=sched.go:490 msg="Load failed" model=<...> error="context canceled"
[GIN] 2026/02/15 - 02:02:08 | 499 |  7.990804792s |  127.0.0.1 | POST "/api/chat"

Примечание: Ollama получает HTTP 499 (клиент закрыл соединение), что указывает на завершение процесса Electron до того, как Ollama успел ответить.

## Severity **HIGH** - Application terminates unexpectedly without error messages ## Environment - **Date**: February 15, 2026 - **Platform**: macOS - **Mode**: Local AI (Ollama + Whisper) - **Audio Pipeline**: SystemAudioDump → 24kHz PCM → Resample → 16kHz PCM → VAD → Whisper → Ollama ## Symptoms ### Observed Behavior Application closes immediately and silently after speech transcription completes. No error messages, no stack traces, no crash dialog. ### Console Output Before Crash ``` [LocalAI] Speech started (RMS: 0.2135) [LocalAI] Speech ended, accumulated 63 chunks [LocalAI] Processing audio: 201600 bytes [LocalAI] Starting transcription, audio length: 201600 bytes ``` ### What Does NOT Appear - **No** `[LocalAI] Transcription: <text>` log - **No** `[LocalAI] Sending to Ollama:` log - **No** error messages from Whisper - **No** error messages from Ollama - **No** uncaught exceptions - **No** unhandled rejections ## Reproduction 1. Start application in Local AI mode (Ollama + Whisper) 2. Speak for ~2-3 seconds (enough to accumulate 60+ audio chunks) 3. Wait for silence detection to trigger 4. **Crash occurs** during or immediately after `transcribeAudio()` call ### Reproduction Rate **100%** - Consistent crash with: - Voice input (RMS > 0.2) ### Ollama Logs (when available) ``` time=2026-02-15T02:02:08.612+03:00 level=INFO source=device.go:240 msg="model weights" device=Metal size="4.3 GiB" time=2026-02-15T02:02:08.612+03:00 level=INFO source=device.go:251 msg="kv cache" device=Metal size="4.0 GiB" time=2026-02-15T02:02:08.867+03:00 level=INFO source=sched.go:490 msg="Load failed" model=<...> error="context canceled" [GIN] 2026/02/15 - 02:02:08 | 499 | 7.990804792s | 127.0.0.1 | POST "/api/chat" ``` **Note**: Ollama receives HTTP 499 (client closed connection) suggesting the Electron process terminates before Ollama can respond. ----- # RU: ## Критичность **ВЫСОКАЯ** - Приложение неожиданно завершается без сообщений об ошибках ## Окружение - **Дата**: 15 февраля 2026 - **Платформа**: macOS - **Режим**: Local AI (Ollama + Whisper) - **Аудио-конвейер**: SystemAudioDump → 24kHz PCM → Resample → 16kHz PCM → VAD → Whisper → Ollama ## Симптомы ### Наблюдаемое поведение Приложение закрывается мгновенно и беззвучно после завершения транскрипции речи. Никаких сообщений об ошибках, стека вызовов или диалога о сбое. ### Вывод в консоль перед крашем ``` [LocalAI] Speech started (RMS: 0.2135) [LocalAI] Speech ended, accumulated 63 chunks [LocalAI] Processing audio: 201600 bytes [LocalAI] Starting transcription, audio length: 201600 bytes ``` ### Что НЕ появляется - **НЕТ** лога `[LocalAI] Transcription: <текст>` - **НЕТ** лога `[LocalAI] Sending to Ollama:` - **НЕТ** сообщений об ошибках от Whisper - **НЕТ** сообщений об ошибках от Ollama - **НЕТ** неперехваченных исключений (uncaught exceptions) - **НЕТ** необработанных отклонений промисов (unhandled rejections) ## Воспроизведение 1. Запустить приложение в режиме Local AI (Ollama + Whisper) 2. Говорить ~2-3 секунды (достаточно для накопления 60+ аудио-чанков) 3. Подождать срабатывания детектора тишины 4. **Происходит краш** во время или сразу после вызова `transcribeAudio()` ### Частота воспроизведения **100%** - Стабильный краш при: - Голосовом вводе (RMS > 0.2) ### Логи Ollama (когда доступны) ``` time=2026-02-15T02:02:08.612+03:00 level=INFO source=device.go:240 msg="model weights" device=Metal size="4.3 GiB" time=2026-02-15T02:02:08.612+03:00 level=INFO source=device.go:251 msg="kv cache" device=Metal size="4.0 GiB" time=2026-02-15T02:02:08.867+03:00 level=INFO source=sched.go:490 msg="Load failed" model=<...> error="context canceled" [GIN] 2026/02/15 - 02:02:08 | 499 | 7.990804792s | 127.0.0.1 | POST "/api/chat" ``` **Примечание**: Ollama получает HTTP 499 (клиент закрыл соединение), что указывает на завершение процесса Electron до того, как Ollama успел ответить.
Shifty added the
Kind/Bug
Priority
High
Reviewed
Confirmed
Status
Need More Info
labels 2026-02-15 00:31:41 +00:00
Author
Owner

Краш стабильно вылетает на транскрипции. Дело в том, что Transformers.js под капотом использует ONNX Runtime, который может положить весь Node.js процесс если:

  • Файлы модели в кеше как-то повредились
  • ONNX runtime натыкается на невалидные данные в тензорах
  • Не хватает памяти для обработки больших аудио-буферов
  • У тебя на macOS падает Metal GPU бэкенд (это специфичная проблема для мака)
Краш стабильно вылетает на транскрипции. Дело в том, что Transformers.js под капотом использует ONNX Runtime, который может положить весь Node.js процесс если: - Файлы модели в кеше как-то повредились - ONNX runtime натыкается на невалидные данные в тензорах - Не хватает памяти для обработки больших аудио-буферов - У тебя на macOS падает Metal GPU бэкенд (это специфичная проблема для мака)
Shifty added this to the 🚀 Road to Release project 2026-02-15 05:45:39 +00:00
Shifty added
Priority
Low
and removed
Priority
High
labels 2026-02-15 05:46:33 +00:00
Author
Owner

Понизил приоритет задачи так как пока фокусируемся на режим BYOK

Понизил приоритет задачи так как пока фокусируемся на режим BYOK
Author
Owner

Пофикшено

Fixing local transcription flow
#5

## Пофикшено [Fixing local transcription flow](#5) #5
Shifty removed the
Priority
Low
Status
Need More Info
labels 2026-02-16 17:09:03 +00:00
Shifty moved this to Done in 🚀 Road to Release on 2026-02-16 17:09:14 +00:00
Shifty self-assigned this 2026-02-16 17:09:22 +00:00
Sign in to join this conversation.
No description provided.