Whisper Local Api
适用于 OpenClaw 的安全离线本地 Whisper 语音识别端点,兼容 OpenAI 接口。采用 faster-whisper (large-v3-turbo),内置隐私保护,无云端遥测。
codeskills install whisper-local-api该技能详情正在完善中。
查看原文获取完整内容参数说明
可配置的选项
| 参数 | 说明 | 默认值 |
|---|---|---|
whisper | (large-v3-turbo),内置隐私保护,无云端遥测。 | 无 |
适用于 OpenClaw 的安全离线本地 Whisper 语音识别端点,兼容 OpenAI 接口。采用 faster-whisper (large-v3-turbo),内置隐私保护,无云端遥测。
codeskills install whisper-local-api该技能详情正在完善中。
查看原文获取完整内容可配置的选项
| 参数 | 说明 | 默认值 |
|---|---|---|
whisper | (large-v3-turbo),内置隐私保护,无云端遥测。 | 无 |
基于分类和标签推荐
通过Groq兼容OpenAI的语音转文本API转录音频,适用于用户发送语音消息或音频文件时的快速云端语音识别。
Real-time AI video chat that routes through your OpenClaw agent. Uses Groq Whisper (cloud STT), edge-tts (cloud TTS via Microsoft), and OpenClaw chatCompletions API for conversation. Your agent sees your camera, hears your voice, and responds with its own personality and memory. Requires: GROQ_API_KEY for speech recognition. Reads ~/.openclaw/openclaw.json for gateway port and auth token. Data flows: audio → Groq cloud (STT), TTS text → Microsoft cloud (edge-tts), camera frames (base64) + text → OpenClaw gateway → your configured LLM provider (may be cloud — frames leave the machine if using a cloud LLM). Installs a persistent launchd service (optional). Trigger phrases: "video chat", "voice call", "call me", "视频一下", "语音", "打电话给我", "我要和你视频", "videochat-withme".
智能AI模型路由系统,自动为任务选择最优模型。支持Anthropic、OpenAI、Gemini、Moonshot、Z.ai、GLM等多提供商的安全API密钥管理,基于任务类型、复杂度和成本智能路由。包含交互式设置向导、任务分类与成本优化策略。适用于"使用X模型"、"切换模型"、"最优模型选择"等需求,实现质量与成本的最佳平衡。
使用Hume AI或OpenAI API将文本转为语音。当用户需要语音消息、语音回复或真人朗读时使用。