本地部署 TranslateGemma:4b 实现离线翻译指南
本文将指导您如何在本地通过 Ollama 部署 translategemma:4b 模型,并将其接入quicker 和 “沉浸式翻译”插件,实现完全本地化的隐私翻译服务。
📋 前置准备
1. 安装 Ollama
请确保您的电脑已安装 Ollama。如果尚未安装,请前往官网下载并安装 Windows 版本。
2. 验证安装
打开 PowerShell (或 CMD),输入以下命令检查是否安装成功:
ollama --version
如果能显示版本号(例如 ollama version is 0.1.x),则说明环境配置正确。
🚀 部署模型
1. 准备 Modelfile
在执行创建命令前,请确保当前目录下存在一个名为 Modelfile 的文件。
- 该文件定义了模型的基础来源(如
FROM gemma:2b)和系统提示词。 - 注意:如果您的内存较大,想要运行更高精度的模型(如您提到的 12b),请先修改
Modelfile中的FROM参数指向相应的底座模型(例如gemma:7b或其他微调版),并相应调整创建命令中的模型名称。
2. 创建自定义模型
在包含 Modelfile 的文件夹中打开 PowerShell,执行以下命令来创建模型:
# 创建 4b 版本(默认推荐)
ollama create translategemma:4b -f Modelfile
# 如果您根据内存情况准备了 12b 版本,可执行:
# ollama create translategemma:12b -f Modelfile
此过程将自动下载所需的基础模型文件,请耐心等待下载和构建完成。
3. 运行模型
创建成功后,输入以下命令启动模型服务:
ollama run translategemma:4b
此时,您可以直接在命令行与模型对话进行翻译测试。
- 服务保持:Ollama 在安装时会自动注册为后台服务。即使您关闭了当前的 PowerShell 窗口,Ollama 服务依然会在后台运行,监听本地请求,无需手动一直开启运行窗口。
🔗 接入quicker,直接使用本动作,即可翻译; 也可以自行丰富更多的多语言翻译功能。
🔗 接入沉浸式翻译插件
部署好本地服务后,您可以将其配置到浏览器插件(如“沉浸式翻译”)中使用。
- 打开 沉浸式翻译 的设置选项。
- 找到 翻译服务 (Translation Service) 设置区域。
- 选择 Ollama (或 "Custom API" / "自定义接口")。
- 填写本地接口地址(通常默认为):
http://localhost:11434/v1/chat/completions - 模型名称 填写:
translategemma:4b(如果您创建的是 12b 版本,则填写
translategemma:12b) - 保存设置并刷新网页,即可享受本地模型带来的离线翻译体验。
💡 补充说明
- 内存选择:
4b版本通常需要约 4-6GB 显存/内存即可流畅运行;如果您选择7b或12b等更大的模型,请确保您的设备有足够的内存(建议 16GB 以上)以避免卡顿。 - 模型效果:TranslateGemma 专门针对翻译任务进行了微调,其翻译质量通常优于通用的原生模型。
京公网安备 11010502053266号