Gemma

Gemma 公开 已提交,待审核

lantin 分享于 2小时43分钟前 | 0 | 1
如何安装动作?

适用于
分类(旧)
翻译
关键词



更多信息
分享时间 2小时43分钟前
最后更新 2小时43分钟前
修订版本 0
用户许可 -未设置-
Quicker版本 1.45.0
动作大小 3.8 KB

分享到

「通过在本地部署translategemma:4b实现本地调取翻译」

简介

本地部署 TranslateGemma:4b 实现离线翻译指南

本文将指导您如何在本地通过 Ollama 部署 translategemma:4b 模型,并将其接入quicker 和 “沉浸式翻译”插件,实现完全本地化的隐私翻译服务。

📋 前置准备

1. 安装 Ollama

请确保您的电脑已安装 Ollama。如果尚未安装,请前往官网下载并安装 Windows 版本。

2. 验证安装

打开 PowerShell (或 CMD),输入以下命令检查是否安装成功:

ollama --version

如果能显示版本号(例如 ollama version is 0.1.x),则说明环境配置正确。


🚀 部署模型

1. 准备 Modelfile

在执行创建命令前,请确保当前目录下存在一个名为 Modelfile 的文件。

  • 该文件定义了模型的基础来源(如 FROM gemma:2b)和系统提示词。
  • 注意:如果您的内存较大,想要运行更高精度的模型(如您提到的 12b),请先修改 Modelfile 中的 FROM 参数指向相应的底座模型(例如 gemma:7b 或其他微调版),并相应调整创建命令中的模型名称。

2. 创建自定义模型

在包含 Modelfile 的文件夹中打开 PowerShell,执行以下命令来创建模型:

# 创建 4b 版本(默认推荐)
ollama create translategemma:4b -f Modelfile

# 如果您根据内存情况准备了 12b 版本,可执行:
# ollama create translategemma:12b -f Modelfile

此过程将自动下载所需的基础模型文件,请耐心等待下载和构建完成。

3. 运行模型

创建成功后,输入以下命令启动模型服务:

ollama run translategemma:4b

此时,您可以直接在命令行与模型对话进行翻译测试。

  • 服务保持:Ollama 在安装时会自动注册为后台服务。即使您关闭了当前的 PowerShell 窗口,Ollama 服务依然会在后台运行,监听本地请求,无需手动一直开启运行窗口。

🔗 接入quicker,直接使用本动作,即可翻译; 也可以自行丰富更多的多语言翻译功能。

🔗 接入沉浸式翻译插件

部署好本地服务后,您可以将其配置到浏览器插件(如“沉浸式翻译”)中使用。

  1. 打开 沉浸式翻译 的设置选项。
  2. 找到 翻译服务 (Translation Service) 设置区域。
  3. 选择 Ollama (或 "Custom API" / "自定义接口")。
  4. 填写本地接口地址(通常默认为):
    http://localhost:11434/v1/chat/completions
  5. 模型名称 填写:
    translategemma:4b

    (如果您创建的是 12b 版本,则填写 translategemma:12b)

  6. 保存设置并刷新网页,即可享受本地模型带来的离线翻译体验。

💡 补充说明

  • 内存选择4b 版本通常需要约 4-6GB 显存/内存即可流畅运行;如果您选择 7b12b 等更大的模型,请确保您的设备有足够的内存(建议 16GB 以上)以避免卡顿。
  • 模型效果:TranslateGemma 专门针对翻译任务进行了微调,其翻译质量通常优于通用的原生模型。

最近更新

修订版本 更新时间 更新说明
0 2小时43分钟前

最近讨论

暂无讨论