如何在 ONLYOFFICE 中离线使用 Ollama AI 模型
将 Ollama 的本地 LLM 模型与 ONLYOFFICE 编辑器集成,可为编辑器引入先进的 AI 功能,同时保障隐私安全并提升处理速度。通过这一整合,您可在离线环境下享受高效智能的 AI 支持,全面优化各类文本工作流程。

本地 AI 模型的重要性
本地部署 AI 模型可确保敏感文档始终保留在您的设备上,有效保障数据机密性并满足合规要求。
离线运行不仅避免网络延迟,还能为摘要生成、翻译及内容创作等任务提供快速响应。
Ollama 提供了一个轻量且可扩展的框架,支持多种本地大语言模型(LLM),包括 Ollama 系列、DeepSeek、Mistral 等,让您自由选择所需模型。
步骤 1. 安装 Homebrew (可选)
如果您希望在 macOS 或 Linux 上使用 Homebrew 管理软件包,请运行以下命令进行安装:
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
如果您选择使用其他方法安装 Ollama,则可以跳过此步骤。
步骤 2:安装 Ollama
要安装 Ollama,请使用官方安装脚本:
curl -fsSL https://ollama.com/install.sh | sh
或者,如果您使用 Homebrew,您可以通过运行以下命令来安装 Ollama:
brew install ollama
安装完成后,Ollama 将提供一系列命令,用于在您的设备上管理、查看和运行本地模型。
步骤 3. 启动本地 AI 服务器
为使 ONLYOFFICE 能与本地 Ollama 服务器通信,需将其配置为接受来自网页应用的请求。
在终端中运行:
export OLLAMA_ORIGINS=http://*,https://*,onlyoffice://*
立即启动 Ollama 并在登录时重新启动:
brew services start ollama
或者,如果你不想/不需要后台服务,你可以直接运行:
ollama serve
步骤 4. 下载并运行模型
打开一个新的终端窗口,拉取您需要的模型。例如,要安装并运行 Llama 3.2,请执行以下命令:
ollama run llama3.2
下载完成后,模型将在本地自动启动。您可以根据需要安装多个模型,每个模型都会显示在 ONLYOFFICE 的模型选择列表中。如需了解更多可用模型,可访问 Ollama 官方模型库进行查看。
注意:安装前,请确保您的计算机有足够的内存和磁盘空间来安装模型。
步骤 5:在 ONLYOFFICE 中设置 AI 插件
首先,为 ONLYOFFICE 编辑器安装 AI 插件。如果您已安装 AI 插件,请按照以下步骤操作。
在网页浏览器中打开任意 ONLYOFFICE 编辑器。前往“插件”->“插件管理器”,找到 AI 插件,然后点击“安装”。

通过插件 -> 后台插件激活插件。

步骤 6:添加 Ollama 模型
在 ONLYOFFICE 中导航至 AI 选项卡,然后点击设置图标。在编辑 AI 模型下,点击+图标。
选择 Ollama 作为提供商,并将 URL 设置为 http://localhost:11434.

从下拉菜单中选择您已安装的模型(例如 llama3.2:latest)并确认。
步骤 7:分配任务给 Ollama 模型
返回到 AI 配置页面,从下拉列表中选择一个已安装的 AI 模型来执行特定任务(如文本处理、摘要生成或代码编写),然后保存设置。
现在,所选模型已连接并可在 ONLYOFFICE 编辑器中使用。
如何将 Ollama AI 模型与 ONLYOFFICE 编辑器结合使用
设置好 Ollama 并连接您所需的模型后,即可直接在 ONLYOFFICE 编辑器中与之交互。导航至 AI 选项卡或右键单击任意选定文本,即可访问 AI 驱动的功能。
打开 AI 选项卡或右键单击选定文本,即可重述、解释或总结内容。选择插入结果的方式:替换原文、添加注释或将其置于文本下方。

您可以使用 AI 模型来:
- 为您的报告、博客文章或电子邮件生成新的内容或创意
- 即时摘要复杂的文档或文章
- 在不同语言之间翻译文本
- 提高写作清晰度和语法
- 获取快速编码帮助或示例(如果模型支持)
- 探索写作中术语的上下文和用法
请注意:AI 生成的内容由第三方模型提供,ONLYOFFICE 不对其准确性承担责任。建议您对涉及敏感或关键任务的结果进行仔细核对。观看下方视频,进一步了解 AI 插件:
创建免费的 ONLYOFFICE 账户
在线查看并协作编辑文本文档、电子表格、幻灯片、表单和 PDF 文件。


