Ollama 在本地快速部署大型语言模型,可进行定制并创建属于您自己的模型

喜欢ヅ旅行 2024-04-22 15:28 48阅读 0赞

ollama

# Ollama 在本地快速部署并运行大型语言模型。

macOS

点击下载

Windows 预览版

点击下载

Linux

  1. curl -fsSL https://ollama.com/install.sh | sh

手动安装指南

Docker

官方的 Ollama Docker 镜像 ollama/ollama 已经在 Docker Hub 上发布。

#

发表评论

表情:
评论列表 (有 0 条评论,48人围观)

还没有评论,来说两句吧...

相关阅读