ML软件设置指南:使用 Ollama 应用程序在本地运行一些 LLM#GPU#Ollama#LLM#ML#深度学习 - 捷易科技于20240802发布在抖音,已经收获了3.3万个喜欢,来抖音,记录美好生活!
Ollama 是一个轻量级、可扩展的大模型框架,这个开源项目能帮助你在本地电脑上玩转和运行大语言模型。 如果你的电脑没有 GPU 也是能使用的,只不过大模型会使用 CPU 计算慢一些。~User-friendly WebUI for LLMs (Formerly Ollama WebUI) - yongyuan824/open-webui