High-performance In-browser LLM Inference Engine . Contribute to mlc-ai/web-llm development by creating an account on GitHub.
Bringing large-language models and chat to web browsers. Everything runs inside the browser with no server support. - strogo/web-llm
- 📜 提示预设支持:使用聊天输入中的/命令即时访问预设提示。毫不费力地加载预定义的对话启动器,并加速你的互动。通过Open WebUI社区集成轻松导入提示。- 👍 RLHF注释:通过点赞和点踩赋予你的消息力量,促进创建用于人类反馈强化学习(RLHF)的数据集。利用你的消息来训练或微调模型,同时确保本地保存数据的...
修改/etc/hosts添加如下配置,加速ollama 安装 # github 注意下面的IP地址和域名之间有一个空格 140.82.114.3 github.com 199.232.69.194 github.global.ssl.fastly.net 185.199.108.153 assets-cdn.github.com 185.199.109.153 assets-cdn.github.com 185.199.110.153 assets-cdn.github.com 185.199.111.153 assets-cdn....
现在,WebAssembly已经足够好,可以在很多生产场景中使用,包括基于浏览器的模型部署。Web AI是一个GitHub仓库,它允许在浏览器中运行现代深度学习模型,这标志着WebAssembly技术的一个重要里程碑。Web AI的出现,为Web开发者提供了一个全新的平台,可以在浏览器中实现更加复杂和高级的AI功能,这在过去是无法想象的。
前段时间根据群友的启发,发现了intel-analytics(https://github.com/intel-analytics)仓库下的ipexllm,ipexllm简单来说是一个用于提升英特尔设备(cpu、独显核显都能用)大语言模型运行效率的库,并且在intel-analytics仓库下也发现了基于ipexllm的Text-Generation-WebUI。就像stable-diffusion-webui易用于SD绘图,Text-...
Turn any webpage into structured data using LLMs. Contribute to mishushakov/llm-scraper development by creating an account on GitHub.
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.gitcdLLaMA-Factory pip install -e".[torch,metrics]" Extra dependencies available: torch, torch-npu, metrics, deepspeed, liger-kernel, bitsandbytes, hqq, eetq, gptq, awq, aqlm, vllm, galore, badam, adam-mini, qwen, model...
AI Assistant running within your browser. Contribute to mlc-ai/Web-LLM-Assistant development by creating an account on GitHub.
前段时间根据群友的启发,发现了intel-analytics(https://github.com/intel-analytics)仓库下的ipexllm,ipexllm简单来说是一个用于提升英特尔设备(cpu、独显核显都能用)大语言模型运行效率的库,并且在intel-analytics仓库下也发现了基于ipexllm的Text-Generation-WebUI。就像stable-diffusion-webui易用于SD绘图,Text-...