This is stars and forks stats for /wenda-LLM/wenda repository. As of 29 Mar, 2024 this repository has 5519 stars and 717 forks.
闻达:一个大规模语言模型调用平台 本项目设计目标为实现针对特定环境的高效内容生成,同时考虑个人和中小企业的计算资源局限性,以及知识安全和私密性问题。为达目标,平台化集成了以下能力: 知识库:支持对接本地离线向量库、本地搜索引擎、在线搜索引擎等。 多种大语言模型:目前支持离线部署模型有chatGLM-6B\chatGLM2-6B、chatRWKV、llama系列(不推荐中文用户)、moss(不推荐)、baichuan(需配合lora使用,否则效果差)、Aquila-7B、InternLM,在线API访问openai api和chatGLM-130b api。 Auto脚本:通过开发插件形式的JavaScript脚本,为平台附件功能,实现包括但不限于自定义对话流程、访问外部API、在线切换LoRA模型。 其他实用化所需能力:对话历史管理、内网部署、多用户同时使用等。 交流QQ群:LLM使用和综合讨论群162451840;知识库使用讨论群241773574(已满,请去QQ频道讨论);Auto开发交流群744842245;QQ频道 闻达:一个大规模语言模型调用平台 安装部署 各模型功能说明 懒人包 百度云 夸克 介绍 自行安装 1.安装库 2.下载模型 3.参数设置 Auto Auto...
闻达:一个大规模语言模型调用平台 本项目设计目标为实现针对特定环境的高效内容生成,同时考虑个人和中小企业的计算资源局限性,以及知识安全和私密性问题。为达目标,平台化集成了以下能力: 知识库:支持对接本地离线向量库、本地搜索引擎、在线搜索引擎等。 多种大语言模型:目前支持离线部署模型有chatGLM-6B\chatGLM2-6B、chatRWKV、llama系列(不推荐中文用户)、moss(不推荐)、baichuan(需配合lora使用,否则效果差)、Aquila-7B、InternLM,在线API访问openai api和chatGLM-130b api。 Auto脚本:通过开发插件形式的JavaScript脚本,为平台附件功能,实现包括但不限于自定义对话流程、访问外部API、在线切换LoRA模型。 其他实用化所需能力:对话历史管理、内网部署、多用户同时使用等。 交流QQ群:LLM使用和综合讨论群162451840;知识库使用讨论群241773574(已满,请去QQ频道讨论);Auto开发交流群744842245;QQ频道 闻达:一个大规模语言模型调用平台 安装部署 各模型功能说明 懒人包 百度云 夸克 介绍 自行安装 1.安装库 2.下载模型 3.参数设置 Auto Auto...
repo | techs | stars | weekly | forks | weekly |
---|---|---|---|---|---|
QubesOS/qubes-doc | MakefilePython | 312 | 0 | 464 | 0 |
gongyh/nf-core-scgs | NextflowPythonPerl | 1 | 0 | 3 | 0 |
hostsoft/whmcs_payment_vmq | PHPCSSHTML | 83 | 0 | 21 | 0 |
kirilkirkov/Ecommerce-CodeIgniter-Bootstrap | PHPJavaScriptCSS | 1.2k | 0 | 924 | 0 |
noironetworks/ciscoaci-puppet | PuppetRubyHTML | 1 | 0 | 4 | 0 |
gustavz/DataChad | Python | 249 | 0 | 69 | 0 |
pengxiao-song/LaWGPT | PythonShell | 5.2k | +11 | 508 | +3 |
roboflow/supervision | Python | 5.8k | +369 | 398 | +31 |
BrianMMcClain/miles_prototypes | Other | 0 | 0 | 0 | 0 |
primate-inc/test-task | SCSSHTMLJavaScript | 1 | 0 | 30 | 0 |