wenda-LLM/wenda

闻达:一个LLM调用平台。目标为针对特定环境的高效内容生成,同时考虑个人和中小企业的计算资源局限性,以及知识安全和私密性问题

JavaScriptCSSPythonHTMLOtherrwkvchatglm-6bchatrwkv
This is stars and forks stats for /wenda-LLM/wenda repository. As of 29 Mar, 2024 this repository has 5519 stars and 717 forks.

闻达:一个大规模语言模型调用平台 本项目设计目标为实现针对特定环境的高效内容生成,同时考虑个人和中小企业的计算资源局限性,以及知识安全和私密性问题。为达目标,平台化集成了以下能力: 知识库:支持对接本地离线向量库、本地搜索引擎、在线搜索引擎等。 多种大语言模型:目前支持离线部署模型有chatGLM-6B\chatGLM2-6B、chatRWKV、llama系列(不推荐中文用户)、moss(不推荐)、baichuan(需配合lora使用,否则效果差)、Aquila-7B、InternLM,在线API访问openai api和chatGLM-130b api。 Auto脚本:通过开发插件形式的JavaScript脚本,为平台附件功能,实现包括但不限于自定义对话流程、访问外部API、在线切换LoRA模型。 其他实用化所需能力:对话历史管理、内网部署、多用户同时使用等。 交流QQ群:LLM使用和综合讨论群162451840;知识库使用讨论群241773574(已满,请去QQ频道讨论);Auto开发交流群744842245;QQ频道 闻达:一个大规模语言模型调用平台 安装部署 各模型功能说明 懒人包 百度云 夸克 介绍 自行安装 1.安装库 2.下载模型 3.参数设置 Auto Auto...
Read on GithubGithub Stats Page
repotechsstarsweeklyforksweekly
QubesOS/qubes-docMakefilePython31204640
gongyh/nf-core-scgsNextflowPythonPerl1030
hostsoft/whmcs_payment_vmqPHPCSSHTML830210
kirilkirkov/Ecommerce-CodeIgniter-BootstrapPHPJavaScriptCSS1.2k09240
noironetworks/ciscoaci-puppetPuppetRubyHTML1040
gustavz/DataChadPython2490690
pengxiao-song/LaWGPTPythonShell5.2k+11508+3
roboflow/supervisionPython5.8k+369398+31
BrianMMcClain/miles_prototypesOther0000
primate-inc/test-taskSCSSHTMLJavaScript10300