This is stars and forks stats for /CVI-SZU/Linly repository. As of 03 May, 2024 this repository has 2802 stars and 215 forks.
中文 LLaMA1-2 & Linly-OpenLLaMA & Falcon 大模型 本项目向社区提供中文对话模型 Linly-ChatFlow 、中文基础模型 Chinese-LLaMA (1-2)、Chinese-Falcon 及其训练数据。 模型基于 TencentPretrain 预训练框架全参数训练(Full-tuning)。 中文基础模型以 LLaMA 和 Falcon 为底座,使用中文和中英平行语料进行增量预训练,将其在英文上的语言能力扩展到中文上。同时,项目汇总了目前公开的多语言指令数据,对中文模型进行大规模指令跟随训练,实现了 Linly-ChatFlow 对话模型。 此外,本项目开源了从头训练的 Linly-OpenLLaMA 模型,包含 3B、7B、13B 规模,在 1TB 中英文语料上进行预训练,针对中文优化了字词结合tokenizer,此模型以 Apache 2.0 协议公开。 项目内容 🚀 通过 Full-tuning (全参数训练)获得中文LLaMA、Falcon等模型,提供...
中文 LLaMA1-2 & Linly-OpenLLaMA & Falcon 大模型 本项目向社区提供中文对话模型 Linly-ChatFlow 、中文基础模型 Chinese-LLaMA (1-2)、Chinese-Falcon 及其训练数据。 模型基于 TencentPretrain 预训练框架全参数训练(Full-tuning)。 中文基础模型以 LLaMA 和 Falcon 为底座,使用中文和中英平行语料进行增量预训练,将其在英文上的语言能力扩展到中文上。同时,项目汇总了目前公开的多语言指令数据,对中文模型进行大规模指令跟随训练,实现了 Linly-ChatFlow 对话模型。 此外,本项目开源了从头训练的 Linly-OpenLLaMA 模型,包含 3B、7B、13B 规模,在 1TB 中英文语料上进行预训练,针对中文优化了字词结合tokenizer,此模型以 Apache 2.0 协议公开。 项目内容 🚀 通过 Full-tuning (全参数训练)获得中文LLaMA、Falcon等模型,提供...
repo | techs | stars | weekly | forks | weekly |
---|---|---|---|---|---|
deforum-art/deforum-stable-diffusion | PythonJupyter Notebook | 1.9k | 0 | 355 | 0 |
X-PLUG/mPLUG-Owl | PythonShell | 1.5k | 0 | 121 | 0 |
farshadz1997/Microsoft-Rewards-bot | Python | 860 | 0 | 179 | 0 |
Jun-CEN/SegmentAnyRGBD | PythonShell | 610 | 0 | 37 | 0 |
bookfere/Ebook-Translator-Calibre-Plugin | PythonHTML | 1.1k | 0 | 67 | 0 |
MatsuuraKentaro/Bayesian_Statistical_Modeling_with_Stan_R_and_Python | RPythonStan | 80 | 0 | 24 | 0 |
go-outside-labs/mev-toolkit | ShellPythonDockerfile | 510 | +6 | 118 | +2 |
furrtek/Arcade-TMNT_MiSTer | VerilogSystemVerilogVHDL | 30 | 0 | 8 | 0 |
Kuingsmile/word-GPT-Plus | VueTypeScriptHTML | 349 | 0 | 57 | 0 |
Mooler0410/LLMsPracticalGuide | 6.7k | 0 | 478 | 0 |