This is stars and forks stats for /IMOSR/Media-LLaMA repository. As of 10 May, 2024 this repository has 486 stars and 86 forks.
MediaGPT :中文自媒体大模型 虽然LLaMA模型在通用领域通过指令微调已经展示出了令人印象深刻的性能,但对于自媒体创作、直播和运营等领域,由于缺乏专业的训练数据,其能力仍有待提高。为了解决这个问题,我们提出了MediaGPT,一个针对自媒体领域进行特殊训练的模型。 MediaGPT(曾用名Media LLaMA)首先在大规模自媒体语料上进行连续预训练,系统地学习自媒体的知识体系。然后,我们借助ChatGPT收集了一批关于抖音运营、短视频创作、巨量千川投放、直播运营和直播话术技巧等领域知识问题的分析和回答,并利用这些数据对模型进行指令微调,使模型习得如何将自媒体知识应用到实际场景中。 我们的模型具有以下能力: 掌握自媒体知识: 能够理解抖音运营、短视频创作、巨量千川投放、直播运营等领域的核心概念和策略。 适用于实际操作: 能够以通俗易懂的语言解释自媒体概念,并进行基础的自媒体运营咨询,涵盖内容创作、平台运营、广告投放等领域。 为了推动中文自媒体大模型的开放研究,我们将开源一系列自媒体领域的指令微调数据和基于LLaMA训练的中文自媒体大模型的参数。 模型效果 Human: 请介绍一下抖音带货的运营策略 Assistant: 抖音带货的运营策略可以从以下几个方面进行:...
MediaGPT :中文自媒体大模型 虽然LLaMA模型在通用领域通过指令微调已经展示出了令人印象深刻的性能,但对于自媒体创作、直播和运营等领域,由于缺乏专业的训练数据,其能力仍有待提高。为了解决这个问题,我们提出了MediaGPT,一个针对自媒体领域进行特殊训练的模型。 MediaGPT(曾用名Media LLaMA)首先在大规模自媒体语料上进行连续预训练,系统地学习自媒体的知识体系。然后,我们借助ChatGPT收集了一批关于抖音运营、短视频创作、巨量千川投放、直播运营和直播话术技巧等领域知识问题的分析和回答,并利用这些数据对模型进行指令微调,使模型习得如何将自媒体知识应用到实际场景中。 我们的模型具有以下能力: 掌握自媒体知识: 能够理解抖音运营、短视频创作、巨量千川投放、直播运营等领域的核心概念和策略。 适用于实际操作: 能够以通俗易懂的语言解释自媒体概念,并进行基础的自媒体运营咨询,涵盖内容创作、平台运营、广告投放等领域。 为了推动中文自媒体大模型的开放研究,我们将开源一系列自媒体领域的指令微调数据和基于LLaMA训练的中文自媒体大模型的参数。 模型效果 Human: 请介绍一下抖音带货的运营策略 Assistant: 抖音带货的运营策略可以从以下几个方面进行:...
repo | techs | stars | weekly | forks | weekly |
---|---|---|---|---|---|
thunlp/UltraChat | PythonShell | 1.8k | 0 | 92 | 0 |
crolfe/dotfiles | Vim ScriptShellPython | 0 | 0 | 0 | 0 |
geeeeeeeek/python_food | VuePythonTypeScript | 39 | +1 | 8 | +1 |
HazyResearch/hyena-dna | AssemblyPawnHTML | 314 | 0 | 29 | 0 |
mrivnak/game-of-life | DockerfilePythonZig | 6 | 0 | 4 | 0 |
openark/orchestrator | GoJavaScriptPython | 5.2k | +6 | 921 | -1 |
shellc/investing-for-coders | Jupyter Notebook | 90 | 0 | 1 | 0 |
camenduru/PanoHead-colab | Jupyter Notebook | 80 | 0 | 14 | 0 |
KevinWang676/Bark-Voice-Cloning | Jupyter NotebookPython | 818 | 0 | 113 | 0 |
jacobwilliams/rklib | FortranPython | 56 | 0 | 2 | 0 |