获星1.9k,LLM微调神器Lamini上演速度与激情,免费可用

简介: 获星1.9k,LLM微调神器Lamini上演速度与激情,免费可用

LLM 微调不再头疼。


LLM 微调从一件复杂的事情,已经通过不断的技术改进变得易上手起来。


这不,免费且迅速的 LLM 微调已经可以实现了。


4 月底,斯坦福的一群开发者发布了 Lamini,号称可以为每个开发人员提供从 GPT-3 带到 ChatGPT 的超能力。


近日,Lamini 推出了全新的 Alpha 公测版,让微调上演「速度与激情」。现在只需十分钟、三至五行代码就能实现微调,更重要的是 0 费用。


目前,4 亿参数以内的 LLM 微调完全免费。这只是一个开始。



项目地址:https://github.com/lamini-ai/lamini


Lamini 的优势


先来一起看看 Lamini 有哪些优势。



免费,适用于小型 LLM;

迅速,10-15 分钟;

很大,无限大小的 prompt,比最大的 prompt 多 1000 倍以上的空间;

学习,检索增强生成,它不仅是在已知的基础上试图理解内容,还在学习新东西。


并且,在 Lamini 的项目地址中有着


1400 个问答数据集(这是关于 Lamini 的内部工程文档,你也可以将其自定义);

在此数据集上运行 LLM 微调的代码;

回答问题的开源微调 LLM(例如关于 Lamini,或其他你想问的)。


Lamini 使用教程


使用示例


Lamini 真的有这么神吗?这里由一份示例请你查收。


首先,有一个需要微调的 LLM。示例中是一个关于 Lamini 内部工程文档的问答式 LLM。



该模型提供了一个聊天界面,它使用了一个 410M 参数的 Pythia 模型作为基础。


这个 410M 参数 LLM 的性能看起来并不令人满意。当询问:「我如何向 Lamini 添加数据?」时,它给出的答案并不靠谱。



你还可以给它输入数据。对于本例,你有一个关于 Lamini 的 1400 个问题和答案的数据集。虽然它看起来很小,但它比目前最大的 Prompt 大小要大得多 (约 120K)。


以下是准备数据的专业建议:质量非常重要。只要 100 个高质量的例子就能让你走上正确的道路。那么什么是高质量?


高质量:连贯、清晰、准确的示例。

多样化:涵盖广泛的主题和数据范围,应避免虚假关联和数据偏差。

真实:实际的用户数据或人为创建的示例,而不是 LLM 生成的虚假示例,以捕捉人机交互的细微差别,并改进模型,使其超越现有的生成能力。


然后,只需将这些数据加载到模型中,并告诉它进行训练:



只需要 10-15 分钟,你就可以运行这个 LLM 了。


让我们再次问同样的问题,「我如何向 Lamini 添加数据?」,内容如下:



这次的答案是正确的了,看来微调发挥了显著的效果。


如何使用 Lamini 训练 LLM


1、使用 Lamini Types 定义 LLM 接口。你想让它成为一个聊天机器人?接口就是问进答出。你想让它成为代码 copilot?接口就是程序输入,更多程序输出。使用你的类型运行一般的 LLM(基本模型或基础模型)。


2、查找相关数据并创建 Lamini Types。哪些数据对执行任务的人类专家有用?获取该数据并创建与其模式相匹配的(附加)Lamini Types。它可以是支持性文档,如你的文档中的函数,用于你的代码聊天机器人,也可以是向你的机器人提出的示例问题。


3、使用 Lamini 将数据加载到 Types 中,并将 Types 加载到 LLM 中。这将你的数据转换为 Types 格式,以便 LLM 能够最好地从中学习。


4、获取与你的 LLM 接口相匹配的数据。如果没有?也没问题。这就是数据生成的目的,其中利用 LLM 管道。首先,使用 Lamini LLM Engine 运行数据生成,以获得更多正确的 Lamini Types(任何一种)数据。然后使用 Lamini 过滤器或你自己的脚本过滤数据,以获得高质量数据。


5. 通过优化训练使通用 LLM 专业化。使用 Lamini 库,针对所有数据训练你自己的 LLM。



参考链接:

https://twitter.com/realSharonZhou/status/1679212309938593797

https://www.lamini.ai/blog

https://github.com/lamini-ai/lamini

相关文章
|
2天前
|
机器学习/深度学习 自然语言处理
大语言模型(LLM)框架及微调 (Fine Tuning)
大语言模型(LLM)框架及微调 (Fine Tuning)
272 0
|
2天前
|
自然语言处理
LLM上下文窗口突破200万!无需架构变化+复杂微调,轻松扩展8倍
【5月更文挑战第12天】LongRoPE研究突破LLM上下文窗口限制,无需架构变更和复杂微调,实现8倍扩展至2048万个token。该方法利用位置嵌入非均匀性,通过高效搜索和优化初始化,适用于处理长文本任务,对模型性能影响小。但可能需要较多计算资源,且2048万的长度是否足够所有任务尚待探讨。[论文链接](https://arxiv.org/abs/2402.13753)
7 1
|
2天前
|
机器学习/深度学习 自然语言处理
【大模型】如何处理微调LLM来编写创意内容?
【5月更文挑战第7天】【大模型】如何处理微调LLM来编写创意内容?
|
2天前
|
API 算法框架/工具 异构计算
Python中Keras微调Google Gemma:定制化指令增强大语言模型LLM
Python中Keras微调Google Gemma:定制化指令增强大语言模型LLM
|
2天前
|
机器学习/深度学习 自然语言处理 计算机视觉
【大模型】小样本学习的概念及其在微调 LLM 中的应用
【5月更文挑战第5天】【大模型】小样本学习的概念及其在微调 LLM 中的应用
|
2天前
|
机器学习/深度学习 人工智能 自然语言处理
LLM资料大全:文本多模态大模型、垂直领域微调模型、STF数据集、训练微调部署框架、提示词工程等
LLM资料大全:文本多模态大模型、垂直领域微调模型、STF数据集、训练微调部署框架、提示词工程等
LLM资料大全:文本多模态大模型、垂直领域微调模型、STF数据集、训练微调部署框架、提示词工程等
|
2天前
|
存储 机器学习/深度学习 算法
如何准确的估计llm推理和微调的内存消耗
最近发布的三个大型语言模型——Command-R+ (104B参数), Mixtral-8x22b (141B参数的MoE模型), 和 Llama 3 70b (70.6B参数)——需要巨大的内存资源。推理时,Command-R+需193.72GB GPU RAM,Mixtral-8x22B需262.63GB,Llama 370b需131.5GB。激活的内存消耗根据序列长度、批大小等因素变化。文章详细介绍了计算这些模型内存需求的方法,并探讨了如何通过量化、优化器优化和梯度检查点减少内存使用,以适应微调和推理。
44 0
|
2天前
|
机器学习/深度学习 算法 PyTorch
使用SPIN技术对LLM进行自我博弈微调训练
2024年是大型语言模型(llm)的快速发展的一年,对于大语言模型的训练一个重要的方法是对齐方法,它包括使用人类样本的监督微调(SFT)和依赖人类偏好的人类反馈强化学习(RLHF)。这些方法在llm中发挥了至关重要的作用,但是对齐方法对人工注释数据有的大量需求。这一挑战使得微调成为一个充满活力的研究领域,研究人员积极致力于开发能够有效利用人类数据的方法。
46 0
|
9月前
|
人工智能 数据可视化 测试技术
精进语言模型:探索LLM Training微调与奖励模型技术的新途径
精进语言模型:探索LLM Training微调与奖励模型技术的新途径
|
11月前
|
机器学习/深度学习 人工智能 自然语言处理
RLHF中的「RL」是必需的吗?有人用二进制交叉熵直接微调LLM,效果更好
RLHF中的「RL」是必需的吗?有人用二进制交叉熵直接微调LLM,效果更好
158 0
http://www.vxiaotou.com