• Privacy & Policy
  • Contact
2025-06-14 06:43:56
  • Login
  • Register
欢迎来到ClaudeAI博客社区
  • Home
  • AI教程
    • 大模型应用实践课程
      • 大型语言模型课程介绍
      • 第1-1章:使用 OpenAI 创建您的第一个聊天机器人-大模型应用实践教程
      • 第1-2章:使用 OpenAI 创建简单的自然语言到 SQL-大模型应用实践教程
    • Claude应用开发教程
      • 第1章:基本提示结构-Claude应用开发教程
      • 第 2 章:基本函数构建-Claude开发应用教程
      • 第3章:角色扮演提示-Claude应用开发教程
      • 第4章 分离数据和指令-Claude开发应用教程
      • 第 5 章:格式化输出-Claude应用开发教程
      • 第6章:预知(Thinking Step by Step)-Claude应用开发教程
    • Claude提示词教程
      • 第 1 课:基本提​​示词技术-Claude提示词工程课程
      • 第 2 课:医疗病例摘要助手[XML-JSON格式化输出]-Claude提示词工程教程
      • 第 3 课:提示工程迭代流程-Claude提示词工程课程
      • 第 4 课:客服聊天记录总结生成器-Claude提示词课程
    • Claude函数/工具调用教程
      • 第3章:使用工具调用强制 JSON结构输出[以提取维基百科页面文章为例]-Claude工具调用教程
      • 第2章:ClaudeAPI如何构建工具并调用[以计算器工具调用为例]-Claude工具调用教程
      • 第1章:工具使用/函数调用介绍和概述-Claude函数工具调用教程
    • ClaudeAPI基础入门教程
      • 第2章:构建简单的多轮聊天机器人-ClaudeAPI基础入门教程
      • 第1章:Claude SDK安装和使用-CLaudeAPI基础入门教程
      • Claude API基础知识课程简介
  • AI大模型
    • chatgpt
      • OpenAI o1-preview 简介和如何使用
      • 如何设置使用新的 ChatGPT o1 模型
      • OpenAI o1 性能评估和学习推理思维链介绍
      • OpenAI o1-mini和gpt4o性能对比介绍
      • OpenAI o1 模型与GPT-4o模型使用区别和场景
    • Claude
      • Claude的project介绍和创建
      • Claude Sonnet 3.5 API 教程
      • Claude 3 最新注册使用教程!(国内版)-性能完爆GPT4o!
      • Claude3.5 vs GPT4 谁才是最强大模型?
      • Claude国内无法登录的解决办法
      • Claude3.5 Sonnet的详细介绍
      • Claude如何写好提示词
      • Claude快速入门指南
    • Llama3
      • Llama3.2最新90b 11b 3b 1b模型介绍-AI大模型
      •  Llama Stack入门安装指南[结合Ollama]-AI大模型
      • Llama 3.2介绍最全技术报告-AI大模型
      • Llama 3.1技术报告:Meta推出最强开源大模型
      • Meta 的 Llama 3.1 405B工作原理、用例等
      • 如何在本地安装和运行 Meta Llama 3.1
      • 使用 Ollama和租用GPU 运行 Llama 3.1 405B:分步指南
      • Llama3.1 Colab 微调指南
  • AI论文
    • OpenAIo1原理解读:重复采样扩展推理计算[Large Language Monkeys: Scaling Inference Compute with Repeated Sampling]-AI论文
    • OpenIAo1原理解读:Q*强化学习与启发式搜索推理框架[Q*: Improving Multi-step Reasoning for LLMs with Deliberative Planning]-AI论文
    • OpenAIo1原理解读:基于蒙特卡罗树搜索的自我博弈互相推理[Self-play Mutual Reasoning]-AI论文
    • openAIo1原理解读:推理增加计算量提高大模型效果[Scaling LLM Test-Time Compute Optimally can be More Effective]-AI论文
    • OpenAI o1大模型原理解读:自博弈Self-play强化学习方法[A Survey on Self-play Methods in Reinforcement Learning]-AI论文
    • OpenAI o1大模型原理解读:Quiet-STaR 推理思维链[Language Models Can Teach Themselves to Think Before Speaking]-AI论文
    • OpenAI o1大模型原理论文汇总[Awesome LLM Strawberry]-AI论文
  • AI应用
    •  Crawl4AI:开源 LLM 友好型 Web 爬虫和抓取工具-AI应用
    • AI Scientist:用于全自动科学发现的写论文应用-AI应用
    • ai-data-analysis-MulitAgent:一种用于自动化复杂研究过程的先进多智能体系统-AI应用
    • Aider:最好的免费开源 AI 编码助手,自动git提交代码!-AI应用
    • AIHawk:你的 AI 求职助手,自动化申请、获得个性化推荐,更快找到您梦想的工作-AI应用
  • 加入会员社区
  • About Us
No Result
View All Result
  • Home
  • AI教程
    • 大模型应用实践课程
      • 大型语言模型课程介绍
      • 第1-1章:使用 OpenAI 创建您的第一个聊天机器人-大模型应用实践教程
      • 第1-2章:使用 OpenAI 创建简单的自然语言到 SQL-大模型应用实践教程
    • Claude应用开发教程
      • 第1章:基本提示结构-Claude应用开发教程
      • 第 2 章:基本函数构建-Claude开发应用教程
      • 第3章:角色扮演提示-Claude应用开发教程
      • 第4章 分离数据和指令-Claude开发应用教程
      • 第 5 章:格式化输出-Claude应用开发教程
      • 第6章:预知(Thinking Step by Step)-Claude应用开发教程
    • Claude提示词教程
      • 第 1 课:基本提​​示词技术-Claude提示词工程课程
      • 第 2 课:医疗病例摘要助手[XML-JSON格式化输出]-Claude提示词工程教程
      • 第 3 课:提示工程迭代流程-Claude提示词工程课程
      • 第 4 课:客服聊天记录总结生成器-Claude提示词课程
    • Claude函数/工具调用教程
      • 第3章:使用工具调用强制 JSON结构输出[以提取维基百科页面文章为例]-Claude工具调用教程
      • 第2章:ClaudeAPI如何构建工具并调用[以计算器工具调用为例]-Claude工具调用教程
      • 第1章:工具使用/函数调用介绍和概述-Claude函数工具调用教程
    • ClaudeAPI基础入门教程
      • 第2章:构建简单的多轮聊天机器人-ClaudeAPI基础入门教程
      • 第1章:Claude SDK安装和使用-CLaudeAPI基础入门教程
      • Claude API基础知识课程简介
  • AI大模型
    • chatgpt
      • OpenAI o1-preview 简介和如何使用
      • 如何设置使用新的 ChatGPT o1 模型
      • OpenAI o1 性能评估和学习推理思维链介绍
      • OpenAI o1-mini和gpt4o性能对比介绍
      • OpenAI o1 模型与GPT-4o模型使用区别和场景
    • Claude
      • Claude的project介绍和创建
      • Claude Sonnet 3.5 API 教程
      • Claude 3 最新注册使用教程!(国内版)-性能完爆GPT4o!
      • Claude3.5 vs GPT4 谁才是最强大模型?
      • Claude国内无法登录的解决办法
      • Claude3.5 Sonnet的详细介绍
      • Claude如何写好提示词
      • Claude快速入门指南
    • Llama3
      • Llama3.2最新90b 11b 3b 1b模型介绍-AI大模型
      •  Llama Stack入门安装指南[结合Ollama]-AI大模型
      • Llama 3.2介绍最全技术报告-AI大模型
      • Llama 3.1技术报告:Meta推出最强开源大模型
      • Meta 的 Llama 3.1 405B工作原理、用例等
      • 如何在本地安装和运行 Meta Llama 3.1
      • 使用 Ollama和租用GPU 运行 Llama 3.1 405B:分步指南
      • Llama3.1 Colab 微调指南
  • AI论文
    • OpenAIo1原理解读:重复采样扩展推理计算[Large Language Monkeys: Scaling Inference Compute with Repeated Sampling]-AI论文
    • OpenIAo1原理解读:Q*强化学习与启发式搜索推理框架[Q*: Improving Multi-step Reasoning for LLMs with Deliberative Planning]-AI论文
    • OpenAIo1原理解读:基于蒙特卡罗树搜索的自我博弈互相推理[Self-play Mutual Reasoning]-AI论文
    • openAIo1原理解读:推理增加计算量提高大模型效果[Scaling LLM Test-Time Compute Optimally can be More Effective]-AI论文
    • OpenAI o1大模型原理解读:自博弈Self-play强化学习方法[A Survey on Self-play Methods in Reinforcement Learning]-AI论文
    • OpenAI o1大模型原理解读:Quiet-STaR 推理思维链[Language Models Can Teach Themselves to Think Before Speaking]-AI论文
    • OpenAI o1大模型原理论文汇总[Awesome LLM Strawberry]-AI论文
  • AI应用
    •  Crawl4AI:开源 LLM 友好型 Web 爬虫和抓取工具-AI应用
    • AI Scientist:用于全自动科学发现的写论文应用-AI应用
    • ai-data-analysis-MulitAgent:一种用于自动化复杂研究过程的先进多智能体系统-AI应用
    • Aider:最好的免费开源 AI 编码助手,自动git提交代码!-AI应用
    • AIHawk:你的 AI 求职助手,自动化申请、获得个性化推荐,更快找到您梦想的工作-AI应用
  • 加入会员社区
  • About Us
No Result
View All Result
欢迎来到ClaudeAI博客社区
No Result
View All Result
Home llama

Meta-Llama3.1有效的微调方法-有效的数据集构建

小远 by 小远
2024-09-09
in llama
1

这是关于采用开源大型语言模型 (LLM) 的系列博文中的第三篇。在这篇文章中,我们探讨了一些整理良好训练数据集的经验法则。

  • 在第 1 部分中,我们研究了将语言模型适应领域数据的流行方法。
  • 在第 2 部分中,我们讨论了如何确定微调是否适合您的用例。

目录

Toggle
  • 介绍
  • 完全微调与参数高效微调(PEFT)
  • 数据集管理
    • 数据质量/数量
    • 数据多样性
    • 基于 LLM 的数据管道
    • 调试数据集
  • 结论
  • 致谢

介绍

微调 LLM 是一门艺术与科学的结合,该领域的最佳实践仍在不断涌现。在这篇博文中,我们将重点介绍微调的设计变量,并就我们迄今为止看到的在资源受限的情况下微调模型的最佳实践提供方向性指导。我们建议使用以下信息作为制定微调实验策略的起点。

完全微调与参数高效微调(PEFT)

完全微调和 PEFT 在应用于学术和实际环境中的新领域时都表现出下游性能的提升。选择其中一种归结为可用的计算量(以 GPU 小时和 GPU 内存为单位)、除目标下游任务之外的任务上的性能(学习-遗忘权衡)和人工注释成本。

完全微调更容易出现两个问题:模型崩溃和灾难性遗忘。模型崩溃是指模型输出收敛到一组有限的输出,而原始内容分布的尾部消失。正如本系列第 1 部分所讨论的,灾难性遗忘会导致模型失去其能力。一些早期的实证研究表明,与 PEFT 技术相比,完全微调技术更容易出现上述问题,但还需要进行更多研究。

PEFT 技术在设计上充当了微调的自然正则化器。PEFT 通常需要相对较少的计算来训练下游模型,并且对于资源受限且数据集大小有限的场景来说更容易实现。在某些情况下,完全微调在特定的目标任务上表现出更好的性能,通常以忘记原始模型的一些功能为代价。本文在 LoRA 和完全微调的比较中深入探讨了特定下游任务性能与其他任务性能之间的这种“学习-遗忘”权衡。

鉴于资源限制,与完全微调相比,PEFT 技术可能会提供更好的性能提升/成本比。如果下游性能在资源限制的情况下至关重要,则完全微调将是最有效的。无论哪种情况,关键都是要创建高质量的数据集,同时牢记以下关键原则。

数据集管理

在文献中的微调实验中,数据集对于获得微调的好处至关重要。除了“更好的质量和更多的示例”之外,还有更多细微差别,您可以明智地投资数据集收集,以提高资源受限的微调实验的性能。

数据质量/数量

  • 质量至关重要:我们看到的一个普遍趋势是质量比数量更重要——也就是说,最好拥有一小组高质量的数据,而不是一大组低质量的数据。质量的关键原则是一致的注释、没有错误、没有错误标记的数据、没有嘈杂的输入/输出,以及与总体相比具有代表性的分布。在微调时,LIMA 数据集的几千个精选示例比 50K 机器生成的 Alpaca 数据集具有更好的性能。OpenAI微调文档表明,即使是 50 到 100 个示例的数据集也可能产生影响。
  • 更复杂的语言任务需要更多数据:文本生成和摘要等相对复杂的任务更难微调,需要的数据比分类和实体提取等简单任务更多。这里的“更复杂”可以表示多种意思:输出中有更多的标记、需要更高阶的人类能力、多个正确答案。
  • 有效、高质量的数据收集:由于数据收集是昂贵,建议使用以下策略来提高样品效率并降低成本
    • 观察故障模式:观察先前的 ML 功能失败的示例,并添加针对这些故障模式的示例。
    • 人为参与:这是扩展数据标记的一种更便宜的方法。我们使用 LLM 自动化来生成基本响应,人工注释者可以使用该响应在更短的时间内进行标记。

数据多样性

简单来说,如果你用特定类型的响应过度训练模型,即使这不是最合适的答案,它也会倾向于给出该响应。这里的经验法则是尽可能确保训练数据反映模型在现实世界中的行为方式。

  • 重复:这已被发现是导致微调和预训练中模型性能下降的原因。通过去重实现多样性通常可以提高性能指标。
  • 输入的多样性:解释输入以实现多样性。在对 SQLCoder2 进行微调时,团队重新措辞了 SQL 查询附带的纯文本,以引入句法和语义多样性。同样,指令回译也已用于人类书面文本,通过询问法学硕士“这可以回答哪些问题?”来生成问答数据集。
  • 数据集的多样性:在针对更通用的下游任务(例如多语言适应)进行微调时,使用多样化的数据集已被证明可以改善学习-遗忘权衡,即遗忘模型的原始能力和学习新功能。针对印地语和奥迪亚语等不同语言的微调模型已使用丰富的语言特定数据集和其他指令微调数据集(例如FLAN、Alpaca、Dolly 等)来引入多样性。
  • 标准化输出:事实证明,从输出中删除空格和其他格式花招会有所帮助。SQLCoder2从生成的 SQL 中删除空格,让模型专注于学习重要的 SQL 概念,而不是诸如空格和缩进之类的花招。如果你想在回答中采用特定的语气。“帮助台聊天机器人是……”,然后将它们添加到每个示例的数据集中

基于 LLM 的数据管道

为了整理高质量的多样化数据集,数据管道通常使用 LLM 来降低注释成本。目前观察到以下技术:

  • 评估:使用高质量数据集训练模型,并使用它来注释大型数据集以筛选出高质量示例。
  • 生成:用高质量示例为 LLM 播种,并促使生成类似的高质量示例。合成数据集最佳实践开始实现。
  • 人为参与:使用 LLM 生成一组初始输出,并通过编辑或选择偏好来使用人类来提高质量。

调试数据集

  • 评估数据集是否存在不良输出:如果模型在某些方面仍然表现不佳,请添加训练示例,直接向模型展示如何正确执行这些方面。如果您的模型存在语法、逻辑或风格问题,请检查您的数据是否存在任何相同的问题。例如,如果模型现在说“我会为您安排这次会议”(但实际上不应该),请查看现有示例是否教会模型说它可以做它无法做到的新事情。
  • 仔细检查正/负类别的平衡:如果数据中 60% 的助手回答说“我无法回答这个问题”,但在推理时只有 5% 的回答应该这样说,那么您可能会收到过多的拒绝。
  • 详尽性和一致性:确保您的训练示例包含响应所需的所有信息。如果我们希望模型根据用户的个人特征来称赞用户,而训练示例包括助手对前一次对话中未发现的特征的称赞,则模型可能会学会产生幻觉信息。确保您的所有训练示例都采用相同的格式,以符合推理的预期。查看训练示例中的一致性和一致性。如果多个人创建了训练数据,则模型性能可能会受到人们之间的一致性和一致性水平的限制。例如,在文本提取任务中,如果人们仅同意 70% 的提取片段,则模型可能无法做得更好。

结论

微调是 LLM 开发的一个重要方面,需要在艺术和科学之间取得微妙的平衡。数据集的质量和管理对微调的成功起着重要作用,小型微调的 LLM 在特定任务上的表现通常优于大型模型。一旦做出微调的决定,Llama 微调指南将提供一个坚实的起点。微调数据集组合的专有性质阻碍了最佳实践和开源进步的共享。随着该领域的不断发展,我们预计会出现通用的最佳实践,同时保持微调的创造性和适应性。

致谢

我们要感谢 Suraj Subramanian 和 Varun Vontimitta 对这篇博文的组织和准备提出的建设性反馈。

Tags: llama3.1PEFT微调数据集
Previous Post

Meta-llama3.1大模型是否需要微调探讨分析

Next Post

宇宙键盘web游戏-AI提示库

小远

小远

大家好,我是小远,毕业于华南理工大学。作为一名AI算法工程师,我创立了个人博客,旨在成为连接AI技术前沿与广大爱好者的桥梁。宗旨是:记录并分享关于AI大模型的最新知识、研究成果及行业动态,致力于普及AI知识,降低技术门槛,让更多人能够了解并参与到这场科技革命中来。

Related Posts

2024年30大RAG面试问题和答案
llama

Llama3.2最新90b 11b 3b 1b模型介绍-AI大模型

2024-09-27
 Llama Stack入门安装指南[结合Ollama]-AI大模型
llama

 Llama Stack入门安装指南[结合Ollama]-AI大模型

2024-10-13
Llama 3.2介绍最全技术报告-AI大模型
llama

Llama 3.2介绍最全技术报告-AI大模型

2024-09-27
Load More
Next Post

宇宙键盘web游戏-AI提示库

Please login to join discussion
Do NOT Think That Much for 2+3=? On the Overthinking of o1-Like LLMs[不要过度思考2+3等于几 在类LLM的过度思考上]-AI论文
claude

Do NOT Think That Much for 2+3=? On the Overthinking of o1-Like LLMs[不要过度思考2+3等于几 在类LLM的过度思考上]-AI论文

by 小远
2025-01-12
0

图1:在图(a)中过度思考问题的示意图:...

Read more
Slow Perception: Let’s Perceive Geometric Figures Step-by-step[缓慢感知:让我们逐步感知几何图形]-AI论文
AI论文

Slow Perception: Let’s Perceive Geometric Figures Step-by-step[缓慢感知:让我们逐步感知几何图形]-AI论文

by 小远
2025-01-12
0

摘要 近期,“视觉感知”开始进入人们的视...

Read more
Ensembling Large Language Models with Process Reward-Guided Tree Search for Better Complex Reasoning[结合大型语言模型与过程奖励引导的树搜索以提升复杂推理能力]-AI论文
claude

Ensembling Large Language Models with Process Reward-Guided Tree Search for Better Complex Reasoning[结合大型语言模型与过程奖励引导的树搜索以提升复杂推理能力]-AI论文

by 小远
2025-01-12
0

摘要 尽管大型语言模型近期取得了显著进展...

Read more
Large Concept Models:Language Modeling in a Sentence Representation Space[大型概念模型:在句子表示空间中的语言建模]-AI论文
AI论文

Large Concept Models:Language Modeling in a Sentence Representation Space[大型概念模型:在句子表示空间中的语言建模]-AI论文

by 小远
2025-01-06
0

大型语言模型(LLMs)已经彻底改变了人...

Read more

Claude大模型学习社区

希望成为中国第一个大模型教程和AI论文的分享乐园!帮助每一位同学快速上入门大模型!

分类

  • AIRAG
  • AI应用
  • AI提示库
  • AI论文
  • artifacts
  • chatgpt
  • claude
  • claude教程
  • Cursor
  • gemini
  • llama
  • ollama
  • openAIo1
  • prompt工程
  • 文心一言

标签

Agent Agents AI工具 AI应用 AI提示库 AI论文 API chatgpt claude Claude3.5 Sonnet COT css Cursor CursorAI ernie html IDE Llama 3 llama3.1 llama3.2 LLM meta o1 o1-preview ollama OpenAI openAIo1 OpenAI o1 openAIo1原理 prompt rag Reasoning Swarm web 函数构建 原理解读 合成数据 多智能体 大模型 强化学习 思维链 接码平台 提示词 智能体 检索增强
  • Home
  • AI教程
  • AI大模型
  • AI论文
  • AI应用
  • 加入会员社区
  • About Us

© 2024 ClaudeAI大模型学习社区 所有属于ICP备案:豫ICP备2024068873号-1号.

No Result
View All Result
  • Home
  • AI教程
    • 大模型应用实践课程
      • 大型语言模型课程介绍
      • 第1-1章:使用 OpenAI 创建您的第一个聊天机器人-大模型应用实践教程
      • 第1-2章:使用 OpenAI 创建简单的自然语言到 SQL-大模型应用实践教程
    • Claude应用开发教程
      • 第1章:基本提示结构-Claude应用开发教程
      • 第 2 章:基本函数构建-Claude开发应用教程
      • 第3章:角色扮演提示-Claude应用开发教程
      • 第4章 分离数据和指令-Claude开发应用教程
      • 第 5 章:格式化输出-Claude应用开发教程
      • 第6章:预知(Thinking Step by Step)-Claude应用开发教程
    • Claude提示词教程
      • 第 1 课:基本提​​示词技术-Claude提示词工程课程
      • 第 2 课:医疗病例摘要助手[XML-JSON格式化输出]-Claude提示词工程教程
      • 第 3 课:提示工程迭代流程-Claude提示词工程课程
      • 第 4 课:客服聊天记录总结生成器-Claude提示词课程
    • Claude函数/工具调用教程
      • 第3章:使用工具调用强制 JSON结构输出[以提取维基百科页面文章为例]-Claude工具调用教程
      • 第2章:ClaudeAPI如何构建工具并调用[以计算器工具调用为例]-Claude工具调用教程
      • 第1章:工具使用/函数调用介绍和概述-Claude函数工具调用教程
    • ClaudeAPI基础入门教程
      • 第2章:构建简单的多轮聊天机器人-ClaudeAPI基础入门教程
      • 第1章:Claude SDK安装和使用-CLaudeAPI基础入门教程
      • Claude API基础知识课程简介
  • AI大模型
    • chatgpt
      • OpenAI o1-preview 简介和如何使用
      • 如何设置使用新的 ChatGPT o1 模型
      • OpenAI o1 性能评估和学习推理思维链介绍
      • OpenAI o1-mini和gpt4o性能对比介绍
      • OpenAI o1 模型与GPT-4o模型使用区别和场景
    • Claude
      • Claude的project介绍和创建
      • Claude Sonnet 3.5 API 教程
      • Claude 3 最新注册使用教程!(国内版)-性能完爆GPT4o!
      • Claude3.5 vs GPT4 谁才是最强大模型?
      • Claude国内无法登录的解决办法
      • Claude3.5 Sonnet的详细介绍
      • Claude如何写好提示词
      • Claude快速入门指南
    • Llama3
      • Llama3.2最新90b 11b 3b 1b模型介绍-AI大模型
      •  Llama Stack入门安装指南[结合Ollama]-AI大模型
      • Llama 3.2介绍最全技术报告-AI大模型
      • Llama 3.1技术报告:Meta推出最强开源大模型
      • Meta 的 Llama 3.1 405B工作原理、用例等
      • 如何在本地安装和运行 Meta Llama 3.1
      • 使用 Ollama和租用GPU 运行 Llama 3.1 405B:分步指南
      • Llama3.1 Colab 微调指南
  • AI论文
    • OpenAIo1原理解读:重复采样扩展推理计算[Large Language Monkeys: Scaling Inference Compute with Repeated Sampling]-AI论文
    • OpenIAo1原理解读:Q*强化学习与启发式搜索推理框架[Q*: Improving Multi-step Reasoning for LLMs with Deliberative Planning]-AI论文
    • OpenAIo1原理解读:基于蒙特卡罗树搜索的自我博弈互相推理[Self-play Mutual Reasoning]-AI论文
    • openAIo1原理解读:推理增加计算量提高大模型效果[Scaling LLM Test-Time Compute Optimally can be More Effective]-AI论文
    • OpenAI o1大模型原理解读:自博弈Self-play强化学习方法[A Survey on Self-play Methods in Reinforcement Learning]-AI论文
    • OpenAI o1大模型原理解读:Quiet-STaR 推理思维链[Language Models Can Teach Themselves to Think Before Speaking]-AI论文
    • OpenAI o1大模型原理论文汇总[Awesome LLM Strawberry]-AI论文
  • AI应用
    •  Crawl4AI:开源 LLM 友好型 Web 爬虫和抓取工具-AI应用
    • AI Scientist:用于全自动科学发现的写论文应用-AI应用
    • ai-data-analysis-MulitAgent:一种用于自动化复杂研究过程的先进多智能体系统-AI应用
    • Aider:最好的免费开源 AI 编码助手,自动git提交代码!-AI应用
    • AIHawk:你的 AI 求职助手,自动化申请、获得个性化推荐,更快找到您梦想的工作-AI应用
  • 加入会员社区
  • About Us

© 2024 ClaudeAI大模型学习社区 所有属于ICP备案:豫ICP备2024068873号-1号.

Welcome Back!

Login to your account below

Forgotten Password? Sign Up

Create New Account!

Fill the forms below to register

All fields are required. Log In

Retrieve your password

Please enter your username or email address to reset your password.

Log In