• Privacy & Policy
  • Contact
2025-06-14 07:08:42
  • Login
  • Register
欢迎来到ClaudeAI博客社区
  • Home
  • AI教程
    • 大模型应用实践课程
      • 大型语言模型课程介绍
      • 第1-1章:使用 OpenAI 创建您的第一个聊天机器人-大模型应用实践教程
      • 第1-2章:使用 OpenAI 创建简单的自然语言到 SQL-大模型应用实践教程
    • Claude应用开发教程
      • 第1章:基本提示结构-Claude应用开发教程
      • 第 2 章:基本函数构建-Claude开发应用教程
      • 第3章:角色扮演提示-Claude应用开发教程
      • 第4章 分离数据和指令-Claude开发应用教程
      • 第 5 章:格式化输出-Claude应用开发教程
      • 第6章:预知(Thinking Step by Step)-Claude应用开发教程
    • Claude提示词教程
      • 第 1 课:基本提​​示词技术-Claude提示词工程课程
      • 第 2 课:医疗病例摘要助手[XML-JSON格式化输出]-Claude提示词工程教程
      • 第 3 课:提示工程迭代流程-Claude提示词工程课程
      • 第 4 课:客服聊天记录总结生成器-Claude提示词课程
    • Claude函数/工具调用教程
      • 第3章:使用工具调用强制 JSON结构输出[以提取维基百科页面文章为例]-Claude工具调用教程
      • 第2章:ClaudeAPI如何构建工具并调用[以计算器工具调用为例]-Claude工具调用教程
      • 第1章:工具使用/函数调用介绍和概述-Claude函数工具调用教程
    • ClaudeAPI基础入门教程
      • 第2章:构建简单的多轮聊天机器人-ClaudeAPI基础入门教程
      • 第1章:Claude SDK安装和使用-CLaudeAPI基础入门教程
      • Claude API基础知识课程简介
  • AI大模型
    • chatgpt
      • OpenAI o1-preview 简介和如何使用
      • 如何设置使用新的 ChatGPT o1 模型
      • OpenAI o1 性能评估和学习推理思维链介绍
      • OpenAI o1-mini和gpt4o性能对比介绍
      • OpenAI o1 模型与GPT-4o模型使用区别和场景
    • Claude
      • Claude的project介绍和创建
      • Claude Sonnet 3.5 API 教程
      • Claude 3 最新注册使用教程!(国内版)-性能完爆GPT4o!
      • Claude3.5 vs GPT4 谁才是最强大模型?
      • Claude国内无法登录的解决办法
      • Claude3.5 Sonnet的详细介绍
      • Claude如何写好提示词
      • Claude快速入门指南
    • Llama3
      • Llama3.2最新90b 11b 3b 1b模型介绍-AI大模型
      •  Llama Stack入门安装指南[结合Ollama]-AI大模型
      • Llama 3.2介绍最全技术报告-AI大模型
      • Llama 3.1技术报告:Meta推出最强开源大模型
      • Meta 的 Llama 3.1 405B工作原理、用例等
      • 如何在本地安装和运行 Meta Llama 3.1
      • 使用 Ollama和租用GPU 运行 Llama 3.1 405B:分步指南
      • Llama3.1 Colab 微调指南
  • AI论文
    • OpenAIo1原理解读:重复采样扩展推理计算[Large Language Monkeys: Scaling Inference Compute with Repeated Sampling]-AI论文
    • OpenIAo1原理解读:Q*强化学习与启发式搜索推理框架[Q*: Improving Multi-step Reasoning for LLMs with Deliberative Planning]-AI论文
    • OpenAIo1原理解读:基于蒙特卡罗树搜索的自我博弈互相推理[Self-play Mutual Reasoning]-AI论文
    • openAIo1原理解读:推理增加计算量提高大模型效果[Scaling LLM Test-Time Compute Optimally can be More Effective]-AI论文
    • OpenAI o1大模型原理解读:自博弈Self-play强化学习方法[A Survey on Self-play Methods in Reinforcement Learning]-AI论文
    • OpenAI o1大模型原理解读:Quiet-STaR 推理思维链[Language Models Can Teach Themselves to Think Before Speaking]-AI论文
    • OpenAI o1大模型原理论文汇总[Awesome LLM Strawberry]-AI论文
  • AI应用
    •  Crawl4AI:开源 LLM 友好型 Web 爬虫和抓取工具-AI应用
    • AI Scientist:用于全自动科学发现的写论文应用-AI应用
    • ai-data-analysis-MulitAgent:一种用于自动化复杂研究过程的先进多智能体系统-AI应用
    • Aider:最好的免费开源 AI 编码助手,自动git提交代码!-AI应用
    • AIHawk:你的 AI 求职助手,自动化申请、获得个性化推荐,更快找到您梦想的工作-AI应用
  • 加入会员社区
  • About Us
No Result
View All Result
  • Home
  • AI教程
    • 大模型应用实践课程
      • 大型语言模型课程介绍
      • 第1-1章:使用 OpenAI 创建您的第一个聊天机器人-大模型应用实践教程
      • 第1-2章:使用 OpenAI 创建简单的自然语言到 SQL-大模型应用实践教程
    • Claude应用开发教程
      • 第1章:基本提示结构-Claude应用开发教程
      • 第 2 章:基本函数构建-Claude开发应用教程
      • 第3章:角色扮演提示-Claude应用开发教程
      • 第4章 分离数据和指令-Claude开发应用教程
      • 第 5 章:格式化输出-Claude应用开发教程
      • 第6章:预知(Thinking Step by Step)-Claude应用开发教程
    • Claude提示词教程
      • 第 1 课:基本提​​示词技术-Claude提示词工程课程
      • 第 2 课:医疗病例摘要助手[XML-JSON格式化输出]-Claude提示词工程教程
      • 第 3 课:提示工程迭代流程-Claude提示词工程课程
      • 第 4 课:客服聊天记录总结生成器-Claude提示词课程
    • Claude函数/工具调用教程
      • 第3章:使用工具调用强制 JSON结构输出[以提取维基百科页面文章为例]-Claude工具调用教程
      • 第2章:ClaudeAPI如何构建工具并调用[以计算器工具调用为例]-Claude工具调用教程
      • 第1章:工具使用/函数调用介绍和概述-Claude函数工具调用教程
    • ClaudeAPI基础入门教程
      • 第2章:构建简单的多轮聊天机器人-ClaudeAPI基础入门教程
      • 第1章:Claude SDK安装和使用-CLaudeAPI基础入门教程
      • Claude API基础知识课程简介
  • AI大模型
    • chatgpt
      • OpenAI o1-preview 简介和如何使用
      • 如何设置使用新的 ChatGPT o1 模型
      • OpenAI o1 性能评估和学习推理思维链介绍
      • OpenAI o1-mini和gpt4o性能对比介绍
      • OpenAI o1 模型与GPT-4o模型使用区别和场景
    • Claude
      • Claude的project介绍和创建
      • Claude Sonnet 3.5 API 教程
      • Claude 3 最新注册使用教程!(国内版)-性能完爆GPT4o!
      • Claude3.5 vs GPT4 谁才是最强大模型?
      • Claude国内无法登录的解决办法
      • Claude3.5 Sonnet的详细介绍
      • Claude如何写好提示词
      • Claude快速入门指南
    • Llama3
      • Llama3.2最新90b 11b 3b 1b模型介绍-AI大模型
      •  Llama Stack入门安装指南[结合Ollama]-AI大模型
      • Llama 3.2介绍最全技术报告-AI大模型
      • Llama 3.1技术报告:Meta推出最强开源大模型
      • Meta 的 Llama 3.1 405B工作原理、用例等
      • 如何在本地安装和运行 Meta Llama 3.1
      • 使用 Ollama和租用GPU 运行 Llama 3.1 405B:分步指南
      • Llama3.1 Colab 微调指南
  • AI论文
    • OpenAIo1原理解读:重复采样扩展推理计算[Large Language Monkeys: Scaling Inference Compute with Repeated Sampling]-AI论文
    • OpenIAo1原理解读:Q*强化学习与启发式搜索推理框架[Q*: Improving Multi-step Reasoning for LLMs with Deliberative Planning]-AI论文
    • OpenAIo1原理解读:基于蒙特卡罗树搜索的自我博弈互相推理[Self-play Mutual Reasoning]-AI论文
    • openAIo1原理解读:推理增加计算量提高大模型效果[Scaling LLM Test-Time Compute Optimally can be More Effective]-AI论文
    • OpenAI o1大模型原理解读:自博弈Self-play强化学习方法[A Survey on Self-play Methods in Reinforcement Learning]-AI论文
    • OpenAI o1大模型原理解读:Quiet-STaR 推理思维链[Language Models Can Teach Themselves to Think Before Speaking]-AI论文
    • OpenAI o1大模型原理论文汇总[Awesome LLM Strawberry]-AI论文
  • AI应用
    •  Crawl4AI:开源 LLM 友好型 Web 爬虫和抓取工具-AI应用
    • AI Scientist:用于全自动科学发现的写论文应用-AI应用
    • ai-data-analysis-MulitAgent:一种用于自动化复杂研究过程的先进多智能体系统-AI应用
    • Aider:最好的免费开源 AI 编码助手,自动git提交代码!-AI应用
    • AIHawk:你的 AI 求职助手,自动化申请、获得个性化推荐,更快找到您梦想的工作-AI应用
  • 加入会员社区
  • About Us
No Result
View All Result
欢迎来到ClaudeAI博客社区
No Result
View All Result
Home llama

Meta-llama3.1大模型是否需要微调探讨分析

小远 by 小远
2024-09-09
in llama
1

这是关于采用开源大型语言模型 (LLM) 的系列博文中的第二篇。在这篇文章中,我们将讨论以下问题:“我们何时应该进行微调,何时应该考虑其他技术?”

  • 在第 1 部分中,我们研究了将语言模型适应领域数据的流行方法。
  • 在第 3 部分中,探索一些策划良好训练数据集的经验规则。

目录

Toggle
  • 介绍
    • 微调可能有益的原型
  • 与其他领域自适应技术的比较
    • 微调与上下文(小样本)学习
    • 微调与RAG
  • 致谢

介绍

在 LLM 出现之前,微调通常用于较小规模的模型(100M – 300M 个参数)。最先进的领域应用程序是使用监督微调 (SFT) 构建的,即使用带注释的数据为您自己的领域和下游任务进一步训练预训练模型。

然而,随着更大模型(> 1B 个参数)的出现,微调的问题变得更加微妙。最重要的是,大型模型需要更大的资源和商业硬件来进行微调。

下表 1 列出了在三种情况下微调 Llama 2 7B 和 Llama 2 13B 模型的峰值 GPU 内存使用情况。您可能会注意到,QLoRA等算法使得使用有限资源微调大型模型变得更加容易。

例如,表 1 显示了 Llama 2 7B 上三种微调模式(完全微调、LoRA 和 QLoRA)的峰值 GPU 内存。据报道,Llama 1的参数高效微调 (PEFT) 或量化也会导致内存减少。除了计算资源之外,灾难性遗忘(有关详细信息,请参阅本系列第 1 部分)也是全参数微调的常见陷阱。PEFT 技术旨在通过对少量参数进行训练来解决这些缺点。

表 1:LLama 2 7B 上不同微调方法的内存(来源),单位为 Gb。QLoRA 使用 4 位 NormalFloat 量化。

微调可能有益的原型

我们已经确定以下场景是可以从微调中受益的常见用例:

  1. 语气、风格和格式定制:用例可能需要能够反映特定角色或服务于特定受众的 LLM。通过使用自定义数据集对 LLM 进行微调,我们可以调整聊天机器人的响应,使其更符合受众的特定要求或预期体验。我们可能还希望以特定方式构造输出 – 例如 JSON、YAML 或 Markdown 格式的输出。
  2. 提高准确性和处理极端情况:微调可用于纠正幻觉或错误,这些幻觉或错误很难通过提示工程和情境学习来纠正。它还可以增强模型执行新技能或难以在提示中表达的任务的能力。此过程有助于纠正模型无法遵循复杂提示的问题,并提高其产生所需输出的可靠性。我们提供两个示例:
    • Phi-2对金融数据情绪分析的准确率从34%提升到了85%。
    • ChatGPT 仅使用 100 个示例就将 Reddit 评论情绪分析的准确率提高了 25 个百分点(从 48% 提高到 73%)。
      通常,对于较小的初始准确率数字(< 50%),使用几百个示例进行微调就能取得很大的进步。
  3. 解决代表性不足的领域:尽管法学硕士接受了大量通用数据的训练,但他们可能并不总是精通每个细分领域的细微行话、术语或特性。对于法律、医疗或金融等不同领域,微调已被证明有助于提高下游任务的准确性。我们提供两个示例:
    • 正如这篇文章所指出的,患者的病史包含高度敏感的数据,这些数据通常不会出现在公共领域。因此,基于 LLM 的病史总结系统需要进行微调。
    • 对于印度语等代表性不足的语言,使用 PEFT 技术进行微调有助于完成这些语言的所有任务。
  4. 降低成本:微调可以将较大的模型(如 Llama 2 70B/GPT-4)中的技能提炼到较小的模型(如 Llama 2 7B)中,从而在不影响质量的情况下降低成本和延迟。此外,微调减少了对冗长或特定提示(如提示工程中所用)的需求,从而节省代币并进一步降低成本。作为示例,本文展示了如何通过提炼更昂贵的 GPT-4 模型来微调 GPT-3.5 法官,从而节省成本。
  5. 新任务/能力:通常,新功能可以通过微调来实现。我们提供了三个示例:
    • 对 LLM 进行微调,以便更好地利用给定检索器的上下文或完全忽略它
    • 对 LLM 评判员进行微调,以评估其他 LLM 的指标,例如基础性、合规性或帮助性
    • 微调 LLM 以增加上下文窗口

与其他领域自适应技术的比较

微调与上下文(小样本)学习

上下文学习 (ICL) 是提高基于 LLM 的系统性能的有效方法。鉴于其简单性,应在进行任何微调活动之前先尝试使用 ICL。此外,ICL 实验可以帮助您评估微调是否会提高下游任务的性能。使用 ICL 时的常见注意事项包括:

  • 随着需要展示的示例数量的增加,推理和延迟的成本也会增加。
  • 随着例子越来越多,LLM 通常会忽略一些例子。这意味着您可能需要一个基于 RAG 的系统,根据输入找到最相关的示例。
  • LLM 可能会把提供的知识作为例子吐出来。在微调时也存在这种担忧。

微调与RAG

普遍的共识是,当 LLM 基本性能不令人满意时,您可以“从 RAG 开始,评估其性能,如果发现不足,则转向微调”,或者“RAG 可能比微调更有优势”(来源)。但是,我们认为这种范式过于简单,因为在某些情况下,RAG 不仅不是微调的替代方案,而且更像是微调的补充方法。根据问题的特点,应该尝试其中一种或两种方法。采用本文的框架,以下是您可能会问的一些问题,以确定微调或 RAG(或两者)是否适合您的问题:

  • 您的应用程序是否需要外部知识?微调通常无助于注入新知识。
  • 您的应用程序是否需要自定义语气/行为/词汇或风格?对于这些类型的需求,微调通常是正确的方法。
  • 您的应用对幻觉的容忍度有多高?在抑制虚假信息和虚构内容至关重要的应用中,RAG 系统提供了内置机制来最大限度地减少幻觉。
  • 有多少标记的训练数据可用?
  • 数据有多静态/动态?如果问题需要访问动态数据语料库,微调可能不是正确的方法,因为 LLM 的知识很快就会变得陈旧。
  • LLM 申请需要有多透明/可解释?RAG 本身可以提供参考,这对于解释 LLM 输出很有用。
  • 成本和复杂性:团队是否具有构建搜索系统的专业知识或之前的微调经验?
  • 你的应用程序中的任务有哪些多样性?

在大多数情况下,微调和 RAG 的混合解决方案将产生最佳结果——问题变成了同时进行这两项操作的成本、时间和额外的独立收益。参考上述问题来指导您的决策,以确定是否需要 RAG 和/或微调,并进行内部实验以了解通过分析错误可能获得的指标增益。最后,微调中的探索确实需要强大的数据收集和数据改进策略,我们建议将其作为开始微调的前提。

致谢

我们要感谢 Suraj Subramanian 和 Varun Vontimitta 对这篇博文的组织和准备提出的建设性反馈。

转载自:https://ai.meta.com/blog/when-to-fine-tune-llms-vs-other-techniques/

Tags: Llama 3llama3.1meta模型微调
Previous Post

Meta微调Llama3.1模型的各种可用方法

Next Post

Meta-Llama3.1有效的微调方法-有效的数据集构建

小远

小远

大家好,我是小远,毕业于华南理工大学。作为一名AI算法工程师,我创立了个人博客,旨在成为连接AI技术前沿与广大爱好者的桥梁。宗旨是:记录并分享关于AI大模型的最新知识、研究成果及行业动态,致力于普及AI知识,降低技术门槛,让更多人能够了解并参与到这场科技革命中来。

Related Posts

2024年30大RAG面试问题和答案
llama

Llama3.2最新90b 11b 3b 1b模型介绍-AI大模型

2024-09-27
 Llama Stack入门安装指南[结合Ollama]-AI大模型
llama

 Llama Stack入门安装指南[结合Ollama]-AI大模型

2024-10-13
Llama 3.2介绍最全技术报告-AI大模型
llama

Llama 3.2介绍最全技术报告-AI大模型

2024-09-27
Load More
Next Post
Meta-Llama3.1有效的微调方法-有效的数据集构建

Meta-Llama3.1有效的微调方法-有效的数据集构建

Please login to join discussion
Do NOT Think That Much for 2+3=? On the Overthinking of o1-Like LLMs[不要过度思考2+3等于几 在类LLM的过度思考上]-AI论文
claude

Do NOT Think That Much for 2+3=? On the Overthinking of o1-Like LLMs[不要过度思考2+3等于几 在类LLM的过度思考上]-AI论文

by 小远
2025-01-12
0

图1:在图(a)中过度思考问题的示意图:...

Read more
Slow Perception: Let’s Perceive Geometric Figures Step-by-step[缓慢感知:让我们逐步感知几何图形]-AI论文
AI论文

Slow Perception: Let’s Perceive Geometric Figures Step-by-step[缓慢感知:让我们逐步感知几何图形]-AI论文

by 小远
2025-01-12
0

摘要 近期,“视觉感知”开始进入人们的视...

Read more
Ensembling Large Language Models with Process Reward-Guided Tree Search for Better Complex Reasoning[结合大型语言模型与过程奖励引导的树搜索以提升复杂推理能力]-AI论文
claude

Ensembling Large Language Models with Process Reward-Guided Tree Search for Better Complex Reasoning[结合大型语言模型与过程奖励引导的树搜索以提升复杂推理能力]-AI论文

by 小远
2025-01-12
0

摘要 尽管大型语言模型近期取得了显著进展...

Read more
Large Concept Models:Language Modeling in a Sentence Representation Space[大型概念模型:在句子表示空间中的语言建模]-AI论文
AI论文

Large Concept Models:Language Modeling in a Sentence Representation Space[大型概念模型:在句子表示空间中的语言建模]-AI论文

by 小远
2025-01-06
0

大型语言模型(LLMs)已经彻底改变了人...

Read more

Claude大模型学习社区

希望成为中国第一个大模型教程和AI论文的分享乐园!帮助每一位同学快速上入门大模型!

分类

  • AIRAG
  • AI应用
  • AI提示库
  • AI论文
  • artifacts
  • chatgpt
  • claude
  • claude教程
  • Cursor
  • gemini
  • llama
  • ollama
  • openAIo1
  • prompt工程
  • 文心一言

标签

Agent Agents AI工具 AI应用 AI提示库 AI论文 API chatgpt claude Claude3.5 Sonnet COT css Cursor CursorAI ernie html IDE Llama 3 llama3.1 llama3.2 LLM meta o1 o1-preview ollama OpenAI openAIo1 OpenAI o1 openAIo1原理 prompt rag Reasoning Swarm web 函数构建 原理解读 合成数据 多智能体 大模型 强化学习 思维链 接码平台 提示词 智能体 检索增强
  • Home
  • AI教程
  • AI大模型
  • AI论文
  • AI应用
  • 加入会员社区
  • About Us

© 2024 ClaudeAI大模型学习社区 所有属于ICP备案:豫ICP备2024068873号-1号.

No Result
View All Result
  • Home
  • AI教程
    • 大模型应用实践课程
      • 大型语言模型课程介绍
      • 第1-1章:使用 OpenAI 创建您的第一个聊天机器人-大模型应用实践教程
      • 第1-2章:使用 OpenAI 创建简单的自然语言到 SQL-大模型应用实践教程
    • Claude应用开发教程
      • 第1章:基本提示结构-Claude应用开发教程
      • 第 2 章:基本函数构建-Claude开发应用教程
      • 第3章:角色扮演提示-Claude应用开发教程
      • 第4章 分离数据和指令-Claude开发应用教程
      • 第 5 章:格式化输出-Claude应用开发教程
      • 第6章:预知(Thinking Step by Step)-Claude应用开发教程
    • Claude提示词教程
      • 第 1 课:基本提​​示词技术-Claude提示词工程课程
      • 第 2 课:医疗病例摘要助手[XML-JSON格式化输出]-Claude提示词工程教程
      • 第 3 课:提示工程迭代流程-Claude提示词工程课程
      • 第 4 课:客服聊天记录总结生成器-Claude提示词课程
    • Claude函数/工具调用教程
      • 第3章:使用工具调用强制 JSON结构输出[以提取维基百科页面文章为例]-Claude工具调用教程
      • 第2章:ClaudeAPI如何构建工具并调用[以计算器工具调用为例]-Claude工具调用教程
      • 第1章:工具使用/函数调用介绍和概述-Claude函数工具调用教程
    • ClaudeAPI基础入门教程
      • 第2章:构建简单的多轮聊天机器人-ClaudeAPI基础入门教程
      • 第1章:Claude SDK安装和使用-CLaudeAPI基础入门教程
      • Claude API基础知识课程简介
  • AI大模型
    • chatgpt
      • OpenAI o1-preview 简介和如何使用
      • 如何设置使用新的 ChatGPT o1 模型
      • OpenAI o1 性能评估和学习推理思维链介绍
      • OpenAI o1-mini和gpt4o性能对比介绍
      • OpenAI o1 模型与GPT-4o模型使用区别和场景
    • Claude
      • Claude的project介绍和创建
      • Claude Sonnet 3.5 API 教程
      • Claude 3 最新注册使用教程!(国内版)-性能完爆GPT4o!
      • Claude3.5 vs GPT4 谁才是最强大模型?
      • Claude国内无法登录的解决办法
      • Claude3.5 Sonnet的详细介绍
      • Claude如何写好提示词
      • Claude快速入门指南
    • Llama3
      • Llama3.2最新90b 11b 3b 1b模型介绍-AI大模型
      •  Llama Stack入门安装指南[结合Ollama]-AI大模型
      • Llama 3.2介绍最全技术报告-AI大模型
      • Llama 3.1技术报告:Meta推出最强开源大模型
      • Meta 的 Llama 3.1 405B工作原理、用例等
      • 如何在本地安装和运行 Meta Llama 3.1
      • 使用 Ollama和租用GPU 运行 Llama 3.1 405B:分步指南
      • Llama3.1 Colab 微调指南
  • AI论文
    • OpenAIo1原理解读:重复采样扩展推理计算[Large Language Monkeys: Scaling Inference Compute with Repeated Sampling]-AI论文
    • OpenIAo1原理解读:Q*强化学习与启发式搜索推理框架[Q*: Improving Multi-step Reasoning for LLMs with Deliberative Planning]-AI论文
    • OpenAIo1原理解读:基于蒙特卡罗树搜索的自我博弈互相推理[Self-play Mutual Reasoning]-AI论文
    • openAIo1原理解读:推理增加计算量提高大模型效果[Scaling LLM Test-Time Compute Optimally can be More Effective]-AI论文
    • OpenAI o1大模型原理解读:自博弈Self-play强化学习方法[A Survey on Self-play Methods in Reinforcement Learning]-AI论文
    • OpenAI o1大模型原理解读:Quiet-STaR 推理思维链[Language Models Can Teach Themselves to Think Before Speaking]-AI论文
    • OpenAI o1大模型原理论文汇总[Awesome LLM Strawberry]-AI论文
  • AI应用
    •  Crawl4AI:开源 LLM 友好型 Web 爬虫和抓取工具-AI应用
    • AI Scientist:用于全自动科学发现的写论文应用-AI应用
    • ai-data-analysis-MulitAgent:一种用于自动化复杂研究过程的先进多智能体系统-AI应用
    • Aider:最好的免费开源 AI 编码助手,自动git提交代码!-AI应用
    • AIHawk:你的 AI 求职助手,自动化申请、获得个性化推荐,更快找到您梦想的工作-AI应用
  • 加入会员社区
  • About Us

© 2024 ClaudeAI大模型学习社区 所有属于ICP备案:豫ICP备2024068873号-1号.

Welcome Back!

Login to your account below

Forgotten Password? Sign Up

Create New Account!

Fill the forms below to register

All fields are required. Log In

Retrieve your password

Please enter your username or email address to reset your password.

Log In