• Privacy & Policy
  • Contact
2025-05-21 03:28:28
  • Login
  • Register
欢迎来到ClaudeAI博客社区
  • Home
  • AI教程
    • 大模型应用实践课程
      • 大型语言模型课程介绍
      • 第1-1章:使用 OpenAI 创建您的第一个聊天机器人-大模型应用实践教程
      • 第1-2章:使用 OpenAI 创建简单的自然语言到 SQL-大模型应用实践教程
    • Claude应用开发教程
      • 第1章:基本提示结构-Claude应用开发教程
      • 第 2 章:基本函数构建-Claude开发应用教程
      • 第3章:角色扮演提示-Claude应用开发教程
      • 第4章 分离数据和指令-Claude开发应用教程
      • 第 5 章:格式化输出-Claude应用开发教程
      • 第6章:预知(Thinking Step by Step)-Claude应用开发教程
    • Claude提示词教程
      • 第 1 课:基本提​​示词技术-Claude提示词工程课程
      • 第 2 课:医疗病例摘要助手[XML-JSON格式化输出]-Claude提示词工程教程
      • 第 3 课:提示工程迭代流程-Claude提示词工程课程
      • 第 4 课:客服聊天记录总结生成器-Claude提示词课程
    • Claude函数/工具调用教程
      • 第3章:使用工具调用强制 JSON结构输出[以提取维基百科页面文章为例]-Claude工具调用教程
      • 第2章:ClaudeAPI如何构建工具并调用[以计算器工具调用为例]-Claude工具调用教程
      • 第1章:工具使用/函数调用介绍和概述-Claude函数工具调用教程
    • ClaudeAPI基础入门教程
      • 第2章:构建简单的多轮聊天机器人-ClaudeAPI基础入门教程
      • 第1章:Claude SDK安装和使用-CLaudeAPI基础入门教程
      • Claude API基础知识课程简介
  • AI大模型
    • chatgpt
      • OpenAI o1-preview 简介和如何使用
      • 如何设置使用新的 ChatGPT o1 模型
      • OpenAI o1 性能评估和学习推理思维链介绍
      • OpenAI o1-mini和gpt4o性能对比介绍
      • OpenAI o1 模型与GPT-4o模型使用区别和场景
    • Claude
      • Claude的project介绍和创建
      • Claude Sonnet 3.5 API 教程
      • Claude 3 最新注册使用教程!(国内版)-性能完爆GPT4o!
      • Claude3.5 vs GPT4 谁才是最强大模型?
      • Claude国内无法登录的解决办法
      • Claude3.5 Sonnet的详细介绍
      • Claude如何写好提示词
      • Claude快速入门指南
    • Llama3
      • Llama3.2最新90b 11b 3b 1b模型介绍-AI大模型
      •  Llama Stack入门安装指南[结合Ollama]-AI大模型
      • Llama 3.2介绍最全技术报告-AI大模型
      • Llama 3.1技术报告:Meta推出最强开源大模型
      • Meta 的 Llama 3.1 405B工作原理、用例等
      • 如何在本地安装和运行 Meta Llama 3.1
      • 使用 Ollama和租用GPU 运行 Llama 3.1 405B:分步指南
      • Llama3.1 Colab 微调指南
  • AI论文
    • OpenAIo1原理解读:重复采样扩展推理计算[Large Language Monkeys: Scaling Inference Compute with Repeated Sampling]-AI论文
    • OpenIAo1原理解读:Q*强化学习与启发式搜索推理框架[Q*: Improving Multi-step Reasoning for LLMs with Deliberative Planning]-AI论文
    • OpenAIo1原理解读:基于蒙特卡罗树搜索的自我博弈互相推理[Self-play Mutual Reasoning]-AI论文
    • openAIo1原理解读:推理增加计算量提高大模型效果[Scaling LLM Test-Time Compute Optimally can be More Effective]-AI论文
    • OpenAI o1大模型原理解读:自博弈Self-play强化学习方法[A Survey on Self-play Methods in Reinforcement Learning]-AI论文
    • OpenAI o1大模型原理解读:Quiet-STaR 推理思维链[Language Models Can Teach Themselves to Think Before Speaking]-AI论文
    • OpenAI o1大模型原理论文汇总[Awesome LLM Strawberry]-AI论文
  • AI应用
    •  Crawl4AI:开源 LLM 友好型 Web 爬虫和抓取工具-AI应用
    • AI Scientist:用于全自动科学发现的写论文应用-AI应用
    • ai-data-analysis-MulitAgent:一种用于自动化复杂研究过程的先进多智能体系统-AI应用
    • Aider:最好的免费开源 AI 编码助手,自动git提交代码!-AI应用
    • AIHawk:你的 AI 求职助手,自动化申请、获得个性化推荐,更快找到您梦想的工作-AI应用
  • 加入会员社区
  • About Us
No Result
View All Result
  • Home
  • AI教程
    • 大模型应用实践课程
      • 大型语言模型课程介绍
      • 第1-1章:使用 OpenAI 创建您的第一个聊天机器人-大模型应用实践教程
      • 第1-2章:使用 OpenAI 创建简单的自然语言到 SQL-大模型应用实践教程
    • Claude应用开发教程
      • 第1章:基本提示结构-Claude应用开发教程
      • 第 2 章:基本函数构建-Claude开发应用教程
      • 第3章:角色扮演提示-Claude应用开发教程
      • 第4章 分离数据和指令-Claude开发应用教程
      • 第 5 章:格式化输出-Claude应用开发教程
      • 第6章:预知(Thinking Step by Step)-Claude应用开发教程
    • Claude提示词教程
      • 第 1 课:基本提​​示词技术-Claude提示词工程课程
      • 第 2 课:医疗病例摘要助手[XML-JSON格式化输出]-Claude提示词工程教程
      • 第 3 课:提示工程迭代流程-Claude提示词工程课程
      • 第 4 课:客服聊天记录总结生成器-Claude提示词课程
    • Claude函数/工具调用教程
      • 第3章:使用工具调用强制 JSON结构输出[以提取维基百科页面文章为例]-Claude工具调用教程
      • 第2章:ClaudeAPI如何构建工具并调用[以计算器工具调用为例]-Claude工具调用教程
      • 第1章:工具使用/函数调用介绍和概述-Claude函数工具调用教程
    • ClaudeAPI基础入门教程
      • 第2章:构建简单的多轮聊天机器人-ClaudeAPI基础入门教程
      • 第1章:Claude SDK安装和使用-CLaudeAPI基础入门教程
      • Claude API基础知识课程简介
  • AI大模型
    • chatgpt
      • OpenAI o1-preview 简介和如何使用
      • 如何设置使用新的 ChatGPT o1 模型
      • OpenAI o1 性能评估和学习推理思维链介绍
      • OpenAI o1-mini和gpt4o性能对比介绍
      • OpenAI o1 模型与GPT-4o模型使用区别和场景
    • Claude
      • Claude的project介绍和创建
      • Claude Sonnet 3.5 API 教程
      • Claude 3 最新注册使用教程!(国内版)-性能完爆GPT4o!
      • Claude3.5 vs GPT4 谁才是最强大模型?
      • Claude国内无法登录的解决办法
      • Claude3.5 Sonnet的详细介绍
      • Claude如何写好提示词
      • Claude快速入门指南
    • Llama3
      • Llama3.2最新90b 11b 3b 1b模型介绍-AI大模型
      •  Llama Stack入门安装指南[结合Ollama]-AI大模型
      • Llama 3.2介绍最全技术报告-AI大模型
      • Llama 3.1技术报告:Meta推出最强开源大模型
      • Meta 的 Llama 3.1 405B工作原理、用例等
      • 如何在本地安装和运行 Meta Llama 3.1
      • 使用 Ollama和租用GPU 运行 Llama 3.1 405B:分步指南
      • Llama3.1 Colab 微调指南
  • AI论文
    • OpenAIo1原理解读:重复采样扩展推理计算[Large Language Monkeys: Scaling Inference Compute with Repeated Sampling]-AI论文
    • OpenIAo1原理解读:Q*强化学习与启发式搜索推理框架[Q*: Improving Multi-step Reasoning for LLMs with Deliberative Planning]-AI论文
    • OpenAIo1原理解读:基于蒙特卡罗树搜索的自我博弈互相推理[Self-play Mutual Reasoning]-AI论文
    • openAIo1原理解读:推理增加计算量提高大模型效果[Scaling LLM Test-Time Compute Optimally can be More Effective]-AI论文
    • OpenAI o1大模型原理解读:自博弈Self-play强化学习方法[A Survey on Self-play Methods in Reinforcement Learning]-AI论文
    • OpenAI o1大模型原理解读:Quiet-STaR 推理思维链[Language Models Can Teach Themselves to Think Before Speaking]-AI论文
    • OpenAI o1大模型原理论文汇总[Awesome LLM Strawberry]-AI论文
  • AI应用
    •  Crawl4AI:开源 LLM 友好型 Web 爬虫和抓取工具-AI应用
    • AI Scientist:用于全自动科学发现的写论文应用-AI应用
    • ai-data-analysis-MulitAgent:一种用于自动化复杂研究过程的先进多智能体系统-AI应用
    • Aider:最好的免费开源 AI 编码助手,自动git提交代码!-AI应用
    • AIHawk:你的 AI 求职助手,自动化申请、获得个性化推荐,更快找到您梦想的工作-AI应用
  • 加入会员社区
  • About Us
No Result
View All Result
欢迎来到ClaudeAI博客社区
No Result
View All Result
Home AI应用

开源版OpenAI Open Interpreter,可部署本地运行-AI应用

小远 by 小远
2024-10-27
in AI应用
0

目录

Toggle
    • 介绍
    • 演示
    • 快速开始
      • 终端
      • python
      • GitHub 代码空间
    • 与 ChatGPT 的代码解释器比较
    • 命令
      • 互动聊天
      • 程序化聊天
      • 开始新聊天
      • 保存和恢复聊天
      • 自定义系统消息
      • 更改您的语言模型
      • 在本地运行 Open Interpreter
        • 终端
        • python
        • 上下文窗口 (Context Window) > 最大令牌数 (Max Tokens)
      • 详细模式
      • 交互模式命令
      • 配置/配置文件
        • 多个配置文件
    • 示例 FastAPI 服务器
    • 人造人
    • 安全须知
    • 它是如何工作的?
  • 离线访问文档

介绍

pip install open-interpreter

不工作?阅读我们的设置指南。

interpreter

Open Interpreter 允许 LLM 在本地运行代码(Python、Javascript、Shell 等)。您可以通过安装后运行终端中类似 ChatGPT 的界面与 Open Interpreter 聊天。$ interpreter

这为计算机的通用功能提供了一个自然语言接口:

  • 创建和编辑照片、视频、PDF 等。
  • 控制 Chrome 浏览器执行研究
  • 绘制、清理和分析大型数据集

⚠️注意:在代码运行之前,系统会要求您批准代码。

演示

Google Colab 上也提供了交互式演示:

在 Colab 中打开

以及一个受 Her 启发的示例语音界面:

在 Colab 中打开

快速开始

pip install open-interpreter

终端

安装后,只需运行 :interpreter

interpreter

python

from interpreter import interpreter

interpreter.chat("Plot AAPL and META's normalized stock prices") # Executes a single command
interpreter.chat() # Starts an interactive chat

GitHub 代码空间

按此存储库的 GitHub 页面上的键以创建 codespace。片刻之后,您将收到一个预装了 open-interpreter 的云虚拟机环境。然后,您可以直接开始与它交互并自由确认其对系统命令的执行,而不必担心损坏系统。,

与 ChatGPT 的代码解释器比较

OpenAI 发布的带有 GPT-4 的 Code Interpreter 为使用 ChatGPT 完成实际任务提供了绝佳的机会。

但是,OpenAI 的服务是托管的、闭源的,并且受到严格限制:

  • 无法访问 Internet。
  • 有限的预安装软件包集。
  • 最大上传 100 MB,运行时限制为 120.0 秒。
  • 当环境死亡时,状态将被清除(以及任何生成的文件或链接)。

Open Interpreter 通过在本地环境中运行来克服这些限制。它可以完全访问 Internet,不受时间或文件大小的限制,并且可以使用任何包或库。

它将 GPT-4 的 Code Interpreter 的强大功能与本地开发环境的灵活性相结合。

命令

更新:生成器更新 (0.1.5) 引入了流:

message = "What operating system are we on?"

for chunk in interpreter.chat(message, display=False, stream=True):
  print(chunk)

互动聊天

要在终端中开始交互式聊天,请从命令行运行:interpreter

或者从 .py 文件中:interpreter.chat()

您还可以流式传输每个数据块:

message = "What operating system are we on?"

for chunk in interpreter.chat(message, display=False, stream=True):
  print(chunk)

程序化聊天

要进行更精确的控制,您可以将消息直接传递给 :.chat(message)

interpreter.chat("Add subtitles to all videos in /videos.")

# ... Streams output to your terminal, completes task ...

interpreter.chat("These look great but can you make the subtitles bigger?")

# 

开始新聊天

在 Python 中,Open Interpreter 会记住对话历史记录。如果您想重新开始,您可以重置它:

interpreter.messages = []

保存和恢复聊天

interpreter.chat()返回一个 List 消息,该消息可用于恢复与 的对话:interpreter.messages = messages

messages = interpreter.chat("My name is Killian.") # Save messages to 'messages'
interpreter.messages = [] # Reset interpreter ("Killian" will be forgotten)

interpreter.messages = messages # Resume chat from 'messages' ("Killian" will be remembered)

自定义系统消息

您可以检查和配置 Open Interpreter 的系统消息,以扩展其功能、修改权限或为其提供更多上下文。

interpreter.system_message += """
Run shell commands with -y so the user doesn't have to confirm them.
"""
print(interpreter.system_message)

更改您的语言模型

Open Interpreter 使用 LiteLLM 连接到托管语言模型。

您可以通过设置 model 参数来更改模型:

interpreter --model gpt-3.5-turbo
interpreter --model claude-2
interpreter --model command-nightly

在 Python 中,在对象上设置模型:

interpreter.llm.model = "gpt-3.5-turbo"

在此处找到适合您的语言模型的 “model” 字符串。

在本地运行 Open Interpreter

终端

Open Interpreter 可以使用兼容 OpenAI 的服务器在本地运行模型。(LM Studio、jan.ai、ollama 等)

只需使用推理服务器的 api_base URL 运行(对于 LM Studio,默认情况下是这样):interpreterhttp://localhost:1234/v1

interpreter --api_base "http://localhost:1234/v1" --api_key "fake_key"

或者,您可以使用 Llamafile 而无需安装任何第三方软件,只需运行

interpreter --local

有关更详细的指南,请查看 Mike Bird 的此视频

如何在后台运行 LM Studio。

  1. 下载 https://lmstudio.ai/ 然后启动它。
  2. 选择一个模型,然后单击 ↓ 下载。
  3. 单击↔️按钮(下方💬)。
  4. 在顶部选择您的模型,然后单击 Start Server。

服务器运行后,您可以开始与 Open Interpreter 对话。

注意:本地模式将 u 设置为 3000,将 u 设置为 1000。如果您的模型有不同的要求,请手动设置这些参数(请参阅下文)。context_windowmax_tokens

python

我们的 Python 包让您可以更好地控制每个设置。要复制并连接到 LM Studio,请使用以下设置:

from interpreter import interpreter

interpreter.offline = True # Disables online features like Open Procedures
interpreter.llm.model = "openai/x" # Tells OI to send messages in OpenAI's format
interpreter.llm.api_key = "fake_key" # LiteLLM, which we use to talk to LM Studio, requires this
interpreter.llm.api_base = "http://localhost:1234/v1" # Point this at any OpenAI compatible server

interpreter.chat()

上下文窗口 (Context Window) > 最大令牌数 (Max Tokens)

您可以修改本地运行的模型的 and(在令牌中)。max_tokenscontext_window

对于本地模式,较小的上下文窗口将使用更少的 RAM,因此我们建议尝试更短的窗口 (~1000),如果它失败/很慢。确保小于 。max_tokenscontext_window

interpreter --local --max_tokens 1000 --context_window 3000

详细模式

为了帮助您检查 Open Interpreter,我们提供了一个调试模式。--verbose

你可以使用其标志 () 或在聊天中激活详细模式:interpreter --verbose

$ interpreter
...
> %verbose true <- Turns on verbose mode

> %verbose false <- Turns off verbose mode

交互模式命令

在交互模式下,您可以使用以下命令来增强您的体验。以下是可用命令的列表:

可用命令:

  • %verbose [true/false]:切换详细模式。没有参数或有它 进入详细模式。使用它退出详细模式。truefalse
  • %reset:重置当前会话的对话。
  • %undo:从消息历史记录中删除以前的用户消息和 AI 的响应。
  • %tokens [prompt]:(实验性)计算将与下一个提示作为上下文一起发送的令牌,并估算其成本。(可选)计算令牌和估计成本(如果提供)。依赖 LiteLLM 的 cost_per_token() 方法来估算成本。prompt
  • %help:显示帮助消息。

配置/配置文件

Open Interpreter 允许您使用文件设置默认行为。yaml

这提供了一种灵活的方法来配置解释器,而无需每次都更改命令行参数。

运行以下命令以打开 profiles 目录:

interpreter --profiles

您可以在该处添加文件。默认配置文件名为 。yamldefault.yaml

多个配置文件

Open Interpreter 支持多个文件,允许您在配置之间轻松切换:yaml

interpreter --profile my_profile.yaml

示例 FastAPI 服务器

生成器更新使 Open Interpreter 可以通过 HTTP REST 端点进行控制:

# server.py

from fastapi import FastAPI
from fastapi.responses import StreamingResponse
from interpreter import interpreter

app = FastAPI()

@app.get("/chat")
def chat_endpoint(message: str):
    def event_stream():
        for result in interpreter.chat(message, stream=True):
            yield f"data: {result}\n\n"

    return StreamingResponse(event_stream(), media_type="text/event-stream")

@app.get("/history")
def history_endpoint():
    return interpreter.messages
pip install fastapi uvicorn
uvicorn server:app --reload
您也可以通过简单地运行 来启动与上述服务器相同的服务器。interpreter.server()

人造人

可以在 open-interpreter-termux 存储库中找到在 Android 设备上安装 Open Interpreter 的分步指南。

安全须知

由于生成的代码是在本地环境中执行的,因此它可以与您的文件和系统设置交互,这可能会导致数据丢失或安全风险等意外结果。

⚠️Open Interpreter 将在执行代码之前要求用户确认。

您可以运行 或 设置为绕过此确认,在这种情况下:interpreter -yinterpreter.auto_run = True

  • 请求修改文件或系统设置的命令时要小心。
  • 像看自动驾驶汽车一样观看 Open Interpreter,并准备好通过关闭终端来结束该过程。
  • 考虑在 Google Colab 或 Replit 等受限环境中运行 Open Interpreter。这些环境更加隔离,从而降低了执行任意代码的风险。

对安全模式的实验性支持有助于缓解某些风险。

它是如何工作的?

Open Interpreter 为函数调用语言模型配备了一个函数,该函数接受 (如 “Python” 或 “JavaScript”) 并运行。exec()languagecode

然后,我们将模型的消息、代码和系统的输出作为 Markdown 流式传输到终端。

离线访问文档

无需 Internet 连接,即可随时随地访问完整文档。

Node 是先决条件:

  • 版本 18.17.0 或更高版本 18.x.x 。
  • 版本 20.3.0 或更高版本的 20.x.x 版本。
  • 从 21.0.0 开始的任何版本,未指定上限。

安装 Mintlify:

npm i -g mintlify@latest

切换到 docs 目录并运行相应的命令:

# Assuming you're at the project's root directory
cd ./docs

# Run the documentation server
mintlify dev

应打开一个新的浏览器窗口。只要文档服务器正在运行,文档就会在 http://localhost:3000 上可用。

网址:https://docs.openinterpreter.com/getting-started/introduction

网址:https://github.com/OpenInterpreter/open-interpreter

Tags: AI应用Open InterpreterOpenAI
Previous Post

DeepMind:强化学习处理不正确的合成数据,使大模型数学推理效率提高八倍[RL on Incorrect Synthetic Data Scales the Efficiency of LLM Math Reasoning by Eight-Fold]-AI论文

Next Post

思考快与慢的智能体:对话者-推理者架构[Agents Thinking Fast and Slow:A Talker-Reasoner Architecture]-AI论文

小远

小远

大家好,我是小远,毕业于华南理工大学。作为一名AI算法工程师,我创立了个人博客,旨在成为连接AI技术前沿与广大爱好者的桥梁。宗旨是:记录并分享关于AI大模型的最新知识、研究成果及行业动态,致力于普及AI知识,降低技术门槛,让更多人能够了解并参与到这场科技革命中来。

Related Posts

Research Town:开发者模拟研究社区多智能体平台-AI应用
AI应用

Research Town:开发者模拟研究社区多智能体平台-AI应用

2024-11-06
第1-3章:通过上下文学习影响模型的响应-大模型应用实践教程
AI应用

Cofounder:人工智能生成的应用程序,全栈+生成用户界面-AI应用

2024-11-06
Docling:快速地解析pdf/word/ppt导出为md/json格式-AI应用
AI应用

Docling:快速地解析pdf/word/ppt导出为md/json格式-AI应用

2024-11-05
Load More
Next Post
思考快与慢的智能体:对话者-推理者架构[Agents Thinking Fast and Slow:A Talker-Reasoner Architecture]-AI论文

思考快与慢的智能体:对话者-推理者架构[Agents Thinking Fast and Slow:A Talker-Reasoner Architecture]-AI论文

Please login to join discussion
Do NOT Think That Much for 2+3=? On the Overthinking of o1-Like LLMs[不要过度思考2+3等于几 在类LLM的过度思考上]-AI论文
claude

Do NOT Think That Much for 2+3=? On the Overthinking of o1-Like LLMs[不要过度思考2+3等于几 在类LLM的过度思考上]-AI论文

by 小远
2025-01-12
0

图1:在图(a)中过度思考问题的示意图:...

Read more
Slow Perception: Let’s Perceive Geometric Figures Step-by-step[缓慢感知:让我们逐步感知几何图形]-AI论文
AI论文

Slow Perception: Let’s Perceive Geometric Figures Step-by-step[缓慢感知:让我们逐步感知几何图形]-AI论文

by 小远
2025-01-12
0

摘要 近期,“视觉感知”开始进入人们的视...

Read more
Ensembling Large Language Models with Process Reward-Guided Tree Search for Better Complex Reasoning[结合大型语言模型与过程奖励引导的树搜索以提升复杂推理能力]-AI论文
claude

Ensembling Large Language Models with Process Reward-Guided Tree Search for Better Complex Reasoning[结合大型语言模型与过程奖励引导的树搜索以提升复杂推理能力]-AI论文

by 小远
2025-01-12
0

摘要 尽管大型语言模型近期取得了显著进展...

Read more
Large Concept Models:Language Modeling in a Sentence Representation Space[大型概念模型:在句子表示空间中的语言建模]-AI论文
AI论文

Large Concept Models:Language Modeling in a Sentence Representation Space[大型概念模型:在句子表示空间中的语言建模]-AI论文

by 小远
2025-01-06
0

大型语言模型(LLMs)已经彻底改变了人...

Read more

Claude大模型学习社区

希望成为中国第一个大模型教程和AI论文的分享乐园!帮助每一位同学快速上入门大模型!

分类

  • AIRAG
  • AI应用
  • AI提示库
  • AI论文
  • artifacts
  • chatgpt
  • claude
  • claude教程
  • Cursor
  • gemini
  • llama
  • ollama
  • openAIo1
  • prompt工程
  • 文心一言

标签

Agent Agents AI工具 AI应用 AI提示库 AI论文 API chatgpt claude Claude3.5 Sonnet COT css Cursor CursorAI ernie html IDE Llama 3 llama3.1 llama3.2 LLM meta o1 o1-preview ollama OpenAI openAIo1 OpenAI o1 openAIo1原理 prompt rag Reasoning Swarm web 函数构建 原理解读 合成数据 多智能体 大模型 强化学习 思维链 接码平台 提示词 智能体 检索增强
  • Home
  • AI教程
  • AI大模型
  • AI论文
  • AI应用
  • 加入会员社区
  • About Us

© 2024 ClaudeAI大模型学习社区 所有属于ICP备案:豫ICP备2024068873号-1号.

No Result
View All Result
  • Home
  • AI教程
    • 大模型应用实践课程
      • 大型语言模型课程介绍
      • 第1-1章:使用 OpenAI 创建您的第一个聊天机器人-大模型应用实践教程
      • 第1-2章:使用 OpenAI 创建简单的自然语言到 SQL-大模型应用实践教程
    • Claude应用开发教程
      • 第1章:基本提示结构-Claude应用开发教程
      • 第 2 章:基本函数构建-Claude开发应用教程
      • 第3章:角色扮演提示-Claude应用开发教程
      • 第4章 分离数据和指令-Claude开发应用教程
      • 第 5 章:格式化输出-Claude应用开发教程
      • 第6章:预知(Thinking Step by Step)-Claude应用开发教程
    • Claude提示词教程
      • 第 1 课:基本提​​示词技术-Claude提示词工程课程
      • 第 2 课:医疗病例摘要助手[XML-JSON格式化输出]-Claude提示词工程教程
      • 第 3 课:提示工程迭代流程-Claude提示词工程课程
      • 第 4 课:客服聊天记录总结生成器-Claude提示词课程
    • Claude函数/工具调用教程
      • 第3章:使用工具调用强制 JSON结构输出[以提取维基百科页面文章为例]-Claude工具调用教程
      • 第2章:ClaudeAPI如何构建工具并调用[以计算器工具调用为例]-Claude工具调用教程
      • 第1章:工具使用/函数调用介绍和概述-Claude函数工具调用教程
    • ClaudeAPI基础入门教程
      • 第2章:构建简单的多轮聊天机器人-ClaudeAPI基础入门教程
      • 第1章:Claude SDK安装和使用-CLaudeAPI基础入门教程
      • Claude API基础知识课程简介
  • AI大模型
    • chatgpt
      • OpenAI o1-preview 简介和如何使用
      • 如何设置使用新的 ChatGPT o1 模型
      • OpenAI o1 性能评估和学习推理思维链介绍
      • OpenAI o1-mini和gpt4o性能对比介绍
      • OpenAI o1 模型与GPT-4o模型使用区别和场景
    • Claude
      • Claude的project介绍和创建
      • Claude Sonnet 3.5 API 教程
      • Claude 3 最新注册使用教程!(国内版)-性能完爆GPT4o!
      • Claude3.5 vs GPT4 谁才是最强大模型?
      • Claude国内无法登录的解决办法
      • Claude3.5 Sonnet的详细介绍
      • Claude如何写好提示词
      • Claude快速入门指南
    • Llama3
      • Llama3.2最新90b 11b 3b 1b模型介绍-AI大模型
      •  Llama Stack入门安装指南[结合Ollama]-AI大模型
      • Llama 3.2介绍最全技术报告-AI大模型
      • Llama 3.1技术报告:Meta推出最强开源大模型
      • Meta 的 Llama 3.1 405B工作原理、用例等
      • 如何在本地安装和运行 Meta Llama 3.1
      • 使用 Ollama和租用GPU 运行 Llama 3.1 405B:分步指南
      • Llama3.1 Colab 微调指南
  • AI论文
    • OpenAIo1原理解读:重复采样扩展推理计算[Large Language Monkeys: Scaling Inference Compute with Repeated Sampling]-AI论文
    • OpenIAo1原理解读:Q*强化学习与启发式搜索推理框架[Q*: Improving Multi-step Reasoning for LLMs with Deliberative Planning]-AI论文
    • OpenAIo1原理解读:基于蒙特卡罗树搜索的自我博弈互相推理[Self-play Mutual Reasoning]-AI论文
    • openAIo1原理解读:推理增加计算量提高大模型效果[Scaling LLM Test-Time Compute Optimally can be More Effective]-AI论文
    • OpenAI o1大模型原理解读:自博弈Self-play强化学习方法[A Survey on Self-play Methods in Reinforcement Learning]-AI论文
    • OpenAI o1大模型原理解读:Quiet-STaR 推理思维链[Language Models Can Teach Themselves to Think Before Speaking]-AI论文
    • OpenAI o1大模型原理论文汇总[Awesome LLM Strawberry]-AI论文
  • AI应用
    •  Crawl4AI:开源 LLM 友好型 Web 爬虫和抓取工具-AI应用
    • AI Scientist:用于全自动科学发现的写论文应用-AI应用
    • ai-data-analysis-MulitAgent:一种用于自动化复杂研究过程的先进多智能体系统-AI应用
    • Aider:最好的免费开源 AI 编码助手,自动git提交代码!-AI应用
    • AIHawk:你的 AI 求职助手,自动化申请、获得个性化推荐,更快找到您梦想的工作-AI应用
  • 加入会员社区
  • About Us

© 2024 ClaudeAI大模型学习社区 所有属于ICP备案:豫ICP备2024068873号-1号.

Welcome Back!

Login to your account below

Forgotten Password? Sign Up

Create New Account!

Fill the forms below to register

All fields are required. Log In

Retrieve your password

Please enter your username or email address to reset your password.

Log In