OpenAI正在用其先进的技术和强大的API彻底改变人工智能的世界。在这份全面指南中,我们将探索OpenAI的令人难以置信的潜力,以及如何利用其能力来增强你的项目和应用。无论你是开发者、研究员,还是只是对人工智能感兴趣,这份指南都将为你提供有关OpenAI的提供和资源的宝贵见解。
开始使用OpenAI
在我们深入探讨OpenAI的精彩世界之前,让我们确保你拥有必要的工具来开始。你需要一个OpenAI账户和一个API密钥,你可以通过创建一个免费账户来轻松获取。一旦你获得了API密钥,你就可以解锁OpenAI的可能性。
最近的更新和亮点 ? ✨
随时关注OpenAI的最新发展和增强功能:
- 如何微调聊天模型 [2023年8月22日]
- 如何评估抽象摘要 [2023年8月16日]
- Whisper提示指南 [2023年6月27日]
- 使用搜索API和重新排名进行问答 [2023年6月16日]
- 如何使用聊天模型调用函数 [2023年6月13日]
探索OpenAI的能力
OpenAI提供了广泛的工具和资源,以下是一些要探索的关键领域:
API使用
处理速率限制
在使用OpenAI API时,管理速率限制至关重要。了解如何有效地处理速率限制并优化你的API使用,参考我们的指南:如何处理速率限制。
GPT模型
格式化输入到ChatGPT模型
发现将输入格式化为ChatGPT模型的最佳实践,以获得最准确和相关的响应:如何格式化输入到ChatGPT模型。
嵌入
文本比较示例
了解如何使用嵌入进行文本比较,以及它的应用领域:文本比较示例。
DALL-E
生成和编辑图像
探索如何使用DALL·E生成和编辑图像的方法:如何生成和编辑DALL·E图像。
Whisper
Whisper提示指南
深入了解如何使用Whisper进行提示以生成文本:Whisper提示指南。
相关OpenAI资源
除了这里的代码示例,你还可以从以下资源中了解有关OpenAI API的信息:
- 在ChatGPT中进行实验
- 在OpenAI Playground中尝试API
- 阅读OpenAI文档
- 在OpenAI帮助中心获取帮助
- 在OpenAI社区论坛或OpenAI Discord频道讨论API
- 在OpenAI示例中查看示例提示
- 通过OpenAI博客保持最新更新
相关网络资源
人们正在编写出色的工具和论文来改善GPT的输出。以下是一些我们看到的很棒的工具:
提示库和工具
- Guidance:来自Microsoft的一个便捷的Python库,使用Handlebars模板来交错生成、提示和逻辑控制。
- LangChain:一个流行的Python/JavaScript库,用于链接语言模型提示的序列。
- FLAML(自动化机器学习和调整的快速库):用于自动选择模型、超参数和其他可调参数的Python库。
- Chainlit:用于创建聊天机器人界面的Python库。
- Guardrails.ai:用于验证输出并重新尝试故障的Python库。仍处于alpha阶段,因此请预期存在问题和错误。
- Semantic Kernel:来自Microsoft的一款支持提示模板、函数链接、矢量化存储和智能规划的Python/C#库。
- Prompttools:用于测试和评估模型、矢量数据库和提示的开源Python工具。
- Outlines:提供领域特定语言以简化提示和限制生成的Python库。
- Promptify:一个用于使用语言模型执行NLP任务的小型Python库。
- Scale Spellbook:一个用于构建、
比较和发布语言模型应用程序的付费产品。
- PromptPerfect:一个用于测试和改进提示的付费产品。
- Weights & Biases:一个用于跟踪模型训练和提示工程实验的付费产品。
- OpenAI Evals:用于评估语言模型和提示任务性能的开源库。
- LlamaIndex:用于通过数据增强LLM应用的Python库。
- Arthur Shield:一个用于检测毒性、幻觉、提示注入等的付费产品。
- LMQL:用于LLM交互的编程语言,支持类型提示、控制流、约束和工具。
提示指南
- Brex的提示工程指南:Brex的语言模型和提示工程简介。
- promptingguide.ai:一个提示工程指南,演示了许多技术。
- OpenAI Cookbook:提高可靠性的技术:有关提示语言模型技术的回顾(截至2022年9月)。
- Lil'Log提示工程:OpenAI研究员对提示工程文献的回顾(截至2023年3月)。
- learnprompting.org:提示工程的入门课程。
视频课程
- Andrew Ng的DeepLearning.AI:针对开发人员的提示工程短期课程。
- Andrej Karpathy的让我们构建GPT:深入研究GPT背后的机器学习。
- DAIR.AI的提示工程:关于各种提示工程技术的一小时视频。
提高推理能力的高级提示的论文
- Chain-of-Thought提示引发大语言模型的推理(2022年):使用少量提示来要求模型逐步思考提高其推理能力。数学题的分数从18%提高到57%。
- 自我一致性提高大语言模型的推理(2022年):从多个输出中获取投票进一步提高准确性。在数学题上,PaLM的分数从57%提高到74%,
code-davinci-002
的分数从60%提高到78%。 - 思维树:使用大语言模型进行有目的的问题解决(2023年):搜索推理步骤的树比投票链进一步帮助,将
GPT-4
的创意写作和填字游戏的分数提高了。 - 大语言模型是零射击推理器(2022年):告诉遵循指令的模型逐步思考提高其推理能力。这将
text-davinci-002
在数学题(GSM8K)上的分数从13%提高到41%。 - 大语言模型是零射击推理器(2023年):通过自动搜索可能的提示,找到一个提示可以将数学题(GSM8K)的分数提高到43%,比人工编写的提示高出2个百分点。
- Reprompting:通过吉布斯采样实现自动链式思考提示(2023年):通过自动搜索可能的链式思考提示,提高ChatGPT在一些基准上的分数0-20个百分点。
- 信仰推理:通过多代理辩论提高大语言模型的事实和推理(2023年):通过多个输出生成的链式思维,选择何时停止选择推理循环的中止模型,搜索多个推理路径的值函数以及帮助避免幻觉的句子标签可以改善推理。
- STaR:大语言模型中推理和行动的协同作用(2022年):对于具有答案关键字的任务,可以通过语言模型生成的示例思维链来对模型进行微调。
- ReAct:大语言模型中推理和行动的协同作用(2023年):对于具有工具或环境的任务,推理链工作得更好,你可以在Reasoning步骤(思考要做什么)和Acting(从工具或环境获取信息)之间进行预定地切换。
- 反思:具有动态记忆和自我反思的自主代理(2023年):通过记住之前的失败重新
尝试任务,可以提高随后的性能。
- 展示-搜索-预测:将检索和语言模型组合以进行知识密集型NLP(2023年):通过“检索-然后阅读”对模型进行知识增强的模型可以通过多跳检索链提高性能。
- 通过多代理辩论提高知识密集型NLP中的事实性和推理(2023年):生成几个ChatGPT代理之间的辩论并在几轮中改善各种基准的分数。数学题分数从77%提高到85%。
贡献
如果有你希望看到的示例或指南,请随时在问题页面上提出建议。我们也很高兴接受高质量的拉取请求,只要它们符合仓库的范围。