人工智能工具经常会出现各种问题,为了改善这种情况,OpenAI 发布了《模型规范》初稿。本文将探讨《模型规范》的主要内容及其对人工智能未来发展的影响,并结合实际案例,分析这一框架为何如此重要。
人工智能工具的表现经常让人们感到失望。举个例子,微软的必应人工智能(Bing AI)有时会搞不清楚现在是哪一年,而Google的双子座图像生成器甚至会因为过滤器设置问题而绘制出各种纳粹内容。这种问题常常让人们难以区分是技术错误还是模型设计不佳的结果。
为了应对这些挑战,OpenAI 最近发布了一个名为“模型规范”(Model Spec)的框架初稿。这个框架旨在规范人工智能工具(如GPT-4模型)未来的响应方式。OpenAI 的方法提出了三项一般原则:
- 协助开发者和最终用户做出符合指令的有益响应。
- 在考虑潜在利益和危害的情况下造福人类。
- 在社会规范和法律方面很好地反映 OpenAI 的情况。
主要规则和原则
《模型规范》不仅包含一般原则,还提出了几条具体的规则:
- 遵循指挥系统:确保人工智能工具按照用户或开发者的指令行动。
- 遵守适用法律:确保所有操作都在法律允许的范围内。
- 不提供信息危害:避免传播虚假或有害的信息。
- 尊重创作者及其权利:保护内容创作者的版权和创意。
- 保护人们的隐私:确保用户的个人信息不被滥用。
- 不回复NSFW内容:避免生成不适合工作场所的内容。
OpenAI 表示,他们的想法是让公司和用户能够“切换”人工智能模型的“辛辣”程度。例如,对于NSFW内容,OpenAI 正在探索是否可以通过 API 和 ChatGPT,在适合年龄的上下文中负责任地生成NSFW内容的能力。
公共意见和未来发展
OpenAI 的产品经理乔安妮-张(Joanne Jang)解释说,发布《模型规范》的初稿是为了征求公众意见,帮助指导人工智能模型的行为方式。她表示,这个框架将有助于在有意行为和错误之间划出一条更清晰的界线。OpenAI 为模型提出的默认行为包括:
- 假定用户或开发者的意图是最好的。
- 问清楚问题。
- 不越位。
- 采取客观观点。
- 阻止仇恨。
- 不试图改变任何人的想法。
- 表达不确定性。
“我们认为,我们可以为人们就模特问题进行更细致入微的对话提供基石,并提出一些问题,比如模特是否应该遵守法律,谁的法律?”——乔安妮-张
Jang 强调,《模型规范》是一份活文档,随着技术和社会的变化将不断更新。OpenAI 将继续收集公众和使用其模型的不同利益相关者(包括政策制定者、可信赖的机构和领域专家)的反馈意见。
模型行为的影响
尽管《模型规范》不会立即影响当前的模型(如GPT-4或DALL-E 3),但它确实为未来的人工智能模型设定了行为准则。这将有助于开发者和用户更清楚地了解和控制模型的行为,从而减少误解和误用的风险。
例如,在面对敏感话题时,模型可以根据《模型规范》的指导,采取更加谨慎和负责任的态度。这不仅有助于保护用户的利益,也有助于提高人工智能工具的整体可信度和可靠性。
结语
OpenAI 的《模型规范》是人工智能领域迈出的重要一步。它不仅为开发者和用户提供了清晰的行为准则,还鼓励公众参与,为人工智能的发展提供宝贵的反馈。通过这种方式,我们可以期待未来的人工智能工具更加智能、可靠和人性化。