模型

旗舰模型

GPT-4o

  • GPT-4o New
    • 我们最快且最实惠的旗舰模型

详细信息

  • 输入/输出: 文本和图像输入,文本输出
  • 上下文长度: 128k
  • 价格: 输入:$5 | 输出:$15* (每百万tokens)

GPT-4 Turbo

  • GPT-4 Turbo
    • 我们以前的高智能模型

详细信息

  • 输入/输出: 文本和图像输入,文本输出
  • 上下文长度: 128k
  • 价格: 输入:$10 | 输出:$30* (每百万tokens)

GPT-3.5 Turbo

  • GPT-3.5 Turbo
    • 我们快速、廉价的简单任务模型

详细信息

  • 输入/输出: 文本输入,文本输出
  • 上下文长度: 16k
  • 价格: 输入:$0.50 | 输出:$1.50* (每百万tokens)

*每百万tokens的价格

模型概览

OpenAI API由一组功能和价格点不同的多样化模型提供支持。您还可以通过微调对模型进行自定义,以满足您的特定使用需求。

模型描述
GPT-4o最快且最实惠的旗舰模型
GPT-4 Turbo 和 GPT-4以前的高智能模型集
GPT-3.5 Turbo用于简单任务的快速廉价模型
DALL·E可以生成和编辑图像的模型
TTS可以将文本转换为自然声音的语音模型集
Whisper可以将音频转换为文本的模型
Embeddings可以将文本转换为数值形式的模型集
Moderation可以检测文本是否敏感或不安全的微调模型
GPT base没有指令跟随的模型,可以理解和生成自然语言或代码
Deprecated已弃用模型的完整列表以及建议的替代品

我们还发布了开源模型,包括Point-EWhisperJukeboxCLIP

持续模型升级

gpt-4ogpt-4-turbogpt-4gpt-3.5-turbo指向其各自最新的模型版本。您可以在发送请求后查看响应对象,确认具体的模型版本(例如gpt-3.5-turbo-0613)。

我们还提供固定模型版本,开发人员可以在引入更新的模型后继续使用这些版本至少三个月。随着模型更新的节奏,我们还允许人们贡献评估,以帮助我们改进模型的不同用例。如果您感兴趣,请查看OpenAI Evals存储库。

了解有关模型弃用的更多信息,请访问我们的弃用页面

GPT-4o

GPT-4o(“o”代表“omni”)是我们最先进的模型。它是多模态的(接受文本或图像输入并输出文本),具有与GPT-4 Turbo相同的高智能,但效率更高——生成文本的速度快2倍,成本降低50%。此外,GPT-4o在视觉和非英语语言的表现上是我们所有模型中最好的。GPT-4o可通过OpenAI API供付费客户使用。了解如何使用GPT-4o,请参阅我们的文本生成指南

模型描述上下文窗口训练数据
gpt-4oNew GPT-4o
我们最先进的多模态旗舰模型,比GPT-4 Turbo更便宜、更快。目前指向gpt-4o-2024-05-13
128,000 tokens到2023年10月
gpt-4o-2024-05-13gpt-4o当前指向此版本。128,000 tokens到2023年10月

GPT-4 Turbo 和 GPT-4

GPT-4是一个大型多模态模型(接受文本或图像输入并输出文本),可以比我们以前的任何模型更准确地解决复杂问题,得益于其更广泛的通用知识和高级推理能力。GPT-4通过OpenAI API向付费客户开放。像gpt-3.5-turbo一样,GPT-4优化了聊天,但在使用Chat Completions API进行传统完成任务时也表现良好。了解如何使用GPT-4,请参阅我们的文本生成指南

模型描述上下文窗口训练数据
gpt-4-turboNew GPT-4 Turbo with Vision
最新的GPT-4 Turbo模型,具有视觉功能。视觉请求现在可以使用JSON模式和函数调用。目前指向gpt-4-turbo-2024-04-09
128,000 tokens到2023年12月
gpt-4-turbo-2024-04-09具有视觉功能的GPT-4 Turbo模型。视觉请求现在可以使用JSON模式和函数调用。gpt-4-turbo当前指向此版本。128,000 tokens到2023年12月
gpt-4-turbo-previewGPT-4 Turbo预览模型。目前指向gpt-4-0125-preview128,000 tokens到2023年12月
gpt-4-0125-previewGPT-4 Turbo预览模型,旨在减少模型未完成任务的“懒惰”情况。返回最多4,096个输出tokens。了解更多128,000 tokens到2023年12月
gpt-4-1106-previewGPT-4 Turbo预览模型,具有改进的指令跟随、JSON模式、可重复输出、并行函数调用等。返回最多4,096个输出tokens。这是一个预览模型。了解更多128,000 tokens到2023年4月
gpt-4-vision-preview具有理解图像能力的GPT-4模型,除了所有其他GPT-4 Turbo功能外。这是一个预览模型,我们建议开发人员现在使用包括视觉功能的gpt-4-turbo。目前指向gpt-4-1106-vision-preview128,000 tokens到2023年4月
gpt-4-1106-vision-preview具有理解图像能力的GPT-4模型,除了所有其他GPT-4 Turbo功能外。这是一个预览模型,我们建议开发人员现在使用包括视觉功能的gpt-4-turbo。返回最多4,096个输出tokens。了解更多128,000 tokens到2023年4月
gpt-4目前指向gpt-4-0613。请参阅持续模型升级8,192 tokens到2021年9月
gpt-4-06132023年6月13日的gpt-4快照,改进了函数调用支持。8,192 tokens到2021年9月
gpt-4-32k目前指向gpt-4-32k-0613。请参阅持续模型升级。此模型从未广泛推出,取而代之的是GPT-4 Turbo。32,768 tokens到2021年9月
gpt-4-32k-06132023年6月13日的gpt-4-32k快照,改进了函数调用支持。此模型从未广泛推出,取而代之的是GPT-4 Turbo。32,768 tokens到2021年9

月 |

在许多基本任务中,GPT-4和GPT-3.5模型之间的差异并不显著。然而,在更复杂的推理情况下,GPT-4比我们以前的任何模型都更为出色。

多语言能力

GPT-4在2023年超过了以前的所有大语言模型,并且在大多数最先进的系统(这些系统通常具有特定基准的训练或手工工程)中表现出色。在MMLU基准测试(涵盖57个学科的英语多项选择问题套件)中,GPT-4不仅在英语中比现有模型表现出色,而且在其他语言中也表现出强劲的表现。

GPT-3.5 Turbo

GPT-3.5 Turbo模型可以理解和生成自然语言或代码,并且已经针对使用Chat Completions API进行了优化,但也在非聊天任务中表现良好。

模型描述上下文窗口训练数据
gpt-3.5-turbo-0125New 更新的GPT 3.5 Turbo
最新的GPT-3.5 Turbo模型,在响应请求格式和修复非英语语言函数调用中的文本编码问题时具有更高的准确性。返回最多4,096个输出tokens。了解更多
16,385 tokens到2021年9月
gpt-3.5-turbo目前指向gpt-3.5-turbo-012516,385 tokens到2021年9月
gpt-3.5-turbo-1106GPT-3.5 Turbo模型,改进了指令跟随、JSON模式、可重复输出、并行函数调用等。返回最多4,096个输出tokens。了解更多16,385 tokens到2021年9月
gpt-3.5-turbo-instruct类似于GPT-3时代模型的功能。兼容旧的Completions端点,而不是Chat Completions。4,096 tokens到2021年9月
gpt-3.5-turbo-16kLegacy 目前指向gpt-3.5-turbo-16k-061316,385 tokens到2021年9月
gpt-3.5-turbo-0613Legacy 2023年6月13日的gpt-3.5-turbo快照。将于2024年6月13日弃用4,096 tokens到2021年9月
gpt-3.5-turbo-16k-0613Legacy 2023年6月13日的gpt-3.5-16k-turbo快照。将于2024年6月13日弃用16,385 tokens到2021年9月

DALL·E

DALL·E是一个AI系统,可以根据自然语言描述创建逼真的图像和艺术作品。DALL·E 3目前支持根据提示创建特定大小的新图像。DALL·E 2还支持编辑现有图像或创建用户提供图像的变体。

DALL·E 3可通过我们的图像API使用,以及DALL·E 2。您可以通过ChatGPT Plus试用DALL·E 3。

模型描述
dall-e-3New DALL·E 3
最新的DALL·E模型,发布于2023年11月。了解更多
dall-e-2上一代DALL·E模型,发布于2022年11月。DALL·E的第二个迭代版本,图像比原始模型更逼真、更准确,分辨率高4倍。

TTS

TTS是一个AI模型,可以将文本转换为自然的语音文本。我们提供两种不同的模型变体,tts-1优化用于实时文本转语音用例,tts-1-hd优化用于质量。这些模型可以与音频API中的语音端点一起使用。

模型描述
tts-1New Text-to-speech 1
最新的文本转语音模型,优化速度。
tts-1-hdNew Text-to-speech 1 HD
最新的文本转语音模型,优化质量。

Whisper

Whisper是一个通用的语音识别模型。它在一个大型多样化音频数据集上进行训练,也是一个多任务模型,可以执行多语言语音识别、语音翻译和语言识别。Whisper v2-large模型目前通过我们的API提供,模型名称为whisper-1

目前,Whisper的开源版本和通过我们的API提供的版本之间没有区别。然而,通过我们的API,我们提供了优化的推理过程,使得通过我们的API运行Whisper比通过其他方式快得多。有关Whisper的更多技术细节,您可以阅读论文

Embeddings

Embeddings是文本的数值表示,可用于测量两段文本之间的相关性。Embeddings在搜索、聚类、推荐、异常检测和分类任务中非常有用。您可以在公告博客文章中阅读有关我们最新嵌入模型的更多信息。

模型描述输出维度
text-embedding-3-largeNew Embedding V3 large
最强大的嵌入模型,适用于英语和非英语任务。
3,072
text-embedding-3-smallNew Embedding V3 small
相较于第二代ada嵌入模型,性能有所提高。
1,536
text-embedding-ada-002最强大的第二代嵌入模型,取代了16个第一代模型。1,536

Moderation

Moderation模型旨在检查内容是否符合OpenAI的使用政策。这些模型提供分类能力,可检测以下类别的内容:仇恨、仇恨/威胁、自我伤害、色情、色情/未成年人、暴力和暴力/图形。您可以在我们的审查指南中了解更多信息。

Moderation模型可以接受任意大小的输入,输入会自动拆分为4,096个tokens的块。在输入超过32,768个tokens的情况下,会使用截断,这在罕见情况下可能会遗漏一些tokens,导致未检查到的内容。

每次请求到审查端点的最终结果会显示每个类别的最大值。例如,如果一个4K tokens的块在某类别的得分为0.9901,另一个块为0.1901,API响应中将显示0.9901,因为这是更高的值。

模型描述最大tokens
text-moderation-latest目前指向text-moderation-00732,768
text-moderation-stable目前指向text-moderation-00732,768
text-moderation-007在所有类别中最强大的审查模型。32,768

GPT base

GPT base模型可以理解和生成自然语言或代码,但未经过指令跟随训练。这些模型是为了替代我们最初的GPT-3基本模型而设计的,并使用旧版的Completions API。大多数客户应该使用GPT-3.5或GPT-4。

模型描述最大tokens训练数据
babbage-002替代GPT-3的adababbage基本模型。16,384 tokens到2021年9月
davinci-002替代GPT-3的curiedavinci基本模型。16,384 tokens到2021年9月

我们如何使用您的数据

您的数据是您的数据。

自2023年3月1日起,发送到OpenAI API的数据不会用于训练或改进OpenAI模型(除非您明确选择加入)。选择加入的一个优势是模型可能会随着时间的推移在您的用例上表现得更好。

为了帮助识别滥用,API数据可能会保留长达30天,然后删除(除非法律另有要求)。对于具有敏感应用的可信客户,可能提供零数据保留。使用零数据保留时,请求和响应主体不会被持久保存到任何日志记录机制中,仅在内存中存在以服务请求。

请注意,此数据政策不适用于OpenAI的非API消费者服务,例如ChatGPTDALL·E Labs

默认使用政策按端点

端点用于训练的数据默认保留零保留资格
/v1/chat/completions*30天是,除图像输入*外
/v1/assistants直到客户删除
/v1/threads60天*
/v1/threads/messages60天*
/v1/threads/runs60天*
/v1/threads/runs/steps60天*
/v1/images/generations30天
/v1/images/edits30天
/v1/images/variations30天
/v1/embeddings30天
/v1/audio/transcriptions零数据保留-
/v1/audio/translations零数据保留-
/v1/audio/speech30天
/v1/files直到客户删除
/v1/fine_tuning/jobs直到客户删除
/v1/batches直到客户删除
/v1/moderations零数据保留-
/v1/completions30天

*通过gpt-4-turbo模型(或先前的gpt-4-vision-preview)输入的图像不符合零保留资格。

*对于Assistants API,我们仍在评估Beta期间的默认保留期。我们预计在Beta结束后默认保留期将稳定。

有关详细信息,请参阅我们的API数据使用政策。要了解有关零保留的更多信息,请与我们的销售团队联系。

模型端点兼容性

端点最新模型
/v1/assistants支持所有GPT-4和GPT-3.5 Turbo模型,gpt-3.5-turbo-0301除外。retrieval工具需要gpt-4-turbo-preview(及随后的日期模型版本)或gpt-3.5-turbo-1106(及随后的版本)。
/v1/audio/transcriptionswhisper-1
/v1/audio/translationswhisper-1
/v1/audio/speechtts-1tts-1-hd
/v1/chat/completionsgpt-4及日期模型版本、gpt-4-turbo-preview及日期模型版本、gpt-4-vision-previewgpt-4-32k及日期模型版本、gpt-3.5-turbo及日期模型版本、gpt-3.5-turbo-16k及日期模型版本、gpt-3.5-turbo的微调版本
/v1/completions (Legacy)gpt-3.5-turbo-instructbabbage-002davinci-002
/v1/embeddingstext-embedding-3-smalltext-embedding-3-largetext-embedding-ada-002
/v1/fine_tuning/jobsgpt-3.5-turbobabbage-002davinci-002
/v1/moderationstext-moderation-stabletext-moderation-latest
/v1/images/generationsdall-e-2dall-e-3

此列表不包括所有已弃用的模型

Was this page helpful?