【案例】/ I& B* l; {& W; O' r
- k2 N$ x) w5 f; M
GPT-4「变懒」bug被修复,价格暴降80%!OpenAI连更5款新模型,性能狂飙 新智元 2024-01-26 12:18 发表于北京 ' n5 w5 ~* \2 q6 c
新智元报道 编辑:编辑部
8 p5 g7 q' p7 T 【新智元导读】昨夜,OpenAI一口气连更5款新模型。GPT-4 Turbo变懒问题修复,代码生成能力史诗级加强。另外,多款模型价格大幅暴降。
& N" Y/ m/ J- |- u" e! e& K1 f
8 R$ N! n. P& n7 p4 c! s* C! T& \% w$ b. N$ g0 @3 D
GPT-4又双叒叕变强了!
8 W `. t+ O+ U8 U; l( Y& \) k v) a% P. ~
今天,OpenAI正式发布了更新版的GPT-4 Turbo——gpt-4-0125-preview。; {5 }( j( W* c" T$ _& N
: I7 |) P& n3 }3 k$ R# H 不仅大幅改善了模型「偷懒」的情况,而且还极大地提升了代码生成的能力。* m; H% D$ {% W- Z
8 @0 ]0 _4 _# g" a$ [0 z" Q& d4 g9 K. E. f
# k$ l/ H+ o) b8 W7 u 与此同时,OpenAI还发布了一系列模型和API更新,总体来说就是「更强的性能,更低的价格」。
9 Q' d6 y0 g+ Y# C0 x! |, D& n3 h/ b5 |$ O' H
- GPT-3.5 Turbo更新——gpt-3.5-turbo-0125。输入价格大降50%,输出价格下降25%。性能上也有升级。
8 b4 y* q; F6 Q$ s/ l& c' S+ |4 q* C# I
- 「迄今为止最强」的审核模型text-moderation-007,帮助开发者有效地识别有害文本。1 G, N: m8 A: Y6 j( z
' n$ ]# U0 R% |' v8 R 两个新一代embedding模型:
& S( l- @& ~5 W! N2 {
( x8 |$ Z& p! @5 C! p5 q - text-embedding-3-small,体积更小效率更高,价格直接砍到了原模型20%!支持512维和1536维两种大小。
7 [+ u }# u& }% U) X6 {% b - text-embedding-3-large,性能相比之前模型大幅提升,高达3072维的嵌入向量,价格是小模型的6.5倍。
! y4 e P6 t; e( \8 r 最后,OpenAI还强调称,用户通过API传送的数据,都不会被用于训练新的模型。
4 ^2 _! O& T- i! U+ G* V- }5 ?/ ]
* h: S+ r# K9 M+ f0 T6 ~2 i9 V1 u8 W* g% k2 ~5 }) Z/ O
GPT-4更强了,变懒bug修复 自从去年11月份开发者大会发布GPT-4-Turbo以来,超过70%的GPT-4 API用户已经转用了GPT-4-Turbo预览版,从而能够享受最新的知识戒指日期、更大的128k上下文窗口和更低的价格。
& R7 d$ T. X- k# _0 A2 V6 B
) C% `* } s W- P# } 最新更新的GPT-4-Turbo 预览模型——gpt-4-0125-preview在执行任务(如代码生成)方面比之前的预览版要更强,能够减少模型有可能出现的「偷懒」现象。$ ?7 X, |3 T$ e! h
3 m, W6 |" k% [$ a$ F4 D5 I
新模型还修复了一个影响非英文UTF-8生成的漏洞。
% M+ @* \- C4 U8 o6 _& y% \+ g 对于那些希望自动升级到最新GPT-4-Turbo预览版的用户,OpenAI还推出了一个新的模型名别名gpt-4-turbo-preview,它将始终指向最新的GPT-4-Turbo预览版模型。
* d+ g; I7 j4 J9 T" J0 n" x2 p; L2 F" Z0 o! Q7 B" ]- D
在未来几个月内,OpenAI还会推出具备视觉功能的GPT-4-Turbo正式版。 o- E1 O4 ^; k8 S# c
3 p6 o4 j% y6 b2 l* E6 x
# d; n3 [- v& s% G& H* n GPT-3.5-Turbo喜迎「降价增效」 下周,OpenAI即将推出新版的GPT-3.5-Turbo,型号为gpt-3.5-turbo-0125。
. W$ B, {% Q4 Y+ L$ c6 \( x+ I5 Z+ F1 g0 l" O
在过去的一年里,OpenAI已经第三次下调GPT-3.5-Turbo的价格。) ~! a" I; G# p2 [$ F' T, t" }
3 r; U9 ~& v* k7 u' q# S& I2 H
新模型的输入价格下降了50%,现为0.0005美元/1k token;输出价格下降了 25%,现为0.0015美元/1k token。
' \6 d) Q4 E3 T0 i3 o 此外,模型还进行了多项改进,比如提高了按要求格式响应的准确性,并修复了一个导致非英文语言函数调用出现文本编码问题的漏洞。
, ? \) C) B# I6 W/ Z2 _( ?8 S( E$ N
在API中使用固定gpt-3.5-turbo模型名称的用户,将在这款新模型推出两周后,自动从gpt-3.5-turbo-0613升级至gpt-3.5-turbo-0125版本。
, \+ b; u3 z9 P( ?
Y* ~) e( \6 u* V( _
, c& M7 \9 I m$ G8 d2 o: m/ \8 x |' V 全新嵌入模型2连发:性能大涨价格狂降 OpenAI推出了两款新的嵌入模型:体积更小、效率更高的text-embedding-3-small模型,以及更大、性能更强的text-embedding-3-large模型。4 w, [% q, O* c$ @2 V3 [/ c
! ~7 U, L" w. O0 u- N
/ x( P. \( P" u" r' p# c1 k% z1 x) ~ c8 V. E9 _
所谓嵌入(Embedding),就是将内容(如文字或代码)中的概念转化为一串数字序列。
. i: l9 @8 N- q6 L 通过这种方式,机器学习模型和其他算法可以轻松理解不同内容之间的关系,执行聚类、检索等操作。
3 s' X* Q$ R( Y% L
! e- s/ s7 Z; |* j7 \8 o" x$ U 嵌入技术为 ChatGPT 和 Assistants API 中的知识检索功能,以及许多检索增强生成([color=var(--weui-LINK)][url=]RAG[/url])开发工具提供了强大动力。0 g( e8 i) u* Z: F) A, S* ]* z5 |' ^
「小」文本嵌入模型:text-embedding-3-smalltext-embedding-3-small是OpenAI的新型高效嵌入模型,与2022年12月推出的前代产品text-embedding-ada-002相比,性能有了大幅提升。
" `/ e9 \. ~* R/ T* t# k p; J |+ @6 `. s" c- B
1 }! t- b C6 o$ ?5 e - 性能更强
+ T# ~+ N$ s+ h2 L9 y# q3 y. s5 y
! ~# c# e% C7 D- {( @ 在多语言检索(MIRACL)的常用基准测试中,text-embedding-3-small的平均得分从31.4%提高到44.0%,在英语任务(MTEB)的常用基准测试中,平均得分从61.0%提高到 62.3%。
1 N4 Z& D8 ?1 s5 u; p$ m' j8 J% g4 X4 k
7 }. A8 O% @/ [% f) \- N/ f
- 价格实惠
5 C; p8 @, `3 s1 j, T& P# T3 e4 u- J
text-embedding-3-small远比OpenAI之前的text-embedding-ada-002模型效率高,因此价格也大幅降低了5倍,从每千token的0.0001美元降至0.00002美元。
* k8 C/ b5 L) ^3 {; f+ ]
+ m" i8 h9 G! S OpenAI不会停用text-embedding-ada-002,尽管OpenAI更推荐用户使用新模型,客户仍可选择继续使用上一代产品。' ^5 a. x4 h" i, Y+ r* |
2 C& {4 ?5 R2 F$ Z- `; k# [6 M7 E
- X6 s) } [: v5 A4 F
「大」文本嵌入模型:text-embedding-3-large
2 e' g& Z( h1 K; L9 n) V1 ~' J; B
# G! t; q; T# ?5 k0 l- W text-embedding-3-large是OpenAI的新一代大型嵌入模型,能够生成高达3072维的嵌入向量。( \" |1 [ m( b: M2 B1 F# F
text-embedding-3-large是OpenAI目前性能最强的模型——
$ b0 _/ [4 n, u6 z/ L/ ~- G- \4 L- ~3 E4 d$ B1 a. o7 a
与text-embedding-ada-002相比,它在MIRACL上的平均得分从31.4%提升至54.9%,在MTEB上的平均得分从61.0%提升至 64.6%。/ ]7 G2 g# ^2 M9 c
7 f" t! Z3 G# g0 s( Z2 w* }7 `
4 z% k N9 u3 L0 J# t text-embedding-3-large的价格定为0.00013美元/1k token。- \8 E& N6 G" K
7 n+ ~. N8 _! I5 p/ a) I
2 ^! Z1 p( U2 }
% r9 C; A8 O$ x+ u" i3 [+ B4 o4 a" }) n5 a' z7 W
灵活调整嵌入向量 i5 O1 k- L; H3 j( n( O
/ ^" X/ \! \. _# q1 U' Q5 o
相比于小型嵌入,大型嵌入的存储和检索,如放置于向量存储库中,往往需要更高的成本,也消耗更多的计算资源、内存和存储空间。1 ]2 j( `; C2 |; Y- f$ ~# c2 O' `
* [/ D' p8 r/ { OpenAI的两款新嵌入模型均采用了一种特殊的训练技术,使得开发者可以在嵌入的使用成本和性能之间做出权衡。
( l0 d0 e/ g$ S 具体来说,开发者可以通过设定dimensions API参数来有效缩短嵌入向量的长度(也就是去掉数列末端的一些数字),而这样做不会影响嵌入向量代表概念的核心特性。
' v; Q' q2 p3 @4 T1 Z! o% @2 I3 S, L, Z2 G
例如,在MTEB基准测试中,即使将text-embedding-3-large嵌入向量的长度缩减到 256,它的性能仍然超过了长度为1536的未经缩减的text-embedding-ada-002嵌入向量。' c! \" K/ n+ }( ^- \- \
这种做法极大地增加了使用上的灵活性。( m5 {8 V+ D( c/ l, }2 L- w8 E: m
- b5 _+ r; F9 X6 c; ?2 T* @8 I
比如说,当开发者需要使用一个只支持最大1024维度嵌入向量的向量数据存储时,可以选择OpenAI性能最佳的嵌入模型text-embedding-3-large,并通过设置dimensions API参数为1024,从而将原本3072维的嵌入向量缩减下来,以较小的向量尺寸为代价换取了准确度。5 U4 L6 }6 b: x" X1 G
* T0 r1 t8 {" _9 v. y' G6 C' B# t
6 u; _9 {/ E" ?( I7 Q d4 v$ Z2 _/ b
迄今最强的内容审核模型 OpenAI提供的免费内容审核API可以帮助开发者识别可能有害的文本。& j* ]! O$ |# C& p" ]: Y
! v) Q/ H8 K# h2 p/ p0 _ 作为OpenAI持续安全工作的一部分,OpenAI发布了迄今为止最强大的内容审核模型text-moderation-007。
, F# X$ p% v( s0 A* v( U/ a% }: e6 W$ W
此前的text-moderation-latest和text-moderation-stable,也将重新指向这个新模型。. f1 P% q- G4 o9 E" n
6 O9 G# n0 q( g" }- H1 @
# J( k5 B$ T% }! A1 m% a API后台更新,更好的API密钥管理 OpenAI正在推出两项重要的平台升级,旨在为开发者提供对他们的API使用情况更清晰的洞察,并加强对API密钥的管理。
% u* Q6 P+ V+ y; c8 A' R2 L4 g) o9 P3 Z: Z S6 H
首先,开发者可以直接在API密钥页面设置不同的密钥权限。( r! ?. f, G K+ M, R& S
! \0 S6 |: V3 n3 q# x" ]
举个例子,用户可以为一个密钥配置只读权限,以便用于内部的跟踪数据面板,或者设置为仅限访问某些特定的接口。" I& L* K, V, e- {4 h% P7 V
其次,一旦开启了密钥使用跟踪功能,使用仪表盘和数据导出功能就能够提供基于每个API 密钥的详细使用指标。这样一来,只需为不同的功能、团队、产品或项目分配独立的 API 密钥,就可以轻松地监控到各自的使用情况。
# h: a# b% T, f* t) U6 U8 y/ j c: T' A' n: E a. W
在接下来的几个月里,OpenAI计划为开发者提供更多便利,让他们能够更好地监控 API 使用情况并管理 API 密钥,这一点对于大型组织来说尤其重要。5 ~4 O0 p( k( W, |4 E
- B! O } M* c( z" F; E& _; A$ b& @, z# U# a
, M0 F3 E F. `0 g. v$ V) K
7 D, h3 F3 Y8 d7 O* c
) S5 K& T, |4 j0 H; O! j: Z
% a6 {" _3 {4 @: t! V& ?
$ O3 t) U! z6 j9 `
|