@@ -32,11 +32,22 @@ export const openAiNativeModels = {
32
32
// supportsVerbosity is a new capability; ensure ModelInfo includes it
33
33
supportsVerbosity : true ,
34
34
supportsTemperature : false ,
35
- allowedServiceTiers : [ "flex" , "priority" ] ,
36
- serviceTierPricing : {
37
- flex : { inputPrice : 0.625 , outputPrice : 5.0 , cacheReadsPrice : 0.0625 } ,
38
- priority : { inputPrice : 2.5 , outputPrice : 20.0 , cacheReadsPrice : 0.25 } ,
39
- } ,
35
+ tiers : [
36
+ {
37
+ name : "flex" ,
38
+ contextWindow : 400000 ,
39
+ inputPrice : 0.625 ,
40
+ outputPrice : 5.0 ,
41
+ cacheReadsPrice : 0.0625 ,
42
+ } ,
43
+ {
44
+ name : "priority" ,
45
+ contextWindow : 400000 ,
46
+ inputPrice : 2.5 ,
47
+ outputPrice : 20.0 ,
48
+ cacheReadsPrice : 0.25 ,
49
+ } ,
50
+ ] ,
40
51
} ,
41
52
"gpt-5-mini-2025-08-07" : {
42
53
maxTokens : 128000 ,
@@ -51,11 +62,22 @@ export const openAiNativeModels = {
51
62
description : "GPT-5 Mini: A faster, more cost-efficient version of GPT-5 for well-defined tasks" ,
52
63
supportsVerbosity : true ,
53
64
supportsTemperature : false ,
54
- allowedServiceTiers : [ "flex" , "priority" ] ,
55
- serviceTierPricing : {
56
- flex : { inputPrice : 0.125 , outputPrice : 1.0 , cacheReadsPrice : 0.0125 } ,
57
- priority : { inputPrice : 0.45 , outputPrice : 3.6 , cacheReadsPrice : 0.045 } ,
58
- } ,
65
+ tiers : [
66
+ {
67
+ name : "flex" ,
68
+ contextWindow : 400000 ,
69
+ inputPrice : 0.125 ,
70
+ outputPrice : 1.0 ,
71
+ cacheReadsPrice : 0.0125 ,
72
+ } ,
73
+ {
74
+ name : "priority" ,
75
+ contextWindow : 400000 ,
76
+ inputPrice : 0.45 ,
77
+ outputPrice : 3.6 ,
78
+ cacheReadsPrice : 0.045 ,
79
+ } ,
80
+ ] ,
59
81
} ,
60
82
"gpt-5-nano-2025-08-07" : {
61
83
maxTokens : 128000 ,
@@ -70,10 +92,15 @@ export const openAiNativeModels = {
70
92
description : "GPT-5 Nano: Fastest, most cost-efficient version of GPT-5" ,
71
93
supportsVerbosity : true ,
72
94
supportsTemperature : false ,
73
- allowedServiceTiers : [ "flex" ] ,
74
- serviceTierPricing : {
75
- flex : { inputPrice : 0.025 , outputPrice : 0.2 , cacheReadsPrice : 0.0025 } ,
76
- } ,
95
+ tiers : [
96
+ {
97
+ name : "flex" ,
98
+ contextWindow : 400000 ,
99
+ inputPrice : 0.025 ,
100
+ outputPrice : 0.2 ,
101
+ cacheReadsPrice : 0.0025 ,
102
+ } ,
103
+ ] ,
77
104
} ,
78
105
"gpt-4.1" : {
79
106
maxTokens : 32_768 ,
@@ -84,10 +111,15 @@ export const openAiNativeModels = {
84
111
outputPrice : 8 ,
85
112
cacheReadsPrice : 0.5 ,
86
113
supportsTemperature : true ,
87
- allowedServiceTiers : [ "priority" ] ,
88
- serviceTierPricing : {
89
- priority : { inputPrice : 3.5 , outputPrice : 14.0 , cacheReadsPrice : 0.875 } ,
90
- } ,
114
+ tiers : [
115
+ {
116
+ name : "priority" ,
117
+ contextWindow : 1_047_576 ,
118
+ inputPrice : 3.5 ,
119
+ outputPrice : 14.0 ,
120
+ cacheReadsPrice : 0.875 ,
121
+ } ,
122
+ ] ,
91
123
} ,
92
124
"gpt-4.1-mini" : {
93
125
maxTokens : 32_768 ,
@@ -98,10 +130,15 @@ export const openAiNativeModels = {
98
130
outputPrice : 1.6 ,
99
131
cacheReadsPrice : 0.1 ,
100
132
supportsTemperature : true ,
101
- allowedServiceTiers : [ "priority" ] ,
102
- serviceTierPricing : {
103
- priority : { inputPrice : 0.7 , outputPrice : 2.8 , cacheReadsPrice : 0.175 } ,
104
- } ,
133
+ tiers : [
134
+ {
135
+ name : "priority" ,
136
+ contextWindow : 1_047_576 ,
137
+ inputPrice : 0.7 ,
138
+ outputPrice : 2.8 ,
139
+ cacheReadsPrice : 0.175 ,
140
+ } ,
141
+ ] ,
105
142
} ,
106
143
"gpt-4.1-nano" : {
107
144
maxTokens : 32_768 ,
@@ -112,10 +149,15 @@ export const openAiNativeModels = {
112
149
outputPrice : 0.4 ,
113
150
cacheReadsPrice : 0.025 ,
114
151
supportsTemperature : true ,
115
- allowedServiceTiers : [ "priority" ] ,
116
- serviceTierPricing : {
117
- priority : { inputPrice : 0.2 , outputPrice : 0.8 , cacheReadsPrice : 0.05 } ,
118
- } ,
152
+ tiers : [
153
+ {
154
+ name : "priority" ,
155
+ contextWindow : 1_047_576 ,
156
+ inputPrice : 0.2 ,
157
+ outputPrice : 0.8 ,
158
+ cacheReadsPrice : 0.05 ,
159
+ } ,
160
+ ] ,
119
161
} ,
120
162
o3 : {
121
163
maxTokens : 100_000 ,
@@ -128,11 +170,22 @@ export const openAiNativeModels = {
128
170
supportsReasoningEffort : true ,
129
171
reasoningEffort : "medium" ,
130
172
supportsTemperature : false ,
131
- allowedServiceTiers : [ "flex" , "priority" ] ,
132
- serviceTierPricing : {
133
- flex : { inputPrice : 1.0 , outputPrice : 4.0 , cacheReadsPrice : 0.25 } ,
134
- priority : { inputPrice : 3.5 , outputPrice : 14.0 , cacheReadsPrice : 0.875 } ,
135
- } ,
173
+ tiers : [
174
+ {
175
+ name : "flex" ,
176
+ contextWindow : 200_000 ,
177
+ inputPrice : 1.0 ,
178
+ outputPrice : 4.0 ,
179
+ cacheReadsPrice : 0.25 ,
180
+ } ,
181
+ {
182
+ name : "priority" ,
183
+ contextWindow : 200_000 ,
184
+ inputPrice : 3.5 ,
185
+ outputPrice : 14.0 ,
186
+ cacheReadsPrice : 0.875 ,
187
+ } ,
188
+ ] ,
136
189
} ,
137
190
"o3-high" : {
138
191
maxTokens : 100_000 ,
@@ -167,11 +220,22 @@ export const openAiNativeModels = {
167
220
supportsReasoningEffort : true ,
168
221
reasoningEffort : "medium" ,
169
222
supportsTemperature : false ,
170
- allowedServiceTiers : [ "flex" , "priority" ] ,
171
- serviceTierPricing : {
172
- flex : { inputPrice : 0.55 , outputPrice : 2.2 , cacheReadsPrice : 0.138 } ,
173
- priority : { inputPrice : 2.0 , outputPrice : 8.0 , cacheReadsPrice : 0.5 } ,
174
- } ,
223
+ tiers : [
224
+ {
225
+ name : "flex" ,
226
+ contextWindow : 200_000 ,
227
+ inputPrice : 0.55 ,
228
+ outputPrice : 2.2 ,
229
+ cacheReadsPrice : 0.138 ,
230
+ } ,
231
+ {
232
+ name : "priority" ,
233
+ contextWindow : 200_000 ,
234
+ inputPrice : 2.0 ,
235
+ outputPrice : 8.0 ,
236
+ cacheReadsPrice : 0.5 ,
237
+ } ,
238
+ ] ,
175
239
} ,
176
240
"o4-mini-high" : {
177
241
maxTokens : 100_000 ,
@@ -268,10 +332,15 @@ export const openAiNativeModels = {
268
332
outputPrice : 10 ,
269
333
cacheReadsPrice : 1.25 ,
270
334
supportsTemperature : true ,
271
- allowedServiceTiers : [ "priority" ] ,
272
- serviceTierPricing : {
273
- priority : { inputPrice : 4.25 , outputPrice : 17.0 , cacheReadsPrice : 2.125 } ,
274
- } ,
335
+ tiers : [
336
+ {
337
+ name : "priority" ,
338
+ contextWindow : 128_000 ,
339
+ inputPrice : 4.25 ,
340
+ outputPrice : 17.0 ,
341
+ cacheReadsPrice : 2.125 ,
342
+ } ,
343
+ ] ,
275
344
} ,
276
345
"gpt-4o-mini" : {
277
346
maxTokens : 16_384 ,
@@ -282,10 +351,15 @@ export const openAiNativeModels = {
282
351
outputPrice : 0.6 ,
283
352
cacheReadsPrice : 0.075 ,
284
353
supportsTemperature : true ,
285
- allowedServiceTiers : [ "priority" ] ,
286
- serviceTierPricing : {
287
- priority : { inputPrice : 0.25 , outputPrice : 1.0 , cacheReadsPrice : 0.125 } ,
288
- } ,
354
+ tiers : [
355
+ {
356
+ name : "priority" ,
357
+ contextWindow : 128_000 ,
358
+ inputPrice : 0.25 ,
359
+ outputPrice : 1.0 ,
360
+ cacheReadsPrice : 0.125 ,
361
+ } ,
362
+ ] ,
289
363
} ,
290
364
"codex-mini-latest" : {
291
365
maxTokens : 16_384 ,
0 commit comments