最近,OpenAI 出了点状况。首席执行官山姆・阿尔特曼(Sam Altman)在社交平台 X 上透露,公司的 GPU 资源已经用光啦,这直接导致最新模型 GPT-4.5 没法一下子全面发布,只能分阶段来。
阿尔特曼解释说,GPT-4.5 这个模型规模超级大,成本也高得吓人,要让更多 ChatGPT 用户用上它,得需要 “成千上万” 的 GPU 才行。现在 GPU 不够,也只能先委屈大家等等了。
按照计划,GPT-4.5 会先向 ChatGPT Pro 的订阅用户开放,就在本周四就启动这个事儿。下周呢,ChatGPT Plus 的用户也能用上。这么分阶段发布,主要就是为了缓解当前 GPU 资源紧张的难题,让大家能慢慢体验到这个先进的人工智能模型。
另外,阿尔特曼还透露,GPT-4.5 因为太复杂,使用成本可不低。输入每百万个 token(差不多 750,000 个单词),得收 75 美元;输出每百万个令牌,要收 150 美元。这费用可比 OpenAI 之前的主力产品 GPT-4o,输入成本贵了 30 倍,输出成本贵了 15 倍呢。这一收费标准一出来,好多用户都在讨论,觉得这价格实在太高了。
阿尔特曼在声明里无奈地说:“我们发展得太快了,现在 GPU 资源都耗尽了。我们打算下周增加成千上万的 GPU,然后再推广到 Plus 层用户。其实我们也不想这样,但实在很难提前预测到会出现导致 GPU 短缺的这种快速增长。” 他还提到,OpenAI 一直都被计算能力不足的问题困扰着,未来打算通过研发自家的 AI 芯片,再建大型数据中心,来解决这个大难题。
划重点:
🌐OpenAI 的 CEO 山姆・阿尔特曼说,因为 GPU 资源耗尽,GPT-4.5 只能分阶段发布。
💰GPT-4.5 使用成本超高,输入输出费用分别是 GPT-4o 的 30 倍和 15 倍。
🔧OpenAI 计划靠研发自有 AI 芯片和建大型数据中心,来解决计算能力不足的问题。