2025年8月13日,人工智能领域又迎来一则重磅消息:Anthropic宣布其Claude Sonnet 4大语言模型(LLM)正式支持高达100万个上下文词元,这一数字是此前20万词元上限的5倍。对于开发者而言,这意味着可以在单个请求中传输超过75,000行代码,极大提升了模型处理复杂任务的能力,灵活性直接拉满。
Claude Sonnet4模型是什么?
Claude Sonnet 4是Anthropic于2025年5月23日推出的通用型大语言模型,性能均衡且支持免费用户访问。它采用混合推理架构,具备“快速模式”和“扩展思考模式”,可根据任务复杂度灵活切换。
该模型上下文窗口为200,000 tokens,能处理长文档、代码库等复杂数据集,还支持文本和图像输入,拥有多模态能力。在编程方面表现出色,在SWE - bench测试中成绩达72.7%,支持高达64K的输出token,适合大规模代码生成和项目重构。
其定价经济实惠,输入成本为3美元/百万token,输出为15美元/百万token,还支持提示缓存和批处理功能以节省成本。它可通过Anthropic API、Amazon Bedrock和Google Cloud Vertex AI等平台访问,适用于客户服务AI代理、知识问答系统等多种场景。
体验地址:Claude ai网页版官网首页--Research--Claude Sonnet4 (海外网站需要科学上网)
长上下文功能逐步开放,但有门槛
目前,扩展后的100万词元支持已在Anthropic的API和Amazon Bedrock上开启公开测试,Google Cloud Vertex AI也将在近期上线。不过,这一功能目前仅面向Tier4开发者开放,并需遵循自定义速率限制。Anthropic表示,未来几周内将逐步向更多用户开放,降低使用门槛。
定价策略调整:用得越多,成本越高
为应对更大词元窗口对计算资源的消耗,Anthropic同步推出了新定价方案:
- 20万词元以内:输入每百万词元3美元,输出15美元;
- 超过20万词元:输入每百万词元涨至6美元,输出22.5美元。
开发者可通过快速缓存和批处理技术降低成本,其中批处理可为100万上下文窗口提供50%折扣,适合处理大规模任务的用户。
OpenAI暂未跟进,长上下文需求存疑?
在Anthropic发力长上下文的同时,OpenAI的态度显得谨慎。近期,OpenAI高层在Reddit AMA会议上透露,目前尚未发现用户对长上下文的强烈需求,因此暂未将其列为优先项目。OpenAI团队成员Michelle Pokrass提到,他们曾计划在GPT-5中支持100万词元上下文,但因GPU资源需求过大而搁置,未来将聚焦其他核心功能。
Anthropic直面Google竞争,OpenAI压力倍增
Anthropic的100万词元支持,使其在长上下文领域与Google Gemini形成直接竞争。此前,Google已在其模型中展示了对长文本的处理能力,而Anthropic的加入进一步加剧了这一赛道的争夺。对于OpenAI而言,Anthropic的激进策略可能迫使其重新评估产品路线图,尤其是在企业级市场,长上下文能力已成为关键需求。
总结:
Anthropic的这次升级,不仅为开发者提供了更强大的工具,也推动了整个AI行业向更长上下文、更复杂任务处理的方向发展。未来,长上下文能否成为AI模型的“标配”,或许取决于用户需求的爆发和计算成本的下降。这场竞争,才刚刚开始。
想了解AITOP100平台其它版块的内容,请点击下方超链接查看
AI创作大赛 | AI活动 | AI工具集 | AI资讯专区
AITOP100平台官方交流社群二维码: