硅基流动放大招:AI模型推理能力再升级,128K超长文案随便跑!
最近啊,硅基流动SiliconCloud狠狠秀了一把肌肉,宣布对他们的DeepSeek-R1等推理模型API进行了一次重大升级!这次升级简直是给开发者们送了一份大礼,因为它完美解决了AI在处理长文本和复杂任务时的难题。
128K超长上下文,让AI“脑洞”更大!
这次升级最最最亮眼的地方,就是把好多推理模型的上下文长度直接干到了128K!像Qwen3、QWQ、GLM-Z1这些明星模型,现在都支持128K的超长上下文了,DeepSeek-R1也给力,支持96K。这意味着什么?意味着AI在“思考”的时候能参考更多的信息,输出的内容自然就更完整、更靠谱啦!尤其是对于代码生成、智能体这类需要复杂推理的任务来说,简直是如虎添翼!
有了这超长上下文,妈妈再也不用担心AI“忘事儿”了!
独立控制“思考”和“回复”,精打细算更高效!
更牛的是,硅基流动还搞了个“独立控制思维链和回复内容长度”的功能。简单来说,就是你可以单独控制AI“思考”的时间和“回复”的字数。以前吧,只能一股脑地限制总长度,现在可以根据任务的复杂程度,灵活调整AI的“思考深度”和“表达能力”,大大提高了效率。
打个比方,用SiliconCloud平台的Qwen3-14B,你可以通过设置thinking_budget
来控制AI在“思考”阶段最多用多少个Token,用max_tokens
来限制AI最终“回复”的字数。如果“思考”阶段的Token数达到了thinking_budget
,Qwen3系列模型就会自觉停止“思考”。当然,其他模型可能会稍微“任性”一点,继续输出“思考”内容。
但是,要注意!如果“回复”的字数超过了max_tokens
的限制,或者上下文长度超出了context_length
的限制,AI输出的“回复”内容就会被无情地截断,并且会在返回结果的finish_reason
字段里标记为length
,告诉你是因为长度限制才停止输出的。
总而言之,这次硅基流动的升级,简直是给AI模型插上了翅膀,让它们在推理能力上更上一层楼!赶紧去试试吧!
想了解更多AI创作软件工具请关注AI人工智能网站--AITOP100平台--AI工具集