近期,谷歌首席执行官桑达尔·皮查伊在谷歌云活动中宣布,其AI产品和界面每月处理的代币数量已突破1.3万亿。这一数据不仅刷新了今年6月公布的980万亿代币纪录,更在短短四个月内激增320万亿。然而,如此庞大的数字究竟意味着用户需求爆发,还是AI计算复杂度的直线飙升?
代币激增:计算复杂度的“温度计”
1.3万亿代币看似是用户活跃度的直接证明,但真相却指向AI模型后端的计算升级。分析指出,这一增长主要源于Gemini2.5Flash等新型推理模型的正式上线。这些模型每次请求的内部计算量远超前代——例如,Gemini Flash2.5单次请求的代币消耗比前代多出17倍,导致推理成本飙升150倍。此外,视频、图像、音频等多模态处理任务的加入,进一步推高了总代币量。
对比表格:代币增长背后的驱动因素
因素 | 前代模型数据 | 新一代模型数据 | 增长幅度 |
---|---|---|---|
单次请求代币消耗 | 未知 | 17倍于前代 | 1700% |
推理任务成本 | 基准值 | 150倍于基准值 | 15000% |
多模态功能占比 | 有限 | 全面覆盖 | 指数级增长 |
换句话说,1.3万亿代币更像是谷歌后端计算负载的“体检报告”,而非用户实际使用价值的直接体现。有趣的是,这种计算规模的膨胀,甚至让一些开发者开始重新评估AI模型的效率边界。
环保争议:微小消耗与庞大计算的矛盾
谷歌此前宣称,一个Gemini文本提示仅消耗0.24瓦时电量、0.03克二氧化碳和0.26毫升水,甚至低于9秒电视播放的能耗。但批评者指出,这些数据仅基于轻量级语言模型的最小计算单元,完全忽略了多模态生成、代理搜索等重度场景的真实需求。
例如,文档分析或视频生成任务所需的计算量,远非简单文本提示可比。而1.3万亿代币的总规模,更将这种差距推向极致——谷歌的环保声明与其实际计算需求之间,已形成难以调和的矛盾。这种矛盾不仅引发公众质疑,更让行业开始思考:AI的可持续发展,是否必须以牺牲环境透明度为代价?
调整段落顺序后的逻辑梳理
谷歌的AI代币激增现象,本质上是模型升级至更复杂架构的必然结果。从Gemini Flash2.5的内部计算膨胀,到多模态功能的全面渗透,技术迭代的每一步都在推高后端负载。而环保争议的爆发,则暴露了企业在数据披露与实际影响之间的认知断层。
值得注意的是,尽管谷歌在环保报告中强调了“微小能耗”,但1.3万亿代币的规模已让这种说法显得苍白无力。毕竟,当AI的计算需求以万亿为单位增长时,任何关于“低碳”的承诺都需要更扎实的证据支撑。
想了解AITOP100平台其它版块的内容,请点击下方超链接查看
AI创作大赛 | AI活动 | AI工具集 | AI资讯专区
AITOP100平台官方交流社群二维码: