谷歌放大招!Slang Hang AI工具让你轻松学新语言
嘿,朋友们!谷歌最近又搞出了新花样,推出了三项人工智能实验,专门帮咱们更个性化地学习语言。虽说这些实验还在初期阶段,但明显是要和 Duolingo 这些语言学习平台掰掰手腕啦,毕竟它们背后靠的是谷歌强大的多模态大语言模型 Gemini。
先说说“微型课程(Tiny Lesson)”,要是你想快速学特定短语应对实际场景,就找它。比如你说“寻找丢失的护照”,它立马根据上下文给你量身定制词汇和语法建议,还会给出像“我不知道我在哪里丢失的”或“我想报警”这样的响应建议,超实用!
再看看“俚语交流(Slang Hang)”,想学新语言说得像当地人,选它准没错。咱学新语言,一般先学正式说法,它搞了个口语化教学方式,通过真实对话场景教你用俚语。就像小摊贩和顾客互动、朋友在地铁重逢,你还能悬停在不熟悉的词汇上,了解含义和用法。
还有“词汇相机(Word Cam)”,拍个照就能学周围物体对应的语言。Gemini 识别照片里的物体,用你学的语言标注,还会额外提供词汇,让你描述得更全面。生活中经常得给眼前东西命名,这功能就弥补了咱们语言学习中的知识空白。
谷歌说这些实验是探索人工智能怎么让独立学习更动态、更个性化。目前支持阿拉伯语、英语(美式、英式、澳大利亚)、法语、德语等多种语言,大家可以通过谷歌实验室访问这些新功能。咋样,是不是心动了?

小米出手!70 亿参数Xiaomi MiMo推理大模型开源啦
家人们,小米又搞大事啦!全球知名科技公司小米正式发布了首个针对推理(Reasoning)的大型开源模型——Xiaomi MiMo。这模型可厉害啦,就是为了解决现在预训练模型在推理能力上的瓶颈,探索怎么更好地激发模型推理潜能,是小米在人工智能领域的一次重要尝试,尤其在数学推理和代码竞赛方面表现出色。
MiMo的优势那叫一个明显。在数学推理(AIME24 - 25)和代码竞赛(LiveCodeBench v5)的公开测评里,7 亿参数的规模就超过了 OpenAI 的闭源推理模型 o1 - mini 和阿里巴巴的开源推理模型 QwQ - 32B - Preview,这性能简直绝了,给行业树立了新标杆。
随着 DeepSeek - R1 推出,强化学习(RL)在业界火了起来。MiMo-7B 在相同强化学习训练数据条件下,数学与代码领域的推理能力明显领先现有的经典开源 32B 模型,像 DeepSeek - R1 - Distill - 7B 和 Qwen2.5 - 32B。这成绩展现了小米在算法和模型训练上的创新能力,也为未来 AI 发展打下了坚实基础。
MiMo 推理能力提升靠的是预训练与后训练阶段的多层面创新。预训练阶段,整合丰富推理语料,合成约 200B tokens 的推理数据,三阶段训练,逐步增加难度,总共训练了 25T tokens。后训练阶段,聚焦高效稳定的强化学习算法和框架,引入“测试难度驱动奖励”策略,解决困难算法问题奖励稀疏问题,还采用“简单数据重采样”策略提升训练稳定性和有效性,设计了无缝回放系统,让 RL 训练速度和验证速度大幅提升。
现在小米MiMo全系列模型已开源至 HuggingFace 平台,大家可以方便地访问使用。小米表示 MiMo 是大模型核心团队的初步尝试,通往通用人工智能(AGI)的路还长,但小米会秉持务实创新原则,继续探索,为用户带来更多可能。

快手“喵记多”入局,能成下一个Notion吗?
宝子们,快手最近搞了个大动作,推出全新 App“喵记多”,正式进军 AI 辅助的笔记工具市场。这产品由快手旗下轻雀科技开发,核心亮点是有个叫“喵仔”的智能助手,通过聊天交互就能完成笔记管理和待办提醒,操作超简便。
“喵记多”主要功能有笔记剪藏、内容整理和记忆搜索。用户能把零散文字、图片、文件发给喵仔,长按消息选“喵记一下”就能变成笔记,方便后续编辑管理。直接给喵仔发“记笔记内容”就能快速记录,发图片或文件自动收藏。发网页链接,喵仔还能自动抓取网页内容生成笔记。
它还有待办提醒功能,和喵仔对话输入“提醒 + 时间 + 事项”就能创建新待办事项,回复“我的待办”或“待办列表”就能查看。
不过呢,“喵记多”在功能拓展上还有提升空间,比如支持更多文件格式,优化搜索精准度。
其实快手不是首家入局 AI 笔记赛道的互联网大厂。之前百度在开发者大会上发布了 AI 笔记等工具,腾讯推出智能工作台产品 ima copilot,字节复活“锤子便签”还新增 AI 创作功能。
AI 笔记市场竞争这么激烈,是因为用户需求大、商业前景广。从学生到职场人士,都想要高效笔记工具。Notion 集成 GPT 技术后,用户和收入激增,就展示了 AI 加持下笔记产品的巨大商业潜力。快手能不能凭借“喵记多”在激烈竞争中脱颖而出,咱们就拭目以待吧!

Luma Ray2新API,让AI视频生成有电影级控制
嘿,朋友们!Luma AI 宣布其旗舰视频生成模型 Ray2 的 Camera Concepts API 正式上线啦,这给开发者带来了前所未有的电影级镜头控制能力。结合之前推出的 Camera Motion Concepts 和 Camera Angle Concepts,这 API 的发布标志着 AI 视频生成技术在创意控制和生产效率上有了重大突破。
Camera Concepts API 可太牛了,开发者通过简单 API 调用,就能精准控制 AI 生成视频里的镜头运动和角度。它整合了 Ray2 的 Camera Motion Concepts(有平移、轨道、起重机镜头等 20 余种运动模式)和 Camera Angle Concepts(涵盖低角度、过肩镜头、航拍等 9 种视角),开发者用自然语言指令就能实现复杂动态镜头设计,让 AI 生成的视频在视觉叙事和情感表达上更接近专业电影水准。
小编觉得,这 API 极大降低了开发者在视频生成领域的技术门槛。不管是做沉浸式广告、虚拟场景预览,还是电影预制片段,开发者都能通过 API 快速实现高质量视觉效果,不用深入学复杂的提示工程或视频编辑技术。
这 API 的核心优势是模块化设计。开发者能自由组合不同镜头运动和角度,像把“环绕镜头”和“低角度”结合,创造独特又富有冲击力的视觉效果。和传统模型微调不同,Ray2的 Concepts 技术能在不牺牲模型原有能力的情况下,快速学习和应用新控制模式,既提升了创意灵活性,又提高了生成效率,适合高频迭代的商业场景。
另外,Ray2 基于 Luma 的多模态架构,计算能力比前代 Ray1 提升了 10 倍,支持生成高达 720p 分辨率、5 至 10 秒的视频片段。Twitter 反馈显示,API 的响应速度和生成质量获开发者高度认可,尤其在快速原型设计和内容创作中表现出色。
这 API 的发布给多个行业带来新可能,在广告、游戏、电影预可视化和虚拟现实等领域都有应用案例,还支持与 Amazon Bedrock 无缝集成,企业级应用潜力也很大。对内容创作者和中小企业来说,它的直观性和成本效益尤为重要,Ray2 的免费计划向普通用户开放部分功能,高阶功能给专业开发者更大发挥空间,平衡了技术普及与专业需求。
Meta放大招,Llama API让开发者尝鲜AI新模型
宝子们,Meta 在首届 LlamaCon AI 开发者大会上搞了个大新闻,正式发布了 Llama系列 AI 模型的 API,叫 Llama API。这 API 目前处于有限预览阶段,就是想让开发者探索和试验基于不同 Llama 模型的产品。Meta 说这新工具会和公司 SDK 配合用,让开发者能创建由 Llama 模型驱动的服务、工具和应用程序。
虽说 Meta 还没透露 Llama API 的定价,但在这个开放模型竞争激烈的时候发布,显然是想保持领先地位。Meta 还说 Llama 模型下载量超 10 亿次了。不过行业里像 DeepSeek 和阿里巴巴的 Qwen 等竞争对手也在发展,可能会影响 Meta 建立 Llama 生态系统。
从 Llama3.38B 开始,Llama API 给客户提供了微调和评估模型性能的工具。开发者能生成数据、训练,还能用 Llama API 里的 Meta 评估套件测试自定义模型质量。Meta 明确表示不会把用 Llama API 的客户数据用来训练公司自身模型,用 Llama API 构建的模型也能轻松转移到其他主机。
对于基于 Llama4 模型开发的开发者,Llama API 还通过和 Cerebras 和 Groq 合作提供模型服务选项。这些早期实验性选项按需提供,能帮开发者快速构建 AI 应用原型。开发者在 API 里选 Cerebras 或 Groq 的型号名称,就能享受简化使用体验,所有用量都集中跟踪。
Meta 还说接下来几周和几个月会逐步扩大对 Llama API 的访问权限,进一步支持开发者创新探索。这对开发者来说可是个好消息,不知道会带来哪些新的创意和应用呢,咱们就等着瞧吧!

RWKV7-G1 1.5B模型发布,支持超百种语言
家人们,4 月 29 日 RWKV 基金会宣布开源发布了 RWKV7 - G11.5B 推理模型,这模型可厉害了,推理能力强,还支持多语言,特别适合在端侧设备(像手机)上运行。它基于 World v3.5 数据集训练,包含小说、网页、数学、代码和推理数据,总数据量达到 5.16T tokens。
RWKV7 - G11.5B 模型在推理逻辑性方面表现出色,能完成多语言、数学和代码任务。它的英语和多语言能力比同规模开源模型强,包括同期发布的 Qwen3 - 1.7B - Base。在 MMLU(Multilingual Mathematics Language Understanding)评测中,准确度达到 48.2%,比之前的 RWKV - 7World1.5B 的 44.8% 有显著提升。
在“无法作弊的评测”(Uncheatable Eval)中,RWKV7 - G11.5B 综合得分在同参数规模开源模型里领先,超过了 Qwen2.5 - 1.5B,仅次于参数更多的 Qwen3 - 1.7B。这评测用最新论文和新闻文章等实时数据,评估开源大语言模型的真实建模能力和泛化能力。
这模型支持全球 100 多种自然语言,比同参数量的 Transformer 模型强。在多语言翻译任务中,能把中文准确翻译成多种语言。它还有基础代码能力,能完成 Leetcode 题目,数学题目解答也很出色。
为了方便用户体验,RWKV 基金会提供了在线 demo 和移动端聊天 APP。用户可以通过 Hugging Face 或魔搭社区的在线 demo 体验已完成训练的 RWKV7 - G10.1B、0.4B 和 1.5B 模型,还有内测阶段的 RWKV 端侧聊天 APP,支持 Android 和 iOS 版本。
RWKV7 - G11.5B 模型发布计划里有 G10.1B、0.4B、1.5B 和即将发布的 2.9B 模型。目前已发布 G10.1B、0.4B 和 1.5B,G12.9B 模型预计 5 月中旬发布。RWKV 基金会还在准备更大更优的数据集 World v3.7,不久后将开始训练 RWKV7 - G17B 模型。大家是不是很期待这个模型未来能有更多应用呢?

《岁时令》IP智能体大赛来啦,等你来挑战!
宝子们,一场超有意义的智能体创意大赛来啦!AITOP100 平台联合《岁时令》IP 携手扣子智能体平台,以中国传统岁时文化为内核,发起了首届“岁时风华·智创未来”智能体创意大赛。这次大赛聚焦《岁时令》拟人化节日/节气角色,像春节组“元日哥哥”、二十四节气精灵等,邀请全球年轻创作者用 AI 技术重新演绎千年文化符号,打造兼具科技感与文化深度的智能体作品。
大赛时间给大家说说,作品提交时间是 4 月 30 日 - 5 月 30 日,作品投票时间是 4 月 30 日 - 6 月 10 日,获奖公布时间是 6 月 15 日。大家可以去大赛官网了解更多信息,还能从活动投稿入口提交作品。
赛事流程也不复杂,角色互动环节,大家可以以角色性格特征设计节日/节气角色的 AI 对话系统,有好多方向可选。比如彩虹屁 AI 智能体,能根据用户对话生成夸夸文案,永远乐观向上给用户情绪价值;智能老祖宗(智能黄历),把古代农耕文化与自然思哲融入现代生活语境;以“每一天”为单位,智能检索生成“历史上符合这一天/这一时节的诗词歌赋”;每日菜谱/穿搭智能体,根据用户提问生成饮食建议与穿搭建议。
技术要求方面,创作者必须用扣子智能体平台完成核心功能开发,创作完智能体后登录 AITOP100 平台参与赛事投稿作品,上传作品链接才算有效投稿。作品还得体现《岁时令》角色设定、节日关键词(如“希望”“思念”)或传统色谱。
投稿规则也有,参赛者通过官网提交团队信息,签署版权协议;前往《岁时令》官方公众号检索相关设定资料;提交作品链接 + 说明文档(含设计思路、技术实现、文化契合点)。
评审规则分初评和终评阶段,初评根据参与投稿作品的使用量和对话用量排行榜单筛选前 50 个作品进入终评,终评围绕文化契合度、技术实现、创新性、用户体验 5 个维度打分,其中排行榜热度占 30%。
奖励与奖金也很丰厚,金奖一名,有汪欢礼盒、24 节气茶 2 盒、《梦回云南》旅游卡等;银奖三名,有咖啡礼盒、明信片等;创意奖五名,有黄金万币、24 节气茶等;优秀奖十名,有排行热度榜单 TOP10、《岁时令》身份证卡套等。









