头条
抢先看Nano Banana 2生成的图像
https://www.testingcatalog.com/early-look-at-images-generated-by-nano-banana-2/
Nano Banana 2预计11月11日发布。该型号将有2K原生输出,很多方面都会大幅提升。本文给出了新模型的一些输出示例,还和Nano Banana 1的输出做了对比。
现在,你可以从你的套餐和积分中获得更多的 Codex 使用量了。
https://threadreaderapp.com/thread/1986861734619947305.html
GPT - 5 - Codex - Mini是GPT - 5 - Codex的更紧凑、成本更低的版本,它在能力上稍有妥协,但使用量约能提升4倍,现在可在OpenAI的命令行界面和集成开发环境扩展中使用。OpenAI将ChatGPT Plus、Business和Edu用户的使用速率限制提高了50%。ChatGPT Pro和企业客户现在可享受优先处理服务。
深度分析
OpenAI投入1万亿美元建设基础设施
https://tomtunguz.com/openai-hardware-spending-2025-2035/
OpenAI承诺在2025年至2035年间,投入1.15万亿美元用于硬件和云基础设施。预估的年度支出和承诺,显示出其巨大的潜力和野心。到2029年,OpenAI需将年收入从2024年的约100亿美元提升至5770亿美元。本文将分析这些数据。
2025年人工智能现状:智能体、创新与变革
https://www.mckinsey.com/capabilities/quantumblack/our-insights/the-state-of-ai#/
大多数机构仍处于试验或试点阶段。表现出色的机构用人工智能推动增长、创新,控制成本。重新设计工作流程是成功的关键因素。人工智能对就业的潜在影响仍有争议——一项调查显示,43%的员工预计未来一年所在机构的员工总数不会有变化。
工程
推出嵌套学习:一种用于持续学习的新型机器学习范式
https://research.google/blog/introducing-nested-learning-a-new-ml-paradigm-for-continual-learning/
持续学习,也就是在不忘旧知识的同时获取新知识的能力,仍然是通用人工智能(AGI)面临的一大障碍。因为当前的模型存在“灾难性遗忘”问题,学习新任务会降低处理旧任务的能力。一个名为Hope的概念验证架构,这是一种能自我优化内存的模型,在语言建模方面表现优于现代循环模型和Transformer模型,尤其擅长处理长文本中大海捞针式的任务。
量化不是妥协之策,而是下一个新范式
https://threadreaderapp.com/thread/1987125624599970218.html
K2-Thinking发布后,很多开发者对其原生INT4量化格式产生了好奇。INT4低延迟,能加速强化学习训练。量化不再是一种权衡之策。随着参数缩放和测试时间缩放技术的发展,原生低比特量化将成为大模型训练的标准模式。
Claude代码基础设施展示(GitHub 仓库)
https://github.com/diet103/claude-code-infrastructure-showcase
这个代码库包含一个精心整理的参考库,里面是经过生产测试的Claude Code基础设施。它有通过锁自动激活技能的生产测试基础设施,还有处理复杂任务的专业智能体等。用这个基础设施,技能会根据上下文自动推荐,触发器会在合适的时候触发技能,模块化技能能控制在上下文限制内,开发文档能在重置后保留知识,智能体也能简化复杂任务。
其他
债务已卷入人工智能热潮
https://www.nytimes.com/2025/11/08/business/dealbook/debt-has-entered-the-ai-boom.html
各家公司正往前沿计算设施投入数十亿美元。如此巨额的支出让投资者忧心忡忡。科技巨头们开始采取融资手段,这可能会增加风险。超大规模数据中心运营商采用的复杂债务融资方式越来越多,包括企业债、证券化市场、私募融资和表外工具。
OpenAI:人工智能进展与建议
https://openai.com/index/ai-progress-and-recommendations
人工智能的日常应用和核心能力之间差距巨大。聊天机器人用来写邮件或替代网络搜索,而底层模型在数学和编程竞赛中表现超过人类专家。OpenAI现在主张轻度监管,以便在能力下次飞跃前巩固其市场地位。一旦系统强大到需要国家统一应对,监管就会从州级转向联邦级。
海底电缆是人工智能建设和互联网的关键部分,相关投资正在激增。
https://www.cnbc.com/2025/11/08/big-tech-ai-underwater-cables.html
预计2025年至2027年期间,对新海底电缆项目的投资将达到约130亿美元。
TERMINAL - BENCH 2.0 与 Harbor 同步推出,Harbor 是一个用于在容器中测试代理的新框架。
https://venturebeat.com/ai/terminal-bench-2-0-launches-alongside-harbor-a-new-framework-for-testing
此次发布旨在解决人工智能智能体测试和优化方面的长期痛点。
OpenAI 曾要求特朗普政府扩大《芯片法案》税收抵免范围,将数据中心纳入其中。
OpenAI政策主管致特朗普政府的一封信提议,将《芯片法案》的适用范围从半导体扩大,以降低数据中心建设的风险,并缩小与中国的“电力差距”。2024年,中国新增电力装机容量429吉瓦,而美国仅为51吉瓦。
VLLM 中的混合模型
https://pytorch.org/blog/hybrid-models-as-first-class-citizens-in-vllm/
结合注意力机制与其他机制(如 Mamba 或线性注意力机制)的混合大语言模型(LLM),如今在 vLLM V1 中占据重要地位,能为包括 Qwen3-Next 和 Granite 4.0 在内的模型实现高效的长上下文推理。












网友评论