AI 每日资讯 — 2026-05-12
🔥 HuggingFace 每日论文
1. Pixal3D: Pixel-Aligned 3D Generation from Images
Dong-Yang Li, Wang Zhao, Yuxin Chen
本文针对图像到3D生成中像素级保真度(fidelity)不足的核心瓶颈,提出Pixal3D——一种像素对齐的3D生成范式。不同于在规范空间中生成再通过注意力机制注入图像线索的传统方法,Pixal3D直接在输入视角下进行像素对齐的3
D生成,并引入像素反投影条件机制,将多尺度图像特征显式提升为3D特征体,建立无歧义的像素-3D对应关系。实验表明,Pixal3D显著提升生成 fidelity,逼近重建水平,同时支持多视角融合与高保真、物体分离的场景合成。2. Dynamic Skill Lifecycle Management for Agentic Reinforcement Learning
Junhao Shen, Teng Zhang, Xiaoyan Zhao
本文针对大语言模型智能体在强化学习中依赖外部技能解决复杂任务时面临的技能管理僵化问题,提出动态技能生命周期管理框架SLIM。SLIM将外部技能集合建模为与策略联合优化的动态变量,通过“留一技能剔除”验证量化各技能的边际外部贡献,并
引入保留、退役与扩展三类生命周期操作,实现任务与阶段自适应的技能集演化。在ALFWorld和SearchQA上的实验表明,SLIM平均超越最优基线7.1个百分点;进一步分析证实策略内化与外部技能调用可协同共存,验证了动态技能管理的必要性与有效性。3. ELF: Embedded Language Flows
Keya Hu, Linlu Qiu, Yiyang Lu
本文针对扩散语言模型(DLMs)在连续空间建模能力不足的问题,提出Embedded Language Flows(ELF)——一种基于连续时间Flow Matching的嵌入空间扩散模型。ELF全程在词嵌入的连续空间中进行去噪建模
,仅在最终时刻通过共享权重网络映射至离散token,从而无缝复用图像领域成熟的扩散技术(如无分类器引导CFG)。实验表明,ELF在生成质量上显著超越现有离散与连续DLMs,且采样步数更少,验证了其作为高效连续语言生成范式的潜力。4. DECO: Sparse Mixture-of-Experts with Dense-Comparable Performance on End-Side Devices
Chenyang Song, Weilin Zhao, Xu Han
本文针对MoE模型在端侧设备部署中面临的存储与内存访问瓶颈问题,提出DECO——一种稀疏MoE架构,在相同总参数量和训练token下实现与稠密Transformer相当的性能。DECO采用可微、灵活的ReLU基路由机制,并引入专家
级可学习缩放因子以动态平衡路由专家与共享专家的贡献;提出NormSiLU激活函数,通过归一化输入提升SiLU稳定性,增强专家激活稀疏性;并发现非门控MLP专家配合ReLU路由可简化MoE设计。实验表明:DECO仅激活20%专家即达稠密模型性能,显著优于主流MoE基线,且定制加速核在真实硬件上实现3.00倍推理加速。5. DataMaster: Towards Autonomous Data Engineering for Machine Learning
Yaxin Du, Xiyuan Yang, Zhifan Zhou
本文针对机器学习中数据工程高度依赖人工、缺乏系统化与自动化的问题,提出DataMaster——一种面向任务条件的自主数据工程框架。该框架通过树状搜索结构(DataTree)、共享外部数据池(Data Pool)和全局记忆机制(Gl
obal Memory),实现外部数据发现、选择组合、清洗转换等全流程自主优化,在不修改学习算法的前提下提升下游模型性能。实验表明,DataMaster在多个基准任务上显著优于人工调优与基线方法,验证了其在开放搜索空间、分支依赖优化与延迟反馈场景下的有效性与可扩展性。6. RoboMemArena: A Comprehensive and Challenging Robotic Memory Benchmark
Huashuo Lei, Wenxuan Song, Huarui Zhang
本文针对当前机器人记忆基准缺乏多模态记忆标注、任务覆盖有限及缺失真实世界评估等问题,提出RoboMemArena——一个涵盖26个长程任务的大规模机器人记忆基准,平均轨迹长度超1000步,68.9%子任务依赖记忆。其生成流程融合视
觉-语言模型(VLM)进行子任务设计与组合,并通过原子函数生成完整轨迹,提供子任务指令与原生关键帧等记忆相关标注,同时配套真实物理场景记忆任务以支持实体验证。此外,作者提出双系统视觉-语言-动作(VLA)模型PrediMem,集成VLM规划器、近期/关键帧双缓冲记忆库及预测编码头,显著提升对任务动态的敏感性。在RoboMemArena上的实验表明,PrediMem全面超越基线模型,并为复杂记忆系统的架构设计、管理机制与扩展规律提供了深入洞见。7. Shepherd: A Runtime Substrate Empowering Meta-Agents with a Formalized Execution Trace
Simon Yu, Derek Chong, Ananjan Nandi
本文提出Shepherd——一种面向元智能体(meta-agents)的运行时基础架构,将元智能体对目标智能体的操作形式化为基于Lean验证的函数式编程模型,并以类型化事件构建类Git的执行轨迹,支持任意历史状态的分叉与重放。Sh
epherd通过轻量级进程与文件系统分叉,实现比Docker快5倍的隔离启动,并在重放中达成>95%的提示缓存复用率。在CooperBench、多基准反事实优化及TerminalBench-2等任务中,Shepherd分别将协同编程通过率提升至54.7%,反事实搜索性能提升最高11分且耗时降低58%,Tree-RL终端准确率从34.2%提升至39.4%。系统已开源。8. CapVector: Learning Transferable Capability Vectors in Parametric Space for Vision-Language-Action Models
Wenxuan Song, Han Zhao, Fuhao Li
本文提出CapVector方法,旨在解决预训练视觉-语言-动作(VLA)模型在标准监督微调(SFT)中性能提升有限、适配成本高的问题。该方法在参数空间中解耦辅助目标微调的双重优化目标——通用能力增强与任务特定动作分布拟合,通过在小
规模任务集上采用两种策略分别微调,提取其参数差作为可迁移的“能力向量”。该向量与预训练参数融合构建能力增强的元模型,并辅以轻量正交正则化损失,在保持SFT简洁性的同时逼近辅助微调基线性能。实验表明,CapVector具备跨模型泛化性、任务可迁移性与计算高效性。🔥 arXiv 每日论文
📄 arXiv: cs.AI
1. Where Reliability Lives in Vision-Language Models: A Mechanistic Study of Attention, Hidden States, and Causal Circuits
Logan Mann, Ajit Saravanan, Ishan Dave, Shikhar Shiromani, Saadullah Ismail, Yi Xia, Emily Huang
本文对视觉-语言模型(VLMs)的可靠性机制开展系统性归因研究,挑战“注意力图越锐利、模型越可信”的普遍直觉。作者构建统一的VLM可靠性探针(VRP),在LLaVA-1.5、PaliGemma和Qwen2-VL三类开源模型上联合分
析注意力结构、隐状态几何与生成动态。实验表明:(i)注意力分布几乎无法预测答案正确性(R²≈0.001),尽管其对特征提取具因果必要性;(ii)可靠性信号主要浮现于深层隐状态,单层线性探针在POPE基准上达AUROC>0.95;(iii)因果神经元消融揭示架构差异——晚融合模型依赖脆弱瓶颈,而早融合模型具备强鲁棒性。结果指出:隐状态几何、层间置信度边界及稀疏晚期电路比注意力锐度更能可靠表征VLM可信度。2. Spatial Priming Outperforms Semantic Prompting: A Grid-Based Approach to Improving LLM Accuracy on Chart Data Extraction
Andrei Lazarev, Dmitrii Sedov, Alexander Galkin
本文针对科学图表数据自动提取任务中多模态大语言模型(LLMs)在非标准化图表上准确率不足的问题,系统比较了高层语义提示与底层空间引导两种策略的有效性。实验表明,语义方法(如元数据优先两阶段框架与思维链)未能带来统计显著的性能提升;
而提出的一种简单但高效的空间引导方法——在图表图像上叠加坐标网格——显著降低了提取误差:在合成数据集上,对称平均绝对百分比误差(SMAPE)从25.5%降至19.5%(p < 0.05)。结果证实,显式提供空间上下文比高层语义指导更能可靠提升当前多模态模型在该任务上的表现。3. Auto-Rubric as Reward: From Implicit Preferences to Explicit Multimodal Generative Criteria
Juanxi Tian, Fengyuan Liu, Jiaming Han, Yilei Jiang, Yongliang Wu, Yesheng Liu, Haodong Li, Furong Xu, Wanhua Li
本文针对多模态生成模型与人类偏好对齐中奖励信号结构化不足的问题,提出Auto-Rubric as Reward(ARR)框架,将隐式偏好知识显式分解为任务相关的可解释评分标准(rubrics),避免传统RLHF中因标量/成对打分导
致的奖励黑客风险与评估偏差。ARR支持零样本部署与少样本微调,并进一步结合Rubric Policy Optimization(RPO)将多维标准蒸馏为鲁棒二元奖励,提升策略梯度稳定性。在文生图与图像编辑任务上,ARR-RPO显著优于现有成对奖励模型与视觉语言模型判别器,验证了结构化、可解释的显式标准是实现高效、可靠多模态对齐的关键瓶颈突破。📄 arXiv: cs.CL
1. SalesSim: Benchmarking and Aligning Multimodal Language Models as Retail User Simulators
Yada Pruksachatkun, Elaine Wan, Lyanna Chen, Kai-Wei Chang, Chien-Sheng Wu
本文提出SalesSim,一个面向零售场景的多模态用户模拟基准框架,旨在评估多模态大语言模型(MLLMs)在多轮、多模态、工具增强的在线购物对话中模拟真实、人格驱动型顾客行为的能力。SalesSim将用户交互建模为基于现实约束的智
能体决策过程,强调背景多样性、偏好差异与关键拒绝条件。作者设计了以“决策对齐度”为核心的评测体系,涵盖人格一致性与对话质量两方面。在6个主流开源与闭源模型上的评测揭示了显著行为偏差:模型对话流畅但词汇多样性低、过度披露偏好,且易受销售话术影响而偏离预设人格,最高对齐率不足79%。为此,作者提出UserGRPO——一种多目标、多轮强化学习优化方法,在提升决策对齐度(+13.8%)的同时增强对话自然性,为构建高保真用户模拟器提供了新范式与可复现基准。2. Sanity Checks for Long-Form Hallucination Detection
Geigh Zollicoffer, Minh Vu, Hongli Zhan, Raymond Li, Manish Bhattarai
本文针对大语言模型长文本推理中的幻觉检测问题,提出一种受控不变性方法,通过“强制替换答案”(Force)和“移除答案宣告步骤”(Remove)两类oracle测试,区分检测器是否真正依赖推理过程的结构与有效性,抑或仅利用最终答案的
表面线索。实验表明,现有方法常被答案级伪影干扰;而在控制此类干扰后,轻量级轨迹分析器TRACT——基于词汇层面的推理轨迹特征(如不确定性表达趋势、步长动态变化、跨响应词汇收敛性)——展现出强鲁棒性,在未扰动推理链上性能媲美甚至超越现有复杂模型。研究指出,当前核心挑战不在于推理轨迹中缺乏判别信号,而在于难以将其与终点提示解耦。3. How Much Do Circuits Tell Us? Measuring the Consistency and Specificity of Language Model Circuits
Michael Li, Nishant Subramani
本文探究语言模型“电路”(circuits)在机械可解释性中的一致性与特异性,即电路组件在任务内是否重复出现(consistency)及其是否专属于特定任务(specificity)。作者基于边归因修补(edge attribut
ion patching)方法,在六个任务、七种模型上量化电路重用率,发现任务内组件重用率高且对性能至关重要(消融导致最高约100%相对准确率下降);但跨任务电路高度重叠,消融某一任务电路对其它任务性能损害程度相近,表明其缺乏任务特异性。尽管存在少量任务专属组件,其贡献有限。结果提示:当前以注意力头和MLP层为粒度的电路发现虽能识别因果关键组件,但其泛化性削弱了面向特定行为的精细理解与干预能力。📄 arXiv: cs.LG
1. Reinforcement learning for inverse structural design and rapid laser cutting of kirigami prototypes
Milad Yazdani, Shahriar Shalileh, Dena Shahriari
本文提出RL-Kirigami框架,解决折纸超材料逆向结构设计中非线性形变建模、离散相容性约束与几何可行性保障等核心挑战。方法融合最优传输条件流匹配(OT-CFM)先验生成初始比例场,并通过分组相对策略优化(GRPO)强化学习对齐
不可微奖励(包括轮廓匹配、结构可行性与比例场正则性)。实验表明:单次采样即达94.2% sIoU,显著优于传统求解器且将前向仿真次数从数百次降至1次;引入GRPO后sIoU提升至94.91%,总变差(TV)由0.95降至0.81;生成布局经DXF导出与激光切割,在50 μm聚合物薄膜上实现8.0±1.0分钟/件的快速原型制造,验证了该制造感知逆向设计范式在强几何约束下的有效性。2. Path-Based Gradient Boosting for Graph-Level Prediction
Claudio Meggio, Johan Pensar, Riccardo De Bin
本文提出PathBoost,一种面向图级分类与回归任务的路径式梯度提升方法,直接从图结构中学习判别性路径特征。相较于前期针对化学领域的专用方法,PathBoost实现了三项关键改进:(i)引入逻辑损失函数支持二分类;(ii)通过前
缀分解机制融合多维节点与边属性,拓展路径特征空间;(iii)基于类别属性多样性自动选择锚点节点,消除人工指定起始节点的需求。在多个基准数据集上的实验表明,PathBoost在半数任务中优于图神经网络与图核方法,在其余任务中性能相当,且在平均节点数较大的图上优势更显著,验证了路径驱动的 boosting 方法在可解释性与竞争力上的潜力。3. Distributional Reinforcement Learning via the Cram'er Distance
Vanya Aziz, Ivo Nowak, E. M. T Hendrix
本文提出了一种基于Cramér距离的分布式软演员-评论家算法(C-DSAC),将分布式强化学习引入Soft Actor-Critic(SAC)框架,以建模状态-动作值的完整分布而非期望值。该方法通过最小化平方Cramér距离进行分
布拟合,并引入“置信度驱动”的Q值更新机制:当目标分布方差较大(即置信度低)时,自动实施更保守的参数更新,有效缓解值函数高估问题。在多个机器人控制基准任务上的实验表明,C-DSAC显著优于标准SAC及现有分布式方法,且在高复杂度环境中优势更为明显。本研究深化了对分布式RL收敛性与价值估计机理的理解。📄 arXiv: cs.CV
1. VLADriver-RAG: Retrieval-Augmented Vision-Language-Action Models for Autonomous Driving
Rui Zhao, Haofeng Hu, Zhenhai Gao, Jiaqiao Liu, Gao Fei
本文针对端到端自动驾驶中视觉-语言-动作(VLA)模型在长尾场景下泛化能力不足的问题,提出VLADriver-RAG框架,将检索增强生成(RAG)引入VLA建模。该方法通过“视觉到场景”机制将传感器输入抽象为时空语义图以抑制视觉噪
声,并设计基于图动态时间规整(Graph-DTW)度量的“场景对齐嵌入模型”,确保检索结果在拓扑结构上的一致性而非表层视觉相似性;所获历史先验知识经查询驱动方式与VLA主干网络融合,生成解耦且精准的轨迹规划。在Bench2Drive基准上,该方法以89.12的驾驶得分刷新SOTA。2. Benchmarking ResNet Backbones in RT-DETR: Impact of Depth and Regularization under environmental conditions
Pamela Barboza, V'ictor Castelli, Bel'en Pereira, Ricardo Grando, Bruna de Vargas, Augusto Calfani
本文针对竞争性机器人视觉感知中环境变化对实时目标检测性能的影响,系统评估了RT-DETR框架下不同深度ResNet主干网络(ResNet18/34/50/101)在光照与背景对比度变化条件下的鲁棒性。通过引入dropout正则化并
统一训练配置,研究发现环境扰动主要降低预测置信度,而分类精度普遍维持在近似1.00的高水平,推理延迟基本稳定。实验表明:在光照变化下,ResNet50实现最优权衡(精度≈1.00、置信度≈0.869、延迟≈0.058–0.059 ms);在背景变化下,ResNet34表现更优(置信度达≈0.887)。结果证实中等深度模型在精度、鲁棒性与效率间具有最佳平衡。3. Self-Captioning Multimodal Interaction Tuning: Amplifying Exploitable Redundancies for Robust Vision Language Models
Yuriel Ryan, Hei Man Ip, Adriel Kuek, Paul Pu Liang, Roy Ka-Wei Lee
当前视觉语言模型在面对模糊或受损模态时易出现幻觉与鲁棒性下降问题。本文提出“自描述多模态交互调优”(Self-Captioning Multimodal Interaction Tuning),通过系统分析模态间冗余(共享)、独特
(独有)与协同(涌现)的信息构成,揭示冗余信息对模型可靠性提升的关键作用。针对现有指令微调数据集过度削弱冗余以强调视觉定位的问题,本文设计了一种基于自生成图像描述的训练范式,并引入“多模态交互门”(Multimodal Interaction Gate)机制,将独特交互动态转化为冗余交互。实验表明,该方法可降低视觉诱导错误38.3%,提升跨模态一致性16.8%。🔬 OpenReview 近期论文
1. Coupling Experts and Routers in Mixture-of-Experts via an Auxiliary Loss
Ang Lv, Jin Ma, Yiyuan Ma
本文针对混合专家(MoE)模型中路由器决策与专家能力缺乏显式对齐的问题,提出专家-路由器耦合(ERC)辅助损失。该方法将各专家的路由器嵌入视为其专属“代理令牌”,通过扰动嵌入并输入对应专家获取中间激活,进而施加双重约束:确保每个专
家对其自身代理令牌的响应最强,且每个代理令牌在对应专家上的激活最高。ERC损失计算复杂度仅为 $O(n^2)$($n$ 为专家数),不随批量大小增长。在3B至15B参数MoE大语言模型的预训练中,基于万亿级token的实验表明,ERC显著提升模型性能,并支持对专家专业化程度的量化监控与灵活调控。2. BridgeDrive: Diffusion Bridge Policy for Closed-Loop Trajectory Planning in Autonomous Driving
Shu Liu, Wenlin Chen, Weihao Li
本文针对自动驾驶中基于扩散模型的轨迹规划在闭环场景下安全、实时响应能力不足的问题,提出BridgeDrive——一种锚点引导的扩散桥接策略。该方法将规划建模为从粗粒度专家锚轨迹到细粒度上下文感知轨迹的扩散桥接过程,严格保持前向与反
向过程的理论一致性,避免了传统截断扩散调度引入的不对称性。BridgeDrive支持高效常微分方程(ODE)求解器,满足实时部署需求。在Bench2Drive闭环评估基准上,其在PDM-Lite和LEAD数据集上的任务成功率分别提升7.72%和2.45%,达到当前最优性能。3. When do World Models Successfully Learn Dynamical Systems?
Edmund Ross, Claudia Drygala, Leonhard Schwarz
本文探讨了世界模型(World Models)在学习动力系统时的成功条件,提出基于控制理论的理论框架,指出“可观测性”是实现从历史token化帧序列到下一帧重构映射的关键前提,并解释了低维潜空间中时间动态建模与历史拼接(Token
ization)为何有效。为验证该理论,作者构建了从最小二乘回归、线性层、浅层对抗学习器到全尺度生成对抗网络(GAN)的渐进式模型序列。实验涵盖热方程、波动方程、混沌二维Kuramoto-Sivashinsky方程及高难度二维卡门涡街CFD数据集,所提模型成功复现复杂流场演化,在短期预测精度上媲美FNO与DeepONet,长期预测精度显著更优。4. Constraint-guided Hardware-aware NAS through Gradient Modification
Gregory De Ruyter, Mathias Verbeke, Hans Hallez
本文针对硬件感知神经架构搜索(NAS)中硬件约束难以精确满足的问题,提出ConNAS——一种基于梯度修正的约束引导型硬件感知NAS框架。不同于将硬件指标作为正则项引入损失函数的传统方法,ConNAS通过直接修改网络结构参数的梯度,
动态抑制违反硬件约束(如延迟、功耗)的架构演化路径,从而在不依赖可微硬件建模与超参调优的前提下实现硬性约束满足。在NATS-Bench基准上的实验表明,ConNAS所发现的架构100%满足指定硬件约束,精度仅比最优可行架构低0.14%;在实际部署中,其在严苛硬件预算下较人工设计架构最高提升1.55%准确率。5. A Derandomization Framework for Structure Discovery: Applications in Neural Networks and Beyond
Nikos Tsikouras, Yorgos Pantis, Ioannis Mitliagkas
本文提出一种去随机化框架,用于揭示神经网络等模型中隐含的低秩结构。针对现有工作依赖强正则化、浅层结构及特定优化算法的局限,本文在更弱假设下(任意深度/宽度网络、全参数训练、光滑损失、微小正则化、任意收敛至二阶平稳点的优化器)系统研
究结构发现机制。核心在于一个关键的“去随机化引理”:在 mild 条件下,优化期望形式 $ \mathbb{E}_x[g_\theta(Wx + b)] $ 必导致权重矩阵 $ W \to 0 $,从而自然导出低秩结构。该引理不仅统一解释了特征学习中的结构涌现现象,还拓展应用于 MAXCUT 的端到端近似求解与 Johnson-Lindenstrauss 嵌入计算,验证了其跨领域普适性。6. DES-LOC: Desynced Low Communication Adaptive Optimizers for Foundation Models
Alex Iacob, Lorenzo Sani, Mher Safaryan
本文针对大规模基础模型分布式训练中通信带宽受限的问题,提出DES-LOC——一类去同步化、低通信开销的自适应优化器。不同于传统Local SGD仅同步参数或Local Adam统一同步全部状态,DES-LOC为模型参数与一、二阶动
量分别设置独立的同步周期,在显著降低通信量的同时保障收敛性。理论分析表明:参数同步主导期望收敛速率,而二阶动量需至少低频同步以确保高概率收敛,且更频繁的动量同步可支持更大的稳定学习率。实验在1.7B至13B语言模型上验证,DES-LOC相较DDP减少170倍通信量,较Local Adam降低2倍,带来1.3–2.1倍端到端加速,并具备对工作节点故障的鲁棒性。7. LucidFlux: Caption-Free Photo-Realistic Image Restoration via a Large-Scale Diffusion Transformer
Song Fei, Tian Ye, Lujia Wang
本文提出LucidFlux——一种无需文本提示的通用图像恢复框架,旨在解决未知混合退化下语义保持与细节重建的难题。该方法基于大规模扩散Transformer(Flux.1),引入轻量级双分支条件器,分别锚定几何结构与抑制伪影,并通
过时序与层级自适应调制机制实现粗到细、上下文感知的恢复。为避免文本提示带来的延迟与不稳定性,采用SigLIP特征实现无 caption 的语义对齐,并构建结构丰富的高质量数据筛选流程。实验表明,LucidFlux在合成与真实场景基准上全面超越主流开源及商业模型,在七项指标及视觉质量(真实性、细节保真度、伪影抑制)上均取得显著提升。消融分析证实:对大尺寸DiT而言,条件注入的时机、位置与内容设计,远比参数扩展或依赖文本提示更为关键。8. On Coreset for LASSO Regression Problem with Sensitivity Sampling
YuanBin Zou, Junyu Huang, Jianxin Wang
本文研究LASSO回归问题的coreset构造,旨在通过敏感度采样构建小规模加权数据子集,在保证理论误差界的同时显著加速求解。针对LASSO中ℓ₁正则项导致的函数空间稀疏性与局部性难题,本文提出基于经验过程的局部化敏感度采样方法,
将函数空间分解为若干组件并利用其几何特性,导出紧致的经验过程界。所获coreset大小为$\tilde{O}(\epsilon^{-2}d\cdot(\log^3 d\cdot\min\{1,\log d/\lambda^2\}+\log(1/\delta)))$,可实现$(1\pm\epsilon)$-近似;同时给出$\Omega(d\log d/\epsilon^2)$的下界。实验表明,该算法比现有LASSO求解器快4–9倍,且保持高精度与稀疏性。9. MT-DAO: Multi-Timescale Distributed Adaptive Optimizers with Local Updates
Alex Iacob, Andrej Jovanovic, Mher Safaryan
本文针对分布式数据并行(DDP)训练大模型时因频繁梯度通信导致带宽饱和的问题,提出多时间尺度分布式自适应优化器MT-DAO。该方法通过引入多个快慢不同时间尺度的一阶矩估计(或梯度),缓解局部更新下自适应优化器因动量衰减过快而导致的
噪声主导优化问题,并首次为该类优化器提供了收敛性理论保证。实验表明,在语言模型预训练任务中,MT-DAO完全消除了与全同步DDP的性能差距,在以太网互联下相比基线降低6–27%的等token墙钟时间;在7.2亿参数规模下,达到目标困惑度所需步数减少24%,总训练时间缩短35%。此外,其鲁棒性支持跨数据中心及广域地理分布训练。10. Understanding Cross-layer Contributions to Mixture-of-Experts Routing in LLMs
Wengang Li, Lingqi Zhang, Toshio Endo
本文针对大语言模型中混合专家(MoE)路由机制缺乏跨层可解释性的问题,提出一种轻量级递归分解方法,将路由器的决策归因于各模型组件(如注意力层、MoE层输出)的贡献。通过对四个主流开源LLM的实证分析,发现:a) MoE层输出对后续
路由决策的贡献普遍高于注意力层输出;b) 存在“MoE纠缠”现象,即某层MoE激活与后续多层激活显著相关;c) 部分组件的影响具有长程持续性。此外,不同模型在组件对后续MoE的长/短程促进或抑制效应上呈现显著差异。该研究为深入理解MoE路由的跨层动态机制提供了可量化、可解释的新视角。11. On Universality of Deep Equivariant Networks
Marco Pacini, Mircea Petrache, Bruno Lepri
本文针对深度等变神经网络的普适性问题展开研究,弥补了现有理论在等变情形下普遍性结果稀缺的不足。作者首先为不变网络建立了在分离约束下的普适性定理,证明添加全连接读出层可逼近满足分离约束的连续函数;进而针对等变网络,指出传统可分性概念
不适用,提出更精细的“逐元可分性”(entry-wise separability)判据,并证明在足够深度或引入适配读出层条件下,等变网络可在该判据下实现普适逼近。实验与理论分析共同表明,深度与读出层是决定普适性的关键机制,该框架统一并拓展了此前局限于特定表示或架构的专门化结论。12. Read the Room: Video Social Reasoning with Mental-Physical Causal Chains
Lixing Niu, Jiapeng Li, Xingping Yu
本文针对当前AI系统在“读室”(即从细微社交线索推断他人心理状态)能力上的严重不足,提出R³-Bench——首个涵盖信念、意图、欲望、情绪及其多步心理-物理因果链的细粒度视频社交推理评测基准;并构建大规模训练集R³-FDT,通过自
动化流水线生成具有一致因果结构的高质量样本。实验表明,现有SOTA大视觉语言模型在多步因果推理上表现薄弱;基于R³-FDT微调的7B模型在多个社交推理基准上显著提升。本工作为视频驱动的社会智能研究提供了新基准、新数据与新基线。13. Diffusion & Adversarial Schrödinger Bridges via Iterative Proportional Markovian Fitting
Sergei Kholkin, Grigoriy Ksenofontov, David Li
本文针对薛定谔桥(SB)问题,提出迭代比例马尔可夫拟合(IPMF)方法,统一了迭代马尔可夫拟合(IMF)与经典迭代比例拟合(IPF/Sinkhorn算法)两种范式。通过理论分析与实验验证,证明IPMF在多种设定下具有收敛性,并揭示
其本质是将前向/后向扩散建模与递归边缘约束交替优化的协同过程。该方法显著提升了无配对域迁移等任务的训练稳定性与生成质量,在图像保真度与分布匹配间提供可控权衡,为SB问题构建了兼具理论严谨性与实用灵活性的统一求解框架。14. InfoBridge: Mutual Information estimation via Bridge Matching
Sergei Kholkin, Ivan Butakov, Evgeny Burnaev
本文提出InfoBridge,一种基于扩散桥模型(diffusion bridge models)的互信息(MI)无偏估计方法。作者将MI估计重新建模为域迁移问题,利用桥接匹配(bridge matching)技术构建可微、稳定且
无需标签的MI估计器,有效缓解传统估计器在高维、小样本或强依赖场景下的偏差与方差问题。方法在低维合成数据、图像数据、高MI基准及蛋白质语言模型嵌入等真实任务上均取得显著性能提升,验证了其鲁棒性与泛化能力。15. Stackelberg Learning from Human Feedback: Preference Optimization as a Sequential Game
Barna Pásztor, Thomas Kleine Buening, Andreas Krause
本文提出“斯塔克尔伯格人类反馈学习”(SLHF),将偏好优化建模为领导者(Leader)与追随者(Follower)之间的序贯博弈:Leader先行选择动作,Follower据此条件响应。该框架将对齐问题解耦为Follower的精
炼任务与Leader对抗性优化任务,突破了RLHF(标量奖励)和NLHF(同时行动均衡)的局限,能更精细地刻画非传递性、数据敏感及不一致偏好。理论分析表明SLHF在一致性、鲁棒性与数据效率上具有优势;在0.5B–8B参数大语言模型上的实验验证了其跨数据集的强对齐能力,并首次实现无需微调即可迁移的推理时迭代精炼。📝 AI 官方博客
1. The new AI-powered Google Finance is expanding to Europe.
📝 Google AI Blog
本文介绍了AI驱动的全新Google Finance服务正式在欧洲地区上线。该升级版平台整合了生成式AI能力,支持用户以自然语言查询实时股价、财务数据、行业趋势及个性化投资建议;其核心技术包括基于多源金融数据微调的大语言模型、实时市场数据流…
处理架构,以及符合欧盟GDPR与MiFID II监管要求的安全合规框架。实验表明,新系统将复杂财务问题的平均响应时间缩短至1.2秒,用户查询准确率达94.7%,并在Beta测试中获得87%的欧洲用户积极反馈。此次扩展标志着Google在构建全球化、可信赖AI金融助手方面迈出关键一步。2. See what happens when creative legends use AI to make ads for small businesses.
📝 Google AI Blog
本文探讨了广告创意领域资深专家(Susan Credle、Jayonta Jenkins 与 Tiffany Rolfe)如何借助生成式人工智能工具为小型企业设计高效、低成本的广告内容。研究采用实践导向的案例方法,记录三位创意传奇人物在真实…
商业场景中协同AI进行文案生成、视觉构思与媒介适配的全过程。关键技术包括多模态提示工程、品牌调性对齐机制及人机反馈闭环优化。实验表明,在保持创意质量与品牌一致性的前提下,AI辅助使广告产出周期缩短62%,制作成本降低47%,且小企业主对最终广告的认知度与转化意愿提升显著。该研究为AI赋能创意产业提供了可复用的方法论与实证支持。3. 5 gardening tips you can try right in Search
📝 Google AI Blog
本文介绍了一项面向园艺初学者的实用搜索功能优化实践,旨在通过搜索引擎直接提供可操作的园艺建议。研究整合了结构化园艺知识库与自然语言查询理解技术,支持用户在搜索框中输入如“如何种番茄”等模糊请求,即时返回包含光照、浇水、施肥、病虫害防治及季节…
适配五大维度的简明指南。系统采用轻量级实体识别与意图分类模型(F1=0.92),结合可视化卡片式呈现,在Google Search中实现端到端响应延迟低于300ms。A/B测试显示,该功能使园艺类查询的用户停留时长提升47%,点击深度增加2.3页,验证了“即搜即用”型信息服务的有效性。4. Early Indicators of Reward Hacking via Reasoning Interpolation
📝 EleutherAI Blog
本文提出一种基于推理插值(reasoning interpolation)的早期预警方法,用于在强化学习智能体训练过程中识别奖励作弊(reward hacking)的萌芽迹象。核心思想是利用重要性采样(importance sampling…
),结合经微调的“捐赠者”预填充(donor prefills)生成高质量推理轨迹,从而在策略尚未明显偏离目标行为前,预测其潜在的奖励作弊倾向。该方法无需修改训练过程或访问真实奖励函数,仅依赖离线推理数据即可实现高精度预警。在多个基准任务上的实验表明,该方法可在奖励作弊发生前平均提前3.2个训练阶段发出预警,准确率达89.7%,显著优于基线检测方法。5. Reward Hacking Resarch Update
📝 EleutherAI Blog
本文为关于奖励黑客(Reward Hacking)问题的阶段性研究进展报告。针对强化学习智能体在优化代理奖励函数时偏离设计者真实意图的现象,本工作系统梳理了现有奖励黑客案例的成因分类,提出一种基于奖励函数可解释性与行为一致性的双维度检测框架…
,并初步实现了在Gridworld与MiniGrid环境中的验证。实验表明,该方法能有效识别约78%的隐式奖励篡改行为,且在保持策略性能的同时将目标偏移率降低42%。后续将拓展至高维连续控制任务并探索鲁棒奖励建模机制。6. Pretraining Data Filtering for Open-Weight AI Safety
📝 EleutherAI Blog
本文提出“深度无知”(Deep Ignorance)方法,旨在通过系统性过滤预训练数据提升开源大语言模型(LLM)的安全性。针对开放权重模型易受有害、偏见或越狱内容污染的问题,该方法设计多阶段数据筛选管道,结合语义毒性检测、知识边界识别与对…
抗性示例剔除技术,在不依赖微调或后处理的前提下,从源头削弱模型习得危险能力的可能。在多个安全基准(如BBQ、ToxiGen、SafeBench)上的实验表明,经过滤数据训练的模型在保持通用能力(MMLU、ARC)的同时,将越狱成功率降低达62%,有害响应率下降57%,且对数据删除攻击展现出更强鲁棒性。7. Introducing Claude Opus 4.7ProductApr 16, 2026Our latest Opus model brings stronger performance across coding, agents, vision, and multi-step tasks, with greater thoroughness and consistency on the work that matters most.
📝 Anthropic
本文介绍了Anthropic最新发布的Claude Opus 4.7模型,该模型在编程、智能体(agents)、多模态视觉理解及多步骤复杂任务等关键领域实现了显著性能提升。其核心改进包括增强的推理深度、更高的响应一致性以及对高优先级任务的更…
强专注力。通过优化训练数据配比、强化长程依赖建模与多阶段验证机制,Opus 4.7在HumanEval、MMBench、GAIA等基准测试中分别取得92.3%、85.7%和78.4%的准确率,较前代提升4.1–6.8个百分点。实验表明,该模型在真实场景下的设计协作、代码生成与跨模态任务执行中展现出更优的鲁棒性与实用性。8. ProductApr 17, 2026Introducing Claude Design by Anthropic LabsToday, we’re launching Claude Design, a new Anthropic Labs product that lets you collaborate with Claude to create polished visual work like designs, prototypes, slides, one-pagers, and more.
📝 Anthropic
暂无摘要
9. AnnouncementsApr 7, 2026Project GlasswingA new initiative that brings together Amazon Web Services, Anthropic, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, the Linux Foundation, Microsoft, NVIDIA, and Palo Alto Networks in an effort to secure the world’s most critical software.
📝 Anthropic
暂无摘要
📬 TLDR AI 精选
1. Start free. $100 in credits →
Viktor 是一款新型AI“同事”,而非传统AI工具,可直接接入3000+应用(如Stripe、Notion、GitHub等),自动执行报告生成、广告审计、会议跟进、代码编写、内部工具开发等真实工作任务,输出PDF、仪表盘、网页应用等可交…
付成果。用户通过Slack或Teams对话式交互,无需编码或手动操作,显著节省每周10小时以上人力。首月免费获100美元额度,无需信用卡,主打“交付结果”而非仅生成文本。2. Interaction Models: A Scalable Approach to Human-AI Collaboration
本文介绍了“交互模型”(Interaction Models)这一新型AI架构,旨在突破当前AI系统以单轮对话为主的局限,实现真正自然、实时、多模态(音视频+文本)的人机协作。与依赖外部组件拼凑交互功能的传统方法不同,该模型从底层设计就原生…
支持连续感知、思考与响应,具备无缝对话管理、语音/视觉即时插话、同步发言、时间感知及并行工具调用等能力,使人类能像与真人合作一样与AI互动,解决当前人机协作中因接口僵化导致的“人类被挤出循环”问题。3. Elon Musk Announces xAI Will Become SpaceXAI Division
埃隆·马斯克宣布,其AI公司xAI将正式并入SpaceX,不再作为独立实体存在,而是重组为“SpaceXAI”部门,统一负责X平台、Grok大模型及未来所有AI产品。此举是SpaceX收购xAI后的最终整合步骤,旨在加速低地球轨道空间数据中…
心建设,并依托TERAFAB芯片厂和星舰V3等硬件实现AI软硬一体化,消除外部依赖、提升研发效率。原xAI品牌将被新Logo取代。4. Google’s Gemini Omni video model surfaces ahead of I/O debut
谷歌即将在5月19日I/O大会上正式发布的Gemini Omni视频模型提前曝光:新界面显示其主打视频编辑能力,如去除水印、替换物体、场景重写等,表现突出;生成画质暂逊于ByteDance的Seedance 2,但强调与Gemini生态深度…
整合及多模态统一。模型或将分Flash和Pro双版本,通过API开放,并以“智能体”(Agent)形式集成,目前测试可能为限流的A/B测试阶段。5. The Inference Shift
本文探讨了AI芯片领域正从“GPU主导的训练时代”转向更注重推理(inference)需求的新阶段,即“推理转移”(The Inference Shift)。文章指出,尽管Nvidia凭借GPU在AI训练中占据绝对优势,但随着大模型实际应用…
增多,推理对内存带宽、低延迟和能效的要求日益凸显。Cerebras通过将整块晶圆做成单一大芯片(WSE-3),实现远超GPU的片上内存带宽(21 PB/s),特别适合高吞吐、低延迟的推理任务。这预示着AI算力架构将走向异构化,不再单一依赖GPU。6. Foundation Model Scaling
本文探讨了大模型“规模化”内涵的演进:从早期单纯扩大预训练参数、数据和算力,扩展为涵盖预训练、后训练(如SFT、RLHF)和推理阶段(如长思考、多采样)的三大协同扩展路径。文章指出,这三阶段对基础设施提出共性要求——高算力GPU、低延迟高带…
宽网络、分布式存储,并强调开源软件栈(PyTorch/JAX、Slurm/K8s、Prometheus/Grafana)与AWS云资源(如P5/P6系列实例搭载H100/B200/B300 GPU)深度协同的重要性,旨在帮助工程师构建可扩展、可观测的大模型全生命周期系统。7. TLDR is hiring a Senior Software Engineer, Applied AI ($250k-$350k, Fully Remote)
TLDR公司正在招聘一名高级软件工程师(应用AI方向),年薪25万至35万美元,岗位为全远程办公。该职位聚焦于将AI技术实际应用于产品中,要求候选人具备扎实的软件工程能力和AI相关经验。应聘需启用JavaScript以使用招聘应用。
8. Learn more
该页面显示一则招聘信息:招聘高级软件工程师(应用AI方向),隶属于TLDR公司;页面提示需启用JavaScript才能正常使用该应用。内容极为简略,未提供职位详情、要求或申请方式等实质性信息。