如今,Test-Time Scaling(测试时扩展)已成为提升模型推理能力的关键路径。而在这一浪潮中,块扩散语言模型(Block Diffusion Language Models, BDLMs) 凭借其独特的并行解码能力,被视为超越传统自回归(AR)模型推理效率的有力竞争者。然而,现有的 BDLMs 在面对长链推理时,陷入了一个两难的效率 - ...
传统的动态解码往往依赖固定的置信度阈值,这在长链推理中极易导致 “一步错,步步错”。研究团队提出了有界自适应置信度解码(BACD)算法,该算法利用已生成 token 的平均置信度作为信号,动态调整当前的去噪阈值。同时,为了实现效率和效果的兼顾,增加了双重边界保护机制:上限(Upper Bound)负责在模型自信时激进加速,下限(Lower ...
1. 用 Test Time 换 Training Time 能让 LLM 更强吗? Self-Play 会是训 LLM 的新热点吗?把预算投入 Inference 会比扩大 LLM 参数更有效吗?PRM 对 Test-Time Compute 性价比影响多大?额外的 Inference Time 能帮 LLM 提升多少能力?Test-Time Compute 性价比还能再提高吗?... 2.
齐鲁网·闪电新闻3月2日讯 近日,山东工商学院信息与电子工程学院郭文教授的论文"Dual-level Adaptation for Multi-Object Tracking: Building Test-Time Calibration from Experience and Intuition"被IEEE/CVF Conference on Computer Vision and Patter ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果