文章预览
LG - 机器学习 CV - 计算机视觉 CL - 计算与语言 AS - 音频与语音 RO - 机器人 1、[LG] Is All Learning (Natural) Gradient Descent? 2、[LG] Dynamic-Width Speculative Beam Decoding for Efficient LLM Inference 3、[CL] FineZip:Pushing the Limits of Large Language Models for Practical Lossless Text Compression 4、[AS] Revisiting Acoustic Features for Robust ASR 5、[CL] Counterfactual Token Generation in Large Language Models 摘要:所有学习都是(自然)梯度下降吗、面向LLM高效推断的动态宽度推测束解码、突破大型语言模型的极限实现实用的无损文本压缩 、重新审视鲁棒ASR的声学特征、大型语言模型中的反事实Token生成 1、[LG] Is All Learning (Natural) Gradient Descent? L Shoji, K Suzuki, L Kozachkov [MIT] 所有学习都是(自然)梯度下降吗? 要点: 本文证明,连续时间和离散时间的有效学习规则,只要能提高标量性能指标,都可以表达为自然梯度下降形式。
………………………………