文章预览
LG - 机器学习 CV - 计算机视觉 CL - 计算与语言 AS - 音频与语音 RO - 机器人 1、[LG] In-Context Fine-Tuning for Time-Series Foundation Models 2、[CL] SelfCodeAlign:Self-Alignment for Code Generation 3、[LG] TrAct:Making First-layer Pre-Activations Trainable 4、[LG] Failure Modes of LLMs for Causal Reasoning on Narratives 5、[LG] The Importance of Being Scalable:Improving the Speed and Accuracy of Neural Network Interatomic Potentials Across Chemical Domains 摘要:时间序列基础模型的上下文微调、代码生成的自对齐、对第一层激活值进行梯度下降 、大语言模型叙事因果推理的失效模式、提高跨化学领域的神经网络原子间电位的速度和准确性 1、[LG] In-Context Fine-Tuning for Time-Series Foundation Models A Das, M Faw, R Sen, Y Zhou [Google Research] 时间序列基础模型的上下文微调 要点: 时间序列基础模型的上下文微调:本文提出了一种新的方法,通过上下文
………………………………