-
ACL 20242024最近在少镜头问答(QA)方面的进展主要依赖于预训练的大型语言模型(llm)的力量和特定设置的微调。虽然预训练阶段已经为llm提供了强大的推理能力,但llm仍然需要进行微调,以适应特定的领域,以达到最佳效果。在本文中,我们建议选择最具信息量的数据
-
2024对话系统,如语音助手,有望与用户进行复杂的、不断发展的对话。不幸的是,在此类应用中部署的传统自动语音识别(ASR)系统通常被训练为独立识别每个回合,并且缺乏适应会话上下文或纳入用户反馈的能力。在这项工作中,我们介绍了一个总体框架
-
2024检索增强生成(retrieve -augmented generation, RAG)的最新进展开创了存储库级代码完成的新时代。然而,在现有方法中对检索的不变使用暴露了效率和鲁棒性方面的问题,大部分检索上下文被证明对代码语言模型(代码lm)没有帮助或有害。在本文中,我们提出了一个选择性的RAG框架来避免
-
2024现有的大型语言模型(llm)在部署后通常保持静态,这可能会使向模型注入新知识变得困难。我们的目标是建立包含相当一部分自更新参数的模型,使模型能够有效地集成新知识。为此,我们介绍MemoryLLM,这是一个由转换器和固定大小的内存池组成的模型
-
2024本文建议使用“多重校准”来为大型语言模型(llm)生成的输出产生可解释和可靠的置信度分数。多重校准要求的校准不仅仅是边际的,而是同时跨越各种相交的数据组。我们将展示如何为提示/完成对形成分组,这些分组与通过的正确性概率相关