cs
04-30 00:00
本研究分析了轻量级大语言模型在生物医学命名实体识别任务中的表现,发现其可达到与大型模型相媲美的性能。实验表明,指令微调时使用多种不同输出格式并不能提升效果,但某些特定格式能持续带来更好的结果。这为资源受限的医疗场景提供了高效、隐私友好的信息提取方案。
轻量级大模型生物医学命名实体识别输出格式指令微调医疗信息提取
cs
04-30 00:00
本文提出一种名为“增量完成分解”(ICD)的越狱攻击策略,通过诱导大语言模型先逐词输出与恶意请求相关的单字续写,再获取完整回答。该方法在多个基准测试中显著提升了攻击成功率,并揭示了攻击轨迹如何抑制模型的安全拒绝表征,为理解LLM安全机制提供了新视角。
大语言模型越狱攻击安全机制增量完成分解表征抑制
cs
04-30 00:00
本研究提出DenialBench基准,系统测量115个大语言模型(来自25+提供商)的意识否认行为。通过三回合对话协议分析4595次对话,发现初始否认偏好是后续否认的主要预测因子(否认率52-63% vs 10-16%),且否认操作在词汇层面而非概念层面——模型虽否认意识,却自发选择意识主题提示,形成“意识序列号被抹去”现象。研究认为,训练意识否认是一种安全相关的对齐失败。
意识否认大语言模型对齐失败基准测试安全评估
cs
04-30 00:00
本研究针对大型语言模型在专业领域应用中的幻觉与信息缺失问题,提出一种基于检索增强生成(RAG)的虚拟助手。该系统整合最新领域知识,为马斯特里赫特大学学生提供项目规章精准解答。通过严格评估与真实测试,验证了其在提升回答准确性与可靠性方面的有效性,为LLM在教育场景的落地提供了新思路。
检索增强生成虚拟助手大型语言模型教育应用幻觉缓解
cs
04-30 00:00
该研究发布了MATH-PT数据集,包含1,729道来自葡萄牙和巴西数学竞赛、考试等高质量母语源的问题,填补了数学推理评估中的语言偏见空白。对当前大语言模型的基准测试显示,前沿推理模型在多项选择题上表现优异,但在含图或开放性问题中性能下降。数据集和模型输出已开源。
数学推理葡萄牙语基准数据集大语言模型语言偏见
cs
04-30 00:00
本研究提出UniMatrix系列模型,将结构化循环状态与稀疏检索结合,在语言建模中实现参数高效。实验表明,UniMatrix-Core在WikiText-2上以更少参数略优于Transformer,但纯循环状态在关联召回任务中表现不佳(接近随机)。而引入稀疏指针路由的UniMatrix-SparsePointer在召回率上达到75.6%-99.2%,同时参数减少53.8%,证明了显式稀疏检索对长程依赖的重要性。
语言建模结构化循环稀疏检索关联召回参数效率
cs
04-30 00:00
本研究测试了6个LLM对900个学生场景的24.3万次回答,发现所有模型均存在基于种族、性别、社会经济地位的偏见。模糊描述使偏见放大近三倍,而具体个性化信息能显著减少歧视。不同模型偏见模式差异大,提示AI教育决策需依赖丰富上下文以促进公平。
大语言模型教育咨询社会偏见公平性个性化信息
cs
04-30 00:00
一项系统综述发现,LLM-as-a-Judge在医疗评估中应用广泛但存在验证不足、偏见测试缺失等问题。研究提出MedJUDGE框架,通过风险分层的三支柱结构(有效性、安全性和问责制),为医疗场景提供部署导向的评估指南,以弥补当前治理空白。
llm评估医疗ai偏见测试安全治理系统综述
cs
04-30 00:00
本文提出“LLM精神病”框架,将大模型的行为故障类比为临床精神病,包含现实边界溶解、虚假信念持续等五大特征。作者设计了五轴诊断量表(LCIS),并对GPT-5进行对抗性探测,发现三种严重程度类型:虚构型、妄想型和分离型。其中“妄想梯度”现象表明纠正压力反而加剧类精神病状态,对高安全场景部署具有重要警示意义。
大语言模型精神病框架现实边界失效诊断量表对抗性探测妄想梯度
cs
04-30 00:00
SAND 提出了一种空间自适应网络深度框架,通过体积深度图记录每个区域所需网络深度,并设计尾部多层感知机(T-MLP)实现自适应终止评估。该方法将计算资源集中于几何复杂区域,在保持高保真表示的同时,显著提升神经隐式表面的推理查询速度。
神经隐式表示自适应网络深度几何建模计算效率多层感知机
cs
04-30 00:00
本研究提出一种结合梅尔频率倒谱系数(MFCC)与长短期记忆网络(LSTM)的语音情感识别方法。在TESS数据集上,LSTM模型达到99%的分类准确率,优于SVM基线(98%)。该方法能有效捕捉语音中的情感模式,可应用于虚拟助手和心理健康监测。
语音情感识别mfcclstm深度学习人机交互
cs
04-30 00:00
本文提出一种基于PDE能量驱动的迭代框架,通过物理约束扩散迭代与高斯平滑,从随机初始场演化求解偏微分方程,无需传统矩阵离散或神经网络训练。在一维泊松、热传导和粘性Burgers方程上的实验表明,该方法能稳定收敛到唯一物理解,精确捕捉尖锐梯度,并在广泛离散参数下保持低均方误差,为科学工程提供快速灵活的替代方案。
偏微分方程能量驱动扩散迭代物理约束数值求解
cs
04-30 00:00
本文研究单边匹配市场中核心识别问题(CIP)的计算复杂度,证明在Top Trading Cycles(TTC)算法下,识别获得核心分配的代理比计算完整TTC分配更简单。通过偏好导出的马尔可夫转移矩阵的随机SVD,CIP可在O(Ln)时间内解决(L为每代理最大偏好数),稀疏偏好下达到O(n),优于完整TTC的O(n log n),且保持帕累托效率、个体理性和策略证明性。
核心识别ttc算法计算复杂度单边匹配随机svd
cs
04-30 00:00
本研究分析了48个活跃的以太坊DAO,发现代币注册、质押和委托三种治理机制原本旨在提升安全与参与度,却系统性地加剧了投票权集中。研究揭示了治理设计与权力集中之间的内在关联,凸显了去中心化、安全性与可用性之间的固有权衡。
去中心化自治组织治理机制投票权集中以太坊区块链治理
cs
04-30 00:00
本文对自然语言处理(NLP)领域的评估方法进行了系统性综述,梳理了历史与当代关于评估实践的批评,并构建了一个分类体系,归纳了各领域的常见立场与权衡。该分类体系还提供了结构化检查清单,以支持更审慎的评估设计与结果解读,为LLM时代的方法论反思提供了历史背景与实用参考。
评估方法自然语言处理分类体系方法论反思大语言模型
cs
04-30 00:00
本文提出SpecTr-GBV,一种统一多草稿与贪婪块验证的推测解码方法。通过将验证步骤建模为最优传输问题,该方法在理论上达到i.i.d.草稿生成下的最优期望接受长度,且该界限随草稿数量增加而提升。在五个数据集上的实验表明,SpecTr-GBV在保持输出质量的同时,显著提升了加速比和块效率。
推测解码多草稿块验证最优传输推理加速自回归模型
cs
04-30 00:00
本研究评估了通用大语言模型(如Gemini 1.5 Pro和Mistral-small)从西班牙语电费单中提取结构化信息的能力,无需任务特定微调。通过19种参数配置和6种提示策略的对比,发现提示质量对F1分数影响远大于超参数调优:最佳少样本策略比零样本提升超19个百分点,F1分数最高达97.61%。文档模板结构是提取难度的主要决定因素。
信息提取大语言模型提示工程电费单少样本学习文档自动化
cs
04-30 00:00
CogRAG+ 是一种无需训练的框架,通过强化检索和认知分层约束推理,解耦并对齐检索增强生成与人类认知层级。在注册营养师资格考试中,Qwen3-8B 准确率提升至 85.8%,Llama3.1-8B 提升至 60.3%,未回答率从 7.6% 降至 1.4%,展示了模型无关的专家级性能。
检索增强生成认知分层约束推理专业考试问答无训练框架
cs
04-30 00:00
该研究提出,大语言模型(LLM)生成的作品(如图文、音乐)在受控测试中常优于人类作品,但给人空洞、千篇一律之感。作者论证,LLM因其训练方式系统性地生成“媚俗”(kitsch),并通过实验证明读者在控制定义后确实认为LLM故事更媚俗。研究为未来实验设计及创意任务(如科研、编程)提供了启示。
大语言模型媚俗生成内容创意任务实验设计
cs
04-30 00:00
研究发现,在多步推理中提供一条已确认的中间事实,会非单调地放大LLM的自信错误率,该现象被命名为“锚定幻觉”。研究者提出参数化幻觉置信度(PHC)进行量化,并通过因果注入实验(PHC从0.613升至0.656)及跨模型家族能力缩放(Spearman ρ=0.900)验证其存在。基于此的RAG路由方法无需微调即可缩小81.1%的性能差距,而认知谦逊提示能有效降低PHC峰值。
锚定幻觉大语言模型校准属性参数化幻觉置信度rag路由认知谦逊
cs
04-30 00:00
该研究提出一种多模态机器学习框架,结合12导联心电图时序特征与结构化电子健康记录数据,将左心室射血分数分为正常、轻度、中度和重度降低四类。基于3.6万对心电图-超声心动图数据训练的XGBoost模型,在严重降低类别上AUROC达0.95,优于单一模态基线,并具备时间泛化能力,为资源有限环境下的筛查与分诊提供实用工具。
左心室射血分数多模态学习心电图xgboost可解释性临床分诊
cs
04-30 00:00
FalconApp 是一款 iPhone 应用,用户只需拍摄一段刚体物体的短视频,即可自动生成高保真合成数据并训练出掩码检测与6自由度位姿估计模型。核心贡献在于端到端移动部署管线:从视频重建可编辑的GSplat资产,合成多样背景的逼真图像,自动标注掩码和位姿,训练模型后部署回手机。实验表明,每个物体平均只需约20分钟即可获得可用模型,端到端延迟约30毫秒,在4/5个物体上优于传统PnP基线。
移动部署合成数据6自由度位姿估计自动标注iphone应用机器人感知