cs
03-24 00:00
本文提出了一种新型多模态安全威胁——视觉排他性攻击,其危害仅通过对技术示意图等视觉内容进行推理才能显现,比传统的对抗噪声攻击更具韧性。为系统化利用此漏洞,研究者提出了多模态多轮智能体规划框架,通过训练攻击规划器来合成全面的多轮策略,并采用组相对策略优化进行优化,实现了无需人工监督的有效策略自发现。在针对Claude 4.5 Sonnet的测试中,攻击成功率高达46.3%,远超基线方法2-5倍,揭示了前沿模型在智能体多模态攻击面前仍存在关键安全漏洞。
多模态安全红队测试智能体规划视觉推理攻击对抗样本大模型安全
cs
03-24 00:00
本文系统回顾了人机交互与具身对话代理领域在机器共情实现方面的研究进展。研究聚焦于通过模仿人类和动物的行为模式,赋予机器人多模态社交与情感智能,涵盖面部表情、肢体动作、手势和语音交互。文章探讨了现有共情行为模型的设计思路,并分析了如何构建适用于机器本身的共情类比机制。最后,作者提出将相关经验应用于当前以语言模型为基础的智能体(如ChatGPT),推动更自然的人机情感交互。
人机交互情感计算具身智能多模态交互共情模型
cs
03-24 00:00
针对商业文生图模型的安全过滤器过度限制艺术人体内容的问题,本研究提出了FIGURA方法——一个模块化的提示工程系统。该系统包含八个相互关联的知识文件,通过在FLUX 2 Pro模型上进行200多次测试验证。研究发现:安全过滤器主要检测“缺失描述”(如未穿衣物)而非“存在描述”(如身体形态);引用特定画家既能引导美学风格又能作为“安全锚”改变过滤器行为;空间上下文和几何词汇能有效影响生成成功率。该方法在五个结构化提示模板下实现了80%-90%的成功率,为解决艺术审查问题提供了与现有安全机制协同工作的实用方案。
文生图模型安全过滤提示工程艺术生成人体摄影内容审查
cs
03-24 00:00
本文提出了一种新颖的多层AI分析框架,用于测量多学科研究团队的知识融合过程。该框架整合了大语言模型(LLMs)、基于图的可视化分析以及人机协同评估,以追踪研究观点如何随时间被分享、影响和整合。LLMs用于提取与“需求-方法-效益-竞争”(NABC)框架对齐的结构化观点,并推断不同报告者之间的潜在观点流,为三项互补分析奠定语义基础:1)基于相似性的定性分析,识别构建融合所需的“流行”与“独特”两类关键观点;2)使用网络中心性度量的定量跨领域影响力分析;3)捕捉融合动态的时间观点流分析。为应对LLM推断的不确定性,框架通过结构化调查和跨层一致性检查融入了专家验证。一项关于服务不足社区水资源安全问题的案例研究表明,观点融合度在提升,并揭示了特定领域的影响力模式,验证了该AI赋能方法在研究融合分析中的价值。
研究融合大语言模型图分析多学科团队知识图谱人机协同
cs
03-24 00:00
针对大语言模型(LLMs)中恶意与安全查询的潜在表征(嵌入)通常线性可分的特性,本文提出一种名为嵌入空间分离(ES2)的表征级微调方法。该方法通过在嵌入空间中显式增大恶意与安全表征之间的距离来提升模型安全性。为防止模型通用能力退化,在损失函数中引入了Kullback-Leibler(KL)散度正则化项,以约束微调模型在无害输入上的输出与原始基础模型对齐。在多个开源LLMs上的实验结果表明,该方法能显著提升模型安全性,同时保持相当的通用能力。
大语言模型模型安全嵌入空间表征学习微调对抗攻击
cs
03-24 00:00
本文提出了RedacBench,一个用于评估策略驱动文本脱敏的综合性基准。该基准基于514份涵盖个人、企业和政府来源的人工撰写文本,以及187条安全策略构建。通过8,053个标注命题量化模型性能,同时评估其安全性(移除敏感信息)和实用性(保留非敏感信息)。实验表明,尽管更先进的模型能提升安全性,但保持文本实用性仍是挑战。研究团队开源了基准和在线平台以促进相关研究。
文本脱敏数据安全语言模型基准测试信息抽取
cs
03-24 00:00
研究团队受韦氏儿童智力量表启发,提出了KidGym基准,用于评估多模态大语言模型(MLLMs)在2D网格环境中的五项核心能力:执行、感知推理、学习、记忆与规划。该基准包含12项任务,通过随机生成的多样化场景布局,旨在更准确地衡量MLLMs的适应性与发展潜力,模拟儿童认知成长阶段。评估揭示了当前先进模型的显著能力与局限。KidGym支持用户自定义与扩展,以适应快速发展的MLLM研究社区。
多模态大模型基准测试推理能力认知评估人工智能评估2d网格
cs
03-24 00:00
本文提出CRoCoDiL,一种将掩码扩散模型(MDM)的扩散过程迁移至连续句子级语义空间的方法,以解决其在处理词元依赖和语义连贯性上的不足。该方法通过联合训练编码器-去掩码器架构,将MDM的去掩码过程锚定在连续的潜在表示中,形成了一个新颖的自编码器。基于此框架,还引入了两种无条件文本合成算法:ConThenDisc(先连续后离散)和ConWithinDisc(离散采样中连续优化)。在LLaDA上的实验表明,该方法在无条件生成任务中实现了更优的生成质量,并将采样速度提升了10倍以上。
扩散模型文本生成语义空间自编码器无条件合成
cs
03-24 00:00
本研究通过分析11组中学教师在基于积木的编程环境中使用大型语言模型聊天机器人的情况,识别出三种教师互动模式:探索型、受挫型和混合型。研究发现,教师认为聊天机器人有助于培养提示工程技能和自信心,但也担忧其可能导致学习深度和批判性思维能力的下降。关键设计建议包括:为聊天机器人引入提供脚手架、赋予教师对聊天机器人功能的控制权,以及明确其使用时机与方法。
教育技术聊天机器人编程教学教师视角人机交互
cs
03-24 00:00
本文提出了一种受双过程理论启发的混合奖励模型架构(F/S-RM),旨在解决大语言模型对齐中奖励模型效率与精度难以兼顾的问题。该模型将两种奖励范式集成于单一模型中:快速思维(首词预测标量分数)与慢速思维(基于思维链的生成式判断),并通过双置信度激活机制动态决定何时启用计算成本更高的慢速思维。实验表明,F/S-RM 在性能上比现有最优模型提升了 1.2%,同时减少了 20.8% 的令牌消耗,实现了效率与精度的平衡。
奖励模型大语言模型对齐强化学习思维链模型效率双过程理论
cs
03-24 00:00
本文提出AgenticGEO,一个自进化的智能体框架,用于应对生成式搜索引擎优化(GEO)的挑战。传统方法依赖静态启发式规则,难以适应黑盒引擎的动态变化且交互成本高昂。AgenticGEO将优化问题建模为内容条件控制问题,通过MAP-Elites档案库进化出多样化的组合策略,并引入协同进化评论家作为轻量级代理模型来近似引擎反馈,从而高效指导策略搜索与推理时规划。在多个数据集和引擎上的实验表明,其性能超越了14个基线模型,并展现出强大的可迁移性。
生成式搜索引擎优化自进化智能体黑盒优化协同进化内容生成大语言模型
cs
03-24 00:00
本研究通过分析448条社交媒体讨论及对14位AI/HCI会议领域主席的访谈,探讨了生成式AI在学术同行评审中的应用与风险。研究发现,学界普遍接受AI用于辅助性任务(如提升反馈清晰度),但认为评估创新性、贡献度及录用决定等核心判断必须由人类负责。研究揭示了AI可能带来的认知损害、过度标准化、责任模糊及对抗性风险(如提示词注入)等问题,并指出制度模糊性将解释与执行负担转嫁给学者,尤其影响初级研究者。论文将AI辅助评审重构为一个社会技术治理挑战,并提出了保留问责制、信任及有效人类监督的具体建议。
生成式ai学术评审社会技术系统ai治理人机协作问责制
cs
03-24 00:00
本文针对多智能体辩论框架中存在的错误记忆干扰问题,提出了一种名为MAD-M²的新方法。该方法允许智能体在每轮辩论开始时,对上一轮产生的记忆进行筛选和掩码,从而保留有意义的信息并丢弃错误内容。理论分析表明,辩论性能高度依赖于记忆质量,而MAD-M²通过净化上下文信息有效提升了推理的鲁棒性。在主流数学与逻辑推理基准测试上的实验证实了该方法的有效性。
多智能体辩论大语言模型推理鲁棒性记忆掩码错误记忆
cs
03-24 00:00
扩散语言模型(DLM)因其亚线性生成延迟和双向建模能力,成为自回归模型的有力替代者,尤其在代码生成领域。然而,标准DLM并行采样时,各token独立生成,忽略了联合依赖关系,易导致语法错误。本研究提出CoDiLA方法,通过在扩散隐变量上引入一个轻量级辅助自回归模型(如0.6B参数),在并行生成文本块的同时,确保块内序列的局部连贯性。该方法在保持DLM核心双向能力的前提下,有效消除了语法不一致性,在代码生成基准测试中实现了准确性与速度的帕累托最优。
扩散语言模型并行解码代码生成自回归模型亚线性延迟局部连贯性
cs
03-24 00:00
本文提出了一种基于期望奖励预测(ERP)的模型路由方法,用于在推理时动态选择最适合处理特定提示的大语言模型。该方法的核心是直接预测一个LLM在给定提示下,从奖励模型获得的期望奖励,而无需实际采样其响应。实验表明,这种预测足够精确和具有区分度,能够有效构建路由协议,在控制计算成本的同时最大化奖励。在包含Llama3.1、Gemma2等模型的池上测试,ERP路由优于基于类别平均性能的基线方法,并能解释更复杂路由协议的成功。
模型路由奖励模型大语言模型推理优化期望预测
cs
03-24 00:00
检索增强生成通过向提示中添加相关文本来提升大语言模型的准确性,而分块级缓存通过预计算并复用这些检索块的KV缓存来加速推理。然而,现有缓存方法忽略了块间的交叉注意力依赖,可能降低输出质量。本研究通过广泛的系统实验评估,首先揭示了现有CLC方法在准确性或适用性上的根本性局限;其次,观察到现有技术具有互补性,并据此提出了一种精心组合这些技术的新CLC设计,实现了更好的准确性。
kv缓存检索增强生成分块级缓存大语言模型推理加速注意力机制
cs
03-24 00:00
本文针对传统自回归语言模型逐词预测的局限性,提出了一种名为“潜在前瞻”的训练策略。该方法允许模型在生成关键位置前,在潜在空间中进行多步前瞻计算($\tau$步),通过将隐藏状态递归反馈回上下文来投入更多计算资源,并对这$\tau$步的潜在预测进行监督。实验表明,该方法在迷宫求解、数独和ProsQA等需要前瞻性的规划任务上,显著优于标准的自回归和非自回归基线模型。
transformer训练策略潜在空间前瞻计算规划任务自回归模型
cs
03-24 00:00
本研究通过对比微软Phi-3 Mini模型在NVIDIA T4 GPU上的FP16全精度与NF4 4位量化两种配置,实证分析了AI辅导中的延迟-能耗-教学效果权衡。在500个中学学科提示的测试中,NF4量化能耗更低(329 J vs. 369 J)但延迟更高(13.4 s vs. 9.2 s)。研究提出“学习每瓦特”(LpW)新指标,量化单位能耗下的教学价值。实际部署中FP16的LpW优势仅为1.33倍,而离线评估(禁用KV缓存)会夸大该优势至7.4倍,凸显量化效率对硬件和推理场景的依赖性,对资源受限环境的AI教育公平部署具有重要启示。
ai教育模型量化能耗优化边缘计算延迟分析教育公平
cs
03-24 00:00
针对此前关于专家角色提示无效的结论,本研究指出其源于基准测试设计的结构性缺陷:包括基线污染、系统提示层级压制、专家设定无效等五个机制。通过修正方法并采用GPQA钻石级难题进行控制实验,发现当排除有缺陷的题目后,专家角色提示能达到天花板级别的准确率,并通过置信度放大消除了所有基线错误。同时,模型思维链分析显示,近半数最难题目的参考答案存在化学或逻辑缺陷,导致模型因正确推理而受罚。
大语言模型提示工程基准测试专家角色评估方法gpqa
cs
03-24 00:00
本研究提出AnchorNote系统,一种用于增强现实(AR)中共地协作的工具。它通过实时语音转录和大语言模型(LLM)摘要,将口头想法自动转化为空间锚定的数字便签。一项20人参与的迭代研究表明,该系统显著降低了书写负担,但同时也改变了协作的动态,引入了新的协调成本,并影响了参与者构思、计时和组织想法的方式。研究以AnchorNote为探索性工具,旨在理解AR中语音驱动的空间外化如何重构协作认知与协调,并为未来AR协作工具的设计提供启示。
增强现实人机交互语音交互协作工具空间计算便签
cs
03-24 00:00
本研究基于“关键技术韧性素养”(CTRL)框架,开发并验证了专门针对高校教师的“教师人工智能素养与能力”(FALCON-AI)量表。该量表通过理论驱动,构建了涵盖功能性、评价性和伦理性三种素养,并置于教学、科研、服务/管理等四个工作领域的3×4评估框架。经过专家内容效度检验与基于269份有效问卷的验证性因子分析(CFA),最终形成包含23个条目的精简量表。FALCON-AI量表具有良好的模型拟合度与信效度,为高校系统评估教师AI素养提供了一个可靠、实用的工具。
人工智能素养高等教育教师评估量表开发验证性因子分析
cs
03-24 00:00
传统事实核查在跨认知群体纠正错误信息时可能适得其反。本研究提出“相位感知一致性检测”(PACD)方法,通过干预前评估(如对机构信任度、科学认知、阴谋论倾向等)将受众划分为不同认知集群。实验发现,传统事实核查虽平均上推动信念向真相靠拢,但在怀疑论者中效果锐减且易引发逆火效应;而PACD方法虽未带来显著平均改变,但效果在不同认知集群间保持稳定,并大幅减少了逆火效应。研究主张从以内容为中心转向以受众认知框架为中心的纠错策略。
错误信息纠正认知框架逆火效应事实核查相位感知社会计算
cs
03-24 00:00
本研究探讨了语言特征能否作为文本情感识别的可靠可解释信号。通过从13个英文数据集中提取情感特定的语言特征,并将其融入基于RoBERTa的Transformer模型,实验表明,融合高层次语言特征能带来一致的性能提升。在GoEmotions基准上,模型实现了高达+2.4的宏平均F1分数提升,证明显式的词汇线索可以补充神经表示,并提高预测情感类别的鲁棒性。
情感检测语言特征可解释性transformer自然语言处理鲁棒性
cs
03-24 00:00
研究指出,大语言模型(LLM)在请求密集场景下能耗巨大,而小模型(SLM)结合思维链等策略可接近大模型性能但能耗更低。分析揭示了模型规模、推理策略与能耗间的权衡关系。基于Transformer架构输入输出令牌的动态特性会导致非线性硬件能耗曲线,作者提出将“每令牌能耗(Energy-per-Token)”等能效指标作为传统精度基准的补充。此外,提出通过控制思维链的推理深度进行动态能耗调节,并构想了一种能耗感知的路由机制,以实现精度与可持续性平衡的AI部署。
大语言模型能耗效率推理优化可持续ai模型压缩