今日速览 · AI 导读

24 小时跨学科精选

自动抓取 arXiv 多学科 RSS,DeepSeek 自动润色标题与摘要,最快 24 小时内汇总。每日 14:00 初始化批次并每 15 分钟轮询学科,24h 无数据则回退 72h/7 天;arXiv 周末停更时自动跳过。

AI 导读

计算机科学

2026-03-16 03-16 15:28

今日计算机科学领域研究聚焦于提升AI系统的效率、安全性与可靠性,并探索新型计算架构与数据利用范式。

  • 优化AI推理效率:研究通过输入难度感知的阈值调整(DART)和基于重尾理论的激活稀疏化(ActTail),在保持精度的前提下,显著加速深度神经网络和大语言模型的推理过程,降低能耗。
  • 改进模型训练与知识管理:新方法利用教师模型中间层信号进行知识蒸馏,提升小模型性能;同时,针对大语言模型动态知识更新的难题,揭示了其检索偏差的成因,并提出了结构化知识遗忘的评估基准与解决方案。
  • 增强模型安全与对齐:研究揭示了提示注入攻击源于模型内部的角色混淆机制,为防御提供了新视角;同时,提出利用多轮对话中的隐含反馈进行自我蒸馏,为模型对齐提供了数据高效的新途径。
  • 探索新型计算与数据架构:研究提出将最小描述长度原则深度整合进训练过程,以主动压缩网络表示;并挑战传统数据观念,论证了高维含噪数据架构与模型能力协同可增强预测鲁棒性。
  • 推动硬件与框架创新:开源RISC-V平台HyperCroc集成了高速存储控制器,为特定领域加速提供硬件基础;而GPU加速的符号回归框架(Beagle)则展示了专用硬件对特定计算任务的显著性能提升。
  • 拓展AI应用与评估边界:研究将大语言模型应用于风险投资评估(DIALECTIC)和学术误引检测(LAGMiD)等复杂领域,并通过互联网规模测量分析新型漏洞的利用活动,展现了AI在跨领域分析与安全研究中的潜力。

2026-03-16 速览 · 计算机科学

2026-03-16 共 22 条抓取,按综合热度排序

← 返回日历
cs 03-16 00:00

微软提出云服务监控配置自动化推荐框架

针对大规模云服务监控配置依赖人工、反应式且临时性强的问题,本文提出了一种模块化推荐框架。该框架通过处理图结构化的服务实体,分析微软内部监控创建过程的关键组件,从而为生产服务推荐最优的监控配置方案。基于历史数据的广泛实验和用户研究表明,该方法能有效提供相关配置建议,有助于减少监控覆盖盲区和冗余告警,提升云服务可靠性。

云服务监控配置推荐自动化图结构可靠性工程微软
cs 03-16 00:00

DART:面向早期退出DNN的输入难度感知自适应阈值框架

本文提出DART框架,解决了早期退出深度神经网络中现有方法忽略输入难度、阈值优化独立等问题。DART包含三个核心创新:1) 轻量级输入难度估计模块,以极低开销量化输入复杂度;2) 基于动态规划的联合退出策略优化算法;3) 自适应系数管理系统。在AlexNet、ResNet-18等基准测试中,DART相比静态网络实现了最高3.3倍加速、5.1倍能耗降低及42%的平均功耗下降,同时保持竞争力精度。研究还提出了新颖的多目标度量标准DAES,DART在该指标上领先基线达14.8。

早期退出网络自适应推理动态规划边缘ai能效优化难度感知
cs 03-16 00:00

任务特定知识蒸馏新方法:通过中间层探针提取更纯净的监督信号

本文提出了一种名为Intermediate Probes的知识蒸馏框架,旨在解决大型语言模型在推理任务中输出分布质量不高的问题。该方法通过在冻结的教师模型中间隐藏状态上训练轻量级探针,并利用探针的预测(而非教师模型的输出logits)作为学生模型的监督信号。这一简单改变在四个推理基准测试(AQuA-RAT、ARC Easy/Challenge和MMLU)上带来了一致的性能提升,在数据有限的情况下效果尤为显著。该方法无需修改学生或教师模型架构,计算开销小,为从大型教师模型中提取更高质量的知识提供了一条有效途径。

知识蒸馏中间表示推理任务大型语言模型监督学习
cs 03-16 00:00

大语言模型在多轮知识更新中的检索偏差诊断

本研究针对大语言模型在长上下文中处理同一事实多次更新的挑战,提出了动态知识实例评估框架。研究发现,随着更新次数增加,模型对最新知识的检索准确率显著下降,而对初始知识的记忆却保持稳定。通过分析注意力、隐藏状态和输出逻辑,揭示了模型在区分新旧知识时信号变得模糊且缺乏判别力。受认知心理学启发设计的干预策略仅带来有限改善,表明跟踪动态知识更新仍是LLMs面临的持续难题。

大语言模型知识更新检索偏差认知心理学上下文学习模型评估
cs 03-16 00:00

ActTail:基于重尾理论的大语言模型全局激活稀疏化方法

本文提出ActTail方法,旨在通过优化激活稀疏化策略来加速大语言模型推理。针对现有均匀稀疏化方法忽略Transformer权重异质性的问题,ActTail基于重尾自正则化理论,通过计算各投影层的经验谱密度来获取其重尾指数,并以此作为量化指标为不同投影层分配特定的稀疏化预算。理论分析建立了激活稀疏化比率与重尾指数之间的显式关系,为稀疏化分配提供了超越启发式设计的原理性指导。在LLaMA和Mistral模型上的实验表明,在高稀疏度下,该方法相比均匀分配能显著降低困惑度并提升下游任务性能。

激活稀疏化大语言模型重尾理论模型加速推理优化
cs 03-16 00:00

利用用户交互数据对齐语言模型:一种基于自我蒸馏的新方法

本研究提出了一种从语言模型与用户的多轮对话中学习对齐的新方法。传统上这些交互数据常被丢弃,但其中包含了用户对模型回复的隐含反馈(如指出错误、未遵循指令或偏好不符)。该方法的核心是“后见之明蒸馏”:将用户后续消息作为条件输入给模型,比较其产生的修正后回答与原始回答的差异,从而获得一个“后见之明”目标分布,再通过蒸馏技术将其知识迁移回原始模型。实验表明,使用WildChat的真实用户对话数据进行训练,能有效提升模型在标准对齐和指令遵循基准上的表现,且不损害其他能力。该方法还能实现个性化,使模型能通过持续交互适应特定用户,而无需显式反馈。

语言模型对齐自我蒸馏用户交互学习后见之明学习个性化模型持续适应
cs 03-16 00:00

DIALECTIC:基于多智能体辩论的初创公司评估系统

本研究提出DIALECTIC,一个基于大语言模型的多智能体系统,旨在辅助风险投资(VC)的早期项目筛选。系统首先收集初创公司的事实信息并构建层次化问题树,随后生成支持与反对投资的自然语言论点,并通过模拟辩论进行迭代批判与精炼,最终提炼出最具说服力的论据并生成数值化决策评分,供投资者排序与优先处理。在来自五家VC基金的真实投资机会上进行回测显示,该系统在预测初创公司成功方面的精确度与人类VC相当。

风险投资多智能体系统大语言模型项目评估决策支持
cs 03-16 00:00

语言模型安全漏洞:提示注入攻击源于角色混淆机制

研究发现,语言模型易受提示注入攻击的根本原因在于“角色混淆”:模型根据文本的写作风格而非来源来推断说话者身份。通过设计“角色探针”,研究者揭示了攻击原理——模仿特定角色的不可信文本会继承该角色的权限。实验表明,通过向用户提示和工具输出中注入伪造的推理内容,在StrongREJECT和智能体数据窃取任务上的平均成功率分别达到60%和61%,而基线成功率接近零。模型内部的角色混淆程度在生成开始前就能强烈预测攻击成功率。这表明安全定义在接口层面,但权限分配却在潜在空间中,揭示了根本性的安全鸿沟。

提示注入角色混淆语言模型安全对抗攻击权限机制
cs 03-16 00:00

基于上下文增强的船舶轨迹自然语言描述生成框架

本研究提出一种上下文感知的轨迹抽象框架,旨在将原始AIS船舶轨迹数据转化为结构化、语义丰富的表示。该框架首先将噪声AIS序列分割为独立的航次,每个航次由经过移动性标注的清晰航段组成。每个航段进一步通过多源上下文信息(如附近地理实体、海上导航特征和天气条件)进行语义增强。这种表示形式能够支持利用大型语言模型生成受控的自然语言描述。研究通过实证分析,评估了多个LLM在AIS数据及开放上下文特征上生成描述的质量。通过提高语义密度并降低时空复杂性,该抽象方法有助于下游分析,并能与LLM集成以支持更高级别的海事推理任务。

轨迹数据抽象ais数据处理上下文增强自然语言生成海事智能大型语言模型
cs 03-16 00:00

从垃圾到黄金:预测鲁棒性的数据架构理论

本文挑战了“垃圾进,垃圾出”的传统观念,提出预测模型的鲁棒性并非单纯依赖数据清洁度,而是源于数据架构与模型能力的协同作用。通过融合信息论、潜在因子模型和心理测量学原理,研究将预测变量空间的“噪声”分解为“预测器误差”和“结构不确定性”,并证明利用高维、含噪的预测变量集能渐进克服这两类噪声,而单纯清洗低维数据集则受限于结构不确定性的根本约束。研究阐明了“信息性共线性”如何增强可靠性,以及增加维度如何减轻潜在推断负担,从而为从企业“数据沼泽”中学习提供了理论依据。

预测鲁棒性数据架构高维数据信息性共线性数据中心ai潜在因子模型
cs 03-16 00:00

LAGMiD:基于LLM增强图学习的学术误引检测框架

本文提出LAGMiD框架,旨在高效检测学术文献中的误引现象。该框架创新性地结合大型语言模型(LLMs)的深度语义推理能力与图神经网络(GNNs)的高效结构学习能力。通过证据链推理机制进行多跳引文追踪与语义保真度评估,并设计知识蒸馏方法将LLM的中间推理状态与GNN嵌入对齐,从而在降低推理成本的同时保持高精度。在三个真实基准测试中,LAGMiD实现了最先进的误引检测性能。

误引检测图神经网络大型语言模型知识蒸馏学术网络
cs 03-16 00:00

多目标遗传编程框架MOGP-MMF:融合多视角特征提升蛋白质二级结构预测精度

本研究提出MOGP-MMF,一个用于蛋白质二级结构预测(PSSP)的多目标遗传编程框架。该框架将PSSP重新定义为专注于特征选择与融合的自动化优化任务。其核心在于引入多视角多层次表征策略,整合进化、语义及新引入的结构视角,以全面捕捉蛋白质折叠逻辑。通过利用丰富的算子集,框架演化出线性和非线性融合函数,有效捕获高阶特征交互,同时降低融合复杂度。为解决精度与复杂度之间的权衡,开发了一种改进的多目标GP算法,并融入知识转移机制,利用先前的进化经验引导种群趋向全局最优。在七个基准数据集上的广泛实验表明,MOGP-MMF在Q8精度和结构完整性方面超越了现有先进方法,并能生成一组多样的非支配解,为不同实际应用场景提供灵活的模型选择方案。

蛋白质结构预测多目标优化遗传编程特征融合生物信息学机器学习
cs 03-16 00:00

脑机接口合成数据生成:方法综述、性能基准与未来展望

深度学习在脑机接口(BCI)领域的发展受限于神经信号数据稀缺、异构且隐私敏感。本文全面综述了用于BCI的脑信号生成方法,将现有算法系统归类为知识驱动、特征驱动、模型驱动和转换驱动四类。研究在四种代表性BCI范式上对生成方法进行了基准测试,提供了客观的性能比较。文章还探讨了当前方法在提升模型能力、缓解数据稀缺和保护隐私方面的潜力与挑战,并展望了未来构建更精准、数据高效且隐私安全的BCI系统的研究方向。相关基准代码库已开源。

脑机接口合成数据生成模型神经信号数据稀缺基准测试
cs 03-16 00:00

全局进化导向:通过跨层一致性优化大语言模型激活控制

本研究提出了一种无需训练的大语言模型控制框架GER-steer。现有基于静态激活差异的导向方法易受高维噪声和层间语义漂移影响。GER-steer的核心创新在于利用网络表征演化的几何稳定性这一全局信号,对原始导向向量进行校正,从而将鲁棒的语义意图与正交的伪相关解耦。实验表明,该方法在无需逐层调优的情况下,在效果和泛化性上均优于基线方法,为可靠的模型对齐提供了通用解决方案。

大语言模型激活工程模型控制表征学习无训练对齐
cs 03-16 00:00

首次互联网规模测量:React2Shell漏洞利用的全球扫描活动分析

本研究首次利用主动网络望远镜对React Server Components的远程代码执行漏洞(CVE-2025-55182,即React2Shell)的互联网规模利用活动进行了测量分析。通过开发确定性检测方法,研究揭示了漏洞公开后迅速出现的自动化扫描活动模式,包括其时间演化、地理与自治系统层面的分布特征,以及攻击者基础设施的集中化趋势。分析量化了不同扫描器的数量、分布及参与利用尝试的后端基础设施规模,为理解此类新型应用层攻击提供了关键实证数据。

网络安全漏洞测量react2shell网络望远镜服务器端框架远程代码执行
cs 03-16 00:00

几何驱动的MDL优化框架:在训练中主动压缩深度神经网络表示

本文提出了一种将最小描述长度(MDL)原则深度整合进深度神经网络训练动态的新优化框架。该框架将MDL从传统的模型选择准则,重塑为优化过程中的主动、自适应驱动力。其核心是一个几何认知流形,其演化由耦合的Ricci流控制,并引入了一个源自第一性原理的“MDL驱动”项。该驱动项受任务损失梯度调制,在数据保真度与模型简化之间建立和谐,在训练过程中主动压缩内部表示。研究建立了完整的理论基础,证明了描述长度的单调递减、通过几何手术协议实现的有限拓扑相变,以及普适临界行为的涌现。同时,论文提供了一个计算高效的实用算法,并在合成回归与分类任务上进行了实证验证,展示了其在实现鲁棒泛化和自主模型简化方面的有效性。

最小描述长度几何深度学习优化框架模型压缩信息论ricci流
cs 03-16 00:00

HCP-DCNet:一种用于自我提升因果理解的分层因果基元动态组合网络

本文提出了一种统一框架HCP-DCNet,旨在弥合连续物理动力学与离散符号因果推理之间的鸿沟。该框架将因果场景分解为可重用的、类型化的“因果基元”,并组织为物理、功能、事件和规则四个抽象层次。通过双通道路由网络,这些基元被动态组合成任务特定的、完全可微的“因果执行图”。核心创新在于采用“因果干预驱动的元进化”策略,使系统能够通过一个受约束的马尔可夫决策过程实现自主的自我改进。理论分析证明了其类型安全组合、路由收敛和因果动力学的通用逼近能力。在模拟物理和社会环境中的广泛实验表明,HCP-DCNet在因果发现、反事实推理和组合泛化方面显著优于现有基线。

因果推理分层表示动态组合自我改进符号学习人工智能
cs 03-16 00:00

GONE:通过邻域扩展分布塑形实现结构化知识遗忘

本文针对大语言模型(LLM)中结构化知识(如知识图谱事实)的遗忘难题,提出了GONE基准与NEDS框架。现有方法多关注句子级数据,而GONE基准首次在知识图谱结构上评估遗忘效果,可分离直接事实移除、推理泄漏和灾难性遗忘三种影响。NEDS框架则利用图连通性识别锚点相关邻居,通过在待遗忘事实与其语义邻域间构建精确决策边界来实现高效遗忘。在LLaMA-3-8B和Mistral-7B上的实验表明,NEDS在遗忘效能(1.000)和局部性(0.839)上均优于现有方法。

知识遗忘大语言模型知识图谱结构化数据分布塑形基准评估
cs 03-16 00:00

物理启发的几何核网络:用yat积算子简化神经网络架构

本文提出了一种名为“yat积”的新型核算子,它结合了二次对齐与平方反比邻近性。该算子被证明是Mercer核,具有解析性、Lipschitz连续性和自正则化特性。基于此,研究者构建了神经物质网络(NMNs),用yat积作为唯一的非线性操作,替代了传统的线性-激活-归一化模块。这种架构简化保留了通用逼近能力,同时通过分母将归一化内置于核中。实验表明,基于NMN的分类器在MNIST上达到线性基线性能,并展现出有界的原型演化和叠加鲁棒性。在语言建模中,Aether-GPT2使用yat积注意力与MLP块,在参数量相当的情况下取得了比GPT-2更低的验证损失。该框架统一了核学习、梯度稳定性和信息几何,为传统神经架构提供了一个有理论依据的替代方案。

核方法神经网络架构几何机器学习物理启发模型自正则化
cs 03-16 00:00

生成式搜索引擎重塑英国iGaming行业可见性:算法信任与合规信号成为新权威指标

随着ChatGPT、Perplexity等生成式AI搜索引擎的普及,信息检索正从传统排名列表转向由引文支持的合成答案。这一范式转变催生了“生成式引擎优化(GEO)”新框架。研究表明,在高度监管的英国iGaming领域,可见性不再由关键词密度决定,而是取决于实体能否通过合规信号(如UKGC标准)构建“算法信任”。大规模实验显示,AI搜索系统性地偏向第三方权威来源(Earned媒体),而非品牌自有内容。因此,从业者需优化内容结构,使其更易被机器扫描和验证,以提升在AI感知的权威指标中的表现。

生成式搜索引擎算法信任合规信号英国igaming生成式引擎优化ai搜索偏见
cs 03-16 00:00

Beagle框架:GPU加速的符号回归遗传编程系统性能超越主流CPU方案

Beagle是一个新的软件框架,专为在GPU上高效执行遗传编程任务而设计,目前专注于符号回归问题。它通过优化种群个体和训练适应度案例的处理方式,最大化现有GPU平台的吞吐量。研究团队在Feynman符号回归数据集上对Beagle进行了基准测试,并在相同时间预算下,将其性能与快速CPU系统StackGP及广泛使用的PySR系统进行了对比。实验还评估了两种不同的适应度函数:点对点误差函数和相关性适应度函数。结果表明,Beagle的GPU加速符号回归显著优于领先的基于CPU的框架。

gpu加速遗传编程符号回归性能基准软件框架计算优化
cs 03-16 00:00

HyperCroc:集成HyperBus控制器与DMA引擎的开源RISC-V MCU平台

本文提出了HyperCroc,一个基于开源RISC-V Croc片上系统的微控制器平台扩展。它集成了一个经过硅验证的HyperBus控制器(用于访问片外DRAM和Flash,速度高达400 MB/s)和一个DMA引擎,为特定领域加速器提供了高效的数据搬运和高带宽访问能力。该平台保留了完整的开源综合与物理实现流程,可在消费级工作站上于一小时内完成全芯片实现。首次流片测量证实芯片在72 MHz @ 1.2 V下功能完整,验证了端到端设计流程。

risc-v开源硬件微控制器特定领域加速高带宽接口硅验证
AI速览助手