- 30个可利用的漏洞:关于家庭路由器默认设置的惊人研究 | |
- A-VL:适用于大型视觉语言模型的自适应注意力机制 | |
- AI几小时设计芯片超越人类!谷歌AlphaChip登Nature,已设计出三代旗舰TPU | |
- AI可能会有认知偏见:关于基于大型语言模型的批量相关性评估中的阈值启动的探索性研究。 | |
- ASD-Diffusion:使用扩散模型进行异常声音检测 | |
- AlphaZip:基于神经网络的无损文本压缩。 | |
- Archon:一种用于推理时技术的架构搜索框架 | |
- AutoPET III 挑战赛:使用 ResEnc 模型集成进行肿瘤病灶分割 | |
- A代表吸收:研究稀疏自编码器中的特征分割和吸收。 | |
- BeSimulator:一种基于文本的行为模拟器,由大型语言模型驱动。 | |
- BrainDreamer:通过语言引导,从脑电波信号生成连贯可控的图像。 | |
- CA-BERT:利用上下文意识增强多轮聊天互动 | |
- CAMAL: 通过主动学习优化LSM树 | |
- CI-Bench:在合成数据上评估AI助手的上下文完整性。 | |
- CLSP:高保真对比语言状态预训练,用于智能体状态表示。 | |
- COSBO:保守的离线基于模拟的策略优化 | |
- CRISPR增强病毒正在用于治疗尿路感染。 | |
- CVT-Occ:用于3D占用预测的成本体积时间融合 | |
- Can-Do! 是一个数据集和神经符号结合的框架,用于大规模多模态模型的具体化规划。 | |
- ChainBuddy:一个用于生成大型语言模型流程的AI代理系统。 | |
- Chattronics:利用GPT帮助设计数据采集系统。 | |
- ChemEval:一种针对大型语言模型的全面多层次化学评估。 | |
- ChronoGAN:用于时间序列生成的监督嵌入式生成对抗网络。 | |
- DAP-LED:利用CLIP学习考虑退化的先验知识,进行低光增强和去模糊的联合处理。 | |
- DeepCloth-ROB^2: 针对准静态抓取与放置布料的神经控制器,旨在实现稳健的机器人部署。 | |
- DenoMamba:一种用于低剂量CT去噪的融合状态空间模型。 | |
- DiVA-DocRE:一种具有区分性和语音识别能力的文档级关系提取方法。 | |
- DiffEditor:通过语义丰富和声学一致性提升语音编辑。 | |
- DilateQuant: 通过权重扩展实现准确高效的扩散量化。 | |
- Domino:通过通用张量切片和重叠消除LLM训练中的通信。 | |
- EDSNet:高效的DSNet用于视频摘要 | |
- EQ-CBM:一种基于能量模型和量化向量的概率概念瓶颈。 | |
- ERABAL:通过边界感知学习提升角色扮演代理的能力 | |
- EmotionQueen:一个用于评估大型语言模型同理心的基准。 | |
- EnIGMA:增强型交互生成模型代理,用于CTF挑战。 | |
- EvoFA:可进化的快速适应用于脑电情感识别 | |
- FACET:通过椭圆建模实现快速准确的事件驱动眼动追踪,适用于扩展现实。 | |
- FAMOUS:用于超大规模FPGA的Transformer注意机制的灵活加速器。 | |
- FPBoost: 完全参数化的梯度提升用于生存分析 | |
- FUSED-Net:通过解冻参数、伪支持集、嵌入归一化和领域适应来增强少样本交通标志检测。 | |
- FedAT:用于分布式内部威胁检测的联邦对抗训练。 | |
- FedGCA:基于全局一致性增强的单源联邦领域泛化方法 | |
- FineMolTex:用于细粒度分子图-文本预训练的研究。 | |
- FreeAvatar:通过学习表情基础模型实现稳健的3D面部动画转移 | |
- GAProtoNet:一种基于多头图注意力机制的原型网络,用于可解释的文本分类。 | |
- GEM-RAG:用于检索增强生成的图形特征记忆。 | |
- HA-FGOVD: 通过显式线性组合突出细粒度属性的开放词汇物体检测。 | |
- HM3D-OVON:一个用于开放词汇目标导航的dataset和基准。 | |
- HUT:一种更高效的计算微调方法,使用Hadamard更新变换。 | |
- HeadCT-ONE:实现头部CT影像报告生成的精细可控自动评估。 | |
- ID-Guard: 一种普遍框架,旨在通过破坏身份识别来对抗人脸篡改。 | |
- IRSC:一种用于评估信息检索的零-shot基准,侧重于在增强生成场景中的语义理解。 | |
- KAG:通过知识增强生成来提升专业领域的大型语言模型 | |
- Kalahi: 一款为菲律宾人打造的手工文化大语言模型评估工具。 | |
- KodeXv0.1:一系列先进的金融大型语言模型 | |
- LLM-Cure:基于大语言模型的竞争对手用户评论分析用于功能提升 | |
- LLMs能否替代尼尔·德格拉斯·泰森?评估LLMs作为科学传播者的可靠性。 | |
- LLM手术:在大型语言模型中高效地删除和编辑知识。 | |
- LatentQGAN:一种结合经典卷积自编码器的混合量子生成对抗网络。 | |
- MACeIP: 一种在智能城市中增强环境上下文的多模态智能平台。 | |
- MAGICS:一种对抗性强化学习方法,通过隐性评论者引导的极小极大演员,实现机器人安全的神经合成收敛。 | |
- MAR-DTN: 使用领域转换网络进行放射治疗规划的金属伪影减少。 | |
- MEGA-PT:一个用于敏捷渗透测试的元游戏框架 | |
- MICSim:一种用于混合信号计算存储AI加速器的模块化模拟器 | |
- MITHOS:一种互动混合现实培训,用于支持学校的专业社交情感互动。 | |
- MOSE:使用提升噪声先验的单目语义重建方法。 | |
- MOSS:促进代码驱动的演变和AI代理的上下文管理 | |
- MSSDA:用于糖尿病足神经病变识别的多子源适应方法 | |
- MaPPER:一种多模态先验引导的参数高效调优方法,用于指称表达理解。 | |
- Magika:人工智能驱动的内容类型检测 | |
- Mammo-Clustering:一种弱监督的多视角全局-局部上下文聚类网络,用于乳腺X光检测和分类。 | |
- MaskedMimic:通过掩膜运动修复实现统一的基于物理的角色控制。 | |
- MathGLM-Vision:通过多模态大语言模型解决数学问题。 | |
- MeLIAD:基于度量学习和熵评分的可解释少样本异常检测 | |
- MobileVLM:一种用于更好理解界面内外信息的视觉语言模型。 | |
- Naturethink体外细胞共培养系统动态细胞共培养实验 | |
- Nature重磅:颠覆AI计算,提升460倍能效,新型分子忆阻器有望为Transformer提速 | |
- OAEI-LLM:一个用于理解大语言模型在本体匹配中产生幻觉的基准数据集。 | |
- OATS:通过稀疏和低秩分解进行异常值感知剪枝 | |
- OMG-RL:基于离线模型的引导奖励学习用于肝素治疗 | |
- OStr-DARTS:基于操作强度的可微分神经网络架构搜索。 | |
- OpenRANet:通过基于优化的深度学习联合子载波和功率分配实现神经网络频谱接入。 | |
- PROMPTFUZZ:利用模糊测试技术增强大语言模型提示注入的可靠性测试 | |
- PTD-SQL:在文本转SQL中使用大语言模型进行分区和定向钻取。 | |
- PathSeeker:利用基于强化学习的监狱突破方法探索大型语言模型安全漏洞 | |
- PixelBytes: 统一嵌入用于多模态生成 | |
- ProTEA: 基于FPGA的可编程变压器编码器加速 | |
- PureDiffusion:在生成扩散模型中通过后门对抗后门。 | |
- QMOS:通过问题掩蔽损失和选项重排来提升大型语言模型在电信中的应用。 | |
- RACOON:基于大语言模型的知识图谱增强检索的列类型标注框架 | |
- RAM2C:一个基于检索增强多角色多专家协作的自由艺术教育聊天机器人。 | |
- RMCBench:评估大型语言模型抵抗恶意代码的能力 | |
- RNR:教大型语言模型遵循角色和规则 | |
- SAMEdge:一种边缘云视频分析架构,专为Segment Anything模型设计。 | |
- SEAL:评估大语言模型API使用的套件 | |
- SLaVA-CXR:用于胸部X光报告自动化的小型语言和视觉助手 | |
- SPformer:一种基于Transformer的深度强化学习决策方法,用于连接自动驾驶车辆。 | |
- STEM领域多模态答卷的自动评估 | |
- S^2^2AG-Vid:通过基于空间和语法注意力的引导增强视频扩散模型中的多运动对齐。 | |
- SatFed:一种资源高效的低轨卫星辅助异构联邦学习框架 | |
- Scideator:基于研究论文特征重组的人类-大型语言模型科学创意生成工具。 | |
- ShizishanGPT:一个整合工具和资源的农业大型语言模型。 | |
- SketcherX:基于AI的互动机器人绘图,采用扩散模型和矢量化技术。 | |
- Smirk:一种完整的分子基础模型的标记工具 | |
- SpaceBlender: 通过生成的3D场景融合创建丰富上下文的协作空间。 | |
- Speechworthy 指令调优语言模型 | |
- SwiftDossier:用于药物发现的定制自动文档生成工具,结合了大语言模型和智能代理。 | |
- TFG:统一的无训练指导用于扩散模型 | |
- TRACE: 基于属性点击流事件序列的变压器用户表示 | |
- TS-TCD:基于大语言模型的时间序列预测三级交叉模态蒸馏。 | |
- TSFeatLIME:一项在线用户研究,旨在提高单变量时间序列预测的可解释性。 | |
- TabGraphs: 一个关于表格特征图学习的基准测试和强基线。 | |
- TheraGen: 针对每一代人的疗法 | |
- Time-MoE:亿级时间序列基础模型与专家混合技术 | |
- ToolPlanner:一种增强型大语言模型,用于多层次指令的路径规划和反馈。 | |
- ToxiCraft:一种合成生成有害信息的新框架。 | |
- TrackNetV4:通过运动注意力图提升快速体育物体跟踪效果。 | |
- TracrBench: 使用大型语言模型生成可解释性测试平台。 | |
- UU-Mamba: 具备不确定性意识的U-Mamba用于心血管分割 | |
- UniBEVFusion:统一雷达和视觉的BEV融合用于3D物体检测 | |
- VARADE:一种基于变分自回归模型的边缘异常检测方法。 | |
- VERA: 用于增强检索系统的验证与提升 | |
- VLEU:一种自动评估文本到图像模型通用性的方法 | |
- VLMine:使用视觉语言模型进行长尾数据挖掘 | |
- VLM的眼部检查:指导并检查视觉语言模型的视觉能力。 | |
- VisScience:一个广泛的基准,用于评估K12教育中的多模态科学推理。 | |
- YesBut:一个高质量的多模态数据集,用于评估视觉语言模型的讽刺理解能力。 | |
- iCost:一种基于实例复杂度的成本敏感学习框架,用于解决不平衡分类问题。 | |
- pyrtklib:一个开源软件包,用于将深度学习和全球导航卫星系统(GNSS)紧密结合,以在城市峡谷中进行定位。 | |
- zsLLMCode:一种通过零-shot学习有效进行功能代码嵌入的LLM方法。 | |
- 《律师都是男性……》:研究大型语言模型中隐含性别偏见的印地语生成问题 | |
- 《荒野机器人》:一则关于生命“何去何从”的寓言 | |
- 一个以知识为中心的基准框架和检索增强生成的实证研究。 | |
- 一个经过调整的大型语言模型帮助糖尿病护理中的多个医疗任务。 | |
- 一个评估大型语言模型中API导向代码生成的全面框架 | |
- 一种基于CNN和条件GAN的可视化恶意软件检测框架 | |
- 一种基于实例的加集合学习方法用于科学论文分类。 | |
- 一种基于深度学习的超光谱成像像素级材料分类方法。 | |
- 一种新型热电发电机可以从室温的热量中提取能量 | |
- 一种新型自适应微调算法,用于多模态模型:在遥感中自我优化分类和选择高质量数据集。 | |
- 一种新的智能体,具有正式的目标达成保证:与移动机器人进行的实验研究。 | |
- 一种模型,支持任何合取查询:使用图神经网络在知识图谱上回答复杂查询。 | |
- 一种简化的检索器,以提高大语言模型在表型归一化方面的准确性。 | |
- 一种通用框架,通过深度学习解锁基因组尺度代谢网络中的缺失反应。 | |
- 一种零样本开放词汇的对话理解流程。 | |
- 上海交大最新Nature,联合宁德时代实现钙钛矿光伏模组新突破 | |
- 个性化的3D+t网格生成模型,用于揭示正常心脏动态。 | |
- 中国成功发射首颗可重复使用返回式技术试验卫星 | |
- 中国第一颗!可重复使用返回式卫星发射成功 | |
- 为空间飞行程序提供AI助手:结合生成预训练变换器、基于知识图谱的检索增强生成和增强现实提示。 | |
- 为自闭症诊断的可解释人工智能:利用功能性磁共振成像数据识别关键脑区。 | |
- 五个关于人工智能的问题与答案。 | |
- 仅在长文本检索中使用反应注意力切片。 | |
- 介绍ELLIPS:一种以伦理为中心的研究方法,用于基于大型语言模型推断精神疾病。 | |
- 介绍MeMo:一个用于多方对话记忆建模的多模态数据集。 | |
- 介绍大型医疗模型:使用基于患者事件序列训练的变换器,提供先进的医疗费用和风险预测。 | |
- 从像素到文字:通过互动自然语言处理提升人脸识别的可解释性。 | |
- 从被动观看到主动学习:利用AI视频助手增强数字课堂中的积极参与。 | |
- 以技术创新为驱动,持中立姿态,金山云助力大模型发展落地原创 | |
- 休眠:防御基于姿态的人物图像动画 | |
- 优化歌曲创作过程:基于流派的歌词生成利用深度学习模型 | |
- 位置是关键:利用大型语言模型在Verilog中进行功能性bug定位。 | |
- 佳能向得克萨斯电子研究所交付其最先进纳米压印光刻NIL系统 | |
- 使用GPT-4o等大型语言模型改进和设计人际沟通技能自评量表。 | |
- 使用GRFM-Net进行自调节的双足运动模型预测控制,以实现高效的模拟到现实转移。 | |
- 使用MixAttention的推理友好模型 | |
- 使用OpenAI推理模型进行网页应用编码的案例研究 | |
- 使用二元扩散生成表格数据 | |
- 使用互动示例说明提高健康专业人员与人工智能协作决策的入职培训。 | |
- 使用人工智能助手应对动态自稳定任务中的空间迷失感。 | |
- 使用卷积神经网络、数据增强、ResNet50和视觉变换器检测肺部病变。 | |
- 使用场景方案:医疗领域扬声器隐私保护的威胁模型规范。 | |
- 使用多种机器学习模型预测冠心病 | |
- 使用机器学习整合多组学数据,以早期诊断肝细胞癌(HCC)。 | |
- 使用生成性人工智能进行稀疏多维学习性能数据的数据增强。 | |
- 使用生成模型和对抗扰动高效可视化神经网络。 | |
- 使用离线强化学习算法开发和验证肝素剂量政策。 | |
- 使用经验模态分解(EMD)去除脑电图信号中的肌肉伪影的编码器。 | |
- 使用语言模型进行轨迹异常检测 | |
- 俄罗斯黑客针对移动设备进行新一波间谍活动。 | |
- 信息窃取警报:Lumma再次出击,使用基于Go的注入器。 | |
- 修订、推理和识别:基于大型语言模型的情感识别,通过情感特定提示和语音识别错误修正。 | |
- 停止!通过敏感性测试评估大型语言模型在冒犯性进展中的表现。 | |
- 关于o1在医学中的初步研究:我们距离人工智能医生更近了吗? | |
- 关于具有非平稳成本的多效应时序规划的对比性解释的用户研究 | |
- 关于加强新媒体下国企宣传思想工作的思考 | |
- 关于叠加状态下神经计算的复杂性 | |
- 关于完全由人工智能自动化的语音钓鱼攻击的可行性 | |
- 关于对大型语言模型进行微调以回答问题的经验见解。 | |
- 关于智力的衡量 | |
- 关于神经模块的专业化 | |
- 关于逻辑和生成式人工智能 | |
- 关于道德基础理论和预训练语言模型的调查:当前进展与挑战。 | |
- 分层模型合并用于无监督领域适应的分割任务 | |
- 分析评估代理能力的概率方法 | |
- 分阶段奖励塑形用于杂技机器人:一种受限的多目标强化学习方法 | |
- 利用专家混合技术提高语音深度伪造检测。 | |
- 利用估计的可转移性来辅助文本排序中的模型选择,而不是依赖人类直觉。 | |
- 利用大型语言模型改善文本社区安全报告中的情感支持传递。 | |
- 利用大型语言模型辅助贫血的鉴别诊断。 | |
- 利用大型语言模型进行网络知识的补充 | |
- 利用大语言模型提升对话式用户界面中的链接数据检索。 | |
- 利用大语言模型进行证明自动化 | |
- 利用无监督学习进行成本有效的视觉异常检测 | |
- 利用机器学习识别和定位太阳系天体的彗星活动。 | |
- 利用深度学习对来自消费品的微塑料和纳米塑料进行形态检测和分类。 | |
- 利用生存变换器、极端梯度提升和Cox比例风险模型预测轻度认知障碍的恶化。 | |
- 利用知识图谱和大语言模型支持和监测立法系统 | |
- 加快推进多元化产业聚集融合,微美全息IP驱动元宇宙创新引领未来数字生态 | |
- 区域提示调优:利用区域文本提示进行细粒度场景文本检测。 | |
- 医学影像中的基础模型时代即将到来:关于大规模生成式人工智能在放射学临床价值的综述。 | |
- 半监督学习用于稳健的语音评估 | |
- 协同模拟:使用大语言模型的多智能体问题解决。 | |
- 历史与现在的交汇:利用大型语言模型创建历史类比。 | |
- 双路径自适应相关时空反转变换器用于股票时间序列预测 | |
- 可信的入侵检测:基于潜在空间的信心估计 | |
- 可扩展的多智能体强化学习用于工厂全局动态调度。 | |
- 可解释和人本的人工智能决策支持系统:知识性准伙伴关系理论 | |
- 可解释的人工智能需要正式的解释正确性概念。 | |
- 可解释的人工智能:健康人工智能的良好解释的定义和特点。 | |
- 可解释的恶意软件分析:概念、方法和挑战 | |
- 可解释的行动识别针对难以分类的动作。 | |
- 向AI请求薪资谈判建议存在问题:对ChatGPT进行控制实验,以研究在没有明确正确答案的背景任务中对受保护和非受保护群体的歧视。 | |
- 唤醒数据,我理解的数据驱动秘籍 | |
- 国内首个电解水制氢核心部件测试平台投入使用! | |
- 在不确定环境中提高信息的价值用于规划。 | |
- 在物体中看到面孔:一个关于错觉的模型和数据集 | |
- 在物联网边缘设备上的实时行人检测:一种轻量级深度学习方法。 | |
- 在线多级对比表征蒸馏用于跨主体fNIRS情感识别 | |
- 在练习中隐性评估语言学习的准确性和显性测试一样。 | |
- 在美杜莎耳边低语:基于Transformer的ASR多头高效解码 | |
- 在联邦学习环境中使用孤立森林进行全球异常值检测。 | |
- 基于SAM2追踪的在线轴估计进行的关节物体 manipulations。 | |
- 基于不确定性的全局和局部融合网络来实现单目结肠镜图像深度估计的泛化。 | |
- 基于人类干预的强化学习,实现机器人消化内镜的安全导航。 | |
- 基于价值的并行更新蒙特卡罗树搜索方法,用于连接和自动驾驶车辆的多智能体协作决策。 | |
- 基于分区的随机平滑方法实现认证对抗鲁棒性 | |
- 基于因果关系的强化学习用于通信与感知的联合方法。 | |
- 基于实际计算和意识:探索机器及其他生物意识的框架。 | |
- 基于对比学习的大型语言模型知识问答生成。 | |
- 基于数据的多维时间序列时空特征表示与挖掘 | |
- 基于数据的方法评估和识别南亚医疗体系中的差距。 | |
- 基于机器学习的动态数据流异常检测研究 | |
- 基于模糊规则的智能心血管疾病预测与复杂事件处理 | |
- 基于深度学习的CT/PET影像肿瘤分割中的正弦波标准化。 | |
- 基于深度强化学习的仓库环境中机器人避障移动方法。 | |
- 基于物理增强的残差策略学习(PERPL)用于混合交通车队在执行器和通信延迟下的安全巡航。 | |
- 基于生成性大型语言模型的个性化风险评估对话人工智能应用:对COVID-19的案例研究 | |
- 基于目标的神经物理车辆轨迹预测模型 | |
- 基于相关性驱动的决策,使人机合作更安全、更高效。 | |
- 基于神经网络的控制识别:大约线性化模型 | |
- 基于空中通信的强健联邦学习:通过中值锚定剪切来应对重尾噪声。 | |
- 基于视频去噪扩散和结构识别的机械多材料变材的非线性逆设计。 | |
- 基于语法特征的图神经网络情感分析框架 | |
- 基于面部表情增强的语音合成:结合面部表现和情感强度进行自适应语音。 | |
- 基于骨干网络自蒸馏的个性化联邦学习 | |
- 增强基于大型语言模型的自动驾驶agent以减轻感知攻击。 | |
- 声音描述:研究提示模板和类别描述以提升零样本音频分类。 | |
- 多模态深度学习相机-激光雷达标定模型的验证与探索 | |
- 多模态生成人工智能:多模态大型语言模型、扩散模型及其他。 | |
- 大型语言模型仍无法进行规划;低资源模型能否做到?对OpenAI的o1在PlanBench上的初步评估。 | |
- 大型语言模型会是自动驾驶的万能解决方案吗? | |
- 大型语言模型回音室:个性化和自动化的虚假信息 | |
- 大型语言模型在学术界的影响:从写作到口语。 | |
- 大型语言模型是优秀的作文评分工具吗? | |
- 大型语言模型是否需要内容分发网络? | |
- 大型语言模型的时间意识:跨时间的事实回忆基准测试。 | |
- 大型语言模型能否逻辑预测心肌梗死?基于英国生物银行队列的评估。 | |
- 大语言模型是一种单次 URL 分类器和解释器。 | |
- 安乐死胶囊舱在瑞士被使用:按下按钮5分钟可致死亡 | |
- 安全守护:一个用于社交虚拟现实中实时语音仇恨言论检测的语言模型-agent | |
- 完全使用「自生成数据」实现LLM自我纠正,DeepMind新突破SCoRe:纠正性能提 | |
- 定制技能:通过多种互联网数据高效获取机器人烹饪技能 | |
- 对大型语言模型在精神疾病上的全面评估 | |
- 对预训练因果语言模型进行指令调优,以用于古希腊纸草文献和铭文研究。 | |
- 将LoRA合并就像玩乐高:通过按等级聚类将LoRA的模块化推向极限。 | |
- 将文本转化为治疗效果:一种处理基于文本混杂的元学习方法。 | |
- 差分隐私多模态拉普拉斯丢弃法(DP-MLD)用于脑电图代表性学习 | |
- 引导型个人资料生成提升了大型语言模型的个性化。 | |
- 引导经过指令调优的代码语言模型使用辅助功能进行代码生成的能力。 | |
- 当数量较少不是优势时:大型语言模型在处理不常见的术语时准确率较低。 | |
- 形式胜于内容:LLM评估中的对齐基准失败模式 | |
- 循环残差神经网络用于迭代优化。 | |
- 性能与功耗:使用CARAML对加速器上的AI工作负载进行系统评估 | |
- 想象一下:无需调优的个性化图像生成。 | |
- 我们可以只在提示中使用指南而不是拍摄吗? | |
- 抗周期“护城河”稳固,技术迭代驱动光伏设备更新需求持续放量红刊财经 1小时前 | |
- 指令调优与上下文学习:回顾在少量样本下的大型语言模型在计算社会科学中的应用。 | |
- 挑战性能与可解释性的权衡:对可解释机器学习模型的评估 | |
- 探讨大型语言模型中的多语言测试:跨语言分析 | |
- 提升大型语言模型的高级视觉推理能力 | |
- 揭示大型语言模型在电影梗概中的叙事推理限制。 | |
- 新研究发现死火山岩浆可能存在大量稀土元素 | |
- 新研究:锌影响B族维生素的吸收和代谢 | |
- 新颖的显著性分析用于前向算法。 | |
- 无关选择偏差对大型语言模型招聘决策的影响 | |
- 无成本全身遥操作用于移动操控 | |
- 无监督注意力多源领域适应框架用于电子鼻系统中的漂移补偿。 | |
- 时间与标记:端到端语音不流畅检测的基准测试 | |
- 时间分布深度学习模型用于纯外生预测。应用于通过天气图像时间序列预测水位深度。 | |
- 时间序列预测中的测试时学习 | |
- 有效且隐蔽的模糊测试驱动的LLM越狱攻击 | |
- 朝着无真实标签的医学图像分割评估方向努力 | |
- 朝着稳健的物体检测:通过模块不一致性分析识别和消除后门攻击。 | |
- 标签图:一种基于文本的地图,用于大语言模型的空间推理和导航。 | |
- 检索增强生成(RAG)及其扩展:关于如何更有效地使用外部数据来提升大语言模型的综合调查。 | |
- 正交微调用于直接偏好优化 | |
- 泄露的凭证:新的网络攻击利用行业电子邮箱账户。 | |
- 深度学习和机器学习,促进大数据分析与管理:Tensorflow预训练模型 | |
- 瑞士首次使用“安乐死胶囊舱”,相关人员涉嫌协助自杀被捕 | |
- 生成式人工智能尚未准备好用于下背痛患者的临床教育,即使是采用检索增强生成技术。 | |
- 生成性人工智能的N版本评估与提升 | |
- 生成有具体和互相指代角色的视觉故事 | |
- 用Wasserstein损失微调时间序列基础模型 | |
- 用于网络防御的上下文化人工智能:基于大型语言模型的自动调查 | |
- 目标感知语言建模通过细粒度数据采样实现。 | |
- 研究人员利用漏洞获取任何 .MOBI 域名的 TLS 证书。 | |
- 研究大型语言模型在医学事实知识掌握方面的能力,使用谓词-文本双重转换方法。 | |
- 确定性与随机动态分类器:利用噪声对抗随机对抗攻击 | |
- 稀疏低秩自注意力变换器用于光纤放大器剩余使用寿命预测。 | |
- 类似皮肤科医生的可解释AI提高了黑色素瘤诊断的准确性:眼动追踪研究 | |
- 美国多地警察用AI写报告,专家:确实省时间,但别偷懒不检查 | |
- 群体辩论:通过小组讨论提高多智能体辩论的效率。 | |
- 脑外科手术:通过概念消除确保大语言模型符合GDPR规定。 | |
- 自动生成测试以评估工具增强的语言模型作为对话人工智能代理。 | |
- 自适应学习后测试:统计有效且高效的超参数选择 | |
- 自适应机器人软硬件升级带来全新应用价值,非夕科技携多款创新产品亮相工博 | |
- 虫洞:概念感知的深度表示学习用于共同演化序列 | |
- 规范化狭窄的跳跃结论:用于高效早期退出变换器预测的规范化狭窄捷径 | |
- 视觉语言模型的行为偏差:行为金融的视角 | |
- 计算机视觉和深度学习技术在分析混合建筑和拆除废物方面的发展与挑战。 | |
- 计算病理学用于准确预测乳腺癌复发:开发和验证基于深度学习的工具。 | |
- 让每个人都能使用:在大型语言模型中代表被低估的群体。 | |
- 训练模块化神经网络有助于提高可解释性。 | |
- 评估不确定心智理论:预测对话中他人不确定的信念 | |
- 评估专业化大型语言模型对医生在临床决策支持中的影响:对比Ask Avo和ChatGPT-4。 | |
- 评估合成短语以增强AI文本来源检测的可靠性。 | |
- 评估大型语言模型中的性别、种族和年龄偏见:职业和犯罪情境的比较分析。 | |
- 评估大型语言模型为初学者生成的代码评论质量 | |
- 评估大语言模型在材料科学问答和属性预测中的性能和鲁棒性 | |
- 评估机器学习在全球导航卫星系统干扰分类、特征化和定位中的鲁棒性 | |
- 评估神经网络的简化水平:超参数配置对复杂性和敏感性的影响 | |
- 评估边缘AI平台的高性能机器学习推断 | |
- 评估黑箱大型语言模型可信性的方法:局部解释和自我解释。 | |
- 语言模型是否践行他们所宣扬的?研究大型语言模型中关于性别化语言改革的语言意识形态。 | |
- 说话前的思考:一种带有心态的角色扮演模型。 | |
- 超越言语:评估大型语言模型在交通规划中的应用 | |
- 边缘设备协同计算用于多视图分类 | |
- 近似正交投影单元:利用自然梯度稳定回归网络训练。 | |
- 通过互信息最小化方法,区分年龄和身份,用于跨年龄说话人验证。 | |
- 通过人群行程信息提升行人轨迹预测。 | |
- 通过从文献中获取增强生成来自动创建生物计算对象,从而提高科学可重复性。 | |
- 通过令牌池化减少多向量检索的足迹,尽量降低性能影响。 | |
- 通过以前提为导向的数据增强进行思维路径对比学习,用于逻辑阅读理解。 | |
- 通过公平意识的集成方法去除文本安全分类器中的偏见。 | |
- 通过动态软提示解锁大语言模型的记忆能力 | |
- 通过启发式语义依赖查询网络推动事件因果关系识别 | |
- 通过增强的语音条件大语言模型提升代码切换语音识别的效果。 | |
- 通过多元时间序列的多方面预处理和对比学习提高太阳耀斑预测效果。 | |
- 通过多模态自监督融合生成个性化的2D二进制患者代码,结合组织图像和免疫基因组数据。 | |
- 通过多源元学习实现文本分类中对未见领域的泛化学习。 | |
- 通过大型语言模型和移动应用,增强基于物联网的植物健康监测与人机互动。 | |
- 通过大型语言模型拓宽终端用户对模拟的访问:挑战与机遇 | |
- 通过少量样本的路线点检测,实现分层的端到端自主导航。 | |
- 通过廉价的规则排名高效学习概率逻辑模型。 | |
- 通过成对特征比较学习资源成本 | |
- 通过有限自动机对大型语言模型进行声明性集成和管理:应用于自动化、通信和伦理。 | |
- 通过条件独立性在多项式延迟内测试具有隐藏变量的因果模型。 | |
- 通过检索上下文提升医疗健康大型语言模型的性能 | |
- 通过正交约束来减轻跨语言嵌入中的语义泄漏。 | |
- 通过注入领域数据库知识来提升大语言模型的文本到SQL能力。 | |
- 通过渲染函数和视觉语言模型连接环境与语言 | |
- 通过演变的神经群体实现的涌现集体繁殖 | |
- 通过潜变量的视角看待大语言模型中的认知幻影。 | |
- 通过激光雷达与相机融合生成稀疏到稠密的激光雷达点,用于3D目标检测。 | |
- 通过直观的物理先验学习玩视频游戏。 | |
- 通过神经符号结合实现逻辑一致的语言模型 | |
- 通过自监督图预训练释放文本中表情符号的力量 | |
- 通过视觉增强实现可靠的仇恨言论检测 | |
- 通过迁移学习提升低资源印度语言的机器翻译技术。 | |
- 通过部分信息探测衡量大型语言模型的版权风险 | |
- 通过重新标签蒸馏解释深度网络的预测。 | |
- 通过领域特定检索增强生成技术提升大型语言模型:以眼科学中的长篇消费者健康问答为例。 | |
- 通过频域分析检测修补视频 | |
- 部署开源大型语言模型:性能分析 | |
- 重新定义“AI数据服务”,恺望数据基于数据优势进军“AI应用” | |
- 重新定义运动重定向的数据配对,利用人体模型。 | |
- 针对工业物联网中数据异构的表面缺陷分类的对抗性联邦共识学习。 | |
- 针对类别增量学习的任务特定适配器的动态整合 | |
- 针对词性进行对抗攻击:文本到图像生成的实证研究。 | |
- 针对长句子中关系提取的增强,提出了实体感知自注意力和上下文化图卷积网络。 | |
- 针对预训练大型语言模型的上下文感知成员身份推断攻击。 | |
- 错误是人工智能的特点!调试作为一种干预,帮助人们正确依赖人工智能系统。 | |
- 镜像故事:通过大语言模型生成个性化叙事,展现多样性。 | |
- 青岛领遇取得一种滤膜采样头封边压紧装置专利,有效控制封装效果 | |
- 面向混合专家的可信语义通信在6G网络中的应用 | |
- 面向通用的大规模天然气需求预测基础模型 | |
- 革命性生物标志物发现:利用生成性人工智能进行生物知识嵌入的持续空间探索。 | |
- 音频编码增强用于稳健的协作水印语音合成 | |
- 预训练语言模型能生成研究论文的标题吗? | |
- 颠覆认知:大模型不可靠,越大越不可靠?最新研究登上 Nature | |
- 首个“健康大脑”来了:整合150项智能算法,看病日均汇聚数据超6000万条 | |
- 骨:作为参数高效的微调方法的块仿射变换,用于大型语言模型。 | |
- 高阶ReLU神经网络(HRKANs)用于更准确、稳健和快速地解决物理信息神经网络(PINNs)问题。 | |