《用于高价值专利识别的跨模态深度学习方法研究》

  • 来源专题:数智化图书情报
  • 编译者: 程冰
  • 发布时间:2025-07-22
  • [目的/意义] 精准识别高价值专利已成为我国知识产权强国建设的重要环节,对推动我国科技创新的高质量发展至关重要。[方法/过程] 提出跨模态深度学习架构LMI,通过融合文本、图像、指标三种模态信息,实现高价值专利的精准识别。首先,基于专利文件抽取文本信息、摘要附图、评估指标,并进行文本拼接、分词、图像大小统一等预处理操作;然后,采用LSTM提取文本特征,采用MobileNetV2提取摘要附图特征,将文本特征、图像特征与评估指标拼接融合,得到不同模态信息融合的多维特征;最后,将多维特征输入到全连接层,结果经sigmoid函数输出。[结果/结论] 与基于单模态、双模态信息的模型相比,LMI方法能够更精准地识别高价值专利。












  • 原文来源:https://www.lis.ac.cn/CN/10.13266/j.issn.0252-3116.2025.15.008
相关报告
  • 《基于图像及分子数据的多模态实蝇识别系统及方法》

    • 来源专题:生物科技领域知识集成服务
    • 编译者:陈方
    • 发布时间:2021-03-09
    • CN111310795A 基于图像及分子数据的多模态实蝇识别系统及方法 专利权人:中国科学院动物研究所;中国科学院自动化研究所;上海海关动植物与食品检验检疫技术中心 本发明公布一种基于世界有害实蝇图像及分子序列的识别方法及系统,包括:建立实蝇图像及分子识别标准7属82种;利用Mask?R?CNN模型对图像分割,基于深度学习技术训练AlexNet模型提取特征,采用特征匹配法分类鉴别;基于内嵌BLAST+程序进行序列比对,依据固定比例权重融合图像及分子识别结果,构建集成翅、胸、腹图像及序列的在线识别系统。分数据、核心和应用层,含输入、预处理、识别、结果显示及检索五模块。可分别进行图像、分子或其任意组合的自动识别,并在上述基础上交互识别,最后进行图像和文字复核。兼顾实蝇识别的精度和速度,对单样本识别时间少于90秒,前5正确率在87%?100%间,具良好的实用性。
  • 《苏州医工所戴亚康团队在多模态影像配准研究中取得进展》

    • 来源专题:生物安全知识资源中心—领域情报网
    • 编译者:hujm
    • 发布时间:2023-09-19
    • 多模态医学影像分析是肿瘤诊断、放疗规划和影像引导的介入治疗等诊疗过程的关键技术,其中多模态影像配准是其重要环节,实现更加精准快速的多模态影像配准具有重要的临床意义。   多模态影像配准难点在于不同模态影像的灰度、纹理差异较大,组织结构的特征表征学习较为困难;部分脏器(如肝脏)受呼吸运动影响,组织存在非线性大形变。经典的基于迭代优化计算的多模态影像配准方法主要利用最大化相似性测度来寻找影像的最优空间变换参数,但存在迭代优化计算量大、配准时间长、易陷入局部极值的缺点。基于弱监督深度学习的多模态影像配准方法需要标签数据驱动,存在标签数据获取耗时耗力,标签噪声易影响配准结果的缺点。以上因素制约了多模态影像配准精度进一步提升。   为此,苏州医工所戴亚康研究员团队联合温州医科大学附属第五医院和苏州大学附属第二医院提出了多尺度空间权重联合双相似性测度的无监督学习多模态影像配准方法并应用于肝脏CT-MRI影像配准。该方法通过结合深度学习网络的多尺度形变框架,实现从粗到细的逐步配准,提升大形变配准精度;然后使用双通道输入的空间权重模块,提升网络对多模态影像中大形变区域的特征表达能力;再使用双重损失函数,在约束整体配准的同时配准脏器内部结构细节,进一步提高多模态影像配准精度。   临床影像数据的实验结果表明,所提出的配准方法在DSC、Hd95、TRE、SSIM等多项指标上超越了多个经典配准方法。该研究工作的价值在于为更加精准快速的多模态影像配准提供了新方法,有望应用于多模态大形变影像融合建模和介入手术计划导航系统等。   该研究成果以“Unsupervised registration for liver CT-MR images based on the multiscale integrated spatial-weight module and dual similarity guidance”为题发表于Computerized Medical Imaging and Graphics。其中,论文第一作者为苏州医工所周志勇研究员和硕士研究生王帅坤,通讯作者为苏州医工所戴亚康研究员和温州医科大学附属第五医院纪建松主任医师。   该项工作获得了国家重点研发计划项目(2018YFA0703101),国家自然科学基金(62271480, 61971413)等项目的资助与支持。   论文链接:https://www.sciencedirect.com/science/article/abs/pii/S0895611123000782