机器识字:复杂文档/图像/视频文本识别新技术2015-10-30 17:05 IEEE科技纵览阅读 3944
复杂文档/图像/视频(如自由手写、历史文档、自然场景、网络图片、复杂视频等)文本识别是利用人工智能与模式识别技术,使计算机能够像人一样认识物理世界与互联网等复杂环境中普遍存在的文字,在文字录入、历史文档检索、数字移动服务、智慧城市、网络内容监控与社会公共安全、互联网+、大数据等方面具有重要的应用价值。
复杂文档/图像/视频文本识别是当前文档分析与识别、模式识别等领域的重要发展方向,以具有重大社会与经济价值的历史文档检索及文化保护、互联网图片与视频内容安全、移动服务与智慧城市等应用为背景,以复杂环境下的文档与图片为对象,利用模式识别、机器学习(深度学习)、图像处理、计算机视觉等先进技术,使得计算机像人一样分析、提取、识别和挖掘图像中的文本信息。通常,复杂环境下文本识别可以分为两大类别:复杂文档(历史文档)/自由手写文本识别和自然场景/网络图片/复杂视频文本识别。
基于扫描图像的历史文档/自由手写文本识别,其任务是对复杂文档图像进行版面分析,提取文本区域,从而进行精准的文字识别,在个人笔记、档案、历史文档、票据的数子化方面具有重要的应用前景。历史文档/自由手写文本识别,其技术的挑战性主要来自于历史文档本身的高度复杂性和自由手写文本本身的多样性。
而基于拍照或人工生产等的自然场景/网络图片/复杂视频文本识别,则是从高度差异及异构的图像/视频中检测、提取并识别文本信息。具体而言,自然场景文本识别是利用人工智能与模式识别技术,使计算机、智能手机等能够像人一样认识自然界中普遍存在的文字,在数字移动服务、信息检索、智慧城市等方面具有重要的应用价值。网络图片文本识别同样也是利用人工智能与模式识别技术,使网关、计算机等自动识别提取出互联网中海量图片与视频中的文字信息,并进行相应的内容智能分析,在网络内容监控与社会公共安全、互联网+、大数据等行业中具有重要的应用前景。
自然场景、网络图片和复杂视频中的文字识别大大难于传统扫描文档中的文字识别,因为它们具有极大的多样性和明显的不确定性,诸如多语言文字、不同的文字大小、不同的字体、多样的文本与背景颜色、多变的光照与亮度、不一致的对比度与分辨率、多方向与形变文本、复杂的图像背景等。所以,传统的应用于扫描书刊报纸等文档图像的OCR技术在自然场景与网络图片文本识别中具有巨大的局限性。近十年来,国际国内模式识别、文档分析与识别、计算机视觉等领域的众多科研机构和大量IT界巨头都对自然场景/网络图片/复杂视频文本识别技术进行研究与攻关。
自由手写文本行识别是对一个自由手写的文本行或句子同时进行字符切分和识别。由于字符大小、间距不规则,有些字符多部首,有些字符之间粘连等因素,字符切分和识别不能分开进行,否则不能正确切分。一般的做法是对文本行过切分成小的片段,每个片段是一个字符或部分字符,相邻片段合并生成候选字符,用字符识别器对候选字符分类。分类结果与语言上下文、几何上下文(候选字符外形位置特征及相互关系)结合对所有的候选切分方式(路径)进行评价,搜索最优路径得到切分和识别结果。
中国科学院自动化研究所刘成林研究员团队在粘连字符切分、候选路径评价和搜索、语言模型适应等方面提出了一系列新理论与新方法。尤其是通过融合多种上下文的路径评价与搜索,在中文手写文本识别中取得了突破性的进展。
经过切分生成的候选字符进行分类后得到候选切分-识别网格,对网格中的候选路径进行评价和搜索成为关键问题,关系到最终的切分和识别性能。在此框架下,研究者对候选路径评价准则、路径搜索算法、模型参数训练这3个方面进行了深入研究。对于路径评价,在贝叶斯决策框架下融合了多种上下文(包括字符识别模型、几何模型、语言模型),同时采用置信度转换的方式将分类器的输出转为后验概率形式,以达到更好的模型之间的融合效果。该新方法在中科院自动化所脱机手写样本数据库(CASIA-HWDB)上进行了一系列实验,结果表明置信度转换以及多种上下文的融合大大提高了文档识别的性能,取得了91.39%的字符正确率。该新方法的结果也显著地优于文档分析与识别国际会议(ICDAR)2011年中文手写识别竞赛的最好结果(脱机手写文本行识别字符正确率77.26%)。
近年来,深度卷积神经网络(CNN)被用于手写汉字识别,通过巨大规模样本训练,可以得到超过人类的识别精度。可以把CNN用于文本行识别,代替其中的字符分类器,有望提高文本行识别的性能。在英文手写词和文本行识别中,基于长短时记忆再生神经网络(LSTM-RNN)的序列分类模型取得了领先的识别性能,在手写中文文本行识别中还没有显现优势,但将来会有潜力。
自然场景、网络图片和复杂视频(帧)文本识别技术主要分为两个阶段:首先是对图片中的文字进行检测与提取,输入的是原始图片而输出的是文本区域,即文本检测;然后,对检测出的文本区域进行识别,输入的是文本区域而输出的是结果文字,即文字识别。如果一个系统,输入的是原始图片而输出直接为最终识别的结果文字,则称之为端到端识别(End-To-End Recognition)技术。
如何对自然场景/网络图片/复杂视频进行有效的文本检测、识别(特别是端到端识别),一直都是学术界和工业界共同关注的重点与难点。北京科技大学计算机系模式识别技术创新实验室(殷绪成教授团队)针对自然场景、网络图片和复杂视频文本识别相关核心技术问题,近几年在文本检测、文本提取、文字识别等各方面进行了持续攻关,提出了先进的自然场景与网络图片文本(端到端)识别统一框架,研制了一系列领先的自然场景与网络图片文本识别新技术。
(1)基于自适应聚类和多通道融合的文本检测与提取技术
在自然场景与网络图片等复杂环境下的文本检测,一般都利用连通域分析或图像分割技术等提取候选字符块,然后利用聚类算法把这些候选字符块聚成文本块。在这些方法中,主要涉及三个核心问题:1)字符块提取中,如何利用多通道的信息尽可能的检测出复杂背景中的文字块;2)相似性度量中,如何考虑不同特征的不同影响力,即如何选择相似度计算特征的权重;3)聚类计算中,如何针对实际文本块数目确定聚类数目。在以往的方法中,往往把这些问题分割起来进行处理。不同的是,基于尺度学习的自适应聚类和多通道融合的文本检测新技术,同步学习相似度特征权重和聚类数目,能够快速、鲁棒、精确的检测与提取出图片和视频中各种各样的文本。
(2)基于深度学习和样本自生成的文本分类器及文字识别器技术
近几年火热的深度学习技术,同样也流行于文本判别器和文字识别器构建中,在复杂场景下文本检测与识别中发挥了重要的作用。然而,深度学习都是基于较大规模数据来进行训练的,在小数量样本集上的学习依然是一个挑战性的难题。在自然场景与网络图片中,由于多语言文字、不同的字体与大小、多样的文本颜色与光照等诸多挑战,需要更大规模的训练数据;如何采集整理与深度学习相匹配的有效训练数据,已成为文本检测与识别深度学习技术的核心问题之一。巧妙的是,新技术根据少量真实样本,自动生成大规模训练样本,设计基于深度学习的文本分类器及文字识别器,能够精确的识别自然场景与网络图片中各式各样的文本。
(3)基于检测-识别信息反馈的文本识别框架
如何分析并克服自然场景与网络图片文本检测与识别的主要困难,充分利用端到端识别系统中检测、识别一系列过程信息共享和反馈,是业界攻关的主要技术方向。新技术基于检测-识别信息反馈,构建统一的信息共享和反馈文本识别整体框架,通过文字识别信息来优化文本检测,并以改进后的文本检测提升文字识别效果,较大幅度的提高了端到端场景文本识别系统的整体性能。
最近,殷绪成教授团队携手熟虑智能技术(北京),在2015年国际文档分析与识别大会技术竞赛最具挑战性、代表性和通用性(无字典约束)的“自然场景文本端到端识别(通用类)”和“网络图片文本端到端识别(通用类)”中,双双荣获第一名,比竞赛第二名的团队高出了数十个百分点,比上一次(2013年)国际文档分析与识别大会论文公开的结果足足提高了将近一倍,引起了国内外学术界及产业界同行的广泛关注。
通过几十年的文档分析与识别持续研究,特别是最近几年的模式识别、机器学习等新技术与新手段的涌现,复杂环境下的文本识别理论、方法、技术与系统等各方面取得了重要的突破,复杂文档/图像/视频文本识别技术将迎来应用的新天地。
从“线下”走进“网上”(自由手写文本识别)。诸如,每次工作会议后,无需再把白板上的讨论内容抄写下来,只要将白板用手机等智能设备拍照留存,并对其中的自由手写文本及图片进行识别,系统便能自动识别并分检出相关人员的后续工作,并将待办事项自动存放到各自的电子日历中。
让“自然界”融入“信息界”(自然场景文本识别)。诸如,把手机摄像头对准菜单上的英文菜名,屏幕上实时显示出翻译好的中文菜名;从车载摄像头所拍摄的街景中自动提取并识别文字,让地图信息更丰富更准确,进行精确的导航;戴着智能眼镜在超市购物,看到心仪商品上的文字,能自动搜索出商品的详细信息。
把“净化器”、“瞄准器”移至“互联网”(网络图片/复杂视频文本识别)。诸如,网络社交APP中的图片与视频内容传输与发布时,网关实时检测识别图像中的不良文本信息并进行内容管理,构建一个健康干净的互联网大数据环境;富媒体移动通信网络中,计算机对图像、视频类多媒体的不良信息内容进行自动化识别与分类检索,确保通信通畅与数据安全。在互联网+电商平台上,自动识别海量图片/视频中内嵌的文本信息,进行商品的精准搜索和用户的个性推荐。
另外,传统的文字识别技术应用,比如票据识别、邮政地址识别、手写档案和历史文档数字化,过去由于技术制约,长期得不到规模化应用。现在,随着新一代文字识别技术的发展和性能提升,这些人们长期期待的传统应用有望迎来新一轮应用的爆发。
|