Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
DATA PROCESSING METHOD AND DEVICE, AND ROBOT
Document Type and Number:
WIPO Patent Application WO/2018/107731
Kind Code:
A1
Abstract:
Disclosed in the present invention are a data processing method and device, and robot. The method comprises: acquiring information of an environment of a detection object, wherein the environment information comprises image information and audio information; comparing the image information against image information corresponding to emotion information in a predetermined database, and comparing the audio information against audio information corresponding to the emotion information in the predetermined database; screening and selecting emotion information matching the detection object, wherein said emotion information is used to instruct a robot to perform a corresponding operation; and adjusting an interaction mode according to said emotion information. The present invention solves the technical problem in the related art of poor information delivery accuracy during human-machine interaction or interpersonal communication caused by absence of detection and determination operations of micro-expressions and corresponding handling methods.

Inventors:
LIU RUOPENG (CN)
OUYANG YICUN (CN)
Application Number:
PCT/CN2017/092036
Publication Date:
June 21, 2018
Filing Date:
July 06, 2017
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
SHEN ZHEN KUANG CHI HEZHONG TECH LTD (CN)
International Classes:
G06K9/00; G06F3/01; G10L15/26
Foreign References:
CN106570496A2017-04-19
CN105868827A2016-08-17
CN105046238A2015-11-11
CN106203344A2016-12-07
CN105843118A2016-08-10
CN102355527A2012-02-15
US20130337420A12013-12-19
CN105082150A2015-11-25
Download PDF:
Claims:
权利要求书

[权利要求 1] 一种数据处理的方法, 其特征在于, 包括:

采集待检测对象所处的环境信息, 其中, 所述环境信息包括: 图像信 息和声音信息;

将所述图像信息与预设数据库中的情绪信息对应的图像信息进行比对 , 并将所述声音信息与预设数据库中的情绪信息对应的声音信息进行 比对;

筛选与所述待检测对象匹配的情绪信息, 其中, 所述情绪信息用于指 示机器人执行对应操作;

依据所述情绪信息调整交互方式。

[权利要求 2] 根据权利要求 1所述的方法, 其特征在于, 所述采集待检测对象所处 的环境信息包括:

通过图像识别系统采集所述待检测对象的肢体行为动作、 面部表情动 作以及热成像数据中的至少一个;

通过声音识别系统采集所述待检测对象的声音和 /或所述待检测对象 所处的环境的背景声音; 其中, 所述声音包括: 声调、 响度、 发声频 率以及声音所携带的信息。

[权利要求 3] 根据权利要求 2所述的方法, 其特征在于, 所述图像识别系统包括: 微表情识别系统; 所述声音识别系统包括: 微语言识别系统。

[权利要求 4] 根据权利要求 1所述的方法, 其特征在于, 所述将所述图像信息与预 设数据库中的情绪信息对应的图像信息进行比对, 并将所述声音信息 与预设数据库中的情绪信息对应的声音信息进行比对包括: 在所述预设数据库中对所述图像信息和所述声音信息匹配与所述图像 信息和所述声音信息对应的图像信息和声音信息, 得到至少一组图像 信息和声音信息。

[权利要求 5] 根据权利要求 4所述的方法, 其特征在于, 所述筛选与所述待检测对 象匹配的情绪信息包括:

计算所述至少一组图像信息和声音信息与采集到的所述图像信息和所 述声音信息的相似度;

提取所述相似度大于预设阈值的所述至少一组图像信息和声音信息对 应的情绪信息, 得到与所述待检测对象匹配的所述情绪信息。

[权利要求 6] 根据权利要求 5所述的方法, 其特征在于, 所述依据所述情绪信息调 整交互方式包括:

通过预设情绪模型对所述至少一组图像信息和声音信息对应的情绪信 息进行处理, 得到所述情绪信息对应的交互方式; 输出所述交互方式, 并采集所述待检测对象当前所处的环境信息; 依据所述当前所处的环境信息校正所述交互方式, 直至得到与所述待 检测对象对应的交互结果;

其中, 所述通过预设情绪模型对所述至少一组图像信息和声音信息对 应的情绪信息进行处理包括: 通过所述预设情绪模型对所述情绪信息 进行判断或预测, 得到对应所述情绪信息的交互方式。

[权利要求 7] —种数据处理的装置, 其特征在于, 包括:

采集模块, 用于采集待检测对象所处的环境信息, 其中, 所述环境信 息包括: 图像信息和声音信息;

匹配模块, 用于将所述图像信息与预设数据库中的情绪信息对应的图 像信息进行比对, 并将所述声音信息与预设数据库中的情绪信息对应 的声音信息进行比对;

筛选模块, 用于筛选与所述待检测对象匹配的情绪信息;

校正模块, 用于依据所述情绪信息调整交互方式。

[权利要求 8] 根据权利要求 7所述的装置, 其特征在于, 所述采集模块包括:

第一采集单元, 用于通过图像识别系统采集所述待检测对象的肢体行 为动作、 面部表情动作以及热成像数据中的至少一个;

第二采集单元, 用于通过声音识别系统采集所述待检测对象的声音和 /或所述待检测对象所处的环境的背景声音; 其中, 所述声音包括: 声调、 响度、 发声频率以及声音所携带的信息。

[权利要求 9] 根据权利要求 8所述的装置, 其特征在于, 所述图像识别系统包括: 微表情识别系统; 所述声音识别系统包括: 微语言识别系统。

[权利要求 10] 根据权利要求 7所述的装置, 其特征在于, 所述匹配模块包括:

匹配单元, 用于在所述预设数据库中对所述图像信息和所述声音信息 匹配与所述图像信息和所述声音信息对应的图像信息和声音信息, 得 到至少一组图像信息和声音信息。

[权利要求 11] 根据权利要求 10所述的装置, 其特征在于, 所述筛选模块包括: 计算单元, 用于计算所述至少一组图像信息和声音信息与采集到的所 述图像信息和所述声音信息的相似度;

提取单元, 用于提取所述相似度大于预设阈值的所述至少一组图像信 息和声音信息对应的情绪信息, 得到与所述待检测对象匹配的所述情 绪信息。

[权利要求 12] 根据权利要求 11所述的装置, 其特征在于, 所述校正模块包括: 调整单元, 用于通过预设情绪模型对所述至少一组图像信息和声音信 息对应的情绪信息进行处理, 得到所述情绪信息对应的交互方式; 采集单元, 用于输出所述交互方式, 并采集所述待检测对象当前所处 的环境信息;

校正单元, 用于依据所述当前所处的环境信息校正所述交互方式, 直 至得到与所述待检测对象对应的交互结果;

其中, 所述通过预设情绪模型对所述至少一组图像信息和声音信息对 应的情绪信息进行处理包括: 通过所述预设情绪模型对所述情绪信息 进行判断或预测, 得到对应所述情绪信息的交互方式。

[权利要求 13] —种机器人, 其特征在于, 包括: 权利要求 7至 12中任一项所述的数 据处理的装置。

Description:
说明书 发明名称:数据处理的方法、 装置和机器人 技术领域

[0001] 本发明涉及电子技术应用领域, 具体而言, 涉及一种数据处理的方法、 装置和 机器人。

背景技术

[0002] 关于用微表情和微语言来判断心情刚刚提出 (Emotient lnc , Affectiva Inc和 Eyeris幵发的微表情识别系统) , 两者结合来判断心情并没有实现; 同吋, 基于 心情的基础上来猜测对方具体想法也没有实现 。

[0003] 在现实生活中,人们为了达到自己的目的往往 需要实施欺骗,这就需要人们对 自身真实的情感和感受进行压抑和隐藏。 然而,这些被压抑和隐藏的真实感受有 吋会以一种非常快速的面部表情的形式被表达 出来,这种表情被称之为微表情。 由于表达了人的真实意图,微表情成为了检测 言和危险意图的有力行为线索。 然而,微表情的表达速度很快,人很难准确识别 表情。 已有的研究表明在普通表 情识别过程中面部反馈信息是进行表情识别一 种有效的内在线索。 作为人类面 部表情的一种特殊形式,研究者目前并不了解 部反馈在微表情识别过程中的作 用。 对这一问题的回答,将加深研究者对微表情识 过程的理解,为微表情在临床 、 司法及反恐等领域的应用提供理论基础。

技术问题

[0004] 针对上述由于相关技术中缺少对微表情的检测 、 判断以及对应的处理方法, 导 致人机交互过程或人与人沟通过程中信息表述 正确率低的问题, 目前尚未提出 有效的解决方案。

问题的解决方案

技术解决方案

[0005] 本发明实施例提供了一种数据处理的方法、 装置和机器人, 以至少解决由于相 关技术中缺少对微表情的检测、 判断以及对应的处理方法, 导致人机交互过程 或人与人沟通过程中信息表述正确率低的技术 问题。 [0006] 根据本发明实施例的一个方面, 提供了一种数据处理的方法, 包括: 采集待检 测对象所处的环境信息, 其中, 环境信息包括: 图像信息和声音信息; 将图像 信息与预设数据库中的情绪信息对应的图像信 息进行比对, 并将声音信息与预 设数据库中的情绪信息对应的声音信息进行比 对; 筛选与待检测对象匹配的情 绪信息, 其中, 情绪信息用于指示机器人执行对应操作; 依据情绪信息调整交 互方式。

[0007] 可选的, 采集待检测对象所处的环境信息包括: 通过图像识别系统采集待检测 对象的肢体行为动作、 面部表情动作以及热成像数据中的至少一个; 通过声音 识别系统采集待检测对象的声音和 /或待检测对象所处的环境的背景声音; 其中 , 声音包括: 声调、 响度、 发声频率以及声音所携带的信息。

[0008] 进一步地, 可选的, 图像识别系统包括: 微表情识别系统; 声音识别系统包括 : 微语言识别系统。

[0009] 可选的, 将图像信息与预设数据库中的情绪信息对应的 图像信息进行比对, 并 将声音信息与预设数据库中的情绪信息对应的 声音信息进行比对包括: 在预设 数据库中对图像信息和声音信息匹配与图像信 息和声音信息对应的图像信息和 声音信息, 得到至少一组图像信息和声音信息。

[0010] 进一步地, 可选的, 筛选与待检测对象匹配的情绪信息包括: 计算至少一组图 像信息和声音信息与采集到的图像信息和声音 信息的相似度; 提取相似度大于 预设阈值的至少一组图像信息和声音信息对应 的情绪信息, 得到与待检测对象 匹配的情绪信息。

[0011] 进一步地, 可选的, 依据情绪信息调整交互方式包括: 通过预设情绪模型对至 少一组图像信息和声音信息对应的情绪信息进 行处理, 得到情绪信息对应的交 互方式; 输出交互方式, 并采集待检测对象当前所处的环境信息; 依据当前所 处的环境信息校正交互方式, 直至得到与待检测对象对应的交互结果; 其中, 通过预设情绪模型对至少一组图像信息和声音 信息对应的情绪信息进行处理包 括: 通过预设情绪模型对情绪信息进行判断或预测 , 得到对应情绪信息的交互 方式。

[0012] 根据本发明实施例的另一个方面, 提供了一种数据处理的装置, 包括: 采集模 块, 用于采集待检测对象所处的环境信息, 其中, 环境信息包括: 图像信息和 声音信息; 匹配模块, 用于将图像信息与预设数据库中的情绪信息对 应的图像 信息进行比对, 并将声音信息与预设数据库中的情绪信息对应 的声音信息进行 比对; 筛选模块, 用于筛选与待检测对象匹配的情绪信息; 校正模块, 用于依 据情绪信息调整交互方式。

[0013] 可选的, 采集模块包括: 第一采集单元, 用于通过图像识别系统采集待检测对 象的肢体行为动作、 面部表情动作以及热成像数据中的至少一个; 第二采集单 元, 用于通过声音识别系统采集待检测对象的声音 和 /或待检测对象所处的环境 的背景声音; 其中, 声音包括: 声调、 响度、 发声频率以及声音所携带的信息

[0014] 进一步地, 可选的, 图像识别系统包括: 微表情识别系统; 声音识别系统包括 : 微语言识别系统。

[0015] 可选的, 匹配模块包括: 匹配单元, 用于在预设数据库中对图像信息和声音信 息匹配与图像信息和声音信息对应的图像信息 和声音信息, 得到至少一组图像 信息和声音信息。

[0016] 进一步地, 可选的, 筛选模块包括: 计算单元, 用于计算至少一组图像信息和 声音信息与采集到的图像信息和声音信息的相 似度; 提取单元, 用于提取相似 度大于预设阈值的至少一组图像信息和声音信 息对应的情绪信息, 得到与待检 测对象匹配的情绪信息。

[0017] 进一步地, 可选的, 校正模块包括: 调整单元, 用于通过预设情绪模型对至少 一组图像信息和声音信息对应的情绪信息进行 处理, 得到情绪信息对应的交互 方式; 采集单元, 用于输出交互方式, 并采集待检测对象当前所处的环境信息 ; 校正单元, 用于依据当前所处的环境信息校正交互方式, 直至得到与待检测 对象对应的交互结果; 其中, 通过预设情绪模型对至少一组图像信息和声音 信 息对应的情绪信息进行处理包括: 通过预设情绪模型对情绪信息进行判断或预 测, 得到对应情绪信息的交互方式。

发明的有益效果

有益效果 [0018] 根据本发明实施例的又一个方面, 提供了一种机器人, 包括: 上述一种数据处 理的装置。

[0019] 在本发明实施例中, 通过采集待检测对象所处的环境信息, 其中, 环境信息包 括: 图像信息和声音信息; 将图像信息与预设数据库中的情绪信息对应的 图像 信息进行比对, 并将声音信息与预设数据库中的情绪信息对应 的声音信息进行 比对; 筛选与待检测对象匹配的情绪信息, 其中, 情绪信息用于指示机器人执 行对应操作; 依据情绪信息调整交互方式, 达到了对微表情准确预测的目的, 从而实现了准确对微表情的检测的技术效果, 进而解决了由于相关技术中缺少 对微表情的检测、 判断以及对应的处理方法, 导致人机交互过程或人与人沟通 过程中信息表述正确率低的技术问题。

对附图的简要说明

附图说明

[0020] 此处所说明的附图用来提供对本发明的进一步 理解, 构成本申请的一部分, 本 发明的示意性实施例及其说明用于解释本发明 , 并不构成对本发明的不当限定 。 在附图中:

[0021] 图 1是根据本发明实施例的数据处理的方法的流 示意图;

[0022] 图 2是根据本发明实施例的一种数据处理的方法 流程示意图;

[0023] 图 3是根据本发明实施例的数据处理的装置的流 示意图。

本发明的实施方式

[0024] 为了使本技术领域的人员更好地理解本发明方 案, 下面将结合本发明实施例中 的附图, 对本发明实施例中的技术方案进行清楚、 完整地描述, 显然, 所描述 的实施例仅仅是本发明一部分的实施例, 而不是全部的实施例。 基于本发明中 的实施例, 本领域普通技术人员在没有做出创造性劳动前 提下所获得的所有其 他实施例, 都应当属于本发明保护的范围。

[0025] 需要说明的是, 本发明的说明书和权利要求书及上述附图中的 术语"第一"、 " 第二"等是用于区别类似的对象, 而不必用于描述特定的顺序或先后次序。 应该 理解这样使用的数据在适当情况下可以互换, 以便这里描述的本发明的实施例 能够以除了在这里图示或描述的那些以外的顺 序实施。 此外, 术语"包括"和"具 有"以及他们的任何变形, 意图在于覆盖不排他的包含, 例如, 包含了一系列步 骤或单元的过程、 方法、 系统、 产品或设备不必限于清楚地列出的那些步骤或 单元, 而是可包括没有清楚地列出的或对于这些过程 、 方法、 产品或设备固有 的其它步骤或单元。

[0026] 实施例 1

[0027] 根据本发明实施例, 提供了一种数据处理的方法实施例, 需要说明的是, 在附 图的流程图示出的步骤可以在诸如一组计算机 可执行指令的计算机系统中执行 , 并且, 虽然在流程图中示出了逻辑顺序, 但是在某些情况下, 可以以不同于 此处的顺序执行所示出或描述的步骤。

[0028] 图 1是根据本发明实施例的数据处理的方法的流 示意图, 如图 1所示, 该方法 包括如下步骤:

[0029] 步骤 S102, 采集待检测对象所处的环境信息, 其中, 环境信息包括: 图像信息 和声音信息;

[0030] 步骤 S 104, 将图像信息与预设数据库中的情绪信息对应的 图像信息进行比对, 并将声音信息与预设数据库中的情绪信息对应 的声音信息进行比对;

[0031] 步骤 S106, 筛选与待检测对象匹配的情绪信息, 其中, 情绪信息用于指示机器 人执行对应操作;

[0032] 步骤 S108, 依据情绪信息调整交互方式。

[0033] 通过上述步骤, 可以实现采集待检测对象所处的环境信息, 其中, 环境信息包 括: 图像信息和声音信息; 将图像信息与预设数据库中的情绪信息对应的 图像 信息进行比对, 并将声音信息与预设数据库中的情绪信息对应 的声音信息进行 比对; 筛选与待检测对象匹配的情绪信息, 其中, 情绪信息用于指示机器人执 行对应操作; 依据情绪信息调整交互方式, 达到了对微表情准确预测的目的, 从而实现了准确对微表情的检测的技术效果, 进而解决了由于相关技术中缺少 对微表情的检测、 判断以及对应的处理方法, 导致人机交互过程或人与人沟通 过程中信息表述正确率低的技术问题。

[0034] 可选的, 步骤 S102中采集待检测对象所处的环境信息包括: [0035] Stepl , 通过图像识别系统采集待检测对象的肢体行为 动作、 面部表情动作以 及热成像数据中的至少一个;

[0036] Step2, 通过声音识别系统采集待检测对象的声音和 /或待检测对象所处的环境 的背景声音; 其中, 声音包括: 声调、 响度、 发声频率以及声音所携带的信息

[0037] 进一步地, 可选的, 图像识别系统包括: 微表情识别系统; 声音识别系统包括 : 微语言识别系统。

[0038] 可选的, 步骤 S104中将图像信息与预设数据库中的情绪信息 应的图像信息进 行比对, 并将声音信息与预设数据库中的情绪信息对应 的声音信息进行比对包 括:

[0039] Stepl , 在预设数据库中对图像信息和声音信息匹配与 图像信息和声音信息对 应的图像信息和声音信息, 得到至少一组图像信息和声音信息。

[0040] 进一步地, 可选的, 步骤 S106中筛选与待检测对象匹配的情绪信息包括 [0041] Stepl, 计算至少一组图像信息和声音信息与采集到的 图像信息和声音信息的 相似度;

[0042] Step2, 提取相似度大于预设阈值的至少一组图像信息 和声音信息对应的情绪 信息, 得到与待检测对象匹配的情绪信息。

[0043] 进一步地, 可选的, 步骤 S108中依据情绪信息调整交互方式包括:

[0044] Stepl, 通过预设情绪模型对至少一组图像信息和声音 信息对应的情绪信息进 行处理, 得到情绪信息对应的交互方式;

[0045] Step2, 输出交互方式, 并采集待检测对象当前所处的环境信息;

[0046] Step3, 依据当前所处的环境信息校正交互方式, 直至得到与待检测对象对应 的交互结果;

[0047] 其中, 通过预设情绪模型对至少一组图像信息和声音 信息对应的情绪信息进行 处理包括: 通过预设情绪模型对情绪信息进行判断或预测 , 得到对应情绪信息 的交互方式。

[0048] 综上, 本方案提出了一种基于图像识别和语音识别技 术来完成对交流对象微表 情和微语言的判断, 首次将微表情和微语言相结合来判断交流对象 的想法, 并 通过不断调整交流方式, 确定其真实想法。

[0049] 其中, 图 2是根据本发明实施例的一种数据处理的方法 流程示意图, 如图 2所 示, 该系统包括一个图像识别 (微表情) 系统和一个声音识别 (微语言) 系统 , 整体执行具体如下:

[0050] 1.在和用户交流吋, 系统首先采集用户的图像和语音信息, 从图像中提取微表 情相关信息, 同吋从语音中提取微语言相关信息。

[0051] 2.根据判断得到的微表情和微语言信息, 判断交流对象的心情, 猜测想法。

[0052] 3.根据判断得到的交流对象的心情和猜测的想 , 调整交流的方式。

[0053] 4.重复前面三步, 直到确定交流对象的真实想法。

[0054]

[0055] 实施例 2

[0056] 图 3是根据本发明实施例的数据处理的装置的流 示意图, 如图 3所示, 该装置 包括:

[0057] 采集模块 32, 用于采集待检测对象所处的环境信息, 其中, 环境信息包括: 图 像信息和声音信息; 匹配模块 34, 用于将图像信息与预设数据库中的情绪信息 对应的图像信息进行比对, 并将声音信息与预设数据库中的情绪信息对应 的声 音信息进行比对; 筛选模块 36, 用于筛选与待检测对象匹配的情绪信息; 校正 模块 38, 用于依据情绪信息调整交互方式。

[0058] 通过上述步骤, 可以实现采集待检测对象的图像信息和声音信 息; 将图像信息 与预设数据库中的情绪信息对应的图像信息进 行比对, 并将声音信息与预设数 据库中的情绪信息对应的声音信息进行比对; 筛选与待检测对象匹配的情绪信 息; 依据情绪信息调整交互方式, 达到了对微表情准确预测的目的, 从而实现 了准确对微表情的的检测的技术效果, 进而解决了由于相关技术中缺少对微表 情的检测、 判断以及对应的处理方法, 导致人机交互过程或人与人沟通过程中 信息表述正确率低的技术问题。

[0059] 可选的, 采集模块 32包括: 第一采集单元, 用于通过图像识别系统采集待检测 对象的肢体行为动作、 面部表情动作以及热成像数据中的至少一个; 第二采集 单元, 用于通过声音识别系统采集待检测对象的声音 和 /或待检测对象所处的环 境的背景声音; 其中, 声音包括: 声调、 响度、 发声频率以及声音所携带的信 息。

[0060] 进一步地, 可选的, 图像识别系统包括: 微表情识别系统; 声音识别系统包括 : 微语言识别系统。

[0061] 可选的, 匹配模块 34包括: 匹配单元, 用于在预设数据库中对图像信息和声音 信息匹配与图像信息和声音信息对应的图像信 息和声音信息, 得到至少一组图 像信息和声音信息。

[0062] 进一步地, 可选的, 筛选模块 36包括: 计算单元, 用于计算至少一组图像信息 和声音信息与采集到的图像信息和声音信息的 相似度; 提取单元, 用于提取相 似度大于预设阈值的至少一组图像信息和声音 信息对应的情绪信息, 得到与待 检测对象匹配的情绪信息。

[0063] 进一步地, 可选的, 校正模块 38包括: 调整单元, 用于通过预设情绪模型对至 少一组图像信息和声音信息对应的情绪信息进 行处理, 得到情绪信息对应的交 互方式; 采集单元, 用于输出交互方式, 并采集待检测对象当前所处的环境信 息; 校正单元, 用于依据当前所处的环境信息校正交互方式, 直至得到与待检 测对象对应的交互结果; 其中, 通过预设情绪模型对至少一组图像信息和声音 信息对应的情绪信息进行处理包括: 通过预设情绪模型对情绪信息进行判断或 预测, 得到对应情绪信息的交互方式。

[0064] 实施例 3

[0065] 根据本发明实施例的又一个方面, 提供了一种机器人, 包括: 图 3所示的一种 数据处理的装置。

[0066] 上述本发明实施例序号仅仅为了描述, 不代表实施例的优劣。

[0067] 在本发明的上述实施例中, 对各个实施例的描述都各有侧重, 某个实施例中没 有详述的部分, 可以参见其他实施例的相关描述。

[0068] 在本申请所提供的几个实施例中, 应该理解到, 所揭露的技术内容, 可通过其 它的方式实现。 其中, 以上所描述的装置实施例仅仅是示意性的, 例如所述单 元的划分, 可以为一种逻辑功能划分, 实际实现吋可以有另外的划分方式, 例 如多个单元或组件可以结合或者可以集成到另 一个系统, 或一些特征可以忽略 , 或不执行。 另一点, 所显示或讨论的相互之间的耦合或直接耦合或 通信连接 可以是通过一些接口, 单元或模块的间接耦合或通信连接, 可以是电性或其它 的形式。

[0069] 所述作为分离部件说明的单元可以是或者也可 以不是物理上分幵的, 作为单元 显示的部件可以是或者也可以不是物理单元, 即可以位于一个地方, 或者也可 以分布到多个单元上。 可以根据实际的需要选择其中的部分或者全部 单元来实 现本实施例方案的目的。

[0070] 另外, 在本发明各个实施例中的各功能单元可以集成 在一个处理单元中, 也可 以是各个单元单独物理存在, 也可以两个或两个以上单元集成在一个单元中 。 上述集成的单元既可以采用硬件的形式实现, 也可以采用软件功能单元的形式 实现。

[0071] 所述集成的单元如果以软件功能单元的形式实 现并作为独立的产品销售或使用 吋, 可以存储在一个计算机可读取存储介质中。 基于这样的理解, 本发明的技 术方案本质上或者说对现有技术做出贡献的部 分或者该技术方案的全部或部分 可以以软件产品的形式体现出来, 该计算机软件产品存储在一个存储介质中, 包括若干指令用以使得一台计算机设备 (可为个人计算机、 服务器或者网络设 备等) 执行本发明各个实施例所述方法的全部或部分 步骤。 而前述的存储介质 包括: U盘、 只读存储器 (ROM, Read-Only

Memory) 、 随机存取存储器 (RAM, Random Access Memory) 、 移动硬盘、 磁 碟或者光盘等各种可以存储程序代码的介质。

[0072] 以上所述仅是本发明的优选实施方式, 应当指出, 对于本技术领域的普通技术 人员来说, 在不脱离本发明原理的前提下, 还可以做出若干改进和润饰, 这些 改进和润饰也应视为本发明的保护范围。