人工智能是一种研究智能行为的计算模型。其最终目标是建立一个具有感知、推理、学习和联想,甚至决策能力的计算机系统,快速解决一些需要专业人员解决的问题。以下是边肖精心整理的人工智能论文相关资料,希望对你有所帮助!
关于人工智能的论文1
人工智能在模式识别中的应用研究
一.导言
随着计算机应用的不断拓展,我们对计算机有了更多有效的感知“能力”,比如声音、文字、图像、温度、振动等外部信息,从而可以依靠计算机对人类的生存环境进行数字化改造。但从一般意义上来说,目前的计算机并不能直接感知这些信息,只能通过人对键盘、鼠标等外设的操作来感知外界的信息。虽然摄像头、图像扫描仪、麦克风等相关设备已经部分解决了非电信号的转换问题,但是仍然存在一个问题,就是识别技术还不够高,无法保证计算机能够真正感知到采集的是什么信息。这直接使得计算机对外界的感知能力低下,成为计算机应用开发的瓶颈。这时,可以提高计算机外部感知能力的学科;模式识别应运而生并迅速发展。
人工智能中提到的模式识别,是指用计算机代替人类或者帮助人类感知外界信息,可以说是对人类感知的模拟。讨论了计算机模式识别系统的建立,该系统模拟了人类感官对外界信息的识别和感知。
二。人工智能和模式识别
(一)人工智能。人工智能是相对于人类的自然智能而言的。是指利用人工方法和技术对人工智能进行模仿、延伸和扩展,从而实现“机器思维”式的人工智能。简而言之,人工智能是一种研究智能行为的计算模型。它的最终目标是建立一个具有感知、推理、学习和联想,甚至决策能力的计算机系统,快速解决一些需要专业人员解决的问题。人工智能本质上是对人类思维和信息处理的模拟。
(2)模式识别。模式识别,即通过计算机运用数学知识和方法研究模式的自动处理和解释,实现人工智能。在这里,我们把周围所有的环境和物体称为“模式”,即计算机需要识别和感知周围所有的相关信息,然后对这些信息进行处理。人工智能发展的一个关键环节,也就是智能机的发展,就是利用计算机实现模式(包括文字、声音、人和物等)的自动识别。),这也为人类在实现智能的过程中,提供了一种认识自身智能的方式。在模式识别过程中,信息处理实际上是机器识别周围环境和物体的过程,是人参与智能识别的模拟。与人相比,光学信息和声学信息是信息识别的两个重要来源和途径,也是人工智能机器在模式识别过程中的两个重要途径。市场上的代表产品有:光学字符识别系统和语音识别系统。
这里的模式识别可以理解为根据被识别对象的特征观察对其进行分类的过程。利用计算机进行模式识别是20世纪60年代初发展起来的一门新学科。
三。人工智能在模式识别中的应用
(1)数字识别和语音识别。在数字识别过程中,手写识别一直是一个难题,在邮政编码识别、银行等方面有着广泛的应用。但其字体形式变化较大,提高其识别率是个难题,准确识别存在较大困难。采用人工智能中的神经网络技术后,系统可以利用神经网络的学习和快速并行功能,实现手写数字的快速识别,有效提高相关应用领域的工作效率。
另一方面,语音识别将只是使计算机能够理解人们所说的话。一个典型的例子就是七种语言(中文、日文、英文、意大利文、韩文、法文、德文)的自动口语翻译系统,可以把人说的话翻译成机器设定的目标语言,全程没有翻译人员的参与。其中,实验平台的中文部分设置在中国科学院自动化研究所模式识别国家重点。
在实验室中,这标志着中国的机器口语翻译研究进入了世界先进行列。本系统功能实现后,当你需要订酒店、买机票、吃饭等时。当你需要与外国人交谈时,你只需要使用电话网络或互联网就可以顺畅地与对方交流。
(2)立体人脸识别模式。人脸识别的过程主要包括三个主要部分:首先,将人脸图案数据库与采集的实时图像进行比对,确定其是否存在于人脸图案数据库中,如果存在,则给出每张人脸的位置、大小等相关人脸信息;其次,对面部特征进行定位,即检测每张脸的主要器官,包括收集关于其具体位置和形状的具体信息,然后进行归一化处理;第三,比对,即将采集到的面部特征与人脸模式数据库中的图像进行比对,进而验证人脸的身份。
最常见的人脸识别技术可以分为三类:基于几何特征的方法、基于模板的方法和基于模型的方法。其中基于几何特征的方法最为常见,通常需要与其他算法相结合才能形成较好的识别效果。基于模板的方法可以分为基于匹配的方法、基于面部特征的方法、基于线性判别分析的方法、基于神经网络的方法和基于奇异值分解的方法。第三,基于模型的方法主要包括隐马尔可夫模型、主动外观模型和主动形状模型。
使用人脸识别模式进行身份验证具有明显的优势,如易用性好、准确率高、私密性好、稳定性好,能够被大多数用户接受。二维图像识别已基本实现,但基于三维图像的人脸识别技术正处于研发阶段。人脸的二维和三维模型反映了不同的面部外部信息。二维图像中的灰度值反映了人脸表面亮度的差异,而三维图像中加入了深度信息,可以表达人脸形状的信息数据,丰富了人脸的信息,提高了人脸的识别概率。
下一页,分享更好的人工智能论文。