人工智能与类神经网络简史
人工智能与类神经网络简史2015-05-04 贾维斯 数盟
人工智能的发展可以追溯到第二次世界大战的末期,当时为了解决一些军事上和情报上的问题,科学家们开始研究发展一种有智能的机器。後来在1956年McCarthy主持了Dartmouth会议,成为公认之人工智能发展史的开端。
在人工智能的研究方面,有几位有名的始祖。A.M.Turing是奠定电脑科学基础的人,他曾提出棋奕论与电脑的研究成果。M.L.Minsky则是发表框架理论的人,也就是先将大量相关资讯输入电脑,再将这些资讯按照情形来定义为选择性的条件或是强制性的条件,用这种方法来解决模棱两可或是有例外的问题。J.McCarthy则体会到必须用符号语言来代替以公式为处理中心的语言,因而发表了LISP人工智能语言。此外尚有发表通信理论的C.Shannon和发表生产系统的A.Newell。
究竟什么是人工智能呢?先让我们尝试着为生命做个定义:一个生命必须有1.新陈代谢和消耗精力的行为2.生长3.繁衍後代4.对於环境的刺激有所反应,进而适应所处的环境。
人工智能精确的定义是:一个电脑系统具有人类的知识和行为,并具有学习、推理判断来解决问题、记忆知识和了解人类自然语言的能力。人工智能的产生过程则是:对於人类因问题和事物所引起的刺激和反应,以及因此所引发的推理、解决问题、学习、判断及思考决策等过程,将这些过程分解成一些基本步骤,再透过程式设计,将这些人类解决问题的过程模组化或公式化,使得电脑能够有一个结构的方法来设计或应付更复杂的问题。这套能够应付问题的软体系统,即称之为人工智能系统。人工智能是一种技术,而不是一项产品。它的目的是让电脑更能了解一般化的事物。
人工智能研究的题材约可分为:(1)联络沟通,以及如何使电脑更有智能了解人的语言与知识。(2)符号处理,如LISP人工智能语言、生产系统、黑板系统等领域研究。(3)经验法则搜寻技巧。(4)逻辑(logic)系统,如复杂事实的归纳及推理等。
在Dartmouth会议之後,相关的人工智能实验室便相继成立,如Stanford、MIT、CarnegieMellon等学校。今日国内各大学资讯相关科系也多有设立人工智能实验室,上网便可以获得相关资讯。
未来人工智能的发展包含:将人工智能技术运用在机器上、将原来顺序逻辑架构的电脑改为高速平行架构的电脑、以及发展具有经济价值的商业应用产品。研究的方式包含了理论和实验两层面,其中实验层面还可以细分为基础部分和应用部分。研究的方向则有生物的方向和世界整体现象的方向。
研究人工智能所牵涉的学科包含:数学和逻辑、基础科学、心理学和神经生理学、程式设计语言(若包含机械语言更好)。
至於人工智能所引发的哲学和伦理问题,目前仍有无法定论的问题,有些目前尚未被重视。也许目前只有哲学家们会比较注意这些议题吧?
类神经网络介绍《起源》:
为了在语音及影像辨认获至与人脑相似的功能,自1940年起,科学家即着手从事此方面的研究,仿造最简单的神经元模式,开始建立最原始的类神经网络(ArtificialNeuralNetworkANN),历经40年的发展,类神经的研究工作虽曾一度陷入低潮,近几年又再度复苏,并且结合了生理,心理,电脑等科技而成为新的研究领域。
电脑的功能虽然日新月异,但却不能因此就完全取代人脑。因人脑可轻易的听、说、读、写、看,电脑却力有未逮。尤其是在影像处理或语音辨认等问题,电脑更是无法胜任。这显然意谓人脑有着尚未为人所知的特殊结构。要如何模拟这种复杂的人类行为进而建立一部可以人脑匹敌的电脑,可说是电脑科学家的一大梦想。
《简介》
类神经网络已被研究多年。这些类神经网络的模型主要是尝试着去模仿人类的神经系统,因为人类的神经系统在语音、听觉、影像和视觉方面均有很完美的表现,所以也期望这些模型能够在这些方面有出色的成果。很明白的,类神经的架构就是来自於现今对人类神经系统的认识。现今的类神经网络是由很多非线性的运算单元(我们叫神经元Neuron)和位於这些运算单元间的众多连结所组成,而这些运算单元通常是以平行且分散的方式在作运算,如此就可以同时处理大量的资料,由这样的设计就可以被用来处理各种需要大量资料运算的应用上,比如说语音辨认等。
(一)类神经网络的特性
神经网络所擅长的,与人类相似,具有以下几种特性:
1.平行处理的特性
早期人工智能平行处理的研究只集中在小程度的平行,而最近已朝向超大型方向进行。类神经网络是以动物的树状神经网络为蓝本的设计,原本因平行技术未成熟而无法深入研究,现在因超大型平行处理的成熟及若干理论的发展,又成为人工智能中最活跃的研究领域。
2.容错特性
其在操作上具有很高之容忍度,整个神经网络都会参与解决问题之运作。如果输入资料混杂少许杂讯干扰,仍然不影响其运作之正确。而且即使10%的神经网络失效,仍能照常运作。
3.结合式记忆的特性
其又称为内容定址记忆,它可以记忆曾经训练过的输入样式以及对应的理想输出值。我们只要给予一部份的资料,便可以得到全部的资料并且可以容忍错误,就像人类只要看到某一部份的影像可以回忆起全部的影像,这便是结合式记忆的效果。
4.解决最佳化问题
可用於处理非演算法表示的问题,或是以演算法处理很费时者。
5.超大型积体电路实作
神经网络的结构具有高度的互相连接,而且简单,有规则性,易以超大型积体电路(VLSI)来完成。
6.能处理一般演算法难以处理的问题
在非常大的推销员问题中,为了增加效率起见,我们可利“个个击破”的方法,来求得一条正确可走的路径。这是用传统的方法所以无法达到的。
(二)神经网络基本模型
每一个神经细胞网络模型,其特性是由网络的拓朴图形,节点的特性加以决定。在训练的过程中这些法则最初是由一组初始加权值来决定,并在学习过程中调整其加权以增进效率,经由不断的调整和学习,使得真正的网络输出与目标值能达到相同值後,才固定网络中的加权值,此时才算训练完成。
(三)神经网络的架构与训练演算法
1.单层知觉网络:其可形成两个决定区域,牵而此二区域由一超平面加以分隔开来。有一特殊情形就是,若网络只涉到两个输入,则超平面便退化成一条直线。
2.多层知觉网络:其是在输入层节点与输出层节间多了一层或多层的隐藏层,即输入节点没有直接接往输出节点。
页:
[1]