达特茅斯人工智能夏季研究计划(The Dartmouth Artificial Intelligence Summer Research Project)开启了人工智能领域的研究,并鼓舞了一代科学家探寻可以媲美人类智慧的信息技术的潜力。
1956年1962年
弗兰克·罗森布拉特(Frank Rosenblatt)出版了《神经动力学原理:感知器和大脑机制的理论》(Principles of Neurodynamics: Perceptrons and the Theory of Brain Mechanisms),该书介绍了一种应用于具有单层可变权重的神经网络模型的学习算法,该算法是今天的深度神经网络模型的学习算法的前身。
大卫·休伯尔(David Hubel)和托斯坦·威泽尔(Torsten Wiesel)发表了《猫的视觉皮质中的感受野、双目互动和功能架构》(Receptive Fields,Binocular Interaction and Functional Architecture in the Cat’s Visual Cortex)一文,第一次报道了由微电极记录的单个神经元的响应特性。深度学习网络的架构类似于视觉皮质的层次结构。
1962年1969年
马文·明斯基(Marvin Minsky)和西摩尔·帕普特(Seymour Papert)出版了《感知器》(Perceptrons),该书指出了单个人造神经元的计算极限,标志着神经网络领域寒冬的到来。
杰弗里·辛顿和詹姆斯·安德森(James Anderson)在加州拉荷亚市(La Jolla)举办了“关联记忆的并行模型”(Parallel Models of Associative Memory)研讨会,把新一代的神经网络先驱们聚集到了一起,同时也推动辛顿和安德森在1981年发表了同名系列研究著作。
1979年
第一届神经信息处理系统大会(Neural Information Processing Systems,现通称为NeurIPS/NIPS)及研讨会在美国丹佛科技中心举办,该会议吸引了很多不同领域的研究人员。
1986年
机器学习的崛起
不久之前,人们还常说,计算机视觉的辨别能力尚不如一岁大的孩子。如今看来,这句话要改写了。计算机不仅能和大多数成年人一样识别图片中的物体,在马路上驾驶汽车的安全性还高过16岁的青少年。更神奇的是,如今的计算机不再是被动按照指令识别和驾驶,而是像自然界的生命由数百万年前开始进化那样,自主地从经验中学习。是数据的井喷促成了这一技术进步。如果说数据是新时代的石油,那么学习算法就是从中提取信息的炼油厂;信息积累成知识;知识深化成理解;理解演变为智慧。欢迎来到深度学习的新世界。
深度学习是机器学习的一个分支,它根植于数学、计算机科学和神经科学。深度网络从数据中学习,就像婴儿了解周围世界那样,从睁开眼睛开始,慢慢获得驾驭新环境所需的技能。深度学习的起源可以追溯到20世纪50年代人工智能的诞生。关于如何构建人工智能,当时存在两种不同的观点:一种观点主张基于逻辑和计算机程序,曾主宰人工智能的研究和应用数十年;另一种观点则主张直接从数据中学习,经历了更长时间的摸索才逐渐成熟。
20世纪,计算机技术还不够成熟,而且按照现在的标准,数据存储成本十分高昂,用逻辑程序来解决问题更加高效。熟练的程序员需要为每个不同的问题编写不同的程序,问题越大,相应的程序也就越复杂。如今,计算机能力日趋强大,数据资源也变得庞大且丰富,使用学习算法解决问题比以前更快、更准确,也更高效。此外,同样的学习算法还能用来解决许多不同的难题,这远比为每个问题编写不同的程序更加节省人力。
- 机器学习的崛起 2024-11-26
- 运动控制器的通信功能 2024-11-26
- 流行现场总线简介(四) 2024-11-26
- 现场总线的现状 2024-11-26
- FPGA发展的三个阶段 2024-11-26
- 设计自动化的兴起 2024-11-26
- 什么是FPGA 2024-11-26
- 现场总线网络的实现 2024-11-26
- 一文读懂现场总线技术特点及优点 2024-11-26
- 现场总线的产生与发展 2024-11-26