<?xml version="1.0"?>
<?xml-stylesheet type="text/css" href="http://www.cslt.org/mediawiki/skins/common/feed.css?303"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="zh-cn">
		<id>http://www.cslt.org/mediawiki/index.php?action=history&amp;feed=atom&amp;title=%E6%95%99%E5%AD%A6%E5%8F%82%E8%80%83-17</id>
		<title>教学参考-17 - 版本历史</title>
		<link rel="self" type="application/atom+xml" href="http://www.cslt.org/mediawiki/index.php?action=history&amp;feed=atom&amp;title=%E6%95%99%E5%AD%A6%E5%8F%82%E8%80%83-17"/>
		<link rel="alternate" type="text/html" href="http://www.cslt.org/mediawiki/index.php?title=%E6%95%99%E5%AD%A6%E5%8F%82%E8%80%83-17&amp;action=history"/>
		<updated>2026-04-03T23:25:17Z</updated>
		<subtitle>本wiki的该页面的版本历史</subtitle>
		<generator>MediaWiki 1.23.3</generator>

	<entry>
		<id>http://www.cslt.org/mediawiki/index.php?title=%E6%95%99%E5%AD%A6%E5%8F%82%E8%80%83-17&amp;diff=38906&amp;oldid=prev</id>
		<title>Cslt：/* 教学内容 */</title>
		<link rel="alternate" type="text/html" href="http://www.cslt.org/mediawiki/index.php?title=%E6%95%99%E5%AD%A6%E5%8F%82%E8%80%83-17&amp;diff=38906&amp;oldid=prev"/>
				<updated>2022-08-05T11:10:22Z</updated>
		
		<summary type="html">&lt;p&gt;‎&lt;span dir=&quot;auto&quot;&gt;&lt;span class=&quot;autocomment&quot;&gt;教学内容&lt;/span&gt;&lt;/span&gt;&lt;/p&gt;
&lt;table class='diff diff-contentalign-left'&gt;
				&lt;col class='diff-marker' /&gt;
				&lt;col class='diff-content' /&gt;
				&lt;col class='diff-marker' /&gt;
				&lt;col class='diff-content' /&gt;
				&lt;tr style='vertical-align: top;'&gt;
				&lt;td colspan='2' style=&quot;background-color: white; color:black; text-align: center;&quot;&gt;←上一版本&lt;/td&gt;
				&lt;td colspan='2' style=&quot;background-color: white; color:black; text-align: center;&quot;&gt;2022年8月5日 (五) 11:10的版本&lt;/td&gt;
				&lt;/tr&gt;&lt;tr&gt;&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot;&gt;第21行：&lt;/td&gt;
&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot;&gt;第21行：&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class='diff-marker'&gt;&amp;#160;&lt;/td&gt;&lt;td style=&quot;background-color: #f9f9f9; color: #333333; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #e6e6e6; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;* 原则上，反向传播算法可以训练任意深度的神经网络，然而实际情况却并不乐观。这是因为神经网络非常复杂，训练过程中会遇到很多马鞍点和局部小点，要想避开这些点，并不容易。&lt;/div&gt;&lt;/td&gt;&lt;td class='diff-marker'&gt;&amp;#160;&lt;/td&gt;&lt;td style=&quot;background-color: #f9f9f9; color: #333333; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #e6e6e6; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;* 原则上，反向传播算法可以训练任意深度的神经网络，然而实际情况却并不乐观。这是因为神经网络非常复杂，训练过程中会遇到很多马鞍点和局部小点，要想避开这些点，并不容易。&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class='diff-marker'&gt;&amp;#160;&lt;/td&gt;&lt;td style=&quot;background-color: #f9f9f9; color: #333333; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #e6e6e6; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;* 2006年，多伦多大学的杰弗里·辛顿提出了一种预训练方法，先训练浅层网络，再一层层叠加起来，最终得到深层网络。辛顿发现，通过这种预训练得到的深层网络具有比浅层网络更好的性能。&lt;/div&gt;&lt;/td&gt;&lt;td class='diff-marker'&gt;&amp;#160;&lt;/td&gt;&lt;td style=&quot;background-color: #f9f9f9; color: #333333; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #e6e6e6; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;* 2006年，多伦多大学的杰弗里·辛顿提出了一种预训练方法，先训练浅层网络，再一层层叠加起来，最终得到深层网络。辛顿发现，通过这种预训练得到的深层网络具有比浅层网络更好的性能。&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class='diff-marker'&gt;−&lt;/td&gt;&lt;td style=&quot;color:black; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;* &lt;del class=&quot;diffchange diffchange-inline&quot;&gt;在此之后，众多学者投入到这一研究方向，深度学习成为人工智能最活跃的方向和代表性技术。&lt;/del&gt;&lt;/div&gt;&lt;/td&gt;&lt;td class='diff-marker'&gt;+&lt;/td&gt;&lt;td style=&quot;color:black; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;* &lt;ins class=&quot;diffchange diffchange-inline&quot;&gt;在此之后，众多学者投入到这一研究方向，深度学习成为人工智能最活跃的方向和代表性技术。因在深度学习研究中的突出贡献，约书亚·本吉奥、杰弗里·辛顿、杨立昆共同荣获2018年图灵奖。&lt;/ins&gt;&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td colspan=&quot;2&quot;&gt;&amp;#160;&lt;/td&gt;&lt;td class='diff-marker'&gt;+&lt;/td&gt;&lt;td style=&quot;color:black; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;&amp;#160;&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class='diff-marker'&gt;&amp;#160;&lt;/td&gt;&lt;td style=&quot;background-color: #f9f9f9; color: #333333; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #e6e6e6; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;/td&gt;&lt;td class='diff-marker'&gt;&amp;#160;&lt;/td&gt;&lt;td style=&quot;background-color: #f9f9f9; color: #333333; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #e6e6e6; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class='diff-marker'&gt;&amp;#160;&lt;/td&gt;&lt;td style=&quot;background-color: #f9f9f9; color: #333333; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #e6e6e6; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;===抽象特征学习：深度神经网络的秘密===&lt;/div&gt;&lt;/td&gt;&lt;td class='diff-marker'&gt;&amp;#160;&lt;/td&gt;&lt;td style=&quot;background-color: #f9f9f9; color: #333333; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #e6e6e6; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;===抽象特征学习：深度神经网络的秘密===&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;/table&gt;</summary>
		<author><name>Cslt</name></author>	</entry>

	<entry>
		<id>http://www.cslt.org/mediawiki/index.php?title=%E6%95%99%E5%AD%A6%E5%8F%82%E8%80%83-17&amp;diff=38905&amp;oldid=prev</id>
		<title>Cslt：以“==教学目标==  *理解深度学习和深度神经网络的基本概念，理解这些概念与机器学习、人工智能的关系。 *理解深度神经网络特...”为内容创建页面</title>
		<link rel="alternate" type="text/html" href="http://www.cslt.org/mediawiki/index.php?title=%E6%95%99%E5%AD%A6%E5%8F%82%E8%80%83-17&amp;diff=38905&amp;oldid=prev"/>
				<updated>2022-08-05T11:09:56Z</updated>
		
		<summary type="html">&lt;p&gt;以“==教学目标==  *理解深度学习和深度神经网络的基本概念，理解这些概念与机器学习、人工智能的关系。 *理解深度神经网络特...”为内容创建页面&lt;/p&gt;
&lt;p&gt;&lt;b&gt;新页面&lt;/b&gt;&lt;/p&gt;&lt;div&gt;==教学目标==&lt;br /&gt;
&lt;br /&gt;
*理解深度学习和深度神经网络的基本概念，理解这些概念与机器学习、人工智能的关系。&lt;br /&gt;
*理解深度神经网络特征学习的重要意义&lt;br /&gt;
*理解深度学习兴起的原因&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==教学内容==&lt;br /&gt;
&lt;br /&gt;
===深度神经网络===&lt;br /&gt;
&lt;br /&gt;
* 神经网络是强大的计算模型，可模拟图灵机的计算能力。研究表明，即便是包含一个隐藏层的简单网络，只要隐藏层节点足够多，就可以模拟任何连续函数，具有强大的学习能力。&lt;br /&gt;
* 一般来说，在参数量相同的前提下，层数更多的神经网络具有更强的学习能力。通常称包含两个隐藏层以上的神经网络为深度神经网络。&lt;br /&gt;
* 基于多层模型结构的机器学习方法一般称为深度学习。虽然任何一种多层结构都可以用于深度学习，到目前为止，深度神经网络依然是应用最广泛的深度学习模型。&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===深度神经网络训练===&lt;br /&gt;
&lt;br /&gt;
* 研究者很早就意识到多层神经网络具有更强的学习能力，然而在实验中，多层网络并没有表现出比三层网络更好的性能，一个重要原因是多层网络的训练非常困难。&lt;br /&gt;
* 原则上，反向传播算法可以训练任意深度的神经网络，然而实际情况却并不乐观。这是因为神经网络非常复杂，训练过程中会遇到很多马鞍点和局部小点，要想避开这些点，并不容易。&lt;br /&gt;
* 2006年，多伦多大学的杰弗里·辛顿提出了一种预训练方法，先训练浅层网络，再一层层叠加起来，最终得到深层网络。辛顿发现，通过这种预训练得到的深层网络具有比浅层网络更好的性能。&lt;br /&gt;
* 在此之后，众多学者投入到这一研究方向，深度学习成为人工智能最活跃的方向和代表性技术。&lt;br /&gt;
&lt;br /&gt;
===抽象特征学习：深度神经网络的秘密===&lt;br /&gt;
&lt;br /&gt;
* 深度神经网络之所以如此强大，一个很重要的原因在于它可以通过层次性处理逐渐提取抽象特征。在网络底层，神经元被一些简单的线条所激发，但到了网络高层，激发神经元的将是一些有代表性的图案。这说明网络以一种层次性的方式对特征进行提取，越到后面得到的特征越高级，越抽象。因此，深度学习也常被称为表示学习。&lt;br /&gt;
* 对抽象特征的学习具有重要意义，可以带来更强的可扩展性。例如，我们把一张人脸照片加入各种变化，如噪点，缩放、旋转，这时低层特征会发生显著变化，但人脸依然是人脸，在抽象的概念层次不会发生变化。这种不变性是实现可扩展性的基础。&lt;br /&gt;
* 抽象特征学习可以从原始数据开始，不需要人为的特征设计。这一强大能力使得研究者不再需要专门设计特征提取过程，只要数据足够，机器可以自动从数据中提取出有价值的特征。自动特征学习不仅简化了模型设计与构造，也避免了人为设计特征可能存在的缺陷。&lt;br /&gt;
* 最后，人们发现深度学习和人类的信息处理方式很相似。人类处理信息是层次性的，深层网络的处理方式和人类大脑里的处理方式很像。&lt;br /&gt;
&lt;br /&gt;
===深度神经网络与现代人工智能===&lt;br /&gt;
&lt;br /&gt;
* 深度神经网络兴起之后，在机器视觉、机器听觉、自然语言处理、机器人等众多领域取得极大成功。现在我们知道，辛顿当初提出的预训练方案并不是必要的，只要数据量足够大，计算资源足够丰富，就可以成功训练一个强大的深度神经网络模型。从这个角度上看，与其说是深度学习多么强大，不如说是大量数据的积累和计算机性能的提高使得大规模机器学习成为可能。&lt;br /&gt;
* 最后，开源成为研究界的共识，出现了大量开源的代码、数据和论文。这些开源资源的出现极大促进了技术交流和技术进步，为当前人工智能浪潮打上了独特的历史烙印。&lt;/div&gt;</summary>
		<author><name>Cslt</name></author>	</entry>

	</feed>