给我说说什么是中间人攻击?
让我们首先在脑海中演示CNN中的一个卷积层。。 CNN中的卷积层(conv层)包含一组单元,这些单元也可以称为神经元。 conv层还包括层内的几个过滤器,这是一个预定义的超参数。 一个层内过滤器的数量表示激活/特征映射的输出量的深度维度,该映射由conv层创建,作为下一层的输入。 每一个滤波器都有一个设定的宽度和高度,对应于层内单个单元的局部接收场。作用于输入数据的滤波器产生一个卷积层的输出,即特征映射。 在CNN的训练阶段,可以学习过滤器中的权重值。卷卷积层的输出维数有一个深度分量,如果我们对输出的每一段进行分割,我们将得到一个二维平面的特征映射。在单个二维平面上使用的过滤器包含一个权重,该权重在同一平面上使用的所有过滤器之间共享。 这样做的好处是,我们在输入数据的另一部分与输入数据的另一部分保持相同的特征检测器。 卷积层的输出是一组特征图,其中每个特征图是单元内固定权重参数与输入数据之间的卷积运算结果。 卷积神经网络层的一个基本特征是它的特征映射能够反映对输入图像所做的任何仿射变换,而这些仿射变换是通过输入层输入的。 因此,对输入数据进行任何偏移、倾斜或定向,特征映射都将提供一个输出,该输出将根据输入数据所受的量进行偏移、倾斜或定向。 将理论付诸实践 本节的目的是揭示卷积神经网络中发生的权值共享的好处。 我们将在两种流行的CNN架构(LeNet和AlexNet)的第一个卷积层中得出不同权值共享和权值共享的可训练权重的数量。 以下是要采取的步骤:· 1. 获取conv 层的输出宽度 (输入大小的宽度-过滤器大小+(2 * Padding)/步幅)+1 =卷积层的输出宽度
下表描述了来自AlexNet和LeNet CNN架构的信息,这些信息将用于得出卷积层内训练参数/权重的数量。 3.降低空间分配次数提升内存使用效率 字符串的追加操作会涉及到内存分配问题,然而内存分配问题会牵扯内存划分算法以及系统调用所以如果频繁发生的话影响性能,所以对于性能至上的Redis来说这是万万不能忍受的。推荐:Redis 内存满了怎么办? 所以采取了以下两种优化措施
1. 空间预分配 对于追加操作来说,Redis不仅会开辟空间至够用而且还会预分配未使用的空间(free)来用于下一次操作。至于未使用的空间(free)的大小则由修改后的字符串长度决定。 当修改后的字符串长度len < 1M,则会分配与len相同长度的未使用的空间(free) (编辑:惠州站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |