4)第318章 神经网络_我真不是法爷
字体:      护眼 关灯
上一章 目录 下一章
  上化了一个初中生熟悉的xy坐标轴,同时在上面点出了(1,1)(-1,1)(-1,-1)(1,-1)这四个左边,它们连接起来便是一个正方形,而这四个左边分别坐落在四个象限。

  机器学习需要的便是让机器知晓诸如(2,2)这种应该算作哪一个象限?

  这便需要神经网络算法的“分类”作用。

  这里输入是一个(2,2)的坐标,它是一个1乘2的矩阵,这是输入层。

  设定50个神经元,所以它便是一个1乘50的矩阵,这是隐藏层。

  而结果1-4象限,则是一个1乘4的矩阵,这是输出层。

  根据线性代数的知识,可以知道矩阵之间是能够沟通的,所以一个输出层的1乘4矩阵可以用最初的1乘2输入层矩阵表达。

  这其中的操作,便在于为这个矩阵运算添加激活层以及输出正规化,再通过交叉熵损失来量化当前网络的优劣,最后再进行参数优化。

  这个过程所需要的便是反复迭代。

  重新走完这个过程后,林奇也不禁感慨地叹息数分。

  他还记得大学的毕业论文课题,当时都是由各个导师根据自己的专业范围制定题目,然后再由学生们报名选择。

  当时林奇选的慢了,最后剩下的都是若干不好啃的“算法题”。

  毕竟做算法,墓地就是优化它的参数,让整个计算时间短一些,效果更精确,最终更优化些,可是每年一代又一代的学生,早已把沙漠上明显的宝石捡走了,剩下的方法也就研究生博士生的路子,自己圈一块地,继续往下深挖,想要靠着视野一眼就挑出钻石,那根本是无稽之谈。

  而林奇最终思索数番,选择的是一道遗传算法做全局最优的题目,结果当时matlab早就有一整套成熟的工具包,林奇还是老老实实地自己编写函数,最终凑出一篇勉强的论文。

  最终面对评审专家提问创新之处时,林奇也只能面前回答,他用的这几个参数组合,未见与前人文章,这才勉强划水过去。

  而他那位选择了神经网络算法的舍友,当场被质疑模拟数据造假,差点延毕。

  后来为了帮助舍友,林奇当时算是第一次接触神经网络算法。

  毋庸置疑,在神经网络算法里,秘能场参数便是“输入矩阵”,法术模型结果便是“输出矩阵”。

  随即,林奇在地面是书写了一段文字——

  神经网络(nn)。

  人工神经网络(ann)。

  以大量的简单计算单元(神经元)构成非线性系统。

  一定程度上模拟大脑的信息处理、存储和检索等功能。

  bp网络的误差反向后传学习算法。

  输出后误差来估计输出层的直接前导层误差,再以误差更新前一层的误差,如此反传下去获得所有其他各层的误差估计。

  ……

  他一步一步地重新将整个神经网络的知识梳理一遍。

  他相信,这也是对面那位神孽所等待的内容。

  这也是两者之间的交换!

  一种无须言说的默契。

  请收藏:https://m.xiaoniu8.com

(温馨提示:请关闭畅读或阅读模式,否则内容无法正常显示)

上一章 目录 下一章