TensorFlow以下简称TF,里面很多华丽的新词汇,什么基于数据流图,什么张量等等,而且TF的代码编写方式大大出乎初学者的意料,和我们以前传统的编写代码方式很不同,初学一头雾水。。我先讲一下我理解的概念:
先说什么是图。
先扯远一些,说说编码历史。
最初我们编码需要自己写一个流程图,上面有什么判断循环之类的图形和线条,然后我们按照流程图的思路编写代码。后来随着系统越来越复杂,产生了类的概念,我们像搭积木一样,利用类组建编程。这时候,设计的一个个类是静止的,只有在函数里面引用或者在主函数里面调用,才会运行这些积木。再往后,又将各种类打包,形成类库的概念,此时编程就是模块化编程。我们看到,基本代码在一层层的被封装,看起来变得更容易使用,但是产生的很多新东西需要我们接受,理解并花时间去学习。
我们知道神经网络就是一个个节点,权重关系和激活函数组成的,构成就这么简单,在设计神经网络之前,我们往往要规划网络的节点数,权重等,就像画出网络图一样:
先说什么是图。
先扯远一些,说说编码历史。
最初我们编码需要自己写一个流程图,上面有什么判断循环之类的图形和线条,然后我们按照流程图的思路编写代码。后来随着系统越来越复杂,产生了类的概念,我们像搭积木一样,利用类组建编程。这时候,设计的一个个类是静止的,只有在函数里面引用或者在主函数里面调用,才会运行这些积木。再往后,又将各种类打包,形成类库的概念,此时编程就是模块化编程。我们看到,基本代码在一层层的被封装,看起来变得更容易使用,但是产生的很多新东西需要我们接受,理解并花时间去学习。
我们知道神经网络就是一个个节点,权重关系和激活函数组成的,构成就这么简单,在设计神经网络之前,我们往往要规划网络的节点数,权重等,就像画出网络图一样:
我们编程的时候,就像画图或者设计图一样,先产生一个个的节点或权重变量,这部分代码运行所在空间,就是图,貌似很酷很炫的名字。而数据在节点之间的来回传递,就是数据流。基于这个牵强的图概念和数据的流动,就是所谓的数据流图。
简单说一下什么是张量,有一个炫酷高深的名词。
说白了就是几维的数据。一个数字是标量:0维,两个成对的是向量:1维,一个表格是矩阵:2维,向上还有3维4维的数据,成为n维数据,都可以称为张量,事实上经常将3维以上的称为张量。其实就是数据的一种格式。
Comments
Post a Comment