Tensorflow 基础框架

待我称王封你为后i 2022-05-29 12:11 274阅读 0赞

Tensflow 基础框架

  1. 处理结构

1.1 计算图纸:Tensorflow 首先要定义神经网络的结构, 然后再把数据放入结构当中去运算和 training.

因为TensorFlow是采用数据流图(data flow graphs)来计算, 所以首先我们得创建一个数据流流图, 然后再将我们的数据(数据以张量(tensor)的形式存在)放在数据流图中计算. 节点(Nodes)在图中表示数学操作,图中的线(edges)则表示在节点间相互联系的多维数据数组, 即张量(tensor). 训练模型时tensor会不断的从数据流图中的一个节点flow到另一节点, 这就是TensorFlow名字的由来.

1.2 张量:

  • 张量有多种. 零阶张量为 纯量或标量 (scalar) 也就是一个数值. 比如 [1]
  • 一阶张量为 向量 (vector), 比如 一维的 [1, 2, 3]
  • 二阶张量为 矩阵 (matrix), 比如 二维的 [[1, 2, 3],[4, 5, 6],[7, 8, 9]]
  • 以此类推, 还有 三阶 三维的 …

1.3 例子

Tensorflow 是非常重视结构的, 我们得建立好了神经网络的结构, 才能将数字放进去, 运行这个结构.

这个例子简单的阐述了 tensorflow 当中如何用代码来运行我们搭建的结构.

  1. from __future__ import print_function
  2. import tensorflow as tf
  3. import numpy as np
  4. # create data #创建数据
  5. x_data = np.random.rand(100).astype(np.float32)
  6. y_data = x_data*0.1 + 0.3
  7. ### create tensorflow structure start ### # 搭建模型
  8. Weights = tf.Variable(tf.random_uniform([1], -1.0, 1.0))
  9. biases = tf.Variable(tf.zeros([1]))
  10. y = Weights*x_data + biases
  11. loss = tf.reduce_mean(tf.square(y-y_data)) #计算误差
  12. optimizer = tf.train.GradientDescentOptimizer(0.5) #传播误差
  13. train = optimizer.minimize(loss)
  14. ### create tensorflow structure end ###
  15. sess = tf.Session() #创建会话
  16. # tf.initialize_all_variables() no long valid from
  17. # 2017-03-02 if using tensorflow >= 0.12
  18. if int((tf.__version__).split('.')[1]) < 12 and int((tf.__version__).split('.')[0]) < 1:
  19. init = tf.initialize_all_variables() #初始化所有之前定义的 variable
  20. else:
  21. init = tf.global_variables_initializer()
  22. sess.run(init)
  23. for step in range(201): #逐步提升神经网络的预测准确性
  24. sess.run(train)
  25. if step % 20 == 0:
  26. print(step, sess.run(Weights), sess.run(biases))初始化所有之前定义的 variable
  27. else:
  28. init = tf.global_variables_initializer()
  29. sess.run(init)
  30. for step in range(201): #逐步提升神经网络的预测准确性
  31. sess.run(train)
  32. if step % 20 == 0:
  33. print(step, sess.run(Weights), sess.run(biases))
  1. Session

Session 是 Tensorflow 为了控制,和输出文件的执行的语句. 运行 session.run() 可以获得你要得知的运算结果, 或者是你所要运算的部分.

例子:建立两个 matrix ,输出两个 matrix 矩阵相乘的结果。因为 product 不是直接计算的步骤, 所以我们会要使用 Session 来激活 product 并得到计算结果. 有两种形式使用会话控制 Session

  1. import tensorflow as tf
  2. matrix1 = tf.constant([[3, 3]])
  3. matrix2 = tf.constant([[2],
  4. [2]])
  5. product = tf.matmul(matrix1, matrix2) # matrix multiply np.dot(m1, m2)
  6. # method 1
  7. sess = tf.Session()
  8. result = sess.run(product)
  9. print(result)
  10. sess.close() #需要手动关闭sess
  11. # method 2
  12. with tf.Session() as sess:
  13. result2 = sess.run(product)
  14. print(result2) #会自动关闭sess, 结果都是12
  1. Variable

在 Tensorflow 中,定义了某字符串是变量,它才是变量,这一点是与 Python 所不同的。

在 Tensorflow 中设定了变量,那么初始化变量是最重要的!!所以定义了变量以后, 一定要定义 init = tf.initialize_all_variables() .

  1. import tensorflow as tf
  2. state = tf.Variable(0, name='counter')
  3. #print(state.name)
  4. one = tf.constant(1) #定义常量one
  5. new_value = tf.add(state, one) #定义加法步骤(注:此步并没有直接计算)
  6. update = tf.assign(state, new_value) #将state更新成new_value
  7. # tf.initialize_all_variables() no long valid from
  8. # 2017-03-02 if using tensorflow >= 0.12
  9. if int((tf.__version__).split('.')[1]) < 12 and int((tf.__version__).split('.')[0]) < 1:
  10. init = tf.initialize_all_variables() #马上要废弃的写法
  11. else:
  12. init = tf.global_variables_initializer() #替换成这样更好
  13. with tf.Session() as sess: #激活变量
  14. sess.run(init)
  15. for _ in range(3):
  16. sess.run(update)
  17. print(sess.run(state)) #结果:1 2 3
  1. Placeholder 传入值(相当于模板)

placeholder 是 Tensorflow 中的占位符,暂时储存变量.Tensorflow 如果想要从外部传入data, 那就需要用到 tf.placeholder(), 然后以这种形式传输数据 sess.run(***, feed_dict={input: **}).

  1. import tensorflow as tf
  2. #在 Tensorflow 中需要定义 placeholder 的 type ,一般为 float32 形式
  3. input1 = tf.placeholder(tf.float32)
  4. input2 = tf.placeholder(tf.float32)
  5. # mul = multiply 是将input1和input2 做乘法运算,并输出为 output
  6. output = tf.multiply(input1, input2)
  7. #传值的工作交给了 sess.run() , 需要传入的值放在了feed_dict={}
  8. #并一一对应每一个 input. placeholder 与 feed_dict={} 是绑定在一起出现的
  9. with tf.Session() as sess:
  10. print(sess.run(output, feed_dict={input1: [7.], input2: [2.]}))
  11. #结果:14
  1. 激励函数

激励函数:”掰弯利器”, 处理非线性函数问题,要求可微分。特别多层神经网络下,万万不得随意选择利器,因为可能会涉及梯度爆炸、梯度消失的问题。常用:relu、tanh。

问题:https://blog.csdn.net/u012318074/article/details/78844789

https://bbs.csdn.net/topics/392336453

发表评论

表情:
评论列表 (有 0 条评论,274人围观)

还没有评论,来说两句吧...

相关阅读

    相关 TensorFlow基础

    深度学习在模式识别方向,尤其是在图像、声音、语音、语言和时间序列数据上表现出色。运用深度学习,你可以对数据进行分类、预测、聚类以及特征提取。2015年11月,谷歌发布了Tens

    相关 TensorFlow基础概念

    首先祝自己生日快乐!! 趁着大学最后的一点时间学习一点新的东西,希望自己能坚持下去。 这里记录一点这几天学习中记录下的一些概念以及注意点。 基础概念 计算图(g

    相关 Tensorflow基础

    一、基础概念 TensorFlow是一种采用数据流图(data flow graphs),用于数值计算的开源软件库。其中 Tensor 代表传递的数据为张量(多维数组),