Tensorflow机器学习入门——常量、变量、placeholder和基本运算

一、这里列出了tensorflow的一些基本函数,比较全面:https://blog.csdn.net/M_Z_G_Y/article/details/80523834

二、这里是tensortflow的详细教程:http://c.biancheng.net/tensorflow/

三、下面程序是我学习常量、变量、placeholder和基本运算时形成的小函数

import tensorflow as tf

print(tf.__version__)#打印Tensorflow版本
print(tf.__path__)#打印Tensorflow安装路径

#3第一个tensorflow程序
def test3():
    message = tf.constant(‘Welcome to the exciting world of Deep Neural Networks!‘)
    with tf.Session() as sess:
        print(sess.run(message).decode())

#4程序结构
def test4():
    v_1=tf.constant([1,3,4,5])
    v_2=tf.constant([2,3,4,5])
    v_add=tf.add(v_1,v_2)
    with tf.Session() as sess:
        print(sess.run(v_add))
#5_1常量
def test5_1():
    con1 = tf.constant([4,3,2])
    zeros1= tf.zeros([2,3],tf.int32)
    zeros2=tf.zeros_like(con1)
    ones1=tf.ones([2,3],tf.int32)
    ones2=tf.ones_like(con1)
    nine1=tf.fill([2, 3], 9.0)
    diag= tf.diag([1.0, 2.0, 3.0])
    line1 = tf.linspace(2.0,5.0,5)
    range1= tf.range(10)
    random1=tf.random_normal([2,3],mean=2,stddev=4,seed=12)#正态分布随机数组
    random2=tf.truncated_normal([2,3],stddev=3,seed=12)#结尾正态随机分布数组
    add1=tf.add(con1,zeros1)
    with tf.Session() as sess:
        print(‘con1:\n‘,sess.run(con1))
        print(‘zeros1:\n‘,sess.run(zeros1))
        print(‘zeros2:\n‘,sess.run(zeros2))
        print(‘ones1:\n‘,sess.run(ones1))
        print(‘ones2:\n‘,sess.run(ones2))
        print(‘line1:\n‘,sess.run(line1))
        print(‘range1:\n‘,sess.run(range1))
        print(‘random1:\n‘,sess.run(random1))
        print(‘random2:\n‘,sess.run(random2))
        print(‘add1:\n‘,sess.run(add1))

#5_2变量
def test5_2():
    matrix1=tf.Variable(tf.random_uniform([2,2],0,10,seed=0),name=‘weights‘)
    matrix2=tf.Variable(tf.random_uniform([2,2],0,10,seed=1),name=‘weights‘)
    add=tf.add(matrix1,matrix2)#加法
    subtract=tf.subtract(matrix1,matrix2)#减法
    product1= tf.matmul(matrix1,matrix2)#矩阵相乘
    product2=tf.scalar_mul(2,matrix1)#标量*矩阵
    product3=matrix1*matrix2#对应元素相乘,等同于tf.multiply()
    div=tf.div(matrix1,matrix2)#对应元素相除
    mod=tf.mod(matrix1,matrix2)#对应元素取模
    init = tf.global_variables_initializer()
    with tf.Session() as sess:
        sess.run(init)
        print(‘matrix1:\n‘,sess.run(matrix1))
        print(‘matrix2:\n‘,sess.run(matrix2))
        print(‘add:\n‘,sess.run(add))
        print(‘subtract:\n‘,sess.run(subtract))
        print(‘product1:\n‘,sess.run(product1))
        print(‘product2:\n‘,sess.run(product2))
        print(‘product3:\n‘,sess.run(product3))
        print(‘div:\n‘,sess.run(div))
        print(‘mod:\n‘,sess.run(mod))

#5_3Placeholder
def test5_3():
    x=tf.placeholder(tf.float32,[None,5])
    y=x*2
    data=tf.random_uniform([4,5],0,10)
    with tf.Session() as sess:
        x_data=sess.run(data)
        print(sess.run(y,feed_dict={x:x_data}))

test5_2()

原文地址:https://www.cnblogs.com/Fengqiao/p/tensorflow_1.html

时间: 2024-09-30 16:39:06

Tensorflow机器学习入门——常量、变量、placeholder和基本运算的相关文章

机器学习入门——单变量线性回归

线性回归的概念,在高中数学书里就出现过. 给你一些样本点,如何找出一条直线,使得最逼近这些样本点. 给出一个例子:假设 x 是房子面积,y是房子价格,确定一条直线需要theta0和theta1. 给出x,我们就可以计算出房子的价格 h(x) = theta0+theta1*x 关键是如何计算出theta0和theta1,也就是如何找出这么一条直线呢? 在这里,引入一个概念,叫做cost function.m表示样本个数,也就是训练样本数目 这是一个square error,学过统计的应该经常见到

Tensorflow机器学习入门——网络可视化TensorBoard

一.在代码中给变量和操作命名并输出Graph到指定的文件夹 import tensorflow as tf import numpy as np import matplotlib.pyplot as plt import os #设置当前工作目录 os.chdir(r'H:\Notepad\Tensorflow') def add_layer(inputs, in_size, out_size, activation_function=None): with tf.name_scope('la

Tensorflow机器学习入门——读取数据

TensorFlow 中可以通过三种方式读取数据: 一.通过feed_dict传递数据: input1 = tf.placeholder(tf.float32) input2 = tf.placeholder(tf.float32) output = tf.multiply(input1, input2) with tf.Session() as sess: feed_dict={input1: [[7.,2.]], input2: [[2.],[3.]]} print(sess.run(out

Java 入门 常量,变量

入门程序说明 编译和运行是两回事         编译 :是指将我们编写的Java源文件翻译成JVM认识的class文件,在这个过程中, javac 编译器会检查我们所写的程序是否有错误,有错误就会提示出来,如果没有错误就会编译成功.         运行 :是指将 class 文件 交给JVM去运行,此时JVM就会去执行我们编写的程序了. 关于main方法         main 方法:称为主方法.写法是固定格式不可以更改.main方法是程序的入口点或起始点,无论我们编写多少程序,JVM在运

Tensorflow机器学习入门——MINIST数据集识别(卷积神经网络)

#自动下载并加载数据 from tensorflow.examples.tutorials.mnist import input_data mnist = input_data.read_data_sets("MNIST_data/", one_hot=True) import tensorflow as tf # truncated_normal: https://www.cnblogs.com/superxuezhazha/p/9522036.html def weight_var

Tensorflow机器学习入门——cifar10数据集的读取、展示与保存

基本信息 官网:http://www.cs.toronto.edu/~kriz/cifar.html 共60000张图片:50000张用于训练.10000张用于测试 图片大小为:32X32 数据集图片分为10类:每类6000张 数据集下载解压后的目录结构: 读取.打印和保存数据集中指定的图片: import pickle import matplotlib.pyplot as plt CIFAR_DIR ="cifar10_data/cifar-10-batches-bin/data_batch

Tensorflow快速入门2--实现手写数字识别

Tensorflow快速入门2–实现手写数字识别 环境: 虚拟机ubuntun16.0.4 Tensorflow(仅使用cpu版) Tensorflow安装见: http://blog.csdn.net/yhhyhhyhhyhh/article/details/54429034 或者: http://www.tensorfly.cn/tfdoc/get_started/os_setup.html 本文将利用Tensorflow以softmax回归和卷积神经网络两种模型简单测试MNIST数据集,快

机器学习入门实践——线性回归&非线性回归&mnist手写体识别

把一本<白话深度学习与tensorflow>给啃完了,了解了一下基本的BP网络,CNN,RNN这些.感觉实际上算法本身不是特别的深奥难懂,最简单的BP网络基本上学完微积分和概率论就能搞懂,CNN引入的卷积,池化等也是数字图像处理中比较成熟的理论,RNN使用的数学工具相对而言比较高深一些,需要再深入消化消化,最近也在啃白皮书,争取从数学上把这些理论吃透 当然光学理论不太行,还是得要有一些实践的,下面是三个入门级别的,可以用来辅助对BP网络的理解 环境:win10 WSL ubuntu 18.04

机器学习入门:线性回归及梯度下降

机器学习入门:线性回归及梯度下降 本文会讲到: (1)线性回归的定义 (2)单变量线性回归 (3)cost function:评价线性回归是否拟合训练集的方法 (4)梯度下降:解决线性回归的方法之一 (5)feature scaling:加快梯度下降执行速度的方法 (6)多变量线性回归   Linear Regression 注意一句话:多变量线性回归之前必须要Feature Scaling! 方法:线性回归属于监督学习,因此方法和监督学习应该是一样的,先给定一个训练集,根据这个训练集学习出一个