tensor flow 线性回归

# -*- coding: utf-8 -*-
"""
Spyder Editor

This is a temporary script file.
tensor flow 之线性回归模式
2019-oct-5
"""

import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt

SIZE=100
np.random.seed(100)#np随机种子
tf.set_random_seed(100)#tf随机种子
#1、构建数据
x=np.linspace(0,2,SIZE) #等差数列
noise_x=np.random.normal(loc=0.0,scale=1.0,size=SIZE) #‘随机正太分布 增加噪音
x=x+noise_x

y=8*x+8 #用于填充Y数组
noise_y=np.random.normal(loc=0.0,scale=1.1,size=SIZE)
y=y+noise_y

#2、设置为矩阵的模型
x.shape=(-1,1)
y.shape=(-1,1)

#3、构建一个模型 y=w*x+b 设置tf变量 用于训炼
w=tf.Variable(initial_value=tf.random_uniform(shape=[1],minval=-1.0,maxval=1.0,name=‘w‘))
b=tf.Variable(initial_value=tf.zeros(shape=[1],name=‘b‘))

#4、得到预测值
y_hat=w*x+b

#5、构建损失函数 loss
loss=tf.reduce_mean(tf.square(y_hat-y),name=‘loss‘) #损失函数 loss=聚合平均值(差的平方)

#6、梯度下降 优化损失函数 ,让其最小
optiomizer=tf.train.GradientDescentOptimizer(learning_rate=0.05)#初始化变量 及学习
train=optiomizer.minimize(loss=loss) #求最小损失函数 loss

#执行训练
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
run_w,run_b,run_loss=sess.run([w,b,loss])
print(‘w={},b={},loss={}‘.format(run_w,run_b,run_loss))

for i in range(100):#训练100次
sess.run(train)
run_w,run_b,run_loss=sess.run([w,b,loss])#取w,b,loss这三个东东的值 并打印展示
print(‘w={},b={},loss={}‘.format(run_w,run_b,run_loss))

#画表展示
#画线
x_hat=np.linspace(x.min(),x.max())
print("x_hat={}".format(x_hat))
y_hat2=run_w*x_hat+run_b
plt.plot(x_hat,y_hat2)
#画线
#画点
plt.plot(x,y,‘go‘) #go rs ro
#画点
plt.show()#显示

原文地址:https://www.cnblogs.com/tuozizhang/p/11623840.html

时间: 2024-10-25 14:45:08

tensor flow 线性回归的相关文章

Tensor flow 实战Google深度学习框架 笔记摘要Pone

<Tensor flow 实战Google深度学习框架>前三章的摘要(没有简介和环境搭建的部分) 摘要的内容是 与tensorflow 语句相关的知识 如有违规之类的请通知我啊 这个pdf 一般bd有 需要的可以私聊我 或者留下扣扣邮箱 欢迎指点 注:本来是要直接粘word 但是 word能粘截图 我就一个一个 传上来的   第一篇微博~~~ 1表示用户信息 结构化数据 .name:张三 .Id:12345 .Email:[email protected]   xml形式 <user&g

Tensor flow 实战Google深度学习框架 笔记Code Part

深层神经网络 线性模型的局限性 激活函数实现去线性化 a=tf.nn.relu(tf.matmul(x,w1)+biases1) y=tf.nn.relu(tf.matmul(a,w2)+biases2) 经典损失函数 #计算交叉熵 cross_entropy=-tf.reduce_mean( y_*tf.log(tf.clip_by_value(y,le-10,1.0))) #tf.clip_by_value 样例 v=tf.constant([1.0,2.0,3.0],[4.0,5.0,6.

在hadoop运行tensor flow

http://www.infoq.com/cn/articles/deeplearning-tensorflow-casestudy http://www.tuicool.com/articles/amq2qir

tensor flow 的两种padding方式

https://segmentfault.com/a/1190000007846181

tensor flow入门笔记

个人学习笔记,欢迎交流.

Tensor flow 实战Google深度学习框架 笔记摘要Pfour(二)

6.4经典卷积网络模型 LeNet-5模型 Inception-v3模型 6.5卷积神经网络迁移学习 原文地址:https://www.cnblogs.com/IAMzhuxiaofeng/p/8695959.html

机器学习之TensorFlow介绍

TensorFlow的概念很简单:使用python定义一个计算图,然后TensorFlow根据计算图生成高性能的c++代码. 如上图所示,使用图的方式实现了函数$f(x,y)=x^2y+y+2$的计算,在图中可以定义操作符和输入输出变量,基于此特性,TensorFlow能够实现分布式的计算,可以实现大量特征和实例的训练任务. 上图,显示了多个GPU计算的过程,TensorFlow有一下几个优点: 支持多平台,Windows, Linux,macOS,iOS,Android 提供了简单的pytho

15天倒计时:深度学习高端讲座免费听,最后200位赠教材名额!

深度学习是对使用多层神经网络过程进行机器学习的统称.目前已经被应用到图像识别,语音识别,自然语言处理,机器翻译等场景并取得了很好的行业应用效果. 由谷歌研发的新一代深度学习工具Tensor Flow,于2015年底正式向公众开源. Tensor Flow技术是当前最值钱,也是最便利的深度学习库! 目前已在谷歌.优步.京东.小米等公司中广泛应用! TensorFlow主要特性有: 使用灵活:TensorFlow是一个灵活的神经网络学习平台,采用图计算模型,支持High-Level的API,支持Py

这是一份很有诚意的2017 Google I/O大会的汇总 &amp; 解析

前言 在刚过去的凌晨(北京时间 5月18日 1.00-3.00),一年一度的2017年Google I/O大会在美国谷歌山景城海岸线圆形剧场如期举行 Google I/O 大会:Innovation in the Open,开放中创新,是Google官方举办的开发者大会 面向 开发者,会议内容是:更新和发布Google的新产品 & 技术 对比于网上内容相互复制.堆砌的Google I/O大会内容报道,这是一份很有诚意的 2017年 Google I/O大会的汇总 & 解析 目录 1. 20