机器学习与Tensorflow(1)——机器学习基本概念、tensorflow实现简单线性回归

一、机器学习基本概念

1.训练集和测试集

训练集(training set/data)/训练样例(training examples): 用来进行训练,也就是产生模型或者算法的数据集

测试集(testing set/data)/测试样例 (testing examples):用来专门进行测试已经学习好的模型或者算法的数据集

2.特征向量

特征向量(features/feature vector):属性的集合,通常用一个向量来表示,附属于一个实例

3.分类问题和回归问题

分类 (classification): 目标标记为类别型(离散型)数据(category)

回归(regression): 目标标记为连续性数值 (continuous numeric value)

4.机器学习分类

有监督学习(supervised learning): 训练集有类别标记(class label)

无监督学习(unsupervised learning): 无类别标记(class label)

半监督学习(semi-supervised learning):有类别标记的训练集 + 无标记的训练集

二、简单线性回归

基本概念:

  • 简单线性回归包含一个自变量(x)和一个因变量(y)
  • 被用来进行预测的变量叫做: 自变量(independent variable), x, 输入(input)
  • 被预测的变量叫做:因变量(dependent variable), y, 输出(output)
  • 以上两个变量的关系用一条直线来模拟

三、Tensorflow基本概念

1.使用图(graphs)来表示计算任务
2.在被称之为会话(Session)的上下文(context)中执行图
3.使用tensor(张量)表示数据
4.通过变量(Variable)来维护状态
5.使用feed和fetch可以为任何的操作赋值或者从其中获取数据

总结

  • Tensorflow是一个编程系统,使用图(graphs)来表示计算任务,
  • 图(graphs)中的节点称之为op(operation)
  • 一个op获得0个或者多个tensor(张量),执行计算,产生0个或者多个tensor。
  • tensor看作是一个n维的数组或者列表。
  • 图必须在会话(Session)里被启动。

#通过示意图来理解其中含义:

#通过程序来理解其中含义:

#这两句代码是防止警告(The TensorFlow library wasn‘t compiled to use AVX2 instructions, but these are available on your machine and could speed up CPU computations.)
import os
os.environ[‘TF_CPP_MIN_LOG_LEVEL‘] = ‘2‘
import tensorflow as tf
m1 = tf.constant([[3,3]])    #创建一个常量op
m2 = tf.constant([[2],[3]])   #创建一个常量op
product =tf.matmul(m1,m2)   #创建一个矩阵乘法op,并将m1和m2传入
sess = tf.Session()    #定义一个会话,启动默认图
result = sess.run(product)    #调用sess的run方法来执行矩阵乘法op,run(product)触发了图中的3个op
print(result)
sess.close   #关闭会话

#执行结果
[[15]]

#上述程序关于启动默认图有一个简单写法

sess = tf.Session()
result = sess.run(product)
print(result)
sess.close

等价表达方式:

with tf.Session() as sess:
    result = sess.run(product)
    print(result)

四、Tensorflow变量介绍

#变量介绍

import os
os.environ[‘TF_CPP_MIN_LOG_LEVEL‘] = ‘2‘
import tensorflow as tf
x = tf.Variable([1,2])     #创建一个变量op
a = tf.constant([3,3])      #创建一个常量op
sub_m = tf.subtract(x,a)     #创建一个减法op
add_m = tf.add(x,sub_m)     #创建一个加法op
init = tf.global_variables_initializer()    #变量初始化(要想使用变量,必须写这句代码)
with tf.Session() as sess:      #定义一个会话,启动默认图
    sess.run(init)             #触发变量op
    print(sess.run(sub_m))
    print(sess.run(add_m))

# 要想使用变量,必须进行变量初始化 

init = tf.global_variables_initializer()

#利用程序实现自增1

import os
os.environ[‘TF_CPP_MIN_LOG_LEVEL‘] = ‘2‘
import tensorflow as tf
state = tf.Variable(0,name=‘counter‘)     #创建一个变量op,并初始化为0
new_value = tf.add(state,1)        #创建一个op,作用是使state加1
update = tf.assign(state,new_value)    #赋值op
init = tf.global_variables_initializer()     #变量初始化
with tf.Session() as sess:
    sess.run(init)
    print(sess.run(state))
    for _ in range(5):
        sess.run(update)
        print(sess.run(state))

#执行结果
0
1
2
3
4
5

五、Tensorflow(fetch和feed)

fetch:在会话中可以运行多个op

#举例理解
import os
os.environ[‘TF_CPP_MIN_LOG_LEVEL‘] = ‘2‘
import tensorflow as tf
input1 = tf.constant(3.0)
input2 = tf.constant(2.0)
input3 = tf.constant(5.0)
add_m = tf.add(input2,input3)
mul = tf.multiply(input1,add_m)
with tf.Session() as sess:
    result = sess.run([mul,add_m])   #运行多个op
    print(result)
#执行结果
[21.0, 7.0]

feed:feed的数据以字典的形式传入

import os
os.environ[‘TF_CPP_MIN_LOG_LEVEL‘] = ‘2‘
import tensorflow as tf
input1 = tf.placeholder(tf.float32)
input2 = tf.placeholder(tf.float32)
output = tf.multiply(input1,input2)
with tf.Session() as sess:
    print(sess.run(output,feed_dict={input1:[8.],input2:[2.]}))    #feed:feed的数据以字典的形式传入

六、利用tensorflow 实现简单线性回归

import os
os.environ[‘TF_CPP_MIN_LOG_LEVEL‘] = ‘2‘
import tensorflow as tf
import numpy as np
#使用numpy生成100个随机点
x_data = np.random.rand(100)
y_data = x_data * 0.1 + 0.2
#构造一个线性模型
b = tf.Variable(0.0)
k = tf.Variable(0.0)
y = k * x_data + b
#二次代价函数
loss = tf.reduce_mean(tf.square(y_data-y))
#定义一个梯度下降算法来进行训练的优化器
optimizer = tf.train.GradientDescentOptimizer(0.2)
#最小化代价函数
train = optimizer.minimize(loss)
#初始化变量
init = tf.global_variables_initializer()
with tf.Session() as sess:
    sess.run(init)
    for step in range(201):
        sess.run(train)
        if step % 20 == 0:
            print(step,sess.run([k,b]))

#执行结果
0 [0.057367731, 0.1013036]
20 [0.10604427, 0.19655526]
40 [0.10355464, 0.19797418]
60 [0.10209047, 0.19880863]
80 [0.10122941, 0.19929935]
100 [0.10072301, 0.19958796]
120 [0.10042521, 0.19975767]
140 [0.10025007, 0.19985747]
160 [0.10014708, 0.19991617]
180 [0.10008651, 0.1999507]
200 [0.10005087, 0.19997101]

#训练200次后,k的值为0.10005087,接近0.1;b的值为0.19997101,接近0.2.

原文地址:https://www.cnblogs.com/guoruxin/p/10147888.html

时间: 2024-11-10 00:45:20

机器学习与Tensorflow(1)——机器学习基本概念、tensorflow实现简单线性回归的相关文章

横向对比三大分布式机器学习平台:Spark、PMLS、TensorFlow

2017-08-04 11:47 程序设计/谷歌/对比 选自muratbuffalo 作者:Murat Demirbas 参与:Panda 分布式机器学习是机器学习领域的一大主要研究方向.近日纽约州立大学布法罗分校计算机科学与工程教授.Petuum Inc. 顾问 Murat Demirbas 和他的两位学生一起发表了一篇对比现有分布式机器学习平台的论文,对 Spark.PMLS 和 TensorFlow 等平台的架构和性能进行了比较和介绍.Murat Demirbas 教授在论文公布后还发表了

TensorFlow【机器学习】:如何正确的掌握Google深度学习框架TensorFlow(第二代分布式机器学习系统)?

本文标签:   机器学习 TensorFlow Google深度学习框架 分布式机器学习 唐源 VGG REST   服务器 自 2015 年底开源到如今更快.更灵活.更方便的 1.0 版本正式发布,由 Google 推出的第二代分布式机器学习系统 TensorFlow一直在为我们带来惊喜,一方面是技术层面持续的迭代演进,从分布式版本.服务框架 TensorFlow Serving.上层封装 TF.Learn 到 Windows 支持.JIT 编译器 XLA.动态计算图框架 Fold 等,以及

使用tensorflow实现机器学习中的线性拟合

使用tensorflow实现机器学习中的线性拟合这个例子是模拟的单变量线性回归,通过提高单变量的阶数来增加特征数量,例如:4阶相当于分解为四个特征这种思想同样适用于多变量线性回归 import tensorflow as tf import numpy as np import matplotlib.pyplot as plt plt.rcParams['font.sans-serif']=['FangSong'] # 用来正常显示中文标签 plt.rcParams['axes.unicode_

Tensorflow一些常用基本概念与函数(四)

摘要:本系列主要对tf的一些常用概念与方法进行描述.本文主要针对tensorflow的模型训练Training与测试Testing等相关函数进行讲解.为'Tensorflow一些常用基本概念与函数'系列之四. 1.序言 本文所讲的内容主要为以下列表中相关函数.函数training()通过梯度下降法为最小化损失函数增加了相关的优化操作,在训练过程中,先实例化一个优化函数,比如 tf.train.GradientDescentOptimizer,并基于一定的学习率进行梯度优化训练: optimize

Tensorflow一些常用基本概念与函数(三)

摘要:本系列主要对tf的一些常用概念与方法进行描述.本文主要针对tensorflow的数据IO.图的运行等相关函数进行讲解.为'Tensorflow一些常用基本概念与函数'系列之三. 1.序言 本文所讲的内容主要为以下相关函数: 操作组 操作 Data IO (Python functions) TFRecordWrite,rtf_record_iterator Running Graphs Session management,Error classes 2.tf函数 2.1 数据IO {Da

台大机器学习基石课程之机器学习基本原理和概念

前段时间在网上看到了coursera公开课台大机器学习基石课程,比较全面而且清晰地将机器学习所需的基本知识.理论基础给与了讲解.foundation中有几个比较重要的概念和思想,先进行一下回顾,然后开启对后续技法课程的学习和总结. 1. VC dimension(VC维,非常重要的概念) 能够shutter 二分类问题的上限.也是衡量模型复杂度的工具(类似自由度的概念).之所以这个概念比较重要是它能够解释为什么机器能够学习. 1),以概率统计中常用的手段:用sample来估计整体,机器学习也是如

Tensorflow一些常用基本概念与函数

转载: https://blog.csdn.net/lenbow/article/details/52152766 1.tensorflow的基本运作 为了快速的熟悉TensorFlow编程,下面从一段简单的代码开始: import tensorflow as tf #定义'符号'变量,也称为占位符 a = tf.placeholder("float") b = tf.placeholder("float")   y = tf.mul(a, b) #构造一个op节点

机器学习系列(7)_机器学习路线图(附资料)

作者: 龙心尘 && 寒小阳 时间:2016年2月. 出处:http://blog.csdn.net/longxinchen_ml/article/details/50749614 http://blog.csdn.net/han_xiaoyang/article/details/50759472 声明:版权所有,转载请联系作者并注明出处 1. 引言 也许你和这个叫『机器学习』的家伙一点也不熟,但是你举起iphone手机拍照的时候,早已习惯它帮你框出人脸:也自然而然点开今日头条推给你的新闻

Tensorflow教程(1)Tensorflow的下载和安装

人工智能已经成为了目前的大趋势,作为程序员的我们也应该跟着时代进步.Tensorflow作为人工智能领域的重要工具,被广泛的使用在机器学习的应用当中. Tensorflow使用人数众多.社区完善,所以我们可以把学习Tensorflow作为接触人工智能的第一步,闲话不多说,我们进入正题! 本套系列课程旨在记录我学习Tensorflow的过程,我会用更简洁的语言来与大家分享我的学习心得,所有文章我都会不间断的更新完善,文章中有不正确的地方,请大家指正,共同学习! 一.安装Python 安装Pytho