tensorflow.一些概念01

1、平方差
(a+b)(a-b) = a² - b²

2、均方差

方差

3、交叉熵

均方差 交叉熵 方差

4、

5、

6、资料:

A、方差,平方差,标准差的公式是什么?_百度知道.html(https://zhidao.baidu.com/question/688221660902304484.html)

  方差是各个数据与平均数之差的平方的和的平均数,公式为:

	s² = 1/n * [(x? - x)² + (x? - x)² + ... + (x? - x)² ]
  其中,x表示样本的平均数,n表示样本的数量,xi表示个体,而s^2就表示方差。

  平方差:a²-b²=(a+b)(a-b)。文字表达式:两个数的和与这两个数的差的积等于这两个数的平方差。此即平方差公式

  标准差:标准差=sqrt(((x1-x)^2 +(x2-x)^2 +......(xn-x)^2)/n)。是离均差平方的算术平均数的平方根,用σ表示。在概率统计中最常使用作为统计分布程度上的测量。标准差是方差的算术平方根。标准差能反映一个数据集的离散程度。

B、标准差_百度百科.html(https://baike.baidu.com/item/%E6%A0%87%E5%87%86%E5%B7%AE/1415772?fr=aladdin)

  标准差(Standard Deviation) ,中文环境中又常称均方差,是离均差平方的算术平均数的平方根,用σ表示。在概率统计中最常使用作为统计分布程度上的测量。标准差是方差的算术平方根。标准差能反映一个数据集的离散程度。平均数相同的两组数据,标准差未必相同。

C、为什么均方差(MSE)不适合分类问题?交叉熵(cross-entropy)不适合回归问题?_weixin_41888969的博客-CSDN博客.html(https://blog.csdn.net/weixin_41888969/article/details/89450163)
  交叉熵与均方差_DawnRanger的专栏-CSDN博客.html(https://blog.csdn.net/dawnranger/article/details/78031793)

7、资料:

Z、σ怎么读_百度知道.html(https://zhidao.baidu.com/question/332467470.html)

希腊字母读音
1、Α α:阿尔法 Alpha2、Β β:贝塔 Beta3、Γ γ:伽玛 Gamma4、Δ δ:德尔塔 Delte    ZC: 翻译 :delta 美 [‘delt?] 英 [‘delt?]5、Ε ε:艾普西龙 Epsilon6、Ζ ζ :捷塔 Zeta7、Ε η:依塔 Eta8、Θ θ:西塔 Theta9、Ι ι:艾欧塔 Iota10、Κ κ:喀帕 Kappa11、∧ λ:拉姆达 Lambda12、Μ μ:缪 Mu13、Ν ν:拗 Nu14、Ξ ξ:克西 Xi15、Ο ο:欧麦克轮 Omicron16、∏ π:派 Pi17、Ρ ρ:柔 Rho18、∑ σ:西格玛 Sigma19、Τ τ:套 Tau20、Υ υ:宇普西龙 Upsilon21、Φ φ:fai Phi22、Χ χ:器 Chi23、Ψ ψ:普赛 Psi24、Ω ω:欧米伽 Omega

8、

9、

10、

原文地址:https://www.cnblogs.com/pythonzc/p/12233629.html

时间: 2024-11-08 20:35:39

tensorflow.一些概念01的相关文章

深度学习框架之TensorFlow的概念及安装(ubuntu下基于pip的安装,IDE为Pycharm)

2015年11月9日,Google发布人工智能系统TensorFlow并宣布开源. 1.TensorFlow的概念 TensorFlow 是使用数据流图进行数值计算的开源软件库.也就是说,TensorFlow 使用图(graph)来表示计算任务.图中的节点表示数学运算,边表示运算之间用来交流的多维数组(也就是tensor,张量).TensorFlow 灵活的架构使得你可以将计算过程部署到一个或多个CPU或GPU上. TensorFlow 最初是由 Google Brain Team 的研究人员和

TensorFlow核心概念及基本使用

TensorFlow核心概念 综述:TensorFlow中的计算可以表示为一个有向图,或称计算图,其中每一个运算操作将作为一个节点,节点间的链接叫做边.这个计算图描述了数据的计算流程,它也负责维护和更新状态,用户可以对计算图的分支进行条件控制和循环操作.计算图中的每一个节点可以有任意多个输入和输出,每一个节点描述了一种运算操作,节点可以算是运算操作的实例化.在计算图的边中流动的的数据被称为张量. 1.计算图 TensorFlow是一个通过计算图的形式来表述计算的编程系统.每一个计算都是计算图的一

Tensorflow学习笔记01

Tensorflow官方网站:http://tensorflow.org/ 极客学院Tensorflow中文版:http://wiki.jikexueyuan.com/project/tensorflow-zh/ 使用Tensorflow写的第一个示例程序,用来做线性回归 import tensorflow as tf import numpy as np #create data x_data=np.random.rand(100).astype(np.float32) y_data=x_da

tensorflow核心概念之op

TF中的op代表了对"操作"的抽象,说它抽象是因为,op仅仅说明了操作是做什么用的,但没有说明具体怎么做.举个例子,MatMul是一个操作,它表示了矩阵乘法,但并不包含矩阵乘法的具体实现,因为我们知道,在CPU和GPU上,矩阵乘法的高效率实现是完全不同的.为了把不同设备上的实现细节隐藏起来,为相同的计算提供统一的对外表示,TF提出了op的概念. 为了方便序列化,TF中很多核心概念定义在proto文件中,操作的定义OpDef放在op.proto(/tensorflow/core/fram

Docker的三大核心概念-01

Docker的三大核心为:镜像.容器.仓库.下面简单的介绍一下这三大核心概念. 1.docker镜像(image) 镜像是创建docker容器的基础,docker镜像类似于虚拟机镜像,可以将它理解为一个面向docker引擎的只读模块,包含文件系统. 创建镜像有三种方法: (1)基于已有镜像的容器创建.主要是利用docker commit命令. (2)基于本地模板导入.推荐利用OpenVZ提供的模板来创建. (3)基于dockerfile创建.首先按照dockerfile的格式,编写好docker

TensorFlow 基本概念

一.概述 使用图(graph)来表示计算任务 在会话(Session)的上下文(context)中执行图(graph) 使用tensor表示数据 通过 变量(Variable)维护状态 使用 feed 和fetch可为任意的操作(arbitrary opertaion)赋值或者从其中获取数据: TensorFlow使用图来表示计算任务,图中的节点被称之为op(operation的缩写),一个op获得N个Tensor,执行计算,产生N个Tensor.每个Tensor是一个类型化的多维数组. 例如,

TensorFlow 基础概念

(未完待续) 1Session 我们先定义要执行的结构: matrix1 = tf.constant([3,3]) matrix2 = tf.constant([[2],[2]]) product = tf.matmul(matrix1,matrix2) session使用方法1 sess = tf.Session() result = sess.run(product) print(result) sess.close() session使用方法2 with tf.Session as ses

【TensorFlow】(01)线性回归

特别说明 代码地址:Github 环境说明 平台:WIN10(教育版) 环境:Anaconda5.2(Python3.6.6) IDE:Pacharm2018.2.3(专业版) TensorFlow:1.8.0(CPU) 任务目标 实现线性回归模型 代码实现 代码解析   1-2:导入必要库NumPy.matplotlib   3:导入tensorflow   5-8:设置超参数:学习率.迭代次数.训练集比例 10-17:生成数据,并拆分数据集,自定义预测样本 20-21:设置样本占位符,为样本

网络基础概念01

什么是网络. 网络主要是指跨越短距离和长距离与计算机连接所涉及的所有组件(硬件和软件)的集合.网络用来提供对信息的轻松访问从而为用户提高生产力. 网络的组成. 硬件:要建立一个网络,需要三种类型的设备或者组件:计算机,网络设备和线缆. 软件:应用程序是连网的主要组件之一,它使用户能够完成各种任务. 网络拓扑结构. 用线缆连接计算机和连网设备时,可以用各种类型的拓扑结构.那么什么是网络拓扑结构呢?拓扑定义了设备的连接方式. 常用的拓扑结构有: 网络的类型. 络的类型很多,最为常见的网络是局域网和广