Tensorflow 创建神经网络



一个神经网络系统,由很多层组成,输入层用来接收信息,中间层加工处理输入信息,输出层就是计算机对这个输入信息的认知。

https://www.jianshu.com/p/e112012a4b2d

搭建神经网络基本流程

定义添加神经层的函数

1.训练的数据
2.定义节点准备接收数据
3.定义神经层:隐藏层和预测层
4.定义 loss 表达式
5.选择 optimizer 使 loss 达到最小

然后对所有变量进行初始化,通过 sess.run optimizer,迭代 1000 次进行学习:

import tensorflow as tf
import numpy as np

def add_layer(inputs,in_size,out_size,activation_fuction = None):

    Weight = tf.Variable(tf.random.normal([in_size,out_size]))
    biases  = tf.Variable(tf.zeros([1,out_size])+0.1)
    wx = tf.matmul(inputs,Weight)+biases

    if activation_fuction is None:
        output = wx
    else :
        output = activation_fuction(wx)
    return output 

x_data = np.linspace(-1,1,300)[:, np.newaxis]
noise = np.random.normal(0,0.05,x_data.shape)
y_data = np.square(x_data)-0.5+noise

xs = tf.placeholder(tf.float32, [None, 1])
ys = tf.placeholder(tf.float32, [None, 1])
hidden = add_layer(xs,1,10,activation_fuction =tf.nn.relu)
prediction = add_layer(hidden,10,1,activation_fuction = None)

loss = tf.reduce_mean(tf.reduce_sum(tf.square(prediction - ys),reduction_indices=[1]))
train = tf.train.GradientDescentOptimizer(0.2).minimize(loss)

init = tf.global_variables_initializer()

with tf.Session() as sess:
    sess.run(init)
    for i in range(1000):
#   # training train_step 和 loss 都是由 placeholder 定义的运算,所以这里要用 feed 传入参数
        sess.run(train, feed_dict={xs: x_data, ys: y_data})
        if i%50 == 0:
            print(sess.run(loss,feed_dict={xs:x_data,ys:y_data}))
    

原文地址:https://www.cnblogs.com/gaona666/p/12632897.html

时间: 2024-08-05 11:33:39

Tensorflow 创建神经网络的相关文章

Tensorflow 创建神经网络(二)可视化

将训练过程可视化出来 import tensorflow as tf import numpy as np import matplotlib.pyplot as plt # 去掉警告 import warnings warnings.filterwarnings("ignore",".*GUI is implemented.*") import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' def add_layer(in

用 TensorFlow 创建自己的 Speech Recognizer

参考资料 源码请点:https://github.com/llSourcell/tensorf- 语音识别无处不在,siri,google,讯飞输入法,讯飞语记,智能家居,车,etc. 每天都在用的,很好奇它是怎么实现的,今天来看看这么便利的东东到底是什么样子呢. 进化史 最开始的 speech recognizer 只能识别 0-9 这几个数字,说别的单词是识别不了滴. 后来有一个叫做 DARPA 的梦想家 team 孜孜不倦地研究. 他们用 15000 个节点代表可能的发音,然后用暴力搜索

用Tensorflow让神经网络自动创造音乐

前几天看到一个有意思的分享,大意是讲如何用Tensorflow教神经网络自动创造音乐.听起来好好玩有木有!作为一个Coldplay死忠粉,第一想法就是自动生成一个类似Coldplay曲风的音乐,于是,开始跟着Github上的教程(项目的名称:Project Magenta)一步一步做,弄了三天,最后的生成的音乐在这里(如果有人能告诉我怎么在博客里插入音乐请赶快联系我!谢谢!) 第一首:Magenta Melody Result1.mp3 http://yun.baidu.com/share/li

使用 TensorFlow 实现神经网络

介绍 一直关注 数据科学 . 机器学习 的同学,一定会经常看到或听到关于 深度学习 和 神经网络 相关信息.如果你对 深度学习 感兴趣,但却还没有实际动手操作过,你可以从这里得到实践. 在本文中,我将介绍 TensorFlow ,?帮你了解 神经网络 的实际作用,并使用 TensorFlow 来解决现实生活中的问题.?读这篇文章前,需要知道 神经网络 的基础知识和一些熟悉编程理念,文章中的代码是使用 Pyhton 编写的,所以还需要了解一些 Python 的基本语法,才能更有利对于文章的理解.

【零基础】使用Tensorflow实现神经网络

一.序言 前面已经逐步从单神经元慢慢“爬”到了神经网络并把常见的优化都逐个解析了,再往前走就是一些实际应用问题,所以在开始实际应用之前还得把“框架”翻出来,因为后面要做的工作需要我们将精力集中在业务而不是网络本身,所以使用框架可以减少非常多的工作量,有了前面自己实现神经网络的经验,现在理解框架的一些设置也比较容易了.本篇我们就使用比较常见的Tensorflow来重置一下前面的工作. 备注一下Tensorflow的安装: 1)安装python3.6,高版本不支持 2)pip install ten

(转)一文学会用 Tensorflow 搭建神经网络

一文学会用 Tensorflow 搭建神经网络 本文转自:http://www.jianshu.com/p/e112012a4b2d 字数2259 阅读3168 评论8 喜欢11 cs224d-Day 6: 快速入门 Tensorflow 本文是学习这个视频课程系列的笔记,课程链接是 youtube 上的,讲的很好,浅显易懂,入门首选, 而且在github有代码,想看视频的也可以去他的优酷里的频道找. Tensorflow 官网 神经网络是一种数学模型,是存在于计算机的神经系统,由大量的神经元相

paper 75:使用MATLAB的神经网络工具箱创建神经网络

% 生成训练样本集 clear all; clc; P=[110 0.807 240 0.2 15 1 18 2 1.5; 110 2.865 240 0.1 15 2 12 1 2; 110 2.59 240 0.1 12 4 24 1 1.5; 220 0.6 240 0.3 12 3 18 2 1; 220 3 240 0.3 25 3 21 1 1.5; 110 1.562 240 0.3 15 3 18 1 1.5; 110 0.547 240 0.3 15 1 9 2 1.5]; 0

Tensorflow卷积神经网络[转]

Tensorflow卷积神经网络 卷积神经网络(Convolutional Neural Network, CNN)是一种前馈神经网络, 在计算机视觉等领域被广泛应用. 本文将简单介绍其原理并分析Tensorflow官方提供的示例. 关于神经网络与误差反向传播的原理可以参考作者的另一篇博文BP神经网络与Python实现. 工作原理 卷积是图像处理中一种基本方法. 卷积核是一个nxn的矩阵通常n取奇数, 这样矩阵就有了中心点和半径的概念. 对图像中每个点取以其为中心的n阶方阵, 将该方阵与卷积核中

tensorflow之神经网络实现流程总结

tensorflow之神经网络实现流程总结 1.数据预处理preprocess 2.前向传播的神经网络搭建(包括activation_function和层数) 3.指数下降的learning_rate 4.参数的指数滑动平均EMA 5.防止过拟合的正则化regularization 6.loss损失函数构造(loss_ + regularization) 7.后向传播和梯度下降(learning_rate + loss) 8.评价函数的构造(accuracy + EMA) 9.run 模型(用v