通过DCGAN进行生成花朵

环境是你要安装Keras和Tensorflow

先来个network.py,里面定义了生成器网络和鉴别器网络:

 1 # -*- coding: UTF-8 -*-
 2
 3 """
 4 DCGAN 深层卷积的生成对抗网络
 5 """
 6
 7 import tensorflow as tf
 8
 9 # Hyper parameter(超参数)
10 EPOCHS = 100
11 BATCH_SIZE = 128
12 LEARNING_RATE = 0.0002
13 BETA_1 = 0.5
14
15
16 # 定义判别器模型
17 def discriminator_model():
18     model = tf.keras.models.Sequential()
19
20     model.add(tf.keras.layers.Conv2D(
21         64,  # 64 个过滤器,输出的深度(depth)是 64
22         (5, 5),  # 过滤器在二维的大小是(5 * 5)
23         padding=‘same‘,  # same 表示输出的大小不变,因此需要在外围补零2圈
24         input_shape=(64, 64, 3)  # 输入形状 [64, 64, 3]。3 表示 RGB 三原色
25     ))
26     model.add(tf.keras.layers.Activation("tanh"))  # 添加 Tanh 激活层
27     model.add(tf.keras.layers.MaxPool2D(pool_size=(2, 2)))  # 池化层
28     model.add(tf.keras.layers.Conv2D(128, (5, 5)))
29     model.add(tf.keras.layers.Activation("tanh"))
30     model.add(tf.keras.layers.MaxPool2D(pool_size=(2, 2)))
31     model.add(tf.keras.layers.Conv2D(128, (5, 5)))
32     model.add(tf.keras.layers.Activation("tanh"))
33     model.add(tf.keras.layers.MaxPool2D(pool_size=(2, 2)))
34     model.add(tf.keras.layers.Flatten())  # 扁平化
35     model.add(tf.keras.layers.Dense(1024))  # 1024 个神经元的全连接层
36     model.add(tf.keras.layers.Activation("tanh"))
37     model.add(tf.keras.layers.Dense(1))  # 1 个神经元的全连接层
38     model.add(tf.keras.layers.Activation("sigmoid"))  # 添加 Sigmoid 激活层
39
40     return model
41
42
43 # 定义生成器模型
44 # 从随机数来生成图片
45 def generator_model():
46     model = tf.keras.models.Sequential()
47     # 输入的维度是 100, 输出维度(神经元个数)是1024 的全连接层
48     model.add(tf.keras.layers.Dense(input_dim=100, units=1024))
49     model.add(tf.keras.layers.Activation("tanh"))
50     model.add(tf.keras.layers.Dense(128 * 8 * 8))  # 8192 个神经元的全连接层
51     model.add(tf.keras.layers.BatchNormalization())  # 批标准化
52     model.add(tf.keras.layers.Activation("tanh"))
53     model.add(tf.keras.layers.Reshape((8, 8, 128), input_shape=(128 * 8 * 8, )))  # 8 x 8 像素
54     model.add(tf.keras.layers.UpSampling2D(size=(2, 2)))  # 16 x 16像素
55     model.add(tf.keras.layers.Conv2D(128, (5, 5), padding="same"))
56     model.add(tf.keras.layers.Activation("tanh"))
57     model.add(tf.keras.layers.UpSampling2D(size=(2, 2)))  # 32 x 32像素
58     model.add(tf.keras.layers.Conv2D(128, (5, 5), padding="same"))
59     model.add(tf.keras.layers.Activation("tanh"))
60     model.add(tf.keras.layers.UpSampling2D(size=(2, 2)))  # 64 x 64像素
61     model.add(tf.keras.layers.Conv2D(3, (5, 5), padding="same"))
62     model.add(tf.keras.layers.Activation("tanh"))
63
64     return model
65
66
67 # 构造一个 Sequential 对象,包含一个 生成器 和一个 判别器
68 # 输入 -> 生成器 -> 判别器 -> 输出
69 def generator_containing_discriminator(generator, discriminator):
70     model = tf.keras.models.Sequential()
71     model.add(generator)
72     discriminator.trainable = False  # 初始时 判别器 不可被训练
73     model.add(discriminator)
74     return model

接着我们写个训练模型的文件,train..py

 1 # -*- coding: UTF-8 -*-
 2
 3 """
 4 训练 DCGAN
 5 """
 6
 7 import os
 8 import glob
 9 import numpy as np
10 from scipy import misc
11 import tensorflow as tf
12
13 from network import *
14
15
16 def train():
17     # 确保包含所有图片的 images 文件夹在所有 Python 文件的同级目录下
18     # 当然了,你也可以自定义文件夹名和路径
19     if not os.path.exists("images"):
20         raise Exception("包含所有图片的 images 文件夹不在此目录下,请添加")
21
22     # 获取训练数据
23     data = []
24     for image in glob.glob("images/*"):
25         image_data = misc.imread(image)  # imread 利用 PIL 来读取图片数据
26         data.append(image_data)
27     input_data = np.array(data)
28
29     # 将数据标准化成 [-1, 1] 的取值, 这也是 Tanh 激活函数的输出范围
30     input_data = (input_data.astype(np.float32) - 127.5) / 127.5
31
32     # 构造 生成器 和 判别器
33     g = generator_model()
34     d = discriminator_model()
35
36     # 构建 生成器 和 判别器 组成的网络模型
37     d_on_g = generator_containing_discriminator(g, d)
38
39     # 优化器用 Adam Optimizer
40     g_optimizer = tf.keras.optimizers.Adam(lr=LEARNING_RATE, beta_1=BETA_1)
41     d_optimizer = tf.keras.optimizers.Adam(lr=LEARNING_RATE, beta_1=BETA_1)
42
43     # 配置 生成器 和 判别器
44     g.compile(loss="binary_crossentropy", optimizer=g_optimizer)
45     d_on_g.compile(loss="binary_crossentropy", optimizer=g_optimizer)
46     d.trainable = True
47     d.compile(loss="binary_crossentropy", optimizer=d_optimizer)
48
49     # 开始训练
50     for epoch in range(EPOCHS):
51         for index in range(int(input_data.shape[0] / BATCH_SIZE)):
52             input_batch = input_data[index * BATCH_SIZE : (index + 1) * BATCH_SIZE]
53
54             # 连续型均匀分布的随机数据(噪声)
55             random_data = np.random.uniform(-1, 1, size=(BATCH_SIZE, 100))
56             # 生成器 生成的图片数据
57             generated_images = g.predict(random_data, verbose=0)
58
59             input_batch = np.concatenate((input_batch, generated_images))
60             output_batch = [1] * BATCH_SIZE + [0] * BATCH_SIZE
61
62             # 训练 判别器,让它具备识别不合格生成图片的能力
63             d_loss = d.train_on_batch(input_batch, output_batch)
64
65             # 当训练 生成器 时,让 判别器 不可被训练
66             d.trainable = False
67
68             # 重新生成随机数据。很关键
69             random_data = np.random.uniform(-1, 1, size=(BATCH_SIZE, 100))
70
71             # 训练 生成器,并通过不可被训练的 判别器 去判别
72             g_loss = d_on_g.train_on_batch(random_data, [1] * BATCH_SIZE)
73
74             # 恢复 判别器 可被训练
75             d.trainable = True
76
77             # 打印损失
78             print("Epoch {}, 第 {} 步, 生成器的损失: {:.3f}, 判别器的损失: {:.3f}".format(epoch, index, g_loss, d_loss))
79
80         # 保存 生成器 和 判别器 的参数
81         # 大家也可以设置保存时名称不同(比如后接 epoch 的数字),参数文件就不会被覆盖了
82         if epoch % 1 == 0:
83             g.save_weights("./generator_weight.h5", True)
84             d.save_weights("./discriminator_weight", True)
85
86
87 if __name__ == "__main__":
88     train()

运行这个文件,就可以产生生成器网络的权重文件  generator_weight.h5, 这里我选择每个训练epoch都保存一次权重文件。你可以按你的喜好来。

  训练好了之后,那么我们就可以用generate.py文件,从随机数据生成好看的花朵了。

 1 # -*- coding: UTF-8 -*-
 2
 3 """
 4 用 DCGAN 的生成器模型 和 训练得到的生成器参数文件 来生成图片
 5 """
 6
 7 import numpy as np
 8 from PIL import Image
 9 import tensorflow as tf
10
11 from network import *
12
13
14 def generate():
15     # 构造生成器
16     g = generator_model()
17
18     # 配置 生成器
19     g.compile(loss="binary_crossentropy", optimizer=tf.keras.optimizers.Adam(lr=LEARNING_RATE, beta_1=BETA_1))
20
21     # 加载训练好的 生成器 参数
22     g.load_weights("generator_weight.h5")
23
24     # 连续型均匀分布的随机数据(噪声)
25     random_data = np.random.uniform(-1, 1, size=(BATCH_SIZE, 100))
26
27     # 用随机数据作为输入,生成器 生成图片数据
28     images = g.predict(random_data, verbose=1)
29
30     # 用生成的图片数据生成 PNG 图片
31     for i in range(BATCH_SIZE):
32         image = images[i] * 127.5 + 127.5
33         Image.fromarray(image.astype(np.uint8)).save("./generated_image/image-%s.png" % i)
34
35
36 if __name__ == "__main__":
37     generate()

附注1: 一些训练过程

C:\ProgramData\Anaconda3\python.exe D:/threeTFproject/Case2_AI_Photoshop/train.py
C:\ProgramData\Anaconda3\lib\site-packages\h5py\__init__.py:36: FutureWarning: Conversion of the second argument of issubdtype from `float` to `np.floating` is deprecated. In future, it will be treated as `np.float64 == np.dtype(float).type`.
  from ._conv import register_converters as _register_converters
2018-11-01 09:29:35.205667: I tensorflow/core/platform/cpu_feature_guard.cc:141] Your CPU supports instructions that this TensorFlow binary was not compiled to use: AVX2
Epoch 0, 第 0 步, 生成器的损失: 0.169, 判别器的损失: 0.732
Epoch 0, 第 1 步, 生成器的损失: 0.258, 判别器的损失: 0.577
Epoch 0, 第 2 步, 生成器的损失: 0.680, 判别器的损失: 0.534
Epoch 0, 第 3 步, 生成器的损失: 1.493, 判别器的损失: 0.451
Epoch 0, 第 4 步, 生成器的损失: 1.484, 判别器的损失: 0.513
Epoch 0, 第 5 步, 生成器的损失: 2.465, 判别器的损失: 0.350
Epoch 0, 第 6 步, 生成器的损失: 4.008, 判别器的损失: 0.313
Epoch 0, 第 7 步, 生成器的损失: 2.139, 判别器的损失: 0.494
Epoch 0, 第 8 步, 生成器的损失: 2.939, 判别器的损失: 0.501
Epoch 0, 第 9 步, 生成器的损失: 3.805, 判别器的损失: 0.415
Epoch 0, 第 10 步, 生成器的损失: 3.413, 判别器的损失: 0.590
Epoch 0, 第 11 步, 生成器的损失: 2.520, 判别器的损失: 0.486
Epoch 0, 第 12 步, 生成器的损失: 2.286, 判别器的损失: 0.471
Epoch 0, 第 13 步, 生成器的损失: 1.228, 判别器的损失: 0.670
Epoch 0, 第 14 步, 生成器的损失: 0.561, 判别器的损失: 0.655
Epoch 0, 第 15 步, 生成器的损失: 0.560, 判别器的损失: 0.517
Epoch 0, 第 16 步, 生成器的损失: 0.643, 判别器的损失: 0.490
Epoch 0, 第 17 步, 生成器的损失: 0.727, 判别器的损失: 0.488
Epoch 0, 第 18 步, 生成器的损失: 1.003, 判别器的损失: 0.734
Epoch 0, 第 19 步, 生成器的损失: 1.235, 判别器的损失: 0.379
Epoch 0, 第 20 步, 生成器的损失: 1.869, 判别器的损失: 0.377
Epoch 0, 第 21 步, 生成器的损失: 2.073, 判别器的损失: 0.384
Epoch 0, 第 22 步, 生成器的损失: 1.185, 判别器的损失: 0.613
WARNING:tensorflow:This model was compiled with a Keras optimizer (<tensorflow.python.keras.optimizers.Adam object at 0x0000019D240A8BA8>) but is being saved in TensorFlow format with `save_weights`. The model‘s weights will be saved, but unlike with TensorFlow optimizers in the TensorFlow format the optimizer‘s state will not be saved.

Consider using a TensorFlow optimizer from `tf.train`.
Epoch 1, 第 0 步, 生成器的损失: 2.079, 判别器的损失: 0.590
Epoch 1, 第 1 步, 生成器的损失: 1.161, 判别器的损失: 0.506
Epoch 1, 第 2 步, 生成器的损失: 1.137, 判别器的损失: 0.451
Epoch 1, 第 3 步, 生成器的损失: 1.538, 判别器的损失: 0.346
Epoch 1, 第 4 步, 生成器的损失: 1.733, 判别器的损失: 0.362
Epoch 1, 第 5 步, 生成器的损失: 2.059, 判别器的损失: 0.275
Epoch 1, 第 6 步, 生成器的损失: 2.376, 判别器的损失: 0.243
Epoch 1, 第 7 步, 生成器的损失: 2.260, 判别器的损失: 0.300
Epoch 1, 第 8 步, 生成器的损失: 3.750, 判别器的损失: 0.240
Epoch 1, 第 9 步, 生成器的损失: 3.422, 判别器的损失: 0.222
Epoch 1, 第 10 步, 生成器的损失: 4.694, 判别器的损失: 0.275
Epoch 1, 第 11 步, 生成器的损失: 2.299, 判别器的损失: 0.411
Epoch 1, 第 12 步, 生成器的损失: 4.065, 判别器的损失: 0.547
Epoch 1, 第 13 步, 生成器的损失: 1.834, 判别器的损失: 0.470
Epoch 1, 第 14 步, 生成器的损失: 0.398, 判别器的损失: 1.344
Epoch 1, 第 15 步, 生成器的损失: 1.134, 判别器的损失: 0.973
Epoch 1, 第 16 步, 生成器的损失: 2.866, 判别器的损失: 0.374
Epoch 1, 第 17 步, 生成器的损失: 1.056, 判别器的损失: 0.767
Epoch 1, 第 18 步, 生成器的损失: 0.916, 判别器的损失: 0.603
Epoch 1, 第 19 步, 生成器的损失: 1.151, 判别器的损失: 0.645
Epoch 1, 第 20 步, 生成器的损失: 1.947, 判别器的损失: 0.411
Epoch 1, 第 21 步, 生成器的损失: 3.122, 判别器的损失: 0.314
Epoch 1, 第 22 步, 生成器的损失: 1.805, 判别器的损失: 0.642
WARNING:tensorflow:This model was compiled with a Keras optimizer (<tensorflow.python.keras.optimizers.Adam object at 0x0000019D240A8BA8>) but is being saved in TensorFlow format with `save_weights`. The model‘s weights will be saved, but unlike with TensorFlow optimizers in the TensorFlow format the optimizer‘s state will not be saved.

Consider using a TensorFlow optimizer from `tf.train`.
Epoch 2, 第 0 步, 生成器的损失: 1.240, 判别器的损失: 0.569
Epoch 2, 第 1 步, 生成器的损失: 1.151, 判别器的损失: 0.449
Epoch 2, 第 2 步, 生成器的损失: 1.395, 判别器的损失: 0.332
Epoch 2, 第 3 步, 生成器的损失: 1.649, 判别器的损失: 0.258
Epoch 2, 第 4 步, 生成器的损失: 1.777, 判别器的损失: 0.277
Epoch 2, 第 5 步, 生成器的损失: 1.562, 判别器的损失: 0.268
Epoch 2, 第 6 步, 生成器的损失: 2.229, 判别器的损失: 0.224
Epoch 2, 第 7 步, 生成器的损失: 2.432, 判别器的损失: 0.272
Epoch 2, 第 8 步, 生成器的损失: 4.502, 判别器的损失: 0.229
Epoch 2, 第 9 步, 生成器的损失: 4.549, 判别器的损失: 0.211
Epoch 2, 第 10 步, 生成器的损失: 4.481, 判别器的损失: 0.263
Epoch 2, 第 11 步, 生成器的损失: 3.766, 判别器的损失: 0.423
Epoch 2, 第 12 步, 生成器的损失: 2.195, 判别器的损失: 0.562
Epoch 2, 第 13 步, 生成器的损失: 1.682, 判别器的损失: 2.144
Epoch 2, 第 14 步, 生成器的损失: 0.911, 判别器的损失: 0.543
Epoch 2, 第 15 步, 生成器的损失: 0.301, 判别器的损失: 0.342
Epoch 2, 第 16 步, 生成器的损失: 0.159, 判别器的损失: 0.429
Epoch 2, 第 17 步, 生成器的损失: 0.208, 判别器的损失: 0.392
Epoch 2, 第 18 步, 生成器的损失: 0.241, 判别器的损失: 0.390
Epoch 2, 第 19 步, 生成器的损失: 0.826, 判别器的损失: 0.224
Epoch 2, 第 20 步, 生成器的损失: 1.065, 判别器的损失: 0.204
Epoch 2, 第 21 步, 生成器的损失: 0.824, 判别器的损失: 0.226
Epoch 2, 第 22 步, 生成器的损失: 4.178, 判别器的损失: 0.579
WARNING:tensorflow:This model was compiled with a Keras optimizer (<tensorflow.python.keras.optimizers.Adam object at 0x0000019D240A8BA8>) but is being saved in TensorFlow format with `save_weights`. The model‘s weights will be saved, but unlike with TensorFlow optimizers in the TensorFlow format the optimizer‘s state will not be saved.

Consider using a TensorFlow optimizer from `tf.train`.
Epoch 3, 第 0 步, 生成器的损失: 0.122, 判别器的损失: 0.613
Epoch 3, 第 1 步, 生成器的损失: 1.310, 判别器的损失: 0.799
Epoch 3, 第 2 步, 生成器的损失: 1.949, 判别器的损失: 0.168
Epoch 3, 第 3 步, 生成器的损失: 1.606, 判别器的损失: 0.167
Epoch 3, 第 4 步, 生成器的损失: 1.433, 判别器的损失: 0.281
Epoch 3, 第 5 步, 生成器的损失: 1.427, 判别器的损失: 0.323
Epoch 3, 第 6 步, 生成器的损失: 2.604, 判别器的损失: 0.292
Epoch 3, 第 7 步, 生成器的损失: 2.925, 判别器的损失: 0.377
Epoch 3, 第 8 步, 生成器的损失: 4.519, 判别器的损失: 0.292
Epoch 3, 第 9 步, 生成器的损失: 4.978, 判别器的损失: 0.415
Epoch 3, 第 10 步, 生成器的损失: 5.062, 判别器的损失: 0.506
Epoch 3, 第 11 步, 生成器的损失: 2.873, 判别器的损失: 0.648
Epoch 3, 第 12 步, 生成器的损失: 3.078, 判别器的损失: 0.610
Epoch 3, 第 13 步, 生成器的损失: 2.059, 判别器的损失: 0.783
Epoch 3, 第 14 步, 生成器的损失: 0.750, 判别器的损失: 1.088
Epoch 3, 第 15 步, 生成器的损失: 1.064, 判别器的损失: 0.898
Epoch 3, 第 16 步, 生成器的损失: 0.329, 判别器的损失: 0.714
Epoch 3, 第 17 步, 生成器的损失: 0.133, 判别器的损失: 0.446
Epoch 3, 第 18 步, 生成器的损失: 0.401, 判别器的损失: 0.476
Epoch 3, 第 19 步, 生成器的损失: 0.419, 判别器的损失: 0.374
Epoch 3, 第 20 步, 生成器的损失: 0.960, 判别器的损失: 0.225
Epoch 3, 第 21 步, 生成器的损失: 1.431, 判别器的损失: 0.203
Epoch 3, 第 22 步, 生成器的损失: 1.061, 判别器的损失: 0.717
WARNING:tensorflow:This model was compiled with a Keras optimizer (<tensorflow.python.keras.optimizers.Adam object at 0x0000019D240A8BA8>) but is being saved in TensorFlow format with `save_weights`. The model‘s weights will be saved, but unlike with TensorFlow optimizers in the TensorFlow format the optimizer‘s state will not be saved.

Consider using a TensorFlow optimizer from `tf.train`.
Epoch 4, 第 0 步, 生成器的损失: 2.778, 判别器的损失: 0.743
Epoch 4, 第 1 步, 生成器的损失: 0.179, 判别器的损失: 0.724
Epoch 4, 第 2 步, 生成器的损失: 2.880, 判别器的损失: 0.836
Epoch 4, 第 3 步, 生成器的损失: 2.585, 判别器的损失: 0.290
Epoch 4, 第 4 步, 生成器的损失: 2.781, 判别器的损失: 0.339
Epoch 4, 第 5 步, 生成器的损失: 2.925, 判别器的损失: 0.517
Epoch 4, 第 6 步, 生成器的损失: 5.254, 判别器的损失: 0.537

 

 附注2:这是train了一个epoch的generate_weight.ht拿来给generate.py生成花朵用的,效果如下:

用34 epoch的generate_weight.ht试试,效果如下:

如果你epoch到200以上,那么就可以看到如下的效果:

原文地址:https://www.cnblogs.com/www-caiyin-com/p/9889502.html

时间: 2024-07-31 22:51:45

通过DCGAN进行生成花朵的相关文章

HTML5 canvas画布元素 制作 动态花朵动画

废话不多说 先上代码 <!doctype> <html> <head> <meta charset="utf-8"> </head> <body style="text-align:center;"> <canvas id="canvas" width="1300px" height="580px" style="bor

机器学习算法 之DCGAN

目录 1.基本介绍 2.模型 3.优缺点/其他 参考 1.基本介绍 DCGAN是生成对抗网络GAN中一种常见的模型结构.其中的生成器和判别器都是神经网络模型. GAN是一种生成式对抗网络,即通过对抗的方式,去学习数据分布的生成式模型.所谓的对抗,指的是生成网络和判别网络的互相对抗.生成网络尽可能生成逼真样本,判别网络则尽可能去判别该样本是真实样本,还是生成的假样本. 优化目标函数为:\[min_{G} max_{D} V(D,G) = min_{G} max_{D} E_{x~P_{data}(

(转) 简述生成式对抗网络

简述生成式对抗网络 [转载请注明出处]chenrudan.github.io 本文主要阐述了对生成式对抗网络的理解,首先谈到了什么是对抗样本,以及它与对抗网络的关系,然后解释了对抗网络的每个组成部分,再结合算法流程和代码实现来解释具体是如何实现并执行这个算法的,最后给出一个基于对抗网络改写的去噪网络运行的结果,效果虽然挺差的,但是有些地方还是挺有意思的. 1. 对抗样本 2. 生成式对抗网络GAN 3. 代码解释 4. 运行实例 5. 小结 6. 引用 1. 对抗样本(adversarial e

CNCC2017中的深度学习与跨媒体智能

转载请注明作者:梦里茶 目录 机器学习与跨媒体智能 传统方法与深度学习 图像分割 小数据集下的深度学习 语音前沿技术 生成模型 基于贝叶斯的视觉信息编解码 珠算:基于别噎死推断的深度生成模型库 图像与视频生成的规则约束 景深风景生成 骨架约束的人体视频生成 跨媒体智能 视频检索的哈希学习 多媒体与知识图谱 基于锚图的视觉数据分析 视频问答 细粒度分类 跨媒体关联与检索(待补充) 正片开始 传统方法与深度学习 图像分割 图像分割是医疗图像中一个很重要的任务,通常分为分割,配准,可视化几个子任务.这

深度学习----现今主流GAN原理总结及对比

原文地址:https://blog.csdn.net/Sakura55/article/details/81514828 1.GAN 先来看看公式: GAN网络主要由两个网络构成,生成网络G和辨别网络D,生成模型G的思想是将一个噪声包装成一个逼真的样本,判别模型D则需要判断送入的样本是真实的还是假的样本,即共同进步的过程,辨别模型D对样本的判别能力不断上升,生成模型G的造假能力也不断上升!              需要注意的是,生成模型G的输入是服从-1~1均匀分布的随机变量,输出为一张图片(

深度卷积对抗生成网络(DCGAN)

本文是参考文献[1]的论文笔记. 卷积神经网络在有监督学习中的各项任务上都有很好的表现,但在无监督学习领域,却比较少.本文介绍的算法将有监督学习中的CNN和无监督学习中的GAN结合到了一起. 在非CNN条件下,LAPGAN在图像分辨率提升领域也取得了好的效果. 与其将本文看成是CNN的扩展,不如将其看成GAN的扩展到CNN领域.而GAN的基本算法,可以参考对抗神经网络. GAN无需特定的cost function的优势和学习过程可以学习到很好的特征表示,但是GAN训练起来非常不稳定,经常会使得生

使用DCGAN实现人脸图像生成

DCGAN介绍 原始的GAN网络在训练过程中生成者生成图像质量不太稳定,无法得到高质量的生成者网络,导致这个问题的主要原因是生成者与判别者使用相同的反向传播网络,对生成者网络的改进就是用卷积神经网络替代原理的MLP实现稳定生成者网络,生成高质量的图像.这个就是Deep Convolutional Generative Adversarial Network (DCGAN)的由来.相比GAN,DCGAN把原来使用MLP的地方都改成了CNN,同时去掉了池化层,改变如下: 判别器使用正常卷积,最后一层

走进生成对抗式网络(GAN)摘记

自从OpenAI的Ian J.Goodfellow大神发的开创性文章GAN以后,GAN的发展是膨胀式的,工业界的各个大牛也随之加入GAN蓬勃发展的大军中.除了OpenAI之外,工业界好多公司都参与到了GAN的研究中,包括了Facebook.Google.Apple等公司.其中一个发表比较的多的就是Facebook的Soumith Chintala,他参与发表了DCGAN.LPGAN.WGAN以及SSGAN,其中WGAN也是得到了大量的关注,该文详细的对GAN的缺陷进行了深入解析,然后提出了具有里

学习笔记GAN002:DCGAN

Ian J. Goodfellow 论文:https://arxiv.org/abs/1406.2661 两个网络:G(Generator),生成网络,接收随机噪声Z,通过噪声生成样本,G(z).D(Dicriminator),判别网络,判别样本是否真实,输入样本x,输出D(x)代表x真实概率,如果1,100%真实样本,如果0,代表不可能是真实样本. 训练过程,生成网络G尽量生成真实样本欺骗判别网络D,判别网络D尽量把G生成样本和真实样本分别开.理想状态下,G生成样本G(z),使D难以判断真假,