用TensorFlow实现神经网络画风迁移

2019年06月03日 由 sunlei 发表 939424 0


神经风格转换是卷积神经网络最具创造性的应用之一。神经网络通过获取内容图像和风格图像,将内容和风格图像进行重组,有效地创造出艺术图像!

这些算法非常灵活,内容和风格用无限可能的组合产生了非常有创意和独特的结果。



事实上,一家公司优化了算法并发布了一个名为Prisma的移动应用程序,它使用神经风格转换将艺术风格应用于你的手机拍摄的照片上!



在本文中,我们将重新创建Gatys等人提出的算法,以实现上述类似结果。请注意,我使用的是笔记本电脑,因此如果您使用的是CPU更好的台式机,结果可能略有不同。

和平时一样,如果你被卡住了,可以随时查阅完整的笔记本。

我们开始吧!

此嵌入内容来自不符合浏览器上已启用的不跟踪(DNT)设置的站点。

请注意,如果你点击并查看它,你可能会被网站托管嵌入跟踪。

第一步:加载VGG – 19


从头开始构建算法需要大量的时间和计算能力,这对每个人来说都不是能轻松获得的。

相反,我们将加载现有网络的权重以实现神经风格的传输。

将神经网络用于不同目的的过程称为转移学习。

让我们这样加载模型:
model = load_vgg_model(“pretrained-model/imagenet-vggverydeep-19.mat”)

太棒了!现在,我将用一张卢浮宫的图片作为内容图片。

你可以加载任何你想要的图片,但要确保图片不要太大:
content_image = scipy.misc.imread(“images/louvre.jpg”)
imshow(content_image)

在我的例子中,输出如下:


第二步:定义内容代价函数


为了使我们的算法生成优质的图像,我们需要确保生成的图像的内容与输入图像的内容匹配。

换句话说,生成的图像也应该有金字塔、周围的建筑物、云、太阳等。

因此,我们希望生成的图像和内容图像的层激活相似。因此,内容代价函数可以定义为:



由上面公式可知,n_H和n_W分别是图像的高度和宽度,其中n_c是隐藏层中的通道数。

为了计算成本,将三维体积展开为二维矩阵更有效,因为这将加快计算速度。

[caption id="attachment_40943" align="aligncenter" width="822"] 展开卷积层以计算成本[/caption]

现在,我们对这个逻辑进行编码:


第三步:定义样式代价函数


现在,我们需要一个样式图像。在我的例子中,我将使用莫奈的印象派作品,但可以自由使用任何其他类型的艺术:

[caption id="attachment_40945" align="aligncenter" width="825"] 谁能告诉我这幅画的名字?[/caption]

与内容代价函数相比,定义样式代价函数是一个稍微复杂一些的过程。我们把它分成几个小部分。

3.1定义Gram矩阵


样式矩阵也称为Gram矩阵,它表示一组向量的点积。

这就捕获了每个向量之间的相似性,因为如果两个向量彼此相似,那么它们的点积将很大,因此Gram矩阵也将很大。



这就是Gram矩阵如何有效地测量图像的样式。

把它变成代码:


3.2定义样式成本


现在,我们要确保生成的图像和样式图像的样式相似。

换句话说,我们想要最小化两个Gram矩阵之间的距离。这表示为:



对逻辑进行编码:


3.3指定样式权重


在前面的步骤中,我们只捕获了单层的样式成本。

将所有图层的样式成本结合起来生成更好的图像是有用的。

在数学上,样式成本变成:



其中lambda是每层的权重。

因此,我们添加此代码单元:


3.4把一切结合起来


现在,我们简单地将所有东西组合成一个统一样式的代价函数:


第四步:定义总代价函数


既然我们有了内容和样式的代价函数,我们就可以将两者结合起来,得到一个总代价函数,该函数将被优化:

其中alpha和beta是任意权重。


第五步:解决优化问题,生成图像


现在,最棒的部分来了!一切就绪,我们就可以解决优化问题,生成一个艺术形象!
# Reset the graph
tf.reset_default_graph()

# Start interactive session
sess = tf.InteractiveSession()

content_image = scipy.misc.imread("images/louvre_small
content_image = reshape_and_normalize_image(content_im

style_image = scipy.misc.imread("images/monet.jpg")
style_image = reshape_and_normalize_image(style_image)

model = load_vgg_model("weights/imagenet-vgg-verydeep-

# Assign the content image to be the input of the VGG
sess.run(model['input'].assign(content_image))

# Select the output tensor of layer conv4_2
out = model['conv4_2']

# Set a_C to be the hidden layer activation from the l
a_C = sess.run(out)

# Set a_G to be the hidden layer activation from same
# and isn't evaluated yet. Later in the code, we'll as
# when we run the session, this will be the activation
a_G = out

# Compute the content cost
J_content = compute_content_cost(a_C, a_G)

# Assign the input of the model to be the "style" imag
sess.run(model['input'].assign(style_image))

# Compute the style cost
J_style = compute_style_cost(model, STYLE_LAYERS)

J = total_cost(J_content,J_style,alpha=10,beta=40)

# define optimizer
optimizer = tf.train.AdamOptimizer(2.0)

# define train_step
train_step = optimizer.minimize(J)

def model_nn(sess, input_image, num_iterations = 200):

# Initialize global variables (you need to run the
sess.run(tf.global_variables_initializer())


在我的例子中,我得到了以下结果:



当然,如果你用更长的时间和更快的学习速度来训练网络,你可以得到更好的结果。

恭喜你!你刚刚在TensorFlow中执行了神经风格转换!你可以使用迭代次数和学习速度尝试随时改变内容和风格形象。这就是你今天的收获,满意吗?
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
写评论取消
回复取消