上一页 1 ··· 3 4 5 6 7 8 9 10 11 ··· 29 下一页
摘要: class MyRnn(tf.keras.Model): def __init__(self, units): super(MyRnn, self).__init__() self.mycnn = tf.keras.Sequential([ tf.keras.layers.Conv2D(12, ke 阅读全文
posted @ 2020-11-13 11:35 山…隹 阅读(753) 评论(0) 推荐(0) 编辑
摘要: 将经过卷积层处理后的feature与非图像特征进行融合 import numpy as np import tensorflow as tf import pandas as pd from my_cnn_net import My_cnn import os # 设置GPU相关底层配置 physi 阅读全文
posted @ 2020-11-05 14:32 山…隹 阅读(1066) 评论(0) 推荐(0) 编辑
摘要: 前面都是写的cell版本的GRU和LSTM,比较底层,便于理解原理。 下面的Sequential版不用自定义state参数的形状,使用更简便: import tensorflow as tf import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' ass 阅读全文
posted @ 2020-10-17 00:15 山…隹 阅读(1065) 评论(0) 推荐(0) 编辑
摘要: GRU相比于LSTM只有两个门: import tensorflow as tf import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' assert tf.__version__.startswith('2.') # 设置相关底层配置 physical 阅读全文
posted @ 2020-10-16 23:56 山…隹 阅读(1176) 评论(0) 推荐(0) 编辑
摘要: 相比simplernn多了三个门,记忆、输入、输出 记忆门(遗忘门,1为记住0为遗忘): 输入门: C: 输出门: 总: 极端条件: 公式: import tensorflow as tf import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' asse 阅读全文
posted @ 2020-10-16 22:59 山…隹 阅读(2063) 评论(0) 推荐(0) 编辑
摘要: 原来的参数更新代码: 加一个Graddient Clipping后(原理是当梯度高于某个阈值时,自动除以自己的模来达到减小梯度的目的): 比如下图中设置梯度最大值为15 阅读全文
posted @ 2020-10-16 12:45 山…隹 阅读(334) 评论(0) 推荐(0) 编辑
摘要: import tensorflow as tf import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' assert tf.__version__.startswith('2.') # 设置相关底层配置 physical_devices = tf.con 阅读全文
posted @ 2020-10-16 11:18 山…隹 阅读(1132) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2020-10-07 17:14 山…隹 阅读(149) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2020-10-07 16:42 山…隹 阅读(147) 评论(0) 推荐(0) 编辑
摘要: patience = 2 意思是最多容忍后两次的数据精度比此次差 validation_splt = 0.2 意思是train数据80%,val数据20% 阅读全文
posted @ 2020-10-07 16:33 山…隹 阅读(1113) 评论(0) 推荐(0) 编辑
上一页 1 ··· 3 4 5 6 7 8 9 10 11 ··· 29 下一页