摘要:
class MyRnn(tf.keras.Model): def __init__(self, units): super(MyRnn, self).__init__() self.mycnn = tf.keras.Sequential([ tf.keras.layers.Conv2D(12, ke 阅读全文
摘要:
将经过卷积层处理后的feature与非图像特征进行融合 import numpy as np import tensorflow as tf import pandas as pd from my_cnn_net import My_cnn import os # 设置GPU相关底层配置 physi 阅读全文
摘要:
前面都是写的cell版本的GRU和LSTM,比较底层,便于理解原理。 下面的Sequential版不用自定义state参数的形状,使用更简便: import tensorflow as tf import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' ass 阅读全文
摘要:
GRU相比于LSTM只有两个门: import tensorflow as tf import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' assert tf.__version__.startswith('2.') # 设置相关底层配置 physical 阅读全文
摘要:
相比simplernn多了三个门,记忆、输入、输出 记忆门(遗忘门,1为记住0为遗忘): 输入门: C: 输出门: 总: 极端条件: 公式: import tensorflow as tf import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' asse 阅读全文
摘要:
原来的参数更新代码: 加一个Graddient Clipping后(原理是当梯度高于某个阈值时,自动除以自己的模来达到减小梯度的目的): 比如下图中设置梯度最大值为15 阅读全文
摘要:
import tensorflow as tf import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' assert tf.__version__.startswith('2.') # 设置相关底层配置 physical_devices = tf.con 阅读全文