上一页 1 2 3 4 5 6 7 8 9 ··· 29 下一页
摘要: 转自:https://zhuanlan.zhihu.com/p/40117857 1、tf.constant_initializer()可以简写为tf.Constant();初始化为常数,这个非常有用,通常偏置项就是用它初始化的 由它衍生出的两个初始化方法: a、 tf.zeros_initiali 阅读全文
posted @ 2021-11-23 12:12 山…隹 阅读(203) 评论(0) 推荐(0) 编辑
摘要: 策略函数梯度: 状态价值函数梯度: 整体训练: 阅读全文
posted @ 2021-11-13 12:12 山…隹 阅读(80) 评论(0) 推荐(0) 编辑
摘要: pt为抽样概率,正比于Td_error,或者利用其倒数来排序,即误差越大的样本被优先拿出来抽样。没有用过的样本给他赋予最大的Td_error。 因为抽样不均匀,a56爆大奖在线娱乐学习率要进行更改 阅读全文
posted @ 2021-11-08 19:02 山…隹 阅读(148) 评论(0) 推荐(0) 编辑
摘要: 模型步骤: 神经网络Q梯度: 神经网络Π: 整体步骤: qt可换做的δt 阅读全文
posted @ 2021-11-05 18:41 山…隹 阅读(64) 评论(0) 推荐(0) 编辑
摘要: import sys import tensorflow as tf from tensorflow.keras import Model, layers, initializers import numpy as np from tensorflow import keras save_attn_ 阅读全文
posted @ 2021-10-04 17:28 山…隹 阅读(128) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2021-08-11 22:03 山…隹 阅读(75) 评论(0) 推荐(0) 编辑
摘要: class LossHistory(keras.callbacks.Callback): def on_train_begin(self, logs={}): self.losses = [] def on_batch_end(self, batch, logs={}): pass # self.l 阅读全文
posted @ 2021-07-15 11:33 山…隹 阅读(232) 评论(0) 推荐(0) 编辑
摘要: history包含以下几个属性:训练集loss: loss测试集loss: val_loss训练集准确率: sparse_categorical_accuracy测试集准确率: val_sparse_categorical_accuracy my_model.compile(optimizer=op 阅读全文
posted @ 2021-07-14 12:20 山…隹 阅读(3534) 评论(0) 推荐(0) 编辑
摘要: import tensorflow as tf import time import numpy as np import matplotlib.pyplot as plt import sys from tensorflow import keras import os from tensorfl 阅读全文
posted @ 2021-04-28 14:30 山…隹 阅读(121) 评论(0) 推荐(0) 编辑
摘要: from tensorflow.keras.callbacks import EarlyStopping import tensorflow as tf import time import numpy as np import matplotlib.pyplot as plt import sys 阅读全文
posted @ 2021-04-28 14:29 山…隹 阅读(75) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 9 ··· 29 下一页