1. 关于多输入流:
由于本Mission是双输入, 导师要求尽量能使用Inception之诸, 于是输入便成了问题.
思考: 在Github上找到了keras-inceptionV4进行对网络头尾的改进, 面对多输入, 询问别人, 给我推荐了keras中对层的操作, 用于merge各个输入, 但是那样做的话, 这两个的输入之间的关系就定死了, 我需要的是求得温度$ T = f(x_1, x_2) $, 而非 $ T = x_1 + x_2 + x_1 * x_2 + x.... $, 这种即便再多也是定死的, 而非通过网络学习得到的.解决: K是不同组的一个标量, 我将其拓展为和扫描手背图像一样大的一个通道, 将原图像三通道和K值一通道叠加, 再利用1x1卷积, 将这4通道的信息, 融合降成3通道的数据, 再导入原始InceptionV4网络结构即可, 当然, 结尾也要改成回归的形式(Dense).
2. 关于不同优化器的训练中间效果不同的疑惑(如果有幼儿博客园友能知晓一二, 愿请赐教):
思考: 在使用SGD进行训练时, 网络在训练集上的效果非常乱, 一个Titan X与地球一起自转近一周, MAE误差测试集能够在0.6左右. 但训练过程中的预测是这幅模样的:
然而, 使用ADAM...这明显缺一个线性变换嘛, 怎么会学不到呢, 多次迭代数据集, 也没有很好地朝正确的方向变, e...a..: 倘若加上一个手动调整的线性变换(上移4, 值域拉伸成4倍):