Regressor 回归
学习资料:
神经网络可以用来模拟回归问题 (regression),例如给下面一组数据,用一条线来对数据进行拟合,并可以预测新输入 x 的输出值。
导入模块并创建数据¶
models.Sequential,用来一层一层一层的去建立神经层; layers.Dense 意思是这个神经层是全连接层。
建立模型¶
然后用 Sequential 建立 model, 再用 model.add 添加神经层,添加的是 Dense 全连接神经层。
参数有两个,一个是输入数据和输出数据的维度,本代码的例子中 x 和 y 是一维的。
如果需要添加下一个神经层的时候,不用再定义输入的纬度,因为它默认就把前一层的输出作为当前层的输入。在这个例子里,只需要一层就够了。
激活模型¶
接下来要激活神经网络,上一步只是定义模型。
参数中,误差函数用的是 mse 均方误差;优化器用的是 sgd 随机梯度下降法。
以上三行就构建好了一个神经网络,它比 Tensorflow 要少了很多代码,很简单。
训练模型¶
训练的时候用 model.train_on_batch 一批一批的训练 X_train, Y_train。默认的返回值是 cost,每100步输出一下结果。
检验模型¶
用到的函数是 model.evaluate,输入测试集的x和y, 输出 cost,weights 和 biases。其中 weights 和 biases 是取在模型的第一层 model.layers[0] 学习到的参数。从学习到的结果你可以看到, weights 比较接近0.5,bias 接近 2。
可视化结果¶
最后可以画出预测结果,与测试集的值进行对比。

