模型:
keras-io/monocular-depth-estimation
任务:
图像分割这个模型的原始想法来自Keras示例 Monocular depth estimation ,作者是 Victor Basu 。
完全的功劳归于 Vu Minh Chien 。
深度估计是从2D图像中推断场景几何形状的关键步骤。单眼深度估计的目标是在仅有单个RGB图像作为输入的情况下预测每个像素的深度值或推断深度信息。
NYU Depth Dataset V2 由在各种室内场景中使用Microsoft Kinect的RGB和深度相机录制的视频序列组成。
模型架构:
在训练过程中使用了以下超参数:
Epoch | Training loss | Validation Loss | Learning rate |
---|---|---|---|
1 | 0.1333 | 0.1315 | 1e-04 |
2 | 0.0948 | 0.1232 | 1e-04 |
3 | 0.0834 | 0.1220 | 1e-04 |
4 | 0.0775 | 0.1213 | 1e-04 |
5 | 0.0736 | 0.1196 | 1e-04 |
6 | 0.0707 | 0.1205 | 1e-04 |
7 | 0.0687 | 0.1190 | 1e-04 |
8 | 0.0667 | 0.1177 | 1e-04 |
9 | 0.0654 | 0.1177 | 1e-04 |
10 | 0.0635 | 0.1182 | 9e-05 |