Colin
commited on
Commit
·
272e9f9
1
Parent(s):
7924211
Training in progress epoch 48
Browse files- README.md +20 -19
- tf_model.h5 +1 -1
README.md
CHANGED
@@ -16,19 +16,19 @@ probably proofread and complete it, then remove this comment. -->
|
|
16 |
|
17 |
This model is a fine-tuned version of [nvidia/mit-b0](https://huggingface.co/nvidia/mit-b0) on an unknown dataset.
|
18 |
It achieves the following results on the evaluation set:
|
19 |
-
- Train Loss: 2.
|
20 |
- Validation Loss: nan
|
21 |
-
- Validation Mean Iou: 0.
|
22 |
-
- Validation Mean Accuracy: 0.
|
23 |
-
- Validation Overall Accuracy: 0.
|
24 |
-
- Validation Accuracy Wall: 0.
|
25 |
-
- Validation Accuracy Building: 0.
|
26 |
-
- Validation Accuracy Sky: 0.
|
27 |
-
- Validation Accuracy Floor: 0.
|
28 |
-
- Validation Accuracy Tree: 0.
|
29 |
- Validation Accuracy Ceiling: 0.0
|
30 |
-
- Validation Accuracy Road: 0.
|
31 |
-
- Validation Accuracy Bed : 0.
|
32 |
- Validation Accuracy Windowpane: nan
|
33 |
- Validation Accuracy Grass: 0.0
|
34 |
- Validation Accuracy Cabinet: 0.0
|
@@ -171,14 +171,14 @@ It achieves the following results on the evaluation set:
|
|
171 |
- Validation Accuracy Glass: nan
|
172 |
- Validation Accuracy Clock: nan
|
173 |
- Validation Accuracy Flag: nan
|
174 |
-
- Validation Iou Wall: 0.
|
175 |
-
- Validation Iou Building: 0.
|
176 |
-
- Validation Iou Sky: 0.
|
177 |
-
- Validation Iou Floor: 0.
|
178 |
-
- Validation Iou Tree: 0.
|
179 |
- Validation Iou Ceiling: 0.0
|
180 |
-
- Validation Iou Road: 0.
|
181 |
-
- Validation Iou Bed : 0.
|
182 |
- Validation Iou Windowpane: nan
|
183 |
- Validation Iou Grass: 0.0
|
184 |
- Validation Iou Cabinet: 0.0
|
@@ -321,7 +321,7 @@ It achieves the following results on the evaluation set:
|
|
321 |
- Validation Iou Glass: nan
|
322 |
- Validation Iou Clock: nan
|
323 |
- Validation Iou Flag: nan
|
324 |
-
- Epoch:
|
325 |
|
326 |
## Model description
|
327 |
|
@@ -395,6 +395,7 @@ The following hyperparameters were used during training:
|
|
395 |
| 2.9400 | nan | 0.0151 | 0.0504 | 0.2055 | 0.0287 | 0.5893 | 0.2165 | 0.3081 | 0.9156 | 0.0 | 0.5286 | 0.4388 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0269 | 0.1649 | 0.0622 | 0.1885 | 0.2149 | 0.0 | 0.1978 | 0.0486 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 45 |
|
396 |
| 2.9228 | nan | 0.0144 | 0.0549 | 0.1749 | 0.0332 | 0.2384 | 0.7834 | 0.3338 | 0.9079 | 0.0 | 0.5520 | 0.4431 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0311 | 0.1281 | 0.0654 | 0.1971 | 0.2138 | 0.0 | 0.1961 | 0.0334 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 46 |
|
397 |
| 2.9592 | nan | 0.0153 | 0.0484 | 0.2105 | 0.0335 | 0.6403 | 0.1732 | 0.3405 | 0.9146 | 0.0 | 0.3789 | 0.425 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0314 | 0.1681 | 0.0579 | 0.2058 | 0.2134 | 0.0 | 0.1975 | 0.0464 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 47 |
|
|
|
398 |
|
399 |
|
400 |
### Framework versions
|
|
|
16 |
|
17 |
This model is a fine-tuned version of [nvidia/mit-b0](https://huggingface.co/nvidia/mit-b0) on an unknown dataset.
|
18 |
It achieves the following results on the evaluation set:
|
19 |
+
- Train Loss: 2.9343
|
20 |
- Validation Loss: nan
|
21 |
+
- Validation Mean Iou: 0.0121
|
22 |
+
- Validation Mean Accuracy: 0.0462
|
23 |
+
- Validation Overall Accuracy: 0.1899
|
24 |
+
- Validation Accuracy Wall: 0.0366
|
25 |
+
- Validation Accuracy Building: 0.7107
|
26 |
+
- Validation Accuracy Sky: 0.1253
|
27 |
+
- Validation Accuracy Floor: 0.0175
|
28 |
+
- Validation Accuracy Tree: 0.9248
|
29 |
- Validation Accuracy Ceiling: 0.0
|
30 |
+
- Validation Accuracy Road: 0.6367
|
31 |
+
- Validation Accuracy Bed : 0.3224
|
32 |
- Validation Accuracy Windowpane: nan
|
33 |
- Validation Accuracy Grass: 0.0
|
34 |
- Validation Accuracy Cabinet: 0.0
|
|
|
171 |
- Validation Accuracy Glass: nan
|
172 |
- Validation Accuracy Clock: nan
|
173 |
- Validation Accuracy Flag: nan
|
174 |
+
- Validation Iou Wall: 0.0333
|
175 |
+
- Validation Iou Building: 0.1714
|
176 |
+
- Validation Iou Sky: 0.0525
|
177 |
+
- Validation Iou Floor: 0.0169
|
178 |
+
- Validation Iou Tree: 0.2080
|
179 |
- Validation Iou Ceiling: 0.0
|
180 |
+
- Validation Iou Road: 0.1852
|
181 |
+
- Validation Iou Bed : 0.0586
|
182 |
- Validation Iou Windowpane: nan
|
183 |
- Validation Iou Grass: 0.0
|
184 |
- Validation Iou Cabinet: 0.0
|
|
|
321 |
- Validation Iou Glass: nan
|
322 |
- Validation Iou Clock: nan
|
323 |
- Validation Iou Flag: nan
|
324 |
+
- Epoch: 48
|
325 |
|
326 |
## Model description
|
327 |
|
|
|
395 |
| 2.9400 | nan | 0.0151 | 0.0504 | 0.2055 | 0.0287 | 0.5893 | 0.2165 | 0.3081 | 0.9156 | 0.0 | 0.5286 | 0.4388 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0269 | 0.1649 | 0.0622 | 0.1885 | 0.2149 | 0.0 | 0.1978 | 0.0486 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 45 |
|
396 |
| 2.9228 | nan | 0.0144 | 0.0549 | 0.1749 | 0.0332 | 0.2384 | 0.7834 | 0.3338 | 0.9079 | 0.0 | 0.5520 | 0.4431 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0311 | 0.1281 | 0.0654 | 0.1971 | 0.2138 | 0.0 | 0.1961 | 0.0334 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 46 |
|
397 |
| 2.9592 | nan | 0.0153 | 0.0484 | 0.2105 | 0.0335 | 0.6403 | 0.1732 | 0.3405 | 0.9146 | 0.0 | 0.3789 | 0.425 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0314 | 0.1681 | 0.0579 | 0.2058 | 0.2134 | 0.0 | 0.1975 | 0.0464 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 47 |
|
398 |
+
| 2.9343 | nan | 0.0121 | 0.0462 | 0.1899 | 0.0366 | 0.7107 | 0.1253 | 0.0175 | 0.9248 | 0.0 | 0.6367 | 0.3224 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0333 | 0.1714 | 0.0525 | 0.0169 | 0.2080 | 0.0 | 0.1852 | 0.0586 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 48 |
|
399 |
|
400 |
|
401 |
### Framework versions
|
tf_model.h5
CHANGED
@@ -1,3 +1,3 @@
|
|
1 |
version https://git-lfs.github.com/spec/v1
|
2 |
-
oid sha256:
|
3 |
size 15285696
|
|
|
1 |
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:fd9c46a971f29ef467130f195fd7c4da1bb7e4122eae05850a6dedb87b3ea6ef
|
3 |
size 15285696
|