Colin commited on
Commit
238051a
·
1 Parent(s): 272e9f9

Training in progress epoch 49

Browse files
Files changed (2) hide show
  1. README.md +20 -19
  2. tf_model.h5 +1 -1
README.md CHANGED
@@ -16,19 +16,19 @@ probably proofread and complete it, then remove this comment. -->
16
 
17
  This model is a fine-tuned version of [nvidia/mit-b0](https://huggingface.co/nvidia/mit-b0) on an unknown dataset.
18
  It achieves the following results on the evaluation set:
19
- - Train Loss: 2.9343
20
  - Validation Loss: nan
21
- - Validation Mean Iou: 0.0121
22
- - Validation Mean Accuracy: 0.0462
23
- - Validation Overall Accuracy: 0.1899
24
- - Validation Accuracy Wall: 0.0366
25
- - Validation Accuracy Building: 0.7107
26
- - Validation Accuracy Sky: 0.1253
27
- - Validation Accuracy Floor: 0.0175
28
- - Validation Accuracy Tree: 0.9248
29
  - Validation Accuracy Ceiling: 0.0
30
- - Validation Accuracy Road: 0.6367
31
- - Validation Accuracy Bed : 0.3224
32
  - Validation Accuracy Windowpane: nan
33
  - Validation Accuracy Grass: 0.0
34
  - Validation Accuracy Cabinet: 0.0
@@ -171,14 +171,14 @@ It achieves the following results on the evaluation set:
171
  - Validation Accuracy Glass: nan
172
  - Validation Accuracy Clock: nan
173
  - Validation Accuracy Flag: nan
174
- - Validation Iou Wall: 0.0333
175
- - Validation Iou Building: 0.1714
176
- - Validation Iou Sky: 0.0525
177
- - Validation Iou Floor: 0.0169
178
- - Validation Iou Tree: 0.2080
179
  - Validation Iou Ceiling: 0.0
180
- - Validation Iou Road: 0.1852
181
- - Validation Iou Bed : 0.0586
182
  - Validation Iou Windowpane: nan
183
  - Validation Iou Grass: 0.0
184
  - Validation Iou Cabinet: 0.0
@@ -321,7 +321,7 @@ It achieves the following results on the evaluation set:
321
  - Validation Iou Glass: nan
322
  - Validation Iou Clock: nan
323
  - Validation Iou Flag: nan
324
- - Epoch: 48
325
 
326
  ## Model description
327
 
@@ -396,6 +396,7 @@ The following hyperparameters were used during training:
396
  | 2.9228 | nan | 0.0144 | 0.0549 | 0.1749 | 0.0332 | 0.2384 | 0.7834 | 0.3338 | 0.9079 | 0.0 | 0.5520 | 0.4431 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0311 | 0.1281 | 0.0654 | 0.1971 | 0.2138 | 0.0 | 0.1961 | 0.0334 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 46 |
397
  | 2.9592 | nan | 0.0153 | 0.0484 | 0.2105 | 0.0335 | 0.6403 | 0.1732 | 0.3405 | 0.9146 | 0.0 | 0.3789 | 0.425 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0314 | 0.1681 | 0.0579 | 0.2058 | 0.2134 | 0.0 | 0.1975 | 0.0464 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 47 |
398
  | 2.9343 | nan | 0.0121 | 0.0462 | 0.1899 | 0.0366 | 0.7107 | 0.1253 | 0.0175 | 0.9248 | 0.0 | 0.6367 | 0.3224 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0333 | 0.1714 | 0.0525 | 0.0169 | 0.2080 | 0.0 | 0.1852 | 0.0586 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 48 |
 
399
 
400
 
401
  ### Framework versions
 
16
 
17
  This model is a fine-tuned version of [nvidia/mit-b0](https://huggingface.co/nvidia/mit-b0) on an unknown dataset.
18
  It achieves the following results on the evaluation set:
19
+ - Train Loss: 2.9071
20
  - Validation Loss: nan
21
+ - Validation Mean Iou: 0.0133
22
+ - Validation Mean Accuracy: 0.0479
23
+ - Validation Overall Accuracy: 0.1972
24
+ - Validation Accuracy Wall: 0.0308
25
+ - Validation Accuracy Building: 0.6521
26
+ - Validation Accuracy Sky: 0.1076
27
+ - Validation Accuracy Floor: 0.1527
28
+ - Validation Accuracy Tree: 0.9251
29
  - Validation Accuracy Ceiling: 0.0
30
+ - Validation Accuracy Road: 0.6447
31
+ - Validation Accuracy Bed : 0.3586
32
  - Validation Accuracy Windowpane: nan
33
  - Validation Accuracy Grass: 0.0
34
  - Validation Accuracy Cabinet: 0.0
 
171
  - Validation Accuracy Glass: nan
172
  - Validation Accuracy Clock: nan
173
  - Validation Accuracy Flag: nan
174
+ - Validation Iou Wall: 0.0288
175
+ - Validation Iou Building: 0.1673
176
+ - Validation Iou Sky: 0.0478
177
+ - Validation Iou Floor: 0.1152
178
+ - Validation Iou Tree: 0.2093
179
  - Validation Iou Ceiling: 0.0
180
+ - Validation Iou Road: 0.1862
181
+ - Validation Iou Bed : 0.0459
182
  - Validation Iou Windowpane: nan
183
  - Validation Iou Grass: 0.0
184
  - Validation Iou Cabinet: 0.0
 
321
  - Validation Iou Glass: nan
322
  - Validation Iou Clock: nan
323
  - Validation Iou Flag: nan
324
+ - Epoch: 49
325
 
326
  ## Model description
327
 
 
396
  | 2.9228 | nan | 0.0144 | 0.0549 | 0.1749 | 0.0332 | 0.2384 | 0.7834 | 0.3338 | 0.9079 | 0.0 | 0.5520 | 0.4431 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0311 | 0.1281 | 0.0654 | 0.1971 | 0.2138 | 0.0 | 0.1961 | 0.0334 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 46 |
397
  | 2.9592 | nan | 0.0153 | 0.0484 | 0.2105 | 0.0335 | 0.6403 | 0.1732 | 0.3405 | 0.9146 | 0.0 | 0.3789 | 0.425 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0314 | 0.1681 | 0.0579 | 0.2058 | 0.2134 | 0.0 | 0.1975 | 0.0464 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 47 |
398
  | 2.9343 | nan | 0.0121 | 0.0462 | 0.1899 | 0.0366 | 0.7107 | 0.1253 | 0.0175 | 0.9248 | 0.0 | 0.6367 | 0.3224 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0333 | 0.1714 | 0.0525 | 0.0169 | 0.2080 | 0.0 | 0.1852 | 0.0586 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 48 |
399
+ | 2.9071 | nan | 0.0133 | 0.0479 | 0.1972 | 0.0308 | 0.6521 | 0.1076 | 0.1527 | 0.9251 | 0.0 | 0.6447 | 0.3586 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0288 | 0.1673 | 0.0478 | 0.1152 | 0.2093 | 0.0 | 0.1862 | 0.0459 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 49 |
400
 
401
 
402
  ### Framework versions
tf_model.h5 CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:fd9c46a971f29ef467130f195fd7c4da1bb7e4122eae05850a6dedb87b3ea6ef
3
  size 15285696
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:01dcc75b87e03c03cb05d0d9ece0d442d90a47e010faa11b81a0825328014513
3
  size 15285696