Octapod commited on
Commit
93310b1
1 Parent(s): 9dd4148

Upload folder using huggingface_hub

Browse files
Files changed (4) hide show
  1. README.md +12 -0
  2. config.json +55 -0
  3. config.yaml +648 -0
  4. model.safetensors +3 -0
README.md ADDED
@@ -0,0 +1,12 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ library_name: lerobot
3
+ tags:
4
+ - act
5
+ - model_hub_mixin
6
+ - pytorch_model_hub_mixin
7
+ - robotics
8
+ ---
9
+
10
+ This model has been pushed to the Hub using the [PytorchModelHubMixin](https://huggingface.co/docs/huggingface_hub/package_reference/mixins#huggingface_hub.PyTorchModelHubMixin) integration:
11
+ - Library: https://github.com/huggingface/lerobot
12
+ - Docs: [More Information Needed]
config.json ADDED
@@ -0,0 +1,55 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "chunk_size": 500,
3
+ "dim_feedforward": 3200,
4
+ "dim_model": 512,
5
+ "dropout": 0.1,
6
+ "feedforward_activation": "relu",
7
+ "input_normalization_modes": {
8
+ "observation.images.cam_high": "mean_std",
9
+ "observation.images.cam_left_wrist": "mean_std",
10
+ "observation.images.cam_right_wrist": "mean_std",
11
+ "observation.state": "mean_std"
12
+ },
13
+ "input_shapes": {
14
+ "observation.images.cam_high": [
15
+ 3,
16
+ 480,
17
+ 640
18
+ ],
19
+ "observation.images.cam_left_wrist": [
20
+ 3,
21
+ 480,
22
+ 640
23
+ ],
24
+ "observation.images.cam_right_wrist": [
25
+ 3,
26
+ 480,
27
+ 640
28
+ ],
29
+ "observation.state": [
30
+ 18
31
+ ]
32
+ },
33
+ "kl_weight": 10.0,
34
+ "latent_dim": 32,
35
+ "n_action_steps": 100,
36
+ "n_decoder_layers": 1,
37
+ "n_encoder_layers": 4,
38
+ "n_heads": 8,
39
+ "n_obs_steps": 1,
40
+ "n_vae_encoder_layers": 4,
41
+ "output_normalization_modes": {
42
+ "action": "mean_std"
43
+ },
44
+ "output_shapes": {
45
+ "action": [
46
+ 18
47
+ ]
48
+ },
49
+ "pre_norm": false,
50
+ "pretrained_backbone_weights": "ResNet18_Weights.IMAGENET1K_V1",
51
+ "replace_final_stride_with_dilation": false,
52
+ "temporal_ensemble_coeff": null,
53
+ "use_vae": true,
54
+ "vision_backbone": "resnet18"
55
+ }
config.yaml ADDED
@@ -0,0 +1,648 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ resume: false
2
+ device: cuda
3
+ use_amp: false
4
+ seed: 1000
5
+ dataset_repo_id: Octapod/aloha_oct_05
6
+ video_backend: pyav
7
+ training:
8
+ offline_steps: 100000
9
+ num_workers: 4
10
+ batch_size: 2
11
+ eval_freq: -1
12
+ log_freq: 100
13
+ save_checkpoint: true
14
+ save_freq: 100000
15
+ online_steps: 0
16
+ online_rollout_n_episodes: 1
17
+ online_rollout_batch_size: 1
18
+ online_steps_between_rollouts: 1
19
+ online_sampling_ratio: 0.5
20
+ online_env_seed: null
21
+ online_buffer_capacity: null
22
+ online_buffer_seed_size: 0
23
+ do_online_rollout_async: false
24
+ image_transforms:
25
+ enable: false
26
+ max_num_transforms: 3
27
+ random_order: false
28
+ brightness:
29
+ weight: 1
30
+ min_max:
31
+ - 0.8
32
+ - 1.2
33
+ contrast:
34
+ weight: 1
35
+ min_max:
36
+ - 0.8
37
+ - 1.2
38
+ saturation:
39
+ weight: 1
40
+ min_max:
41
+ - 0.5
42
+ - 1.5
43
+ hue:
44
+ weight: 1
45
+ min_max:
46
+ - -0.05
47
+ - 0.05
48
+ sharpness:
49
+ weight: 1
50
+ min_max:
51
+ - 0.8
52
+ - 1.2
53
+ lr: 1.0e-05
54
+ lr_backbone: 1.0e-05
55
+ weight_decay: 0.0001
56
+ grad_clip_norm: 10
57
+ delta_timestamps:
58
+ action:
59
+ - 0.0
60
+ - 0.03333333333333333
61
+ - 0.06666666666666667
62
+ - 0.1
63
+ - 0.13333333333333333
64
+ - 0.16666666666666666
65
+ - 0.2
66
+ - 0.23333333333333334
67
+ - 0.26666666666666666
68
+ - 0.3
69
+ - 0.3333333333333333
70
+ - 0.36666666666666664
71
+ - 0.4
72
+ - 0.43333333333333335
73
+ - 0.4666666666666667
74
+ - 0.5
75
+ - 0.5333333333333333
76
+ - 0.5666666666666667
77
+ - 0.6
78
+ - 0.6333333333333333
79
+ - 0.6666666666666666
80
+ - 0.7
81
+ - 0.7333333333333333
82
+ - 0.7666666666666667
83
+ - 0.8
84
+ - 0.8333333333333334
85
+ - 0.8666666666666667
86
+ - 0.9
87
+ - 0.9333333333333333
88
+ - 0.9666666666666667
89
+ - 1.0
90
+ - 1.0333333333333334
91
+ - 1.0666666666666667
92
+ - 1.1
93
+ - 1.1333333333333333
94
+ - 1.1666666666666667
95
+ - 1.2
96
+ - 1.2333333333333334
97
+ - 1.2666666666666666
98
+ - 1.3
99
+ - 1.3333333333333333
100
+ - 1.3666666666666667
101
+ - 1.4
102
+ - 1.4333333333333333
103
+ - 1.4666666666666666
104
+ - 1.5
105
+ - 1.5333333333333334
106
+ - 1.5666666666666667
107
+ - 1.6
108
+ - 1.6333333333333333
109
+ - 1.6666666666666667
110
+ - 1.7
111
+ - 1.7333333333333334
112
+ - 1.7666666666666666
113
+ - 1.8
114
+ - 1.8333333333333333
115
+ - 1.8666666666666667
116
+ - 1.9
117
+ - 1.9333333333333333
118
+ - 1.9666666666666666
119
+ - 2.0
120
+ - 2.033333333333333
121
+ - 2.066666666666667
122
+ - 2.1
123
+ - 2.1333333333333333
124
+ - 2.1666666666666665
125
+ - 2.2
126
+ - 2.2333333333333334
127
+ - 2.2666666666666666
128
+ - 2.3
129
+ - 2.3333333333333335
130
+ - 2.3666666666666667
131
+ - 2.4
132
+ - 2.433333333333333
133
+ - 2.466666666666667
134
+ - 2.5
135
+ - 2.533333333333333
136
+ - 2.566666666666667
137
+ - 2.6
138
+ - 2.6333333333333333
139
+ - 2.6666666666666665
140
+ - 2.7
141
+ - 2.7333333333333334
142
+ - 2.7666666666666666
143
+ - 2.8
144
+ - 2.8333333333333335
145
+ - 2.8666666666666667
146
+ - 2.9
147
+ - 2.933333333333333
148
+ - 2.966666666666667
149
+ - 3.0
150
+ - 3.033333333333333
151
+ - 3.066666666666667
152
+ - 3.1
153
+ - 3.1333333333333333
154
+ - 3.1666666666666665
155
+ - 3.2
156
+ - 3.2333333333333334
157
+ - 3.2666666666666666
158
+ - 3.3
159
+ - 3.3333333333333335
160
+ - 3.3666666666666667
161
+ - 3.4
162
+ - 3.433333333333333
163
+ - 3.466666666666667
164
+ - 3.5
165
+ - 3.533333333333333
166
+ - 3.566666666666667
167
+ - 3.6
168
+ - 3.6333333333333333
169
+ - 3.6666666666666665
170
+ - 3.7
171
+ - 3.7333333333333334
172
+ - 3.7666666666666666
173
+ - 3.8
174
+ - 3.8333333333333335
175
+ - 3.8666666666666667
176
+ - 3.9
177
+ - 3.933333333333333
178
+ - 3.966666666666667
179
+ - 4.0
180
+ - 4.033333333333333
181
+ - 4.066666666666666
182
+ - 4.1
183
+ - 4.133333333333334
184
+ - 4.166666666666667
185
+ - 4.2
186
+ - 4.233333333333333
187
+ - 4.266666666666667
188
+ - 4.3
189
+ - 4.333333333333333
190
+ - 4.366666666666666
191
+ - 4.4
192
+ - 4.433333333333334
193
+ - 4.466666666666667
194
+ - 4.5
195
+ - 4.533333333333333
196
+ - 4.566666666666666
197
+ - 4.6
198
+ - 4.633333333333334
199
+ - 4.666666666666667
200
+ - 4.7
201
+ - 4.733333333333333
202
+ - 4.766666666666667
203
+ - 4.8
204
+ - 4.833333333333333
205
+ - 4.866666666666666
206
+ - 4.9
207
+ - 4.933333333333334
208
+ - 4.966666666666667
209
+ - 5.0
210
+ - 5.033333333333333
211
+ - 5.066666666666666
212
+ - 5.1
213
+ - 5.133333333333334
214
+ - 5.166666666666667
215
+ - 5.2
216
+ - 5.233333333333333
217
+ - 5.266666666666667
218
+ - 5.3
219
+ - 5.333333333333333
220
+ - 5.366666666666666
221
+ - 5.4
222
+ - 5.433333333333334
223
+ - 5.466666666666667
224
+ - 5.5
225
+ - 5.533333333333333
226
+ - 5.566666666666666
227
+ - 5.6
228
+ - 5.633333333333334
229
+ - 5.666666666666667
230
+ - 5.7
231
+ - 5.733333333333333
232
+ - 5.766666666666667
233
+ - 5.8
234
+ - 5.833333333333333
235
+ - 5.866666666666666
236
+ - 5.9
237
+ - 5.933333333333334
238
+ - 5.966666666666667
239
+ - 6.0
240
+ - 6.033333333333333
241
+ - 6.066666666666666
242
+ - 6.1
243
+ - 6.133333333333334
244
+ - 6.166666666666667
245
+ - 6.2
246
+ - 6.233333333333333
247
+ - 6.266666666666667
248
+ - 6.3
249
+ - 6.333333333333333
250
+ - 6.366666666666666
251
+ - 6.4
252
+ - 6.433333333333334
253
+ - 6.466666666666667
254
+ - 6.5
255
+ - 6.533333333333333
256
+ - 6.566666666666666
257
+ - 6.6
258
+ - 6.633333333333334
259
+ - 6.666666666666667
260
+ - 6.7
261
+ - 6.733333333333333
262
+ - 6.766666666666667
263
+ - 6.8
264
+ - 6.833333333333333
265
+ - 6.866666666666666
266
+ - 6.9
267
+ - 6.933333333333334
268
+ - 6.966666666666667
269
+ - 7.0
270
+ - 7.033333333333333
271
+ - 7.066666666666666
272
+ - 7.1
273
+ - 7.133333333333334
274
+ - 7.166666666666667
275
+ - 7.2
276
+ - 7.233333333333333
277
+ - 7.266666666666667
278
+ - 7.3
279
+ - 7.333333333333333
280
+ - 7.366666666666666
281
+ - 7.4
282
+ - 7.433333333333334
283
+ - 7.466666666666667
284
+ - 7.5
285
+ - 7.533333333333333
286
+ - 7.566666666666666
287
+ - 7.6
288
+ - 7.633333333333334
289
+ - 7.666666666666667
290
+ - 7.7
291
+ - 7.733333333333333
292
+ - 7.766666666666667
293
+ - 7.8
294
+ - 7.833333333333333
295
+ - 7.866666666666666
296
+ - 7.9
297
+ - 7.933333333333334
298
+ - 7.966666666666667
299
+ - 8.0
300
+ - 8.033333333333333
301
+ - 8.066666666666666
302
+ - 8.1
303
+ - 8.133333333333333
304
+ - 8.166666666666666
305
+ - 8.2
306
+ - 8.233333333333333
307
+ - 8.266666666666667
308
+ - 8.3
309
+ - 8.333333333333334
310
+ - 8.366666666666667
311
+ - 8.4
312
+ - 8.433333333333334
313
+ - 8.466666666666667
314
+ - 8.5
315
+ - 8.533333333333333
316
+ - 8.566666666666666
317
+ - 8.6
318
+ - 8.633333333333333
319
+ - 8.666666666666666
320
+ - 8.7
321
+ - 8.733333333333333
322
+ - 8.766666666666667
323
+ - 8.8
324
+ - 8.833333333333334
325
+ - 8.866666666666667
326
+ - 8.9
327
+ - 8.933333333333334
328
+ - 8.966666666666667
329
+ - 9.0
330
+ - 9.033333333333333
331
+ - 9.066666666666666
332
+ - 9.1
333
+ - 9.133333333333333
334
+ - 9.166666666666666
335
+ - 9.2
336
+ - 9.233333333333333
337
+ - 9.266666666666667
338
+ - 9.3
339
+ - 9.333333333333334
340
+ - 9.366666666666667
341
+ - 9.4
342
+ - 9.433333333333334
343
+ - 9.466666666666667
344
+ - 9.5
345
+ - 9.533333333333333
346
+ - 9.566666666666666
347
+ - 9.6
348
+ - 9.633333333333333
349
+ - 9.666666666666666
350
+ - 9.7
351
+ - 9.733333333333333
352
+ - 9.766666666666667
353
+ - 9.8
354
+ - 9.833333333333334
355
+ - 9.866666666666667
356
+ - 9.9
357
+ - 9.933333333333334
358
+ - 9.966666666666667
359
+ - 10.0
360
+ - 10.033333333333333
361
+ - 10.066666666666666
362
+ - 10.1
363
+ - 10.133333333333333
364
+ - 10.166666666666666
365
+ - 10.2
366
+ - 10.233333333333333
367
+ - 10.266666666666667
368
+ - 10.3
369
+ - 10.333333333333334
370
+ - 10.366666666666667
371
+ - 10.4
372
+ - 10.433333333333334
373
+ - 10.466666666666667
374
+ - 10.5
375
+ - 10.533333333333333
376
+ - 10.566666666666666
377
+ - 10.6
378
+ - 10.633333333333333
379
+ - 10.666666666666666
380
+ - 10.7
381
+ - 10.733333333333333
382
+ - 10.766666666666667
383
+ - 10.8
384
+ - 10.833333333333334
385
+ - 10.866666666666667
386
+ - 10.9
387
+ - 10.933333333333334
388
+ - 10.966666666666667
389
+ - 11.0
390
+ - 11.033333333333333
391
+ - 11.066666666666666
392
+ - 11.1
393
+ - 11.133333333333333
394
+ - 11.166666666666666
395
+ - 11.2
396
+ - 11.233333333333333
397
+ - 11.266666666666667
398
+ - 11.3
399
+ - 11.333333333333334
400
+ - 11.366666666666667
401
+ - 11.4
402
+ - 11.433333333333334
403
+ - 11.466666666666667
404
+ - 11.5
405
+ - 11.533333333333333
406
+ - 11.566666666666666
407
+ - 11.6
408
+ - 11.633333333333333
409
+ - 11.666666666666666
410
+ - 11.7
411
+ - 11.733333333333333
412
+ - 11.766666666666667
413
+ - 11.8
414
+ - 11.833333333333334
415
+ - 11.866666666666667
416
+ - 11.9
417
+ - 11.933333333333334
418
+ - 11.966666666666667
419
+ - 12.0
420
+ - 12.033333333333333
421
+ - 12.066666666666666
422
+ - 12.1
423
+ - 12.133333333333333
424
+ - 12.166666666666666
425
+ - 12.2
426
+ - 12.233333333333333
427
+ - 12.266666666666667
428
+ - 12.3
429
+ - 12.333333333333334
430
+ - 12.366666666666667
431
+ - 12.4
432
+ - 12.433333333333334
433
+ - 12.466666666666667
434
+ - 12.5
435
+ - 12.533333333333333
436
+ - 12.566666666666666
437
+ - 12.6
438
+ - 12.633333333333333
439
+ - 12.666666666666666
440
+ - 12.7
441
+ - 12.733333333333333
442
+ - 12.766666666666667
443
+ - 12.8
444
+ - 12.833333333333334
445
+ - 12.866666666666667
446
+ - 12.9
447
+ - 12.933333333333334
448
+ - 12.966666666666667
449
+ - 13.0
450
+ - 13.033333333333333
451
+ - 13.066666666666666
452
+ - 13.1
453
+ - 13.133333333333333
454
+ - 13.166666666666666
455
+ - 13.2
456
+ - 13.233333333333333
457
+ - 13.266666666666667
458
+ - 13.3
459
+ - 13.333333333333334
460
+ - 13.366666666666667
461
+ - 13.4
462
+ - 13.433333333333334
463
+ - 13.466666666666667
464
+ - 13.5
465
+ - 13.533333333333333
466
+ - 13.566666666666666
467
+ - 13.6
468
+ - 13.633333333333333
469
+ - 13.666666666666666
470
+ - 13.7
471
+ - 13.733333333333333
472
+ - 13.766666666666667
473
+ - 13.8
474
+ - 13.833333333333334
475
+ - 13.866666666666667
476
+ - 13.9
477
+ - 13.933333333333334
478
+ - 13.966666666666667
479
+ - 14.0
480
+ - 14.033333333333333
481
+ - 14.066666666666666
482
+ - 14.1
483
+ - 14.133333333333333
484
+ - 14.166666666666666
485
+ - 14.2
486
+ - 14.233333333333333
487
+ - 14.266666666666667
488
+ - 14.3
489
+ - 14.333333333333334
490
+ - 14.366666666666667
491
+ - 14.4
492
+ - 14.433333333333334
493
+ - 14.466666666666667
494
+ - 14.5
495
+ - 14.533333333333333
496
+ - 14.566666666666666
497
+ - 14.6
498
+ - 14.633333333333333
499
+ - 14.666666666666666
500
+ - 14.7
501
+ - 14.733333333333333
502
+ - 14.766666666666667
503
+ - 14.8
504
+ - 14.833333333333334
505
+ - 14.866666666666667
506
+ - 14.9
507
+ - 14.933333333333334
508
+ - 14.966666666666667
509
+ - 15.0
510
+ - 15.033333333333333
511
+ - 15.066666666666666
512
+ - 15.1
513
+ - 15.133333333333333
514
+ - 15.166666666666666
515
+ - 15.2
516
+ - 15.233333333333333
517
+ - 15.266666666666667
518
+ - 15.3
519
+ - 15.333333333333334
520
+ - 15.366666666666667
521
+ - 15.4
522
+ - 15.433333333333334
523
+ - 15.466666666666667
524
+ - 15.5
525
+ - 15.533333333333333
526
+ - 15.566666666666666
527
+ - 15.6
528
+ - 15.633333333333333
529
+ - 15.666666666666666
530
+ - 15.7
531
+ - 15.733333333333333
532
+ - 15.766666666666667
533
+ - 15.8
534
+ - 15.833333333333334
535
+ - 15.866666666666667
536
+ - 15.9
537
+ - 15.933333333333334
538
+ - 15.966666666666667
539
+ - 16.0
540
+ - 16.033333333333335
541
+ - 16.066666666666666
542
+ - 16.1
543
+ - 16.133333333333333
544
+ - 16.166666666666668
545
+ - 16.2
546
+ - 16.233333333333334
547
+ - 16.266666666666666
548
+ - 16.3
549
+ - 16.333333333333332
550
+ - 16.366666666666667
551
+ - 16.4
552
+ - 16.433333333333334
553
+ - 16.466666666666665
554
+ - 16.5
555
+ - 16.533333333333335
556
+ - 16.566666666666666
557
+ - 16.6
558
+ - 16.633333333333333
559
+ eval:
560
+ n_episodes: 50
561
+ batch_size: 50
562
+ use_async_envs: false
563
+ wandb:
564
+ enable: false
565
+ disable_artifact: false
566
+ project: lerobot
567
+ notes: ''
568
+ fps: 30
569
+ env:
570
+ name: real_world
571
+ task: null
572
+ state_dim: 18
573
+ action_dim: 18
574
+ fps: ${fps}
575
+ override_dataset_stats:
576
+ observation.images.cam_right_wrist:
577
+ mean:
578
+ - - - 0.485
579
+ - - - 0.456
580
+ - - - 0.406
581
+ std:
582
+ - - - 0.229
583
+ - - - 0.224
584
+ - - - 0.225
585
+ observation.images.cam_left_wrist:
586
+ mean:
587
+ - - - 0.485
588
+ - - - 0.456
589
+ - - - 0.406
590
+ std:
591
+ - - - 0.229
592
+ - - - 0.224
593
+ - - - 0.225
594
+ observation.images.cam_high:
595
+ mean:
596
+ - - - 0.485
597
+ - - - 0.456
598
+ - - - 0.406
599
+ std:
600
+ - - - 0.229
601
+ - - - 0.224
602
+ - - - 0.225
603
+ policy:
604
+ name: act
605
+ n_obs_steps: 1
606
+ chunk_size: 500
607
+ n_action_steps: 100
608
+ input_shapes:
609
+ observation.images.cam_right_wrist:
610
+ - 3
611
+ - 480
612
+ - 640
613
+ observation.images.cam_left_wrist:
614
+ - 3
615
+ - 480
616
+ - 640
617
+ observation.images.cam_high:
618
+ - 3
619
+ - 480
620
+ - 640
621
+ observation.state:
622
+ - ${env.state_dim}
623
+ output_shapes:
624
+ action:
625
+ - ${env.action_dim}
626
+ input_normalization_modes:
627
+ observation.images.cam_right_wrist: mean_std
628
+ observation.images.cam_left_wrist: mean_std
629
+ observation.images.cam_high: mean_std
630
+ observation.state: mean_std
631
+ output_normalization_modes:
632
+ action: mean_std
633
+ vision_backbone: resnet18
634
+ pretrained_backbone_weights: ResNet18_Weights.IMAGENET1K_V1
635
+ replace_final_stride_with_dilation: false
636
+ pre_norm: false
637
+ dim_model: 512
638
+ n_heads: 8
639
+ dim_feedforward: 3200
640
+ feedforward_activation: relu
641
+ n_encoder_layers: 4
642
+ n_decoder_layers: 1
643
+ use_vae: true
644
+ latent_dim: 32
645
+ n_vae_encoder_layers: 4
646
+ temporal_ensemble_momentum: null
647
+ dropout: 0.1
648
+ kl_weight: 10.0
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:a59d55497074f279a9e23f97e53a6790cb6b03e4ee4eca1380d1c47832743c30
3
+ size 208438440