m1b commited on
Commit
60b2365
1 Parent(s): edfdb46

Upload folder using huggingface_hub

Browse files
Files changed (4) hide show
  1. README.md +9 -0
  2. config.json +52 -0
  3. config.yaml +237 -0
  4. model.safetensors +3 -0
README.md ADDED
@@ -0,0 +1,9 @@
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ tags:
3
+ - model_hub_mixin
4
+ - pytorch_model_hub_mixin
5
+ ---
6
+
7
+ This model has been pushed to the Hub using the [PytorchModelHubMixin](https://huggingface.co/docs/huggingface_hub/package_reference/mixins#huggingface_hub.PyTorchModelHubMixin) integration:
8
+ - Library: [More Information Needed]
9
+ - Docs: [More Information Needed]
config.json ADDED
@@ -0,0 +1,52 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "chunk_size": 100,
3
+ "dim_feedforward": 3200,
4
+ "dim_model": 512,
5
+ "dropout": 0.1,
6
+ "feedforward_activation": "relu",
7
+ "input_normalization_modes": {
8
+ "observation.images.laptop": "mean_std",
9
+ "observation.images.phone": "mean_std",
10
+ "observation.state": "mean_std"
11
+ },
12
+ "input_shapes": {
13
+ "dataset_index": [
14
+ 1
15
+ ],
16
+ "observation.images.laptop": [
17
+ 3,
18
+ 480,
19
+ 640
20
+ ],
21
+ "observation.images.phone": [
22
+ 3,
23
+ 480,
24
+ 640
25
+ ],
26
+ "observation.state": [
27
+ 6
28
+ ]
29
+ },
30
+ "kl_weight": 10.0,
31
+ "latent_dim": 32,
32
+ "n_action_steps": 100,
33
+ "n_decoder_layers": 1,
34
+ "n_encoder_layers": 4,
35
+ "n_heads": 8,
36
+ "n_obs_steps": 1,
37
+ "n_vae_encoder_layers": 4,
38
+ "output_normalization_modes": {
39
+ "action": "mean_std"
40
+ },
41
+ "output_shapes": {
42
+ "action": [
43
+ 6
44
+ ]
45
+ },
46
+ "pre_norm": false,
47
+ "pretrained_backbone_weights": "ResNet18_Weights.IMAGENET1K_V1",
48
+ "replace_final_stride_with_dilation": false,
49
+ "temporal_ensemble_coeff": null,
50
+ "use_vae": true,
51
+ "vision_backbone": "resnet18"
52
+ }
config.yaml ADDED
@@ -0,0 +1,237 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ resume: false
2
+ device: cuda
3
+ seed: 1000
4
+ dataset_repo_id:
5
+ - m1b/koch_pick_lego_red_box
6
+ - m1b/koch_pick_lego_green_box
7
+ video_backend: pyav
8
+ training:
9
+ offline_steps: 100000
10
+ num_workers: 4
11
+ batch_size: 8
12
+ eval_freq: -1
13
+ log_freq: 200
14
+ save_checkpoint: true
15
+ save_freq: 20000
16
+ online_steps: 0
17
+ online_rollout_n_episodes: 1
18
+ online_rollout_batch_size: 1
19
+ online_steps_between_rollouts: 1
20
+ online_sampling_ratio: 0.5
21
+ online_env_seed: null
22
+ online_buffer_capacity: null
23
+ online_buffer_seed_size: 0
24
+ do_online_rollout_async: false
25
+ image_transforms:
26
+ enable: false
27
+ max_num_transforms: 3
28
+ random_order: false
29
+ brightness:
30
+ weight: 1
31
+ min_max:
32
+ - 0.8
33
+ - 1.2
34
+ contrast:
35
+ weight: 1
36
+ min_max:
37
+ - 0.8
38
+ - 1.2
39
+ saturation:
40
+ weight: 1
41
+ min_max:
42
+ - 0.5
43
+ - 1.5
44
+ hue:
45
+ weight: 1
46
+ min_max:
47
+ - -0.05
48
+ - 0.05
49
+ sharpness:
50
+ weight: 1
51
+ min_max:
52
+ - 0.8
53
+ - 1.2
54
+ lr: 1.0e-05
55
+ lr_backbone: 1.0e-05
56
+ weight_decay: 0.0001
57
+ grad_clip_norm: 10
58
+ delta_timestamps:
59
+ action:
60
+ - 0.0
61
+ - 0.03333333333333333
62
+ - 0.06666666666666667
63
+ - 0.1
64
+ - 0.13333333333333333
65
+ - 0.16666666666666666
66
+ - 0.2
67
+ - 0.23333333333333334
68
+ - 0.26666666666666666
69
+ - 0.3
70
+ - 0.3333333333333333
71
+ - 0.36666666666666664
72
+ - 0.4
73
+ - 0.43333333333333335
74
+ - 0.4666666666666667
75
+ - 0.5
76
+ - 0.5333333333333333
77
+ - 0.5666666666666667
78
+ - 0.6
79
+ - 0.6333333333333333
80
+ - 0.6666666666666666
81
+ - 0.7
82
+ - 0.7333333333333333
83
+ - 0.7666666666666667
84
+ - 0.8
85
+ - 0.8333333333333334
86
+ - 0.8666666666666667
87
+ - 0.9
88
+ - 0.9333333333333333
89
+ - 0.9666666666666667
90
+ - 1.0
91
+ - 1.0333333333333334
92
+ - 1.0666666666666667
93
+ - 1.1
94
+ - 1.1333333333333333
95
+ - 1.1666666666666667
96
+ - 1.2
97
+ - 1.2333333333333334
98
+ - 1.2666666666666666
99
+ - 1.3
100
+ - 1.3333333333333333
101
+ - 1.3666666666666667
102
+ - 1.4
103
+ - 1.4333333333333333
104
+ - 1.4666666666666666
105
+ - 1.5
106
+ - 1.5333333333333334
107
+ - 1.5666666666666667
108
+ - 1.6
109
+ - 1.6333333333333333
110
+ - 1.6666666666666667
111
+ - 1.7
112
+ - 1.7333333333333334
113
+ - 1.7666666666666666
114
+ - 1.8
115
+ - 1.8333333333333333
116
+ - 1.8666666666666667
117
+ - 1.9
118
+ - 1.9333333333333333
119
+ - 1.9666666666666666
120
+ - 2.0
121
+ - 2.033333333333333
122
+ - 2.066666666666667
123
+ - 2.1
124
+ - 2.1333333333333333
125
+ - 2.1666666666666665
126
+ - 2.2
127
+ - 2.2333333333333334
128
+ - 2.2666666666666666
129
+ - 2.3
130
+ - 2.3333333333333335
131
+ - 2.3666666666666667
132
+ - 2.4
133
+ - 2.433333333333333
134
+ - 2.466666666666667
135
+ - 2.5
136
+ - 2.533333333333333
137
+ - 2.566666666666667
138
+ - 2.6
139
+ - 2.6333333333333333
140
+ - 2.6666666666666665
141
+ - 2.7
142
+ - 2.7333333333333334
143
+ - 2.7666666666666666
144
+ - 2.8
145
+ - 2.8333333333333335
146
+ - 2.8666666666666667
147
+ - 2.9
148
+ - 2.933333333333333
149
+ - 2.966666666666667
150
+ - 3.0
151
+ - 3.033333333333333
152
+ - 3.066666666666667
153
+ - 3.1
154
+ - 3.1333333333333333
155
+ - 3.1666666666666665
156
+ - 3.2
157
+ - 3.2333333333333334
158
+ - 3.2666666666666666
159
+ - 3.3
160
+ eval:
161
+ n_episodes: 50
162
+ batch_size: 50
163
+ use_async_envs: false
164
+ wandb:
165
+ enable: true
166
+ disable_artifact: false
167
+ project: lerobot
168
+ notes: ''
169
+ fps: 30
170
+ env:
171
+ name: real_world
172
+ task: null
173
+ state_dim: 6
174
+ action_dim: 6
175
+ fps: ${fps}
176
+ override_dataset_stats:
177
+ observation.images.laptop:
178
+ mean:
179
+ - - - 0.485
180
+ - - - 0.456
181
+ - - - 0.406
182
+ std:
183
+ - - - 0.229
184
+ - - - 0.224
185
+ - - - 0.225
186
+ observation.images.phone:
187
+ mean:
188
+ - - - 0.485
189
+ - - - 0.456
190
+ - - - 0.406
191
+ std:
192
+ - - - 0.229
193
+ - - - 0.224
194
+ - - - 0.225
195
+ policy:
196
+ name: act
197
+ n_obs_steps: 1
198
+ chunk_size: 100
199
+ n_action_steps: 100
200
+ input_shapes:
201
+ observation.images.laptop:
202
+ - 3
203
+ - 480
204
+ - 640
205
+ observation.images.phone:
206
+ - 3
207
+ - 480
208
+ - 640
209
+ observation.state:
210
+ - ${env.state_dim}
211
+ dataset_index:
212
+ - 1
213
+ output_shapes:
214
+ action:
215
+ - ${env.action_dim}
216
+ input_normalization_modes:
217
+ observation.images.laptop: mean_std
218
+ observation.images.phone: mean_std
219
+ observation.state: mean_std
220
+ output_normalization_modes:
221
+ action: mean_std
222
+ vision_backbone: resnet18
223
+ pretrained_backbone_weights: ResNet18_Weights.IMAGENET1K_V1
224
+ replace_final_stride_with_dilation: false
225
+ pre_norm: false
226
+ dim_model: 512
227
+ n_heads: 8
228
+ dim_feedforward: 3200
229
+ feedforward_activation: relu
230
+ n_encoder_layers: 4
231
+ n_decoder_layers: 1
232
+ use_vae: true
233
+ latent_dim: 32
234
+ n_vae_encoder_layers: 4
235
+ temporal_ensemble_coeff: null
236
+ dropout: 0.1
237
+ kl_weight: 10.0
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:189c0fb0a9cfbd18f7cc84bc2adfd07a91d673276feecc21a2e2f47446235586
3
+ size 206709688