EtashGuha's picture
Upload folder using huggingface_hub
70ad130 verified
{
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 3.0,
"eval_steps": 500,
"global_step": 72,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.041666666666666664,
"grad_norm": 7.4461519509711245,
"learning_rate": 1.25e-06,
"loss": 1.222,
"step": 1
},
{
"epoch": 0.08333333333333333,
"grad_norm": 7.194929737353425,
"learning_rate": 2.5e-06,
"loss": 1.1779,
"step": 2
},
{
"epoch": 0.125,
"grad_norm": 7.333967870950286,
"learning_rate": 3.7500000000000005e-06,
"loss": 1.2291,
"step": 3
},
{
"epoch": 0.16666666666666666,
"grad_norm": 6.570794290680697,
"learning_rate": 5e-06,
"loss": 1.1662,
"step": 4
},
{
"epoch": 0.20833333333333334,
"grad_norm": 5.127918855747146,
"learning_rate": 6.25e-06,
"loss": 1.1464,
"step": 5
},
{
"epoch": 0.25,
"grad_norm": 2.528659831516316,
"learning_rate": 7.500000000000001e-06,
"loss": 1.0867,
"step": 6
},
{
"epoch": 0.2916666666666667,
"grad_norm": 4.974882078396541,
"learning_rate": 8.750000000000001e-06,
"loss": 1.0931,
"step": 7
},
{
"epoch": 0.3333333333333333,
"grad_norm": 5.324763274797421,
"learning_rate": 1e-05,
"loss": 1.0674,
"step": 8
},
{
"epoch": 0.375,
"grad_norm": 4.680608433921859,
"learning_rate": 9.993977281025862e-06,
"loss": 1.0213,
"step": 9
},
{
"epoch": 0.4166666666666667,
"grad_norm": 5.1315789257717945,
"learning_rate": 9.975923633360985e-06,
"loss": 1.0397,
"step": 10
},
{
"epoch": 0.4583333333333333,
"grad_norm": 3.6025890380547745,
"learning_rate": 9.945882549823906e-06,
"loss": 0.9833,
"step": 11
},
{
"epoch": 0.5,
"grad_norm": 2.2633809022438287,
"learning_rate": 9.903926402016153e-06,
"loss": 0.9242,
"step": 12
},
{
"epoch": 0.5416666666666666,
"grad_norm": 2.523949643335755,
"learning_rate": 9.850156265972722e-06,
"loss": 0.9306,
"step": 13
},
{
"epoch": 0.5833333333333334,
"grad_norm": 2.3117675062860883,
"learning_rate": 9.784701678661045e-06,
"loss": 0.9053,
"step": 14
},
{
"epoch": 0.625,
"grad_norm": 1.8591474201560603,
"learning_rate": 9.707720325915105e-06,
"loss": 0.912,
"step": 15
},
{
"epoch": 0.6666666666666666,
"grad_norm": 1.472720248225591,
"learning_rate": 9.619397662556434e-06,
"loss": 0.8843,
"step": 16
},
{
"epoch": 0.7083333333333334,
"grad_norm": 1.2895049049519833,
"learning_rate": 9.519946465617217e-06,
"loss": 0.8891,
"step": 17
},
{
"epoch": 0.75,
"grad_norm": 1.1773227687641274,
"learning_rate": 9.409606321741776e-06,
"loss": 0.8623,
"step": 18
},
{
"epoch": 0.7916666666666666,
"grad_norm": 1.1404756655161843,
"learning_rate": 9.288643050001362e-06,
"loss": 0.8788,
"step": 19
},
{
"epoch": 0.8333333333333334,
"grad_norm": 0.8551371234751329,
"learning_rate": 9.157348061512728e-06,
"loss": 0.8561,
"step": 20
},
{
"epoch": 0.875,
"grad_norm": 0.8093803560929222,
"learning_rate": 9.016037657403225e-06,
"loss": 0.8625,
"step": 21
},
{
"epoch": 0.9166666666666666,
"grad_norm": 0.7817687246884554,
"learning_rate": 8.865052266813686e-06,
"loss": 0.8625,
"step": 22
},
{
"epoch": 0.9583333333333334,
"grad_norm": 0.8101494321706375,
"learning_rate": 8.704755626774796e-06,
"loss": 0.8391,
"step": 23
},
{
"epoch": 1.0,
"grad_norm": 0.5093988051964708,
"learning_rate": 8.535533905932739e-06,
"loss": 0.8406,
"step": 24
},
{
"epoch": 1.0416666666666667,
"grad_norm": 0.5665482168782667,
"learning_rate": 8.357794774235094e-06,
"loss": 0.819,
"step": 25
},
{
"epoch": 1.0833333333333333,
"grad_norm": 0.5605222851113811,
"learning_rate": 8.171966420818227e-06,
"loss": 0.8119,
"step": 26
},
{
"epoch": 1.125,
"grad_norm": 0.563011084024224,
"learning_rate": 7.978496522462167e-06,
"loss": 0.7977,
"step": 27
},
{
"epoch": 1.1666666666666667,
"grad_norm": 0.4370218328877668,
"learning_rate": 7.777851165098012e-06,
"loss": 0.7925,
"step": 28
},
{
"epoch": 1.2083333333333333,
"grad_norm": 0.4363576530088793,
"learning_rate": 7.570513720966108e-06,
"loss": 0.8107,
"step": 29
},
{
"epoch": 1.25,
"grad_norm": 0.454199209193312,
"learning_rate": 7.3569836841299905e-06,
"loss": 0.8226,
"step": 30
},
{
"epoch": 1.2916666666666667,
"grad_norm": 0.43849188161106434,
"learning_rate": 7.137775467151411e-06,
"loss": 0.7941,
"step": 31
},
{
"epoch": 1.3333333333333333,
"grad_norm": 0.39461206608240496,
"learning_rate": 6.913417161825449e-06,
"loss": 0.8032,
"step": 32
},
{
"epoch": 1.375,
"grad_norm": 0.45668675578130913,
"learning_rate": 6.684449266961101e-06,
"loss": 0.8029,
"step": 33
},
{
"epoch": 1.4166666666666667,
"grad_norm": 0.43600043654014087,
"learning_rate": 6.451423386272312e-06,
"loss": 0.8081,
"step": 34
},
{
"epoch": 1.4583333333333333,
"grad_norm": 0.42108216786596225,
"learning_rate": 6.21490089951632e-06,
"loss": 0.7971,
"step": 35
},
{
"epoch": 1.5,
"grad_norm": 0.35021427514409276,
"learning_rate": 5.975451610080643e-06,
"loss": 0.7916,
"step": 36
},
{
"epoch": 1.5416666666666665,
"grad_norm": 0.5456525909687769,
"learning_rate": 5.733652372276809e-06,
"loss": 0.809,
"step": 37
},
{
"epoch": 1.5833333333333335,
"grad_norm": 0.44917605026168267,
"learning_rate": 5.490085701647805e-06,
"loss": 0.7549,
"step": 38
},
{
"epoch": 1.625,
"grad_norm": 0.36337481633076185,
"learning_rate": 5.245338371637091e-06,
"loss": 0.8049,
"step": 39
},
{
"epoch": 1.6666666666666665,
"grad_norm": 0.35099097879704033,
"learning_rate": 5e-06,
"loss": 0.7711,
"step": 40
},
{
"epoch": 1.7083333333333335,
"grad_norm": 0.3474553408571236,
"learning_rate": 4.75466162836291e-06,
"loss": 0.7912,
"step": 41
},
{
"epoch": 1.75,
"grad_norm": 0.40430012822618056,
"learning_rate": 4.509914298352197e-06,
"loss": 0.7608,
"step": 42
},
{
"epoch": 1.7916666666666665,
"grad_norm": 0.3638732435388027,
"learning_rate": 4.266347627723192e-06,
"loss": 0.7955,
"step": 43
},
{
"epoch": 1.8333333333333335,
"grad_norm": 0.3566549145751346,
"learning_rate": 4.02454838991936e-06,
"loss": 0.7885,
"step": 44
},
{
"epoch": 1.875,
"grad_norm": 0.345560427391061,
"learning_rate": 3.7850991004836813e-06,
"loss": 0.7789,
"step": 45
},
{
"epoch": 1.9166666666666665,
"grad_norm": 0.32890679342787366,
"learning_rate": 3.5485766137276894e-06,
"loss": 0.8068,
"step": 46
},
{
"epoch": 1.9583333333333335,
"grad_norm": 0.30384650295902926,
"learning_rate": 3.3155507330389004e-06,
"loss": 0.7877,
"step": 47
},
{
"epoch": 2.0,
"grad_norm": 0.315934146641292,
"learning_rate": 3.0865828381745515e-06,
"loss": 0.7909,
"step": 48
},
{
"epoch": 2.0416666666666665,
"grad_norm": 0.3088706026275368,
"learning_rate": 2.862224532848591e-06,
"loss": 0.7664,
"step": 49
},
{
"epoch": 2.0833333333333335,
"grad_norm": 0.2934756055775262,
"learning_rate": 2.6430163158700116e-06,
"loss": 0.7636,
"step": 50
},
{
"epoch": 2.125,
"grad_norm": 0.2781668159606118,
"learning_rate": 2.429486279033892e-06,
"loss": 0.7494,
"step": 51
},
{
"epoch": 2.1666666666666665,
"grad_norm": 0.26041364038043807,
"learning_rate": 2.2221488349019903e-06,
"loss": 0.7597,
"step": 52
},
{
"epoch": 2.2083333333333335,
"grad_norm": 0.28685389706179326,
"learning_rate": 2.0215034775378336e-06,
"loss": 0.7377,
"step": 53
},
{
"epoch": 2.25,
"grad_norm": 0.2814318410441988,
"learning_rate": 1.8280335791817733e-06,
"loss": 0.7584,
"step": 54
},
{
"epoch": 2.2916666666666665,
"grad_norm": 0.2882795848313525,
"learning_rate": 1.642205225764908e-06,
"loss": 0.7593,
"step": 55
},
{
"epoch": 2.3333333333333335,
"grad_norm": 0.2678705990361174,
"learning_rate": 1.4644660940672628e-06,
"loss": 0.7555,
"step": 56
},
{
"epoch": 2.375,
"grad_norm": 0.29557635096062773,
"learning_rate": 1.2952443732252058e-06,
"loss": 0.7793,
"step": 57
},
{
"epoch": 2.4166666666666665,
"grad_norm": 0.2907068363495174,
"learning_rate": 1.134947733186315e-06,
"loss": 0.7309,
"step": 58
},
{
"epoch": 2.4583333333333335,
"grad_norm": 0.2657901924127417,
"learning_rate": 9.83962342596776e-07,
"loss": 0.7514,
"step": 59
},
{
"epoch": 2.5,
"grad_norm": 0.24256134408455063,
"learning_rate": 8.426519384872733e-07,
"loss": 0.7758,
"step": 60
},
{
"epoch": 2.5416666666666665,
"grad_norm": 0.2640727281354079,
"learning_rate": 7.113569499986401e-07,
"loss": 0.7473,
"step": 61
},
{
"epoch": 2.5833333333333335,
"grad_norm": 0.24447100703685454,
"learning_rate": 5.903936782582253e-07,
"loss": 0.7523,
"step": 62
},
{
"epoch": 2.625,
"grad_norm": 0.255955912903117,
"learning_rate": 4.800535343827834e-07,
"loss": 0.7441,
"step": 63
},
{
"epoch": 2.6666666666666665,
"grad_norm": 0.2500055813341445,
"learning_rate": 3.8060233744356634e-07,
"loss": 0.7592,
"step": 64
},
{
"epoch": 2.7083333333333335,
"grad_norm": 0.2368922676632115,
"learning_rate": 2.9227967408489653e-07,
"loss": 0.74,
"step": 65
},
{
"epoch": 2.75,
"grad_norm": 0.25004456778320516,
"learning_rate": 2.152983213389559e-07,
"loss": 0.7528,
"step": 66
},
{
"epoch": 2.7916666666666665,
"grad_norm": 0.23738559029873482,
"learning_rate": 1.4984373402728014e-07,
"loss": 0.7476,
"step": 67
},
{
"epoch": 2.8333333333333335,
"grad_norm": 0.23711273434333477,
"learning_rate": 9.607359798384785e-08,
"loss": 0.7626,
"step": 68
},
{
"epoch": 2.875,
"grad_norm": 0.24058387004215953,
"learning_rate": 5.411745017609493e-08,
"loss": 0.7476,
"step": 69
},
{
"epoch": 2.9166666666666665,
"grad_norm": 0.23933234547011273,
"learning_rate": 2.4076366639015914e-08,
"loss": 0.7685,
"step": 70
},
{
"epoch": 2.9583333333333335,
"grad_norm": 0.22845877486050034,
"learning_rate": 6.022718974137976e-09,
"loss": 0.736,
"step": 71
},
{
"epoch": 3.0,
"grad_norm": 0.23887168528712394,
"learning_rate": 0.0,
"loss": 0.7468,
"step": 72
},
{
"epoch": 3.0,
"step": 72,
"total_flos": 2.4710097421939507e+17,
"train_loss": 0.8453347384929657,
"train_runtime": 2641.4784,
"train_samples_per_second": 2.613,
"train_steps_per_second": 0.027
}
],
"logging_steps": 1,
"max_steps": 72,
"num_input_tokens_seen": 0,
"num_train_epochs": 3,
"save_steps": 500,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": true
},
"attributes": {}
}
},
"total_flos": 2.4710097421939507e+17,
"train_batch_size": 1,
"trial_name": null,
"trial_params": null
}