diff --git "a/trainer_state.json" "b/trainer_state.json" new file mode 100644--- /dev/null +++ "b/trainer_state.json" @@ -0,0 +1,8442 @@ +{ + "best_metric": null, + "best_model_checkpoint": null, + "epoch": 5.0, + "eval_steps": 500, + "global_step": 1200, + "is_hyper_param_search": false, + "is_local_process_zero": true, + "is_world_process_zero": true, + "log_history": [ + { + "epoch": 0.004166666666666667, + "grad_norm": 6.832746617212501, + "learning_rate": 3.3333333333333335e-07, + "loss": 1.0708, + "step": 1 + }, + { + "epoch": 0.008333333333333333, + "grad_norm": 6.722005165892311, + "learning_rate": 6.666666666666667e-07, + "loss": 1.0439, + "step": 2 + }, + { + "epoch": 0.0125, + "grad_norm": 6.592513139645599, + "learning_rate": 1.0000000000000002e-06, + "loss": 1.0359, + "step": 3 + }, + { + "epoch": 0.016666666666666666, + "grad_norm": 6.400449551473129, + "learning_rate": 1.3333333333333334e-06, + "loss": 1.0264, + "step": 4 + }, + { + "epoch": 0.020833333333333332, + "grad_norm": 6.141935206476066, + "learning_rate": 1.6666666666666667e-06, + "loss": 1.0219, + "step": 5 + }, + { + "epoch": 0.025, + "grad_norm": 6.144188614406256, + "learning_rate": 2.0000000000000003e-06, + "loss": 1.0423, + "step": 6 + }, + { + "epoch": 0.029166666666666667, + "grad_norm": 4.723936973082147, + "learning_rate": 2.3333333333333336e-06, + "loss": 0.9905, + "step": 7 + }, + { + "epoch": 0.03333333333333333, + "grad_norm": 4.404721433571438, + "learning_rate": 2.666666666666667e-06, + "loss": 0.9999, + "step": 8 + }, + { + "epoch": 0.0375, + "grad_norm": 2.8556986560850834, + "learning_rate": 3e-06, + "loss": 0.9511, + "step": 9 + }, + { + "epoch": 0.041666666666666664, + "grad_norm": 2.645937958339345, + "learning_rate": 3.3333333333333333e-06, + "loss": 0.9576, + "step": 10 + }, + { + "epoch": 0.04583333333333333, + "grad_norm": 2.5264859541553673, + "learning_rate": 3.6666666666666666e-06, + "loss": 0.9467, + "step": 11 + }, + { + "epoch": 0.05, + "grad_norm": 4.249945414605477, + "learning_rate": 4.000000000000001e-06, + "loss": 0.923, + "step": 12 + }, + { + "epoch": 0.05416666666666667, + "grad_norm": 4.438511276924439, + "learning_rate": 4.333333333333334e-06, + "loss": 0.9284, + "step": 13 + }, + { + "epoch": 0.058333333333333334, + "grad_norm": 4.350535532893484, + "learning_rate": 4.666666666666667e-06, + "loss": 0.9276, + "step": 14 + }, + { + "epoch": 0.0625, + "grad_norm": 3.837878669737464, + "learning_rate": 5e-06, + "loss": 0.9148, + "step": 15 + }, + { + "epoch": 0.06666666666666667, + "grad_norm": 3.096451437357516, + "learning_rate": 5.333333333333334e-06, + "loss": 0.8751, + "step": 16 + }, + { + "epoch": 0.07083333333333333, + "grad_norm": 2.8188767114680444, + "learning_rate": 5.666666666666667e-06, + "loss": 0.8635, + "step": 17 + }, + { + "epoch": 0.075, + "grad_norm": 2.263860832111962, + "learning_rate": 6e-06, + "loss": 0.8441, + "step": 18 + }, + { + "epoch": 0.07916666666666666, + "grad_norm": 1.6832918244958086, + "learning_rate": 6.333333333333333e-06, + "loss": 0.8396, + "step": 19 + }, + { + "epoch": 0.08333333333333333, + "grad_norm": 1.3015547810704755, + "learning_rate": 6.666666666666667e-06, + "loss": 0.8143, + "step": 20 + }, + { + "epoch": 0.0875, + "grad_norm": 1.325993130595308, + "learning_rate": 7e-06, + "loss": 0.8114, + "step": 21 + }, + { + "epoch": 0.09166666666666666, + "grad_norm": 1.361193673338303, + "learning_rate": 7.333333333333333e-06, + "loss": 0.8006, + "step": 22 + }, + { + "epoch": 0.09583333333333334, + "grad_norm": 1.122439118254614, + "learning_rate": 7.666666666666667e-06, + "loss": 0.7868, + "step": 23 + }, + { + "epoch": 0.1, + "grad_norm": 0.916710349802209, + "learning_rate": 8.000000000000001e-06, + "loss": 0.7731, + "step": 24 + }, + { + "epoch": 0.10416666666666667, + "grad_norm": 0.9193543079053559, + "learning_rate": 8.333333333333334e-06, + "loss": 0.7738, + "step": 25 + }, + { + "epoch": 0.10833333333333334, + "grad_norm": 0.9146646422133236, + "learning_rate": 8.666666666666668e-06, + "loss": 0.7583, + "step": 26 + }, + { + "epoch": 0.1125, + "grad_norm": 0.7990361061623279, + "learning_rate": 9e-06, + "loss": 0.7399, + "step": 27 + }, + { + "epoch": 0.11666666666666667, + "grad_norm": 0.7768592276111252, + "learning_rate": 9.333333333333334e-06, + "loss": 0.7457, + "step": 28 + }, + { + "epoch": 0.12083333333333333, + "grad_norm": 0.8435019115381818, + "learning_rate": 9.666666666666667e-06, + "loss": 0.742, + "step": 29 + }, + { + "epoch": 0.125, + "grad_norm": 0.8088610628833126, + "learning_rate": 1e-05, + "loss": 0.7327, + "step": 30 + }, + { + "epoch": 0.12916666666666668, + "grad_norm": 0.8244906434691093, + "learning_rate": 1.0333333333333335e-05, + "loss": 0.7368, + "step": 31 + }, + { + "epoch": 0.13333333333333333, + "grad_norm": 0.6349527593388378, + "learning_rate": 1.0666666666666667e-05, + "loss": 0.7302, + "step": 32 + }, + { + "epoch": 0.1375, + "grad_norm": 0.7242668613698263, + "learning_rate": 1.1000000000000001e-05, + "loss": 0.7265, + "step": 33 + }, + { + "epoch": 0.14166666666666666, + "grad_norm": 0.6934236067516485, + "learning_rate": 1.1333333333333334e-05, + "loss": 0.7121, + "step": 34 + }, + { + "epoch": 0.14583333333333334, + "grad_norm": 0.6230632857377315, + "learning_rate": 1.1666666666666668e-05, + "loss": 0.722, + "step": 35 + }, + { + "epoch": 0.15, + "grad_norm": 0.6057998943730727, + "learning_rate": 1.2e-05, + "loss": 0.7071, + "step": 36 + }, + { + "epoch": 0.15416666666666667, + "grad_norm": 0.7154466695410022, + "learning_rate": 1.2333333333333334e-05, + "loss": 0.7115, + "step": 37 + }, + { + "epoch": 0.15833333333333333, + "grad_norm": 0.583085961426423, + "learning_rate": 1.2666666666666667e-05, + "loss": 0.7029, + "step": 38 + }, + { + "epoch": 0.1625, + "grad_norm": 0.6637301966327246, + "learning_rate": 1.3000000000000001e-05, + "loss": 0.7006, + "step": 39 + }, + { + "epoch": 0.16666666666666666, + "grad_norm": 0.6570162295776591, + "learning_rate": 1.3333333333333333e-05, + "loss": 0.7006, + "step": 40 + }, + { + "epoch": 0.17083333333333334, + "grad_norm": 1.6249295445681182, + "learning_rate": 1.3666666666666667e-05, + "loss": 0.7444, + "step": 41 + }, + { + "epoch": 0.175, + "grad_norm": 0.6711937521500816, + "learning_rate": 1.4e-05, + "loss": 0.681, + "step": 42 + }, + { + "epoch": 0.17916666666666667, + "grad_norm": 0.593977893755728, + "learning_rate": 1.4333333333333334e-05, + "loss": 0.6917, + "step": 43 + }, + { + "epoch": 0.18333333333333332, + "grad_norm": 0.5683636125066719, + "learning_rate": 1.4666666666666666e-05, + "loss": 0.6949, + "step": 44 + }, + { + "epoch": 0.1875, + "grad_norm": 0.6547304924994687, + "learning_rate": 1.5000000000000002e-05, + "loss": 0.6754, + "step": 45 + }, + { + "epoch": 0.19166666666666668, + "grad_norm": 0.7057244148349102, + "learning_rate": 1.5333333333333334e-05, + "loss": 0.6694, + "step": 46 + }, + { + "epoch": 0.19583333333333333, + "grad_norm": 0.5428808928110224, + "learning_rate": 1.5666666666666667e-05, + "loss": 0.6691, + "step": 47 + }, + { + "epoch": 0.2, + "grad_norm": 0.6611089292468514, + "learning_rate": 1.6000000000000003e-05, + "loss": 0.6866, + "step": 48 + }, + { + "epoch": 0.20416666666666666, + "grad_norm": 0.6437372302287256, + "learning_rate": 1.6333333333333335e-05, + "loss": 0.6857, + "step": 49 + }, + { + "epoch": 0.20833333333333334, + "grad_norm": 0.6242998695394557, + "learning_rate": 1.6666666666666667e-05, + "loss": 0.6718, + "step": 50 + }, + { + "epoch": 0.2125, + "grad_norm": 0.6614584849659777, + "learning_rate": 1.7e-05, + "loss": 0.651, + "step": 51 + }, + { + "epoch": 0.21666666666666667, + "grad_norm": 0.7075875910735387, + "learning_rate": 1.7333333333333336e-05, + "loss": 0.6701, + "step": 52 + }, + { + "epoch": 0.22083333333333333, + "grad_norm": 0.7746688794934284, + "learning_rate": 1.7666666666666668e-05, + "loss": 0.6612, + "step": 53 + }, + { + "epoch": 0.225, + "grad_norm": 0.6528458565370922, + "learning_rate": 1.8e-05, + "loss": 0.6612, + "step": 54 + }, + { + "epoch": 0.22916666666666666, + "grad_norm": 0.8854520187882521, + "learning_rate": 1.8333333333333333e-05, + "loss": 0.6698, + "step": 55 + }, + { + "epoch": 0.23333333333333334, + "grad_norm": 0.8249936321934339, + "learning_rate": 1.866666666666667e-05, + "loss": 0.6617, + "step": 56 + }, + { + "epoch": 0.2375, + "grad_norm": 0.5756591220496925, + "learning_rate": 1.9e-05, + "loss": 0.6677, + "step": 57 + }, + { + "epoch": 0.24166666666666667, + "grad_norm": 0.8391486543945865, + "learning_rate": 1.9333333333333333e-05, + "loss": 0.6706, + "step": 58 + }, + { + "epoch": 0.24583333333333332, + "grad_norm": 0.62922500152976, + "learning_rate": 1.9666666666666666e-05, + "loss": 0.6566, + "step": 59 + }, + { + "epoch": 0.25, + "grad_norm": 0.6497012856342578, + "learning_rate": 2e-05, + "loss": 0.6574, + "step": 60 + }, + { + "epoch": 0.25416666666666665, + "grad_norm": 0.7545979639769097, + "learning_rate": 2.0333333333333334e-05, + "loss": 0.6621, + "step": 61 + }, + { + "epoch": 0.25833333333333336, + "grad_norm": 0.8814596289446414, + "learning_rate": 2.066666666666667e-05, + "loss": 0.6586, + "step": 62 + }, + { + "epoch": 0.2625, + "grad_norm": 0.7700986600044052, + "learning_rate": 2.1000000000000002e-05, + "loss": 0.658, + "step": 63 + }, + { + "epoch": 0.26666666666666666, + "grad_norm": 0.9615923023054905, + "learning_rate": 2.1333333333333335e-05, + "loss": 0.6642, + "step": 64 + }, + { + "epoch": 0.2708333333333333, + "grad_norm": 0.8182385944675528, + "learning_rate": 2.1666666666666667e-05, + "loss": 0.6381, + "step": 65 + }, + { + "epoch": 0.275, + "grad_norm": 1.051267871370525, + "learning_rate": 2.2000000000000003e-05, + "loss": 0.6583, + "step": 66 + }, + { + "epoch": 0.2791666666666667, + "grad_norm": 1.2421800485008891, + "learning_rate": 2.2333333333333335e-05, + "loss": 0.6542, + "step": 67 + }, + { + "epoch": 0.2833333333333333, + "grad_norm": 0.6126955289728726, + "learning_rate": 2.2666666666666668e-05, + "loss": 0.6405, + "step": 68 + }, + { + "epoch": 0.2875, + "grad_norm": 1.3065782386729479, + "learning_rate": 2.3e-05, + "loss": 0.6495, + "step": 69 + }, + { + "epoch": 0.2916666666666667, + "grad_norm": 0.7369647940897622, + "learning_rate": 2.3333333333333336e-05, + "loss": 0.6528, + "step": 70 + }, + { + "epoch": 0.29583333333333334, + "grad_norm": 1.0013990364301564, + "learning_rate": 2.3666666666666668e-05, + "loss": 0.6464, + "step": 71 + }, + { + "epoch": 0.3, + "grad_norm": 0.7251342067519649, + "learning_rate": 2.4e-05, + "loss": 0.6532, + "step": 72 + }, + { + "epoch": 0.30416666666666664, + "grad_norm": 0.8534756592984158, + "learning_rate": 2.4333333333333333e-05, + "loss": 0.6456, + "step": 73 + }, + { + "epoch": 0.30833333333333335, + "grad_norm": 1.2829910855808402, + "learning_rate": 2.466666666666667e-05, + "loss": 0.6456, + "step": 74 + }, + { + "epoch": 0.3125, + "grad_norm": 1.236903958770797, + "learning_rate": 2.5e-05, + "loss": 0.6513, + "step": 75 + }, + { + "epoch": 0.31666666666666665, + "grad_norm": 0.5131185359463901, + "learning_rate": 2.5333333333333334e-05, + "loss": 0.6372, + "step": 76 + }, + { + "epoch": 0.32083333333333336, + "grad_norm": 2.3385091984770368, + "learning_rate": 2.566666666666667e-05, + "loss": 0.6548, + "step": 77 + }, + { + "epoch": 0.325, + "grad_norm": 0.8092584972470216, + "learning_rate": 2.6000000000000002e-05, + "loss": 0.6259, + "step": 78 + }, + { + "epoch": 0.32916666666666666, + "grad_norm": 1.1480450227714387, + "learning_rate": 2.6333333333333334e-05, + "loss": 0.6471, + "step": 79 + }, + { + "epoch": 0.3333333333333333, + "grad_norm": 1.3446863157735278, + "learning_rate": 2.6666666666666667e-05, + "loss": 0.6327, + "step": 80 + }, + { + "epoch": 0.3375, + "grad_norm": 0.9457919638742119, + "learning_rate": 2.7000000000000002e-05, + "loss": 0.6384, + "step": 81 + }, + { + "epoch": 0.3416666666666667, + "grad_norm": 1.3685610850125536, + "learning_rate": 2.7333333333333335e-05, + "loss": 0.6439, + "step": 82 + }, + { + "epoch": 0.3458333333333333, + "grad_norm": 0.927016131784247, + "learning_rate": 2.7666666666666667e-05, + "loss": 0.6346, + "step": 83 + }, + { + "epoch": 0.35, + "grad_norm": 1.7296485345201886, + "learning_rate": 2.8e-05, + "loss": 0.6144, + "step": 84 + }, + { + "epoch": 0.3541666666666667, + "grad_norm": 1.1192559744753852, + "learning_rate": 2.833333333333334e-05, + "loss": 0.6345, + "step": 85 + }, + { + "epoch": 0.35833333333333334, + "grad_norm": 1.9746537864549802, + "learning_rate": 2.8666666666666668e-05, + "loss": 0.6389, + "step": 86 + }, + { + "epoch": 0.3625, + "grad_norm": 1.5806534536841268, + "learning_rate": 2.9e-05, + "loss": 0.6421, + "step": 87 + }, + { + "epoch": 0.36666666666666664, + "grad_norm": 1.7605886971256688, + "learning_rate": 2.9333333333333333e-05, + "loss": 0.6361, + "step": 88 + }, + { + "epoch": 0.37083333333333335, + "grad_norm": 1.6811946573872856, + "learning_rate": 2.9666666666666672e-05, + "loss": 0.6314, + "step": 89 + }, + { + "epoch": 0.375, + "grad_norm": 1.3081097753931652, + "learning_rate": 3.0000000000000004e-05, + "loss": 0.6353, + "step": 90 + }, + { + "epoch": 0.37916666666666665, + "grad_norm": 1.5049824569727834, + "learning_rate": 3.0333333333333333e-05, + "loss": 0.6317, + "step": 91 + }, + { + "epoch": 0.38333333333333336, + "grad_norm": 1.3597412965849915, + "learning_rate": 3.066666666666667e-05, + "loss": 0.6308, + "step": 92 + }, + { + "epoch": 0.3875, + "grad_norm": 1.1246511962005503, + "learning_rate": 3.1e-05, + "loss": 0.6301, + "step": 93 + }, + { + "epoch": 0.39166666666666666, + "grad_norm": 1.3514034216556179, + "learning_rate": 3.1333333333333334e-05, + "loss": 0.6173, + "step": 94 + }, + { + "epoch": 0.3958333333333333, + "grad_norm": 0.8233867898594832, + "learning_rate": 3.1666666666666666e-05, + "loss": 0.6374, + "step": 95 + }, + { + "epoch": 0.4, + "grad_norm": 1.2477454499494327, + "learning_rate": 3.2000000000000005e-05, + "loss": 0.6276, + "step": 96 + }, + { + "epoch": 0.4041666666666667, + "grad_norm": 1.6817621692909872, + "learning_rate": 3.233333333333334e-05, + "loss": 0.6266, + "step": 97 + }, + { + "epoch": 0.4083333333333333, + "grad_norm": 0.9690166971983942, + "learning_rate": 3.266666666666667e-05, + "loss": 0.6115, + "step": 98 + }, + { + "epoch": 0.4125, + "grad_norm": 2.056378981841651, + "learning_rate": 3.3e-05, + "loss": 0.6411, + "step": 99 + }, + { + "epoch": 0.4166666666666667, + "grad_norm": 1.4524599154878437, + "learning_rate": 3.3333333333333335e-05, + "loss": 0.6296, + "step": 100 + }, + { + "epoch": 0.42083333333333334, + "grad_norm": 1.7764216839712343, + "learning_rate": 3.366666666666667e-05, + "loss": 0.6306, + "step": 101 + }, + { + "epoch": 0.425, + "grad_norm": 1.2833543049437115, + "learning_rate": 3.4e-05, + "loss": 0.6332, + "step": 102 + }, + { + "epoch": 0.42916666666666664, + "grad_norm": 1.5878349617582599, + "learning_rate": 3.433333333333333e-05, + "loss": 0.6239, + "step": 103 + }, + { + "epoch": 0.43333333333333335, + "grad_norm": 1.2599519265097134, + "learning_rate": 3.466666666666667e-05, + "loss": 0.6329, + "step": 104 + }, + { + "epoch": 0.4375, + "grad_norm": 1.4043098221264916, + "learning_rate": 3.5000000000000004e-05, + "loss": 0.628, + "step": 105 + }, + { + "epoch": 0.44166666666666665, + "grad_norm": 1.3695734550327043, + "learning_rate": 3.5333333333333336e-05, + "loss": 0.6242, + "step": 106 + }, + { + "epoch": 0.44583333333333336, + "grad_norm": 1.8927604495720616, + "learning_rate": 3.566666666666667e-05, + "loss": 0.6293, + "step": 107 + }, + { + "epoch": 0.45, + "grad_norm": 1.545056158668806, + "learning_rate": 3.6e-05, + "loss": 0.6314, + "step": 108 + }, + { + "epoch": 0.45416666666666666, + "grad_norm": 1.3545906617804928, + "learning_rate": 3.633333333333333e-05, + "loss": 0.6141, + "step": 109 + }, + { + "epoch": 0.4583333333333333, + "grad_norm": 1.2952086169381063, + "learning_rate": 3.6666666666666666e-05, + "loss": 0.6278, + "step": 110 + }, + { + "epoch": 0.4625, + "grad_norm": 1.3901722627101962, + "learning_rate": 3.7000000000000005e-05, + "loss": 0.6282, + "step": 111 + }, + { + "epoch": 0.4666666666666667, + "grad_norm": 1.3427286533742586, + "learning_rate": 3.733333333333334e-05, + "loss": 0.6462, + "step": 112 + }, + { + "epoch": 0.4708333333333333, + "grad_norm": 1.346385132452033, + "learning_rate": 3.766666666666667e-05, + "loss": 0.6271, + "step": 113 + }, + { + "epoch": 0.475, + "grad_norm": 0.7296460808724746, + "learning_rate": 3.8e-05, + "loss": 0.6216, + "step": 114 + }, + { + "epoch": 0.4791666666666667, + "grad_norm": 1.3372849398246114, + "learning_rate": 3.833333333333334e-05, + "loss": 0.6232, + "step": 115 + }, + { + "epoch": 0.48333333333333334, + "grad_norm": 1.1792019780697154, + "learning_rate": 3.866666666666667e-05, + "loss": 0.6221, + "step": 116 + }, + { + "epoch": 0.4875, + "grad_norm": 0.9733165096843328, + "learning_rate": 3.9e-05, + "loss": 0.6091, + "step": 117 + }, + { + "epoch": 0.49166666666666664, + "grad_norm": 3.070797337467993, + "learning_rate": 3.933333333333333e-05, + "loss": 0.6217, + "step": 118 + }, + { + "epoch": 0.49583333333333335, + "grad_norm": 1.815790495636315, + "learning_rate": 3.966666666666667e-05, + "loss": 0.6359, + "step": 119 + }, + { + "epoch": 0.5, + "grad_norm": 1.2390089256852326, + "learning_rate": 4e-05, + "loss": 0.6169, + "step": 120 + }, + { + "epoch": 0.5041666666666667, + "grad_norm": 1.2315486946506111, + "learning_rate": 3.999991538410973e-05, + "loss": 0.6164, + "step": 121 + }, + { + "epoch": 0.5083333333333333, + "grad_norm": 1.1701554198658328, + "learning_rate": 3.999966153715489e-05, + "loss": 0.6193, + "step": 122 + }, + { + "epoch": 0.5125, + "grad_norm": 1.170132178403549, + "learning_rate": 3.999923846128343e-05, + "loss": 0.6262, + "step": 123 + }, + { + "epoch": 0.5166666666666667, + "grad_norm": 0.924658478726418, + "learning_rate": 3.999864616007525e-05, + "loss": 0.6212, + "step": 124 + }, + { + "epoch": 0.5208333333333334, + "grad_norm": 1.3858534997900562, + "learning_rate": 3.999788463854215e-05, + "loss": 0.6233, + "step": 125 + }, + { + "epoch": 0.525, + "grad_norm": 1.2657158164721372, + "learning_rate": 3.999695390312783e-05, + "loss": 0.616, + "step": 126 + }, + { + "epoch": 0.5291666666666667, + "grad_norm": 0.9216763016227539, + "learning_rate": 3.999585396170777e-05, + "loss": 0.614, + "step": 127 + }, + { + "epoch": 0.5333333333333333, + "grad_norm": 0.8360006381611302, + "learning_rate": 3.999458482358924e-05, + "loss": 0.6153, + "step": 128 + }, + { + "epoch": 0.5375, + "grad_norm": 0.7839786158921856, + "learning_rate": 3.9993146499511146e-05, + "loss": 0.6009, + "step": 129 + }, + { + "epoch": 0.5416666666666666, + "grad_norm": 0.844641037367548, + "learning_rate": 3.9991539001644015e-05, + "loss": 0.6212, + "step": 130 + }, + { + "epoch": 0.5458333333333333, + "grad_norm": 1.0382957024566257, + "learning_rate": 3.998976234358982e-05, + "loss": 0.5999, + "step": 131 + }, + { + "epoch": 0.55, + "grad_norm": 1.6242521962961614, + "learning_rate": 3.998781654038192e-05, + "loss": 0.6096, + "step": 132 + }, + { + "epoch": 0.5541666666666667, + "grad_norm": 0.757093292258469, + "learning_rate": 3.9985701608484896e-05, + "loss": 0.5941, + "step": 133 + }, + { + "epoch": 0.5583333333333333, + "grad_norm": 1.320612616681096, + "learning_rate": 3.998341756579443e-05, + "loss": 0.6203, + "step": 134 + }, + { + "epoch": 0.5625, + "grad_norm": 1.0193798832099399, + "learning_rate": 3.998096443163716e-05, + "loss": 0.5934, + "step": 135 + }, + { + "epoch": 0.5666666666666667, + "grad_norm": 1.2908818567365226, + "learning_rate": 3.99783422267705e-05, + "loss": 0.6207, + "step": 136 + }, + { + "epoch": 0.5708333333333333, + "grad_norm": 0.8168141068726303, + "learning_rate": 3.9975550973382454e-05, + "loss": 0.6041, + "step": 137 + }, + { + "epoch": 0.575, + "grad_norm": 1.226295133247973, + "learning_rate": 3.9972590695091476e-05, + "loss": 0.6185, + "step": 138 + }, + { + "epoch": 0.5791666666666667, + "grad_norm": 0.8072529028243578, + "learning_rate": 3.9969461416946226e-05, + "loss": 0.6129, + "step": 139 + }, + { + "epoch": 0.5833333333333334, + "grad_norm": 0.9164338574256401, + "learning_rate": 3.996616316542537e-05, + "loss": 0.6096, + "step": 140 + }, + { + "epoch": 0.5875, + "grad_norm": 0.6469959513500211, + "learning_rate": 3.996269596843734e-05, + "loss": 0.6054, + "step": 141 + }, + { + "epoch": 0.5916666666666667, + "grad_norm": 0.7039330048055549, + "learning_rate": 3.995905985532015e-05, + "loss": 0.6099, + "step": 142 + }, + { + "epoch": 0.5958333333333333, + "grad_norm": 2.860385292654008, + "learning_rate": 3.995525485684109e-05, + "loss": 0.6421, + "step": 143 + }, + { + "epoch": 0.6, + "grad_norm": 1.29306335703376, + "learning_rate": 3.9951281005196486e-05, + "loss": 0.6136, + "step": 144 + }, + { + "epoch": 0.6041666666666666, + "grad_norm": 1.0424569923889895, + "learning_rate": 3.994713833401145e-05, + "loss": 0.61, + "step": 145 + }, + { + "epoch": 0.6083333333333333, + "grad_norm": 0.8181795724051063, + "learning_rate": 3.9942826878339554e-05, + "loss": 0.6207, + "step": 146 + }, + { + "epoch": 0.6125, + "grad_norm": 0.9973579708540373, + "learning_rate": 3.9938346674662565e-05, + "loss": 0.6077, + "step": 147 + }, + { + "epoch": 0.6166666666666667, + "grad_norm": 0.9616324528943014, + "learning_rate": 3.993369776089012e-05, + "loss": 0.5942, + "step": 148 + }, + { + "epoch": 0.6208333333333333, + "grad_norm": 0.7398130298674523, + "learning_rate": 3.992888017635944e-05, + "loss": 0.603, + "step": 149 + }, + { + "epoch": 0.625, + "grad_norm": 1.0467599824887701, + "learning_rate": 3.9923893961834914e-05, + "loss": 0.6195, + "step": 150 + }, + { + "epoch": 0.6291666666666667, + "grad_norm": 0.6645550535908764, + "learning_rate": 3.991873915950786e-05, + "loss": 0.6009, + "step": 151 + }, + { + "epoch": 0.6333333333333333, + "grad_norm": 0.9702680008326658, + "learning_rate": 3.991341581299609e-05, + "loss": 0.6069, + "step": 152 + }, + { + "epoch": 0.6375, + "grad_norm": 0.8185881298517128, + "learning_rate": 3.9907923967343583e-05, + "loss": 0.5993, + "step": 153 + }, + { + "epoch": 0.6416666666666667, + "grad_norm": 0.8221931733724522, + "learning_rate": 3.990226366902007e-05, + "loss": 0.6061, + "step": 154 + }, + { + "epoch": 0.6458333333333334, + "grad_norm": 0.9078682479987112, + "learning_rate": 3.989643496592067e-05, + "loss": 0.6047, + "step": 155 + }, + { + "epoch": 0.65, + "grad_norm": 0.9292043332159131, + "learning_rate": 3.989043790736547e-05, + "loss": 0.6163, + "step": 156 + }, + { + "epoch": 0.6541666666666667, + "grad_norm": 0.6420744015708145, + "learning_rate": 3.9884272544099126e-05, + "loss": 0.6064, + "step": 157 + }, + { + "epoch": 0.6583333333333333, + "grad_norm": 0.9300016754772198, + "learning_rate": 3.98779389282904e-05, + "loss": 0.61, + "step": 158 + }, + { + "epoch": 0.6625, + "grad_norm": 0.7116085686707454, + "learning_rate": 3.9871437113531757e-05, + "loss": 0.6001, + "step": 159 + }, + { + "epoch": 0.6666666666666666, + "grad_norm": 0.6506607966868728, + "learning_rate": 3.9864767154838864e-05, + "loss": 0.6013, + "step": 160 + }, + { + "epoch": 0.6708333333333333, + "grad_norm": 0.5244776504731719, + "learning_rate": 3.9857929108650186e-05, + "loss": 0.6115, + "step": 161 + }, + { + "epoch": 0.675, + "grad_norm": 0.5265289462591022, + "learning_rate": 3.985092303282645e-05, + "loss": 0.5974, + "step": 162 + }, + { + "epoch": 0.6791666666666667, + "grad_norm": 0.6913443137294888, + "learning_rate": 3.9843748986650185e-05, + "loss": 0.6027, + "step": 163 + }, + { + "epoch": 0.6833333333333333, + "grad_norm": 0.8952111006978029, + "learning_rate": 3.983640703082523e-05, + "loss": 0.6093, + "step": 164 + }, + { + "epoch": 0.6875, + "grad_norm": 0.8808092276456894, + "learning_rate": 3.982889722747621e-05, + "loss": 0.604, + "step": 165 + }, + { + "epoch": 0.6916666666666667, + "grad_norm": 1.0124872467980413, + "learning_rate": 3.982121964014797e-05, + "loss": 0.6017, + "step": 166 + }, + { + "epoch": 0.6958333333333333, + "grad_norm": 1.0141756140919487, + "learning_rate": 3.981337433380512e-05, + "loss": 0.6043, + "step": 167 + }, + { + "epoch": 0.7, + "grad_norm": 0.7940035583599523, + "learning_rate": 3.980536137483141e-05, + "loss": 0.603, + "step": 168 + }, + { + "epoch": 0.7041666666666667, + "grad_norm": 0.6815397720273677, + "learning_rate": 3.97971808310292e-05, + "loss": 0.6033, + "step": 169 + }, + { + "epoch": 0.7083333333333334, + "grad_norm": 0.5692713098104114, + "learning_rate": 3.978883277161889e-05, + "loss": 0.6129, + "step": 170 + }, + { + "epoch": 0.7125, + "grad_norm": 0.8949397237934722, + "learning_rate": 3.978031726723834e-05, + "loss": 0.602, + "step": 171 + }, + { + "epoch": 0.7166666666666667, + "grad_norm": 0.8439068707146551, + "learning_rate": 3.977163438994223e-05, + "loss": 0.6022, + "step": 172 + }, + { + "epoch": 0.7208333333333333, + "grad_norm": 0.6537749129209305, + "learning_rate": 3.976278421320152e-05, + "loss": 0.6046, + "step": 173 + }, + { + "epoch": 0.725, + "grad_norm": 0.5719443319621762, + "learning_rate": 3.9753766811902756e-05, + "loss": 0.5952, + "step": 174 + }, + { + "epoch": 0.7291666666666666, + "grad_norm": 0.5335331999127876, + "learning_rate": 3.9744582262347486e-05, + "loss": 0.5924, + "step": 175 + }, + { + "epoch": 0.7333333333333333, + "grad_norm": 0.5315711772829829, + "learning_rate": 3.973523064225159e-05, + "loss": 0.6038, + "step": 176 + }, + { + "epoch": 0.7375, + "grad_norm": 5.833689240074311, + "learning_rate": 3.972571203074463e-05, + "loss": 0.6138, + "step": 177 + }, + { + "epoch": 0.7416666666666667, + "grad_norm": 1.1180970011488844, + "learning_rate": 3.9716026508369193e-05, + "loss": 0.6115, + "step": 178 + }, + { + "epoch": 0.7458333333333333, + "grad_norm": 1.6810215498208934, + "learning_rate": 3.970617415708019e-05, + "loss": 0.5983, + "step": 179 + }, + { + "epoch": 0.75, + "grad_norm": 0.7611713210374506, + "learning_rate": 3.9696155060244166e-05, + "loss": 0.6102, + "step": 180 + }, + { + "epoch": 0.7541666666666667, + "grad_norm": 2.0108424942557246, + "learning_rate": 3.96859693026386e-05, + "loss": 0.6058, + "step": 181 + }, + { + "epoch": 0.7583333333333333, + "grad_norm": 1.2496496213454418, + "learning_rate": 3.967561697045118e-05, + "loss": 0.6251, + "step": 182 + }, + { + "epoch": 0.7625, + "grad_norm": 2.2604311300328663, + "learning_rate": 3.96650981512791e-05, + "loss": 0.6186, + "step": 183 + }, + { + "epoch": 0.7666666666666667, + "grad_norm": 1.9309829509381906, + "learning_rate": 3.965441293412827e-05, + "loss": 0.6222, + "step": 184 + }, + { + "epoch": 0.7708333333333334, + "grad_norm": 1.5275380908225737, + "learning_rate": 3.964356140941262e-05, + "loss": 0.6142, + "step": 185 + }, + { + "epoch": 0.775, + "grad_norm": 1.6402801417918575, + "learning_rate": 3.9632543668953284e-05, + "loss": 0.6074, + "step": 186 + }, + { + "epoch": 0.7791666666666667, + "grad_norm": 1.4018197992605743, + "learning_rate": 3.962135980597786e-05, + "loss": 0.6092, + "step": 187 + }, + { + "epoch": 0.7833333333333333, + "grad_norm": 1.57474479862592, + "learning_rate": 3.961000991511959e-05, + "loss": 0.5987, + "step": 188 + }, + { + "epoch": 0.7875, + "grad_norm": 0.9332683903563855, + "learning_rate": 3.9598494092416594e-05, + "loss": 0.6006, + "step": 189 + }, + { + "epoch": 0.7916666666666666, + "grad_norm": 6.4262698284657285, + "learning_rate": 3.958681243531103e-05, + "loss": 0.6427, + "step": 190 + }, + { + "epoch": 0.7958333333333333, + "grad_norm": 2.031731227747491, + "learning_rate": 3.957496504264828e-05, + "loss": 0.6164, + "step": 191 + }, + { + "epoch": 0.8, + "grad_norm": 1.0255549765691543, + "learning_rate": 3.9562952014676116e-05, + "loss": 0.5982, + "step": 192 + }, + { + "epoch": 0.8041666666666667, + "grad_norm": 1.7950123558844988, + "learning_rate": 3.955077345304383e-05, + "loss": 0.6145, + "step": 193 + }, + { + "epoch": 0.8083333333333333, + "grad_norm": 1.6661107778405753, + "learning_rate": 3.953842946080142e-05, + "loss": 0.6139, + "step": 194 + }, + { + "epoch": 0.8125, + "grad_norm": 1.255537604337782, + "learning_rate": 3.952592014239867e-05, + "loss": 0.6156, + "step": 195 + }, + { + "epoch": 0.8166666666666667, + "grad_norm": 1.0157832236691309, + "learning_rate": 3.951324560368429e-05, + "loss": 0.6147, + "step": 196 + }, + { + "epoch": 0.8208333333333333, + "grad_norm": 1.0705014177371002, + "learning_rate": 3.950040595190502e-05, + "loss": 0.6109, + "step": 197 + }, + { + "epoch": 0.825, + "grad_norm": 0.8720346538745792, + "learning_rate": 3.948740129570471e-05, + "loss": 0.604, + "step": 198 + }, + { + "epoch": 0.8291666666666667, + "grad_norm": 0.9108778498246244, + "learning_rate": 3.9474231745123425e-05, + "loss": 0.5978, + "step": 199 + }, + { + "epoch": 0.8333333333333334, + "grad_norm": 0.6858303735878576, + "learning_rate": 3.946089741159648e-05, + "loss": 0.6025, + "step": 200 + }, + { + "epoch": 0.8375, + "grad_norm": 0.8093276888050045, + "learning_rate": 3.9447398407953536e-05, + "loss": 0.6052, + "step": 201 + }, + { + "epoch": 0.8416666666666667, + "grad_norm": 0.5387365454899715, + "learning_rate": 3.943373484841761e-05, + "loss": 0.5951, + "step": 202 + }, + { + "epoch": 0.8458333333333333, + "grad_norm": 0.6523938284137194, + "learning_rate": 3.941990684860412e-05, + "loss": 0.5983, + "step": 203 + }, + { + "epoch": 0.85, + "grad_norm": 0.5930411495149569, + "learning_rate": 3.940591452551993e-05, + "loss": 0.6085, + "step": 204 + }, + { + "epoch": 0.8541666666666666, + "grad_norm": 0.6501507887091976, + "learning_rate": 3.9391757997562323e-05, + "loss": 0.591, + "step": 205 + }, + { + "epoch": 0.8583333333333333, + "grad_norm": 0.6330658290793114, + "learning_rate": 3.9377437384518014e-05, + "loss": 0.5937, + "step": 206 + }, + { + "epoch": 0.8625, + "grad_norm": 0.6849294359909535, + "learning_rate": 3.936295280756216e-05, + "loss": 0.6022, + "step": 207 + }, + { + "epoch": 0.8666666666666667, + "grad_norm": 0.9148446915969376, + "learning_rate": 3.934830438925728e-05, + "loss": 0.6108, + "step": 208 + }, + { + "epoch": 0.8708333333333333, + "grad_norm": 0.5414127308524658, + "learning_rate": 3.933349225355228e-05, + "loss": 0.5914, + "step": 209 + }, + { + "epoch": 0.875, + "grad_norm": 0.6807208332138882, + "learning_rate": 3.931851652578137e-05, + "loss": 0.5779, + "step": 210 + }, + { + "epoch": 0.8791666666666667, + "grad_norm": 0.5116956086012243, + "learning_rate": 3.930337733266299e-05, + "loss": 0.5859, + "step": 211 + }, + { + "epoch": 0.8833333333333333, + "grad_norm": 0.6464602536360001, + "learning_rate": 3.928807480229878e-05, + "loss": 0.5968, + "step": 212 + }, + { + "epoch": 0.8875, + "grad_norm": 0.5445816251083418, + "learning_rate": 3.927260906417246e-05, + "loss": 0.5865, + "step": 213 + }, + { + "epoch": 0.8916666666666667, + "grad_norm": 0.5331557945158678, + "learning_rate": 3.925698024914876e-05, + "loss": 0.5919, + "step": 214 + }, + { + "epoch": 0.8958333333333334, + "grad_norm": 0.4500416131513844, + "learning_rate": 3.9241188489472266e-05, + "loss": 0.6017, + "step": 215 + }, + { + "epoch": 0.9, + "grad_norm": 0.5131283210508815, + "learning_rate": 3.922523391876638e-05, + "loss": 0.5913, + "step": 216 + }, + { + "epoch": 0.9041666666666667, + "grad_norm": 0.434716603766219, + "learning_rate": 3.920911667203211e-05, + "loss": 0.6077, + "step": 217 + }, + { + "epoch": 0.9083333333333333, + "grad_norm": 0.5173179366442318, + "learning_rate": 3.919283688564699e-05, + "loss": 0.5913, + "step": 218 + }, + { + "epoch": 0.9125, + "grad_norm": 0.4041240210095621, + "learning_rate": 3.917639469736386e-05, + "loss": 0.589, + "step": 219 + }, + { + "epoch": 0.9166666666666666, + "grad_norm": 0.39317734578321195, + "learning_rate": 3.915979024630978e-05, + "loss": 0.582, + "step": 220 + }, + { + "epoch": 0.9208333333333333, + "grad_norm": 0.45574417962886826, + "learning_rate": 3.914302367298478e-05, + "loss": 0.5905, + "step": 221 + }, + { + "epoch": 0.925, + "grad_norm": 0.46494202536514745, + "learning_rate": 3.912609511926071e-05, + "loss": 0.6087, + "step": 222 + }, + { + "epoch": 0.9291666666666667, + "grad_norm": 0.34877093481702964, + "learning_rate": 3.910900472838004e-05, + "loss": 0.5858, + "step": 223 + }, + { + "epoch": 0.9333333333333333, + "grad_norm": 0.4465679019806231, + "learning_rate": 3.909175264495464e-05, + "loss": 0.601, + "step": 224 + }, + { + "epoch": 0.9375, + "grad_norm": 0.4484295111435038, + "learning_rate": 3.907433901496454e-05, + "loss": 0.5961, + "step": 225 + }, + { + "epoch": 0.9416666666666667, + "grad_norm": 0.3737784566652126, + "learning_rate": 3.9056763985756724e-05, + "loss": 0.5832, + "step": 226 + }, + { + "epoch": 0.9458333333333333, + "grad_norm": 0.5549965681657777, + "learning_rate": 3.903902770604386e-05, + "loss": 0.5935, + "step": 227 + }, + { + "epoch": 0.95, + "grad_norm": 0.39219086903022765, + "learning_rate": 3.9021130325903076e-05, + "loss": 0.5871, + "step": 228 + }, + { + "epoch": 0.9541666666666667, + "grad_norm": 0.4326134130395831, + "learning_rate": 3.900307199677462e-05, + "loss": 0.5869, + "step": 229 + }, + { + "epoch": 0.9583333333333334, + "grad_norm": 0.3878340710100633, + "learning_rate": 3.898485287146068e-05, + "loss": 0.5792, + "step": 230 + }, + { + "epoch": 0.9625, + "grad_norm": 0.491588750881979, + "learning_rate": 3.896647310412399e-05, + "loss": 0.5875, + "step": 231 + }, + { + "epoch": 0.9666666666666667, + "grad_norm": 0.47167566982740994, + "learning_rate": 3.8947932850286585e-05, + "loss": 0.5884, + "step": 232 + }, + { + "epoch": 0.9708333333333333, + "grad_norm": 0.40037721633670603, + "learning_rate": 3.892923226682849e-05, + "loss": 0.5829, + "step": 233 + }, + { + "epoch": 0.975, + "grad_norm": 0.45656296290139076, + "learning_rate": 3.891037151198634e-05, + "loss": 0.5735, + "step": 234 + }, + { + "epoch": 0.9791666666666666, + "grad_norm": 0.4209143206597181, + "learning_rate": 3.88913507453521e-05, + "loss": 0.5798, + "step": 235 + }, + { + "epoch": 0.9833333333333333, + "grad_norm": 0.4440792761438726, + "learning_rate": 3.887217012787167e-05, + "loss": 0.5786, + "step": 236 + }, + { + "epoch": 0.9875, + "grad_norm": 0.4053025555601259, + "learning_rate": 3.885282982184357e-05, + "loss": 0.591, + "step": 237 + }, + { + "epoch": 0.9916666666666667, + "grad_norm": 0.4480467695908802, + "learning_rate": 3.883332999091751e-05, + "loss": 0.582, + "step": 238 + }, + { + "epoch": 0.9958333333333333, + "grad_norm": 0.38550322094656303, + "learning_rate": 3.8813670800093046e-05, + "loss": 0.5841, + "step": 239 + }, + { + "epoch": 1.0, + "grad_norm": 0.3452238821589659, + "learning_rate": 3.879385241571817e-05, + "loss": 0.5872, + "step": 240 + }, + { + "epoch": 1.0041666666666667, + "grad_norm": 0.4406010955303967, + "learning_rate": 3.877387500548791e-05, + "loss": 0.5473, + "step": 241 + }, + { + "epoch": 1.0083333333333333, + "grad_norm": 0.4196619562165898, + "learning_rate": 3.87537387384429e-05, + "loss": 0.5601, + "step": 242 + }, + { + "epoch": 1.0125, + "grad_norm": 0.4781544548132093, + "learning_rate": 3.873344378496795e-05, + "loss": 0.543, + "step": 243 + }, + { + "epoch": 1.0166666666666666, + "grad_norm": 0.5015649231577988, + "learning_rate": 3.8712990316790633e-05, + "loss": 0.548, + "step": 244 + }, + { + "epoch": 1.0208333333333333, + "grad_norm": 0.45896771388250757, + "learning_rate": 3.8692378506979775e-05, + "loss": 0.5424, + "step": 245 + }, + { + "epoch": 1.025, + "grad_norm": 0.46992886856713934, + "learning_rate": 3.8671608529944035e-05, + "loss": 0.5459, + "step": 246 + }, + { + "epoch": 1.0291666666666666, + "grad_norm": 0.475481875853481, + "learning_rate": 3.8650680561430444e-05, + "loss": 0.5367, + "step": 247 + }, + { + "epoch": 1.0333333333333334, + "grad_norm": 0.38513999120173803, + "learning_rate": 3.862959477852285e-05, + "loss": 0.5559, + "step": 248 + }, + { + "epoch": 1.0375, + "grad_norm": 0.42911051850784293, + "learning_rate": 3.860835135964049e-05, + "loss": 0.5328, + "step": 249 + }, + { + "epoch": 1.0416666666666667, + "grad_norm": 0.38439411540736046, + "learning_rate": 3.858695048453645e-05, + "loss": 0.5365, + "step": 250 + }, + { + "epoch": 1.0458333333333334, + "grad_norm": 0.4556082309066422, + "learning_rate": 3.8565392334296135e-05, + "loss": 0.5463, + "step": 251 + }, + { + "epoch": 1.05, + "grad_norm": 0.37563339606917695, + "learning_rate": 3.854367709133575e-05, + "loss": 0.5442, + "step": 252 + }, + { + "epoch": 1.0541666666666667, + "grad_norm": 0.42796480491292316, + "learning_rate": 3.852180493940076e-05, + "loss": 0.5323, + "step": 253 + }, + { + "epoch": 1.0583333333333333, + "grad_norm": 0.45795521696408836, + "learning_rate": 3.849977606356432e-05, + "loss": 0.5545, + "step": 254 + }, + { + "epoch": 1.0625, + "grad_norm": 0.5434892586255291, + "learning_rate": 3.8477590650225735e-05, + "loss": 0.5475, + "step": 255 + }, + { + "epoch": 1.0666666666666667, + "grad_norm": 0.5281205108015046, + "learning_rate": 3.845524888710885e-05, + "loss": 0.5305, + "step": 256 + }, + { + "epoch": 1.0708333333333333, + "grad_norm": 0.4370969266096491, + "learning_rate": 3.843275096326048e-05, + "loss": 0.5573, + "step": 257 + }, + { + "epoch": 1.075, + "grad_norm": 0.5780691860713271, + "learning_rate": 3.841009706904881e-05, + "loss": 0.5487, + "step": 258 + }, + { + "epoch": 1.0791666666666666, + "grad_norm": 0.6207487195598114, + "learning_rate": 3.8387287396161784e-05, + "loss": 0.5353, + "step": 259 + }, + { + "epoch": 1.0833333333333333, + "grad_norm": 0.431876399456736, + "learning_rate": 3.8364322137605484e-05, + "loss": 0.5397, + "step": 260 + }, + { + "epoch": 1.0875, + "grad_norm": 0.5804160168692262, + "learning_rate": 3.834120148770248e-05, + "loss": 0.532, + "step": 261 + }, + { + "epoch": 1.0916666666666666, + "grad_norm": 0.6680196534577321, + "learning_rate": 3.8317925642090225e-05, + "loss": 0.5473, + "step": 262 + }, + { + "epoch": 1.0958333333333334, + "grad_norm": 0.5454194856383294, + "learning_rate": 3.829449479771935e-05, + "loss": 0.5567, + "step": 263 + }, + { + "epoch": 1.1, + "grad_norm": 0.40571905557902443, + "learning_rate": 3.827090915285202e-05, + "loss": 0.5544, + "step": 264 + }, + { + "epoch": 1.1041666666666667, + "grad_norm": 0.5235345680353714, + "learning_rate": 3.824716890706029e-05, + "loss": 0.5444, + "step": 265 + }, + { + "epoch": 1.1083333333333334, + "grad_norm": 0.5700836568044627, + "learning_rate": 3.8223274261224344e-05, + "loss": 0.5453, + "step": 266 + }, + { + "epoch": 1.1125, + "grad_norm": 0.4188022120925585, + "learning_rate": 3.8199225417530865e-05, + "loss": 0.5414, + "step": 267 + }, + { + "epoch": 1.1166666666666667, + "grad_norm": 0.7690176283666269, + "learning_rate": 3.817502257947129e-05, + "loss": 0.556, + "step": 268 + }, + { + "epoch": 1.1208333333333333, + "grad_norm": 0.5572958616235794, + "learning_rate": 3.815066595184007e-05, + "loss": 0.5428, + "step": 269 + }, + { + "epoch": 1.125, + "grad_norm": 0.391475640768384, + "learning_rate": 3.812615574073301e-05, + "loss": 0.5432, + "step": 270 + }, + { + "epoch": 1.1291666666666667, + "grad_norm": 0.5234766948965066, + "learning_rate": 3.81014921535454e-05, + "loss": 0.5349, + "step": 271 + }, + { + "epoch": 1.1333333333333333, + "grad_norm": 0.4394439696375235, + "learning_rate": 3.807667539897041e-05, + "loss": 0.5453, + "step": 272 + }, + { + "epoch": 1.1375, + "grad_norm": 0.4285560305810143, + "learning_rate": 3.805170568699722e-05, + "loss": 0.5395, + "step": 273 + }, + { + "epoch": 1.1416666666666666, + "grad_norm": 0.4359544909786749, + "learning_rate": 3.8026583228909244e-05, + "loss": 0.5534, + "step": 274 + }, + { + "epoch": 1.1458333333333333, + "grad_norm": 0.4300470633162109, + "learning_rate": 3.800130823728242e-05, + "loss": 0.55, + "step": 275 + }, + { + "epoch": 1.15, + "grad_norm": 0.3912020945403841, + "learning_rate": 3.7975880925983345e-05, + "loss": 0.5348, + "step": 276 + }, + { + "epoch": 1.1541666666666668, + "grad_norm": 0.4788065319423428, + "learning_rate": 3.795030151016746e-05, + "loss": 0.5193, + "step": 277 + }, + { + "epoch": 1.1583333333333332, + "grad_norm": 0.5122579098660471, + "learning_rate": 3.7924570206277274e-05, + "loss": 0.54, + "step": 278 + }, + { + "epoch": 1.1625, + "grad_norm": 0.3892443444552306, + "learning_rate": 3.78986872320405e-05, + "loss": 0.5562, + "step": 279 + }, + { + "epoch": 1.1666666666666667, + "grad_norm": 0.3757068038324186, + "learning_rate": 3.787265280646825e-05, + "loss": 0.5475, + "step": 280 + }, + { + "epoch": 1.1708333333333334, + "grad_norm": 0.4002637376745568, + "learning_rate": 3.784646714985311e-05, + "loss": 0.5446, + "step": 281 + }, + { + "epoch": 1.175, + "grad_norm": 0.6434613018830029, + "learning_rate": 3.782013048376736e-05, + "loss": 0.5423, + "step": 282 + }, + { + "epoch": 1.1791666666666667, + "grad_norm": 0.4802579423585243, + "learning_rate": 3.779364303106104e-05, + "loss": 0.5551, + "step": 283 + }, + { + "epoch": 1.1833333333333333, + "grad_norm": 0.34320293525448575, + "learning_rate": 3.776700501586009e-05, + "loss": 0.5371, + "step": 284 + }, + { + "epoch": 1.1875, + "grad_norm": 0.37243144250715815, + "learning_rate": 3.774021666356444e-05, + "loss": 0.5441, + "step": 285 + }, + { + "epoch": 1.1916666666666667, + "grad_norm": 0.47943818705729785, + "learning_rate": 3.7713278200846125e-05, + "loss": 0.553, + "step": 286 + }, + { + "epoch": 1.1958333333333333, + "grad_norm": 0.48019468557764794, + "learning_rate": 3.768618985564734e-05, + "loss": 0.5364, + "step": 287 + }, + { + "epoch": 1.2, + "grad_norm": 0.3737355351361219, + "learning_rate": 3.7658951857178544e-05, + "loss": 0.5381, + "step": 288 + }, + { + "epoch": 1.2041666666666666, + "grad_norm": 0.4316833796281385, + "learning_rate": 3.763156443591647e-05, + "loss": 0.5526, + "step": 289 + }, + { + "epoch": 1.2083333333333333, + "grad_norm": 0.5367694193809566, + "learning_rate": 3.760402782360222e-05, + "loss": 0.5402, + "step": 290 + }, + { + "epoch": 1.2125, + "grad_norm": 0.5054159315871245, + "learning_rate": 3.757634225323931e-05, + "loss": 0.5447, + "step": 291 + }, + { + "epoch": 1.2166666666666668, + "grad_norm": 0.37465922664626905, + "learning_rate": 3.754850795909164e-05, + "loss": 0.5464, + "step": 292 + }, + { + "epoch": 1.2208333333333332, + "grad_norm": 0.4667280578857415, + "learning_rate": 3.7520525176681575e-05, + "loss": 0.5443, + "step": 293 + }, + { + "epoch": 1.225, + "grad_norm": 0.41038515137599035, + "learning_rate": 3.749239414278792e-05, + "loss": 0.5391, + "step": 294 + }, + { + "epoch": 1.2291666666666667, + "grad_norm": 0.4872872931948412, + "learning_rate": 3.7464115095443924e-05, + "loss": 0.5498, + "step": 295 + }, + { + "epoch": 1.2333333333333334, + "grad_norm": 0.3714350455253727, + "learning_rate": 3.743568827393525e-05, + "loss": 0.5438, + "step": 296 + }, + { + "epoch": 1.2375, + "grad_norm": 0.5352847539446225, + "learning_rate": 3.7407113918797995e-05, + "loss": 0.5554, + "step": 297 + }, + { + "epoch": 1.2416666666666667, + "grad_norm": 0.37054802860531405, + "learning_rate": 3.7378392271816606e-05, + "loss": 0.5335, + "step": 298 + }, + { + "epoch": 1.2458333333333333, + "grad_norm": 0.48597193778007786, + "learning_rate": 3.734952357602185e-05, + "loss": 0.5437, + "step": 299 + }, + { + "epoch": 1.25, + "grad_norm": 0.38678763041126857, + "learning_rate": 3.732050807568878e-05, + "loss": 0.5462, + "step": 300 + }, + { + "epoch": 1.2541666666666667, + "grad_norm": 0.3876114600715386, + "learning_rate": 3.7291346016334616e-05, + "loss": 0.5418, + "step": 301 + }, + { + "epoch": 1.2583333333333333, + "grad_norm": 0.40139068236775927, + "learning_rate": 3.726203764471673e-05, + "loss": 0.5476, + "step": 302 + }, + { + "epoch": 1.2625, + "grad_norm": 0.39993072044779654, + "learning_rate": 3.723258320883052e-05, + "loss": 0.5476, + "step": 303 + }, + { + "epoch": 1.2666666666666666, + "grad_norm": 0.4777404763468545, + "learning_rate": 3.720298295790732e-05, + "loss": 0.5369, + "step": 304 + }, + { + "epoch": 1.2708333333333333, + "grad_norm": 0.3836987377047922, + "learning_rate": 3.7173237142412266e-05, + "loss": 0.5294, + "step": 305 + }, + { + "epoch": 1.275, + "grad_norm": 0.3874760875383913, + "learning_rate": 3.714334601404225e-05, + "loss": 0.5475, + "step": 306 + }, + { + "epoch": 1.2791666666666668, + "grad_norm": 0.4939800332038625, + "learning_rate": 3.7113309825723706e-05, + "loss": 0.5477, + "step": 307 + }, + { + "epoch": 1.2833333333333332, + "grad_norm": 0.5384604306792786, + "learning_rate": 3.708312883161052e-05, + "loss": 0.5476, + "step": 308 + }, + { + "epoch": 1.2875, + "grad_norm": 0.38400202597605726, + "learning_rate": 3.705280328708185e-05, + "loss": 0.5388, + "step": 309 + }, + { + "epoch": 1.2916666666666667, + "grad_norm": 0.7635101023152292, + "learning_rate": 3.702233344873999e-05, + "loss": 0.5441, + "step": 310 + }, + { + "epoch": 1.2958333333333334, + "grad_norm": 0.4749517009016558, + "learning_rate": 3.6991719574408216e-05, + "loss": 0.5457, + "step": 311 + }, + { + "epoch": 1.3, + "grad_norm": 0.6186036408886622, + "learning_rate": 3.696096192312852e-05, + "loss": 0.5336, + "step": 312 + }, + { + "epoch": 1.3041666666666667, + "grad_norm": 0.6039600691439416, + "learning_rate": 3.693006075515952e-05, + "loss": 0.5457, + "step": 313 + }, + { + "epoch": 1.3083333333333333, + "grad_norm": 0.44510838255318347, + "learning_rate": 3.689901633197421e-05, + "loss": 0.5425, + "step": 314 + }, + { + "epoch": 1.3125, + "grad_norm": 0.5281284436574588, + "learning_rate": 3.686782891625772e-05, + "loss": 0.5225, + "step": 315 + }, + { + "epoch": 1.3166666666666667, + "grad_norm": 0.4383316355693497, + "learning_rate": 3.683649877190515e-05, + "loss": 0.5501, + "step": 316 + }, + { + "epoch": 1.3208333333333333, + "grad_norm": 0.49956813129428346, + "learning_rate": 3.680502616401932e-05, + "loss": 0.5359, + "step": 317 + }, + { + "epoch": 1.325, + "grad_norm": 0.5515987870342378, + "learning_rate": 3.6773411358908486e-05, + "loss": 0.5339, + "step": 318 + }, + { + "epoch": 1.3291666666666666, + "grad_norm": 0.4345037680070084, + "learning_rate": 3.674165462408415e-05, + "loss": 0.5336, + "step": 319 + }, + { + "epoch": 1.3333333333333333, + "grad_norm": 0.4400948719090633, + "learning_rate": 3.6709756228258735e-05, + "loss": 0.5455, + "step": 320 + }, + { + "epoch": 1.3375, + "grad_norm": 0.5395972581738513, + "learning_rate": 3.6677716441343366e-05, + "loss": 0.5524, + "step": 321 + }, + { + "epoch": 1.3416666666666668, + "grad_norm": 0.5392777298500487, + "learning_rate": 3.664553553444556e-05, + "loss": 0.5413, + "step": 322 + }, + { + "epoch": 1.3458333333333332, + "grad_norm": 0.4462815897326446, + "learning_rate": 3.661321377986691e-05, + "loss": 0.5455, + "step": 323 + }, + { + "epoch": 1.35, + "grad_norm": 0.408044981134378, + "learning_rate": 3.658075145110083e-05, + "loss": 0.5359, + "step": 324 + }, + { + "epoch": 1.3541666666666667, + "grad_norm": 2.6517110892639804, + "learning_rate": 3.654814882283021e-05, + "loss": 0.5599, + "step": 325 + }, + { + "epoch": 1.3583333333333334, + "grad_norm": 0.6426062801390939, + "learning_rate": 3.6515406170925085e-05, + "loss": 0.5451, + "step": 326 + }, + { + "epoch": 1.3625, + "grad_norm": 0.7569615680173203, + "learning_rate": 3.648252377244031e-05, + "loss": 0.5511, + "step": 327 + }, + { + "epoch": 1.3666666666666667, + "grad_norm": 0.5615222121177936, + "learning_rate": 3.644950190561325e-05, + "loss": 0.5353, + "step": 328 + }, + { + "epoch": 1.3708333333333333, + "grad_norm": 3.908446658444029, + "learning_rate": 3.641634084986135e-05, + "loss": 0.5363, + "step": 329 + }, + { + "epoch": 1.375, + "grad_norm": 0.86056567015776, + "learning_rate": 3.638304088577984e-05, + "loss": 0.5337, + "step": 330 + }, + { + "epoch": 1.3791666666666667, + "grad_norm": 0.968674440323784, + "learning_rate": 3.6349602295139334e-05, + "loss": 0.5349, + "step": 331 + }, + { + "epoch": 1.3833333333333333, + "grad_norm": 0.7662941534325669, + "learning_rate": 3.631602536088345e-05, + "loss": 0.5493, + "step": 332 + }, + { + "epoch": 1.3875, + "grad_norm": 0.6489821024054829, + "learning_rate": 3.628231036712639e-05, + "loss": 0.551, + "step": 333 + }, + { + "epoch": 1.3916666666666666, + "grad_norm": 0.6768400112848093, + "learning_rate": 3.624845759915059e-05, + "loss": 0.5506, + "step": 334 + }, + { + "epoch": 1.3958333333333333, + "grad_norm": 0.6300666456353369, + "learning_rate": 3.6214467343404247e-05, + "loss": 0.5492, + "step": 335 + }, + { + "epoch": 1.4, + "grad_norm": 0.5258555208327108, + "learning_rate": 3.6180339887498953e-05, + "loss": 0.5508, + "step": 336 + }, + { + "epoch": 1.4041666666666668, + "grad_norm": 0.5524501054068902, + "learning_rate": 3.61460755202072e-05, + "loss": 0.5435, + "step": 337 + }, + { + "epoch": 1.4083333333333332, + "grad_norm": 0.5625403333344081, + "learning_rate": 3.611167453145999e-05, + "loss": 0.5515, + "step": 338 + }, + { + "epoch": 1.4125, + "grad_norm": 0.5913598318371671, + "learning_rate": 3.6077137212344345e-05, + "loss": 0.5534, + "step": 339 + }, + { + "epoch": 1.4166666666666667, + "grad_norm": 0.5062091818940291, + "learning_rate": 3.604246385510088e-05, + "loss": 0.5454, + "step": 340 + }, + { + "epoch": 1.4208333333333334, + "grad_norm": 0.7149264594412322, + "learning_rate": 3.600765475312128e-05, + "loss": 0.526, + "step": 341 + }, + { + "epoch": 1.425, + "grad_norm": 0.48134148469588334, + "learning_rate": 3.597271020094586e-05, + "loss": 0.5324, + "step": 342 + }, + { + "epoch": 1.4291666666666667, + "grad_norm": 0.5417590266608151, + "learning_rate": 3.593763049426107e-05, + "loss": 0.5575, + "step": 343 + }, + { + "epoch": 1.4333333333333333, + "grad_norm": 0.5591822618770105, + "learning_rate": 3.590241592989696e-05, + "loss": 0.5503, + "step": 344 + }, + { + "epoch": 1.4375, + "grad_norm": 0.5257518162521898, + "learning_rate": 3.586706680582471e-05, + "loss": 0.5445, + "step": 345 + }, + { + "epoch": 1.4416666666666667, + "grad_norm": 0.4634408909849689, + "learning_rate": 3.583158342115407e-05, + "loss": 0.5406, + "step": 346 + }, + { + "epoch": 1.4458333333333333, + "grad_norm": 0.49613445514198684, + "learning_rate": 3.579596607613087e-05, + "loss": 0.5465, + "step": 347 + }, + { + "epoch": 1.45, + "grad_norm": 0.5672027866995051, + "learning_rate": 3.576021507213444e-05, + "loss": 0.553, + "step": 348 + }, + { + "epoch": 1.4541666666666666, + "grad_norm": 0.4941824109882221, + "learning_rate": 3.5724330711675085e-05, + "loss": 0.5349, + "step": 349 + }, + { + "epoch": 1.4583333333333333, + "grad_norm": 0.5669200741703913, + "learning_rate": 3.568831329839152e-05, + "loss": 0.558, + "step": 350 + }, + { + "epoch": 1.4625, + "grad_norm": 0.6336248661527731, + "learning_rate": 3.565216313704828e-05, + "loss": 0.5214, + "step": 351 + }, + { + "epoch": 1.4666666666666668, + "grad_norm": 0.4862325834076314, + "learning_rate": 3.561588053353319e-05, + "loss": 0.5326, + "step": 352 + }, + { + "epoch": 1.4708333333333332, + "grad_norm": 50.599831096867604, + "learning_rate": 3.557946579485472e-05, + "loss": 0.5274, + "step": 353 + }, + { + "epoch": 1.475, + "grad_norm": 10.910060517204235, + "learning_rate": 3.554291922913942e-05, + "loss": 0.6153, + "step": 354 + }, + { + "epoch": 1.4791666666666667, + "grad_norm": 1.074406038442234, + "learning_rate": 3.550624114562932e-05, + "loss": 0.5439, + "step": 355 + }, + { + "epoch": 1.4833333333333334, + "grad_norm": 1.0370534681055068, + "learning_rate": 3.5469431854679284e-05, + "loss": 0.557, + "step": 356 + }, + { + "epoch": 1.4875, + "grad_norm": 0.8216011964637442, + "learning_rate": 3.5432491667754404e-05, + "loss": 0.5478, + "step": 357 + }, + { + "epoch": 1.4916666666666667, + "grad_norm": 0.8134009163833327, + "learning_rate": 3.539542089742736e-05, + "loss": 0.542, + "step": 358 + }, + { + "epoch": 1.4958333333333333, + "grad_norm": 0.8750034828796878, + "learning_rate": 3.535821985737578e-05, + "loss": 0.5527, + "step": 359 + }, + { + "epoch": 1.5, + "grad_norm": 0.6744505015229905, + "learning_rate": 3.532088886237956e-05, + "loss": 0.5531, + "step": 360 + }, + { + "epoch": 1.5041666666666667, + "grad_norm": 0.544924446215458, + "learning_rate": 3.5283428228318265e-05, + "loss": 0.5491, + "step": 361 + }, + { + "epoch": 1.5083333333333333, + "grad_norm": 0.6751247516552488, + "learning_rate": 3.524583827216837e-05, + "loss": 0.5466, + "step": 362 + }, + { + "epoch": 1.5125, + "grad_norm": 0.3674962335666127, + "learning_rate": 3.520811931200063e-05, + "loss": 0.5438, + "step": 363 + }, + { + "epoch": 1.5166666666666666, + "grad_norm": 0.6309369607091287, + "learning_rate": 3.5170271666977383e-05, + "loss": 0.5433, + "step": 364 + }, + { + "epoch": 1.5208333333333335, + "grad_norm": 0.499517179632754, + "learning_rate": 3.513229565734986e-05, + "loss": 0.5398, + "step": 365 + }, + { + "epoch": 1.525, + "grad_norm": 0.515334408837096, + "learning_rate": 3.5094191604455446e-05, + "loss": 0.5361, + "step": 366 + }, + { + "epoch": 1.5291666666666668, + "grad_norm": 0.4723797383914561, + "learning_rate": 3.505595983071497e-05, + "loss": 0.5394, + "step": 367 + }, + { + "epoch": 1.5333333333333332, + "grad_norm": 0.5793396713598776, + "learning_rate": 3.5017600659629986e-05, + "loss": 0.5438, + "step": 368 + }, + { + "epoch": 1.5375, + "grad_norm": 2.5464060896803797, + "learning_rate": 3.497911441578005e-05, + "loss": 0.5528, + "step": 369 + }, + { + "epoch": 1.5416666666666665, + "grad_norm": 0.8887207215422138, + "learning_rate": 3.4940501424819927e-05, + "loss": 0.5388, + "step": 370 + }, + { + "epoch": 1.5458333333333334, + "grad_norm": 0.6433041354795661, + "learning_rate": 3.490176201347688e-05, + "loss": 0.5455, + "step": 371 + }, + { + "epoch": 1.55, + "grad_norm": 2.263023677021183, + "learning_rate": 3.4862896509547886e-05, + "loss": 0.5386, + "step": 372 + }, + { + "epoch": 1.5541666666666667, + "grad_norm": 0.6011992934825787, + "learning_rate": 3.482390524189687e-05, + "loss": 0.5453, + "step": 373 + }, + { + "epoch": 1.5583333333333333, + "grad_norm": 0.7611855558373163, + "learning_rate": 3.478478854045192e-05, + "loss": 0.5397, + "step": 374 + }, + { + "epoch": 1.5625, + "grad_norm": 0.4847408846399714, + "learning_rate": 3.474554673620248e-05, + "loss": 0.5374, + "step": 375 + }, + { + "epoch": 1.5666666666666667, + "grad_norm": 0.6917296997816444, + "learning_rate": 3.470618016119658e-05, + "loss": 0.5317, + "step": 376 + }, + { + "epoch": 1.5708333333333333, + "grad_norm": 0.4894917757184793, + "learning_rate": 3.4666689148537976e-05, + "loss": 0.5447, + "step": 377 + }, + { + "epoch": 1.575, + "grad_norm": 0.5536289373283173, + "learning_rate": 3.462707403238341e-05, + "loss": 0.5486, + "step": 378 + }, + { + "epoch": 1.5791666666666666, + "grad_norm": 0.5209679404299189, + "learning_rate": 3.458733514793971e-05, + "loss": 0.5387, + "step": 379 + }, + { + "epoch": 1.5833333333333335, + "grad_norm": 0.41294624066206936, + "learning_rate": 3.4547472831460976e-05, + "loss": 0.536, + "step": 380 + }, + { + "epoch": 1.5875, + "grad_norm": 0.4776106205291494, + "learning_rate": 3.450748742024575e-05, + "loss": 0.5299, + "step": 381 + }, + { + "epoch": 1.5916666666666668, + "grad_norm": 0.4408073207618328, + "learning_rate": 3.446737925263416e-05, + "loss": 0.5513, + "step": 382 + }, + { + "epoch": 1.5958333333333332, + "grad_norm": 1.011039352548808, + "learning_rate": 3.442714866800503e-05, + "loss": 0.5373, + "step": 383 + }, + { + "epoch": 1.6, + "grad_norm": 0.4728935369610765, + "learning_rate": 3.438679600677303e-05, + "loss": 0.5573, + "step": 384 + }, + { + "epoch": 1.6041666666666665, + "grad_norm": 0.44203385402051665, + "learning_rate": 3.434632161038579e-05, + "loss": 0.5476, + "step": 385 + }, + { + "epoch": 1.6083333333333334, + "grad_norm": 0.44675782958431953, + "learning_rate": 3.430572582132103e-05, + "loss": 0.5318, + "step": 386 + }, + { + "epoch": 1.6125, + "grad_norm": 0.40337499189073334, + "learning_rate": 3.426500898308364e-05, + "loss": 0.546, + "step": 387 + }, + { + "epoch": 1.6166666666666667, + "grad_norm": 3.887202940437168, + "learning_rate": 3.422417144020274e-05, + "loss": 0.5556, + "step": 388 + }, + { + "epoch": 1.6208333333333333, + "grad_norm": 0.722313529945089, + "learning_rate": 3.4183213538228876e-05, + "loss": 0.5369, + "step": 389 + }, + { + "epoch": 1.625, + "grad_norm": 0.6188201178714671, + "learning_rate": 3.4142135623730954e-05, + "loss": 0.5333, + "step": 390 + }, + { + "epoch": 1.6291666666666667, + "grad_norm": 8.0133358740126, + "learning_rate": 3.410093804429341e-05, + "loss": 0.6215, + "step": 391 + }, + { + "epoch": 1.6333333333333333, + "grad_norm": 0.7859856462540775, + "learning_rate": 3.405962114851324e-05, + "loss": 0.5418, + "step": 392 + }, + { + "epoch": 1.6375, + "grad_norm": 0.5405499807694932, + "learning_rate": 3.401818528599702e-05, + "loss": 0.5347, + "step": 393 + }, + { + "epoch": 1.6416666666666666, + "grad_norm": 0.5714313002014001, + "learning_rate": 3.3976630807358e-05, + "loss": 0.5541, + "step": 394 + }, + { + "epoch": 1.6458333333333335, + "grad_norm": 0.5882264280306395, + "learning_rate": 3.3934958064213105e-05, + "loss": 0.5365, + "step": 395 + }, + { + "epoch": 1.65, + "grad_norm": 0.6292291165942625, + "learning_rate": 3.3893167409179945e-05, + "loss": 0.5332, + "step": 396 + }, + { + "epoch": 1.6541666666666668, + "grad_norm": 0.5061325980182686, + "learning_rate": 3.385125919587389e-05, + "loss": 0.5256, + "step": 397 + }, + { + "epoch": 1.6583333333333332, + "grad_norm": 0.5896622141204226, + "learning_rate": 3.3809233778904995e-05, + "loss": 0.5365, + "step": 398 + }, + { + "epoch": 1.6625, + "grad_norm": 0.42991753010476663, + "learning_rate": 3.376709151387508e-05, + "loss": 0.5419, + "step": 399 + }, + { + "epoch": 1.6666666666666665, + "grad_norm": 0.5320307698753223, + "learning_rate": 3.372483275737468e-05, + "loss": 0.5355, + "step": 400 + }, + { + "epoch": 1.6708333333333334, + "grad_norm": 0.4362313241457944, + "learning_rate": 3.368245786698e-05, + "loss": 0.5359, + "step": 401 + }, + { + "epoch": 1.675, + "grad_norm": 0.5090533209283697, + "learning_rate": 3.363996720124997e-05, + "loss": 0.5468, + "step": 402 + }, + { + "epoch": 1.6791666666666667, + "grad_norm": 0.41335826704940476, + "learning_rate": 3.3597361119723145e-05, + "loss": 0.5351, + "step": 403 + }, + { + "epoch": 1.6833333333333333, + "grad_norm": 0.5078274330938815, + "learning_rate": 3.355463998291465e-05, + "loss": 0.5348, + "step": 404 + }, + { + "epoch": 1.6875, + "grad_norm": 0.3804915040214098, + "learning_rate": 3.351180415231321e-05, + "loss": 0.5279, + "step": 405 + }, + { + "epoch": 1.6916666666666667, + "grad_norm": 0.47013384517847556, + "learning_rate": 3.3468853990378005e-05, + "loss": 0.5285, + "step": 406 + }, + { + "epoch": 1.6958333333333333, + "grad_norm": 0.40689934674421463, + "learning_rate": 3.342578986053567e-05, + "loss": 0.5277, + "step": 407 + }, + { + "epoch": 1.7, + "grad_norm": 0.4448533400141461, + "learning_rate": 3.3382612127177166e-05, + "loss": 0.5334, + "step": 408 + }, + { + "epoch": 1.7041666666666666, + "grad_norm": 0.47219175452122747, + "learning_rate": 3.3339321155654723e-05, + "loss": 0.5315, + "step": 409 + }, + { + "epoch": 1.7083333333333335, + "grad_norm": 1.1226303581586898, + "learning_rate": 3.3295917312278754e-05, + "loss": 0.5582, + "step": 410 + }, + { + "epoch": 1.7125, + "grad_norm": 1.1384407299842498, + "learning_rate": 3.3252400964314756e-05, + "loss": 0.5497, + "step": 411 + }, + { + "epoch": 1.7166666666666668, + "grad_norm": 1.0300242288581747, + "learning_rate": 3.3208772479980154e-05, + "loss": 0.6032, + "step": 412 + }, + { + "epoch": 1.7208333333333332, + "grad_norm": 0.30687240316764763, + "learning_rate": 3.316503222844128e-05, + "loss": 0.5289, + "step": 413 + }, + { + "epoch": 1.725, + "grad_norm": 0.3582513272424745, + "learning_rate": 3.312118057981015e-05, + "loss": 0.5379, + "step": 414 + }, + { + "epoch": 1.7291666666666665, + "grad_norm": 0.3291272208159582, + "learning_rate": 3.3077217905141395e-05, + "loss": 0.532, + "step": 415 + }, + { + "epoch": 1.7333333333333334, + "grad_norm": 0.30850616340598214, + "learning_rate": 3.303314457642911e-05, + "loss": 0.546, + "step": 416 + }, + { + "epoch": 1.7375, + "grad_norm": 0.386781836944319, + "learning_rate": 3.298896096660367e-05, + "loss": 0.5269, + "step": 417 + }, + { + "epoch": 1.7416666666666667, + "grad_norm": 0.33791320712541995, + "learning_rate": 3.294466744952865e-05, + "loss": 0.5487, + "step": 418 + }, + { + "epoch": 1.7458333333333333, + "grad_norm": 0.3836471909857469, + "learning_rate": 3.290026439999757e-05, + "loss": 0.5364, + "step": 419 + }, + { + "epoch": 1.75, + "grad_norm": 0.3409114081935661, + "learning_rate": 3.285575219373079e-05, + "loss": 0.5351, + "step": 420 + }, + { + "epoch": 1.7541666666666667, + "grad_norm": 0.4038423945266767, + "learning_rate": 3.281113120737231e-05, + "loss": 0.5316, + "step": 421 + }, + { + "epoch": 1.7583333333333333, + "grad_norm": 0.447896853158445, + "learning_rate": 3.276640181848657e-05, + "loss": 0.5347, + "step": 422 + }, + { + "epoch": 1.7625, + "grad_norm": 0.39772425809590717, + "learning_rate": 3.272156440555528e-05, + "loss": 0.533, + "step": 423 + }, + { + "epoch": 1.7666666666666666, + "grad_norm": 0.49904113747582496, + "learning_rate": 3.26766193479742e-05, + "loss": 0.5384, + "step": 424 + }, + { + "epoch": 1.7708333333333335, + "grad_norm": 0.4127689853333455, + "learning_rate": 3.2631567026049954e-05, + "loss": 0.538, + "step": 425 + }, + { + "epoch": 1.775, + "grad_norm": 0.46507484347333206, + "learning_rate": 3.258640782099675e-05, + "loss": 0.5377, + "step": 426 + }, + { + "epoch": 1.7791666666666668, + "grad_norm": 0.40509094921794664, + "learning_rate": 3.254114211493324e-05, + "loss": 0.5312, + "step": 427 + }, + { + "epoch": 1.7833333333333332, + "grad_norm": 4.0203588633843825, + "learning_rate": 3.2495770290879204e-05, + "loss": 0.5602, + "step": 428 + }, + { + "epoch": 1.7875, + "grad_norm": 0.6620483623851753, + "learning_rate": 3.2450292732752395e-05, + "loss": 0.5388, + "step": 429 + }, + { + "epoch": 1.7916666666666665, + "grad_norm": 0.6221145466142196, + "learning_rate": 3.2404709825365204e-05, + "loss": 0.5411, + "step": 430 + }, + { + "epoch": 1.7958333333333334, + "grad_norm": 0.4939363274260579, + "learning_rate": 3.235902195442147e-05, + "loss": 0.5474, + "step": 431 + }, + { + "epoch": 1.8, + "grad_norm": 0.6538538086125941, + "learning_rate": 3.2313229506513167e-05, + "loss": 0.5382, + "step": 432 + }, + { + "epoch": 1.8041666666666667, + "grad_norm": 0.46231434195977417, + "learning_rate": 3.2267332869117186e-05, + "loss": 0.5378, + "step": 433 + }, + { + "epoch": 1.8083333333333333, + "grad_norm": 0.48393570230931093, + "learning_rate": 3.2221332430592e-05, + "loss": 0.5339, + "step": 434 + }, + { + "epoch": 1.8125, + "grad_norm": 0.4731624643118013, + "learning_rate": 3.217522858017442e-05, + "loss": 0.5321, + "step": 435 + }, + { + "epoch": 1.8166666666666667, + "grad_norm": 0.3951340592928766, + "learning_rate": 3.2129021707976274e-05, + "loss": 0.5269, + "step": 436 + }, + { + "epoch": 1.8208333333333333, + "grad_norm": 0.4241328181614359, + "learning_rate": 3.208271220498113e-05, + "loss": 0.5452, + "step": 437 + }, + { + "epoch": 1.825, + "grad_norm": 0.385964971839393, + "learning_rate": 3.203630046304097e-05, + "loss": 0.5413, + "step": 438 + }, + { + "epoch": 1.8291666666666666, + "grad_norm": 0.32637856355400724, + "learning_rate": 3.198978687487288e-05, + "loss": 0.5401, + "step": 439 + }, + { + "epoch": 1.8333333333333335, + "grad_norm": 0.626582631847551, + "learning_rate": 3.194317183405573e-05, + "loss": 0.5377, + "step": 440 + }, + { + "epoch": 1.8375, + "grad_norm": 0.3603921671355549, + "learning_rate": 3.189645573502683e-05, + "loss": 0.523, + "step": 441 + }, + { + "epoch": 1.8416666666666668, + "grad_norm": 0.42659135886403154, + "learning_rate": 3.184963897307862e-05, + "loss": 0.5312, + "step": 442 + }, + { + "epoch": 1.8458333333333332, + "grad_norm": 0.32166388456083606, + "learning_rate": 3.1802721944355295e-05, + "loss": 0.545, + "step": 443 + }, + { + "epoch": 1.85, + "grad_norm": 0.36067229289591707, + "learning_rate": 3.1755705045849465e-05, + "loss": 0.5286, + "step": 444 + }, + { + "epoch": 1.8541666666666665, + "grad_norm": 0.2956763484410633, + "learning_rate": 3.1708588675398814e-05, + "loss": 0.5209, + "step": 445 + }, + { + "epoch": 1.8583333333333334, + "grad_norm": 1.1731313817904956, + "learning_rate": 3.1661373231682696e-05, + "loss": 0.548, + "step": 446 + }, + { + "epoch": 1.8625, + "grad_norm": 0.3227064853360421, + "learning_rate": 3.1614059114218795e-05, + "loss": 0.5357, + "step": 447 + }, + { + "epoch": 1.8666666666666667, + "grad_norm": 0.36709296331463204, + "learning_rate": 3.156664672335973e-05, + "loss": 0.5434, + "step": 448 + }, + { + "epoch": 1.8708333333333333, + "grad_norm": 0.3363593683628134, + "learning_rate": 3.151913646028967e-05, + "loss": 0.5379, + "step": 449 + }, + { + "epoch": 1.875, + "grad_norm": 0.40281837434158557, + "learning_rate": 3.147152872702092e-05, + "loss": 0.538, + "step": 450 + }, + { + "epoch": 1.8791666666666667, + "grad_norm": 0.31351522785056457, + "learning_rate": 3.1423823926390575e-05, + "loss": 0.5353, + "step": 451 + }, + { + "epoch": 1.8833333333333333, + "grad_norm": 0.39324055047755585, + "learning_rate": 3.137602246205704e-05, + "loss": 0.5266, + "step": 452 + }, + { + "epoch": 1.8875, + "grad_norm": 0.3664580431628436, + "learning_rate": 3.132812473849666e-05, + "loss": 0.5366, + "step": 453 + }, + { + "epoch": 1.8916666666666666, + "grad_norm": 0.41704352937571465, + "learning_rate": 3.128013116100029e-05, + "loss": 0.5285, + "step": 454 + }, + { + "epoch": 1.8958333333333335, + "grad_norm": 0.39282335707785704, + "learning_rate": 3.123204213566986e-05, + "loss": 0.5426, + "step": 455 + }, + { + "epoch": 1.9, + "grad_norm": 0.36218214273512056, + "learning_rate": 3.1183858069414936e-05, + "loss": 0.5482, + "step": 456 + }, + { + "epoch": 1.9041666666666668, + "grad_norm": 0.39771815020451934, + "learning_rate": 3.113557936994929e-05, + "loss": 0.5349, + "step": 457 + }, + { + "epoch": 1.9083333333333332, + "grad_norm": 0.37776725153082563, + "learning_rate": 3.1087206445787436e-05, + "loss": 0.5321, + "step": 458 + }, + { + "epoch": 1.9125, + "grad_norm": 0.3413941460478657, + "learning_rate": 3.103873970624117e-05, + "loss": 0.5452, + "step": 459 + }, + { + "epoch": 1.9166666666666665, + "grad_norm": 0.36909470454931836, + "learning_rate": 3.0990179561416124e-05, + "loss": 0.5328, + "step": 460 + }, + { + "epoch": 1.9208333333333334, + "grad_norm": 0.26521618628019933, + "learning_rate": 3.094152642220829e-05, + "loss": 0.5389, + "step": 461 + }, + { + "epoch": 1.925, + "grad_norm": 0.34325211349261603, + "learning_rate": 3.0892780700300544e-05, + "loss": 0.541, + "step": 462 + }, + { + "epoch": 1.9291666666666667, + "grad_norm": 4.811603499350673, + "learning_rate": 3.084394280815914e-05, + "loss": 0.5755, + "step": 463 + }, + { + "epoch": 1.9333333333333333, + "grad_norm": 0.4786137584045623, + "learning_rate": 3.079501315903026e-05, + "loss": 0.53, + "step": 464 + }, + { + "epoch": 1.9375, + "grad_norm": 0.41344035214790137, + "learning_rate": 3.0745992166936484e-05, + "loss": 0.5321, + "step": 465 + }, + { + "epoch": 1.9416666666666667, + "grad_norm": 0.3320667262805005, + "learning_rate": 3.0696880246673293e-05, + "loss": 0.5313, + "step": 466 + }, + { + "epoch": 1.9458333333333333, + "grad_norm": 0.5393309931610712, + "learning_rate": 3.064767781380558e-05, + "loss": 0.5345, + "step": 467 + }, + { + "epoch": 1.95, + "grad_norm": 0.36344810477596545, + "learning_rate": 3.05983852846641e-05, + "loss": 0.5341, + "step": 468 + }, + { + "epoch": 1.9541666666666666, + "grad_norm": 0.37782531754913795, + "learning_rate": 3.0549003076342e-05, + "loss": 0.526, + "step": 469 + }, + { + "epoch": 1.9583333333333335, + "grad_norm": 0.37027854117681785, + "learning_rate": 3.0499531606691204e-05, + "loss": 0.5382, + "step": 470 + }, + { + "epoch": 1.9625, + "grad_norm": 0.3759462692918367, + "learning_rate": 3.0449971294318977e-05, + "loss": 0.5321, + "step": 471 + }, + { + "epoch": 1.9666666666666668, + "grad_norm": 0.843520724044957, + "learning_rate": 3.0400322558584308e-05, + "loss": 0.5437, + "step": 472 + }, + { + "epoch": 1.9708333333333332, + "grad_norm": 0.3915495912006152, + "learning_rate": 3.0350585819594402e-05, + "loss": 0.526, + "step": 473 + }, + { + "epoch": 1.975, + "grad_norm": 0.34332380102586857, + "learning_rate": 3.030076149820109e-05, + "loss": 0.5261, + "step": 474 + }, + { + "epoch": 1.9791666666666665, + "grad_norm": 0.38262503583227475, + "learning_rate": 3.0250850015997307e-05, + "loss": 0.5229, + "step": 475 + }, + { + "epoch": 1.9833333333333334, + "grad_norm": 0.3460892043692767, + "learning_rate": 3.020085179531351e-05, + "loss": 0.5239, + "step": 476 + }, + { + "epoch": 1.9875, + "grad_norm": 0.3156293867995891, + "learning_rate": 3.0150767259214087e-05, + "loss": 0.5388, + "step": 477 + }, + { + "epoch": 1.9916666666666667, + "grad_norm": 0.33013269777276694, + "learning_rate": 3.0100596831493806e-05, + "loss": 0.5253, + "step": 478 + }, + { + "epoch": 1.9958333333333333, + "grad_norm": 0.33797798159952824, + "learning_rate": 3.0050340936674202e-05, + "loss": 0.5383, + "step": 479 + }, + { + "epoch": 2.0, + "grad_norm": 0.386842030161799, + "learning_rate": 3.0000000000000004e-05, + "loss": 0.5302, + "step": 480 + }, + { + "epoch": 2.004166666666667, + "grad_norm": 0.4886159342930222, + "learning_rate": 2.9949574447435533e-05, + "loss": 0.4922, + "step": 481 + }, + { + "epoch": 2.0083333333333333, + "grad_norm": 0.36231983910258553, + "learning_rate": 2.9899064705661086e-05, + "loss": 0.4804, + "step": 482 + }, + { + "epoch": 2.0125, + "grad_norm": 0.642614800738087, + "learning_rate": 2.9848471202069347e-05, + "loss": 0.4851, + "step": 483 + }, + { + "epoch": 2.0166666666666666, + "grad_norm": 0.42808250895072036, + "learning_rate": 2.9797794364761743e-05, + "loss": 0.4761, + "step": 484 + }, + { + "epoch": 2.0208333333333335, + "grad_norm": 0.48344163286053543, + "learning_rate": 2.974703462254485e-05, + "loss": 0.4931, + "step": 485 + }, + { + "epoch": 2.025, + "grad_norm": 0.43795264872636147, + "learning_rate": 2.9696192404926747e-05, + "loss": 0.484, + "step": 486 + }, + { + "epoch": 2.029166666666667, + "grad_norm": 0.41290565168811605, + "learning_rate": 2.964526814211338e-05, + "loss": 0.485, + "step": 487 + }, + { + "epoch": 2.033333333333333, + "grad_norm": 0.4356828882854518, + "learning_rate": 2.959426226500493e-05, + "loss": 0.4809, + "step": 488 + }, + { + "epoch": 2.0375, + "grad_norm": 0.47840529952039423, + "learning_rate": 2.954317520519217e-05, + "loss": 0.4661, + "step": 489 + }, + { + "epoch": 2.0416666666666665, + "grad_norm": 0.39630661023736297, + "learning_rate": 2.9492007394952812e-05, + "loss": 0.483, + "step": 490 + }, + { + "epoch": 2.0458333333333334, + "grad_norm": 0.4498881048188075, + "learning_rate": 2.9440759267247828e-05, + "loss": 0.4672, + "step": 491 + }, + { + "epoch": 2.05, + "grad_norm": 0.38435953428018615, + "learning_rate": 2.938943125571782e-05, + "loss": 0.4781, + "step": 492 + }, + { + "epoch": 2.0541666666666667, + "grad_norm": 0.3805953549515372, + "learning_rate": 2.933802379467932e-05, + "loss": 0.4736, + "step": 493 + }, + { + "epoch": 2.058333333333333, + "grad_norm": 0.3971953776801394, + "learning_rate": 2.9286537319121143e-05, + "loss": 0.4795, + "step": 494 + }, + { + "epoch": 2.0625, + "grad_norm": 1.3716827159292087, + "learning_rate": 2.9234972264700687e-05, + "loss": 0.5018, + "step": 495 + }, + { + "epoch": 2.066666666666667, + "grad_norm": 0.3993347299586712, + "learning_rate": 2.9183329067740235e-05, + "loss": 0.4698, + "step": 496 + }, + { + "epoch": 2.0708333333333333, + "grad_norm": 0.9163296799211197, + "learning_rate": 2.9131608165223313e-05, + "loss": 0.4755, + "step": 497 + }, + { + "epoch": 2.075, + "grad_norm": 2.135437266520834, + "learning_rate": 2.9079809994790937e-05, + "loss": 0.5212, + "step": 498 + }, + { + "epoch": 2.0791666666666666, + "grad_norm": 0.48648387390989906, + "learning_rate": 2.902793499473794e-05, + "loss": 0.4897, + "step": 499 + }, + { + "epoch": 2.0833333333333335, + "grad_norm": 0.4170170937467103, + "learning_rate": 2.897598360400925e-05, + "loss": 0.4785, + "step": 500 + }, + { + "epoch": 2.0875, + "grad_norm": 0.4091898520641542, + "learning_rate": 2.8923956262196178e-05, + "loss": 0.4776, + "step": 501 + }, + { + "epoch": 2.091666666666667, + "grad_norm": 1.9001726189022239, + "learning_rate": 2.8871853409532727e-05, + "loss": 0.5005, + "step": 502 + }, + { + "epoch": 2.095833333333333, + "grad_norm": 0.40030925906512504, + "learning_rate": 2.88196754868918e-05, + "loss": 0.4657, + "step": 503 + }, + { + "epoch": 2.1, + "grad_norm": 0.5070798940030533, + "learning_rate": 2.876742293578155e-05, + "loss": 0.4723, + "step": 504 + }, + { + "epoch": 2.1041666666666665, + "grad_norm": 0.3373194429400813, + "learning_rate": 2.871509619834159e-05, + "loss": 0.4727, + "step": 505 + }, + { + "epoch": 2.1083333333333334, + "grad_norm": 0.5029763550394912, + "learning_rate": 2.8662695717339263e-05, + "loss": 0.4715, + "step": 506 + }, + { + "epoch": 2.1125, + "grad_norm": 0.3160338581031689, + "learning_rate": 2.8610221936165906e-05, + "loss": 0.482, + "step": 507 + }, + { + "epoch": 2.1166666666666667, + "grad_norm": 0.4239598480395657, + "learning_rate": 2.8557675298833086e-05, + "loss": 0.485, + "step": 508 + }, + { + "epoch": 2.120833333333333, + "grad_norm": 0.4505317331014363, + "learning_rate": 2.8505056249968864e-05, + "loss": 0.4873, + "step": 509 + }, + { + "epoch": 2.125, + "grad_norm": 0.35674874414132907, + "learning_rate": 2.8452365234813992e-05, + "loss": 0.4823, + "step": 510 + }, + { + "epoch": 2.129166666666667, + "grad_norm": 0.3584842873122445, + "learning_rate": 2.8399602699218194e-05, + "loss": 0.4914, + "step": 511 + }, + { + "epoch": 2.1333333333333333, + "grad_norm": 0.45393019871536366, + "learning_rate": 2.834676908963636e-05, + "loss": 0.4818, + "step": 512 + }, + { + "epoch": 2.1375, + "grad_norm": 0.3280287194393449, + "learning_rate": 2.8293864853124783e-05, + "loss": 0.4661, + "step": 513 + }, + { + "epoch": 2.1416666666666666, + "grad_norm": 0.8727083767597136, + "learning_rate": 2.8240890437337373e-05, + "loss": 0.4712, + "step": 514 + }, + { + "epoch": 2.1458333333333335, + "grad_norm": 0.3355338663269697, + "learning_rate": 2.8187846290521852e-05, + "loss": 0.4785, + "step": 515 + }, + { + "epoch": 2.15, + "grad_norm": 0.35543276922208744, + "learning_rate": 2.813473286151601e-05, + "loss": 0.4756, + "step": 516 + }, + { + "epoch": 2.154166666666667, + "grad_norm": 0.379520013404558, + "learning_rate": 2.8081550599743835e-05, + "loss": 0.475, + "step": 517 + }, + { + "epoch": 2.158333333333333, + "grad_norm": 0.36729339199772665, + "learning_rate": 2.8028299955211785e-05, + "loss": 0.4827, + "step": 518 + }, + { + "epoch": 2.1625, + "grad_norm": 0.33712245862059337, + "learning_rate": 2.7974981378504926e-05, + "loss": 0.4774, + "step": 519 + }, + { + "epoch": 2.1666666666666665, + "grad_norm": 0.3538163894156368, + "learning_rate": 2.792159532078314e-05, + "loss": 0.4865, + "step": 520 + }, + { + "epoch": 2.1708333333333334, + "grad_norm": 0.349953200583264, + "learning_rate": 2.7868142233777305e-05, + "loss": 0.4804, + "step": 521 + }, + { + "epoch": 2.175, + "grad_norm": 0.4504984747532693, + "learning_rate": 2.7814622569785474e-05, + "loss": 0.473, + "step": 522 + }, + { + "epoch": 2.1791666666666667, + "grad_norm": 0.36475798074586124, + "learning_rate": 2.776103678166906e-05, + "loss": 0.4804, + "step": 523 + }, + { + "epoch": 2.183333333333333, + "grad_norm": 0.35154700117924165, + "learning_rate": 2.770738532284897e-05, + "loss": 0.481, + "step": 524 + }, + { + "epoch": 2.1875, + "grad_norm": 0.31920708112097607, + "learning_rate": 2.7653668647301797e-05, + "loss": 0.486, + "step": 525 + }, + { + "epoch": 2.191666666666667, + "grad_norm": 0.33469857140235026, + "learning_rate": 2.7599887209555986e-05, + "loss": 0.4704, + "step": 526 + }, + { + "epoch": 2.1958333333333333, + "grad_norm": 0.3123705103605502, + "learning_rate": 2.7546041464687942e-05, + "loss": 0.4735, + "step": 527 + }, + { + "epoch": 2.2, + "grad_norm": 0.31620822768657053, + "learning_rate": 2.7492131868318247e-05, + "loss": 0.4906, + "step": 528 + }, + { + "epoch": 2.2041666666666666, + "grad_norm": 0.3237998625926402, + "learning_rate": 2.7438158876607732e-05, + "loss": 0.478, + "step": 529 + }, + { + "epoch": 2.2083333333333335, + "grad_norm": 0.35055598074469685, + "learning_rate": 2.738412294625369e-05, + "loss": 0.4926, + "step": 530 + }, + { + "epoch": 2.2125, + "grad_norm": 0.306146932881888, + "learning_rate": 2.7330024534485948e-05, + "loss": 0.4726, + "step": 531 + }, + { + "epoch": 2.216666666666667, + "grad_norm": 0.3562224476164066, + "learning_rate": 2.7275864099063033e-05, + "loss": 0.4732, + "step": 532 + }, + { + "epoch": 2.220833333333333, + "grad_norm": 0.3566436235010374, + "learning_rate": 2.7221642098268292e-05, + "loss": 0.4946, + "step": 533 + }, + { + "epoch": 2.225, + "grad_norm": 0.31114253338918896, + "learning_rate": 2.7167358990906e-05, + "loss": 0.4831, + "step": 534 + }, + { + "epoch": 2.2291666666666665, + "grad_norm": 0.3436461920189891, + "learning_rate": 2.7113015236297537e-05, + "loss": 0.477, + "step": 535 + }, + { + "epoch": 2.2333333333333334, + "grad_norm": 0.30580165869202075, + "learning_rate": 2.7058611294277378e-05, + "loss": 0.4698, + "step": 536 + }, + { + "epoch": 2.2375, + "grad_norm": 0.3102715492300113, + "learning_rate": 2.7004147625189353e-05, + "loss": 0.4719, + "step": 537 + }, + { + "epoch": 2.2416666666666667, + "grad_norm": 0.3080035358302375, + "learning_rate": 2.694962468988263e-05, + "loss": 0.4898, + "step": 538 + }, + { + "epoch": 2.245833333333333, + "grad_norm": 0.2848422958925151, + "learning_rate": 2.6895042949707886e-05, + "loss": 0.4922, + "step": 539 + }, + { + "epoch": 2.25, + "grad_norm": 0.30926455577430995, + "learning_rate": 2.684040286651338e-05, + "loss": 0.4862, + "step": 540 + }, + { + "epoch": 2.2541666666666664, + "grad_norm": 0.3111976209215279, + "learning_rate": 2.6785704902641024e-05, + "loss": 0.4751, + "step": 541 + }, + { + "epoch": 2.2583333333333333, + "grad_norm": 0.873839818408244, + "learning_rate": 2.673094952092253e-05, + "loss": 0.4719, + "step": 542 + }, + { + "epoch": 2.2625, + "grad_norm": 0.33204149695565766, + "learning_rate": 2.667613718467542e-05, + "loss": 0.4807, + "step": 543 + }, + { + "epoch": 2.2666666666666666, + "grad_norm": 0.30632882956124574, + "learning_rate": 2.6621268357699165e-05, + "loss": 0.4706, + "step": 544 + }, + { + "epoch": 2.2708333333333335, + "grad_norm": 0.2961072711355155, + "learning_rate": 2.6566343504271227e-05, + "loss": 0.4708, + "step": 545 + }, + { + "epoch": 2.275, + "grad_norm": 0.30704392710398426, + "learning_rate": 2.6511363089143137e-05, + "loss": 0.4791, + "step": 546 + }, + { + "epoch": 2.279166666666667, + "grad_norm": 0.2712205518719514, + "learning_rate": 2.645632757753658e-05, + "loss": 0.4773, + "step": 547 + }, + { + "epoch": 2.283333333333333, + "grad_norm": 0.3315405168045059, + "learning_rate": 2.640123743513943e-05, + "loss": 0.4782, + "step": 548 + }, + { + "epoch": 2.2875, + "grad_norm": 0.292396395388033, + "learning_rate": 2.6346093128101847e-05, + "loss": 0.4904, + "step": 549 + }, + { + "epoch": 2.2916666666666665, + "grad_norm": 0.3188557649620602, + "learning_rate": 2.6290895123032277e-05, + "loss": 0.4737, + "step": 550 + }, + { + "epoch": 2.2958333333333334, + "grad_norm": 0.30424659204927196, + "learning_rate": 2.623564388699356e-05, + "loss": 0.4717, + "step": 551 + }, + { + "epoch": 2.3, + "grad_norm": 0.31138223815754884, + "learning_rate": 2.618033988749895e-05, + "loss": 0.4958, + "step": 552 + }, + { + "epoch": 2.3041666666666667, + "grad_norm": 0.30916556586063254, + "learning_rate": 2.6124983592508164e-05, + "loss": 0.4863, + "step": 553 + }, + { + "epoch": 2.3083333333333336, + "grad_norm": 0.2814754830068476, + "learning_rate": 2.6069575470423417e-05, + "loss": 0.4751, + "step": 554 + }, + { + "epoch": 2.3125, + "grad_norm": 0.3050857927796688, + "learning_rate": 2.601411599008546e-05, + "loss": 0.4857, + "step": 555 + }, + { + "epoch": 2.3166666666666664, + "grad_norm": 0.6697455437225489, + "learning_rate": 2.595860562076964e-05, + "loss": 0.4971, + "step": 556 + }, + { + "epoch": 2.3208333333333333, + "grad_norm": 0.2961077434019537, + "learning_rate": 2.590304483218188e-05, + "loss": 0.4771, + "step": 557 + }, + { + "epoch": 2.325, + "grad_norm": 0.30687641453285824, + "learning_rate": 2.5847434094454737e-05, + "loss": 0.4678, + "step": 558 + }, + { + "epoch": 2.3291666666666666, + "grad_norm": 0.3265943888762366, + "learning_rate": 2.5791773878143423e-05, + "loss": 0.4874, + "step": 559 + }, + { + "epoch": 2.3333333333333335, + "grad_norm": 0.27371615641543545, + "learning_rate": 2.5736064654221808e-05, + "loss": 0.4846, + "step": 560 + }, + { + "epoch": 2.3375, + "grad_norm": 0.2850078562359186, + "learning_rate": 2.568030689407846e-05, + "loss": 0.4717, + "step": 561 + }, + { + "epoch": 2.341666666666667, + "grad_norm": 0.33065075323146403, + "learning_rate": 2.5624501069512614e-05, + "loss": 0.4896, + "step": 562 + }, + { + "epoch": 2.345833333333333, + "grad_norm": 0.29663809900661076, + "learning_rate": 2.556864765273024e-05, + "loss": 0.4793, + "step": 563 + }, + { + "epoch": 2.35, + "grad_norm": 0.33466439648780866, + "learning_rate": 2.5512747116339985e-05, + "loss": 0.4728, + "step": 564 + }, + { + "epoch": 2.3541666666666665, + "grad_norm": 0.3069432487995425, + "learning_rate": 2.5456799933349224e-05, + "loss": 0.4858, + "step": 565 + }, + { + "epoch": 2.3583333333333334, + "grad_norm": 0.29228368662647797, + "learning_rate": 2.540080657716002e-05, + "loss": 0.4756, + "step": 566 + }, + { + "epoch": 2.3625, + "grad_norm": 0.31414622680486587, + "learning_rate": 2.534476752156514e-05, + "loss": 0.4834, + "step": 567 + }, + { + "epoch": 2.3666666666666667, + "grad_norm": 0.2817331987878316, + "learning_rate": 2.528868324074405e-05, + "loss": 0.4726, + "step": 568 + }, + { + "epoch": 2.3708333333333336, + "grad_norm": 0.3380976895995865, + "learning_rate": 2.523255420925887e-05, + "loss": 0.4878, + "step": 569 + }, + { + "epoch": 2.375, + "grad_norm": 0.3105825248790639, + "learning_rate": 2.5176380902050418e-05, + "loss": 0.4842, + "step": 570 + }, + { + "epoch": 2.3791666666666664, + "grad_norm": 0.3446065634556075, + "learning_rate": 2.512016379443412e-05, + "loss": 0.4676, + "step": 571 + }, + { + "epoch": 2.3833333333333333, + "grad_norm": 0.3031685646264204, + "learning_rate": 2.506390336209604e-05, + "loss": 0.4777, + "step": 572 + }, + { + "epoch": 2.3875, + "grad_norm": 0.3190633563175478, + "learning_rate": 2.5007600081088833e-05, + "loss": 0.472, + "step": 573 + }, + { + "epoch": 2.3916666666666666, + "grad_norm": 0.30317278906178724, + "learning_rate": 2.4951254427827723e-05, + "loss": 0.4939, + "step": 574 + }, + { + "epoch": 2.3958333333333335, + "grad_norm": 0.33341565510429794, + "learning_rate": 2.4894866879086478e-05, + "loss": 0.4677, + "step": 575 + }, + { + "epoch": 2.4, + "grad_norm": 0.2866935477908003, + "learning_rate": 2.4838437911993355e-05, + "loss": 0.4809, + "step": 576 + }, + { + "epoch": 2.404166666666667, + "grad_norm": 0.35012731057688545, + "learning_rate": 2.478196800402709e-05, + "loss": 0.4875, + "step": 577 + }, + { + "epoch": 2.408333333333333, + "grad_norm": 0.2857732158533012, + "learning_rate": 2.4725457633012836e-05, + "loss": 0.4786, + "step": 578 + }, + { + "epoch": 2.4125, + "grad_norm": 0.2922696264209706, + "learning_rate": 2.4668907277118114e-05, + "loss": 0.4742, + "step": 579 + }, + { + "epoch": 2.4166666666666665, + "grad_norm": 0.2727927566881546, + "learning_rate": 2.4612317414848804e-05, + "loss": 0.494, + "step": 580 + }, + { + "epoch": 2.4208333333333334, + "grad_norm": 0.29570114731198865, + "learning_rate": 2.455568852504507e-05, + "loss": 0.4741, + "step": 581 + }, + { + "epoch": 2.425, + "grad_norm": 0.3708837715005484, + "learning_rate": 2.4499021086877304e-05, + "loss": 0.4887, + "step": 582 + }, + { + "epoch": 2.4291666666666667, + "grad_norm": 0.2914145818910581, + "learning_rate": 2.4442315579842068e-05, + "loss": 0.4777, + "step": 583 + }, + { + "epoch": 2.4333333333333336, + "grad_norm": 0.27994366238168417, + "learning_rate": 2.4385572483758066e-05, + "loss": 0.4984, + "step": 584 + }, + { + "epoch": 2.4375, + "grad_norm": 0.3139348955681916, + "learning_rate": 2.4328792278762058e-05, + "loss": 0.4779, + "step": 585 + }, + { + "epoch": 2.4416666666666664, + "grad_norm": 0.27424589280548484, + "learning_rate": 2.4271975445304806e-05, + "loss": 0.4771, + "step": 586 + }, + { + "epoch": 2.4458333333333333, + "grad_norm": 0.32738262546874447, + "learning_rate": 2.4215122464146996e-05, + "loss": 0.4708, + "step": 587 + }, + { + "epoch": 2.45, + "grad_norm": 0.2843471029941453, + "learning_rate": 2.4158233816355185e-05, + "loss": 0.4797, + "step": 588 + }, + { + "epoch": 2.4541666666666666, + "grad_norm": 0.3486283991456439, + "learning_rate": 2.4101309983297757e-05, + "loss": 0.4921, + "step": 589 + }, + { + "epoch": 2.4583333333333335, + "grad_norm": 0.2931710908645017, + "learning_rate": 2.4044351446640763e-05, + "loss": 0.4783, + "step": 590 + }, + { + "epoch": 2.4625, + "grad_norm": 0.3772039960998048, + "learning_rate": 2.3987358688343946e-05, + "loss": 0.4876, + "step": 591 + }, + { + "epoch": 2.466666666666667, + "grad_norm": 0.34693662887064003, + "learning_rate": 2.3930332190656604e-05, + "loss": 0.4796, + "step": 592 + }, + { + "epoch": 2.470833333333333, + "grad_norm": 0.32582379868897454, + "learning_rate": 2.3873272436113525e-05, + "loss": 0.4913, + "step": 593 + }, + { + "epoch": 2.475, + "grad_norm": 0.34143930489491536, + "learning_rate": 2.38161799075309e-05, + "loss": 0.473, + "step": 594 + }, + { + "epoch": 2.4791666666666665, + "grad_norm": 0.3015093958025492, + "learning_rate": 2.375905508800224e-05, + "loss": 0.4784, + "step": 595 + }, + { + "epoch": 2.4833333333333334, + "grad_norm": 0.32483312747413107, + "learning_rate": 2.370189846089429e-05, + "loss": 0.4756, + "step": 596 + }, + { + "epoch": 2.4875, + "grad_norm": 0.30399694525041737, + "learning_rate": 2.3644710509842956e-05, + "loss": 0.4809, + "step": 597 + }, + { + "epoch": 2.4916666666666667, + "grad_norm": 0.29199630583002084, + "learning_rate": 2.358749171874915e-05, + "loss": 0.4953, + "step": 598 + }, + { + "epoch": 2.4958333333333336, + "grad_norm": 0.28833627252516764, + "learning_rate": 2.3530242571774787e-05, + "loss": 0.4902, + "step": 599 + }, + { + "epoch": 2.5, + "grad_norm": 0.2731371512874426, + "learning_rate": 2.3472963553338614e-05, + "loss": 0.4934, + "step": 600 + }, + { + "epoch": 2.5041666666666664, + "grad_norm": 0.2812643292598403, + "learning_rate": 2.341565514811214e-05, + "loss": 0.4834, + "step": 601 + }, + { + "epoch": 2.5083333333333333, + "grad_norm": 0.2728818767616976, + "learning_rate": 2.3358317841015547e-05, + "loss": 0.4942, + "step": 602 + }, + { + "epoch": 2.5125, + "grad_norm": 0.2835734026581958, + "learning_rate": 2.3300952117213552e-05, + "loss": 0.4884, + "step": 603 + }, + { + "epoch": 2.5166666666666666, + "grad_norm": 0.27950979825189903, + "learning_rate": 2.3243558462111354e-05, + "loss": 0.4823, + "step": 604 + }, + { + "epoch": 2.5208333333333335, + "grad_norm": 0.32855079628815703, + "learning_rate": 2.3186137361350455e-05, + "loss": 0.4809, + "step": 605 + }, + { + "epoch": 2.525, + "grad_norm": 0.2865668790848711, + "learning_rate": 2.312868930080462e-05, + "loss": 0.4833, + "step": 606 + }, + { + "epoch": 2.529166666666667, + "grad_norm": 0.362397932363514, + "learning_rate": 2.3071214766575722e-05, + "loss": 0.4882, + "step": 607 + }, + { + "epoch": 2.533333333333333, + "grad_norm": 0.27359911997882985, + "learning_rate": 2.3013714244989665e-05, + "loss": 0.4704, + "step": 608 + }, + { + "epoch": 2.5375, + "grad_norm": 0.411023294567305, + "learning_rate": 2.2956188222592218e-05, + "loss": 0.474, + "step": 609 + }, + { + "epoch": 2.5416666666666665, + "grad_norm": 0.30896571731498135, + "learning_rate": 2.2898637186144935e-05, + "loss": 0.4877, + "step": 610 + }, + { + "epoch": 2.5458333333333334, + "grad_norm": 0.37291302446089014, + "learning_rate": 2.2841061622621052e-05, + "loss": 0.4804, + "step": 611 + }, + { + "epoch": 2.55, + "grad_norm": 0.30780547512469386, + "learning_rate": 2.278346201920131e-05, + "loss": 0.4834, + "step": 612 + }, + { + "epoch": 2.5541666666666667, + "grad_norm": 0.38234307930546974, + "learning_rate": 2.2725838863269894e-05, + "loss": 0.4658, + "step": 613 + }, + { + "epoch": 2.5583333333333336, + "grad_norm": 0.29580812288782055, + "learning_rate": 2.2668192642410257e-05, + "loss": 0.4819, + "step": 614 + }, + { + "epoch": 2.5625, + "grad_norm": 0.2954304255659645, + "learning_rate": 2.261052384440104e-05, + "loss": 0.4885, + "step": 615 + }, + { + "epoch": 2.5666666666666664, + "grad_norm": 0.2864840321894157, + "learning_rate": 2.25528329572119e-05, + "loss": 0.4803, + "step": 616 + }, + { + "epoch": 2.5708333333333333, + "grad_norm": 0.3038019951115472, + "learning_rate": 2.249512046899941e-05, + "loss": 0.4904, + "step": 617 + }, + { + "epoch": 2.575, + "grad_norm": 0.3018523128168798, + "learning_rate": 2.243738686810295e-05, + "loss": 0.481, + "step": 618 + }, + { + "epoch": 2.5791666666666666, + "grad_norm": 0.3064640894185579, + "learning_rate": 2.237963264304051e-05, + "loss": 0.4826, + "step": 619 + }, + { + "epoch": 2.5833333333333335, + "grad_norm": 0.33390959627026834, + "learning_rate": 2.2321858282504606e-05, + "loss": 0.4962, + "step": 620 + }, + { + "epoch": 2.5875, + "grad_norm": 0.33593338556580077, + "learning_rate": 2.226406427535814e-05, + "loss": 0.4878, + "step": 621 + }, + { + "epoch": 2.591666666666667, + "grad_norm": 0.36493331594003126, + "learning_rate": 2.220625111063024e-05, + "loss": 0.4862, + "step": 622 + }, + { + "epoch": 2.595833333333333, + "grad_norm": 0.3421217275923928, + "learning_rate": 2.214841927751215e-05, + "loss": 0.4743, + "step": 623 + }, + { + "epoch": 2.6, + "grad_norm": 0.3645361104855795, + "learning_rate": 2.209056926535307e-05, + "loss": 0.4823, + "step": 624 + }, + { + "epoch": 2.6041666666666665, + "grad_norm": 0.31849245941437065, + "learning_rate": 2.203270156365604e-05, + "loss": 0.4932, + "step": 625 + }, + { + "epoch": 2.6083333333333334, + "grad_norm": 0.30986398369115403, + "learning_rate": 2.1974816662073758e-05, + "loss": 0.4956, + "step": 626 + }, + { + "epoch": 2.6125, + "grad_norm": 0.2985332744172327, + "learning_rate": 2.1916915050404482e-05, + "loss": 0.4814, + "step": 627 + }, + { + "epoch": 2.6166666666666667, + "grad_norm": 0.28107318743495113, + "learning_rate": 2.185899721858785e-05, + "loss": 0.4851, + "step": 628 + }, + { + "epoch": 2.6208333333333336, + "grad_norm": 0.28571519193262973, + "learning_rate": 2.1801063656700747e-05, + "loss": 0.4821, + "step": 629 + }, + { + "epoch": 2.625, + "grad_norm": 0.2711978932752102, + "learning_rate": 2.174311485495317e-05, + "loss": 0.4954, + "step": 630 + }, + { + "epoch": 2.6291666666666664, + "grad_norm": 0.29656648394449375, + "learning_rate": 2.168515130368406e-05, + "loss": 0.4781, + "step": 631 + }, + { + "epoch": 2.6333333333333333, + "grad_norm": 0.3104422675510097, + "learning_rate": 2.1627173493357167e-05, + "loss": 0.4803, + "step": 632 + }, + { + "epoch": 2.6375, + "grad_norm": 0.36965495278596316, + "learning_rate": 2.1569181914556904e-05, + "loss": 0.4826, + "step": 633 + }, + { + "epoch": 2.6416666666666666, + "grad_norm": 0.3223492852763015, + "learning_rate": 2.1511177057984164e-05, + "loss": 0.4779, + "step": 634 + }, + { + "epoch": 2.6458333333333335, + "grad_norm": 0.34318985783201117, + "learning_rate": 2.1453159414452216e-05, + "loss": 0.4884, + "step": 635 + }, + { + "epoch": 2.65, + "grad_norm": 0.362660355217092, + "learning_rate": 2.1395129474882507e-05, + "loss": 0.4851, + "step": 636 + }, + { + "epoch": 2.654166666666667, + "grad_norm": 0.3849296701995083, + "learning_rate": 2.133708773030055e-05, + "loss": 0.4781, + "step": 637 + }, + { + "epoch": 2.658333333333333, + "grad_norm": 0.345196788673683, + "learning_rate": 2.1279034671831714e-05, + "loss": 0.4784, + "step": 638 + }, + { + "epoch": 2.6625, + "grad_norm": 0.32279802778936617, + "learning_rate": 2.1220970790697142e-05, + "loss": 0.4917, + "step": 639 + }, + { + "epoch": 2.6666666666666665, + "grad_norm": 0.3409858710595207, + "learning_rate": 2.1162896578209517e-05, + "loss": 0.4719, + "step": 640 + }, + { + "epoch": 2.6708333333333334, + "grad_norm": 0.28185884498274283, + "learning_rate": 2.1104812525768974e-05, + "loss": 0.4868, + "step": 641 + }, + { + "epoch": 2.675, + "grad_norm": 0.3499626677709927, + "learning_rate": 2.1046719124858882e-05, + "loss": 0.4861, + "step": 642 + }, + { + "epoch": 2.6791666666666667, + "grad_norm": 0.32050661825638865, + "learning_rate": 2.0988616867041724e-05, + "loss": 0.4894, + "step": 643 + }, + { + "epoch": 2.6833333333333336, + "grad_norm": 0.31129138266135237, + "learning_rate": 2.093050624395494e-05, + "loss": 0.4804, + "step": 644 + }, + { + "epoch": 2.6875, + "grad_norm": 0.30995162670378557, + "learning_rate": 2.0872387747306725e-05, + "loss": 0.4846, + "step": 645 + }, + { + "epoch": 2.6916666666666664, + "grad_norm": 0.30657951578221276, + "learning_rate": 2.081426186887192e-05, + "loss": 0.4799, + "step": 646 + }, + { + "epoch": 2.6958333333333333, + "grad_norm": 0.28010159120030614, + "learning_rate": 2.0756129100487824e-05, + "loss": 0.48, + "step": 647 + }, + { + "epoch": 2.7, + "grad_norm": 0.3218333829986327, + "learning_rate": 2.0697989934050025e-05, + "loss": 0.4907, + "step": 648 + }, + { + "epoch": 2.7041666666666666, + "grad_norm": 0.306173405304901, + "learning_rate": 2.063984486150826e-05, + "loss": 0.4734, + "step": 649 + }, + { + "epoch": 2.7083333333333335, + "grad_norm": 0.3130124259185629, + "learning_rate": 2.058169437486223e-05, + "loss": 0.4947, + "step": 650 + }, + { + "epoch": 2.7125, + "grad_norm": 0.3322990379420207, + "learning_rate": 2.0523538966157467e-05, + "loss": 0.4835, + "step": 651 + }, + { + "epoch": 2.716666666666667, + "grad_norm": 0.29992494239908996, + "learning_rate": 2.0465379127481127e-05, + "loss": 0.4772, + "step": 652 + }, + { + "epoch": 2.720833333333333, + "grad_norm": 0.3178162321643254, + "learning_rate": 2.0407215350957874e-05, + "loss": 0.4683, + "step": 653 + }, + { + "epoch": 2.725, + "grad_norm": 0.2867051833726081, + "learning_rate": 2.0349048128745673e-05, + "loss": 0.4803, + "step": 654 + }, + { + "epoch": 2.7291666666666665, + "grad_norm": 0.35847920749443224, + "learning_rate": 2.029087795303166e-05, + "loss": 0.478, + "step": 655 + }, + { + "epoch": 2.7333333333333334, + "grad_norm": 0.33294952908394987, + "learning_rate": 2.0232705316027946e-05, + "loss": 0.4652, + "step": 656 + }, + { + "epoch": 2.7375, + "grad_norm": 0.38266650139915515, + "learning_rate": 2.017453070996748e-05, + "loss": 0.4826, + "step": 657 + }, + { + "epoch": 2.7416666666666667, + "grad_norm": 0.30795152276985793, + "learning_rate": 2.011635462709988e-05, + "loss": 0.477, + "step": 658 + }, + { + "epoch": 2.7458333333333336, + "grad_norm": 0.38585790311584595, + "learning_rate": 2.0058177559687243e-05, + "loss": 0.478, + "step": 659 + }, + { + "epoch": 2.75, + "grad_norm": 0.27355684507598177, + "learning_rate": 2e-05, + "loss": 0.4815, + "step": 660 + }, + { + "epoch": 2.7541666666666664, + "grad_norm": 0.36938965074944063, + "learning_rate": 1.9941822440312767e-05, + "loss": 0.481, + "step": 661 + }, + { + "epoch": 2.7583333333333333, + "grad_norm": 0.30838872545055446, + "learning_rate": 1.9883645372900123e-05, + "loss": 0.4768, + "step": 662 + }, + { + "epoch": 2.7625, + "grad_norm": 0.32239571777232606, + "learning_rate": 1.9825469290032525e-05, + "loss": 0.4805, + "step": 663 + }, + { + "epoch": 2.7666666666666666, + "grad_norm": 0.31003015928588906, + "learning_rate": 1.9767294683972064e-05, + "loss": 0.4722, + "step": 664 + }, + { + "epoch": 2.7708333333333335, + "grad_norm": 0.2864026736524577, + "learning_rate": 1.9709122046968347e-05, + "loss": 0.4831, + "step": 665 + }, + { + "epoch": 2.775, + "grad_norm": 0.31752753580075455, + "learning_rate": 1.965095187125433e-05, + "loss": 0.4719, + "step": 666 + }, + { + "epoch": 2.779166666666667, + "grad_norm": 0.24935376161786096, + "learning_rate": 1.9592784649042126e-05, + "loss": 0.4816, + "step": 667 + }, + { + "epoch": 2.783333333333333, + "grad_norm": 0.30819566169829543, + "learning_rate": 1.9534620872518877e-05, + "loss": 0.4698, + "step": 668 + }, + { + "epoch": 2.7875, + "grad_norm": 0.2717547936152192, + "learning_rate": 1.9476461033842543e-05, + "loss": 0.4726, + "step": 669 + }, + { + "epoch": 2.7916666666666665, + "grad_norm": 0.2779824399041734, + "learning_rate": 1.9418305625137773e-05, + "loss": 0.4741, + "step": 670 + }, + { + "epoch": 2.7958333333333334, + "grad_norm": 0.2607959193113493, + "learning_rate": 1.936015513849175e-05, + "loss": 0.4943, + "step": 671 + }, + { + "epoch": 2.8, + "grad_norm": 0.26176751100628287, + "learning_rate": 1.930201006594999e-05, + "loss": 0.473, + "step": 672 + }, + { + "epoch": 2.8041666666666667, + "grad_norm": 0.3139692117589432, + "learning_rate": 1.9243870899512183e-05, + "loss": 0.4751, + "step": 673 + }, + { + "epoch": 2.8083333333333336, + "grad_norm": 0.24642201352931178, + "learning_rate": 1.9185738131128085e-05, + "loss": 0.4835, + "step": 674 + }, + { + "epoch": 2.8125, + "grad_norm": 0.2942248041458852, + "learning_rate": 1.9127612252693285e-05, + "loss": 0.4795, + "step": 675 + }, + { + "epoch": 2.8166666666666664, + "grad_norm": 0.31530719934076834, + "learning_rate": 1.9069493756045066e-05, + "loss": 0.4897, + "step": 676 + }, + { + "epoch": 2.8208333333333333, + "grad_norm": 0.2856546329064761, + "learning_rate": 1.9011383132958283e-05, + "loss": 0.4822, + "step": 677 + }, + { + "epoch": 2.825, + "grad_norm": 0.3142632497311166, + "learning_rate": 1.8953280875141125e-05, + "loss": 0.4808, + "step": 678 + }, + { + "epoch": 2.8291666666666666, + "grad_norm": 0.2683101120621211, + "learning_rate": 1.8895187474231033e-05, + "loss": 0.4628, + "step": 679 + }, + { + "epoch": 2.8333333333333335, + "grad_norm": 0.2985836933034999, + "learning_rate": 1.8837103421790486e-05, + "loss": 0.4849, + "step": 680 + }, + { + "epoch": 2.8375, + "grad_norm": 0.289427551706044, + "learning_rate": 1.877902920930286e-05, + "loss": 0.482, + "step": 681 + }, + { + "epoch": 2.841666666666667, + "grad_norm": 0.3177527556022089, + "learning_rate": 1.872096532816829e-05, + "loss": 0.4791, + "step": 682 + }, + { + "epoch": 2.845833333333333, + "grad_norm": 0.29906446929376074, + "learning_rate": 1.866291226969946e-05, + "loss": 0.4795, + "step": 683 + }, + { + "epoch": 2.85, + "grad_norm": 0.48825763612085826, + "learning_rate": 1.8604870525117496e-05, + "loss": 0.4725, + "step": 684 + }, + { + "epoch": 2.8541666666666665, + "grad_norm": 0.2604887835947638, + "learning_rate": 1.854684058554779e-05, + "loss": 0.4892, + "step": 685 + }, + { + "epoch": 2.8583333333333334, + "grad_norm": 0.2891297457749367, + "learning_rate": 1.8488822942015846e-05, + "loss": 0.4796, + "step": 686 + }, + { + "epoch": 2.8625, + "grad_norm": 0.29497307175926024, + "learning_rate": 1.8430818085443106e-05, + "loss": 0.4825, + "step": 687 + }, + { + "epoch": 2.8666666666666667, + "grad_norm": 0.27568988832284147, + "learning_rate": 1.837282650664284e-05, + "loss": 0.4716, + "step": 688 + }, + { + "epoch": 2.8708333333333336, + "grad_norm": 0.28164760335757116, + "learning_rate": 1.8314848696315944e-05, + "loss": 0.4727, + "step": 689 + }, + { + "epoch": 2.875, + "grad_norm": 0.32781527439873553, + "learning_rate": 1.8256885145046837e-05, + "loss": 0.4749, + "step": 690 + }, + { + "epoch": 2.8791666666666664, + "grad_norm": 0.26859929264606247, + "learning_rate": 1.8198936343299263e-05, + "loss": 0.4904, + "step": 691 + }, + { + "epoch": 2.8833333333333333, + "grad_norm": 0.31235195321834397, + "learning_rate": 1.814100278141216e-05, + "loss": 0.4783, + "step": 692 + }, + { + "epoch": 2.8875, + "grad_norm": 0.28349927090727645, + "learning_rate": 1.808308494959552e-05, + "loss": 0.4787, + "step": 693 + }, + { + "epoch": 2.8916666666666666, + "grad_norm": 0.3421647684660964, + "learning_rate": 1.8025183337926246e-05, + "loss": 0.4798, + "step": 694 + }, + { + "epoch": 2.8958333333333335, + "grad_norm": 0.2796701862031352, + "learning_rate": 1.7967298436343962e-05, + "loss": 0.476, + "step": 695 + }, + { + "epoch": 2.9, + "grad_norm": 0.3220797111739836, + "learning_rate": 1.7909430734646936e-05, + "loss": 0.4811, + "step": 696 + }, + { + "epoch": 2.904166666666667, + "grad_norm": 0.31274151995402216, + "learning_rate": 1.785158072248786e-05, + "loss": 0.4785, + "step": 697 + }, + { + "epoch": 2.908333333333333, + "grad_norm": 0.29229999279295854, + "learning_rate": 1.7793748889369765e-05, + "loss": 0.48, + "step": 698 + }, + { + "epoch": 2.9125, + "grad_norm": 0.26620249138371865, + "learning_rate": 1.773593572464187e-05, + "loss": 0.4748, + "step": 699 + }, + { + "epoch": 2.9166666666666665, + "grad_norm": 0.30555341782514805, + "learning_rate": 1.7678141717495394e-05, + "loss": 0.4818, + "step": 700 + }, + { + "epoch": 2.9208333333333334, + "grad_norm": 0.27904991140839297, + "learning_rate": 1.7620367356959496e-05, + "loss": 0.4799, + "step": 701 + }, + { + "epoch": 2.925, + "grad_norm": 0.2589424115631256, + "learning_rate": 1.7562613131897056e-05, + "loss": 0.4911, + "step": 702 + }, + { + "epoch": 2.9291666666666667, + "grad_norm": 0.28711426353147407, + "learning_rate": 1.7504879531000586e-05, + "loss": 0.4773, + "step": 703 + }, + { + "epoch": 2.9333333333333336, + "grad_norm": 0.2797634301160334, + "learning_rate": 1.7447167042788108e-05, + "loss": 0.4742, + "step": 704 + }, + { + "epoch": 2.9375, + "grad_norm": 0.2789026208242064, + "learning_rate": 1.7389476155598974e-05, + "loss": 0.4785, + "step": 705 + }, + { + "epoch": 2.9416666666666664, + "grad_norm": 0.27941490608839914, + "learning_rate": 1.7331807357589746e-05, + "loss": 0.484, + "step": 706 + }, + { + "epoch": 2.9458333333333333, + "grad_norm": 0.24980148239002167, + "learning_rate": 1.7274161136730113e-05, + "loss": 0.4859, + "step": 707 + }, + { + "epoch": 2.95, + "grad_norm": 0.29075679978363583, + "learning_rate": 1.72165379807987e-05, + "loss": 0.4841, + "step": 708 + }, + { + "epoch": 2.9541666666666666, + "grad_norm": 0.254138267404262, + "learning_rate": 1.715893837737895e-05, + "loss": 0.4693, + "step": 709 + }, + { + "epoch": 2.9583333333333335, + "grad_norm": 0.2644078856477545, + "learning_rate": 1.7101362813855068e-05, + "loss": 0.4841, + "step": 710 + }, + { + "epoch": 2.9625, + "grad_norm": 0.2707508309415384, + "learning_rate": 1.704381177740779e-05, + "loss": 0.4746, + "step": 711 + }, + { + "epoch": 2.966666666666667, + "grad_norm": 0.302779665861668, + "learning_rate": 1.698628575501034e-05, + "loss": 0.4927, + "step": 712 + }, + { + "epoch": 2.970833333333333, + "grad_norm": 0.2818587997112645, + "learning_rate": 1.692878523342428e-05, + "loss": 0.49, + "step": 713 + }, + { + "epoch": 2.975, + "grad_norm": 0.25255173004270365, + "learning_rate": 1.687131069919538e-05, + "loss": 0.4819, + "step": 714 + }, + { + "epoch": 2.9791666666666665, + "grad_norm": 0.24769380833714336, + "learning_rate": 1.6813862638649552e-05, + "loss": 0.4665, + "step": 715 + }, + { + "epoch": 2.9833333333333334, + "grad_norm": 0.8186960857739186, + "learning_rate": 1.6756441537888656e-05, + "loss": 0.4891, + "step": 716 + }, + { + "epoch": 2.9875, + "grad_norm": 0.23989546466267106, + "learning_rate": 1.6699047882786448e-05, + "loss": 0.4724, + "step": 717 + }, + { + "epoch": 2.9916666666666667, + "grad_norm": 0.26822524599446873, + "learning_rate": 1.664168215898446e-05, + "loss": 0.4761, + "step": 718 + }, + { + "epoch": 2.9958333333333336, + "grad_norm": 0.25864883818718637, + "learning_rate": 1.658434485188787e-05, + "loss": 0.4938, + "step": 719 + }, + { + "epoch": 3.0, + "grad_norm": 0.9863608439121576, + "learning_rate": 1.6527036446661396e-05, + "loss": 0.4882, + "step": 720 + }, + { + "epoch": 3.004166666666667, + "grad_norm": 0.4553215419190219, + "learning_rate": 1.6469757428225223e-05, + "loss": 0.442, + "step": 721 + }, + { + "epoch": 3.0083333333333333, + "grad_norm": 0.3346547609393649, + "learning_rate": 1.641250828125085e-05, + "loss": 0.4253, + "step": 722 + }, + { + "epoch": 3.0125, + "grad_norm": 0.7617402105553378, + "learning_rate": 1.635528949015705e-05, + "loss": 0.4277, + "step": 723 + }, + { + "epoch": 3.0166666666666666, + "grad_norm": 0.44764472631015995, + "learning_rate": 1.6298101539105712e-05, + "loss": 0.43, + "step": 724 + }, + { + "epoch": 3.0208333333333335, + "grad_norm": 0.39211024119181387, + "learning_rate": 1.6240944911997765e-05, + "loss": 0.4256, + "step": 725 + }, + { + "epoch": 3.025, + "grad_norm": 0.5406087803487221, + "learning_rate": 1.6183820092469103e-05, + "loss": 0.4304, + "step": 726 + }, + { + "epoch": 3.029166666666667, + "grad_norm": 0.334633304360574, + "learning_rate": 1.6126727563886485e-05, + "loss": 0.437, + "step": 727 + }, + { + "epoch": 3.033333333333333, + "grad_norm": 0.41880295084448826, + "learning_rate": 1.6069667809343396e-05, + "loss": 0.4282, + "step": 728 + }, + { + "epoch": 3.0375, + "grad_norm": 0.34875255135420846, + "learning_rate": 1.601264131165606e-05, + "loss": 0.44, + "step": 729 + }, + { + "epoch": 3.0416666666666665, + "grad_norm": 0.4073496235886376, + "learning_rate": 1.5955648553359247e-05, + "loss": 0.4316, + "step": 730 + }, + { + "epoch": 3.0458333333333334, + "grad_norm": 0.34421342187075615, + "learning_rate": 1.5898690016702253e-05, + "loss": 0.4341, + "step": 731 + }, + { + "epoch": 3.05, + "grad_norm": 0.38375536775928965, + "learning_rate": 1.584176618364482e-05, + "loss": 0.4333, + "step": 732 + }, + { + "epoch": 3.0541666666666667, + "grad_norm": 0.3366285058229145, + "learning_rate": 1.5784877535853014e-05, + "loss": 0.4268, + "step": 733 + }, + { + "epoch": 3.058333333333333, + "grad_norm": 0.3362729482038323, + "learning_rate": 1.5728024554695204e-05, + "loss": 0.4389, + "step": 734 + }, + { + "epoch": 3.0625, + "grad_norm": 0.2998832004248903, + "learning_rate": 1.5671207721237945e-05, + "loss": 0.4442, + "step": 735 + }, + { + "epoch": 3.066666666666667, + "grad_norm": 0.34966088213714075, + "learning_rate": 1.561442751624193e-05, + "loss": 0.4384, + "step": 736 + }, + { + "epoch": 3.0708333333333333, + "grad_norm": 0.27872667923184025, + "learning_rate": 1.555768442015794e-05, + "loss": 0.4284, + "step": 737 + }, + { + "epoch": 3.075, + "grad_norm": 0.3236550012052647, + "learning_rate": 1.5500978913122702e-05, + "loss": 0.422, + "step": 738 + }, + { + "epoch": 3.0791666666666666, + "grad_norm": 0.3117885050543731, + "learning_rate": 1.5444311474954932e-05, + "loss": 0.4191, + "step": 739 + }, + { + "epoch": 3.0833333333333335, + "grad_norm": 0.33789730280824243, + "learning_rate": 1.53876825851512e-05, + "loss": 0.4337, + "step": 740 + }, + { + "epoch": 3.0875, + "grad_norm": 0.285944847478769, + "learning_rate": 1.53310927228819e-05, + "loss": 0.4263, + "step": 741 + }, + { + "epoch": 3.091666666666667, + "grad_norm": 0.3510496778017806, + "learning_rate": 1.5274542366987174e-05, + "loss": 0.417, + "step": 742 + }, + { + "epoch": 3.095833333333333, + "grad_norm": 0.27600185930574017, + "learning_rate": 1.5218031995972917e-05, + "loss": 0.4251, + "step": 743 + }, + { + "epoch": 3.1, + "grad_norm": 0.309855102830333, + "learning_rate": 1.5161562088006649e-05, + "loss": 0.4315, + "step": 744 + }, + { + "epoch": 3.1041666666666665, + "grad_norm": 0.2835345622257406, + "learning_rate": 1.5105133120913524e-05, + "loss": 0.415, + "step": 745 + }, + { + "epoch": 3.1083333333333334, + "grad_norm": 0.2904891286285475, + "learning_rate": 1.5048745572172286e-05, + "loss": 0.4263, + "step": 746 + }, + { + "epoch": 3.1125, + "grad_norm": 0.3020768138294881, + "learning_rate": 1.4992399918911168e-05, + "loss": 0.4254, + "step": 747 + }, + { + "epoch": 3.1166666666666667, + "grad_norm": 0.2567339425896942, + "learning_rate": 1.4936096637903967e-05, + "loss": 0.4177, + "step": 748 + }, + { + "epoch": 3.120833333333333, + "grad_norm": 0.31943536839494713, + "learning_rate": 1.4879836205565887e-05, + "loss": 0.4216, + "step": 749 + }, + { + "epoch": 3.125, + "grad_norm": 0.28340540020844907, + "learning_rate": 1.4823619097949584e-05, + "loss": 0.4281, + "step": 750 + }, + { + "epoch": 3.129166666666667, + "grad_norm": 0.3233306102663907, + "learning_rate": 1.4767445790741133e-05, + "loss": 0.4169, + "step": 751 + }, + { + "epoch": 3.1333333333333333, + "grad_norm": 0.26943204536316995, + "learning_rate": 1.4711316759255963e-05, + "loss": 0.4394, + "step": 752 + }, + { + "epoch": 3.1375, + "grad_norm": 0.30734781387088517, + "learning_rate": 1.4655232478434864e-05, + "loss": 0.4275, + "step": 753 + }, + { + "epoch": 3.1416666666666666, + "grad_norm": 0.26633436967378, + "learning_rate": 1.4599193422839987e-05, + "loss": 0.4347, + "step": 754 + }, + { + "epoch": 3.1458333333333335, + "grad_norm": 0.2795592273551353, + "learning_rate": 1.4543200066650786e-05, + "loss": 0.4293, + "step": 755 + }, + { + "epoch": 3.15, + "grad_norm": 0.27470260185672285, + "learning_rate": 1.4487252883660019e-05, + "loss": 0.4202, + "step": 756 + }, + { + "epoch": 3.154166666666667, + "grad_norm": 0.2685587568717203, + "learning_rate": 1.4431352347269769e-05, + "loss": 0.4327, + "step": 757 + }, + { + "epoch": 3.158333333333333, + "grad_norm": 0.2681429889390549, + "learning_rate": 1.4375498930487388e-05, + "loss": 0.4311, + "step": 758 + }, + { + "epoch": 3.1625, + "grad_norm": 0.2520461067626849, + "learning_rate": 1.4319693105921548e-05, + "loss": 0.4422, + "step": 759 + }, + { + "epoch": 3.1666666666666665, + "grad_norm": 0.2863268941620605, + "learning_rate": 1.4263935345778202e-05, + "loss": 0.4241, + "step": 760 + }, + { + "epoch": 3.1708333333333334, + "grad_norm": 0.26592210134274163, + "learning_rate": 1.4208226121856586e-05, + "loss": 0.4322, + "step": 761 + }, + { + "epoch": 3.175, + "grad_norm": 0.2553802812490062, + "learning_rate": 1.4152565905545268e-05, + "loss": 0.4213, + "step": 762 + }, + { + "epoch": 3.1791666666666667, + "grad_norm": 0.29370502446501184, + "learning_rate": 1.4096955167818128e-05, + "loss": 0.431, + "step": 763 + }, + { + "epoch": 3.183333333333333, + "grad_norm": 0.23575752597155059, + "learning_rate": 1.404139437923036e-05, + "loss": 0.422, + "step": 764 + }, + { + "epoch": 3.1875, + "grad_norm": 0.2759050484039525, + "learning_rate": 1.3985884009914542e-05, + "loss": 0.4131, + "step": 765 + }, + { + "epoch": 3.191666666666667, + "grad_norm": 0.23810740961350238, + "learning_rate": 1.3930424529576593e-05, + "loss": 0.4289, + "step": 766 + }, + { + "epoch": 3.1958333333333333, + "grad_norm": 0.26673988400154236, + "learning_rate": 1.387501640749184e-05, + "loss": 0.4241, + "step": 767 + }, + { + "epoch": 3.2, + "grad_norm": 0.2536148256121875, + "learning_rate": 1.3819660112501054e-05, + "loss": 0.4338, + "step": 768 + }, + { + "epoch": 3.2041666666666666, + "grad_norm": 0.2632214245807616, + "learning_rate": 1.3764356113006441e-05, + "loss": 0.4337, + "step": 769 + }, + { + "epoch": 3.2083333333333335, + "grad_norm": 0.26270674933237137, + "learning_rate": 1.3709104876967732e-05, + "loss": 0.4209, + "step": 770 + }, + { + "epoch": 3.2125, + "grad_norm": 0.2831481416442291, + "learning_rate": 1.3653906871898161e-05, + "loss": 0.444, + "step": 771 + }, + { + "epoch": 3.216666666666667, + "grad_norm": 0.24154882652104262, + "learning_rate": 1.3598762564860569e-05, + "loss": 0.4355, + "step": 772 + }, + { + "epoch": 3.220833333333333, + "grad_norm": 0.2833447223640067, + "learning_rate": 1.3543672422463426e-05, + "loss": 0.4168, + "step": 773 + }, + { + "epoch": 3.225, + "grad_norm": 0.2628323532399339, + "learning_rate": 1.3488636910856871e-05, + "loss": 0.4406, + "step": 774 + }, + { + "epoch": 3.2291666666666665, + "grad_norm": 0.25655483692387615, + "learning_rate": 1.3433656495728781e-05, + "loss": 0.4341, + "step": 775 + }, + { + "epoch": 3.2333333333333334, + "grad_norm": 2.2837855068570425, + "learning_rate": 1.3378731642300841e-05, + "loss": 0.4186, + "step": 776 + }, + { + "epoch": 3.2375, + "grad_norm": 0.2920682106864273, + "learning_rate": 1.3323862815324585e-05, + "loss": 0.4331, + "step": 777 + }, + { + "epoch": 3.2416666666666667, + "grad_norm": 0.23551369094510202, + "learning_rate": 1.3269050479077472e-05, + "loss": 0.4301, + "step": 778 + }, + { + "epoch": 3.245833333333333, + "grad_norm": 0.2656958070325992, + "learning_rate": 1.321429509735898e-05, + "loss": 0.4279, + "step": 779 + }, + { + "epoch": 3.25, + "grad_norm": 0.2991749649137243, + "learning_rate": 1.3159597133486628e-05, + "loss": 0.4294, + "step": 780 + }, + { + "epoch": 3.2541666666666664, + "grad_norm": 0.2434578439510396, + "learning_rate": 1.3104957050292117e-05, + "loss": 0.4412, + "step": 781 + }, + { + "epoch": 3.2583333333333333, + "grad_norm": 0.2535855586410148, + "learning_rate": 1.3050375310117374e-05, + "loss": 0.4332, + "step": 782 + }, + { + "epoch": 3.2625, + "grad_norm": 0.23582886808116976, + "learning_rate": 1.2995852374810652e-05, + "loss": 0.4411, + "step": 783 + }, + { + "epoch": 3.2666666666666666, + "grad_norm": 0.24057762054402668, + "learning_rate": 1.2941388705722627e-05, + "loss": 0.4269, + "step": 784 + }, + { + "epoch": 3.2708333333333335, + "grad_norm": 0.2770818398433449, + "learning_rate": 1.2886984763702474e-05, + "loss": 0.4364, + "step": 785 + }, + { + "epoch": 3.275, + "grad_norm": 0.24059727378628445, + "learning_rate": 1.2832641009093995e-05, + "loss": 0.427, + "step": 786 + }, + { + "epoch": 3.279166666666667, + "grad_norm": 0.24592557304712342, + "learning_rate": 1.2778357901731714e-05, + "loss": 0.436, + "step": 787 + }, + { + "epoch": 3.283333333333333, + "grad_norm": 0.28077647477255835, + "learning_rate": 1.2724135900936979e-05, + "loss": 0.4284, + "step": 788 + }, + { + "epoch": 3.2875, + "grad_norm": 0.2729231049928039, + "learning_rate": 1.2669975465514057e-05, + "loss": 0.4289, + "step": 789 + }, + { + "epoch": 3.2916666666666665, + "grad_norm": 0.25905198604864066, + "learning_rate": 1.2615877053746315e-05, + "loss": 0.432, + "step": 790 + }, + { + "epoch": 3.2958333333333334, + "grad_norm": 0.29199121007908796, + "learning_rate": 1.2561841123392266e-05, + "loss": 0.4295, + "step": 791 + }, + { + "epoch": 3.3, + "grad_norm": 0.28210773206628265, + "learning_rate": 1.250786813168176e-05, + "loss": 0.4289, + "step": 792 + }, + { + "epoch": 3.3041666666666667, + "grad_norm": 0.2850450125076269, + "learning_rate": 1.2453958535312064e-05, + "loss": 0.418, + "step": 793 + }, + { + "epoch": 3.3083333333333336, + "grad_norm": 0.27146762199853464, + "learning_rate": 1.2400112790444024e-05, + "loss": 0.423, + "step": 794 + }, + { + "epoch": 3.3125, + "grad_norm": 0.29140255218967065, + "learning_rate": 1.2346331352698206e-05, + "loss": 0.4415, + "step": 795 + }, + { + "epoch": 3.3166666666666664, + "grad_norm": 0.2577245277320008, + "learning_rate": 1.2292614677151038e-05, + "loss": 0.44, + "step": 796 + }, + { + "epoch": 3.3208333333333333, + "grad_norm": 0.2596945100873493, + "learning_rate": 1.2238963218330944e-05, + "loss": 0.4293, + "step": 797 + }, + { + "epoch": 3.325, + "grad_norm": 0.27660509793874966, + "learning_rate": 1.218537743021453e-05, + "loss": 0.424, + "step": 798 + }, + { + "epoch": 3.3291666666666666, + "grad_norm": 0.24668112612335116, + "learning_rate": 1.2131857766222703e-05, + "loss": 0.4257, + "step": 799 + }, + { + "epoch": 3.3333333333333335, + "grad_norm": 0.2460564650786363, + "learning_rate": 1.2078404679216864e-05, + "loss": 0.4325, + "step": 800 + }, + { + "epoch": 3.3375, + "grad_norm": 0.2669782203339851, + "learning_rate": 1.2025018621495077e-05, + "loss": 0.4223, + "step": 801 + }, + { + "epoch": 3.341666666666667, + "grad_norm": 0.2720653092416133, + "learning_rate": 1.1971700044788213e-05, + "loss": 0.4262, + "step": 802 + }, + { + "epoch": 3.345833333333333, + "grad_norm": 0.23667898731846967, + "learning_rate": 1.191844940025617e-05, + "loss": 0.434, + "step": 803 + }, + { + "epoch": 3.35, + "grad_norm": 0.26350049401274, + "learning_rate": 1.1865267138484e-05, + "loss": 0.4309, + "step": 804 + }, + { + "epoch": 3.3541666666666665, + "grad_norm": 0.28265933764713735, + "learning_rate": 1.1812153709478149e-05, + "loss": 0.4369, + "step": 805 + }, + { + "epoch": 3.3583333333333334, + "grad_norm": 0.2624729901644893, + "learning_rate": 1.1759109562662633e-05, + "loss": 0.4325, + "step": 806 + }, + { + "epoch": 3.3625, + "grad_norm": 0.25993858855087854, + "learning_rate": 1.1706135146875224e-05, + "loss": 0.4351, + "step": 807 + }, + { + "epoch": 3.3666666666666667, + "grad_norm": 0.2508735416582612, + "learning_rate": 1.1653230910363645e-05, + "loss": 0.4115, + "step": 808 + }, + { + "epoch": 3.3708333333333336, + "grad_norm": 0.2791637047434572, + "learning_rate": 1.1600397300781811e-05, + "loss": 0.4041, + "step": 809 + }, + { + "epoch": 3.375, + "grad_norm": 0.24766768453306345, + "learning_rate": 1.1547634765186016e-05, + "loss": 0.4322, + "step": 810 + }, + { + "epoch": 3.3791666666666664, + "grad_norm": 0.2648317054434943, + "learning_rate": 1.1494943750031144e-05, + "loss": 0.4313, + "step": 811 + }, + { + "epoch": 3.3833333333333333, + "grad_norm": 0.2794648606575172, + "learning_rate": 1.144232470116692e-05, + "loss": 0.4216, + "step": 812 + }, + { + "epoch": 3.3875, + "grad_norm": 0.2587543354259146, + "learning_rate": 1.1389778063834094e-05, + "loss": 0.431, + "step": 813 + }, + { + "epoch": 3.3916666666666666, + "grad_norm": 0.26279148603900554, + "learning_rate": 1.1337304282660746e-05, + "loss": 0.4521, + "step": 814 + }, + { + "epoch": 3.3958333333333335, + "grad_norm": 0.2758234109789757, + "learning_rate": 1.1284903801658418e-05, + "loss": 0.437, + "step": 815 + }, + { + "epoch": 3.4, + "grad_norm": 0.4967781086358191, + "learning_rate": 1.123257706421845e-05, + "loss": 0.4372, + "step": 816 + }, + { + "epoch": 3.404166666666667, + "grad_norm": 0.278277793413537, + "learning_rate": 1.1180324513108203e-05, + "loss": 0.448, + "step": 817 + }, + { + "epoch": 3.408333333333333, + "grad_norm": 0.2730409852860853, + "learning_rate": 1.112814659046729e-05, + "loss": 0.4445, + "step": 818 + }, + { + "epoch": 3.4125, + "grad_norm": 0.24090889416159056, + "learning_rate": 1.1076043737803825e-05, + "loss": 0.429, + "step": 819 + }, + { + "epoch": 3.4166666666666665, + "grad_norm": 0.2613977673243055, + "learning_rate": 1.1024016395990758e-05, + "loss": 0.4517, + "step": 820 + }, + { + "epoch": 3.4208333333333334, + "grad_norm": 0.2723830432750871, + "learning_rate": 1.0972065005262067e-05, + "loss": 0.4271, + "step": 821 + }, + { + "epoch": 3.425, + "grad_norm": 0.23431381796229808, + "learning_rate": 1.0920190005209066e-05, + "loss": 0.4173, + "step": 822 + }, + { + "epoch": 3.4291666666666667, + "grad_norm": 0.25130503185627423, + "learning_rate": 1.086839183477669e-05, + "loss": 0.4364, + "step": 823 + }, + { + "epoch": 3.4333333333333336, + "grad_norm": 0.24352887204404178, + "learning_rate": 1.0816670932259763e-05, + "loss": 0.432, + "step": 824 + }, + { + "epoch": 3.4375, + "grad_norm": 0.24499362422587945, + "learning_rate": 1.0765027735299327e-05, + "loss": 0.4209, + "step": 825 + }, + { + "epoch": 3.4416666666666664, + "grad_norm": 0.2597047330102018, + "learning_rate": 1.0713462680878864e-05, + "loss": 0.4218, + "step": 826 + }, + { + "epoch": 3.4458333333333333, + "grad_norm": 0.2543222339251796, + "learning_rate": 1.066197620532068e-05, + "loss": 0.4343, + "step": 827 + }, + { + "epoch": 3.45, + "grad_norm": 0.27914449181031836, + "learning_rate": 1.061056874428219e-05, + "loss": 0.4268, + "step": 828 + }, + { + "epoch": 3.4541666666666666, + "grad_norm": 0.24727420683509194, + "learning_rate": 1.055924073275218e-05, + "loss": 0.4262, + "step": 829 + }, + { + "epoch": 3.4583333333333335, + "grad_norm": 0.23817092527660053, + "learning_rate": 1.0507992605047193e-05, + "loss": 0.4351, + "step": 830 + }, + { + "epoch": 3.4625, + "grad_norm": 0.269226319761995, + "learning_rate": 1.0456824794807832e-05, + "loss": 0.4159, + "step": 831 + }, + { + "epoch": 3.466666666666667, + "grad_norm": 0.22706118135597111, + "learning_rate": 1.0405737734995083e-05, + "loss": 0.417, + "step": 832 + }, + { + "epoch": 3.470833333333333, + "grad_norm": 0.248229884622277, + "learning_rate": 1.0354731857886628e-05, + "loss": 0.4268, + "step": 833 + }, + { + "epoch": 3.475, + "grad_norm": 0.2579919126995357, + "learning_rate": 1.0303807595073262e-05, + "loss": 0.4295, + "step": 834 + }, + { + "epoch": 3.4791666666666665, + "grad_norm": 0.24699636117410342, + "learning_rate": 1.0252965377455155e-05, + "loss": 0.4367, + "step": 835 + }, + { + "epoch": 3.4833333333333334, + "grad_norm": 0.28296160575255175, + "learning_rate": 1.0202205635238263e-05, + "loss": 0.4212, + "step": 836 + }, + { + "epoch": 3.4875, + "grad_norm": 0.253903070062746, + "learning_rate": 1.0151528797930662e-05, + "loss": 0.428, + "step": 837 + }, + { + "epoch": 3.4916666666666667, + "grad_norm": 0.2678111364930371, + "learning_rate": 1.010093529433892e-05, + "loss": 0.4333, + "step": 838 + }, + { + "epoch": 3.4958333333333336, + "grad_norm": 0.28569613441522584, + "learning_rate": 1.0050425552564475e-05, + "loss": 0.444, + "step": 839 + }, + { + "epoch": 3.5, + "grad_norm": 0.2616699443490625, + "learning_rate": 1.0000000000000006e-05, + "loss": 0.4275, + "step": 840 + }, + { + "epoch": 3.5041666666666664, + "grad_norm": 0.23991683310829567, + "learning_rate": 9.949659063325801e-06, + "loss": 0.4354, + "step": 841 + }, + { + "epoch": 3.5083333333333333, + "grad_norm": 0.25333441281428676, + "learning_rate": 9.899403168506206e-06, + "loss": 0.425, + "step": 842 + }, + { + "epoch": 3.5125, + "grad_norm": 0.2583901795256148, + "learning_rate": 9.849232740785923e-06, + "loss": 0.4165, + "step": 843 + }, + { + "epoch": 3.5166666666666666, + "grad_norm": 0.258766827716537, + "learning_rate": 9.799148204686495e-06, + "loss": 0.4222, + "step": 844 + }, + { + "epoch": 3.5208333333333335, + "grad_norm": 0.23361767765149088, + "learning_rate": 9.749149984002697e-06, + "loss": 0.4313, + "step": 845 + }, + { + "epoch": 3.525, + "grad_norm": 0.24494316775289982, + "learning_rate": 9.699238501798916e-06, + "loss": 0.4349, + "step": 846 + }, + { + "epoch": 3.529166666666667, + "grad_norm": 0.2277772919248126, + "learning_rate": 9.649414180405605e-06, + "loss": 0.4308, + "step": 847 + }, + { + "epoch": 3.533333333333333, + "grad_norm": 0.23059503527650352, + "learning_rate": 9.599677441415694e-06, + "loss": 0.4305, + "step": 848 + }, + { + "epoch": 3.5375, + "grad_norm": 0.2437852407069819, + "learning_rate": 9.550028705681024e-06, + "loss": 0.4181, + "step": 849 + }, + { + "epoch": 3.5416666666666665, + "grad_norm": 0.21980744804832897, + "learning_rate": 9.5004683933088e-06, + "loss": 0.4336, + "step": 850 + }, + { + "epoch": 3.5458333333333334, + "grad_norm": 0.23586799114244095, + "learning_rate": 9.450996923658011e-06, + "loss": 0.424, + "step": 851 + }, + { + "epoch": 3.55, + "grad_norm": 0.23101549640713356, + "learning_rate": 9.401614715335905e-06, + "loss": 0.4414, + "step": 852 + }, + { + "epoch": 3.5541666666666667, + "grad_norm": 0.2543015217067435, + "learning_rate": 9.352322186194434e-06, + "loss": 0.4207, + "step": 853 + }, + { + "epoch": 3.5583333333333336, + "grad_norm": 0.2474455410573432, + "learning_rate": 9.30311975332672e-06, + "loss": 0.4302, + "step": 854 + }, + { + "epoch": 3.5625, + "grad_norm": 0.2467040597988035, + "learning_rate": 9.254007833063521e-06, + "loss": 0.4169, + "step": 855 + }, + { + "epoch": 3.5666666666666664, + "grad_norm": 0.22445148715022797, + "learning_rate": 9.204986840969749e-06, + "loss": 0.4377, + "step": 856 + }, + { + "epoch": 3.5708333333333333, + "grad_norm": 0.22532670015641615, + "learning_rate": 9.15605719184086e-06, + "loss": 0.4379, + "step": 857 + }, + { + "epoch": 3.575, + "grad_norm": 0.22679892582526776, + "learning_rate": 9.107219299699459e-06, + "loss": 0.4266, + "step": 858 + }, + { + "epoch": 3.5791666666666666, + "grad_norm": 0.23628320554221474, + "learning_rate": 9.058473577791708e-06, + "loss": 0.4213, + "step": 859 + }, + { + "epoch": 3.5833333333333335, + "grad_norm": 0.2469267203793668, + "learning_rate": 9.009820438583881e-06, + "loss": 0.4235, + "step": 860 + }, + { + "epoch": 3.5875, + "grad_norm": 0.23285142636796569, + "learning_rate": 8.961260293758838e-06, + "loss": 0.4254, + "step": 861 + }, + { + "epoch": 3.591666666666667, + "grad_norm": 0.2596335466780474, + "learning_rate": 8.912793554212571e-06, + "loss": 0.4277, + "step": 862 + }, + { + "epoch": 3.595833333333333, + "grad_norm": 0.23540907434240832, + "learning_rate": 8.864420630050713e-06, + "loss": 0.4254, + "step": 863 + }, + { + "epoch": 3.6, + "grad_norm": 0.24066382679579734, + "learning_rate": 8.816141930585067e-06, + "loss": 0.4348, + "step": 864 + }, + { + "epoch": 3.6041666666666665, + "grad_norm": 0.24659185351071644, + "learning_rate": 8.767957864330145e-06, + "loss": 0.423, + "step": 865 + }, + { + "epoch": 3.6083333333333334, + "grad_norm": 0.26254276874801447, + "learning_rate": 8.719868838999717e-06, + "loss": 0.4223, + "step": 866 + }, + { + "epoch": 3.6125, + "grad_norm": 0.24175527998522886, + "learning_rate": 8.67187526150335e-06, + "loss": 0.4177, + "step": 867 + }, + { + "epoch": 3.6166666666666667, + "grad_norm": 0.26234486140683905, + "learning_rate": 8.623977537942969e-06, + "loss": 0.432, + "step": 868 + }, + { + "epoch": 3.6208333333333336, + "grad_norm": 0.25245766823427906, + "learning_rate": 8.576176073609425e-06, + "loss": 0.4222, + "step": 869 + }, + { + "epoch": 3.625, + "grad_norm": 0.2452184009190872, + "learning_rate": 8.528471272979083e-06, + "loss": 0.4249, + "step": 870 + }, + { + "epoch": 3.6291666666666664, + "grad_norm": 0.239440094128956, + "learning_rate": 8.480863539710333e-06, + "loss": 0.4339, + "step": 871 + }, + { + "epoch": 3.6333333333333333, + "grad_norm": 0.24943013686847895, + "learning_rate": 8.43335327664027e-06, + "loss": 0.4245, + "step": 872 + }, + { + "epoch": 3.6375, + "grad_norm": 0.39400852388150026, + "learning_rate": 8.385940885781205e-06, + "loss": 0.4611, + "step": 873 + }, + { + "epoch": 3.6416666666666666, + "grad_norm": 0.29124766926499246, + "learning_rate": 8.338626768317306e-06, + "loss": 0.4273, + "step": 874 + }, + { + "epoch": 3.6458333333333335, + "grad_norm": 0.24491084112074304, + "learning_rate": 8.291411324601191e-06, + "loss": 0.4035, + "step": 875 + }, + { + "epoch": 3.65, + "grad_norm": 0.2513834105330395, + "learning_rate": 8.24429495415054e-06, + "loss": 0.4294, + "step": 876 + }, + { + "epoch": 3.654166666666667, + "grad_norm": 0.26844357127395707, + "learning_rate": 8.197278055644715e-06, + "loss": 0.4251, + "step": 877 + }, + { + "epoch": 3.658333333333333, + "grad_norm": 0.2508877367249821, + "learning_rate": 8.15036102692139e-06, + "loss": 0.4321, + "step": 878 + }, + { + "epoch": 3.6625, + "grad_norm": 0.24094131399966962, + "learning_rate": 8.103544264973178e-06, + "loss": 0.4295, + "step": 879 + }, + { + "epoch": 3.6666666666666665, + "grad_norm": 0.2614406740434721, + "learning_rate": 8.056828165944282e-06, + "loss": 0.4304, + "step": 880 + }, + { + "epoch": 3.6708333333333334, + "grad_norm": 0.23834900075133839, + "learning_rate": 8.010213125127128e-06, + "loss": 0.4192, + "step": 881 + }, + { + "epoch": 3.675, + "grad_norm": 0.22299294306987325, + "learning_rate": 7.963699536959032e-06, + "loss": 0.4334, + "step": 882 + }, + { + "epoch": 3.6791666666666667, + "grad_norm": 0.2256000897526422, + "learning_rate": 7.917287795018874e-06, + "loss": 0.4464, + "step": 883 + }, + { + "epoch": 3.6833333333333336, + "grad_norm": 0.22392205740979662, + "learning_rate": 7.870978292023739e-06, + "loss": 0.4391, + "step": 884 + }, + { + "epoch": 3.6875, + "grad_norm": 0.23834812496767688, + "learning_rate": 7.824771419825588e-06, + "loss": 0.4327, + "step": 885 + }, + { + "epoch": 3.6916666666666664, + "grad_norm": 0.2463708325287563, + "learning_rate": 7.778667569408006e-06, + "loss": 0.4364, + "step": 886 + }, + { + "epoch": 3.6958333333333333, + "grad_norm": 0.21688651846886733, + "learning_rate": 7.732667130882819e-06, + "loss": 0.4414, + "step": 887 + }, + { + "epoch": 3.7, + "grad_norm": 0.23064416958505793, + "learning_rate": 7.686770493486835e-06, + "loss": 0.4397, + "step": 888 + }, + { + "epoch": 3.7041666666666666, + "grad_norm": 0.25497031875444703, + "learning_rate": 7.640978045578538e-06, + "loss": 0.4185, + "step": 889 + }, + { + "epoch": 3.7083333333333335, + "grad_norm": 0.22100035998281425, + "learning_rate": 7.595290174634802e-06, + "loss": 0.4196, + "step": 890 + }, + { + "epoch": 3.7125, + "grad_norm": 0.22105067844828485, + "learning_rate": 7.549707267247612e-06, + "loss": 0.4223, + "step": 891 + }, + { + "epoch": 3.716666666666667, + "grad_norm": 0.24503314108692023, + "learning_rate": 7.504229709120801e-06, + "loss": 0.4331, + "step": 892 + }, + { + "epoch": 3.720833333333333, + "grad_norm": 0.22209625191416615, + "learning_rate": 7.4588578850667634e-06, + "loss": 0.4293, + "step": 893 + }, + { + "epoch": 3.725, + "grad_norm": 0.24234070134789545, + "learning_rate": 7.413592179003255e-06, + "loss": 0.4328, + "step": 894 + }, + { + "epoch": 3.7291666666666665, + "grad_norm": 0.2140413352351075, + "learning_rate": 7.368432973950053e-06, + "loss": 0.4374, + "step": 895 + }, + { + "epoch": 3.7333333333333334, + "grad_norm": 0.23879336084801975, + "learning_rate": 7.323380652025794e-06, + "loss": 0.4214, + "step": 896 + }, + { + "epoch": 3.7375, + "grad_norm": 0.23592626929402383, + "learning_rate": 7.278435594444719e-06, + "loss": 0.43, + "step": 897 + }, + { + "epoch": 3.7416666666666667, + "grad_norm": 0.2345359756660939, + "learning_rate": 7.2335981815134415e-06, + "loss": 0.4115, + "step": 898 + }, + { + "epoch": 3.7458333333333336, + "grad_norm": 0.24922576785520345, + "learning_rate": 7.1888687926276965e-06, + "loss": 0.4338, + "step": 899 + }, + { + "epoch": 3.75, + "grad_norm": 0.23563712437289872, + "learning_rate": 7.1442478062692135e-06, + "loss": 0.4365, + "step": 900 + }, + { + "epoch": 3.7541666666666664, + "grad_norm": 0.23204116311133044, + "learning_rate": 7.09973560000244e-06, + "loss": 0.4277, + "step": 901 + }, + { + "epoch": 3.7583333333333333, + "grad_norm": 0.2500533119033598, + "learning_rate": 7.055332550471354e-06, + "loss": 0.4257, + "step": 902 + }, + { + "epoch": 3.7625, + "grad_norm": 0.23811588657787597, + "learning_rate": 7.01103903339633e-06, + "loss": 0.4346, + "step": 903 + }, + { + "epoch": 3.7666666666666666, + "grad_norm": 0.23319149311553752, + "learning_rate": 6.966855423570898e-06, + "loss": 0.4261, + "step": 904 + }, + { + "epoch": 3.7708333333333335, + "grad_norm": 0.243303595800742, + "learning_rate": 6.922782094858609e-06, + "loss": 0.4227, + "step": 905 + }, + { + "epoch": 3.775, + "grad_norm": 0.2293147079077228, + "learning_rate": 6.878819420189857e-06, + "loss": 0.4283, + "step": 906 + }, + { + "epoch": 3.779166666666667, + "grad_norm": 0.24610219555593746, + "learning_rate": 6.834967771558722e-06, + "loss": 0.4268, + "step": 907 + }, + { + "epoch": 3.783333333333333, + "grad_norm": 0.25544617866033675, + "learning_rate": 6.7912275200198496e-06, + "loss": 0.4179, + "step": 908 + }, + { + "epoch": 3.7875, + "grad_norm": 0.21822949545272996, + "learning_rate": 6.747599035685255e-06, + "loss": 0.4276, + "step": 909 + }, + { + "epoch": 3.7916666666666665, + "grad_norm": 0.2258871101267118, + "learning_rate": 6.704082687721243e-06, + "loss": 0.4103, + "step": 910 + }, + { + "epoch": 3.7958333333333334, + "grad_norm": 0.2298634023122789, + "learning_rate": 6.660678844345276e-06, + "loss": 0.4278, + "step": 911 + }, + { + "epoch": 3.8, + "grad_norm": 0.22583037467377118, + "learning_rate": 6.617387872822842e-06, + "loss": 0.4394, + "step": 912 + }, + { + "epoch": 3.8041666666666667, + "grad_norm": 0.231504314682934, + "learning_rate": 6.57421013946433e-06, + "loss": 0.4272, + "step": 913 + }, + { + "epoch": 3.8083333333333336, + "grad_norm": 0.217721449055829, + "learning_rate": 6.531146009621994e-06, + "loss": 0.4245, + "step": 914 + }, + { + "epoch": 3.8125, + "grad_norm": 0.24686896945491654, + "learning_rate": 6.488195847686795e-06, + "loss": 0.4293, + "step": 915 + }, + { + "epoch": 3.8166666666666664, + "grad_norm": 0.24394910830023703, + "learning_rate": 6.445360017085356e-06, + "loss": 0.4271, + "step": 916 + }, + { + "epoch": 3.8208333333333333, + "grad_norm": 0.22546110556129695, + "learning_rate": 6.402638880276868e-06, + "loss": 0.4181, + "step": 917 + }, + { + "epoch": 3.825, + "grad_norm": 0.21360331942939714, + "learning_rate": 6.360032798750033e-06, + "loss": 0.4288, + "step": 918 + }, + { + "epoch": 3.8291666666666666, + "grad_norm": 0.23044679859994988, + "learning_rate": 6.317542133020005e-06, + "loss": 0.4369, + "step": 919 + }, + { + "epoch": 3.8333333333333335, + "grad_norm": 0.2142549292405246, + "learning_rate": 6.275167242625331e-06, + "loss": 0.4305, + "step": 920 + }, + { + "epoch": 3.8375, + "grad_norm": 0.23085656291488818, + "learning_rate": 6.232908486124918e-06, + "loss": 0.4298, + "step": 921 + }, + { + "epoch": 3.841666666666667, + "grad_norm": 0.21895688860005502, + "learning_rate": 6.190766221095013e-06, + "loss": 0.4209, + "step": 922 + }, + { + "epoch": 3.845833333333333, + "grad_norm": 0.21366531215478982, + "learning_rate": 6.148740804126121e-06, + "loss": 0.4318, + "step": 923 + }, + { + "epoch": 3.85, + "grad_norm": 0.22258877815977224, + "learning_rate": 6.106832590820053e-06, + "loss": 0.4278, + "step": 924 + }, + { + "epoch": 3.8541666666666665, + "grad_norm": 0.22089277710807653, + "learning_rate": 6.065041935786906e-06, + "loss": 0.4278, + "step": 925 + }, + { + "epoch": 3.8583333333333334, + "grad_norm": 0.22319456528557838, + "learning_rate": 6.023369192641999e-06, + "loss": 0.4248, + "step": 926 + }, + { + "epoch": 3.8625, + "grad_norm": 0.21897558941519973, + "learning_rate": 5.981814714002982e-06, + "loss": 0.43, + "step": 927 + }, + { + "epoch": 3.8666666666666667, + "grad_norm": 0.21422416122397145, + "learning_rate": 5.940378851486766e-06, + "loss": 0.4237, + "step": 928 + }, + { + "epoch": 3.8708333333333336, + "grad_norm": 0.21900360541063163, + "learning_rate": 5.899061955706593e-06, + "loss": 0.4277, + "step": 929 + }, + { + "epoch": 3.875, + "grad_norm": 0.210003067591564, + "learning_rate": 5.857864376269051e-06, + "loss": 0.4254, + "step": 930 + }, + { + "epoch": 3.8791666666666664, + "grad_norm": 0.22066947148305144, + "learning_rate": 5.816786461771129e-06, + "loss": 0.4413, + "step": 931 + }, + { + "epoch": 3.8833333333333333, + "grad_norm": 0.21685958637696298, + "learning_rate": 5.7758285597972585e-06, + "loss": 0.419, + "step": 932 + }, + { + "epoch": 3.8875, + "grad_norm": 0.2060613916060785, + "learning_rate": 5.734991016916372e-06, + "loss": 0.4263, + "step": 933 + }, + { + "epoch": 3.8916666666666666, + "grad_norm": 0.2162918716912764, + "learning_rate": 5.694274178678973e-06, + "loss": 0.428, + "step": 934 + }, + { + "epoch": 3.8958333333333335, + "grad_norm": 0.21558418484475533, + "learning_rate": 5.65367838961421e-06, + "loss": 0.4297, + "step": 935 + }, + { + "epoch": 3.9, + "grad_norm": 0.21814958677433785, + "learning_rate": 5.613203993226981e-06, + "loss": 0.4234, + "step": 936 + }, + { + "epoch": 3.904166666666667, + "grad_norm": 0.21859762848857897, + "learning_rate": 5.5728513319949725e-06, + "loss": 0.427, + "step": 937 + }, + { + "epoch": 3.908333333333333, + "grad_norm": 0.22930949993022515, + "learning_rate": 5.53262074736584e-06, + "loss": 0.4224, + "step": 938 + }, + { + "epoch": 3.9125, + "grad_norm": 0.22615742593623198, + "learning_rate": 5.492512579754252e-06, + "loss": 0.4247, + "step": 939 + }, + { + "epoch": 3.9166666666666665, + "grad_norm": 0.22731711264029844, + "learning_rate": 5.452527168539026e-06, + "loss": 0.4276, + "step": 940 + }, + { + "epoch": 3.9208333333333334, + "grad_norm": 0.22227411839471797, + "learning_rate": 5.412664852060294e-06, + "loss": 0.4276, + "step": 941 + }, + { + "epoch": 3.925, + "grad_norm": 0.220050201248189, + "learning_rate": 5.372925967616591e-06, + "loss": 0.4306, + "step": 942 + }, + { + "epoch": 3.9291666666666667, + "grad_norm": 0.23910550940898795, + "learning_rate": 5.333310851462026e-06, + "loss": 0.4333, + "step": 943 + }, + { + "epoch": 3.9333333333333336, + "grad_norm": 0.22964992393684255, + "learning_rate": 5.293819838803429e-06, + "loss": 0.435, + "step": 944 + }, + { + "epoch": 3.9375, + "grad_norm": 0.2175795175465382, + "learning_rate": 5.254453263797521e-06, + "loss": 0.4233, + "step": 945 + }, + { + "epoch": 3.9416666666666664, + "grad_norm": 0.22660951988566233, + "learning_rate": 5.215211459548082e-06, + "loss": 0.4266, + "step": 946 + }, + { + "epoch": 3.9458333333333333, + "grad_norm": 0.21564446999892425, + "learning_rate": 5.17609475810313e-06, + "loss": 0.4168, + "step": 947 + }, + { + "epoch": 3.95, + "grad_norm": 0.21169356207180387, + "learning_rate": 5.137103490452113e-06, + "loss": 0.4417, + "step": 948 + }, + { + "epoch": 3.9541666666666666, + "grad_norm": 0.21719735857467676, + "learning_rate": 5.098237986523129e-06, + "loss": 0.4159, + "step": 949 + }, + { + "epoch": 3.9583333333333335, + "grad_norm": 0.21160534846897155, + "learning_rate": 5.059498575180084e-06, + "loss": 0.4222, + "step": 950 + }, + { + "epoch": 3.9625, + "grad_norm": 0.2197272683782191, + "learning_rate": 5.0208855842199565e-06, + "loss": 0.4249, + "step": 951 + }, + { + "epoch": 3.966666666666667, + "grad_norm": 0.223363088864906, + "learning_rate": 4.982399340370017e-06, + "loss": 0.402, + "step": 952 + }, + { + "epoch": 3.970833333333333, + "grad_norm": 0.21486379212960513, + "learning_rate": 4.944040169285043e-06, + "loss": 0.4386, + "step": 953 + }, + { + "epoch": 3.975, + "grad_norm": 0.2272666417317846, + "learning_rate": 4.90580839554456e-06, + "loss": 0.4287, + "step": 954 + }, + { + "epoch": 3.9791666666666665, + "grad_norm": 0.22903404440686784, + "learning_rate": 4.867704342650143e-06, + "loss": 0.4003, + "step": 955 + }, + { + "epoch": 3.9833333333333334, + "grad_norm": 0.23496766221544205, + "learning_rate": 4.829728333022623e-06, + "loss": 0.4319, + "step": 956 + }, + { + "epoch": 3.9875, + "grad_norm": 0.21677980128239738, + "learning_rate": 4.791880687999382e-06, + "loss": 0.4149, + "step": 957 + }, + { + "epoch": 3.9916666666666667, + "grad_norm": 0.21845329270600405, + "learning_rate": 4.754161727831643e-06, + "loss": 0.4033, + "step": 958 + }, + { + "epoch": 3.9958333333333336, + "grad_norm": 0.23104346223691857, + "learning_rate": 4.716571771681737e-06, + "loss": 0.4175, + "step": 959 + }, + { + "epoch": 4.0, + "grad_norm": 0.22342631089160764, + "learning_rate": 4.679111137620442e-06, + "loss": 0.4229, + "step": 960 + }, + { + "epoch": 4.004166666666666, + "grad_norm": 0.32099563972920414, + "learning_rate": 4.641780142624231e-06, + "loss": 0.3881, + "step": 961 + }, + { + "epoch": 4.008333333333334, + "grad_norm": 0.25218535881654675, + "learning_rate": 4.604579102572641e-06, + "loss": 0.4078, + "step": 962 + }, + { + "epoch": 4.0125, + "grad_norm": 0.2382490612282618, + "learning_rate": 4.567508332245605e-06, + "loss": 0.4066, + "step": 963 + }, + { + "epoch": 4.016666666666667, + "grad_norm": 0.28796604902334555, + "learning_rate": 4.530568145320724e-06, + "loss": 0.3988, + "step": 964 + }, + { + "epoch": 4.020833333333333, + "grad_norm": 0.3224951699224033, + "learning_rate": 4.493758854370682e-06, + "loss": 0.3932, + "step": 965 + }, + { + "epoch": 4.025, + "grad_norm": 0.2627925858138936, + "learning_rate": 4.4570807708605825e-06, + "loss": 0.3679, + "step": 966 + }, + { + "epoch": 4.029166666666667, + "grad_norm": 0.28483312358473356, + "learning_rate": 4.420534205145293e-06, + "loss": 0.3851, + "step": 967 + }, + { + "epoch": 4.033333333333333, + "grad_norm": 0.2806262720150311, + "learning_rate": 4.384119466466816e-06, + "loss": 0.3817, + "step": 968 + }, + { + "epoch": 4.0375, + "grad_norm": 0.24015412530818528, + "learning_rate": 4.347836862951722e-06, + "loss": 0.3786, + "step": 969 + }, + { + "epoch": 4.041666666666667, + "grad_norm": 0.23997908525085326, + "learning_rate": 4.311686701608486e-06, + "loss": 0.4043, + "step": 970 + }, + { + "epoch": 4.045833333333333, + "grad_norm": 0.2621190604739965, + "learning_rate": 4.2756692883249176e-06, + "loss": 0.3808, + "step": 971 + }, + { + "epoch": 4.05, + "grad_norm": 0.27077743658389225, + "learning_rate": 4.239784927865562e-06, + "loss": 0.3893, + "step": 972 + }, + { + "epoch": 4.054166666666666, + "grad_norm": 0.226478557440062, + "learning_rate": 4.204033923869135e-06, + "loss": 0.3974, + "step": 973 + }, + { + "epoch": 4.058333333333334, + "grad_norm": 0.23644580918175637, + "learning_rate": 4.168416578845936e-06, + "loss": 0.3689, + "step": 974 + }, + { + "epoch": 4.0625, + "grad_norm": 0.2517699959074949, + "learning_rate": 4.132933194175299e-06, + "loss": 0.3874, + "step": 975 + }, + { + "epoch": 4.066666666666666, + "grad_norm": 0.22938905026855594, + "learning_rate": 4.097584070103042e-06, + "loss": 0.4063, + "step": 976 + }, + { + "epoch": 4.070833333333334, + "grad_norm": 0.23204661332089185, + "learning_rate": 4.0623695057389415e-06, + "loss": 0.3971, + "step": 977 + }, + { + "epoch": 4.075, + "grad_norm": 0.23415795910429496, + "learning_rate": 4.027289799054148e-06, + "loss": 0.3813, + "step": 978 + }, + { + "epoch": 4.079166666666667, + "grad_norm": 0.23826924959135237, + "learning_rate": 3.992345246878726e-06, + "loss": 0.39, + "step": 979 + }, + { + "epoch": 4.083333333333333, + "grad_norm": 0.24314389100797407, + "learning_rate": 3.957536144899123e-06, + "loss": 0.4023, + "step": 980 + }, + { + "epoch": 4.0875, + "grad_norm": 0.2358395776669894, + "learning_rate": 3.922862787655654e-06, + "loss": 0.3952, + "step": 981 + }, + { + "epoch": 4.091666666666667, + "grad_norm": 0.23699744528215083, + "learning_rate": 3.888325468540013e-06, + "loss": 0.3868, + "step": 982 + }, + { + "epoch": 4.095833333333333, + "grad_norm": 0.22707008440356913, + "learning_rate": 3.853924479792803e-06, + "loss": 0.393, + "step": 983 + }, + { + "epoch": 4.1, + "grad_norm": 0.23544858725647322, + "learning_rate": 3.819660112501053e-06, + "loss": 0.3889, + "step": 984 + }, + { + "epoch": 4.104166666666667, + "grad_norm": 0.22519226316896881, + "learning_rate": 3.7855326565957563e-06, + "loss": 0.3945, + "step": 985 + }, + { + "epoch": 4.108333333333333, + "grad_norm": 0.2331815938886045, + "learning_rate": 3.7515424008494195e-06, + "loss": 0.3921, + "step": 986 + }, + { + "epoch": 4.1125, + "grad_norm": 0.2343405014370539, + "learning_rate": 3.717689632873618e-06, + "loss": 0.383, + "step": 987 + }, + { + "epoch": 4.116666666666666, + "grad_norm": 0.22236066121031534, + "learning_rate": 3.683974639116563e-06, + "loss": 0.4101, + "step": 988 + }, + { + "epoch": 4.120833333333334, + "grad_norm": 0.21787732312760535, + "learning_rate": 3.650397704860673e-06, + "loss": 0.4102, + "step": 989 + }, + { + "epoch": 4.125, + "grad_norm": 0.22034450231640743, + "learning_rate": 3.616959114220162e-06, + "loss": 0.385, + "step": 990 + }, + { + "epoch": 4.129166666666666, + "grad_norm": 0.21643950582225363, + "learning_rate": 3.583659150138661e-06, + "loss": 0.381, + "step": 991 + }, + { + "epoch": 4.133333333333334, + "grad_norm": 0.21379399368418622, + "learning_rate": 3.5504980943867538e-06, + "loss": 0.3873, + "step": 992 + }, + { + "epoch": 4.1375, + "grad_norm": 0.2257712470531673, + "learning_rate": 3.5174762275596864e-06, + "loss": 0.3894, + "step": 993 + }, + { + "epoch": 4.141666666666667, + "grad_norm": 0.22737390834729226, + "learning_rate": 3.484593829074918e-06, + "loss": 0.3906, + "step": 994 + }, + { + "epoch": 4.145833333333333, + "grad_norm": 0.22149731221362098, + "learning_rate": 3.451851177169789e-06, + "loss": 0.4021, + "step": 995 + }, + { + "epoch": 4.15, + "grad_norm": 0.22723836033248954, + "learning_rate": 3.419248548899168e-06, + "loss": 0.3866, + "step": 996 + }, + { + "epoch": 4.154166666666667, + "grad_norm": 0.23247761417468857, + "learning_rate": 3.3867862201330916e-06, + "loss": 0.3692, + "step": 997 + }, + { + "epoch": 4.158333333333333, + "grad_norm": 0.20971614067207828, + "learning_rate": 3.354464465554448e-06, + "loss": 0.3906, + "step": 998 + }, + { + "epoch": 4.1625, + "grad_norm": 0.22235442240009948, + "learning_rate": 3.3222835586566384e-06, + "loss": 0.3938, + "step": 999 + }, + { + "epoch": 4.166666666666667, + "grad_norm": 0.21787528828369473, + "learning_rate": 3.290243771741275e-06, + "loss": 0.3988, + "step": 1000 + }, + { + "epoch": 4.170833333333333, + "grad_norm": 0.2267628934757855, + "learning_rate": 3.2583453759158634e-06, + "loss": 0.3951, + "step": 1001 + }, + { + "epoch": 4.175, + "grad_norm": 0.20988780404069562, + "learning_rate": 3.2265886410915214e-06, + "loss": 0.3935, + "step": 1002 + }, + { + "epoch": 4.179166666666666, + "grad_norm": 0.2272042353627666, + "learning_rate": 3.1949738359806905e-06, + "loss": 0.3829, + "step": 1003 + }, + { + "epoch": 4.183333333333334, + "grad_norm": 0.21976659742361207, + "learning_rate": 3.1635012280948496e-06, + "loss": 0.3947, + "step": 1004 + }, + { + "epoch": 4.1875, + "grad_norm": 0.21095624430703588, + "learning_rate": 3.13217108374229e-06, + "loss": 0.4171, + "step": 1005 + }, + { + "epoch": 4.191666666666666, + "grad_norm": 0.21399379180371467, + "learning_rate": 3.1009836680257965e-06, + "loss": 0.3934, + "step": 1006 + }, + { + "epoch": 4.195833333333334, + "grad_norm": 0.21481261956534103, + "learning_rate": 3.0699392448404787e-06, + "loss": 0.3857, + "step": 1007 + }, + { + "epoch": 4.2, + "grad_norm": 0.22887690984784917, + "learning_rate": 3.039038076871481e-06, + "loss": 0.3959, + "step": 1008 + }, + { + "epoch": 4.204166666666667, + "grad_norm": 0.21527551915593382, + "learning_rate": 3.00828042559179e-06, + "loss": 0.3966, + "step": 1009 + }, + { + "epoch": 4.208333333333333, + "grad_norm": 0.2154608675883479, + "learning_rate": 2.9776665512600054e-06, + "loss": 0.397, + "step": 1010 + }, + { + "epoch": 4.2125, + "grad_norm": 0.21165402376707582, + "learning_rate": 2.947196712918157e-06, + "loss": 0.397, + "step": 1011 + }, + { + "epoch": 4.216666666666667, + "grad_norm": 0.22067807108484216, + "learning_rate": 2.9168711683894903e-06, + "loss": 0.3964, + "step": 1012 + }, + { + "epoch": 4.220833333333333, + "grad_norm": 0.2358786614780987, + "learning_rate": 2.886690174276301e-06, + "loss": 0.3973, + "step": 1013 + }, + { + "epoch": 4.225, + "grad_norm": 0.2173598996607937, + "learning_rate": 2.8566539859577558e-06, + "loss": 0.3999, + "step": 1014 + }, + { + "epoch": 4.229166666666667, + "grad_norm": 0.21150679969144226, + "learning_rate": 2.8267628575877414e-06, + "loss": 0.3836, + "step": 1015 + }, + { + "epoch": 4.233333333333333, + "grad_norm": 0.22343466713449373, + "learning_rate": 2.7970170420926957e-06, + "loss": 0.3838, + "step": 1016 + }, + { + "epoch": 4.2375, + "grad_norm": 0.22243030164068567, + "learning_rate": 2.7674167911694837e-06, + "loss": 0.3882, + "step": 1017 + }, + { + "epoch": 4.241666666666666, + "grad_norm": 0.2312325216447369, + "learning_rate": 2.737962355283272e-06, + "loss": 0.3927, + "step": 1018 + }, + { + "epoch": 4.245833333333334, + "grad_norm": 0.21670440623185597, + "learning_rate": 2.7086539836653923e-06, + "loss": 0.398, + "step": 1019 + }, + { + "epoch": 4.25, + "grad_norm": 0.21710913582363692, + "learning_rate": 2.679491924311226e-06, + "loss": 0.3984, + "step": 1020 + }, + { + "epoch": 4.254166666666666, + "grad_norm": 0.22568166353478622, + "learning_rate": 2.65047642397815e-06, + "loss": 0.3887, + "step": 1021 + }, + { + "epoch": 4.258333333333334, + "grad_norm": 0.2139020280225805, + "learning_rate": 2.6216077281833976e-06, + "loss": 0.3893, + "step": 1022 + }, + { + "epoch": 4.2625, + "grad_norm": 0.21261695437241654, + "learning_rate": 2.5928860812020063e-06, + "loss": 0.3929, + "step": 1023 + }, + { + "epoch": 4.266666666666667, + "grad_norm": 0.2052973230937153, + "learning_rate": 2.564311726064754e-06, + "loss": 0.3846, + "step": 1024 + }, + { + "epoch": 4.270833333333333, + "grad_norm": 0.21592919820852863, + "learning_rate": 2.535884904556085e-06, + "loss": 0.3758, + "step": 1025 + }, + { + "epoch": 4.275, + "grad_norm": 0.22277092529351133, + "learning_rate": 2.5076058572120855e-06, + "loss": 0.3927, + "step": 1026 + }, + { + "epoch": 4.279166666666667, + "grad_norm": 0.21609789902866755, + "learning_rate": 2.4794748233184285e-06, + "loss": 0.3877, + "step": 1027 + }, + { + "epoch": 4.283333333333333, + "grad_norm": 0.2241692121126774, + "learning_rate": 2.4514920409083586e-06, + "loss": 0.3892, + "step": 1028 + }, + { + "epoch": 4.2875, + "grad_norm": 0.21983550359330953, + "learning_rate": 2.423657746760695e-06, + "loss": 0.3848, + "step": 1029 + }, + { + "epoch": 4.291666666666667, + "grad_norm": 0.2084715463094627, + "learning_rate": 2.3959721763977805e-06, + "loss": 0.4155, + "step": 1030 + }, + { + "epoch": 4.295833333333333, + "grad_norm": 0.21810353545912545, + "learning_rate": 2.3684355640835334e-06, + "loss": 0.3843, + "step": 1031 + }, + { + "epoch": 4.3, + "grad_norm": 0.21909939505718, + "learning_rate": 2.3410481428214602e-06, + "loss": 0.3884, + "step": 1032 + }, + { + "epoch": 4.304166666666666, + "grad_norm": 0.22305255373823385, + "learning_rate": 2.313810144352664e-06, + "loss": 0.3806, + "step": 1033 + }, + { + "epoch": 4.308333333333334, + "grad_norm": 0.21399493848562365, + "learning_rate": 2.2867217991538793e-06, + "loss": 0.3886, + "step": 1034 + }, + { + "epoch": 4.3125, + "grad_norm": 0.22139692881508155, + "learning_rate": 2.259783336435566e-06, + "loss": 0.3943, + "step": 1035 + }, + { + "epoch": 4.316666666666666, + "grad_norm": 0.22110568056896807, + "learning_rate": 2.2329949841399223e-06, + "loss": 0.3876, + "step": 1036 + }, + { + "epoch": 4.320833333333334, + "grad_norm": 0.2192791391563689, + "learning_rate": 2.206356968938965e-06, + "loss": 0.3901, + "step": 1037 + }, + { + "epoch": 4.325, + "grad_norm": 0.22086408115831563, + "learning_rate": 2.1798695162326444e-06, + "loss": 0.3963, + "step": 1038 + }, + { + "epoch": 4.329166666666667, + "grad_norm": 0.21376558371836413, + "learning_rate": 2.1535328501468935e-06, + "loss": 0.3935, + "step": 1039 + }, + { + "epoch": 4.333333333333333, + "grad_norm": 0.20388552790911735, + "learning_rate": 2.127347193531757e-06, + "loss": 0.4077, + "step": 1040 + }, + { + "epoch": 4.3375, + "grad_norm": 0.21740059155182548, + "learning_rate": 2.1013127679595002e-06, + "loss": 0.395, + "step": 1041 + }, + { + "epoch": 4.341666666666667, + "grad_norm": 0.212638977373075, + "learning_rate": 2.0754297937227317e-06, + "loss": 0.3948, + "step": 1042 + }, + { + "epoch": 4.345833333333333, + "grad_norm": 0.20432801583148202, + "learning_rate": 2.04969848983255e-06, + "loss": 0.4002, + "step": 1043 + }, + { + "epoch": 4.35, + "grad_norm": 0.20105838367708312, + "learning_rate": 2.024119074016664e-06, + "loss": 0.3981, + "step": 1044 + }, + { + "epoch": 4.354166666666667, + "grad_norm": 0.20591122191976494, + "learning_rate": 1.998691762717577e-06, + "loss": 0.3999, + "step": 1045 + }, + { + "epoch": 4.358333333333333, + "grad_norm": 0.21007702037482343, + "learning_rate": 1.973416771090755e-06, + "loss": 0.3878, + "step": 1046 + }, + { + "epoch": 4.3625, + "grad_norm": 0.21965241039293862, + "learning_rate": 1.948294313002792e-06, + "loss": 0.3888, + "step": 1047 + }, + { + "epoch": 4.366666666666666, + "grad_norm": 0.20871328585848617, + "learning_rate": 1.9233246010295903e-06, + "loss": 0.3849, + "step": 1048 + }, + { + "epoch": 4.370833333333334, + "grad_norm": 0.22344246010872826, + "learning_rate": 1.8985078464546002e-06, + "loss": 0.3745, + "step": 1049 + }, + { + "epoch": 4.375, + "grad_norm": 0.21888618878255753, + "learning_rate": 1.8738442592670014e-06, + "loss": 0.3843, + "step": 1050 + }, + { + "epoch": 4.379166666666666, + "grad_norm": 0.20645694980867452, + "learning_rate": 1.8493340481599275e-06, + "loss": 0.3816, + "step": 1051 + }, + { + "epoch": 4.383333333333334, + "grad_norm": 0.20886523332501278, + "learning_rate": 1.8249774205287151e-06, + "loss": 0.3805, + "step": 1052 + }, + { + "epoch": 4.3875, + "grad_norm": 0.21299747624517915, + "learning_rate": 1.800774582469138e-06, + "loss": 0.3851, + "step": 1053 + }, + { + "epoch": 4.391666666666667, + "grad_norm": 0.2101030130754341, + "learning_rate": 1.7767257387756599e-06, + "loss": 0.4012, + "step": 1054 + }, + { + "epoch": 4.395833333333333, + "grad_norm": 0.2084000285475629, + "learning_rate": 1.7528310929397196e-06, + "loss": 0.3834, + "step": 1055 + }, + { + "epoch": 4.4, + "grad_norm": 0.20310838723566754, + "learning_rate": 1.7290908471479805e-06, + "loss": 0.3883, + "step": 1056 + }, + { + "epoch": 4.404166666666667, + "grad_norm": 0.20641426226550538, + "learning_rate": 1.7055052022806595e-06, + "loss": 0.3889, + "step": 1057 + }, + { + "epoch": 4.408333333333333, + "grad_norm": 0.20716143550372132, + "learning_rate": 1.682074357909782e-06, + "loss": 0.3762, + "step": 1058 + }, + { + "epoch": 4.4125, + "grad_norm": 0.20650503280054486, + "learning_rate": 1.6587985122975193e-06, + "loss": 0.3817, + "step": 1059 + }, + { + "epoch": 4.416666666666667, + "grad_norm": 0.2061135382309316, + "learning_rate": 1.6356778623945223e-06, + "loss": 0.384, + "step": 1060 + }, + { + "epoch": 4.420833333333333, + "grad_norm": 0.19625695351801264, + "learning_rate": 1.612712603838218e-06, + "loss": 0.3908, + "step": 1061 + }, + { + "epoch": 4.425, + "grad_norm": 0.22603414259689372, + "learning_rate": 1.5899029309511926e-06, + "loss": 0.3861, + "step": 1062 + }, + { + "epoch": 4.429166666666666, + "grad_norm": 0.20502145009105738, + "learning_rate": 1.5672490367395244e-06, + "loss": 0.3828, + "step": 1063 + }, + { + "epoch": 4.433333333333334, + "grad_norm": 0.20667781053884668, + "learning_rate": 1.5447511128911542e-06, + "loss": 0.4043, + "step": 1064 + }, + { + "epoch": 4.4375, + "grad_norm": 0.21931277278673314, + "learning_rate": 1.5224093497742654e-06, + "loss": 0.3782, + "step": 1065 + }, + { + "epoch": 4.441666666666666, + "grad_norm": 0.20661232798322296, + "learning_rate": 1.5002239364356784e-06, + "loss": 0.3973, + "step": 1066 + }, + { + "epoch": 4.445833333333334, + "grad_norm": 0.20561646814251938, + "learning_rate": 1.4781950605992434e-06, + "loss": 0.3862, + "step": 1067 + }, + { + "epoch": 4.45, + "grad_norm": 0.20709387122468778, + "learning_rate": 1.4563229086642538e-06, + "loss": 0.3909, + "step": 1068 + }, + { + "epoch": 4.454166666666667, + "grad_norm": 0.20894230163276878, + "learning_rate": 1.4346076657038689e-06, + "loss": 0.3883, + "step": 1069 + }, + { + "epoch": 4.458333333333333, + "grad_norm": 0.2138093730895906, + "learning_rate": 1.4130495154635494e-06, + "loss": 0.3832, + "step": 1070 + }, + { + "epoch": 4.4625, + "grad_norm": 0.21495693996906673, + "learning_rate": 1.3916486403595108e-06, + "loss": 0.3681, + "step": 1071 + }, + { + "epoch": 4.466666666666667, + "grad_norm": 0.20257256679051186, + "learning_rate": 1.3704052214771513e-06, + "loss": 0.3782, + "step": 1072 + }, + { + "epoch": 4.470833333333333, + "grad_norm": 0.20124849268912157, + "learning_rate": 1.3493194385695608e-06, + "loss": 0.3876, + "step": 1073 + }, + { + "epoch": 4.475, + "grad_norm": 0.212851429442179, + "learning_rate": 1.3283914700559675e-06, + "loss": 0.3909, + "step": 1074 + }, + { + "epoch": 4.479166666666667, + "grad_norm": 0.21873572396661103, + "learning_rate": 1.3076214930202324e-06, + "loss": 0.3777, + "step": 1075 + }, + { + "epoch": 4.483333333333333, + "grad_norm": 0.2041131837033637, + "learning_rate": 1.2870096832093726e-06, + "loss": 0.3833, + "step": 1076 + }, + { + "epoch": 4.4875, + "grad_norm": 0.2088455027749406, + "learning_rate": 1.2665562150320487e-06, + "loss": 0.3909, + "step": 1077 + }, + { + "epoch": 4.491666666666666, + "grad_norm": 0.20515071811952848, + "learning_rate": 1.2462612615571046e-06, + "loss": 0.4034, + "step": 1078 + }, + { + "epoch": 4.495833333333334, + "grad_norm": 0.20549966734220215, + "learning_rate": 1.2261249945120922e-06, + "loss": 0.3979, + "step": 1079 + }, + { + "epoch": 4.5, + "grad_norm": 0.25504437848899186, + "learning_rate": 1.2061475842818337e-06, + "loss": 0.4179, + "step": 1080 + }, + { + "epoch": 4.504166666666666, + "grad_norm": 0.21497318054578451, + "learning_rate": 1.1863291999069592e-06, + "loss": 0.3716, + "step": 1081 + }, + { + "epoch": 4.508333333333333, + "grad_norm": 0.20380853760441292, + "learning_rate": 1.1666700090824956e-06, + "loss": 0.388, + "step": 1082 + }, + { + "epoch": 4.5125, + "grad_norm": 0.19834027441431143, + "learning_rate": 1.1471701781564316e-06, + "loss": 0.3931, + "step": 1083 + }, + { + "epoch": 4.516666666666667, + "grad_norm": 0.20911548672338867, + "learning_rate": 1.12782987212833e-06, + "loss": 0.3958, + "step": 1084 + }, + { + "epoch": 4.520833333333333, + "grad_norm": 0.2012388741839505, + "learning_rate": 1.1086492546479065e-06, + "loss": 0.3921, + "step": 1085 + }, + { + "epoch": 4.525, + "grad_norm": 0.2079229548369675, + "learning_rate": 1.0896284880136632e-06, + "loss": 0.3716, + "step": 1086 + }, + { + "epoch": 4.529166666666667, + "grad_norm": 0.20424381766082045, + "learning_rate": 1.070767733171514e-06, + "loss": 0.3964, + "step": 1087 + }, + { + "epoch": 4.533333333333333, + "grad_norm": 0.21255632877710418, + "learning_rate": 1.052067149713416e-06, + "loss": 0.3982, + "step": 1088 + }, + { + "epoch": 4.5375, + "grad_norm": 0.20434569177173742, + "learning_rate": 1.0335268958760135e-06, + "loss": 0.3895, + "step": 1089 + }, + { + "epoch": 4.541666666666667, + "grad_norm": 0.18798901633494672, + "learning_rate": 1.0151471285393223e-06, + "loss": 0.3962, + "step": 1090 + }, + { + "epoch": 4.545833333333333, + "grad_norm": 0.1936049963564169, + "learning_rate": 9.96928003225377e-07, + "loss": 0.4045, + "step": 1091 + }, + { + "epoch": 4.55, + "grad_norm": 0.20203295728983378, + "learning_rate": 9.788696740969295e-07, + "loss": 0.3936, + "step": 1092 + }, + { + "epoch": 4.554166666666667, + "grad_norm": 0.21075047963997542, + "learning_rate": 9.609722939561373e-07, + "loss": 0.4077, + "step": 1093 + }, + { + "epoch": 4.558333333333334, + "grad_norm": 0.20025213485931265, + "learning_rate": 9.432360142432761e-07, + "loss": 0.3984, + "step": 1094 + }, + { + "epoch": 4.5625, + "grad_norm": 0.20861624138450827, + "learning_rate": 9.256609850354636e-07, + "loss": 0.385, + "step": 1095 + }, + { + "epoch": 4.566666666666666, + "grad_norm": 0.1986348913181751, + "learning_rate": 9.082473550453619e-07, + "loss": 0.3945, + "step": 1096 + }, + { + "epoch": 4.570833333333333, + "grad_norm": 0.2040299883665947, + "learning_rate": 8.909952716199566e-07, + "loss": 0.3908, + "step": 1097 + }, + { + "epoch": 4.575, + "grad_norm": 0.20925989787685903, + "learning_rate": 8.739048807392913e-07, + "loss": 0.3889, + "step": 1098 + }, + { + "epoch": 4.579166666666667, + "grad_norm": 0.21260259806578902, + "learning_rate": 8.569763270152265e-07, + "loss": 0.3844, + "step": 1099 + }, + { + "epoch": 4.583333333333333, + "grad_norm": 0.1999448636556535, + "learning_rate": 8.402097536902221e-07, + "loss": 0.3863, + "step": 1100 + }, + { + "epoch": 4.5875, + "grad_norm": 0.21406689943428772, + "learning_rate": 8.23605302636139e-07, + "loss": 0.382, + "step": 1101 + }, + { + "epoch": 4.591666666666667, + "grad_norm": 0.20643842033200374, + "learning_rate": 8.071631143530178e-07, + "loss": 0.3861, + "step": 1102 + }, + { + "epoch": 4.595833333333333, + "grad_norm": 0.21371253059525183, + "learning_rate": 7.908833279678885e-07, + "loss": 0.3838, + "step": 1103 + }, + { + "epoch": 4.6, + "grad_norm": 0.19898835007608578, + "learning_rate": 7.747660812336221e-07, + "loss": 0.4004, + "step": 1104 + }, + { + "epoch": 4.604166666666667, + "grad_norm": 0.2178163266712195, + "learning_rate": 7.588115105277372e-07, + "loss": 0.3785, + "step": 1105 + }, + { + "epoch": 4.608333333333333, + "grad_norm": 0.2071669502158122, + "learning_rate": 7.430197508512482e-07, + "loss": 0.384, + "step": 1106 + }, + { + "epoch": 4.6125, + "grad_norm": 0.21176605958557895, + "learning_rate": 7.273909358275411e-07, + "loss": 0.381, + "step": 1107 + }, + { + "epoch": 4.616666666666667, + "grad_norm": 0.2095391326166993, + "learning_rate": 7.11925197701222e-07, + "loss": 0.3796, + "step": 1108 + }, + { + "epoch": 4.620833333333334, + "grad_norm": 0.20430319127354743, + "learning_rate": 6.966226673370125e-07, + "loss": 0.3811, + "step": 1109 + }, + { + "epoch": 4.625, + "grad_norm": 0.1993122226870442, + "learning_rate": 6.814834742186361e-07, + "loss": 0.3971, + "step": 1110 + }, + { + "epoch": 4.629166666666666, + "grad_norm": 0.21274137971906087, + "learning_rate": 6.665077464477198e-07, + "loss": 0.381, + "step": 1111 + }, + { + "epoch": 4.633333333333333, + "grad_norm": 0.2045319580112074, + "learning_rate": 6.516956107427241e-07, + "loss": 0.4016, + "step": 1112 + }, + { + "epoch": 4.6375, + "grad_norm": 0.209883369872557, + "learning_rate": 6.370471924378474e-07, + "loss": 0.3776, + "step": 1113 + }, + { + "epoch": 4.641666666666667, + "grad_norm": 0.1974962395249034, + "learning_rate": 6.225626154819852e-07, + "loss": 0.3808, + "step": 1114 + }, + { + "epoch": 4.645833333333333, + "grad_norm": 0.1953773456186481, + "learning_rate": 6.082420024376801e-07, + "loss": 0.397, + "step": 1115 + }, + { + "epoch": 4.65, + "grad_norm": 0.1989701101330788, + "learning_rate": 5.940854744800706e-07, + "loss": 0.3919, + "step": 1116 + }, + { + "epoch": 4.654166666666667, + "grad_norm": 0.1847503976930448, + "learning_rate": 5.800931513958796e-07, + "loss": 0.4142, + "step": 1117 + }, + { + "epoch": 4.658333333333333, + "grad_norm": 0.22025459641944659, + "learning_rate": 5.66265151582397e-07, + "loss": 0.3872, + "step": 1118 + }, + { + "epoch": 4.6625, + "grad_norm": 0.19558599631116597, + "learning_rate": 5.526015920464689e-07, + "loss": 0.4013, + "step": 1119 + }, + { + "epoch": 4.666666666666667, + "grad_norm": 0.2117082081755805, + "learning_rate": 5.391025884035239e-07, + "loss": 0.3826, + "step": 1120 + }, + { + "epoch": 4.670833333333333, + "grad_norm": 0.19995363575332048, + "learning_rate": 5.257682548765841e-07, + "loss": 0.3813, + "step": 1121 + }, + { + "epoch": 4.675, + "grad_norm": 0.20626949875404163, + "learning_rate": 5.125987042952973e-07, + "loss": 0.3879, + "step": 1122 + }, + { + "epoch": 4.679166666666667, + "grad_norm": 0.2119702885500929, + "learning_rate": 4.99594048094989e-07, + "loss": 0.3768, + "step": 1123 + }, + { + "epoch": 4.683333333333334, + "grad_norm": 0.1917072830112516, + "learning_rate": 4.867543963157162e-07, + "loss": 0.4001, + "step": 1124 + }, + { + "epoch": 4.6875, + "grad_norm": 0.26874753769966464, + "learning_rate": 4.740798576013328e-07, + "loss": 0.398, + "step": 1125 + }, + { + "epoch": 4.691666666666666, + "grad_norm": 0.20128968969089236, + "learning_rate": 4.615705391985814e-07, + "loss": 0.3934, + "step": 1126 + }, + { + "epoch": 4.695833333333333, + "grad_norm": 0.19269748187606345, + "learning_rate": 4.492265469561696e-07, + "loss": 0.3996, + "step": 1127 + }, + { + "epoch": 4.7, + "grad_norm": 0.2064375540922556, + "learning_rate": 4.3704798532388624e-07, + "loss": 0.3907, + "step": 1128 + }, + { + "epoch": 4.704166666666667, + "grad_norm": 0.20691554687976574, + "learning_rate": 4.2503495735171987e-07, + "loss": 0.4026, + "step": 1129 + }, + { + "epoch": 4.708333333333333, + "grad_norm": 0.20822981358466697, + "learning_rate": 4.1318756468897047e-07, + "loss": 0.3891, + "step": 1130 + }, + { + "epoch": 4.7125, + "grad_norm": 0.20897013043342189, + "learning_rate": 4.0150590758340826e-07, + "loss": 0.3795, + "step": 1131 + }, + { + "epoch": 4.716666666666667, + "grad_norm": 0.1968064393363428, + "learning_rate": 3.899900848804139e-07, + "loss": 0.383, + "step": 1132 + }, + { + "epoch": 4.720833333333333, + "grad_norm": 0.20907077481732236, + "learning_rate": 3.7864019402214845e-07, + "loss": 0.3852, + "step": 1133 + }, + { + "epoch": 4.725, + "grad_norm": 0.20181098073312845, + "learning_rate": 3.674563310467205e-07, + "loss": 0.3958, + "step": 1134 + }, + { + "epoch": 4.729166666666667, + "grad_norm": 0.19666844511533138, + "learning_rate": 3.5643859058738686e-07, + "loss": 0.4072, + "step": 1135 + }, + { + "epoch": 4.733333333333333, + "grad_norm": 0.21497564996763077, + "learning_rate": 3.455870658717353e-07, + "loss": 0.3698, + "step": 1136 + }, + { + "epoch": 4.7375, + "grad_norm": 0.20684729753862982, + "learning_rate": 3.349018487209099e-07, + "loss": 0.3898, + "step": 1137 + }, + { + "epoch": 4.741666666666667, + "grad_norm": 0.20865385580669296, + "learning_rate": 3.2438302954882486e-07, + "loss": 0.3901, + "step": 1138 + }, + { + "epoch": 4.745833333333334, + "grad_norm": 0.19782644507072714, + "learning_rate": 3.1403069736140715e-07, + "loss": 0.3812, + "step": 1139 + }, + { + "epoch": 4.75, + "grad_norm": 0.19833433006240347, + "learning_rate": 3.038449397558396e-07, + "loss": 0.3938, + "step": 1140 + }, + { + "epoch": 4.754166666666666, + "grad_norm": 0.20925531033059472, + "learning_rate": 2.9382584291981265e-07, + "loss": 0.4035, + "step": 1141 + }, + { + "epoch": 4.758333333333333, + "grad_norm": 0.19412494052968784, + "learning_rate": 2.839734916308068e-07, + "loss": 0.3984, + "step": 1142 + }, + { + "epoch": 4.7625, + "grad_norm": 0.20482762766790866, + "learning_rate": 2.7428796925537127e-07, + "loss": 0.3836, + "step": 1143 + }, + { + "epoch": 4.766666666666667, + "grad_norm": 0.21061627000621963, + "learning_rate": 2.647693577484156e-07, + "loss": 0.3972, + "step": 1144 + }, + { + "epoch": 4.770833333333333, + "grad_norm": 0.19599019840579426, + "learning_rate": 2.554177376525191e-07, + "loss": 0.3904, + "step": 1145 + }, + { + "epoch": 4.775, + "grad_norm": 0.19316239172992322, + "learning_rate": 2.462331880972468e-07, + "loss": 0.3911, + "step": 1146 + }, + { + "epoch": 4.779166666666667, + "grad_norm": 0.19835247649994242, + "learning_rate": 2.3721578679848146e-07, + "loss": 0.3998, + "step": 1147 + }, + { + "epoch": 4.783333333333333, + "grad_norm": 0.20298068455378282, + "learning_rate": 2.2836561005776803e-07, + "loss": 0.3965, + "step": 1148 + }, + { + "epoch": 4.7875, + "grad_norm": 0.20252255197368563, + "learning_rate": 2.1968273276166352e-07, + "loss": 0.3813, + "step": 1149 + }, + { + "epoch": 4.791666666666667, + "grad_norm": 0.19602812185693308, + "learning_rate": 2.111672283811106e-07, + "loss": 0.4015, + "step": 1150 + }, + { + "epoch": 4.795833333333333, + "grad_norm": 0.19757644835561847, + "learning_rate": 2.0281916897080477e-07, + "loss": 0.3849, + "step": 1151 + }, + { + "epoch": 4.8, + "grad_norm": 0.20288132300797618, + "learning_rate": 1.9463862516859277e-07, + "loss": 0.399, + "step": 1152 + }, + { + "epoch": 4.804166666666667, + "grad_norm": 0.19453468645995778, + "learning_rate": 1.8662566619487954e-07, + "loss": 0.4107, + "step": 1153 + }, + { + "epoch": 4.808333333333334, + "grad_norm": 0.21201523746540965, + "learning_rate": 1.7878035985202657e-07, + "loss": 0.39, + "step": 1154 + }, + { + "epoch": 4.8125, + "grad_norm": 0.19081726845878005, + "learning_rate": 1.7110277252379238e-07, + "loss": 0.4039, + "step": 1155 + }, + { + "epoch": 4.816666666666666, + "grad_norm": 0.20237658844604547, + "learning_rate": 1.6359296917476619e-07, + "loss": 0.3935, + "step": 1156 + }, + { + "epoch": 4.820833333333333, + "grad_norm": 0.2184959014302634, + "learning_rate": 1.5625101334981742e-07, + "loss": 0.3855, + "step": 1157 + }, + { + "epoch": 4.825, + "grad_norm": 0.20778549428603435, + "learning_rate": 1.4907696717356035e-07, + "loss": 0.3853, + "step": 1158 + }, + { + "epoch": 4.829166666666667, + "grad_norm": 0.19149205793816979, + "learning_rate": 1.4207089134982143e-07, + "loss": 0.3882, + "step": 1159 + }, + { + "epoch": 4.833333333333333, + "grad_norm": 0.20518165977415728, + "learning_rate": 1.3523284516113955e-07, + "loss": 0.384, + "step": 1160 + }, + { + "epoch": 4.8375, + "grad_norm": 0.19504892497211884, + "learning_rate": 1.2856288646825087e-07, + "loss": 0.3811, + "step": 1161 + }, + { + "epoch": 4.841666666666667, + "grad_norm": 0.203712165452829, + "learning_rate": 1.2206107170960046e-07, + "loss": 0.3898, + "step": 1162 + }, + { + "epoch": 4.845833333333333, + "grad_norm": 0.1959107836796987, + "learning_rate": 1.1572745590087586e-07, + "loss": 0.3892, + "step": 1163 + }, + { + "epoch": 4.85, + "grad_norm": 0.1932746680712934, + "learning_rate": 1.0956209263453421e-07, + "loss": 0.3982, + "step": 1164 + }, + { + "epoch": 4.854166666666667, + "grad_norm": 0.1942598007482467, + "learning_rate": 1.0356503407934038e-07, + "loss": 0.3941, + "step": 1165 + }, + { + "epoch": 4.858333333333333, + "grad_norm": 0.19547774310726718, + "learning_rate": 9.77363309799384e-08, + "loss": 0.3991, + "step": 1166 + }, + { + "epoch": 4.8625, + "grad_norm": 0.2069145818345087, + "learning_rate": 9.207603265642296e-08, + "loss": 0.3826, + "step": 1167 + }, + { + "epoch": 4.866666666666667, + "grad_norm": 0.19859952239582304, + "learning_rate": 8.658418700391302e-08, + "loss": 0.3966, + "step": 1168 + }, + { + "epoch": 4.870833333333334, + "grad_norm": 0.2002877890108048, + "learning_rate": 8.126084049214334e-08, + "loss": 0.3961, + "step": 1169 + }, + { + "epoch": 4.875, + "grad_norm": 0.1994720798464499, + "learning_rate": 7.61060381650891e-08, + "loss": 0.3845, + "step": 1170 + }, + { + "epoch": 4.879166666666666, + "grad_norm": 0.2021687724899969, + "learning_rate": 7.111982364056857e-08, + "loss": 0.3805, + "step": 1171 + }, + { + "epoch": 4.883333333333333, + "grad_norm": 0.19145575266553533, + "learning_rate": 6.630223910987887e-08, + "loss": 0.3994, + "step": 1172 + }, + { + "epoch": 4.8875, + "grad_norm": 0.2062532325132557, + "learning_rate": 6.165332533744072e-08, + "loss": 0.3735, + "step": 1173 + }, + { + "epoch": 4.891666666666667, + "grad_norm": 0.19814071565964073, + "learning_rate": 5.717312166045208e-08, + "loss": 0.4078, + "step": 1174 + }, + { + "epoch": 4.895833333333333, + "grad_norm": 0.19071689046769358, + "learning_rate": 5.286166598855502e-08, + "loss": 0.4021, + "step": 1175 + }, + { + "epoch": 4.9, + "grad_norm": 0.19930971556082247, + "learning_rate": 4.871899480351605e-08, + "loss": 0.3907, + "step": 1176 + }, + { + "epoch": 4.904166666666667, + "grad_norm": 0.19832556680555688, + "learning_rate": 4.474514315891299e-08, + "loss": 0.4049, + "step": 1177 + }, + { + "epoch": 4.908333333333333, + "grad_norm": 0.1901957292417606, + "learning_rate": 4.0940144679852963e-08, + "loss": 0.3998, + "step": 1178 + }, + { + "epoch": 4.9125, + "grad_norm": 0.2064164716597623, + "learning_rate": 3.73040315626616e-08, + "loss": 0.3884, + "step": 1179 + }, + { + "epoch": 4.916666666666667, + "grad_norm": 0.1931001665012475, + "learning_rate": 3.383683457463649e-08, + "loss": 0.4044, + "step": 1180 + }, + { + "epoch": 4.920833333333333, + "grad_norm": 0.1903418187956716, + "learning_rate": 3.053858305377411e-08, + "loss": 0.3987, + "step": 1181 + }, + { + "epoch": 4.925, + "grad_norm": 0.1939799623343075, + "learning_rate": 2.740930490852334e-08, + "loss": 0.3925, + "step": 1182 + }, + { + "epoch": 4.929166666666667, + "grad_norm": 0.19189458642729995, + "learning_rate": 2.4449026617547887e-08, + "loss": 0.4001, + "step": 1183 + }, + { + "epoch": 4.933333333333334, + "grad_norm": 0.20218100414574042, + "learning_rate": 2.1657773229508684e-08, + "loss": 0.3888, + "step": 1184 + }, + { + "epoch": 4.9375, + "grad_norm": 0.20461781766636453, + "learning_rate": 1.9035568362844037e-08, + "loss": 0.3909, + "step": 1185 + }, + { + "epoch": 4.941666666666666, + "grad_norm": 0.18999406466543975, + "learning_rate": 1.658243420557426e-08, + "loss": 0.4057, + "step": 1186 + }, + { + "epoch": 4.945833333333333, + "grad_norm": 0.20130098863174897, + "learning_rate": 1.42983915151107e-08, + "loss": 0.3865, + "step": 1187 + }, + { + "epoch": 4.95, + "grad_norm": 0.198222739286373, + "learning_rate": 1.2183459618084759e-08, + "loss": 0.3896, + "step": 1188 + }, + { + "epoch": 4.954166666666667, + "grad_norm": 0.20258128719704255, + "learning_rate": 1.0237656410181374e-08, + "loss": 0.3893, + "step": 1189 + }, + { + "epoch": 4.958333333333333, + "grad_norm": 0.18787114374679498, + "learning_rate": 8.460998355988014e-09, + "loss": 0.4016, + "step": 1190 + }, + { + "epoch": 4.9625, + "grad_norm": 0.19551146693242125, + "learning_rate": 6.853500488854803e-09, + "loss": 0.3937, + "step": 1191 + }, + { + "epoch": 4.966666666666667, + "grad_norm": 0.19986871599429382, + "learning_rate": 5.415176410765721e-09, + "loss": 0.3893, + "step": 1192 + }, + { + "epoch": 4.970833333333333, + "grad_norm": 0.1938529642818471, + "learning_rate": 4.1460382922320355e-09, + "loss": 0.3935, + "step": 1193 + }, + { + "epoch": 4.975, + "grad_norm": 0.1968794371510558, + "learning_rate": 3.0460968721746086e-09, + "loss": 0.386, + "step": 1194 + }, + { + "epoch": 4.979166666666667, + "grad_norm": 0.19892683279876672, + "learning_rate": 2.1153614578506286e-09, + "loss": 0.3837, + "step": 1195 + }, + { + "epoch": 4.983333333333333, + "grad_norm": 0.19296848309206177, + "learning_rate": 1.3538399247559064e-09, + "loss": 0.4026, + "step": 1196 + }, + { + "epoch": 4.9875, + "grad_norm": 0.20733749638655838, + "learning_rate": 7.615387165738065e-10, + "loss": 0.3893, + "step": 1197 + }, + { + "epoch": 4.991666666666667, + "grad_norm": 0.20107927929139305, + "learning_rate": 3.384628451152949e-10, + "loss": 0.3933, + "step": 1198 + }, + { + "epoch": 4.995833333333334, + "grad_norm": 0.19991479070961304, + "learning_rate": 8.461589027453087e-11, + "loss": 0.3833, + "step": 1199 + }, + { + "epoch": 5.0, + "grad_norm": 0.2048210414699777, + "learning_rate": 0.0, + "loss": 0.3754, + "step": 1200 + }, + { + "epoch": 5.0, + "step": 1200, + "total_flos": 4.616590531240133e+18, + "train_loss": 0.5000174347062906, + "train_runtime": 28765.5268, + "train_samples_per_second": 5.337, + "train_steps_per_second": 0.042 + } + ], + "logging_steps": 1, + "max_steps": 1200, + "num_input_tokens_seen": 0, + "num_train_epochs": 5, + "save_steps": 500, + "stateful_callbacks": { + "TrainerControl": { + "args": { + "should_epoch_stop": false, + "should_evaluate": false, + "should_log": false, + "should_save": true, + "should_training_stop": true + }, + "attributes": {} + } + }, + "total_flos": 4.616590531240133e+18, + "train_batch_size": 1, + "trial_name": null, + "trial_params": null +}