KE-SemanticVAD / trainer_state.json
Schubotsky's picture
add pretained model weights
b2ed5e9 verified
{
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 1.0661333333333334,
"eval_steps": 50,
"global_step": 1000,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.0010666666666666667,
"grad_norm": 7.340938305754196,
"learning_rate": 7.092198581560283e-09,
"loss": 0.1541,
"step": 1
},
{
"epoch": 0.0021333333333333334,
"grad_norm": 10.456284265762507,
"learning_rate": 1.4184397163120567e-08,
"loss": 0.2166,
"step": 2
},
{
"epoch": 0.0032,
"grad_norm": 3.3262532882195073,
"learning_rate": 2.127659574468085e-08,
"loss": 0.125,
"step": 3
},
{
"epoch": 0.004266666666666667,
"grad_norm": 11.460851747410167,
"learning_rate": 2.8368794326241133e-08,
"loss": 0.2258,
"step": 4
},
{
"epoch": 0.005333333333333333,
"grad_norm": 8.441501897479922,
"learning_rate": 3.546099290780142e-08,
"loss": 0.153,
"step": 5
},
{
"epoch": 0.0064,
"grad_norm": 5.414631894804662,
"learning_rate": 4.25531914893617e-08,
"loss": 0.1217,
"step": 6
},
{
"epoch": 0.007466666666666667,
"grad_norm": 6.8055262034936135,
"learning_rate": 4.964539007092199e-08,
"loss": 0.2203,
"step": 7
},
{
"epoch": 0.008533333333333334,
"grad_norm": 6.03157130162322,
"learning_rate": 5.673758865248227e-08,
"loss": 0.1271,
"step": 8
},
{
"epoch": 0.0096,
"grad_norm": 15.918639711164598,
"learning_rate": 6.382978723404254e-08,
"loss": 0.2446,
"step": 9
},
{
"epoch": 0.010666666666666666,
"grad_norm": 5.407971560881396,
"learning_rate": 7.092198581560284e-08,
"loss": 0.0969,
"step": 10
},
{
"epoch": 0.011733333333333333,
"grad_norm": 6.038181425779358,
"learning_rate": 7.801418439716311e-08,
"loss": 0.1582,
"step": 11
},
{
"epoch": 0.0128,
"grad_norm": 6.82290309727894,
"learning_rate": 8.51063829787234e-08,
"loss": 0.1788,
"step": 12
},
{
"epoch": 0.013866666666666666,
"grad_norm": 10.744951629042818,
"learning_rate": 9.219858156028367e-08,
"loss": 0.2034,
"step": 13
},
{
"epoch": 0.014933333333333333,
"grad_norm": 5.776379057599028,
"learning_rate": 9.929078014184397e-08,
"loss": 0.1466,
"step": 14
},
{
"epoch": 0.016,
"grad_norm": 6.451686862431702,
"learning_rate": 1.0638297872340425e-07,
"loss": 0.2048,
"step": 15
},
{
"epoch": 0.017066666666666667,
"grad_norm": 8.87773427933643,
"learning_rate": 1.1347517730496453e-07,
"loss": 0.1916,
"step": 16
},
{
"epoch": 0.018133333333333335,
"grad_norm": 3.3723817508202414,
"learning_rate": 1.205673758865248e-07,
"loss": 0.102,
"step": 17
},
{
"epoch": 0.0192,
"grad_norm": 5.582474730267361,
"learning_rate": 1.2765957446808508e-07,
"loss": 0.1072,
"step": 18
},
{
"epoch": 0.020266666666666665,
"grad_norm": 9.981766121447329,
"learning_rate": 1.3475177304964538e-07,
"loss": 0.2441,
"step": 19
},
{
"epoch": 0.021333333333333333,
"grad_norm": 6.916457694714178,
"learning_rate": 1.4184397163120568e-07,
"loss": 0.155,
"step": 20
},
{
"epoch": 0.0224,
"grad_norm": 15.903970541009066,
"learning_rate": 1.4893617021276595e-07,
"loss": 0.1844,
"step": 21
},
{
"epoch": 0.023466666666666667,
"grad_norm": 3.435640900507597,
"learning_rate": 1.5602836879432623e-07,
"loss": 0.1177,
"step": 22
},
{
"epoch": 0.024533333333333334,
"grad_norm": 5.983239337047582,
"learning_rate": 1.6312056737588653e-07,
"loss": 0.1839,
"step": 23
},
{
"epoch": 0.0256,
"grad_norm": 3.4918264067734004,
"learning_rate": 1.702127659574468e-07,
"loss": 0.0885,
"step": 24
},
{
"epoch": 0.02666666666666667,
"grad_norm": 2.159145413848388,
"learning_rate": 1.773049645390071e-07,
"loss": 0.0758,
"step": 25
},
{
"epoch": 0.027733333333333332,
"grad_norm": 7.402773228692812,
"learning_rate": 1.8439716312056735e-07,
"loss": 0.1488,
"step": 26
},
{
"epoch": 0.0288,
"grad_norm": 15.895667142159159,
"learning_rate": 1.9148936170212765e-07,
"loss": 0.2433,
"step": 27
},
{
"epoch": 0.029866666666666666,
"grad_norm": 4.312780260039735,
"learning_rate": 1.9858156028368795e-07,
"loss": 0.106,
"step": 28
},
{
"epoch": 0.030933333333333334,
"grad_norm": 3.1997236304738403,
"learning_rate": 2.0567375886524822e-07,
"loss": 0.1183,
"step": 29
},
{
"epoch": 0.032,
"grad_norm": 6.243317780451787,
"learning_rate": 2.127659574468085e-07,
"loss": 0.1075,
"step": 30
},
{
"epoch": 0.03306666666666667,
"grad_norm": 6.347714245131809,
"learning_rate": 2.198581560283688e-07,
"loss": 0.1556,
"step": 31
},
{
"epoch": 0.034133333333333335,
"grad_norm": 4.243462801533408,
"learning_rate": 2.2695035460992907e-07,
"loss": 0.0963,
"step": 32
},
{
"epoch": 0.0352,
"grad_norm": 6.623461538070349,
"learning_rate": 2.3404255319148937e-07,
"loss": 0.135,
"step": 33
},
{
"epoch": 0.03626666666666667,
"grad_norm": 6.484847083021655,
"learning_rate": 2.411347517730496e-07,
"loss": 0.1279,
"step": 34
},
{
"epoch": 0.037333333333333336,
"grad_norm": 3.2077021923002986,
"learning_rate": 2.482269503546099e-07,
"loss": 0.0771,
"step": 35
},
{
"epoch": 0.0384,
"grad_norm": 4.116737651211225,
"learning_rate": 2.5531914893617016e-07,
"loss": 0.1264,
"step": 36
},
{
"epoch": 0.039466666666666664,
"grad_norm": 4.345662195274936,
"learning_rate": 2.6241134751773046e-07,
"loss": 0.1542,
"step": 37
},
{
"epoch": 0.04053333333333333,
"grad_norm": 7.406376789679956,
"learning_rate": 2.6950354609929076e-07,
"loss": 0.1548,
"step": 38
},
{
"epoch": 0.0416,
"grad_norm": 3.0054390693138946,
"learning_rate": 2.7659574468085106e-07,
"loss": 0.1181,
"step": 39
},
{
"epoch": 0.042666666666666665,
"grad_norm": 5.020408793541103,
"learning_rate": 2.8368794326241136e-07,
"loss": 0.1504,
"step": 40
},
{
"epoch": 0.04373333333333333,
"grad_norm": 3.246192355933568,
"learning_rate": 2.907801418439716e-07,
"loss": 0.1346,
"step": 41
},
{
"epoch": 0.0448,
"grad_norm": 2.6805112095912067,
"learning_rate": 2.978723404255319e-07,
"loss": 0.1224,
"step": 42
},
{
"epoch": 0.04586666666666667,
"grad_norm": 5.576722725427941,
"learning_rate": 3.049645390070922e-07,
"loss": 0.0652,
"step": 43
},
{
"epoch": 0.046933333333333334,
"grad_norm": 3.841014006155635,
"learning_rate": 3.1205673758865245e-07,
"loss": 0.0845,
"step": 44
},
{
"epoch": 0.048,
"grad_norm": 3.3854913012232064,
"learning_rate": 3.1914893617021275e-07,
"loss": 0.0733,
"step": 45
},
{
"epoch": 0.04906666666666667,
"grad_norm": 9.677172849129757,
"learning_rate": 3.2624113475177305e-07,
"loss": 0.1341,
"step": 46
},
{
"epoch": 0.050133333333333335,
"grad_norm": 3.8894108779685492,
"learning_rate": 3.333333333333333e-07,
"loss": 0.0818,
"step": 47
},
{
"epoch": 0.0512,
"grad_norm": 6.158435704247057,
"learning_rate": 3.404255319148936e-07,
"loss": 0.1103,
"step": 48
},
{
"epoch": 0.05226666666666667,
"grad_norm": 4.194471824532617,
"learning_rate": 3.475177304964539e-07,
"loss": 0.1676,
"step": 49
},
{
"epoch": 0.05333333333333334,
"grad_norm": 6.6972614887244335,
"learning_rate": 3.546099290780142e-07,
"loss": 0.0954,
"step": 50
},
{
"epoch": 0.05333333333333334,
"eval_loss": 0.08882835507392883,
"eval_runtime": 9.0554,
"eval_samples_per_second": 11.043,
"eval_steps_per_second": 5.522,
"step": 50
},
{
"epoch": 0.0544,
"grad_norm": 4.889268413654233,
"learning_rate": 3.617021276595745e-07,
"loss": 0.111,
"step": 51
},
{
"epoch": 0.055466666666666664,
"grad_norm": 5.574322058931982,
"learning_rate": 3.687943262411347e-07,
"loss": 0.1313,
"step": 52
},
{
"epoch": 0.05653333333333333,
"grad_norm": 1.674771584469475,
"learning_rate": 3.75886524822695e-07,
"loss": 0.0604,
"step": 53
},
{
"epoch": 0.0576,
"grad_norm": 5.566372795256964,
"learning_rate": 3.829787234042553e-07,
"loss": 0.1418,
"step": 54
},
{
"epoch": 0.058666666666666666,
"grad_norm": 3.749599784286942,
"learning_rate": 3.900709219858156e-07,
"loss": 0.1704,
"step": 55
},
{
"epoch": 0.05973333333333333,
"grad_norm": 3.5747273894868847,
"learning_rate": 3.971631205673759e-07,
"loss": 0.079,
"step": 56
},
{
"epoch": 0.0608,
"grad_norm": 5.499639290770769,
"learning_rate": 4.0425531914893614e-07,
"loss": 0.0561,
"step": 57
},
{
"epoch": 0.06186666666666667,
"grad_norm": 5.886058851630259,
"learning_rate": 4.1134751773049644e-07,
"loss": 0.1697,
"step": 58
},
{
"epoch": 0.06293333333333333,
"grad_norm": 4.675421646825889,
"learning_rate": 4.184397163120567e-07,
"loss": 0.0879,
"step": 59
},
{
"epoch": 0.064,
"grad_norm": 2.9609033041262407,
"learning_rate": 4.25531914893617e-07,
"loss": 0.0599,
"step": 60
},
{
"epoch": 0.06506666666666666,
"grad_norm": 4.8304638212349165,
"learning_rate": 4.326241134751773e-07,
"loss": 0.0717,
"step": 61
},
{
"epoch": 0.06613333333333334,
"grad_norm": 6.6163194002583845,
"learning_rate": 4.397163120567376e-07,
"loss": 0.0819,
"step": 62
},
{
"epoch": 0.0672,
"grad_norm": 6.790998305599636,
"learning_rate": 4.4680851063829783e-07,
"loss": 0.1505,
"step": 63
},
{
"epoch": 0.06826666666666667,
"grad_norm": 2.650894150253927,
"learning_rate": 4.5390070921985813e-07,
"loss": 0.0607,
"step": 64
},
{
"epoch": 0.06933333333333333,
"grad_norm": 4.408808753479698,
"learning_rate": 4.6099290780141843e-07,
"loss": 0.065,
"step": 65
},
{
"epoch": 0.0704,
"grad_norm": 2.951479505537457,
"learning_rate": 4.6808510638297873e-07,
"loss": 0.0691,
"step": 66
},
{
"epoch": 0.07146666666666666,
"grad_norm": 2.2831307650993438,
"learning_rate": 4.75177304964539e-07,
"loss": 0.0597,
"step": 67
},
{
"epoch": 0.07253333333333334,
"grad_norm": 4.755633341091047,
"learning_rate": 4.822695035460992e-07,
"loss": 0.0864,
"step": 68
},
{
"epoch": 0.0736,
"grad_norm": 4.554930100975794,
"learning_rate": 4.893617021276595e-07,
"loss": 0.0763,
"step": 69
},
{
"epoch": 0.07466666666666667,
"grad_norm": 2.6442276802850855,
"learning_rate": 4.964539007092198e-07,
"loss": 0.0824,
"step": 70
},
{
"epoch": 0.07573333333333333,
"grad_norm": 2.5741437746448783,
"learning_rate": 5.0354609929078e-07,
"loss": 0.0579,
"step": 71
},
{
"epoch": 0.0768,
"grad_norm": 3.595530272135639,
"learning_rate": 5.106382978723403e-07,
"loss": 0.0643,
"step": 72
},
{
"epoch": 0.07786666666666667,
"grad_norm": 5.477870680617374,
"learning_rate": 5.177304964539006e-07,
"loss": 0.0869,
"step": 73
},
{
"epoch": 0.07893333333333333,
"grad_norm": 7.221540857358708,
"learning_rate": 5.248226950354609e-07,
"loss": 0.1179,
"step": 74
},
{
"epoch": 0.08,
"grad_norm": 3.113022269373061,
"learning_rate": 5.319148936170212e-07,
"loss": 0.079,
"step": 75
},
{
"epoch": 0.08106666666666666,
"grad_norm": 2.41642137337109,
"learning_rate": 5.390070921985815e-07,
"loss": 0.0647,
"step": 76
},
{
"epoch": 0.08213333333333334,
"grad_norm": 4.730547946277124,
"learning_rate": 5.460992907801418e-07,
"loss": 0.0656,
"step": 77
},
{
"epoch": 0.0832,
"grad_norm": 2.703988101964762,
"learning_rate": 5.531914893617021e-07,
"loss": 0.0707,
"step": 78
},
{
"epoch": 0.08426666666666667,
"grad_norm": 4.7268623347309235,
"learning_rate": 5.602836879432624e-07,
"loss": 0.1377,
"step": 79
},
{
"epoch": 0.08533333333333333,
"grad_norm": 1.2076954307731242,
"learning_rate": 5.673758865248227e-07,
"loss": 0.0274,
"step": 80
},
{
"epoch": 0.0864,
"grad_norm": 4.6689012165897825,
"learning_rate": 5.74468085106383e-07,
"loss": 0.0487,
"step": 81
},
{
"epoch": 0.08746666666666666,
"grad_norm": 2.770738253589274,
"learning_rate": 5.815602836879432e-07,
"loss": 0.0512,
"step": 82
},
{
"epoch": 0.08853333333333334,
"grad_norm": 3.6483172234190966,
"learning_rate": 5.886524822695035e-07,
"loss": 0.0995,
"step": 83
},
{
"epoch": 0.0896,
"grad_norm": 3.739966939654011,
"learning_rate": 5.957446808510638e-07,
"loss": 0.0934,
"step": 84
},
{
"epoch": 0.09066666666666667,
"grad_norm": 1.608577977472446,
"learning_rate": 6.028368794326241e-07,
"loss": 0.0385,
"step": 85
},
{
"epoch": 0.09173333333333333,
"grad_norm": 3.8617195954418406,
"learning_rate": 6.099290780141844e-07,
"loss": 0.0569,
"step": 86
},
{
"epoch": 0.0928,
"grad_norm": 2.081952515100534,
"learning_rate": 6.170212765957446e-07,
"loss": 0.0482,
"step": 87
},
{
"epoch": 0.09386666666666667,
"grad_norm": 2.388775033154843,
"learning_rate": 6.241134751773049e-07,
"loss": 0.0524,
"step": 88
},
{
"epoch": 0.09493333333333333,
"grad_norm": 3.007951500761127,
"learning_rate": 6.312056737588652e-07,
"loss": 0.0203,
"step": 89
},
{
"epoch": 0.096,
"grad_norm": 6.522690069132942,
"learning_rate": 6.382978723404255e-07,
"loss": 0.0809,
"step": 90
},
{
"epoch": 0.09706666666666666,
"grad_norm": 3.471639318133103,
"learning_rate": 6.453900709219858e-07,
"loss": 0.046,
"step": 91
},
{
"epoch": 0.09813333333333334,
"grad_norm": 3.5195736847771695,
"learning_rate": 6.524822695035461e-07,
"loss": 0.0408,
"step": 92
},
{
"epoch": 0.0992,
"grad_norm": 1.6266036572427804,
"learning_rate": 6.595744680851063e-07,
"loss": 0.0458,
"step": 93
},
{
"epoch": 0.10026666666666667,
"grad_norm": 2.913848756075948,
"learning_rate": 6.666666666666666e-07,
"loss": 0.0609,
"step": 94
},
{
"epoch": 0.10133333333333333,
"grad_norm": 3.639917136914541,
"learning_rate": 6.737588652482269e-07,
"loss": 0.0649,
"step": 95
},
{
"epoch": 0.1024,
"grad_norm": 2.731695042035598,
"learning_rate": 6.808510638297872e-07,
"loss": 0.033,
"step": 96
},
{
"epoch": 0.10346666666666667,
"grad_norm": 9.817120143278682,
"learning_rate": 6.879432624113475e-07,
"loss": 0.0736,
"step": 97
},
{
"epoch": 0.10453333333333334,
"grad_norm": 8.957707046031748,
"learning_rate": 6.950354609929078e-07,
"loss": 0.1436,
"step": 98
},
{
"epoch": 0.1056,
"grad_norm": 3.7249541410034217,
"learning_rate": 7.021276595744681e-07,
"loss": 0.1571,
"step": 99
},
{
"epoch": 0.10666666666666667,
"grad_norm": 2.1810107595999826,
"learning_rate": 7.092198581560284e-07,
"loss": 0.0234,
"step": 100
},
{
"epoch": 0.10666666666666667,
"eval_loss": 0.06481269001960754,
"eval_runtime": 8.2247,
"eval_samples_per_second": 12.158,
"eval_steps_per_second": 6.079,
"step": 100
},
{
"epoch": 0.10773333333333333,
"grad_norm": 1.1960831433119428,
"learning_rate": 7.163120567375887e-07,
"loss": 0.0091,
"step": 101
},
{
"epoch": 0.1088,
"grad_norm": 7.88812174005162,
"learning_rate": 7.23404255319149e-07,
"loss": 0.0639,
"step": 102
},
{
"epoch": 0.10986666666666667,
"grad_norm": 1.7897229106298904,
"learning_rate": 7.304964539007092e-07,
"loss": 0.0272,
"step": 103
},
{
"epoch": 0.11093333333333333,
"grad_norm": 2.740100759064914,
"learning_rate": 7.375886524822694e-07,
"loss": 0.044,
"step": 104
},
{
"epoch": 0.112,
"grad_norm": 5.0893894072651324,
"learning_rate": 7.446808510638297e-07,
"loss": 0.0409,
"step": 105
},
{
"epoch": 0.11306666666666666,
"grad_norm": 2.568188070153663,
"learning_rate": 7.5177304964539e-07,
"loss": 0.0485,
"step": 106
},
{
"epoch": 0.11413333333333334,
"grad_norm": 8.001505274552581,
"learning_rate": 7.588652482269503e-07,
"loss": 0.1164,
"step": 107
},
{
"epoch": 0.1152,
"grad_norm": 9.975541818451585,
"learning_rate": 7.659574468085106e-07,
"loss": 0.1097,
"step": 108
},
{
"epoch": 0.11626666666666667,
"grad_norm": 6.831232611992033,
"learning_rate": 7.730496453900709e-07,
"loss": 0.0999,
"step": 109
},
{
"epoch": 0.11733333333333333,
"grad_norm": 4.659876893891191,
"learning_rate": 7.801418439716312e-07,
"loss": 0.0495,
"step": 110
},
{
"epoch": 0.1184,
"grad_norm": 3.2805986727535767,
"learning_rate": 7.872340425531915e-07,
"loss": 0.0549,
"step": 111
},
{
"epoch": 0.11946666666666667,
"grad_norm": 2.9331360611303827,
"learning_rate": 7.943262411347518e-07,
"loss": 0.0259,
"step": 112
},
{
"epoch": 0.12053333333333334,
"grad_norm": 5.955971751835239,
"learning_rate": 8.014184397163121e-07,
"loss": 0.0543,
"step": 113
},
{
"epoch": 0.1216,
"grad_norm": 4.113357400085846,
"learning_rate": 8.085106382978723e-07,
"loss": 0.0886,
"step": 114
},
{
"epoch": 0.12266666666666666,
"grad_norm": 4.2115598224554915,
"learning_rate": 8.156028368794326e-07,
"loss": 0.0447,
"step": 115
},
{
"epoch": 0.12373333333333333,
"grad_norm": 5.438624632240716,
"learning_rate": 8.226950354609929e-07,
"loss": 0.0402,
"step": 116
},
{
"epoch": 0.1248,
"grad_norm": 4.86723071794748,
"learning_rate": 8.297872340425532e-07,
"loss": 0.0717,
"step": 117
},
{
"epoch": 0.12586666666666665,
"grad_norm": 2.467742405372819,
"learning_rate": 8.368794326241134e-07,
"loss": 0.0416,
"step": 118
},
{
"epoch": 0.12693333333333334,
"grad_norm": 7.610907063462189,
"learning_rate": 8.439716312056737e-07,
"loss": 0.0901,
"step": 119
},
{
"epoch": 0.128,
"grad_norm": 4.686021668274038,
"learning_rate": 8.51063829787234e-07,
"loss": 0.1223,
"step": 120
},
{
"epoch": 0.12906666666666666,
"grad_norm": 2.0727614732992907,
"learning_rate": 8.581560283687943e-07,
"loss": 0.0174,
"step": 121
},
{
"epoch": 0.13013333333333332,
"grad_norm": 5.32405840348475,
"learning_rate": 8.652482269503546e-07,
"loss": 0.0808,
"step": 122
},
{
"epoch": 0.1312,
"grad_norm": 2.426088323541015,
"learning_rate": 8.723404255319149e-07,
"loss": 0.0619,
"step": 123
},
{
"epoch": 0.13226666666666667,
"grad_norm": 3.233558168729233,
"learning_rate": 8.794326241134752e-07,
"loss": 0.0301,
"step": 124
},
{
"epoch": 0.13333333333333333,
"grad_norm": 4.0896756561304315,
"learning_rate": 8.865248226950354e-07,
"loss": 0.065,
"step": 125
},
{
"epoch": 0.1344,
"grad_norm": 1.6818444665396033,
"learning_rate": 8.936170212765957e-07,
"loss": 0.0333,
"step": 126
},
{
"epoch": 0.13546666666666668,
"grad_norm": 2.728458267778592,
"learning_rate": 9.00709219858156e-07,
"loss": 0.0363,
"step": 127
},
{
"epoch": 0.13653333333333334,
"grad_norm": 6.345498454995162,
"learning_rate": 9.078014184397163e-07,
"loss": 0.1187,
"step": 128
},
{
"epoch": 0.1376,
"grad_norm": 4.328408872797893,
"learning_rate": 9.148936170212766e-07,
"loss": 0.0419,
"step": 129
},
{
"epoch": 0.13866666666666666,
"grad_norm": 10.015435899692932,
"learning_rate": 9.219858156028369e-07,
"loss": 0.0964,
"step": 130
},
{
"epoch": 0.13973333333333332,
"grad_norm": 1.6723221742745367,
"learning_rate": 9.290780141843972e-07,
"loss": 0.035,
"step": 131
},
{
"epoch": 0.1408,
"grad_norm": 3.5841880533579973,
"learning_rate": 9.361702127659575e-07,
"loss": 0.0394,
"step": 132
},
{
"epoch": 0.14186666666666667,
"grad_norm": 4.261342222841079,
"learning_rate": 9.432624113475178e-07,
"loss": 0.0669,
"step": 133
},
{
"epoch": 0.14293333333333333,
"grad_norm": 6.098751164731887,
"learning_rate": 9.50354609929078e-07,
"loss": 0.1115,
"step": 134
},
{
"epoch": 0.144,
"grad_norm": 1.2897369793688551,
"learning_rate": 9.574468085106384e-07,
"loss": 0.0097,
"step": 135
},
{
"epoch": 0.14506666666666668,
"grad_norm": 4.544123029340591,
"learning_rate": 9.645390070921985e-07,
"loss": 0.0969,
"step": 136
},
{
"epoch": 0.14613333333333334,
"grad_norm": 1.5628401890628374,
"learning_rate": 9.716312056737588e-07,
"loss": 0.0403,
"step": 137
},
{
"epoch": 0.1472,
"grad_norm": 1.7549153917413034,
"learning_rate": 9.78723404255319e-07,
"loss": 0.0467,
"step": 138
},
{
"epoch": 0.14826666666666666,
"grad_norm": 2.320989852451606,
"learning_rate": 9.858156028368794e-07,
"loss": 0.0193,
"step": 139
},
{
"epoch": 0.14933333333333335,
"grad_norm": 2.346049286050555,
"learning_rate": 9.929078014184397e-07,
"loss": 0.0372,
"step": 140
},
{
"epoch": 0.1504,
"grad_norm": 1.5488644076712703,
"learning_rate": 1e-06,
"loss": 0.0221,
"step": 141
},
{
"epoch": 0.15146666666666667,
"grad_norm": 4.969297825110415,
"learning_rate": 1.00709219858156e-06,
"loss": 0.0628,
"step": 142
},
{
"epoch": 0.15253333333333333,
"grad_norm": 7.149276868869306,
"learning_rate": 1.0141843971631206e-06,
"loss": 0.1116,
"step": 143
},
{
"epoch": 0.1536,
"grad_norm": 0.2675005720455285,
"learning_rate": 1.0212765957446806e-06,
"loss": 0.0037,
"step": 144
},
{
"epoch": 0.15466666666666667,
"grad_norm": 5.3616860538847,
"learning_rate": 1.0283687943262412e-06,
"loss": 0.0766,
"step": 145
},
{
"epoch": 0.15573333333333333,
"grad_norm": 6.013894600480369,
"learning_rate": 1.0354609929078012e-06,
"loss": 0.0593,
"step": 146
},
{
"epoch": 0.1568,
"grad_norm": 1.4495595799620324,
"learning_rate": 1.0425531914893618e-06,
"loss": 0.012,
"step": 147
},
{
"epoch": 0.15786666666666666,
"grad_norm": 4.233815449703168,
"learning_rate": 1.0496453900709218e-06,
"loss": 0.0294,
"step": 148
},
{
"epoch": 0.15893333333333334,
"grad_norm": 2.451426369798809,
"learning_rate": 1.0567375886524824e-06,
"loss": 0.0173,
"step": 149
},
{
"epoch": 0.16,
"grad_norm": 4.632800200399283,
"learning_rate": 1.0638297872340424e-06,
"loss": 0.0968,
"step": 150
},
{
"epoch": 0.16,
"eval_loss": 0.06421443819999695,
"eval_runtime": 8.2805,
"eval_samples_per_second": 12.077,
"eval_steps_per_second": 6.038,
"step": 150
},
{
"epoch": 0.16106666666666666,
"grad_norm": 2.856107152285347,
"learning_rate": 1.070921985815603e-06,
"loss": 0.0483,
"step": 151
},
{
"epoch": 0.16213333333333332,
"grad_norm": 0.08185139161633281,
"learning_rate": 1.078014184397163e-06,
"loss": 0.0008,
"step": 152
},
{
"epoch": 0.1632,
"grad_norm": 5.278258913229691,
"learning_rate": 1.0851063829787233e-06,
"loss": 0.1142,
"step": 153
},
{
"epoch": 0.16426666666666667,
"grad_norm": 7.501273081001087,
"learning_rate": 1.0921985815602836e-06,
"loss": 0.097,
"step": 154
},
{
"epoch": 0.16533333333333333,
"grad_norm": 2.004995420525806,
"learning_rate": 1.099290780141844e-06,
"loss": 0.0186,
"step": 155
},
{
"epoch": 0.1664,
"grad_norm": 4.220058789565755,
"learning_rate": 1.1063829787234042e-06,
"loss": 0.0803,
"step": 156
},
{
"epoch": 0.16746666666666668,
"grad_norm": 2.249509514015917,
"learning_rate": 1.1134751773049643e-06,
"loss": 0.0225,
"step": 157
},
{
"epoch": 0.16853333333333334,
"grad_norm": 3.8638590825276617,
"learning_rate": 1.1205673758865248e-06,
"loss": 0.0911,
"step": 158
},
{
"epoch": 0.1696,
"grad_norm": 1.412533711588782,
"learning_rate": 1.127659574468085e-06,
"loss": 0.0139,
"step": 159
},
{
"epoch": 0.17066666666666666,
"grad_norm": 2.82343360057798,
"learning_rate": 1.1347517730496454e-06,
"loss": 0.0851,
"step": 160
},
{
"epoch": 0.17173333333333332,
"grad_norm": 1.7495393166443622,
"learning_rate": 1.1418439716312055e-06,
"loss": 0.0308,
"step": 161
},
{
"epoch": 0.1728,
"grad_norm": 3.6302290317483297,
"learning_rate": 1.148936170212766e-06,
"loss": 0.0736,
"step": 162
},
{
"epoch": 0.17386666666666667,
"grad_norm": 4.896254754620509,
"learning_rate": 1.1560283687943261e-06,
"loss": 0.0554,
"step": 163
},
{
"epoch": 0.17493333333333333,
"grad_norm": 4.111273140347231,
"learning_rate": 1.1631205673758864e-06,
"loss": 0.0741,
"step": 164
},
{
"epoch": 0.176,
"grad_norm": 3.1818646079754496,
"learning_rate": 1.1702127659574467e-06,
"loss": 0.0934,
"step": 165
},
{
"epoch": 0.17706666666666668,
"grad_norm": 4.419859251526752,
"learning_rate": 1.177304964539007e-06,
"loss": 0.0778,
"step": 166
},
{
"epoch": 0.17813333333333334,
"grad_norm": 4.56044687337971,
"learning_rate": 1.1843971631205673e-06,
"loss": 0.0706,
"step": 167
},
{
"epoch": 0.1792,
"grad_norm": 1.2936041090561832,
"learning_rate": 1.1914893617021276e-06,
"loss": 0.012,
"step": 168
},
{
"epoch": 0.18026666666666666,
"grad_norm": 6.909726597822846,
"learning_rate": 1.198581560283688e-06,
"loss": 0.1474,
"step": 169
},
{
"epoch": 0.18133333333333335,
"grad_norm": 0.8563591336490418,
"learning_rate": 1.2056737588652482e-06,
"loss": 0.0135,
"step": 170
},
{
"epoch": 0.1824,
"grad_norm": 3.3164997831647023,
"learning_rate": 1.2127659574468085e-06,
"loss": 0.0786,
"step": 171
},
{
"epoch": 0.18346666666666667,
"grad_norm": 2.8146626483351707,
"learning_rate": 1.2198581560283688e-06,
"loss": 0.0521,
"step": 172
},
{
"epoch": 0.18453333333333333,
"grad_norm": 2.8830483742154582,
"learning_rate": 1.2269503546099291e-06,
"loss": 0.0286,
"step": 173
},
{
"epoch": 0.1856,
"grad_norm": 1.9820766581104607,
"learning_rate": 1.2340425531914892e-06,
"loss": 0.0337,
"step": 174
},
{
"epoch": 0.18666666666666668,
"grad_norm": 1.2778034782738863,
"learning_rate": 1.2411347517730495e-06,
"loss": 0.0308,
"step": 175
},
{
"epoch": 0.18773333333333334,
"grad_norm": 1.462555534851203,
"learning_rate": 1.2482269503546098e-06,
"loss": 0.0454,
"step": 176
},
{
"epoch": 0.1888,
"grad_norm": 4.565414819418628,
"learning_rate": 1.2553191489361701e-06,
"loss": 0.1228,
"step": 177
},
{
"epoch": 0.18986666666666666,
"grad_norm": 2.3313756348264234,
"learning_rate": 1.2624113475177304e-06,
"loss": 0.0318,
"step": 178
},
{
"epoch": 0.19093333333333334,
"grad_norm": 3.7670309246458347,
"learning_rate": 1.2695035460992907e-06,
"loss": 0.0699,
"step": 179
},
{
"epoch": 0.192,
"grad_norm": 1.7487010839053967,
"learning_rate": 1.276595744680851e-06,
"loss": 0.0486,
"step": 180
},
{
"epoch": 0.19306666666666666,
"grad_norm": 1.1340373154975194,
"learning_rate": 1.2836879432624113e-06,
"loss": 0.0177,
"step": 181
},
{
"epoch": 0.19413333333333332,
"grad_norm": 1.6584782594569225,
"learning_rate": 1.2907801418439716e-06,
"loss": 0.0208,
"step": 182
},
{
"epoch": 0.1952,
"grad_norm": 1.134470635269048,
"learning_rate": 1.297872340425532e-06,
"loss": 0.0161,
"step": 183
},
{
"epoch": 0.19626666666666667,
"grad_norm": 1.5565427530107756,
"learning_rate": 1.3049645390070922e-06,
"loss": 0.0264,
"step": 184
},
{
"epoch": 0.19733333333333333,
"grad_norm": 3.349937714357119,
"learning_rate": 1.3120567375886525e-06,
"loss": 0.0426,
"step": 185
},
{
"epoch": 0.1984,
"grad_norm": 3.437101265121438,
"learning_rate": 1.3191489361702126e-06,
"loss": 0.0512,
"step": 186
},
{
"epoch": 0.19946666666666665,
"grad_norm": 1.5534578823823257,
"learning_rate": 1.3262411347517731e-06,
"loss": 0.0512,
"step": 187
},
{
"epoch": 0.20053333333333334,
"grad_norm": 3.577731738050452,
"learning_rate": 1.3333333333333332e-06,
"loss": 0.0509,
"step": 188
},
{
"epoch": 0.2016,
"grad_norm": 0.8955687373362503,
"learning_rate": 1.3404255319148935e-06,
"loss": 0.0148,
"step": 189
},
{
"epoch": 0.20266666666666666,
"grad_norm": 2.2424497514910415,
"learning_rate": 1.3475177304964538e-06,
"loss": 0.0458,
"step": 190
},
{
"epoch": 0.20373333333333332,
"grad_norm": 3.0547659131465204,
"learning_rate": 1.354609929078014e-06,
"loss": 0.0414,
"step": 191
},
{
"epoch": 0.2048,
"grad_norm": 2.7613386920774126,
"learning_rate": 1.3617021276595744e-06,
"loss": 0.0254,
"step": 192
},
{
"epoch": 0.20586666666666667,
"grad_norm": 1.8247270325842186,
"learning_rate": 1.3687943262411347e-06,
"loss": 0.0219,
"step": 193
},
{
"epoch": 0.20693333333333333,
"grad_norm": 0.9745378819375361,
"learning_rate": 1.375886524822695e-06,
"loss": 0.006,
"step": 194
},
{
"epoch": 0.208,
"grad_norm": 2.2394688913221863,
"learning_rate": 1.3829787234042553e-06,
"loss": 0.0103,
"step": 195
},
{
"epoch": 0.20906666666666668,
"grad_norm": 2.745981240625009,
"learning_rate": 1.3900709219858156e-06,
"loss": 0.0324,
"step": 196
},
{
"epoch": 0.21013333333333334,
"grad_norm": 1.819255867549425,
"learning_rate": 1.3971631205673757e-06,
"loss": 0.0499,
"step": 197
},
{
"epoch": 0.2112,
"grad_norm": 2.244330878993336,
"learning_rate": 1.4042553191489362e-06,
"loss": 0.0525,
"step": 198
},
{
"epoch": 0.21226666666666666,
"grad_norm": 2.4420486660479517,
"learning_rate": 1.4113475177304963e-06,
"loss": 0.0456,
"step": 199
},
{
"epoch": 0.21333333333333335,
"grad_norm": 3.0961362752080106,
"learning_rate": 1.4184397163120568e-06,
"loss": 0.0819,
"step": 200
},
{
"epoch": 0.21333333333333335,
"eval_loss": 0.04034098610281944,
"eval_runtime": 8.5631,
"eval_samples_per_second": 11.678,
"eval_steps_per_second": 5.839,
"step": 200
},
{
"epoch": 0.2144,
"grad_norm": 0.44759408047365645,
"learning_rate": 1.4255319148936169e-06,
"loss": 0.0054,
"step": 201
},
{
"epoch": 0.21546666666666667,
"grad_norm": 0.42272894381608905,
"learning_rate": 1.4326241134751774e-06,
"loss": 0.0058,
"step": 202
},
{
"epoch": 0.21653333333333333,
"grad_norm": 0.3201232486606026,
"learning_rate": 1.4397163120567375e-06,
"loss": 0.0027,
"step": 203
},
{
"epoch": 0.2176,
"grad_norm": 1.8690764660164247,
"learning_rate": 1.446808510638298e-06,
"loss": 0.0656,
"step": 204
},
{
"epoch": 0.21866666666666668,
"grad_norm": 3.2454931850225903,
"learning_rate": 1.453900709219858e-06,
"loss": 0.0371,
"step": 205
},
{
"epoch": 0.21973333333333334,
"grad_norm": 1.3719630571760064,
"learning_rate": 1.4609929078014184e-06,
"loss": 0.0195,
"step": 206
},
{
"epoch": 0.2208,
"grad_norm": 4.690223152603984,
"learning_rate": 1.4680851063829787e-06,
"loss": 0.1838,
"step": 207
},
{
"epoch": 0.22186666666666666,
"grad_norm": 0.7280526453294364,
"learning_rate": 1.4751773049645388e-06,
"loss": 0.0113,
"step": 208
},
{
"epoch": 0.22293333333333334,
"grad_norm": 2.1942258546982,
"learning_rate": 1.4822695035460993e-06,
"loss": 0.0375,
"step": 209
},
{
"epoch": 0.224,
"grad_norm": 2.2700526093435385,
"learning_rate": 1.4893617021276594e-06,
"loss": 0.0225,
"step": 210
},
{
"epoch": 0.22506666666666666,
"grad_norm": 3.4887713183278706,
"learning_rate": 1.4964539007092199e-06,
"loss": 0.0354,
"step": 211
},
{
"epoch": 0.22613333333333333,
"grad_norm": 1.3287581441040275,
"learning_rate": 1.50354609929078e-06,
"loss": 0.0478,
"step": 212
},
{
"epoch": 0.2272,
"grad_norm": 0.706172015872483,
"learning_rate": 1.5106382978723405e-06,
"loss": 0.0071,
"step": 213
},
{
"epoch": 0.22826666666666667,
"grad_norm": 3.3176110506984555,
"learning_rate": 1.5177304964539006e-06,
"loss": 0.0872,
"step": 214
},
{
"epoch": 0.22933333333333333,
"grad_norm": 1.2584019241467503,
"learning_rate": 1.524822695035461e-06,
"loss": 0.0141,
"step": 215
},
{
"epoch": 0.2304,
"grad_norm": 3.3428962741186514,
"learning_rate": 1.5319148936170212e-06,
"loss": 0.0469,
"step": 216
},
{
"epoch": 0.23146666666666665,
"grad_norm": 5.630841551653268,
"learning_rate": 1.5390070921985815e-06,
"loss": 0.1787,
"step": 217
},
{
"epoch": 0.23253333333333334,
"grad_norm": 3.1064693364930704,
"learning_rate": 1.5460992907801418e-06,
"loss": 0.0461,
"step": 218
},
{
"epoch": 0.2336,
"grad_norm": 6.955897478479723,
"learning_rate": 1.5531914893617019e-06,
"loss": 0.1266,
"step": 219
},
{
"epoch": 0.23466666666666666,
"grad_norm": 6.6141804145859675,
"learning_rate": 1.5602836879432624e-06,
"loss": 0.1013,
"step": 220
},
{
"epoch": 0.23573333333333332,
"grad_norm": 1.5187752417644704,
"learning_rate": 1.5673758865248225e-06,
"loss": 0.0219,
"step": 221
},
{
"epoch": 0.2368,
"grad_norm": 0.7602007659688867,
"learning_rate": 1.574468085106383e-06,
"loss": 0.0163,
"step": 222
},
{
"epoch": 0.23786666666666667,
"grad_norm": 1.2922825373649611,
"learning_rate": 1.581560283687943e-06,
"loss": 0.0126,
"step": 223
},
{
"epoch": 0.23893333333333333,
"grad_norm": 1.564285880714171,
"learning_rate": 1.5886524822695036e-06,
"loss": 0.0274,
"step": 224
},
{
"epoch": 0.24,
"grad_norm": 1.8256861393160675,
"learning_rate": 1.5957446808510637e-06,
"loss": 0.0801,
"step": 225
},
{
"epoch": 0.24106666666666668,
"grad_norm": 5.626390458824275,
"learning_rate": 1.6028368794326242e-06,
"loss": 0.1175,
"step": 226
},
{
"epoch": 0.24213333333333334,
"grad_norm": 0.3639992497542339,
"learning_rate": 1.6099290780141843e-06,
"loss": 0.0042,
"step": 227
},
{
"epoch": 0.2432,
"grad_norm": 0.9623642386925754,
"learning_rate": 1.6170212765957446e-06,
"loss": 0.0303,
"step": 228
},
{
"epoch": 0.24426666666666666,
"grad_norm": 4.786039455247629,
"learning_rate": 1.6241134751773049e-06,
"loss": 0.1451,
"step": 229
},
{
"epoch": 0.24533333333333332,
"grad_norm": 1.7940933903892,
"learning_rate": 1.6312056737588652e-06,
"loss": 0.0242,
"step": 230
},
{
"epoch": 0.2464,
"grad_norm": 1.1872990094484728,
"learning_rate": 1.6382978723404255e-06,
"loss": 0.0142,
"step": 231
},
{
"epoch": 0.24746666666666667,
"grad_norm": 3.6465271365421694,
"learning_rate": 1.6453900709219858e-06,
"loss": 0.1327,
"step": 232
},
{
"epoch": 0.24853333333333333,
"grad_norm": 3.4606007899724736,
"learning_rate": 1.652482269503546e-06,
"loss": 0.0752,
"step": 233
},
{
"epoch": 0.2496,
"grad_norm": 1.7829502544111206,
"learning_rate": 1.6595744680851064e-06,
"loss": 0.0551,
"step": 234
},
{
"epoch": 0.25066666666666665,
"grad_norm": 0.4291699362420302,
"learning_rate": 1.6666666666666667e-06,
"loss": 0.0119,
"step": 235
},
{
"epoch": 0.2517333333333333,
"grad_norm": 1.536096095556399,
"learning_rate": 1.6737588652482267e-06,
"loss": 0.0207,
"step": 236
},
{
"epoch": 0.2528,
"grad_norm": 1.4834886851834983,
"learning_rate": 1.6808510638297873e-06,
"loss": 0.024,
"step": 237
},
{
"epoch": 0.2538666666666667,
"grad_norm": 0.5910974696060286,
"learning_rate": 1.6879432624113473e-06,
"loss": 0.0103,
"step": 238
},
{
"epoch": 0.25493333333333335,
"grad_norm": 1.0554413983828212,
"learning_rate": 1.6950354609929076e-06,
"loss": 0.0132,
"step": 239
},
{
"epoch": 0.256,
"grad_norm": 1.724598949331031,
"learning_rate": 1.702127659574468e-06,
"loss": 0.0934,
"step": 240
},
{
"epoch": 0.25706666666666667,
"grad_norm": 1.7576821288165476,
"learning_rate": 1.7092198581560282e-06,
"loss": 0.0391,
"step": 241
},
{
"epoch": 0.2581333333333333,
"grad_norm": 1.035363958245626,
"learning_rate": 1.7163120567375885e-06,
"loss": 0.0141,
"step": 242
},
{
"epoch": 0.2592,
"grad_norm": 0.2419170209059454,
"learning_rate": 1.7234042553191488e-06,
"loss": 0.0029,
"step": 243
},
{
"epoch": 0.26026666666666665,
"grad_norm": 1.458905410047098,
"learning_rate": 1.7304964539007091e-06,
"loss": 0.0254,
"step": 244
},
{
"epoch": 0.2613333333333333,
"grad_norm": 0.2573364956038529,
"learning_rate": 1.7375886524822694e-06,
"loss": 0.0041,
"step": 245
},
{
"epoch": 0.2624,
"grad_norm": 2.339489703214308,
"learning_rate": 1.7446808510638297e-06,
"loss": 0.0455,
"step": 246
},
{
"epoch": 0.2634666666666667,
"grad_norm": 2.252526531061772,
"learning_rate": 1.75177304964539e-06,
"loss": 0.0456,
"step": 247
},
{
"epoch": 0.26453333333333334,
"grad_norm": 0.4833353487456936,
"learning_rate": 1.7588652482269503e-06,
"loss": 0.0049,
"step": 248
},
{
"epoch": 0.2656,
"grad_norm": 1.537116413342212,
"learning_rate": 1.7659574468085106e-06,
"loss": 0.0164,
"step": 249
},
{
"epoch": 0.26666666666666666,
"grad_norm": 3.76154579366514,
"learning_rate": 1.7730496453900707e-06,
"loss": 0.1398,
"step": 250
},
{
"epoch": 0.26666666666666666,
"eval_loss": 0.06543993949890137,
"eval_runtime": 9.6094,
"eval_samples_per_second": 10.406,
"eval_steps_per_second": 5.203,
"step": 250
},
{
"epoch": 0.2677333333333333,
"grad_norm": 4.958054469705704,
"learning_rate": 1.780141843971631e-06,
"loss": 0.1019,
"step": 251
},
{
"epoch": 0.2688,
"grad_norm": 1.6609198738553164,
"learning_rate": 1.7872340425531913e-06,
"loss": 0.0499,
"step": 252
},
{
"epoch": 0.26986666666666664,
"grad_norm": 1.6026871476203264,
"learning_rate": 1.7943262411347516e-06,
"loss": 0.0324,
"step": 253
},
{
"epoch": 0.27093333333333336,
"grad_norm": 0.814342996956287,
"learning_rate": 1.801418439716312e-06,
"loss": 0.0158,
"step": 254
},
{
"epoch": 0.272,
"grad_norm": 0.21604099963633955,
"learning_rate": 1.8085106382978722e-06,
"loss": 0.0042,
"step": 255
},
{
"epoch": 0.2730666666666667,
"grad_norm": 0.6624516019158352,
"learning_rate": 1.8156028368794325e-06,
"loss": 0.0088,
"step": 256
},
{
"epoch": 0.27413333333333334,
"grad_norm": 1.694938724635794,
"learning_rate": 1.8226950354609928e-06,
"loss": 0.023,
"step": 257
},
{
"epoch": 0.2752,
"grad_norm": 0.4835610610426178,
"learning_rate": 1.8297872340425531e-06,
"loss": 0.0064,
"step": 258
},
{
"epoch": 0.27626666666666666,
"grad_norm": 1.6087706175732222,
"learning_rate": 1.8368794326241134e-06,
"loss": 0.024,
"step": 259
},
{
"epoch": 0.2773333333333333,
"grad_norm": 1.174005945770529,
"learning_rate": 1.8439716312056737e-06,
"loss": 0.0416,
"step": 260
},
{
"epoch": 0.2784,
"grad_norm": 2.0036309118637416,
"learning_rate": 1.8510638297872338e-06,
"loss": 0.0148,
"step": 261
},
{
"epoch": 0.27946666666666664,
"grad_norm": 0.27542881905219085,
"learning_rate": 1.8581560283687943e-06,
"loss": 0.0037,
"step": 262
},
{
"epoch": 0.28053333333333336,
"grad_norm": 0.10627036820200016,
"learning_rate": 1.8652482269503544e-06,
"loss": 0.0016,
"step": 263
},
{
"epoch": 0.2816,
"grad_norm": 1.0016746248189468,
"learning_rate": 1.872340425531915e-06,
"loss": 0.0128,
"step": 264
},
{
"epoch": 0.2826666666666667,
"grad_norm": 0.982894777786423,
"learning_rate": 1.879432624113475e-06,
"loss": 0.0173,
"step": 265
},
{
"epoch": 0.28373333333333334,
"grad_norm": 2.235584985951457,
"learning_rate": 1.8865248226950355e-06,
"loss": 0.0273,
"step": 266
},
{
"epoch": 0.2848,
"grad_norm": 1.9321006724531127,
"learning_rate": 1.8936170212765956e-06,
"loss": 0.0575,
"step": 267
},
{
"epoch": 0.28586666666666666,
"grad_norm": 2.446015384106489,
"learning_rate": 1.900709219858156e-06,
"loss": 0.0695,
"step": 268
},
{
"epoch": 0.2869333333333333,
"grad_norm": 1.0664504757410167,
"learning_rate": 1.907801418439716e-06,
"loss": 0.0103,
"step": 269
},
{
"epoch": 0.288,
"grad_norm": 0.6720506342995207,
"learning_rate": 1.9148936170212767e-06,
"loss": 0.0052,
"step": 270
},
{
"epoch": 0.2890666666666667,
"grad_norm": 1.9536878981901187,
"learning_rate": 1.9219858156028366e-06,
"loss": 0.0357,
"step": 271
},
{
"epoch": 0.29013333333333335,
"grad_norm": 0.07505605660652574,
"learning_rate": 1.929078014184397e-06,
"loss": 0.0015,
"step": 272
},
{
"epoch": 0.2912,
"grad_norm": 0.22146530578795007,
"learning_rate": 1.936170212765957e-06,
"loss": 0.0018,
"step": 273
},
{
"epoch": 0.2922666666666667,
"grad_norm": 4.705908517665693,
"learning_rate": 1.9432624113475175e-06,
"loss": 0.1119,
"step": 274
},
{
"epoch": 0.29333333333333333,
"grad_norm": 4.923995204775593,
"learning_rate": 1.950354609929078e-06,
"loss": 0.136,
"step": 275
},
{
"epoch": 0.2944,
"grad_norm": 3.900812289245892,
"learning_rate": 1.957446808510638e-06,
"loss": 0.1045,
"step": 276
},
{
"epoch": 0.29546666666666666,
"grad_norm": 1.785174875347817,
"learning_rate": 1.9645390070921984e-06,
"loss": 0.0623,
"step": 277
},
{
"epoch": 0.2965333333333333,
"grad_norm": 1.2213002904218435,
"learning_rate": 1.9716312056737587e-06,
"loss": 0.0377,
"step": 278
},
{
"epoch": 0.2976,
"grad_norm": 0.2923059693481855,
"learning_rate": 1.978723404255319e-06,
"loss": 0.003,
"step": 279
},
{
"epoch": 0.2986666666666667,
"grad_norm": 3.1731457409440336,
"learning_rate": 1.9858156028368793e-06,
"loss": 0.088,
"step": 280
},
{
"epoch": 0.29973333333333335,
"grad_norm": 2.7525901886363915,
"learning_rate": 1.9929078014184396e-06,
"loss": 0.0582,
"step": 281
},
{
"epoch": 0.3008,
"grad_norm": 1.8230031551732802,
"learning_rate": 2e-06,
"loss": 0.0199,
"step": 282
},
{
"epoch": 0.30186666666666667,
"grad_norm": 1.3865631804560594,
"learning_rate": 1.999999228435859e-06,
"loss": 0.031,
"step": 283
},
{
"epoch": 0.30293333333333333,
"grad_norm": 4.165055076177555,
"learning_rate": 1.999996913744627e-06,
"loss": 0.0733,
"step": 284
},
{
"epoch": 0.304,
"grad_norm": 1.9754801877369055,
"learning_rate": 1.9999930559298764e-06,
"loss": 0.0301,
"step": 285
},
{
"epoch": 0.30506666666666665,
"grad_norm": 0.7925560455697181,
"learning_rate": 1.999987654997559e-06,
"loss": 0.0283,
"step": 286
},
{
"epoch": 0.3061333333333333,
"grad_norm": 0.5194694957615784,
"learning_rate": 1.9999807109560105e-06,
"loss": 0.0091,
"step": 287
},
{
"epoch": 0.3072,
"grad_norm": 3.345098829097061,
"learning_rate": 1.9999722238159456e-06,
"loss": 0.0856,
"step": 288
},
{
"epoch": 0.3082666666666667,
"grad_norm": 0.3547716864050005,
"learning_rate": 1.9999621935904615e-06,
"loss": 0.0069,
"step": 289
},
{
"epoch": 0.30933333333333335,
"grad_norm": 4.251478368782789,
"learning_rate": 1.9999506202950355e-06,
"loss": 0.0626,
"step": 290
},
{
"epoch": 0.3104,
"grad_norm": 0.854574365002302,
"learning_rate": 1.9999375039475274e-06,
"loss": 0.0289,
"step": 291
},
{
"epoch": 0.31146666666666667,
"grad_norm": 1.8930472157492912,
"learning_rate": 1.999922844568177e-06,
"loss": 0.0288,
"step": 292
},
{
"epoch": 0.31253333333333333,
"grad_norm": 0.6582644815371133,
"learning_rate": 1.9999066421796056e-06,
"loss": 0.0112,
"step": 293
},
{
"epoch": 0.3136,
"grad_norm": 0.41981956976674956,
"learning_rate": 1.999888896806816e-06,
"loss": 0.0101,
"step": 294
},
{
"epoch": 0.31466666666666665,
"grad_norm": 0.9804299420337502,
"learning_rate": 1.999869608477191e-06,
"loss": 0.0166,
"step": 295
},
{
"epoch": 0.3157333333333333,
"grad_norm": 2.238920439094032,
"learning_rate": 1.999848777220495e-06,
"loss": 0.1084,
"step": 296
},
{
"epoch": 0.3168,
"grad_norm": 2.546894901254014,
"learning_rate": 1.999826403068874e-06,
"loss": 0.0631,
"step": 297
},
{
"epoch": 0.3178666666666667,
"grad_norm": 3.102610204113791,
"learning_rate": 1.999802486056853e-06,
"loss": 0.1098,
"step": 298
},
{
"epoch": 0.31893333333333335,
"grad_norm": 0.6112172433808437,
"learning_rate": 1.9997770262213405e-06,
"loss": 0.0077,
"step": 299
},
{
"epoch": 0.32,
"grad_norm": 0.6002667369893008,
"learning_rate": 1.999750023601623e-06,
"loss": 0.0054,
"step": 300
},
{
"epoch": 0.32,
"eval_loss": 0.04478977993130684,
"eval_runtime": 8.2194,
"eval_samples_per_second": 12.166,
"eval_steps_per_second": 6.083,
"step": 300
},
{
"epoch": 0.32106666666666667,
"grad_norm": 0.6384928870379522,
"learning_rate": 1.9997214782393697e-06,
"loss": 0.0064,
"step": 301
},
{
"epoch": 0.3221333333333333,
"grad_norm": 4.121954582585253,
"learning_rate": 1.9996913901786295e-06,
"loss": 0.0282,
"step": 302
},
{
"epoch": 0.3232,
"grad_norm": 2.170473758627147,
"learning_rate": 1.9996597594658325e-06,
"loss": 0.0371,
"step": 303
},
{
"epoch": 0.32426666666666665,
"grad_norm": 3.277640099123368,
"learning_rate": 1.9996265861497884e-06,
"loss": 0.0826,
"step": 304
},
{
"epoch": 0.3253333333333333,
"grad_norm": 1.223126645672684,
"learning_rate": 1.9995918702816883e-06,
"loss": 0.0029,
"step": 305
},
{
"epoch": 0.3264,
"grad_norm": 3.2655619174791357,
"learning_rate": 1.999555611915103e-06,
"loss": 0.0666,
"step": 306
},
{
"epoch": 0.3274666666666667,
"grad_norm": 3.4156903549207605,
"learning_rate": 1.9995178111059837e-06,
"loss": 0.104,
"step": 307
},
{
"epoch": 0.32853333333333334,
"grad_norm": 2.658454045776883,
"learning_rate": 1.9994784679126623e-06,
"loss": 0.0456,
"step": 308
},
{
"epoch": 0.3296,
"grad_norm": 0.19585429109140384,
"learning_rate": 1.99943758239585e-06,
"loss": 0.0016,
"step": 309
},
{
"epoch": 0.33066666666666666,
"grad_norm": 1.679735095539774,
"learning_rate": 1.999395154618639e-06,
"loss": 0.0609,
"step": 310
},
{
"epoch": 0.3317333333333333,
"grad_norm": 2.1430824974971925,
"learning_rate": 1.9993511846465e-06,
"loss": 0.078,
"step": 311
},
{
"epoch": 0.3328,
"grad_norm": 2.696363876494053,
"learning_rate": 1.9993056725472844e-06,
"loss": 0.0453,
"step": 312
},
{
"epoch": 0.33386666666666664,
"grad_norm": 0.09424756079491534,
"learning_rate": 1.9992586183912243e-06,
"loss": 0.0012,
"step": 313
},
{
"epoch": 0.33493333333333336,
"grad_norm": 0.3035530404585692,
"learning_rate": 1.999210022250929e-06,
"loss": 0.0032,
"step": 314
},
{
"epoch": 0.336,
"grad_norm": 1.578602700124216,
"learning_rate": 1.999159884201389e-06,
"loss": 0.0679,
"step": 315
},
{
"epoch": 0.3370666666666667,
"grad_norm": 2.017282984994957,
"learning_rate": 1.9991082043199736e-06,
"loss": 0.0559,
"step": 316
},
{
"epoch": 0.33813333333333334,
"grad_norm": 0.2549750442731066,
"learning_rate": 1.999054982686432e-06,
"loss": 0.004,
"step": 317
},
{
"epoch": 0.3392,
"grad_norm": 0.4719506296789255,
"learning_rate": 1.9990002193828922e-06,
"loss": 0.0067,
"step": 318
},
{
"epoch": 0.34026666666666666,
"grad_norm": 1.2214945707365839,
"learning_rate": 1.99894391449386e-06,
"loss": 0.023,
"step": 319
},
{
"epoch": 0.3413333333333333,
"grad_norm": 0.7302116345834218,
"learning_rate": 1.9988860681062216e-06,
"loss": 0.0098,
"step": 320
},
{
"epoch": 0.3424,
"grad_norm": 0.13466607550767162,
"learning_rate": 1.9988266803092416e-06,
"loss": 0.0031,
"step": 321
},
{
"epoch": 0.34346666666666664,
"grad_norm": 1.0469671642701126,
"learning_rate": 1.9987657511945624e-06,
"loss": 0.0165,
"step": 322
},
{
"epoch": 0.34453333333333336,
"grad_norm": 2.2440378487977406,
"learning_rate": 1.998703280856206e-06,
"loss": 0.0466,
"step": 323
},
{
"epoch": 0.3456,
"grad_norm": 2.1387794205897053,
"learning_rate": 1.9986392693905722e-06,
"loss": 0.0777,
"step": 324
},
{
"epoch": 0.3466666666666667,
"grad_norm": 1.2931875478250596,
"learning_rate": 1.9985737168964384e-06,
"loss": 0.0327,
"step": 325
},
{
"epoch": 0.34773333333333334,
"grad_norm": 0.7580208065267147,
"learning_rate": 1.9985066234749606e-06,
"loss": 0.0177,
"step": 326
},
{
"epoch": 0.3488,
"grad_norm": 0.0888189129076451,
"learning_rate": 1.998437989229673e-06,
"loss": 0.002,
"step": 327
},
{
"epoch": 0.34986666666666666,
"grad_norm": 1.2397194295081706,
"learning_rate": 1.9983678142664864e-06,
"loss": 0.0378,
"step": 328
},
{
"epoch": 0.3509333333333333,
"grad_norm": 1.202705168617386,
"learning_rate": 1.9982960986936908e-06,
"loss": 0.0895,
"step": 329
},
{
"epoch": 0.352,
"grad_norm": 0.14800273449305595,
"learning_rate": 1.9982228426219516e-06,
"loss": 0.0023,
"step": 330
},
{
"epoch": 0.35306666666666664,
"grad_norm": 1.0116996136565781,
"learning_rate": 1.9981480461643125e-06,
"loss": 0.0202,
"step": 331
},
{
"epoch": 0.35413333333333336,
"grad_norm": 1.1189127410717563,
"learning_rate": 1.9980717094361938e-06,
"loss": 0.0132,
"step": 332
},
{
"epoch": 0.3552,
"grad_norm": 2.750035640024511,
"learning_rate": 1.9979938325553934e-06,
"loss": 0.0557,
"step": 333
},
{
"epoch": 0.3562666666666667,
"grad_norm": 0.5674290503062867,
"learning_rate": 1.997914415642085e-06,
"loss": 0.016,
"step": 334
},
{
"epoch": 0.35733333333333334,
"grad_norm": 1.9870605095700231,
"learning_rate": 1.9978334588188193e-06,
"loss": 0.0617,
"step": 335
},
{
"epoch": 0.3584,
"grad_norm": 1.7840308480554663,
"learning_rate": 1.997750962210523e-06,
"loss": 0.0266,
"step": 336
},
{
"epoch": 0.35946666666666666,
"grad_norm": 1.2398964245336912,
"learning_rate": 1.997666925944499e-06,
"loss": 0.0165,
"step": 337
},
{
"epoch": 0.3605333333333333,
"grad_norm": 0.6167879821088218,
"learning_rate": 1.997581350150426e-06,
"loss": 0.0078,
"step": 338
},
{
"epoch": 0.3616,
"grad_norm": 1.3178080807296553,
"learning_rate": 1.997494234960358e-06,
"loss": 0.0221,
"step": 339
},
{
"epoch": 0.3626666666666667,
"grad_norm": 0.2936607290692452,
"learning_rate": 1.997405580508725e-06,
"loss": 0.0033,
"step": 340
},
{
"epoch": 0.36373333333333335,
"grad_norm": 2.463257834805897,
"learning_rate": 1.997315386932333e-06,
"loss": 0.0674,
"step": 341
},
{
"epoch": 0.3648,
"grad_norm": 0.6291180686569299,
"learning_rate": 1.9972236543703615e-06,
"loss": 0.0068,
"step": 342
},
{
"epoch": 0.3658666666666667,
"grad_norm": 1.9765666525777088,
"learning_rate": 1.997130382964366e-06,
"loss": 0.0353,
"step": 343
},
{
"epoch": 0.36693333333333333,
"grad_norm": 1.140272021599622,
"learning_rate": 1.997035572858276e-06,
"loss": 0.0095,
"step": 344
},
{
"epoch": 0.368,
"grad_norm": 0.7125188701024316,
"learning_rate": 1.9969392241983957e-06,
"loss": 0.0088,
"step": 345
},
{
"epoch": 0.36906666666666665,
"grad_norm": 0.4454568829686679,
"learning_rate": 1.9968413371334035e-06,
"loss": 0.0031,
"step": 346
},
{
"epoch": 0.3701333333333333,
"grad_norm": 2.8279184660148524,
"learning_rate": 1.9967419118143514e-06,
"loss": 0.0873,
"step": 347
},
{
"epoch": 0.3712,
"grad_norm": 0.31255079659825663,
"learning_rate": 1.996640948394666e-06,
"loss": 0.0051,
"step": 348
},
{
"epoch": 0.3722666666666667,
"grad_norm": 1.2215171116516321,
"learning_rate": 1.9965384470301464e-06,
"loss": 0.0265,
"step": 349
},
{
"epoch": 0.37333333333333335,
"grad_norm": 1.7159754593735572,
"learning_rate": 1.9964344078789653e-06,
"loss": 0.1093,
"step": 350
},
{
"epoch": 0.37333333333333335,
"eval_loss": 0.1534903347492218,
"eval_runtime": 8.3094,
"eval_samples_per_second": 12.035,
"eval_steps_per_second": 6.017,
"step": 350
},
{
"epoch": 0.3744,
"grad_norm": 2.0559468510888554,
"learning_rate": 1.996328831101669e-06,
"loss": 0.0241,
"step": 351
},
{
"epoch": 0.37546666666666667,
"grad_norm": 0.5971180546425459,
"learning_rate": 1.9962217168611755e-06,
"loss": 0.0049,
"step": 352
},
{
"epoch": 0.37653333333333333,
"grad_norm": 4.688206875294817,
"learning_rate": 1.996113065322776e-06,
"loss": 0.1433,
"step": 353
},
{
"epoch": 0.3776,
"grad_norm": 0.2870089749889556,
"learning_rate": 1.9960028766541334e-06,
"loss": 0.0034,
"step": 354
},
{
"epoch": 0.37866666666666665,
"grad_norm": 1.6375079216434894,
"learning_rate": 1.9958911510252835e-06,
"loss": 0.0232,
"step": 355
},
{
"epoch": 0.3797333333333333,
"grad_norm": 4.593636878430014,
"learning_rate": 1.995777888608633e-06,
"loss": 0.093,
"step": 356
},
{
"epoch": 0.3808,
"grad_norm": 2.8184656478976904,
"learning_rate": 1.99566308957896e-06,
"loss": 0.0779,
"step": 357
},
{
"epoch": 0.3818666666666667,
"grad_norm": 0.2485439291403493,
"learning_rate": 1.995546754113415e-06,
"loss": 0.003,
"step": 358
},
{
"epoch": 0.38293333333333335,
"grad_norm": 2.2437059110982585,
"learning_rate": 1.9954288823915176e-06,
"loss": 0.0414,
"step": 359
},
{
"epoch": 0.384,
"grad_norm": 2.001140187003796,
"learning_rate": 1.9953094745951597e-06,
"loss": 0.035,
"step": 360
},
{
"epoch": 0.38506666666666667,
"grad_norm": 1.4093011606412311,
"learning_rate": 1.9951885309086026e-06,
"loss": 0.0184,
"step": 361
},
{
"epoch": 0.38613333333333333,
"grad_norm": 2.1138012491304408,
"learning_rate": 1.9950660515184777e-06,
"loss": 0.0315,
"step": 362
},
{
"epoch": 0.3872,
"grad_norm": 0.11796660855631759,
"learning_rate": 1.994942036613787e-06,
"loss": 0.0018,
"step": 363
},
{
"epoch": 0.38826666666666665,
"grad_norm": 0.7892341561868786,
"learning_rate": 1.9948164863859004e-06,
"loss": 0.0146,
"step": 364
},
{
"epoch": 0.3893333333333333,
"grad_norm": 0.6568964569346487,
"learning_rate": 1.994689401028559e-06,
"loss": 0.0131,
"step": 365
},
{
"epoch": 0.3904,
"grad_norm": 1.633661113619997,
"learning_rate": 1.9945607807378715e-06,
"loss": 0.0329,
"step": 366
},
{
"epoch": 0.3914666666666667,
"grad_norm": 1.126467308042084,
"learning_rate": 1.9944306257123157e-06,
"loss": 0.0446,
"step": 367
},
{
"epoch": 0.39253333333333335,
"grad_norm": 2.0843407882687908,
"learning_rate": 1.9942989361527366e-06,
"loss": 0.0428,
"step": 368
},
{
"epoch": 0.3936,
"grad_norm": 2.2219389663095814,
"learning_rate": 1.994165712262349e-06,
"loss": 0.0564,
"step": 369
},
{
"epoch": 0.39466666666666667,
"grad_norm": 2.7775942987619797,
"learning_rate": 1.9940309542467345e-06,
"loss": 0.0689,
"step": 370
},
{
"epoch": 0.3957333333333333,
"grad_norm": 1.8350062571764503,
"learning_rate": 1.993894662313841e-06,
"loss": 0.0694,
"step": 371
},
{
"epoch": 0.3968,
"grad_norm": 1.029665838458409,
"learning_rate": 1.993756836673986e-06,
"loss": 0.0173,
"step": 372
},
{
"epoch": 0.39786666666666665,
"grad_norm": 0.571214571115293,
"learning_rate": 1.9936174775398506e-06,
"loss": 0.0053,
"step": 373
},
{
"epoch": 0.3989333333333333,
"grad_norm": 1.3213872708985888,
"learning_rate": 1.9934765851264846e-06,
"loss": 0.0695,
"step": 374
},
{
"epoch": 0.4,
"grad_norm": 0.23510781603507086,
"learning_rate": 1.993334159651303e-06,
"loss": 0.0054,
"step": 375
},
{
"epoch": 0.4010666666666667,
"grad_norm": 1.1060879217421968,
"learning_rate": 1.9931902013340865e-06,
"loss": 0.0189,
"step": 376
},
{
"epoch": 0.40213333333333334,
"grad_norm": 0.3710399547602498,
"learning_rate": 1.9930447103969815e-06,
"loss": 0.0046,
"step": 377
},
{
"epoch": 0.4032,
"grad_norm": 1.622717686078824,
"learning_rate": 1.992897687064499e-06,
"loss": 0.0247,
"step": 378
},
{
"epoch": 0.40426666666666666,
"grad_norm": 2.2476983489121847,
"learning_rate": 1.992749131563514e-06,
"loss": 0.0818,
"step": 379
},
{
"epoch": 0.4053333333333333,
"grad_norm": 1.315470500355049,
"learning_rate": 1.9925990441232684e-06,
"loss": 0.0322,
"step": 380
},
{
"epoch": 0.4064,
"grad_norm": 2.5737294966668522,
"learning_rate": 1.9924474249753655e-06,
"loss": 0.0836,
"step": 381
},
{
"epoch": 0.40746666666666664,
"grad_norm": 0.9394492979525191,
"learning_rate": 1.9922942743537724e-06,
"loss": 0.0297,
"step": 382
},
{
"epoch": 0.40853333333333336,
"grad_norm": 0.8069382855063404,
"learning_rate": 1.9921395924948214e-06,
"loss": 0.0166,
"step": 383
},
{
"epoch": 0.4096,
"grad_norm": 1.4306192080840419,
"learning_rate": 1.991983379637206e-06,
"loss": 0.0296,
"step": 384
},
{
"epoch": 0.4106666666666667,
"grad_norm": 1.3969683122099108,
"learning_rate": 1.991825636021982e-06,
"loss": 0.0203,
"step": 385
},
{
"epoch": 0.41173333333333334,
"grad_norm": 1.825285692623069,
"learning_rate": 1.991666361892569e-06,
"loss": 0.0872,
"step": 386
},
{
"epoch": 0.4128,
"grad_norm": 0.8975216401244392,
"learning_rate": 1.991505557494747e-06,
"loss": 0.0316,
"step": 387
},
{
"epoch": 0.41386666666666666,
"grad_norm": 1.921594655691583,
"learning_rate": 1.9913432230766574e-06,
"loss": 0.0398,
"step": 388
},
{
"epoch": 0.4149333333333333,
"grad_norm": 1.8453404863459837,
"learning_rate": 1.9911793588888043e-06,
"loss": 0.0538,
"step": 389
},
{
"epoch": 0.416,
"grad_norm": 1.0578785118600522,
"learning_rate": 1.9910139651840495e-06,
"loss": 0.0152,
"step": 390
},
{
"epoch": 0.41706666666666664,
"grad_norm": 0.1293043522954174,
"learning_rate": 1.9908470422176183e-06,
"loss": 0.0032,
"step": 391
},
{
"epoch": 0.41813333333333336,
"grad_norm": 0.8193852729764006,
"learning_rate": 1.990678590247093e-06,
"loss": 0.0252,
"step": 392
},
{
"epoch": 0.4192,
"grad_norm": 0.8114012251103345,
"learning_rate": 1.990508609532417e-06,
"loss": 0.0125,
"step": 393
},
{
"epoch": 0.4202666666666667,
"grad_norm": 2.818291734468121,
"learning_rate": 1.9903371003358928e-06,
"loss": 0.0189,
"step": 394
},
{
"epoch": 0.42133333333333334,
"grad_norm": 0.9204435003254485,
"learning_rate": 1.9901640629221803e-06,
"loss": 0.0329,
"step": 395
},
{
"epoch": 0.4224,
"grad_norm": 0.08712425359694305,
"learning_rate": 1.9899894975582992e-06,
"loss": 0.0011,
"step": 396
},
{
"epoch": 0.42346666666666666,
"grad_norm": 0.03241923575638935,
"learning_rate": 1.989813404513626e-06,
"loss": 0.0006,
"step": 397
},
{
"epoch": 0.4245333333333333,
"grad_norm": 1.6779979572184394,
"learning_rate": 1.9896357840598943e-06,
"loss": 0.0961,
"step": 398
},
{
"epoch": 0.4256,
"grad_norm": 0.050696178342396175,
"learning_rate": 1.9894566364711964e-06,
"loss": 0.001,
"step": 399
},
{
"epoch": 0.4266666666666667,
"grad_norm": 1.4891393117145435,
"learning_rate": 1.9892759620239787e-06,
"loss": 0.0906,
"step": 400
},
{
"epoch": 0.4266666666666667,
"eval_loss": 0.07928112149238586,
"eval_runtime": 8.2676,
"eval_samples_per_second": 12.095,
"eval_steps_per_second": 6.048,
"step": 400
},
{
"epoch": 0.42773333333333335,
"grad_norm": 0.2825199528851997,
"learning_rate": 1.989093760997046e-06,
"loss": 0.0034,
"step": 401
},
{
"epoch": 0.4288,
"grad_norm": 0.06701874009051513,
"learning_rate": 1.9889100336715574e-06,
"loss": 0.0014,
"step": 402
},
{
"epoch": 0.4298666666666667,
"grad_norm": 1.1540056838329342,
"learning_rate": 1.9887247803310275e-06,
"loss": 0.0344,
"step": 403
},
{
"epoch": 0.43093333333333333,
"grad_norm": 0.17492470261185009,
"learning_rate": 1.988538001261327e-06,
"loss": 0.0023,
"step": 404
},
{
"epoch": 0.432,
"grad_norm": 1.842060768202244,
"learning_rate": 1.9883496967506787e-06,
"loss": 0.0277,
"step": 405
},
{
"epoch": 0.43306666666666666,
"grad_norm": 1.5947437342416269,
"learning_rate": 1.9881598670896615e-06,
"loss": 0.042,
"step": 406
},
{
"epoch": 0.4341333333333333,
"grad_norm": 0.9161274283634603,
"learning_rate": 1.9879685125712064e-06,
"loss": 0.0367,
"step": 407
},
{
"epoch": 0.4352,
"grad_norm": 2.360301377480192,
"learning_rate": 1.9877756334905984e-06,
"loss": 0.0682,
"step": 408
},
{
"epoch": 0.4362666666666667,
"grad_norm": 2.8033256381176845,
"learning_rate": 1.9875812301454742e-06,
"loss": 0.0215,
"step": 409
},
{
"epoch": 0.43733333333333335,
"grad_norm": 1.5583202561269525,
"learning_rate": 1.987385302835824e-06,
"loss": 0.0363,
"step": 410
},
{
"epoch": 0.4384,
"grad_norm": 2.781896561969346,
"learning_rate": 1.9871878518639875e-06,
"loss": 0.068,
"step": 411
},
{
"epoch": 0.43946666666666667,
"grad_norm": 0.21642280193886335,
"learning_rate": 1.9869888775346573e-06,
"loss": 0.0036,
"step": 412
},
{
"epoch": 0.44053333333333333,
"grad_norm": 1.6029255115528245,
"learning_rate": 1.986788380154877e-06,
"loss": 0.0647,
"step": 413
},
{
"epoch": 0.4416,
"grad_norm": 0.5806042371514701,
"learning_rate": 1.986586360034039e-06,
"loss": 0.0132,
"step": 414
},
{
"epoch": 0.44266666666666665,
"grad_norm": 0.9908273749386388,
"learning_rate": 1.9863828174838866e-06,
"loss": 0.0415,
"step": 415
},
{
"epoch": 0.4437333333333333,
"grad_norm": 0.6290093251213951,
"learning_rate": 1.9861777528185124e-06,
"loss": 0.0105,
"step": 416
},
{
"epoch": 0.4448,
"grad_norm": 0.14553068803017533,
"learning_rate": 1.985971166354357e-06,
"loss": 0.004,
"step": 417
},
{
"epoch": 0.4458666666666667,
"grad_norm": 1.3506786155965647,
"learning_rate": 1.9857630584102097e-06,
"loss": 0.0751,
"step": 418
},
{
"epoch": 0.44693333333333335,
"grad_norm": 0.5584989326737009,
"learning_rate": 1.985553429307208e-06,
"loss": 0.014,
"step": 419
},
{
"epoch": 0.448,
"grad_norm": 1.6294250896843834,
"learning_rate": 1.9853422793688367e-06,
"loss": 0.0636,
"step": 420
},
{
"epoch": 0.44906666666666667,
"grad_norm": 0.5596353903671426,
"learning_rate": 1.985129608920927e-06,
"loss": 0.0098,
"step": 421
},
{
"epoch": 0.45013333333333333,
"grad_norm": 1.3728856599421018,
"learning_rate": 1.9849154182916564e-06,
"loss": 0.0406,
"step": 422
},
{
"epoch": 0.4512,
"grad_norm": 1.4539828782817406,
"learning_rate": 1.984699707811549e-06,
"loss": 0.0425,
"step": 423
},
{
"epoch": 0.45226666666666665,
"grad_norm": 1.1916004180696034,
"learning_rate": 1.9844824778134736e-06,
"loss": 0.0306,
"step": 424
},
{
"epoch": 0.4533333333333333,
"grad_norm": 1.419985849067304,
"learning_rate": 1.9842637286326438e-06,
"loss": 0.0551,
"step": 425
},
{
"epoch": 0.4544,
"grad_norm": 1.3883049129527003,
"learning_rate": 1.984043460606618e-06,
"loss": 0.0513,
"step": 426
},
{
"epoch": 0.4554666666666667,
"grad_norm": 0.1278745223052872,
"learning_rate": 1.9838216740752974e-06,
"loss": 0.0052,
"step": 427
},
{
"epoch": 0.45653333333333335,
"grad_norm": 0.6233977796404779,
"learning_rate": 1.983598369380928e-06,
"loss": 0.0342,
"step": 428
},
{
"epoch": 0.4576,
"grad_norm": 0.39517621879791065,
"learning_rate": 1.9833735468680964e-06,
"loss": 0.01,
"step": 429
},
{
"epoch": 0.45866666666666667,
"grad_norm": 0.4211386313113123,
"learning_rate": 1.9831472068837337e-06,
"loss": 0.0135,
"step": 430
},
{
"epoch": 0.4597333333333333,
"grad_norm": 1.8464041929380612,
"learning_rate": 1.9829193497771107e-06,
"loss": 0.0597,
"step": 431
},
{
"epoch": 0.4608,
"grad_norm": 1.3803065563385135,
"learning_rate": 1.9826899758998406e-06,
"loss": 0.0403,
"step": 432
},
{
"epoch": 0.46186666666666665,
"grad_norm": 0.7417135247038509,
"learning_rate": 1.982459085605877e-06,
"loss": 0.016,
"step": 433
},
{
"epoch": 0.4629333333333333,
"grad_norm": 1.39451525357249,
"learning_rate": 1.9822266792515126e-06,
"loss": 0.0182,
"step": 434
},
{
"epoch": 0.464,
"grad_norm": 2.8641679197940273,
"learning_rate": 1.98199275719538e-06,
"loss": 0.1259,
"step": 435
},
{
"epoch": 0.4650666666666667,
"grad_norm": 0.5715361958864581,
"learning_rate": 1.981757319798452e-06,
"loss": 0.0088,
"step": 436
},
{
"epoch": 0.46613333333333334,
"grad_norm": 2.4227706234953055,
"learning_rate": 1.981520367424038e-06,
"loss": 0.0455,
"step": 437
},
{
"epoch": 0.4672,
"grad_norm": 2.930333077963303,
"learning_rate": 1.981281900437786e-06,
"loss": 0.1153,
"step": 438
},
{
"epoch": 0.46826666666666666,
"grad_norm": 2.8810723377913883,
"learning_rate": 1.9810419192076813e-06,
"loss": 0.1719,
"step": 439
},
{
"epoch": 0.4693333333333333,
"grad_norm": 1.2033125300206557,
"learning_rate": 1.9808004241040453e-06,
"loss": 0.0335,
"step": 440
},
{
"epoch": 0.4704,
"grad_norm": 1.5784293247380277,
"learning_rate": 1.9805574154995368e-06,
"loss": 0.0241,
"step": 441
},
{
"epoch": 0.47146666666666665,
"grad_norm": 0.331053930672315,
"learning_rate": 1.980312893769148e-06,
"loss": 0.0059,
"step": 442
},
{
"epoch": 0.47253333333333336,
"grad_norm": 0.3750843000391053,
"learning_rate": 1.9800668592902084e-06,
"loss": 0.0116,
"step": 443
},
{
"epoch": 0.4736,
"grad_norm": 1.7511119092314256,
"learning_rate": 1.97981931244238e-06,
"loss": 0.0325,
"step": 444
},
{
"epoch": 0.4746666666666667,
"grad_norm": 0.8672178018929745,
"learning_rate": 1.97957025360766e-06,
"loss": 0.015,
"step": 445
},
{
"epoch": 0.47573333333333334,
"grad_norm": 1.1316891807624356,
"learning_rate": 1.979319683170378e-06,
"loss": 0.0247,
"step": 446
},
{
"epoch": 0.4768,
"grad_norm": 1.7458341470636687,
"learning_rate": 1.9790676015171957e-06,
"loss": 0.0645,
"step": 447
},
{
"epoch": 0.47786666666666666,
"grad_norm": 2.1936196357092346,
"learning_rate": 1.978814009037108e-06,
"loss": 0.0451,
"step": 448
},
{
"epoch": 0.4789333333333333,
"grad_norm": 0.8697055179908226,
"learning_rate": 1.9785589061214406e-06,
"loss": 0.0213,
"step": 449
},
{
"epoch": 0.48,
"grad_norm": 0.22437585040149477,
"learning_rate": 1.97830229316385e-06,
"loss": 0.0054,
"step": 450
},
{
"epoch": 0.48,
"eval_loss": 0.059111062437295914,
"eval_runtime": 8.3864,
"eval_samples_per_second": 11.924,
"eval_steps_per_second": 5.962,
"step": 450
},
{
"epoch": 0.48106666666666664,
"grad_norm": 0.10636278575330274,
"learning_rate": 1.9780441705603223e-06,
"loss": 0.0021,
"step": 451
},
{
"epoch": 0.48213333333333336,
"grad_norm": 2.5573873105038434,
"learning_rate": 1.977784538709175e-06,
"loss": 0.1313,
"step": 452
},
{
"epoch": 0.4832,
"grad_norm": 1.663012931362963,
"learning_rate": 1.977523398011052e-06,
"loss": 0.0691,
"step": 453
},
{
"epoch": 0.4842666666666667,
"grad_norm": 0.7219317225159716,
"learning_rate": 1.977260748868928e-06,
"loss": 0.0096,
"step": 454
},
{
"epoch": 0.48533333333333334,
"grad_norm": 0.7982966573390478,
"learning_rate": 1.976996591688104e-06,
"loss": 0.0137,
"step": 455
},
{
"epoch": 0.4864,
"grad_norm": 0.20970702399928798,
"learning_rate": 1.976730926876208e-06,
"loss": 0.0046,
"step": 456
},
{
"epoch": 0.48746666666666666,
"grad_norm": 0.28803719058990657,
"learning_rate": 1.976463754843195e-06,
"loss": 0.005,
"step": 457
},
{
"epoch": 0.4885333333333333,
"grad_norm": 0.7919194276555528,
"learning_rate": 1.9761950760013465e-06,
"loss": 0.0282,
"step": 458
},
{
"epoch": 0.4896,
"grad_norm": 1.4705813607789455,
"learning_rate": 1.975924890765268e-06,
"loss": 0.0579,
"step": 459
},
{
"epoch": 0.49066666666666664,
"grad_norm": 0.0892978502279876,
"learning_rate": 1.975653199551889e-06,
"loss": 0.002,
"step": 460
},
{
"epoch": 0.49173333333333336,
"grad_norm": 0.2924517573264484,
"learning_rate": 1.975380002780465e-06,
"loss": 0.0054,
"step": 461
},
{
"epoch": 0.4928,
"grad_norm": 0.13984323661447734,
"learning_rate": 1.9751053008725736e-06,
"loss": 0.0048,
"step": 462
},
{
"epoch": 0.4938666666666667,
"grad_norm": 0.9708483997669436,
"learning_rate": 1.9748290942521147e-06,
"loss": 0.0206,
"step": 463
},
{
"epoch": 0.49493333333333334,
"grad_norm": 1.2833574509895846,
"learning_rate": 1.974551383345311e-06,
"loss": 0.0296,
"step": 464
},
{
"epoch": 0.496,
"grad_norm": 0.8281324977406651,
"learning_rate": 1.974272168580705e-06,
"loss": 0.0278,
"step": 465
},
{
"epoch": 0.49706666666666666,
"grad_norm": 0.044148734591724956,
"learning_rate": 1.9739914503891623e-06,
"loss": 0.0015,
"step": 466
},
{
"epoch": 0.4981333333333333,
"grad_norm": 0.12615582529209052,
"learning_rate": 1.9737092292038666e-06,
"loss": 0.0029,
"step": 467
},
{
"epoch": 0.4992,
"grad_norm": 0.2572697580666658,
"learning_rate": 1.973425505460321e-06,
"loss": 0.0083,
"step": 468
},
{
"epoch": 0.5002666666666666,
"grad_norm": 0.1241476180135192,
"learning_rate": 1.9731402795963475e-06,
"loss": 0.0029,
"step": 469
},
{
"epoch": 0.5013333333333333,
"grad_norm": 0.2062065751894674,
"learning_rate": 1.972853552052087e-06,
"loss": 0.0042,
"step": 470
},
{
"epoch": 0.5024,
"grad_norm": 0.2666525204106077,
"learning_rate": 1.972565323269996e-06,
"loss": 0.0065,
"step": 471
},
{
"epoch": 0.5034666666666666,
"grad_norm": 0.81144616074266,
"learning_rate": 1.9722755936948495e-06,
"loss": 0.025,
"step": 472
},
{
"epoch": 0.5045333333333333,
"grad_norm": 1.444231248641308,
"learning_rate": 1.9719843637737363e-06,
"loss": 0.0291,
"step": 473
},
{
"epoch": 0.5056,
"grad_norm": 0.4874177855432997,
"learning_rate": 1.9716916339560623e-06,
"loss": 0.0074,
"step": 474
},
{
"epoch": 0.5066666666666667,
"grad_norm": 0.07849556590261975,
"learning_rate": 1.971397404693547e-06,
"loss": 0.002,
"step": 475
},
{
"epoch": 0.5077333333333334,
"grad_norm": 0.5517723930132947,
"learning_rate": 1.9711016764402236e-06,
"loss": 0.0097,
"step": 476
},
{
"epoch": 0.5088,
"grad_norm": 0.7299515657510972,
"learning_rate": 1.970804449652439e-06,
"loss": 0.0209,
"step": 477
},
{
"epoch": 0.5098666666666667,
"grad_norm": 0.870187254255976,
"learning_rate": 1.9705057247888524e-06,
"loss": 0.0274,
"step": 478
},
{
"epoch": 0.5109333333333334,
"grad_norm": 0.4378815653508658,
"learning_rate": 1.9702055023104342e-06,
"loss": 0.0067,
"step": 479
},
{
"epoch": 0.512,
"grad_norm": 0.19791484072606055,
"learning_rate": 1.9699037826804664e-06,
"loss": 0.0028,
"step": 480
},
{
"epoch": 0.5130666666666667,
"grad_norm": 0.33265027100392863,
"learning_rate": 1.9696005663645413e-06,
"loss": 0.0046,
"step": 481
},
{
"epoch": 0.5141333333333333,
"grad_norm": 0.5850664754775464,
"learning_rate": 1.9692958538305603e-06,
"loss": 0.0074,
"step": 482
},
{
"epoch": 0.5152,
"grad_norm": 1.424929398925143,
"learning_rate": 1.9689896455487335e-06,
"loss": 0.1158,
"step": 483
},
{
"epoch": 0.5162666666666667,
"grad_norm": 0.13577194866828218,
"learning_rate": 1.9686819419915807e-06,
"loss": 0.0015,
"step": 484
},
{
"epoch": 0.5173333333333333,
"grad_norm": 0.41803441824249704,
"learning_rate": 1.968372743633927e-06,
"loss": 0.008,
"step": 485
},
{
"epoch": 0.5184,
"grad_norm": 4.12682235282853,
"learning_rate": 1.9680620509529057e-06,
"loss": 0.0162,
"step": 486
},
{
"epoch": 0.5194666666666666,
"grad_norm": 1.503044654721969,
"learning_rate": 1.9677498644279548e-06,
"loss": 0.0422,
"step": 487
},
{
"epoch": 0.5205333333333333,
"grad_norm": 0.7689074004737195,
"learning_rate": 1.9674361845408186e-06,
"loss": 0.0094,
"step": 488
},
{
"epoch": 0.5216,
"grad_norm": 0.06909875982015076,
"learning_rate": 1.9671210117755453e-06,
"loss": 0.0007,
"step": 489
},
{
"epoch": 0.5226666666666666,
"grad_norm": 1.2206766665571167,
"learning_rate": 1.966804346618487e-06,
"loss": 0.1015,
"step": 490
},
{
"epoch": 0.5237333333333334,
"grad_norm": 1.1789396464075375,
"learning_rate": 1.9664861895582992e-06,
"loss": 0.0854,
"step": 491
},
{
"epoch": 0.5248,
"grad_norm": 0.21039611614928425,
"learning_rate": 1.9661665410859383e-06,
"loss": 0.0026,
"step": 492
},
{
"epoch": 0.5258666666666667,
"grad_norm": 0.054725892737321646,
"learning_rate": 1.9658454016946625e-06,
"loss": 0.0013,
"step": 493
},
{
"epoch": 0.5269333333333334,
"grad_norm": 1.1777205041840952,
"learning_rate": 1.9655227718800323e-06,
"loss": 0.0185,
"step": 494
},
{
"epoch": 0.528,
"grad_norm": 1.0317741265994544,
"learning_rate": 1.965198652139906e-06,
"loss": 0.0587,
"step": 495
},
{
"epoch": 0.5290666666666667,
"grad_norm": 0.891353426464908,
"learning_rate": 1.964873042974442e-06,
"loss": 0.0401,
"step": 496
},
{
"epoch": 0.5301333333333333,
"grad_norm": 1.30587203863953,
"learning_rate": 1.9645459448860975e-06,
"loss": 0.0309,
"step": 497
},
{
"epoch": 0.5312,
"grad_norm": 1.3596410335486893,
"learning_rate": 1.9642173583796264e-06,
"loss": 0.0413,
"step": 498
},
{
"epoch": 0.5322666666666667,
"grad_norm": 1.895269444451895,
"learning_rate": 1.96388728396208e-06,
"loss": 0.0832,
"step": 499
},
{
"epoch": 0.5333333333333333,
"grad_norm": 0.8616463910896954,
"learning_rate": 1.9635557221428053e-06,
"loss": 0.0282,
"step": 500
},
{
"epoch": 0.5333333333333333,
"eval_loss": 0.0750061422586441,
"eval_runtime": 8.263,
"eval_samples_per_second": 12.102,
"eval_steps_per_second": 6.051,
"step": 500
},
{
"epoch": 0.5344,
"grad_norm": 1.0484027260920663,
"learning_rate": 1.963222673433445e-06,
"loss": 0.0384,
"step": 501
},
{
"epoch": 0.5354666666666666,
"grad_norm": 0.7655681891587585,
"learning_rate": 1.9628881383479356e-06,
"loss": 0.0143,
"step": 502
},
{
"epoch": 0.5365333333333333,
"grad_norm": 1.0787203352903525,
"learning_rate": 1.962552117402508e-06,
"loss": 0.0252,
"step": 503
},
{
"epoch": 0.5376,
"grad_norm": 0.4951788218638876,
"learning_rate": 1.9622146111156854e-06,
"loss": 0.0167,
"step": 504
},
{
"epoch": 0.5386666666666666,
"grad_norm": 1.0190831345745026,
"learning_rate": 1.9618756200082834e-06,
"loss": 0.0209,
"step": 505
},
{
"epoch": 0.5397333333333333,
"grad_norm": 1.5762111962709655,
"learning_rate": 1.9615351446034087e-06,
"loss": 0.0548,
"step": 506
},
{
"epoch": 0.5408,
"grad_norm": 0.4583231105242901,
"learning_rate": 1.9611931854264588e-06,
"loss": 0.011,
"step": 507
},
{
"epoch": 0.5418666666666667,
"grad_norm": 0.5862500686640746,
"learning_rate": 1.96084974300512e-06,
"loss": 0.0077,
"step": 508
},
{
"epoch": 0.5429333333333334,
"grad_norm": 0.8574568627565791,
"learning_rate": 1.960504817869369e-06,
"loss": 0.0373,
"step": 509
},
{
"epoch": 0.544,
"grad_norm": 1.2010733201915198,
"learning_rate": 1.960158410551468e-06,
"loss": 0.0447,
"step": 510
},
{
"epoch": 0.5450666666666667,
"grad_norm": 0.8555492767495577,
"learning_rate": 1.9598105215859696e-06,
"loss": 0.0466,
"step": 511
},
{
"epoch": 0.5461333333333334,
"grad_norm": 0.10178459528093674,
"learning_rate": 1.95946115150971e-06,
"loss": 0.0021,
"step": 512
},
{
"epoch": 0.5472,
"grad_norm": 0.800504235107064,
"learning_rate": 1.9591103008618125e-06,
"loss": 0.0274,
"step": 513
},
{
"epoch": 0.5482666666666667,
"grad_norm": 0.5316447147161468,
"learning_rate": 1.9587579701836846e-06,
"loss": 0.0079,
"step": 514
},
{
"epoch": 0.5493333333333333,
"grad_norm": 1.736227171167706,
"learning_rate": 1.9584041600190176e-06,
"loss": 0.0368,
"step": 515
},
{
"epoch": 0.5504,
"grad_norm": 0.733523786009821,
"learning_rate": 1.958048870913786e-06,
"loss": 0.0135,
"step": 516
},
{
"epoch": 0.5514666666666667,
"grad_norm": 0.5321584802143156,
"learning_rate": 1.9576921034162466e-06,
"loss": 0.0211,
"step": 517
},
{
"epoch": 0.5525333333333333,
"grad_norm": 0.9700623063668581,
"learning_rate": 1.9573338580769374e-06,
"loss": 0.0213,
"step": 518
},
{
"epoch": 0.5536,
"grad_norm": 1.5444464892245888,
"learning_rate": 1.9569741354486763e-06,
"loss": 0.064,
"step": 519
},
{
"epoch": 0.5546666666666666,
"grad_norm": 0.9917141522432631,
"learning_rate": 1.9566129360865625e-06,
"loss": 0.0233,
"step": 520
},
{
"epoch": 0.5557333333333333,
"grad_norm": 0.1624747704143236,
"learning_rate": 1.956250260547972e-06,
"loss": 0.0054,
"step": 521
},
{
"epoch": 0.5568,
"grad_norm": 0.020676204559768888,
"learning_rate": 1.955886109392561e-06,
"loss": 0.0006,
"step": 522
},
{
"epoch": 0.5578666666666666,
"grad_norm": 2.9044828339315623,
"learning_rate": 1.95552048318226e-06,
"loss": 0.0408,
"step": 523
},
{
"epoch": 0.5589333333333333,
"grad_norm": 0.5831891601240735,
"learning_rate": 1.9551533824812774e-06,
"loss": 0.0097,
"step": 524
},
{
"epoch": 0.56,
"grad_norm": 0.5857357629454975,
"learning_rate": 1.9547848078560974e-06,
"loss": 0.0139,
"step": 525
},
{
"epoch": 0.5610666666666667,
"grad_norm": 0.21217825118743366,
"learning_rate": 1.9544147598754773e-06,
"loss": 0.0032,
"step": 526
},
{
"epoch": 0.5621333333333334,
"grad_norm": 2.4670392982236082,
"learning_rate": 1.954043239110449e-06,
"loss": 0.0316,
"step": 527
},
{
"epoch": 0.5632,
"grad_norm": 0.5406170478676595,
"learning_rate": 1.9536702461343164e-06,
"loss": 0.0224,
"step": 528
},
{
"epoch": 0.5642666666666667,
"grad_norm": 0.055518527171553374,
"learning_rate": 1.953295781522656e-06,
"loss": 0.002,
"step": 529
},
{
"epoch": 0.5653333333333334,
"grad_norm": 1.3934912347870063,
"learning_rate": 1.9529198458533144e-06,
"loss": 0.0398,
"step": 530
},
{
"epoch": 0.5664,
"grad_norm": 0.4045943505474674,
"learning_rate": 1.952542439706408e-06,
"loss": 0.0058,
"step": 531
},
{
"epoch": 0.5674666666666667,
"grad_norm": 1.7864041111845064,
"learning_rate": 1.9521635636643235e-06,
"loss": 0.0444,
"step": 532
},
{
"epoch": 0.5685333333333333,
"grad_norm": 1.2920646109126186,
"learning_rate": 1.9517832183117157e-06,
"loss": 0.0388,
"step": 533
},
{
"epoch": 0.5696,
"grad_norm": 0.7948792055347192,
"learning_rate": 1.9514014042355057e-06,
"loss": 0.0168,
"step": 534
},
{
"epoch": 0.5706666666666667,
"grad_norm": 1.6705131453586166,
"learning_rate": 1.951018122024881e-06,
"loss": 0.1448,
"step": 535
},
{
"epoch": 0.5717333333333333,
"grad_norm": 1.1168431435244262,
"learning_rate": 1.950633372271296e-06,
"loss": 0.0415,
"step": 536
},
{
"epoch": 0.5728,
"grad_norm": 0.6514860220679357,
"learning_rate": 1.9502471555684693e-06,
"loss": 0.0099,
"step": 537
},
{
"epoch": 0.5738666666666666,
"grad_norm": 1.2822333127340622,
"learning_rate": 1.949859472512382e-06,
"loss": 0.0334,
"step": 538
},
{
"epoch": 0.5749333333333333,
"grad_norm": 0.05784985500576959,
"learning_rate": 1.9494703237012795e-06,
"loss": 0.002,
"step": 539
},
{
"epoch": 0.576,
"grad_norm": 0.9322715943880168,
"learning_rate": 1.9490797097356673e-06,
"loss": 0.0382,
"step": 540
},
{
"epoch": 0.5770666666666666,
"grad_norm": 1.195879018881952,
"learning_rate": 1.9486876312183136e-06,
"loss": 0.0307,
"step": 541
},
{
"epoch": 0.5781333333333334,
"grad_norm": 0.508657257504912,
"learning_rate": 1.9482940887542458e-06,
"loss": 0.0095,
"step": 542
},
{
"epoch": 0.5792,
"grad_norm": 0.06695661372207187,
"learning_rate": 1.9478990829507503e-06,
"loss": 0.0016,
"step": 543
},
{
"epoch": 0.5802666666666667,
"grad_norm": 0.6717175414997428,
"learning_rate": 1.947502614417372e-06,
"loss": 0.0143,
"step": 544
},
{
"epoch": 0.5813333333333334,
"grad_norm": 0.3243179957792768,
"learning_rate": 1.9471046837659123e-06,
"loss": 0.0112,
"step": 545
},
{
"epoch": 0.5824,
"grad_norm": 0.7631675841259196,
"learning_rate": 1.9467052916104297e-06,
"loss": 0.0276,
"step": 546
},
{
"epoch": 0.5834666666666667,
"grad_norm": 2.0144599920001727,
"learning_rate": 1.946304438567237e-06,
"loss": 0.0921,
"step": 547
},
{
"epoch": 0.5845333333333333,
"grad_norm": 1.0636321610949848,
"learning_rate": 1.945902125254902e-06,
"loss": 0.0187,
"step": 548
},
{
"epoch": 0.5856,
"grad_norm": 0.35874953906327267,
"learning_rate": 1.945498352294246e-06,
"loss": 0.0073,
"step": 549
},
{
"epoch": 0.5866666666666667,
"grad_norm": 0.11859155797457026,
"learning_rate": 1.9450931203083423e-06,
"loss": 0.004,
"step": 550
},
{
"epoch": 0.5866666666666667,
"eval_loss": 0.0564335361123085,
"eval_runtime": 8.2114,
"eval_samples_per_second": 12.178,
"eval_steps_per_second": 6.089,
"step": 550
},
{
"epoch": 0.5877333333333333,
"grad_norm": 0.9039799412688934,
"learning_rate": 1.9446864299225154e-06,
"loss": 0.0333,
"step": 551
},
{
"epoch": 0.5888,
"grad_norm": 0.7538502138841161,
"learning_rate": 1.9442782817643423e-06,
"loss": 0.0563,
"step": 552
},
{
"epoch": 0.5898666666666667,
"grad_norm": 0.1358781642223268,
"learning_rate": 1.943868676463646e-06,
"loss": 0.0025,
"step": 553
},
{
"epoch": 0.5909333333333333,
"grad_norm": 1.48617799274998,
"learning_rate": 1.943457614652501e-06,
"loss": 0.047,
"step": 554
},
{
"epoch": 0.592,
"grad_norm": 1.1293466674581456,
"learning_rate": 1.9430450969652287e-06,
"loss": 0.0385,
"step": 555
},
{
"epoch": 0.5930666666666666,
"grad_norm": 0.8012169267070843,
"learning_rate": 1.9426311240383965e-06,
"loss": 0.013,
"step": 556
},
{
"epoch": 0.5941333333333333,
"grad_norm": 0.6572329690288506,
"learning_rate": 1.9422156965108168e-06,
"loss": 0.0306,
"step": 557
},
{
"epoch": 0.5952,
"grad_norm": 0.19306800078152603,
"learning_rate": 1.9417988150235494e-06,
"loss": 0.0038,
"step": 558
},
{
"epoch": 0.5962666666666666,
"grad_norm": 1.3017265451514113,
"learning_rate": 1.9413804802198945e-06,
"loss": 0.0476,
"step": 559
},
{
"epoch": 0.5973333333333334,
"grad_norm": 0.8375105380873863,
"learning_rate": 1.9409606927453965e-06,
"loss": 0.014,
"step": 560
},
{
"epoch": 0.5984,
"grad_norm": 0.8885298874629408,
"learning_rate": 1.940539453247842e-06,
"loss": 0.0151,
"step": 561
},
{
"epoch": 0.5994666666666667,
"grad_norm": 1.5102673561210778,
"learning_rate": 1.9401167623772573e-06,
"loss": 0.0374,
"step": 562
},
{
"epoch": 0.6005333333333334,
"grad_norm": 1.987721672034343,
"learning_rate": 1.9396926207859082e-06,
"loss": 0.0953,
"step": 563
},
{
"epoch": 0.6016,
"grad_norm": 0.22000547641573698,
"learning_rate": 1.9392670291283e-06,
"loss": 0.0046,
"step": 564
},
{
"epoch": 0.6026666666666667,
"grad_norm": 0.8882455389638617,
"learning_rate": 1.9388399880611754e-06,
"loss": 0.0229,
"step": 565
},
{
"epoch": 0.6037333333333333,
"grad_norm": 0.5255035590758061,
"learning_rate": 1.938411498243513e-06,
"loss": 0.0228,
"step": 566
},
{
"epoch": 0.6048,
"grad_norm": 0.343214637954108,
"learning_rate": 1.9379815603365282e-06,
"loss": 0.012,
"step": 567
},
{
"epoch": 0.6058666666666667,
"grad_norm": 0.6053924697986651,
"learning_rate": 1.93755017500367e-06,
"loss": 0.0145,
"step": 568
},
{
"epoch": 0.6069333333333333,
"grad_norm": 0.9254674234883058,
"learning_rate": 1.937117342910621e-06,
"loss": 0.0216,
"step": 569
},
{
"epoch": 0.608,
"grad_norm": 0.8523880140703605,
"learning_rate": 1.936683064725297e-06,
"loss": 0.0221,
"step": 570
},
{
"epoch": 0.6090666666666666,
"grad_norm": 0.9347656082249436,
"learning_rate": 1.936247341117845e-06,
"loss": 0.0188,
"step": 571
},
{
"epoch": 0.6101333333333333,
"grad_norm": 0.8541104243225714,
"learning_rate": 1.935810172760642e-06,
"loss": 0.0473,
"step": 572
},
{
"epoch": 0.6112,
"grad_norm": 0.8791764463094474,
"learning_rate": 1.9353715603282955e-06,
"loss": 0.0532,
"step": 573
},
{
"epoch": 0.6122666666666666,
"grad_norm": 2.699319257248717,
"learning_rate": 1.93493150449764e-06,
"loss": 0.0537,
"step": 574
},
{
"epoch": 0.6133333333333333,
"grad_norm": 0.1353088356819775,
"learning_rate": 1.9344900059477396e-06,
"loss": 0.0037,
"step": 575
},
{
"epoch": 0.6144,
"grad_norm": 0.34618338498092704,
"learning_rate": 1.934047065359881e-06,
"loss": 0.0062,
"step": 576
},
{
"epoch": 0.6154666666666667,
"grad_norm": 1.7078634001380137,
"learning_rate": 1.9336026834175797e-06,
"loss": 0.0771,
"step": 577
},
{
"epoch": 0.6165333333333334,
"grad_norm": 0.14844162026860286,
"learning_rate": 1.933156860806574e-06,
"loss": 0.0031,
"step": 578
},
{
"epoch": 0.6176,
"grad_norm": 1.2154534323817083,
"learning_rate": 1.9327095982148254e-06,
"loss": 0.0239,
"step": 579
},
{
"epoch": 0.6186666666666667,
"grad_norm": 0.3272739540580518,
"learning_rate": 1.932260896332517e-06,
"loss": 0.007,
"step": 580
},
{
"epoch": 0.6197333333333334,
"grad_norm": 0.10198673028774524,
"learning_rate": 1.9318107558520538e-06,
"loss": 0.0019,
"step": 581
},
{
"epoch": 0.6208,
"grad_norm": 0.16913851829841492,
"learning_rate": 1.9313591774680597e-06,
"loss": 0.0038,
"step": 582
},
{
"epoch": 0.6218666666666667,
"grad_norm": 0.07959301608009922,
"learning_rate": 1.9309061618773786e-06,
"loss": 0.0024,
"step": 583
},
{
"epoch": 0.6229333333333333,
"grad_norm": 1.0893009664541993,
"learning_rate": 1.9304517097790717e-06,
"loss": 0.0407,
"step": 584
},
{
"epoch": 0.624,
"grad_norm": 1.2631392794129843,
"learning_rate": 1.929995821874417e-06,
"loss": 0.0352,
"step": 585
},
{
"epoch": 0.6250666666666667,
"grad_norm": 1.3997694152883324,
"learning_rate": 1.9295384988669073e-06,
"loss": 0.0393,
"step": 586
},
{
"epoch": 0.6261333333333333,
"grad_norm": 1.6978660405005055,
"learning_rate": 1.9290797414622513e-06,
"loss": 0.0352,
"step": 587
},
{
"epoch": 0.6272,
"grad_norm": 0.6308822438288059,
"learning_rate": 1.928619550368371e-06,
"loss": 0.0132,
"step": 588
},
{
"epoch": 0.6282666666666666,
"grad_norm": 0.1371164881678459,
"learning_rate": 1.9281579262953986e-06,
"loss": 0.0025,
"step": 589
},
{
"epoch": 0.6293333333333333,
"grad_norm": 0.6370240527064276,
"learning_rate": 1.9276948699556807e-06,
"loss": 0.0112,
"step": 590
},
{
"epoch": 0.6304,
"grad_norm": 0.3056363205998125,
"learning_rate": 1.9272303820637725e-06,
"loss": 0.0058,
"step": 591
},
{
"epoch": 0.6314666666666666,
"grad_norm": 0.55831070154103,
"learning_rate": 1.926764463336438e-06,
"loss": 0.01,
"step": 592
},
{
"epoch": 0.6325333333333333,
"grad_norm": 0.8262080377150349,
"learning_rate": 1.9262971144926496e-06,
"loss": 0.0245,
"step": 593
},
{
"epoch": 0.6336,
"grad_norm": 0.7226875150679721,
"learning_rate": 1.9258283362535866e-06,
"loss": 0.0097,
"step": 594
},
{
"epoch": 0.6346666666666667,
"grad_norm": 0.042475954479241414,
"learning_rate": 1.925358129342634e-06,
"loss": 0.0006,
"step": 595
},
{
"epoch": 0.6357333333333334,
"grad_norm": 0.859032501597276,
"learning_rate": 1.9248864944853816e-06,
"loss": 0.0378,
"step": 596
},
{
"epoch": 0.6368,
"grad_norm": 1.3244307530631885,
"learning_rate": 1.9244134324096223e-06,
"loss": 0.0517,
"step": 597
},
{
"epoch": 0.6378666666666667,
"grad_norm": 0.5857618506011136,
"learning_rate": 1.9239389438453514e-06,
"loss": 0.003,
"step": 598
},
{
"epoch": 0.6389333333333334,
"grad_norm": 1.575917222926197,
"learning_rate": 1.9234630295247656e-06,
"loss": 0.0524,
"step": 599
},
{
"epoch": 0.64,
"grad_norm": 0.03170525562888107,
"learning_rate": 1.922985690182262e-06,
"loss": 0.0008,
"step": 600
},
{
"epoch": 0.64,
"eval_loss": 0.08799741417169571,
"eval_runtime": 8.2278,
"eval_samples_per_second": 12.154,
"eval_steps_per_second": 6.077,
"step": 600
},
{
"epoch": 0.6410666666666667,
"grad_norm": 0.009690918488452322,
"learning_rate": 1.922506926554436e-06,
"loss": 0.0003,
"step": 601
},
{
"epoch": 0.6421333333333333,
"grad_norm": 1.7933818506504124,
"learning_rate": 1.922026739380082e-06,
"loss": 0.0453,
"step": 602
},
{
"epoch": 0.6432,
"grad_norm": 0.6728832662063972,
"learning_rate": 1.92154512940019e-06,
"loss": 0.0127,
"step": 603
},
{
"epoch": 0.6442666666666667,
"grad_norm": 2.0454536910248007,
"learning_rate": 1.921062097357946e-06,
"loss": 0.0386,
"step": 604
},
{
"epoch": 0.6453333333333333,
"grad_norm": 0.5798489601175519,
"learning_rate": 1.920577643998731e-06,
"loss": 0.0071,
"step": 605
},
{
"epoch": 0.6464,
"grad_norm": 0.2394641534653747,
"learning_rate": 1.9200917700701174e-06,
"loss": 0.0036,
"step": 606
},
{
"epoch": 0.6474666666666666,
"grad_norm": 0.9346485691984059,
"learning_rate": 1.9196044763218716e-06,
"loss": 0.0109,
"step": 607
},
{
"epoch": 0.6485333333333333,
"grad_norm": 0.20767795476182135,
"learning_rate": 1.919115763505951e-06,
"loss": 0.0032,
"step": 608
},
{
"epoch": 0.6496,
"grad_norm": 0.9746443826052226,
"learning_rate": 1.9186256323765014e-06,
"loss": 0.044,
"step": 609
},
{
"epoch": 0.6506666666666666,
"grad_norm": 0.03632552447261078,
"learning_rate": 1.9181340836898583e-06,
"loss": 0.0008,
"step": 610
},
{
"epoch": 0.6517333333333334,
"grad_norm": 0.016034323467636072,
"learning_rate": 1.9176411182045444e-06,
"loss": 0.0005,
"step": 611
},
{
"epoch": 0.6528,
"grad_norm": 1.2072262713544197,
"learning_rate": 1.9171467366812685e-06,
"loss": 0.0396,
"step": 612
},
{
"epoch": 0.6538666666666667,
"grad_norm": 0.06082727387699129,
"learning_rate": 1.9166509398829245e-06,
"loss": 0.0012,
"step": 613
},
{
"epoch": 0.6549333333333334,
"grad_norm": 0.3879482512495693,
"learning_rate": 1.9161537285745914e-06,
"loss": 0.0039,
"step": 614
},
{
"epoch": 0.656,
"grad_norm": 0.638808482088454,
"learning_rate": 1.915655103523529e-06,
"loss": 0.0074,
"step": 615
},
{
"epoch": 0.6570666666666667,
"grad_norm": 0.8138491050409327,
"learning_rate": 1.91515506549918e-06,
"loss": 0.0132,
"step": 616
},
{
"epoch": 0.6581333333333333,
"grad_norm": 0.540067462167089,
"learning_rate": 1.9146536152731677e-06,
"loss": 0.0172,
"step": 617
},
{
"epoch": 0.6592,
"grad_norm": 0.6745443836623596,
"learning_rate": 1.914150753619294e-06,
"loss": 0.0127,
"step": 618
},
{
"epoch": 0.6602666666666667,
"grad_norm": 0.0571756718504632,
"learning_rate": 1.9136464813135383e-06,
"loss": 0.0013,
"step": 619
},
{
"epoch": 0.6613333333333333,
"grad_norm": 1.0696688251669149,
"learning_rate": 1.9131407991340576e-06,
"loss": 0.0191,
"step": 620
},
{
"epoch": 0.6624,
"grad_norm": 0.9286743366557831,
"learning_rate": 1.9126337078611853e-06,
"loss": 0.0155,
"step": 621
},
{
"epoch": 0.6634666666666666,
"grad_norm": 0.7214214892481057,
"learning_rate": 1.9121252082774273e-06,
"loss": 0.0122,
"step": 622
},
{
"epoch": 0.6645333333333333,
"grad_norm": 1.0342887383390953,
"learning_rate": 1.911615301167464e-06,
"loss": 0.0183,
"step": 623
},
{
"epoch": 0.6656,
"grad_norm": 1.158658852177621,
"learning_rate": 1.9111039873181477e-06,
"loss": 0.0208,
"step": 624
},
{
"epoch": 0.6666666666666666,
"grad_norm": 0.933991719728494,
"learning_rate": 1.910591267518501e-06,
"loss": 0.0447,
"step": 625
},
{
"epoch": 0.6677333333333333,
"grad_norm": 2.6089665241843285,
"learning_rate": 1.910077142559716e-06,
"loss": 0.0638,
"step": 626
},
{
"epoch": 0.6688,
"grad_norm": 2.250722631227982,
"learning_rate": 1.909561613235154e-06,
"loss": 0.0592,
"step": 627
},
{
"epoch": 0.6698666666666667,
"grad_norm": 0.08631342544886995,
"learning_rate": 1.909044680340343e-06,
"loss": 0.0031,
"step": 628
},
{
"epoch": 0.6709333333333334,
"grad_norm": 0.15542900973082988,
"learning_rate": 1.9085263446729764e-06,
"loss": 0.0028,
"step": 629
},
{
"epoch": 0.672,
"grad_norm": 1.022068539031681,
"learning_rate": 1.908006607032913e-06,
"loss": 0.0189,
"step": 630
},
{
"epoch": 0.6730666666666667,
"grad_norm": 0.15157861026738817,
"learning_rate": 1.907485468222174e-06,
"loss": 0.0033,
"step": 631
},
{
"epoch": 0.6741333333333334,
"grad_norm": 0.7061085215681796,
"learning_rate": 1.906962929044944e-06,
"loss": 0.0353,
"step": 632
},
{
"epoch": 0.6752,
"grad_norm": 1.7929133283068759,
"learning_rate": 1.9064389903075675e-06,
"loss": 0.097,
"step": 633
},
{
"epoch": 0.6762666666666667,
"grad_norm": 0.8589919170763982,
"learning_rate": 1.9059136528185498e-06,
"loss": 0.0157,
"step": 634
},
{
"epoch": 0.6773333333333333,
"grad_norm": 0.36494696901420853,
"learning_rate": 1.9053869173885536e-06,
"loss": 0.0067,
"step": 635
},
{
"epoch": 0.6784,
"grad_norm": 0.6532318752374391,
"learning_rate": 1.9048587848303995e-06,
"loss": 0.0202,
"step": 636
},
{
"epoch": 0.6794666666666667,
"grad_norm": 0.8657373525057245,
"learning_rate": 1.9043292559590633e-06,
"loss": 0.027,
"step": 637
},
{
"epoch": 0.6805333333333333,
"grad_norm": 0.5189799148758188,
"learning_rate": 1.9037983315916765e-06,
"loss": 0.0137,
"step": 638
},
{
"epoch": 0.6816,
"grad_norm": 0.04327467414717054,
"learning_rate": 1.9032660125475236e-06,
"loss": 0.0008,
"step": 639
},
{
"epoch": 0.6826666666666666,
"grad_norm": 0.28806340514043643,
"learning_rate": 1.9027322996480405e-06,
"loss": 0.0057,
"step": 640
},
{
"epoch": 0.6837333333333333,
"grad_norm": 0.7926939670917631,
"learning_rate": 1.9021971937168152e-06,
"loss": 0.0159,
"step": 641
},
{
"epoch": 0.6848,
"grad_norm": 0.10089339697782138,
"learning_rate": 1.9016606955795846e-06,
"loss": 0.0022,
"step": 642
},
{
"epoch": 0.6858666666666666,
"grad_norm": 1.4015949919911506,
"learning_rate": 1.9011228060642346e-06,
"loss": 0.0423,
"step": 643
},
{
"epoch": 0.6869333333333333,
"grad_norm": 0.2377784994817877,
"learning_rate": 1.9005835260007969e-06,
"loss": 0.0037,
"step": 644
},
{
"epoch": 0.688,
"grad_norm": 0.41763550718320475,
"learning_rate": 1.9000428562214505e-06,
"loss": 0.0066,
"step": 645
},
{
"epoch": 0.6890666666666667,
"grad_norm": 0.16240431871680872,
"learning_rate": 1.899500797560518e-06,
"loss": 0.0048,
"step": 646
},
{
"epoch": 0.6901333333333334,
"grad_norm": 0.36944281047610233,
"learning_rate": 1.8989573508544653e-06,
"loss": 0.0044,
"step": 647
},
{
"epoch": 0.6912,
"grad_norm": 0.048698287672728456,
"learning_rate": 1.8984125169419006e-06,
"loss": 0.001,
"step": 648
},
{
"epoch": 0.6922666666666667,
"grad_norm": 1.1741308042050045,
"learning_rate": 1.8978662966635724e-06,
"loss": 0.0275,
"step": 649
},
{
"epoch": 0.6933333333333334,
"grad_norm": 1.3558362474002168,
"learning_rate": 1.8973186908623685e-06,
"loss": 0.0205,
"step": 650
},
{
"epoch": 0.6933333333333334,
"eval_loss": 0.07789424806833267,
"eval_runtime": 8.3568,
"eval_samples_per_second": 11.966,
"eval_steps_per_second": 5.983,
"step": 650
},
{
"epoch": 0.6944,
"grad_norm": 1.7482459975039009,
"learning_rate": 1.8967697003833154e-06,
"loss": 0.0648,
"step": 651
},
{
"epoch": 0.6954666666666667,
"grad_norm": 0.9838146620076734,
"learning_rate": 1.8962193260735756e-06,
"loss": 0.0363,
"step": 652
},
{
"epoch": 0.6965333333333333,
"grad_norm": 0.21390240495670962,
"learning_rate": 1.895667568782447e-06,
"loss": 0.0024,
"step": 653
},
{
"epoch": 0.6976,
"grad_norm": 0.8151337293902924,
"learning_rate": 1.8951144293613618e-06,
"loss": 0.0148,
"step": 654
},
{
"epoch": 0.6986666666666667,
"grad_norm": 0.5162306807123138,
"learning_rate": 1.8945599086638854e-06,
"loss": 0.0171,
"step": 655
},
{
"epoch": 0.6997333333333333,
"grad_norm": 0.38429318683486613,
"learning_rate": 1.894004007545715e-06,
"loss": 0.0079,
"step": 656
},
{
"epoch": 0.7008,
"grad_norm": 0.2911510256599981,
"learning_rate": 1.8934467268646758e-06,
"loss": 0.0072,
"step": 657
},
{
"epoch": 0.7018666666666666,
"grad_norm": 0.6637191436854831,
"learning_rate": 1.892888067480725e-06,
"loss": 0.0258,
"step": 658
},
{
"epoch": 0.7029333333333333,
"grad_norm": 0.8101059665578735,
"learning_rate": 1.8923280302559442e-06,
"loss": 0.015,
"step": 659
},
{
"epoch": 0.704,
"grad_norm": 0.09007455887002334,
"learning_rate": 1.8917666160545443e-06,
"loss": 0.0015,
"step": 660
},
{
"epoch": 0.7050666666666666,
"grad_norm": 0.4166713394320213,
"learning_rate": 1.891203825742858e-06,
"loss": 0.0066,
"step": 661
},
{
"epoch": 0.7061333333333333,
"grad_norm": 1.140005754244955,
"learning_rate": 1.8906396601893432e-06,
"loss": 0.0296,
"step": 662
},
{
"epoch": 0.7072,
"grad_norm": 0.7125664873819846,
"learning_rate": 1.8900741202645807e-06,
"loss": 0.0105,
"step": 663
},
{
"epoch": 0.7082666666666667,
"grad_norm": 1.162278687098443,
"learning_rate": 1.8895072068412701e-06,
"loss": 0.0136,
"step": 664
},
{
"epoch": 0.7093333333333334,
"grad_norm": 0.12850306398178354,
"learning_rate": 1.8889389207942319e-06,
"loss": 0.0019,
"step": 665
},
{
"epoch": 0.7104,
"grad_norm": 0.9709033474128045,
"learning_rate": 1.8883692630004044e-06,
"loss": 0.0346,
"step": 666
},
{
"epoch": 0.7114666666666667,
"grad_norm": 0.1236617961891707,
"learning_rate": 1.8877982343388427e-06,
"loss": 0.0019,
"step": 667
},
{
"epoch": 0.7125333333333334,
"grad_norm": 0.4869541092375322,
"learning_rate": 1.8872258356907174e-06,
"loss": 0.0161,
"step": 668
},
{
"epoch": 0.7136,
"grad_norm": 0.050618181244294486,
"learning_rate": 1.8866520679393125e-06,
"loss": 0.0006,
"step": 669
},
{
"epoch": 0.7146666666666667,
"grad_norm": 1.4761081938136003,
"learning_rate": 1.8860769319700258e-06,
"loss": 0.1135,
"step": 670
},
{
"epoch": 0.7157333333333333,
"grad_norm": 0.6252382856366319,
"learning_rate": 1.8855004286703657e-06,
"loss": 0.0104,
"step": 671
},
{
"epoch": 0.7168,
"grad_norm": 0.6439559554870532,
"learning_rate": 1.8849225589299507e-06,
"loss": 0.0094,
"step": 672
},
{
"epoch": 0.7178666666666667,
"grad_norm": 0.28214655901364616,
"learning_rate": 1.8843433236405077e-06,
"loss": 0.0061,
"step": 673
},
{
"epoch": 0.7189333333333333,
"grad_norm": 0.5128291981023604,
"learning_rate": 1.8837627236958715e-06,
"loss": 0.033,
"step": 674
},
{
"epoch": 0.72,
"grad_norm": 0.7869181765904392,
"learning_rate": 1.8831807599919823e-06,
"loss": 0.0308,
"step": 675
},
{
"epoch": 0.7210666666666666,
"grad_norm": 0.006353292310558568,
"learning_rate": 1.8825974334268842e-06,
"loss": 0.0002,
"step": 676
},
{
"epoch": 0.7221333333333333,
"grad_norm": 0.014967788496948244,
"learning_rate": 1.8820127449007255e-06,
"loss": 0.0004,
"step": 677
},
{
"epoch": 0.7232,
"grad_norm": 0.21859308512940928,
"learning_rate": 1.8814266953157553e-06,
"loss": 0.0055,
"step": 678
},
{
"epoch": 0.7242666666666666,
"grad_norm": 1.2461213147088943,
"learning_rate": 1.8808392855763235e-06,
"loss": 0.0371,
"step": 679
},
{
"epoch": 0.7253333333333334,
"grad_norm": 0.10500248158730184,
"learning_rate": 1.8802505165888784e-06,
"loss": 0.0017,
"step": 680
},
{
"epoch": 0.7264,
"grad_norm": 1.8198780794585319,
"learning_rate": 1.8796603892619665e-06,
"loss": 0.0656,
"step": 681
},
{
"epoch": 0.7274666666666667,
"grad_norm": 0.6129129603289553,
"learning_rate": 1.8790689045062297e-06,
"loss": 0.0097,
"step": 682
},
{
"epoch": 0.7285333333333334,
"grad_norm": 2.0670625892250705,
"learning_rate": 1.8784760632344043e-06,
"loss": 0.0618,
"step": 683
},
{
"epoch": 0.7296,
"grad_norm": 0.040040852797923,
"learning_rate": 1.8778818663613215e-06,
"loss": 0.0006,
"step": 684
},
{
"epoch": 0.7306666666666667,
"grad_norm": 0.3734802415610818,
"learning_rate": 1.8772863148039026e-06,
"loss": 0.0086,
"step": 685
},
{
"epoch": 0.7317333333333333,
"grad_norm": 2.3829205537157403,
"learning_rate": 1.8766894094811602e-06,
"loss": 0.0727,
"step": 686
},
{
"epoch": 0.7328,
"grad_norm": 0.07598476564118967,
"learning_rate": 1.876091151314196e-06,
"loss": 0.0015,
"step": 687
},
{
"epoch": 0.7338666666666667,
"grad_norm": 0.8020548938183406,
"learning_rate": 1.8754915412261989e-06,
"loss": 0.0464,
"step": 688
},
{
"epoch": 0.7349333333333333,
"grad_norm": 0.9189831756888492,
"learning_rate": 1.8748905801424442e-06,
"loss": 0.0097,
"step": 689
},
{
"epoch": 0.736,
"grad_norm": 0.8698201134779201,
"learning_rate": 1.8742882689902916e-06,
"loss": 0.0387,
"step": 690
},
{
"epoch": 0.7370666666666666,
"grad_norm": 0.3837850280105085,
"learning_rate": 1.8736846086991853e-06,
"loss": 0.0041,
"step": 691
},
{
"epoch": 0.7381333333333333,
"grad_norm": 0.08376766362596819,
"learning_rate": 1.8730796002006498e-06,
"loss": 0.0013,
"step": 692
},
{
"epoch": 0.7392,
"grad_norm": 0.8243964566185918,
"learning_rate": 1.8724732444282914e-06,
"loss": 0.0272,
"step": 693
},
{
"epoch": 0.7402666666666666,
"grad_norm": 0.06561835665780034,
"learning_rate": 1.8718655423177942e-06,
"loss": 0.0012,
"step": 694
},
{
"epoch": 0.7413333333333333,
"grad_norm": 1.9770659144069223,
"learning_rate": 1.8712564948069212e-06,
"loss": 0.1281,
"step": 695
},
{
"epoch": 0.7424,
"grad_norm": 0.6808221729580057,
"learning_rate": 1.8706461028355102e-06,
"loss": 0.0278,
"step": 696
},
{
"epoch": 0.7434666666666667,
"grad_norm": 0.2805141264349283,
"learning_rate": 1.8700343673454748e-06,
"loss": 0.0057,
"step": 697
},
{
"epoch": 0.7445333333333334,
"grad_norm": 1.3630696487065848,
"learning_rate": 1.869421289280801e-06,
"loss": 0.0482,
"step": 698
},
{
"epoch": 0.7456,
"grad_norm": 0.45934846960562553,
"learning_rate": 1.8688068695875474e-06,
"loss": 0.0195,
"step": 699
},
{
"epoch": 0.7466666666666667,
"grad_norm": 0.8478316453189086,
"learning_rate": 1.8681911092138417e-06,
"loss": 0.022,
"step": 700
},
{
"epoch": 0.7466666666666667,
"eval_loss": 0.14599137008190155,
"eval_runtime": 8.3463,
"eval_samples_per_second": 11.981,
"eval_steps_per_second": 5.991,
"step": 700
},
{
"epoch": 0.7477333333333334,
"grad_norm": 1.6537827342230196,
"learning_rate": 1.8675740091098817e-06,
"loss": 0.0361,
"step": 701
},
{
"epoch": 0.7488,
"grad_norm": 1.3526954464708587,
"learning_rate": 1.8669555702279318e-06,
"loss": 0.0278,
"step": 702
},
{
"epoch": 0.7498666666666667,
"grad_norm": 1.15397568692622,
"learning_rate": 1.8663357935223228e-06,
"loss": 0.0287,
"step": 703
},
{
"epoch": 0.7509333333333333,
"grad_norm": 0.4320899696852264,
"learning_rate": 1.865714679949449e-06,
"loss": 0.0265,
"step": 704
},
{
"epoch": 0.752,
"grad_norm": 0.21985410834860744,
"learning_rate": 1.865092230467769e-06,
"loss": 0.0081,
"step": 705
},
{
"epoch": 0.7530666666666667,
"grad_norm": 0.64197353580112,
"learning_rate": 1.8644684460378018e-06,
"loss": 0.0168,
"step": 706
},
{
"epoch": 0.7541333333333333,
"grad_norm": 0.49761728799072774,
"learning_rate": 1.863843327622127e-06,
"loss": 0.0396,
"step": 707
},
{
"epoch": 0.7552,
"grad_norm": 1.283299911113395,
"learning_rate": 1.8632168761853823e-06,
"loss": 0.0178,
"step": 708
},
{
"epoch": 0.7562666666666666,
"grad_norm": 2.118132944346098,
"learning_rate": 1.8625890926942631e-06,
"loss": 0.1543,
"step": 709
},
{
"epoch": 0.7573333333333333,
"grad_norm": 0.2694109746423913,
"learning_rate": 1.8619599781175195e-06,
"loss": 0.0049,
"step": 710
},
{
"epoch": 0.7584,
"grad_norm": 0.7318430595449652,
"learning_rate": 1.8613295334259559e-06,
"loss": 0.0307,
"step": 711
},
{
"epoch": 0.7594666666666666,
"grad_norm": 0.1500358076950247,
"learning_rate": 1.8606977595924293e-06,
"loss": 0.0027,
"step": 712
},
{
"epoch": 0.7605333333333333,
"grad_norm": 0.4718961665735485,
"learning_rate": 1.8600646575918484e-06,
"loss": 0.0138,
"step": 713
},
{
"epoch": 0.7616,
"grad_norm": 0.8864599535171884,
"learning_rate": 1.85943022840117e-06,
"loss": 0.0442,
"step": 714
},
{
"epoch": 0.7626666666666667,
"grad_norm": 0.2217109209467052,
"learning_rate": 1.8587944729994002e-06,
"loss": 0.0045,
"step": 715
},
{
"epoch": 0.7637333333333334,
"grad_norm": 0.1856112558053254,
"learning_rate": 1.8581573923675906e-06,
"loss": 0.0035,
"step": 716
},
{
"epoch": 0.7648,
"grad_norm": 0.5109471217029353,
"learning_rate": 1.8575189874888392e-06,
"loss": 0.0099,
"step": 717
},
{
"epoch": 0.7658666666666667,
"grad_norm": 1.774273478868457,
"learning_rate": 1.856879259348286e-06,
"loss": 0.0653,
"step": 718
},
{
"epoch": 0.7669333333333334,
"grad_norm": 0.6357577238575974,
"learning_rate": 1.856238208933114e-06,
"loss": 0.0194,
"step": 719
},
{
"epoch": 0.768,
"grad_norm": 1.2519081954903675,
"learning_rate": 1.8555958372325456e-06,
"loss": 0.0445,
"step": 720
},
{
"epoch": 0.7690666666666667,
"grad_norm": 0.13216131308199502,
"learning_rate": 1.8549521452378434e-06,
"loss": 0.0027,
"step": 721
},
{
"epoch": 0.7701333333333333,
"grad_norm": 2.2932859639163157,
"learning_rate": 1.8543071339423063e-06,
"loss": 0.1572,
"step": 722
},
{
"epoch": 0.7712,
"grad_norm": 0.8892398942439078,
"learning_rate": 1.8536608043412696e-06,
"loss": 0.0215,
"step": 723
},
{
"epoch": 0.7722666666666667,
"grad_norm": 1.1044212758824195,
"learning_rate": 1.853013157432103e-06,
"loss": 0.0206,
"step": 724
},
{
"epoch": 0.7733333333333333,
"grad_norm": 0.04737647613454427,
"learning_rate": 1.8523641942142082e-06,
"loss": 0.0014,
"step": 725
},
{
"epoch": 0.7744,
"grad_norm": 1.8740445566312973,
"learning_rate": 1.8517139156890193e-06,
"loss": 0.057,
"step": 726
},
{
"epoch": 0.7754666666666666,
"grad_norm": 0.5827727755530225,
"learning_rate": 1.8510623228599994e-06,
"loss": 0.0112,
"step": 727
},
{
"epoch": 0.7765333333333333,
"grad_norm": 0.9932722718227635,
"learning_rate": 1.8504094167326394e-06,
"loss": 0.0462,
"step": 728
},
{
"epoch": 0.7776,
"grad_norm": 0.2981346688194257,
"learning_rate": 1.8497551983144576e-06,
"loss": 0.0054,
"step": 729
},
{
"epoch": 0.7786666666666666,
"grad_norm": 0.48501496823240203,
"learning_rate": 1.8490996686149966e-06,
"loss": 0.0145,
"step": 730
},
{
"epoch": 0.7797333333333333,
"grad_norm": 0.785772938987278,
"learning_rate": 1.8484428286458233e-06,
"loss": 0.0135,
"step": 731
},
{
"epoch": 0.7808,
"grad_norm": 0.23910637165939902,
"learning_rate": 1.8477846794205257e-06,
"loss": 0.0049,
"step": 732
},
{
"epoch": 0.7818666666666667,
"grad_norm": 0.2177932327400783,
"learning_rate": 1.8471252219547124e-06,
"loss": 0.0088,
"step": 733
},
{
"epoch": 0.7829333333333334,
"grad_norm": 1.1800699679193265,
"learning_rate": 1.8464644572660113e-06,
"loss": 0.0452,
"step": 734
},
{
"epoch": 0.784,
"grad_norm": 2.025992908145484,
"learning_rate": 1.8458023863740666e-06,
"loss": 0.0565,
"step": 735
},
{
"epoch": 0.7850666666666667,
"grad_norm": 0.3597458532138365,
"learning_rate": 1.845139010300539e-06,
"loss": 0.0052,
"step": 736
},
{
"epoch": 0.7861333333333334,
"grad_norm": 0.23447688879389122,
"learning_rate": 1.8444743300691026e-06,
"loss": 0.0041,
"step": 737
},
{
"epoch": 0.7872,
"grad_norm": 1.0217974031018804,
"learning_rate": 1.8438083467054442e-06,
"loss": 0.0174,
"step": 738
},
{
"epoch": 0.7882666666666667,
"grad_norm": 0.4407473823580305,
"learning_rate": 1.8431410612372617e-06,
"loss": 0.0065,
"step": 739
},
{
"epoch": 0.7893333333333333,
"grad_norm": 0.32606365652237235,
"learning_rate": 1.8424724746942623e-06,
"loss": 0.0072,
"step": 740
},
{
"epoch": 0.7904,
"grad_norm": 1.3835298162527605,
"learning_rate": 1.841802588108161e-06,
"loss": 0.012,
"step": 741
},
{
"epoch": 0.7914666666666667,
"grad_norm": 0.27234435434149745,
"learning_rate": 1.8411314025126782e-06,
"loss": 0.0043,
"step": 742
},
{
"epoch": 0.7925333333333333,
"grad_norm": 0.9264895282601704,
"learning_rate": 1.8404589189435393e-06,
"loss": 0.0177,
"step": 743
},
{
"epoch": 0.7936,
"grad_norm": 0.8074935065238816,
"learning_rate": 1.8397851384384734e-06,
"loss": 0.0196,
"step": 744
},
{
"epoch": 0.7946666666666666,
"grad_norm": 0.1043654508508842,
"learning_rate": 1.8391100620372097e-06,
"loss": 0.0016,
"step": 745
},
{
"epoch": 0.7957333333333333,
"grad_norm": 0.294338685689348,
"learning_rate": 1.8384336907814782e-06,
"loss": 0.0038,
"step": 746
},
{
"epoch": 0.7968,
"grad_norm": 1.877458111911435,
"learning_rate": 1.8377560257150058e-06,
"loss": 0.1197,
"step": 747
},
{
"epoch": 0.7978666666666666,
"grad_norm": 0.28728205490269343,
"learning_rate": 1.8370770678835173e-06,
"loss": 0.0032,
"step": 748
},
{
"epoch": 0.7989333333333334,
"grad_norm": 0.13587158370211505,
"learning_rate": 1.8363968183347311e-06,
"loss": 0.0018,
"step": 749
},
{
"epoch": 0.8,
"grad_norm": 0.012187216319295395,
"learning_rate": 1.8357152781183601e-06,
"loss": 0.0004,
"step": 750
},
{
"epoch": 0.8,
"eval_loss": 0.12575645744800568,
"eval_runtime": 8.3279,
"eval_samples_per_second": 12.008,
"eval_steps_per_second": 6.004,
"step": 750
},
{
"epoch": 0.8010666666666667,
"grad_norm": 0.5959272862031918,
"learning_rate": 1.8350324482861082e-06,
"loss": 0.0089,
"step": 751
},
{
"epoch": 0.8021333333333334,
"grad_norm": 0.8599561461029128,
"learning_rate": 1.834348329891669e-06,
"loss": 0.0735,
"step": 752
},
{
"epoch": 0.8032,
"grad_norm": 0.3736642755602307,
"learning_rate": 1.8336629239907253e-06,
"loss": 0.0051,
"step": 753
},
{
"epoch": 0.8042666666666667,
"grad_norm": 2.1960910655785706,
"learning_rate": 1.8329762316409464e-06,
"loss": 0.0474,
"step": 754
},
{
"epoch": 0.8053333333333333,
"grad_norm": 0.23486155369972542,
"learning_rate": 1.8322882539019862e-06,
"loss": 0.0026,
"step": 755
},
{
"epoch": 0.8064,
"grad_norm": 0.4135277646156687,
"learning_rate": 1.831598991835483e-06,
"loss": 0.0038,
"step": 756
},
{
"epoch": 0.8074666666666667,
"grad_norm": 1.165467690491739,
"learning_rate": 1.8309084465050568e-06,
"loss": 0.0176,
"step": 757
},
{
"epoch": 0.8085333333333333,
"grad_norm": 2.02646027680192,
"learning_rate": 1.8302166189763071e-06,
"loss": 0.0831,
"step": 758
},
{
"epoch": 0.8096,
"grad_norm": 1.6085867863054608,
"learning_rate": 1.829523510316813e-06,
"loss": 0.0424,
"step": 759
},
{
"epoch": 0.8106666666666666,
"grad_norm": 0.08394023384907391,
"learning_rate": 1.8288291215961298e-06,
"loss": 0.0011,
"step": 760
},
{
"epoch": 0.8117333333333333,
"grad_norm": 1.5549433129437507,
"learning_rate": 1.8281334538857881e-06,
"loss": 0.0543,
"step": 761
},
{
"epoch": 0.8128,
"grad_norm": 1.1958564233447515,
"learning_rate": 1.827436508259293e-06,
"loss": 0.1382,
"step": 762
},
{
"epoch": 0.8138666666666666,
"grad_norm": 1.8875089670264504,
"learning_rate": 1.8267382857921207e-06,
"loss": 0.1114,
"step": 763
},
{
"epoch": 0.8149333333333333,
"grad_norm": 0.8482532923040282,
"learning_rate": 1.8260387875617183e-06,
"loss": 0.0223,
"step": 764
},
{
"epoch": 0.816,
"grad_norm": 0.33106328286533665,
"learning_rate": 1.8253380146475007e-06,
"loss": 0.0047,
"step": 765
},
{
"epoch": 0.8170666666666667,
"grad_norm": 0.7790924737666333,
"learning_rate": 1.8246359681308512e-06,
"loss": 0.0542,
"step": 766
},
{
"epoch": 0.8181333333333334,
"grad_norm": 1.2138816360719327,
"learning_rate": 1.8239326490951171e-06,
"loss": 0.0637,
"step": 767
},
{
"epoch": 0.8192,
"grad_norm": 0.7481846968226915,
"learning_rate": 1.82322805862561e-06,
"loss": 0.0241,
"step": 768
},
{
"epoch": 0.8202666666666667,
"grad_norm": 0.49646729395998357,
"learning_rate": 1.822522197809603e-06,
"loss": 0.0119,
"step": 769
},
{
"epoch": 0.8213333333333334,
"grad_norm": 0.6802325293844261,
"learning_rate": 1.8218150677363308e-06,
"loss": 0.0157,
"step": 770
},
{
"epoch": 0.8224,
"grad_norm": 0.3203206951174304,
"learning_rate": 1.8211066694969851e-06,
"loss": 0.0053,
"step": 771
},
{
"epoch": 0.8234666666666667,
"grad_norm": 0.7237727939102068,
"learning_rate": 1.8203970041847156e-06,
"loss": 0.0196,
"step": 772
},
{
"epoch": 0.8245333333333333,
"grad_norm": 0.5815456038630266,
"learning_rate": 1.8196860728946267e-06,
"loss": 0.0192,
"step": 773
},
{
"epoch": 0.8256,
"grad_norm": 0.7384144199958987,
"learning_rate": 1.8189738767237765e-06,
"loss": 0.0167,
"step": 774
},
{
"epoch": 0.8266666666666667,
"grad_norm": 0.8452498499854597,
"learning_rate": 1.8182604167711754e-06,
"loss": 0.0321,
"step": 775
},
{
"epoch": 0.8277333333333333,
"grad_norm": 1.1155855351659207,
"learning_rate": 1.8175456941377836e-06,
"loss": 0.0908,
"step": 776
},
{
"epoch": 0.8288,
"grad_norm": 0.5831585770270585,
"learning_rate": 1.8168297099265092e-06,
"loss": 0.0178,
"step": 777
},
{
"epoch": 0.8298666666666666,
"grad_norm": 0.5159803955898651,
"learning_rate": 1.8161124652422087e-06,
"loss": 0.0509,
"step": 778
},
{
"epoch": 0.8309333333333333,
"grad_norm": 0.39455087113487614,
"learning_rate": 1.8153939611916815e-06,
"loss": 0.0202,
"step": 779
},
{
"epoch": 0.832,
"grad_norm": 0.4893148909516496,
"learning_rate": 1.8146741988836724e-06,
"loss": 0.0126,
"step": 780
},
{
"epoch": 0.8330666666666666,
"grad_norm": 0.3944238669973449,
"learning_rate": 1.8139531794288668e-06,
"loss": 0.0089,
"step": 781
},
{
"epoch": 0.8341333333333333,
"grad_norm": 1.3203783416668555,
"learning_rate": 1.8132309039398898e-06,
"loss": 0.044,
"step": 782
},
{
"epoch": 0.8352,
"grad_norm": 0.3733033862606873,
"learning_rate": 1.8125073735313056e-06,
"loss": 0.0119,
"step": 783
},
{
"epoch": 0.8362666666666667,
"grad_norm": 0.4157990871864292,
"learning_rate": 1.8117825893196143e-06,
"loss": 0.0171,
"step": 784
},
{
"epoch": 0.8373333333333334,
"grad_norm": 0.9873948651016035,
"learning_rate": 1.8110565524232508e-06,
"loss": 0.0418,
"step": 785
},
{
"epoch": 0.8384,
"grad_norm": 0.373128353176687,
"learning_rate": 1.8103292639625835e-06,
"loss": 0.0082,
"step": 786
},
{
"epoch": 0.8394666666666667,
"grad_norm": 0.4700397236766773,
"learning_rate": 1.8096007250599113e-06,
"loss": 0.0094,
"step": 787
},
{
"epoch": 0.8405333333333334,
"grad_norm": 1.1544212720503313,
"learning_rate": 1.8088709368394634e-06,
"loss": 0.0306,
"step": 788
},
{
"epoch": 0.8416,
"grad_norm": 0.31405851779047433,
"learning_rate": 1.808139900427397e-06,
"loss": 0.0078,
"step": 789
},
{
"epoch": 0.8426666666666667,
"grad_norm": 1.7290262085984993,
"learning_rate": 1.8074076169517943e-06,
"loss": 0.055,
"step": 790
},
{
"epoch": 0.8437333333333333,
"grad_norm": 1.4623456102740366,
"learning_rate": 1.8066740875426634e-06,
"loss": 0.0607,
"step": 791
},
{
"epoch": 0.8448,
"grad_norm": 0.4213527888839155,
"learning_rate": 1.805939313331934e-06,
"loss": 0.0078,
"step": 792
},
{
"epoch": 0.8458666666666667,
"grad_norm": 0.8697053625190254,
"learning_rate": 1.8052032954534564e-06,
"loss": 0.0447,
"step": 793
},
{
"epoch": 0.8469333333333333,
"grad_norm": 0.07002893438915347,
"learning_rate": 1.8044660350430017e-06,
"loss": 0.0017,
"step": 794
},
{
"epoch": 0.848,
"grad_norm": 0.4633257884238649,
"learning_rate": 1.8037275332382564e-06,
"loss": 0.0084,
"step": 795
},
{
"epoch": 0.8490666666666666,
"grad_norm": 1.3124423563701477,
"learning_rate": 1.8029877911788241e-06,
"loss": 0.0251,
"step": 796
},
{
"epoch": 0.8501333333333333,
"grad_norm": 1.1207872973331625,
"learning_rate": 1.802246810006221e-06,
"loss": 0.0292,
"step": 797
},
{
"epoch": 0.8512,
"grad_norm": 0.49388843139638594,
"learning_rate": 1.8015045908638768e-06,
"loss": 0.0416,
"step": 798
},
{
"epoch": 0.8522666666666666,
"grad_norm": 0.35403955364230993,
"learning_rate": 1.8007611348971307e-06,
"loss": 0.0127,
"step": 799
},
{
"epoch": 0.8533333333333334,
"grad_norm": 0.5034914729242231,
"learning_rate": 1.8000164432532304e-06,
"loss": 0.012,
"step": 800
},
{
"epoch": 0.8533333333333334,
"eval_loss": 0.053370095789432526,
"eval_runtime": 8.3092,
"eval_samples_per_second": 12.035,
"eval_steps_per_second": 6.017,
"step": 800
},
{
"epoch": 0.8544,
"grad_norm": 0.36895224014402334,
"learning_rate": 1.7992705170813306e-06,
"loss": 0.0078,
"step": 801
},
{
"epoch": 0.8554666666666667,
"grad_norm": 0.8252968745608963,
"learning_rate": 1.7985233575324914e-06,
"loss": 0.0272,
"step": 802
},
{
"epoch": 0.8565333333333334,
"grad_norm": 1.1763097545031713,
"learning_rate": 1.7977749657596758e-06,
"loss": 0.0344,
"step": 803
},
{
"epoch": 0.8576,
"grad_norm": 0.5414117222730287,
"learning_rate": 1.7970253429177476e-06,
"loss": 0.0099,
"step": 804
},
{
"epoch": 0.8586666666666667,
"grad_norm": 1.2355141437660309,
"learning_rate": 1.796274490163472e-06,
"loss": 0.0879,
"step": 805
},
{
"epoch": 0.8597333333333333,
"grad_norm": 0.5127741675009583,
"learning_rate": 1.7955224086555105e-06,
"loss": 0.0078,
"step": 806
},
{
"epoch": 0.8608,
"grad_norm": 1.8632872491399184,
"learning_rate": 1.7947690995544216e-06,
"loss": 0.1231,
"step": 807
},
{
"epoch": 0.8618666666666667,
"grad_norm": 0.3007814403727227,
"learning_rate": 1.7940145640226581e-06,
"loss": 0.0044,
"step": 808
},
{
"epoch": 0.8629333333333333,
"grad_norm": 0.10168799783835121,
"learning_rate": 1.7932588032245643e-06,
"loss": 0.0017,
"step": 809
},
{
"epoch": 0.864,
"grad_norm": 0.307820320152951,
"learning_rate": 1.7925018183263769e-06,
"loss": 0.0074,
"step": 810
},
{
"epoch": 0.8650666666666667,
"grad_norm": 0.5182017885407396,
"learning_rate": 1.7917436104962204e-06,
"loss": 0.01,
"step": 811
},
{
"epoch": 0.8661333333333333,
"grad_norm": 0.32253536427501683,
"learning_rate": 1.7909841809041065e-06,
"loss": 0.0187,
"step": 812
},
{
"epoch": 0.8672,
"grad_norm": 0.34005533079953526,
"learning_rate": 1.790223530721933e-06,
"loss": 0.0057,
"step": 813
},
{
"epoch": 0.8682666666666666,
"grad_norm": 0.1909316693569716,
"learning_rate": 1.7894616611234806e-06,
"loss": 0.0043,
"step": 814
},
{
"epoch": 0.8693333333333333,
"grad_norm": 1.478335175372691,
"learning_rate": 1.7886985732844114e-06,
"loss": 0.0501,
"step": 815
},
{
"epoch": 0.8704,
"grad_norm": 1.1716937815295259,
"learning_rate": 1.787934268382268e-06,
"loss": 0.0335,
"step": 816
},
{
"epoch": 0.8714666666666666,
"grad_norm": 0.05439033142980008,
"learning_rate": 1.7871687475964711e-06,
"loss": 0.0013,
"step": 817
},
{
"epoch": 0.8725333333333334,
"grad_norm": 0.536222083547284,
"learning_rate": 1.7864020121083171e-06,
"loss": 0.0138,
"step": 818
},
{
"epoch": 0.8736,
"grad_norm": 1.3458359629286443,
"learning_rate": 1.785634063100978e-06,
"loss": 0.0385,
"step": 819
},
{
"epoch": 0.8746666666666667,
"grad_norm": 1.3649235702755,
"learning_rate": 1.784864901759497e-06,
"loss": 0.0339,
"step": 820
},
{
"epoch": 0.8757333333333334,
"grad_norm": 0.30027259568249803,
"learning_rate": 1.7840945292707885e-06,
"loss": 0.0072,
"step": 821
},
{
"epoch": 0.8768,
"grad_norm": 1.3243107032449952,
"learning_rate": 1.7833229468236366e-06,
"loss": 0.1008,
"step": 822
},
{
"epoch": 0.8778666666666667,
"grad_norm": 0.13681447172171157,
"learning_rate": 1.7825501556086917e-06,
"loss": 0.0036,
"step": 823
},
{
"epoch": 0.8789333333333333,
"grad_norm": 0.5040166624199399,
"learning_rate": 1.78177615681847e-06,
"loss": 0.0099,
"step": 824
},
{
"epoch": 0.88,
"grad_norm": 0.8191446395314659,
"learning_rate": 1.7810009516473508e-06,
"loss": 0.0528,
"step": 825
},
{
"epoch": 0.8810666666666667,
"grad_norm": 0.6656923642458409,
"learning_rate": 1.780224541291575e-06,
"loss": 0.0058,
"step": 826
},
{
"epoch": 0.8821333333333333,
"grad_norm": 0.07523140261740402,
"learning_rate": 1.779446926949244e-06,
"loss": 0.0028,
"step": 827
},
{
"epoch": 0.8832,
"grad_norm": 0.7327408060072352,
"learning_rate": 1.7786681098203155e-06,
"loss": 0.0243,
"step": 828
},
{
"epoch": 0.8842666666666666,
"grad_norm": 0.5688924217563622,
"learning_rate": 1.7778880911066047e-06,
"loss": 0.0283,
"step": 829
},
{
"epoch": 0.8853333333333333,
"grad_norm": 0.20295904776689908,
"learning_rate": 1.7771068720117808e-06,
"loss": 0.0038,
"step": 830
},
{
"epoch": 0.8864,
"grad_norm": 0.15585420550276582,
"learning_rate": 1.7763244537413649e-06,
"loss": 0.0028,
"step": 831
},
{
"epoch": 0.8874666666666666,
"grad_norm": 0.9312786557049378,
"learning_rate": 1.7755408375027284e-06,
"loss": 0.0131,
"step": 832
},
{
"epoch": 0.8885333333333333,
"grad_norm": 1.292940050593777,
"learning_rate": 1.7747560245050926e-06,
"loss": 0.0547,
"step": 833
},
{
"epoch": 0.8896,
"grad_norm": 0.47924657994827013,
"learning_rate": 1.7739700159595234e-06,
"loss": 0.0109,
"step": 834
},
{
"epoch": 0.8906666666666667,
"grad_norm": 0.6959830731874318,
"learning_rate": 1.7731828130789338e-06,
"loss": 0.0117,
"step": 835
},
{
"epoch": 0.8917333333333334,
"grad_norm": 0.08123142159922864,
"learning_rate": 1.772394417078078e-06,
"loss": 0.003,
"step": 836
},
{
"epoch": 0.8928,
"grad_norm": 0.07894197690380898,
"learning_rate": 1.7716048291735532e-06,
"loss": 0.0029,
"step": 837
},
{
"epoch": 0.8938666666666667,
"grad_norm": 0.26682915515866196,
"learning_rate": 1.7708140505837942e-06,
"loss": 0.0041,
"step": 838
},
{
"epoch": 0.8949333333333334,
"grad_norm": 0.7307717914383901,
"learning_rate": 1.7700220825290733e-06,
"loss": 0.0593,
"step": 839
},
{
"epoch": 0.896,
"grad_norm": 0.5459164968650944,
"learning_rate": 1.7692289262314999e-06,
"loss": 0.0078,
"step": 840
},
{
"epoch": 0.8970666666666667,
"grad_norm": 0.6136665907387636,
"learning_rate": 1.7684345829150151e-06,
"loss": 0.0143,
"step": 841
},
{
"epoch": 0.8981333333333333,
"grad_norm": 0.029118313370510067,
"learning_rate": 1.767639053805393e-06,
"loss": 0.0008,
"step": 842
},
{
"epoch": 0.8992,
"grad_norm": 0.13813382275007977,
"learning_rate": 1.7668423401302369e-06,
"loss": 0.003,
"step": 843
},
{
"epoch": 0.9002666666666667,
"grad_norm": 0.6157084116148966,
"learning_rate": 1.766044443118978e-06,
"loss": 0.044,
"step": 844
},
{
"epoch": 0.9013333333333333,
"grad_norm": 2.062922045507839,
"learning_rate": 1.765245364002874e-06,
"loss": 0.0558,
"step": 845
},
{
"epoch": 0.9024,
"grad_norm": 0.7371080849477383,
"learning_rate": 1.7644451040150066e-06,
"loss": 0.0132,
"step": 846
},
{
"epoch": 0.9034666666666666,
"grad_norm": 0.7773691013862728,
"learning_rate": 1.7636436643902793e-06,
"loss": 0.0205,
"step": 847
},
{
"epoch": 0.9045333333333333,
"grad_norm": 1.6905175037093625,
"learning_rate": 1.7628410463654163e-06,
"loss": 0.0389,
"step": 848
},
{
"epoch": 0.9056,
"grad_norm": 0.06391501037524207,
"learning_rate": 1.7620372511789604e-06,
"loss": 0.0016,
"step": 849
},
{
"epoch": 0.9066666666666666,
"grad_norm": 0.23754507243207357,
"learning_rate": 1.7612322800712704e-06,
"loss": 0.0043,
"step": 850
},
{
"epoch": 0.9066666666666666,
"eval_loss": 0.06493183970451355,
"eval_runtime": 9.2558,
"eval_samples_per_second": 10.804,
"eval_steps_per_second": 5.402,
"step": 850
},
{
"epoch": 0.9077333333333333,
"grad_norm": 0.11522491154504028,
"learning_rate": 1.7604261342845205e-06,
"loss": 0.0033,
"step": 851
},
{
"epoch": 0.9088,
"grad_norm": 0.10544553514498471,
"learning_rate": 1.7596188150626963e-06,
"loss": 0.0031,
"step": 852
},
{
"epoch": 0.9098666666666667,
"grad_norm": 0.7103429756853613,
"learning_rate": 1.7588103236515954e-06,
"loss": 0.0361,
"step": 853
},
{
"epoch": 0.9109333333333334,
"grad_norm": 0.7428779821661828,
"learning_rate": 1.7580006612988238e-06,
"loss": 0.0604,
"step": 854
},
{
"epoch": 0.912,
"grad_norm": 1.3285680107698499,
"learning_rate": 1.7571898292537943e-06,
"loss": 0.0248,
"step": 855
},
{
"epoch": 0.9130666666666667,
"grad_norm": 0.2700284204147992,
"learning_rate": 1.7563778287677247e-06,
"loss": 0.0047,
"step": 856
},
{
"epoch": 0.9141333333333334,
"grad_norm": 0.4285906295736961,
"learning_rate": 1.7555646610936357e-06,
"loss": 0.0132,
"step": 857
},
{
"epoch": 0.9152,
"grad_norm": 0.817481863958403,
"learning_rate": 1.7547503274863496e-06,
"loss": 0.0393,
"step": 858
},
{
"epoch": 0.9162666666666667,
"grad_norm": 0.8000548344661702,
"learning_rate": 1.7539348292024878e-06,
"loss": 0.0146,
"step": 859
},
{
"epoch": 0.9173333333333333,
"grad_norm": 0.5004377055556393,
"learning_rate": 1.7531181675004683e-06,
"loss": 0.0094,
"step": 860
},
{
"epoch": 0.9184,
"grad_norm": 0.4818274803342577,
"learning_rate": 1.7523003436405054e-06,
"loss": 0.0088,
"step": 861
},
{
"epoch": 0.9194666666666667,
"grad_norm": 0.07482480348938156,
"learning_rate": 1.7514813588846059e-06,
"loss": 0.0032,
"step": 862
},
{
"epoch": 0.9205333333333333,
"grad_norm": 0.481044423432111,
"learning_rate": 1.750661214496568e-06,
"loss": 0.0144,
"step": 863
},
{
"epoch": 0.9216,
"grad_norm": 0.4984826627914621,
"learning_rate": 1.7498399117419807e-06,
"loss": 0.0224,
"step": 864
},
{
"epoch": 0.9226666666666666,
"grad_norm": 1.1474206429314626,
"learning_rate": 1.7490174518882186e-06,
"loss": 0.0526,
"step": 865
},
{
"epoch": 0.9237333333333333,
"grad_norm": 0.9434708879125293,
"learning_rate": 1.7481938362044428e-06,
"loss": 0.0311,
"step": 866
},
{
"epoch": 0.9248,
"grad_norm": 0.3535353322476962,
"learning_rate": 1.7473690659615985e-06,
"loss": 0.0083,
"step": 867
},
{
"epoch": 0.9258666666666666,
"grad_norm": 0.9233610937074402,
"learning_rate": 1.7465431424324115e-06,
"loss": 0.021,
"step": 868
},
{
"epoch": 0.9269333333333334,
"grad_norm": 0.0381949887798563,
"learning_rate": 1.7457160668913882e-06,
"loss": 0.0008,
"step": 869
},
{
"epoch": 0.928,
"grad_norm": 0.10475509463522734,
"learning_rate": 1.744887840614812e-06,
"loss": 0.0042,
"step": 870
},
{
"epoch": 0.9290666666666667,
"grad_norm": 1.097369465053356,
"learning_rate": 1.7440584648807422e-06,
"loss": 0.0226,
"step": 871
},
{
"epoch": 0.9301333333333334,
"grad_norm": 0.8034539747593563,
"learning_rate": 1.743227940969012e-06,
"loss": 0.0139,
"step": 872
},
{
"epoch": 0.9312,
"grad_norm": 1.5098893310606223,
"learning_rate": 1.7423962701612264e-06,
"loss": 0.0494,
"step": 873
},
{
"epoch": 0.9322666666666667,
"grad_norm": 1.183787985459629,
"learning_rate": 1.7415634537407602e-06,
"loss": 0.0324,
"step": 874
},
{
"epoch": 0.9333333333333333,
"grad_norm": 0.9869556179312732,
"learning_rate": 1.7407294929927558e-06,
"loss": 0.0293,
"step": 875
},
{
"epoch": 0.9344,
"grad_norm": 1.307413794562261,
"learning_rate": 1.739894389204122e-06,
"loss": 0.0174,
"step": 876
},
{
"epoch": 0.9354666666666667,
"grad_norm": 0.6586306424965217,
"learning_rate": 1.7390581436635308e-06,
"loss": 0.0197,
"step": 877
},
{
"epoch": 0.9365333333333333,
"grad_norm": 0.4043924214860192,
"learning_rate": 1.738220757661416e-06,
"loss": 0.0054,
"step": 878
},
{
"epoch": 0.9376,
"grad_norm": 0.5088216345136679,
"learning_rate": 1.7373822324899724e-06,
"loss": 0.0155,
"step": 879
},
{
"epoch": 0.9386666666666666,
"grad_norm": 2.1231817727610176,
"learning_rate": 1.736542569443151e-06,
"loss": 0.0648,
"step": 880
},
{
"epoch": 0.9397333333333333,
"grad_norm": 0.844118384711583,
"learning_rate": 1.7357017698166604e-06,
"loss": 0.0302,
"step": 881
},
{
"epoch": 0.9408,
"grad_norm": 0.06773963213315144,
"learning_rate": 1.7348598349079616e-06,
"loss": 0.0026,
"step": 882
},
{
"epoch": 0.9418666666666666,
"grad_norm": 0.520985003208029,
"learning_rate": 1.734016766016269e-06,
"loss": 0.01,
"step": 883
},
{
"epoch": 0.9429333333333333,
"grad_norm": 0.6766732414862024,
"learning_rate": 1.7331725644425453e-06,
"loss": 0.0227,
"step": 884
},
{
"epoch": 0.944,
"grad_norm": 0.19169654682905016,
"learning_rate": 1.732327231489502e-06,
"loss": 0.0069,
"step": 885
},
{
"epoch": 0.9450666666666667,
"grad_norm": 0.5739250700621576,
"learning_rate": 1.7314807684615965e-06,
"loss": 0.0113,
"step": 886
},
{
"epoch": 0.9461333333333334,
"grad_norm": 2.589012811817353,
"learning_rate": 1.7306331766650298e-06,
"loss": 0.0453,
"step": 887
},
{
"epoch": 0.9472,
"grad_norm": 2.3283272194877607,
"learning_rate": 1.7297844574077445e-06,
"loss": 0.0512,
"step": 888
},
{
"epoch": 0.9482666666666667,
"grad_norm": 0.08031806368889559,
"learning_rate": 1.7289346119994234e-06,
"loss": 0.0021,
"step": 889
},
{
"epoch": 0.9493333333333334,
"grad_norm": 0.8282674805029137,
"learning_rate": 1.7280836417514873e-06,
"loss": 0.0229,
"step": 890
},
{
"epoch": 0.9504,
"grad_norm": 0.5500672651045168,
"learning_rate": 1.7272315479770923e-06,
"loss": 0.015,
"step": 891
},
{
"epoch": 0.9514666666666667,
"grad_norm": 0.7803183849599556,
"learning_rate": 1.7263783319911282e-06,
"loss": 0.0176,
"step": 892
},
{
"epoch": 0.9525333333333333,
"grad_norm": 0.8919164411124452,
"learning_rate": 1.7255239951102167e-06,
"loss": 0.09,
"step": 893
},
{
"epoch": 0.9536,
"grad_norm": 0.8799607735287165,
"learning_rate": 1.7246685386527096e-06,
"loss": 0.0235,
"step": 894
},
{
"epoch": 0.9546666666666667,
"grad_norm": 0.5384817024411757,
"learning_rate": 1.7238119639386855e-06,
"loss": 0.0121,
"step": 895
},
{
"epoch": 0.9557333333333333,
"grad_norm": 0.12014693936874205,
"learning_rate": 1.7229542722899493e-06,
"loss": 0.0024,
"step": 896
},
{
"epoch": 0.9568,
"grad_norm": 0.827858735368603,
"learning_rate": 1.7220954650300292e-06,
"loss": 0.0617,
"step": 897
},
{
"epoch": 0.9578666666666666,
"grad_norm": 0.6525540756770545,
"learning_rate": 1.721235543484175e-06,
"loss": 0.0242,
"step": 898
},
{
"epoch": 0.9589333333333333,
"grad_norm": 0.44614571143621745,
"learning_rate": 1.720374508979356e-06,
"loss": 0.0112,
"step": 899
},
{
"epoch": 0.96,
"grad_norm": 0.7043329837387845,
"learning_rate": 1.7195123628442587e-06,
"loss": 0.0198,
"step": 900
},
{
"epoch": 0.96,
"eval_loss": 0.06702824681997299,
"eval_runtime": 8.4156,
"eval_samples_per_second": 11.883,
"eval_steps_per_second": 5.941,
"step": 900
},
{
"epoch": 0.9610666666666666,
"grad_norm": 0.7201943038229085,
"learning_rate": 1.7186491064092855e-06,
"loss": 0.0453,
"step": 901
},
{
"epoch": 0.9621333333333333,
"grad_norm": 1.6075880142157002,
"learning_rate": 1.7177847410065513e-06,
"loss": 0.0521,
"step": 902
},
{
"epoch": 0.9632,
"grad_norm": 0.4452359083266732,
"learning_rate": 1.7169192679698834e-06,
"loss": 0.0125,
"step": 903
},
{
"epoch": 0.9642666666666667,
"grad_norm": 0.44141821014464877,
"learning_rate": 1.7160526886348174e-06,
"loss": 0.0168,
"step": 904
},
{
"epoch": 0.9653333333333334,
"grad_norm": 0.3041218639469686,
"learning_rate": 1.7151850043385965e-06,
"loss": 0.0092,
"step": 905
},
{
"epoch": 0.9664,
"grad_norm": 0.847915323435404,
"learning_rate": 1.7143162164201686e-06,
"loss": 0.0368,
"step": 906
},
{
"epoch": 0.9674666666666667,
"grad_norm": 1.6488620050289835,
"learning_rate": 1.7134463262201853e-06,
"loss": 0.0506,
"step": 907
},
{
"epoch": 0.9685333333333334,
"grad_norm": 1.4437731473777529,
"learning_rate": 1.7125753350809987e-06,
"loss": 0.0512,
"step": 908
},
{
"epoch": 0.9696,
"grad_norm": 3.4417556394185813,
"learning_rate": 1.7117032443466592e-06,
"loss": 0.1375,
"step": 909
},
{
"epoch": 0.9706666666666667,
"grad_norm": 1.393607964551126,
"learning_rate": 1.7108300553629156e-06,
"loss": 0.0404,
"step": 910
},
{
"epoch": 0.9717333333333333,
"grad_norm": 0.21196540619952392,
"learning_rate": 1.7099557694772102e-06,
"loss": 0.0061,
"step": 911
},
{
"epoch": 0.9728,
"grad_norm": 0.6223387116095862,
"learning_rate": 1.7090803880386782e-06,
"loss": 0.0252,
"step": 912
},
{
"epoch": 0.9738666666666667,
"grad_norm": 0.07423684189600925,
"learning_rate": 1.7082039123981453e-06,
"loss": 0.0033,
"step": 913
},
{
"epoch": 0.9749333333333333,
"grad_norm": 0.05354461119851362,
"learning_rate": 1.707326343908126e-06,
"loss": 0.0014,
"step": 914
},
{
"epoch": 0.976,
"grad_norm": 0.17654795092403208,
"learning_rate": 1.7064476839228212e-06,
"loss": 0.0079,
"step": 915
},
{
"epoch": 0.9770666666666666,
"grad_norm": 1.1560415348836615,
"learning_rate": 1.705567933798116e-06,
"loss": 0.0709,
"step": 916
},
{
"epoch": 0.9781333333333333,
"grad_norm": 0.6343824883733383,
"learning_rate": 1.7046870948915775e-06,
"loss": 0.0127,
"step": 917
},
{
"epoch": 0.9792,
"grad_norm": 0.1494249398692408,
"learning_rate": 1.7038051685624527e-06,
"loss": 0.005,
"step": 918
},
{
"epoch": 0.9802666666666666,
"grad_norm": 0.6696530221859195,
"learning_rate": 1.702922156171668e-06,
"loss": 0.0106,
"step": 919
},
{
"epoch": 0.9813333333333333,
"grad_norm": 0.14314344177076077,
"learning_rate": 1.702038059081824e-06,
"loss": 0.0032,
"step": 920
},
{
"epoch": 0.9824,
"grad_norm": 0.32484865198159396,
"learning_rate": 1.7011528786571966e-06,
"loss": 0.0086,
"step": 921
},
{
"epoch": 0.9834666666666667,
"grad_norm": 0.8822743257829567,
"learning_rate": 1.7002666162637325e-06,
"loss": 0.0313,
"step": 922
},
{
"epoch": 0.9845333333333334,
"grad_norm": 0.7756855471213663,
"learning_rate": 1.6993792732690478e-06,
"loss": 0.018,
"step": 923
},
{
"epoch": 0.9856,
"grad_norm": 0.7609762590097283,
"learning_rate": 1.698490851042427e-06,
"loss": 0.0671,
"step": 924
},
{
"epoch": 0.9866666666666667,
"grad_norm": 1.2735635481734564,
"learning_rate": 1.6976013509548195e-06,
"loss": 0.0286,
"step": 925
},
{
"epoch": 0.9877333333333334,
"grad_norm": 1.4346762691717854,
"learning_rate": 1.6967107743788384e-06,
"loss": 0.1199,
"step": 926
},
{
"epoch": 0.9888,
"grad_norm": 0.790669534924756,
"learning_rate": 1.6958191226887566e-06,
"loss": 0.0269,
"step": 927
},
{
"epoch": 0.9898666666666667,
"grad_norm": 0.06747991177904396,
"learning_rate": 1.6949263972605082e-06,
"loss": 0.0017,
"step": 928
},
{
"epoch": 0.9909333333333333,
"grad_norm": 0.20496814720380593,
"learning_rate": 1.694032599471682e-06,
"loss": 0.0049,
"step": 929
},
{
"epoch": 0.992,
"grad_norm": 1.276497227455641,
"learning_rate": 1.6931377307015237e-06,
"loss": 0.0543,
"step": 930
},
{
"epoch": 0.9930666666666667,
"grad_norm": 0.5302394338714648,
"learning_rate": 1.6922417923309297e-06,
"loss": 0.0265,
"step": 931
},
{
"epoch": 0.9941333333333333,
"grad_norm": 0.22701284188681078,
"learning_rate": 1.6913447857424485e-06,
"loss": 0.008,
"step": 932
},
{
"epoch": 0.9952,
"grad_norm": 0.5967580489510217,
"learning_rate": 1.690446712320276e-06,
"loss": 0.0104,
"step": 933
},
{
"epoch": 0.9962666666666666,
"grad_norm": 0.3878277040856282,
"learning_rate": 1.689547573450255e-06,
"loss": 0.0103,
"step": 934
},
{
"epoch": 0.9973333333333333,
"grad_norm": 0.32365680427814997,
"learning_rate": 1.6886473705198715e-06,
"loss": 0.0058,
"step": 935
},
{
"epoch": 0.9984,
"grad_norm": 1.3705000469682167,
"learning_rate": 1.6877461049182546e-06,
"loss": 0.0396,
"step": 936
},
{
"epoch": 0.9994666666666666,
"grad_norm": 0.5429930585759183,
"learning_rate": 1.6868437780361726e-06,
"loss": 0.028,
"step": 937
},
{
"epoch": 1.0,
"grad_norm": 0.5429930585759183,
"learning_rate": 1.6859403912660318e-06,
"loss": 0.0096,
"step": 938
},
{
"epoch": 1.0010666666666668,
"grad_norm": 0.4916829789703387,
"learning_rate": 1.6850359460018735e-06,
"loss": 0.0044,
"step": 939
},
{
"epoch": 1.0021333333333333,
"grad_norm": 0.2979310166282705,
"learning_rate": 1.6841304436393732e-06,
"loss": 0.0165,
"step": 940
},
{
"epoch": 1.0032,
"grad_norm": 0.8370743670659195,
"learning_rate": 1.6832238855758367e-06,
"loss": 0.0339,
"step": 941
},
{
"epoch": 1.0042666666666666,
"grad_norm": 0.16192307827765665,
"learning_rate": 1.6823162732102e-06,
"loss": 0.0037,
"step": 942
},
{
"epoch": 1.0053333333333334,
"grad_norm": 0.25394307806042143,
"learning_rate": 1.681407607943025e-06,
"loss": 0.0057,
"step": 943
},
{
"epoch": 1.0064,
"grad_norm": 0.5039087022497899,
"learning_rate": 1.6804978911764987e-06,
"loss": 0.0247,
"step": 944
},
{
"epoch": 1.0074666666666667,
"grad_norm": 0.04841683509251501,
"learning_rate": 1.679587124314431e-06,
"loss": 0.0168,
"step": 945
},
{
"epoch": 1.0085333333333333,
"grad_norm": 0.7702555161572083,
"learning_rate": 1.678675308762252e-06,
"loss": 0.0078,
"step": 946
},
{
"epoch": 1.0096,
"grad_norm": 0.5228406163032586,
"learning_rate": 1.6777624459270099e-06,
"loss": 0.0096,
"step": 947
},
{
"epoch": 1.0106666666666666,
"grad_norm": 0.07932404354364939,
"learning_rate": 1.6768485372173696e-06,
"loss": 0.001,
"step": 948
},
{
"epoch": 1.0117333333333334,
"grad_norm": 0.7272162639399672,
"learning_rate": 1.6759335840436088e-06,
"loss": 0.0338,
"step": 949
},
{
"epoch": 1.0128,
"grad_norm": 0.1325222502866181,
"learning_rate": 1.675017587817618e-06,
"loss": 0.006,
"step": 950
},
{
"epoch": 1.0128,
"eval_loss": 0.05511786788702011,
"eval_runtime": 8.3359,
"eval_samples_per_second": 11.996,
"eval_steps_per_second": 5.998,
"step": 950
},
{
"epoch": 1.0138666666666667,
"grad_norm": 0.2851585922035912,
"learning_rate": 1.674100549952897e-06,
"loss": 0.003,
"step": 951
},
{
"epoch": 1.0149333333333332,
"grad_norm": 0.1635246987897608,
"learning_rate": 1.6731824718645523e-06,
"loss": 0.0123,
"step": 952
},
{
"epoch": 1.016,
"grad_norm": 0.9554459164625243,
"learning_rate": 1.672263354969297e-06,
"loss": 0.0239,
"step": 953
},
{
"epoch": 1.0170666666666666,
"grad_norm": 0.6049818674300176,
"learning_rate": 1.671343200685446e-06,
"loss": 0.0368,
"step": 954
},
{
"epoch": 1.0181333333333333,
"grad_norm": 1.2174111129081242,
"learning_rate": 1.6704220104329153e-06,
"loss": 0.0089,
"step": 955
},
{
"epoch": 1.0192,
"grad_norm": 0.09893112075059436,
"learning_rate": 1.6694997856332194e-06,
"loss": 0.0023,
"step": 956
},
{
"epoch": 1.0202666666666667,
"grad_norm": 0.09001324637021094,
"learning_rate": 1.6685765277094698e-06,
"loss": 0.014,
"step": 957
},
{
"epoch": 1.0213333333333334,
"grad_norm": 0.6901973285139684,
"learning_rate": 1.6676522380863718e-06,
"loss": 0.0026,
"step": 958
},
{
"epoch": 1.0224,
"grad_norm": 0.059717251369744574,
"learning_rate": 1.6667269181902234e-06,
"loss": 0.0059,
"step": 959
},
{
"epoch": 1.0234666666666667,
"grad_norm": 0.3083472218723695,
"learning_rate": 1.6658005694489108e-06,
"loss": 0.0044,
"step": 960
},
{
"epoch": 1.0245333333333333,
"grad_norm": 1.2387887367525359,
"learning_rate": 1.66487319329191e-06,
"loss": 0.067,
"step": 961
},
{
"epoch": 1.0256,
"grad_norm": 0.05958218523488344,
"learning_rate": 1.6639447911502806e-06,
"loss": 0.0038,
"step": 962
},
{
"epoch": 1.0266666666666666,
"grad_norm": 0.25803312922414584,
"learning_rate": 1.6630153644566666e-06,
"loss": 0.0022,
"step": 963
},
{
"epoch": 1.0277333333333334,
"grad_norm": 0.13407512286627216,
"learning_rate": 1.6620849146452928e-06,
"loss": 0.0014,
"step": 964
},
{
"epoch": 1.0288,
"grad_norm": 0.9967498197509435,
"learning_rate": 1.6611534431519622e-06,
"loss": 0.0098,
"step": 965
},
{
"epoch": 1.0298666666666667,
"grad_norm": 0.04855423463199995,
"learning_rate": 1.6602209514140548e-06,
"loss": 0.0021,
"step": 966
},
{
"epoch": 1.0309333333333333,
"grad_norm": 0.9190388514477494,
"learning_rate": 1.6592874408705253e-06,
"loss": 0.0249,
"step": 967
},
{
"epoch": 1.032,
"grad_norm": 0.15521259953012823,
"learning_rate": 1.6583529129619003e-06,
"loss": 0.0035,
"step": 968
},
{
"epoch": 1.0330666666666666,
"grad_norm": 0.0739501147905464,
"learning_rate": 1.6574173691302758e-06,
"loss": 0.0207,
"step": 969
},
{
"epoch": 1.0341333333333333,
"grad_norm": 0.48810685041497015,
"learning_rate": 1.6564808108193163e-06,
"loss": 0.0007,
"step": 970
},
{
"epoch": 1.0352,
"grad_norm": 0.07637320025474216,
"learning_rate": 1.6555432394742511e-06,
"loss": 0.0064,
"step": 971
},
{
"epoch": 1.0362666666666667,
"grad_norm": 0.39526147128400013,
"learning_rate": 1.6546046565418732e-06,
"loss": 0.0022,
"step": 972
},
{
"epoch": 1.0373333333333334,
"grad_norm": 0.33979283542891386,
"learning_rate": 1.6536650634705365e-06,
"loss": 0.0076,
"step": 973
},
{
"epoch": 1.0384,
"grad_norm": 1.8339909658885087,
"learning_rate": 1.6527244617101537e-06,
"loss": 0.0351,
"step": 974
},
{
"epoch": 1.0394666666666668,
"grad_norm": 0.32217927046265177,
"learning_rate": 1.651782852712194e-06,
"loss": 0.0006,
"step": 975
},
{
"epoch": 1.0405333333333333,
"grad_norm": 0.28508392541225847,
"learning_rate": 1.6508402379296808e-06,
"loss": 0.0043,
"step": 976
},
{
"epoch": 1.0416,
"grad_norm": 0.037354972250637136,
"learning_rate": 1.6498966188171895e-06,
"loss": 0.0031,
"step": 977
},
{
"epoch": 1.0426666666666666,
"grad_norm": 0.7166489206167719,
"learning_rate": 1.6489519968308457e-06,
"loss": 0.0641,
"step": 978
},
{
"epoch": 1.0437333333333334,
"grad_norm": 1.0515466328685,
"learning_rate": 1.648006373428322e-06,
"loss": 0.01,
"step": 979
},
{
"epoch": 1.0448,
"grad_norm": 0.936126382450395,
"learning_rate": 1.6470597500688369e-06,
"loss": 0.0066,
"step": 980
},
{
"epoch": 1.0458666666666667,
"grad_norm": 0.06579766473780263,
"learning_rate": 1.6461121282131516e-06,
"loss": 0.0022,
"step": 981
},
{
"epoch": 1.0469333333333333,
"grad_norm": 0.09021244626430282,
"learning_rate": 1.6451635093235683e-06,
"loss": 0.0011,
"step": 982
},
{
"epoch": 1.048,
"grad_norm": 0.01025702341477458,
"learning_rate": 1.644213894863927e-06,
"loss": 0.0003,
"step": 983
},
{
"epoch": 1.0490666666666666,
"grad_norm": 1.3151879642844628,
"learning_rate": 1.6432632862996055e-06,
"loss": 0.0263,
"step": 984
},
{
"epoch": 1.0501333333333334,
"grad_norm": 0.9276898564205044,
"learning_rate": 1.6423116850975145e-06,
"loss": 0.0079,
"step": 985
},
{
"epoch": 1.0512,
"grad_norm": 0.02947729014406564,
"learning_rate": 1.641359092726096e-06,
"loss": 0.0018,
"step": 986
},
{
"epoch": 1.0522666666666667,
"grad_norm": 0.19598979775248843,
"learning_rate": 1.6404055106553234e-06,
"loss": 0.0009,
"step": 987
},
{
"epoch": 1.0533333333333332,
"grad_norm": 1.8171369166805973,
"learning_rate": 1.6394509403566952e-06,
"loss": 0.0308,
"step": 988
},
{
"epoch": 1.0544,
"grad_norm": 0.7848075693667415,
"learning_rate": 1.6384953833032367e-06,
"loss": 0.0279,
"step": 989
},
{
"epoch": 1.0554666666666668,
"grad_norm": 0.04284710379550343,
"learning_rate": 1.637538840969494e-06,
"loss": 0.0005,
"step": 990
},
{
"epoch": 1.0565333333333333,
"grad_norm": 0.03007223360486748,
"learning_rate": 1.6365813148315355e-06,
"loss": 0.0007,
"step": 991
},
{
"epoch": 1.0576,
"grad_norm": 0.01899139669637451,
"learning_rate": 1.6356228063669465e-06,
"loss": 0.0005,
"step": 992
},
{
"epoch": 1.0586666666666666,
"grad_norm": 0.11346226457614883,
"learning_rate": 1.6346633170548287e-06,
"loss": 0.0014,
"step": 993
},
{
"epoch": 1.0597333333333334,
"grad_norm": 0.04943624657920941,
"learning_rate": 1.6337028483757966e-06,
"loss": 0.0009,
"step": 994
},
{
"epoch": 1.0608,
"grad_norm": 0.015138645630175255,
"learning_rate": 1.6327414018119774e-06,
"loss": 0.0009,
"step": 995
},
{
"epoch": 1.0618666666666667,
"grad_norm": 1.4799218601071658,
"learning_rate": 1.631778978847006e-06,
"loss": 0.014,
"step": 996
},
{
"epoch": 1.0629333333333333,
"grad_norm": 1.2249010640123865,
"learning_rate": 1.6308155809660247e-06,
"loss": 0.0121,
"step": 997
},
{
"epoch": 1.064,
"grad_norm": 1.021197338464407,
"learning_rate": 1.6298512096556795e-06,
"loss": 0.0632,
"step": 998
},
{
"epoch": 1.0650666666666666,
"grad_norm": 0.4954690700310796,
"learning_rate": 1.6288858664041198e-06,
"loss": 0.0003,
"step": 999
},
{
"epoch": 1.0661333333333334,
"grad_norm": 0.20535195318024518,
"learning_rate": 1.6279195527009938e-06,
"loss": 0.0203,
"step": 1000
},
{
"epoch": 1.0661333333333334,
"eval_loss": 0.09908830374479294,
"eval_runtime": 8.2885,
"eval_samples_per_second": 12.065,
"eval_steps_per_second": 6.032,
"step": 1000
}
],
"logging_steps": 1,
"max_steps": 2811,
"num_input_tokens_seen": 0,
"num_train_epochs": 3,
"save_steps": 250,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": false
},
"attributes": {}
}
},
"total_flos": 2259115302912.0,
"train_batch_size": 2,
"trial_name": null,
"trial_params": null
}