def train():
model.train()
total_loss = 0
for word, char, label in tqdm(training_data, mininterval=1,
desc='Train Processing', leave=False):
optimizer.zero_grad()
loss, _ = model(word, char, label)
loss.backward()
optimizer.step()
optimizer.update_learning_rate()
total_loss += loss.data
return total_loss[0]/training_data.sents_size/args.word_max_len
# ##############################################################################
# Save Model
# ##############################################################################
评论列表
文章目录