def train():
rnn.train()
total_loss = 0
hidden = rnn.init_hidden(args.batch_size)
for data, label in tqdm(training_data, mininterval=1,
desc='Train Processing', leave=False):
optimizer.zero_grad()
hidden = repackage_hidden(hidden)
target, hidden = rnn(data, hidden)
loss = criterion(target, label)
loss.backward()
torch.nn.utils.clip_grad_norm(rnn.parameters(), args.clip)
optimizer.step()
total_loss += loss.data
return total_loss[0]/training_data.sents_size
# ##############################################################################
# Save Model
# ##############################################################################
评论列表
文章目录