解决方法是在文本前面添加一个bos_token_id,其余不变再正常去取: output = model(input_ids=torch.tensor([model.config.bos_token_id]+input_ids), attention_mask=torch.tensor([1]+input_mask), output_attentions=True) logits = output.logits attentions = output.attentions prob = torch.softmax(logits...
input_ids attention mask nan embedding输出nan NaN通常表示未定义或无效的浮点数值,可能是由于除以零、取根号时参数为负数等操作导致的。在Eigen库中,如果矩阵中的元素出现NaN,可能是因为矩阵计算中出现了非法操作,例如对无效的矩阵进行运算。 如果你的程序中出现了NaN,可以尝试检查程序中的计算过程,找出可能导致NaN...
['input_ids', 'token_type_ids', 'attention_mask', 'task_ids'], num_rows: 29250 }) validation: [Dataset({ features: ['input_ids', 'token_type_ids', 'attention_mask', 'task_ids'], num_rows: 1510 }), Dataset({ features: ['input_ids', 'token_type_ids', 'attention_mask', ...
看起来你的标记器在编码数据的时候添加了“input_ids”信息,但是模型并不期望这个Tensor出现在输入上。
print(f"concatenated_input_ids TYPE:{concatenated_batch['concatenated_input_ids'].dtype}") all_logits = model( concatenated_batch["concatenated_input_ids"], attention_mask=concatenated_batch["concatenated_attention_mask"], use_cache=False, **model_kwargs, ).logits ...
(0), + 'attention_mask': inputs['attention_mask'].squeeze(0), + 'labels': torch.tensor(label, dtype=torch.float) + } + else: + raise NotImplementedError('prompt_style not registed in NAID/dataset.py') \ No newline at end of file diff --git a/offcial_train.py b/offcial_train....
(self, input_ids, attention_mask, encoder_hidden_states, encoder_attention_mask, inputs_embeds, head_mask, past_key_values, use_cache, output_attentions, output_hidden_states, return_dict) 774 else: 775 err_msg_prefix = "decoder_" if self.is_decoder else "" --> 776 raise ValueError(...
defencode(texts,tokenizer,maxlen=512):enc_di=tokenizer.batch_encode_plus(texts,return_attention_masks=False,return_token_type_ids=False,pad_to_max_length=True,max_length=maxlen)returnnp.array(enc_di['input_ids'])# tokenizedx_train=encode('text',tokenizer,maxlen=200)y_train ...
("label", "labels") tokenized_datasets = tokenized_datasets.remove_columns("attention_mask") tokenized_datasets = tokenized_datasets.remove_columns("input_ids") tokenized_datasets = tokenized_datasets.remove_columns("label") tokenized_datasets = tokenized_datasets.remove_columns("text_en") # ...
(0), + 'attention_mask': inputs['attention_mask'].squeeze(0), + 'labels': torch.tensor(label, dtype=torch.float) + } + else: + raise NotImplementedError('prompt_style not registed in NAID/dataset.py') \ No newline at end of file diff --git a/offcial_train.py b/offcial_train....