defpy_func_tokenize_tensor(tensor):returntf.py_function(tokenize_tensor,[tensor],Tout=[tf.int32,tf.int32,tf.int32]) eager_py_func()缺少一个必需的位置参数:'Tout‘ 然后,我将Tout定义为令牌程序返回的值的类型: transformers.tokenization_utils_base.BatchEncoding 并得到以下错误: 参数'Tout‘不的预...