add_embedding 记录embedding向量,支持2D/3D可视化分析,通过将高维特征降维至二维平面或三维空间显示,方便我们进行相关性分析。 add_embedding(mat, metadata=None, label_img=None, global_step=None, tag='default', metadata_header=None) #add_embedding参数:mat (torch.Tensor or numpy.array):一个矩阵,每一行...
v in enumerate(meta):meta[i] = v+str(i)label_img = torch.rand(100, 3, 10, 32)for i in range(100):label_img[i]*=i/100.0writer.add_embedding(torch.randn(100, 5), metadata=meta, label_img=label_img)# writer.add_embedding(torch.randn(100...
add_embedding 是一个很实用的方法,不仅可以将高维特征使用PCA、t-SNE等方法降维至二维平面或三维空间显示,还可观察每一个数据点在降维前的特征空间的K近邻情况。下面例子中我们取 MNIST 训练集中的 100 个数据,将图像展成一维向量直接作为 embedding,使用 TensorboardX 可视化出来。 from tensorboardX import Summary...
2.6 嵌入向量 (embedding) writer.add_embedding(mat, metadata=None, label_img=None, global_step=None, tag='default', metadata_header=None) mat (torch.Tensor or numpy.array): 数据点,shape:NxHxW。 metadata (list or torch.Tensor or numpy.array, optional): 分类标签,长度=N。 label_img (torch...
11 12 fromtensorboardXimportSummaryWriter importtorchvision writer=SummaryWriter(log_dir="embedding") mnist=torchvision.datasets.MNIST("mnist",download=True) writer.add_embedding( mat=mnist.train_data.reshape((-1,28*28))[:100,:], metadata=mnist.train_labelS[:100], ...
4、max_queue (int) –在“add”调用之一强制刷新到磁盘之前,挂起事件和摘要的队列大小。 默认为十项。 5、flush_secs (int) – 将挂起的事件和摘要刷新到磁盘的频率(以秒为单位)。 默认为每两分钟。 6、filename_suffix (string) – 添加到 log_dir 目录中所有事件文件名的后缀。有关 tensorboard.summary...
add_graph(model, input_to_model=None, verbose=False):添加图像 add_embedding(mat, metadata=None, label_img=None, global_step=None, tag='default', metadata_header=None):添加嵌入式投影,一个很好的例子就是我们可以将高维数据映射到三维空间中进行直观地展示和可视化 ...
我们可以通过 add_embedding 方法来可视化高维数据的低维表示 # 辅助函数defselect_n_random(data,labels,n=100):''' Selects n random datapoints and their corresponding labels from a dataset '''assertlen(data)==len(labels)perm=torch.randperm(len(data))returndata[perm][:n],labels[perm][:n]# ...
checkpoint.save(os.path.join(log_dir, "embedding.ckpt")) # Set up config config = projector.ProjectorConfig() embedding = config.embeddings.add() # The name of the tensor will be suffixed by # `/.ATTRIBUTES/VARIABLE_VALUE` embedding.tensor_name = "embedding/.ATTRIBUTES/VARIABLE_VALUE" ...
(2)writer = SummaryWriter('runs/exp1'),runs/exp1表示相关信息存储位置,可自行定义。然后调用相关函数即可。例如想知道训练次数epoch与损失函数之间的关系,调用writer.add_scalar('Train Loss', train_loss / len(train_data), global_step=epoch) 。然后运行一次函数,等待程序运行完毕。