我正在使用paddlepaddle进行分布式训练,两台机器的单机多卡都可以正常训练,多机多卡collective模式下,会在init nccl后卡住,无法进入下一步,没有任何报错信息,使用--log_level=debug也没有输出任何信息,日志信息如下: 第一个节点:使用命令python -m paddle.distributed.launch --ips=172.16.13.74,172.16.13.87 train_wit...