在本文中,我们首先开发了一种用于识别人类意图的多任务模型,该模型由两个子任务组成:人类动作识别和手持物体识别。对于前端子任务,通过融合时空图卷积网络和长短期记忆网络,提出了一种有效的 ST-GCN-LSTM 模型。对于第二个子任务,采用YOLO v3模型进行手持物体识别。然后,我们构建了一个机器人与人类交互的框架。最后...