在这项工作中,我们提出了一种新的高效的人类动作识别方法,称为视频变换器网络(VTN)。它利用了计算机视觉和自然语言处理的最新进展,并将其应用于视频理解。所提出的方法允许我们创建轻量级的CNN模型,仅使用RGB单摄像头和通用CPU就可以实现高精度和实时速度。此外,我们解释了如何通过从多个具有不同模式的模型中提炼出一个单一模型来提高准确性。我们与最先进的方法进行了比较,表明我们的方法在著名的动作识别数据集上的表现与大多数方法相当。我们使用现代推理框架对模型的推理时间进行了基准测试,并认为我们的方法在速度/精度权衡方面与其他方法比较有利,在CPU上以每秒56帧(FPS)的速度运行。模型和训练代码都是可用的1。