用途不同、作用不同。1、用途不同:RetNet是用于人脸检测的,而LinearAttention是用于自然语言处理的。2、作用不同:RetNet中的残差连接使得网络可以学习到如何跳过一些不重要的信息,从而避免梯度消失的问题,而LinearAttention可以降低推理成本,但性能较差。