机制与模块

简化通道注意力 (Simplified Channel Attention)

简化通道注意力是一种通过关注特征通道的重要性来增强模型表达能力的方法。该技术的基本思路是通过学习每个通道的权重,来动态调整输入特征图中不同通道的重要性。具体来说,模型会计算各个通道的统计信息(如均值或最大值),并通过一个小的神经网络生成每个通道的注意力权重,这些权重随后会被用来加权特征图的各个通道。这样,模型能够更有效地利用重要的特征信息,抑制不重要的通道。

门控技术 (Gating)

门控技术是一种通过引入可学习的门控机制来控制信息流动的方法。它通常用于处理序列数据或特征选择。门控结构可以决定哪些信息应该被保留,哪些应该被丢弃。例如,LSTM(长短期记忆网络)中的门控机制可以根据当前输入和历史状态动态调整信息的传递。通过这种方式,模型可以在复杂的任务中更好地捕捉长距离依赖关系和关键信息,从而提升模型的性能。
这两种技术的结合使用,有助于增强模型的表现能力,特别是在处理复杂数据和特征时。

MetaTransformer

?

Inverted Residual Block

?

关于 Transformer

Adaptive Spatial Aggregation

Transformer 架构使用自注意力机制,能够根据输入的不同部分之间的关系动态地调整权重,从而实现 “自适应” 的聚合。也就是说,模型能够根据上下文信息更灵活地选择和整合重要特征。这种机制使得 Transformer 在处理序列数据(如自然语言处理)时,能够捕捉到长程依赖关系和上下文信息。