中文(繁体)
Transformer 架構中自註意力機制的替代方案。它使用可學習的橫向連接來直接重新加權輸入,而不是使用自註意力機制(如下圖所示)。要了解有關該方法的更多信息,請觀看此視頻(從 41:26 開始):https://youtu.be/l-CjXFmcVzY