0 简述 Transformer改进了RNN最被人诟病的训练慢的缺点,利用self-attention机制实现快速并行。 并且Transformer可以增加到非常深的深度,充分发掘DNN模型的特性,提 … Continue reading Transformer详解
0 简述 Transformer改进了RNN最被人诟病的训练慢的缺点,利用self-attention机制实现快速并行。 并且Transformer可以增加到非常深的深度,充分发掘DNN模型的特性,提 … Continue reading Transformer详解