比标准Attention提速5-9倍,大模型都在用的FlashAttention v2来了 比标准Attention提速5-9倍,大模型都在用的FlashAttention v2来了 AI人工智能 1年前558