|
|
b558856e1e
|
fix bugs
|
2026-02-10 22:35:45 +08:00 |
|
|
|
dcbcb2c377
|
- state_unet 放到一个独立的 CUDA stream 上执行
- action_unet 在默认 stream 上同时执行
- 用 wait_stream 确保两者都完成后再返回
两个 1D UNet 输入完全独立,共享的 hs_a 和 context_action 都是只读的。GPU 利用率只有 ~31%,小张量 kernel 不会打满 GPU,两个 stream 可以真正并行。
|
2026-02-10 21:41:48 +08:00 |
|
|
|
ff43432ef9
|
结果
|
2026-02-10 20:01:25 +08:00 |
|
|
|
afa12ba031
|
每步迭代保存异步
|
2026-02-10 19:54:53 +08:00 |
|
|
|
9347a4ebe5
|
实现了Context 预计算和缓存功能,提升了采样效率。 psnr不下降
|
2026-02-10 17:47:46 +08:00 |
|
|
|
223a50f9e0
|
添加CrossAttention kv缓存,减少重复计算,提升性能,psnr=25.1201dB
|
2026-02-10 17:35:03 +08:00 |
|
|
|
2a6068f9e4
|
减少了一路视频vae解码
|
2026-02-10 17:13:45 +08:00 |
|
|
|
91a9b0febc
|
DDIM loop 内小张量分配优化,attention mask 缓存到 GPU
|
2026-02-10 16:53:00 +08:00 |
|
|
|
fffc5a9956
|
init
|
2026-02-08 03:29:15 +00:00 |
|