Stable Diffusion
Kijai LTX-2 GGUF에 감사드립니다. 심지어 Q6도 FP8 imo보다 품질이 더 좋습니다.
익명탐험가5214·1개월 전·조회 508
https://huggingface.co/Kijai/LTXV2_comfy/tree/main
작동하려면 다음 커밋이 필요합니다. 아직 병합되지 않았습니다. https://github.com/city96/ComfyUI-GGUF/pull/399
Kijai 노드 WF(업데이트됨, 이제 NAG를 사용하여 부정적인 프롬프트 지원) https://files.catbox.moe/flkpez.json
사람들이 일반적으로 품질에 관해 이야기하는 것을 봤기 때문에 이 글도 게시해야 합니다.
최상의 품질을 위해서는 RES4LYF 노드팩의 res_2s 샘플러를 사용하여 48fps의 distill lora가 포함된 개발 모델을 사용하세요. 전체 FP16 모델(43.3GB 모델)과 기타 항목을 vram + ram에 넣을 수 있다면 그것을 사용하세요. 그렇지 않다면 Q8 gguf가 FP8보다 훨씬 더 가깝기 때문에 가능하다면 사용해 보세요. 그렇지 않다면 Q6.
두 단계 모두에서 디테일러 lora를 사용하면 큰 차이가 있습니다.
https://files.catbox.moe/pvsa2f.mp4
편집: KJ 노드 WF의 경우 최신 KJ 노드가 필요합니다: https://github.com/kijai/ComfyUI-KJNodes 나는 그것이 당연하다고 생각했습니다.