반응형 MucKOO's ComfyUI 바이블/#ComfyUI Navigator#22 VAE는 도대체 뭐하는 녀석인가? 요즘 ComfyUI나 Stable Diffusion 좀 만져봤다 하면 꼭 듣게 되는 말, “형, VAE는 뭐 써요?” “VAE 없으면 디코딩 어떻게 해요?” “vae-ft-mse-840000-ema-pruned 이게 맛있다던데요?” 그래, 이름부터 참 정이 안 가. 외계어처럼 생겼지. 하지만 형이 지금 이걸 싹 풀어줄게. VAE (Variational AutoEncoder) 말이 좀 길다. 그래도 딱 세 글자면 AI 그림 인생이 바뀐다. VAE란 뭐냐면.V = Variational (비슷한 걸로 퉁치는) 여기서 말하는 "Variational"은 그냥 확률적/통계적 접근을 쓴다는 뜻이야. 일반 AutoEncoder는 단순히 데이터를 압축했다가 복원만 하지. 하지만 Variational AE는 laten.. 2025. 5. 5. 초보자용 ComfyUI 샘플러 설명서: KSampler 제대로 쓰는 법 Ksampler node KSampler-그림의 형태를 만들어가는 핵심 노드Sampler는 AI가 노이즈에서 이미지를 만들어가는 방식을 정의하는 알고리즘이야.노이즈 제거를 몇 번에, 어떤 속도로, 어떤 수학적 곡선을 따라 할지 결정해예: Euler는 빠르고 단순, DPM++는 정밀, Unidesignmoney.tistory.com1.seed & 2. control_after_generate Seed란 무엇인가.한 줄로 말하면: “랜덤을 정해주는 숫자”야. 랜덤인데 왜 정해? 이상하지? 그게 바로 핵심이야. AI가 이미지를 만들 때, 처음부터 아무거나 막 찍어서 만드는 게 아니라, '랜덤처럼 보이지만 재designmoney.tistory.com3.step Steps! 진화 과정의 단계 수Steps는초.. 2025. 5. 4. Scheduler-AI 그림 뽑기의 숨은 실세 Scheduler가 뭐냐고? 일단 기본 정의부터 깔고 가자. 스케줄러는 노이즈 제거의 스케줄을 짜주는 놈이야. AI 그림 생성이 어떻게 되냐면, 아무 것도 없는 노이즈 범벅 이미지에서, 조금씩 정리해가며 점점 그럴싸한 그림을 만드는 거잖아? 이때 ‘어떻게 정리할 거냐’, ‘언제 세게 지우고, 언제 살살 지울 거냐’ 이걸 정해주는 게 바로 스케줄러야. 쉽게 말해, “언제 불 세게 할지, 언제 약불로 졸일지”를 정하는 레시피북 같은 거지. 스케줄러는 요리다? 라면 끓인다고 생각해봐.어떤 스케줄러는 초반에 확 쎄게 끓이고 → 뒤에 약하게 불 줄여가면서 디테일 살림. 어떤 건 초반에 살살 데우다가 → 중반에 확 끓였다가 → 다시 낮춰. 이게 각 스케줄러마다 노이즈를 지우는 흐름(=노이즈 스케줄)이 달라서 그.. 2025. 5. 4. sampler_name Sampler는 이미지를 어떻게 그릴지 결정하는 방식이야. 프롬프트를 "얼마나 부드럽게", "얼마나 정밀하게""어떤 경로를 따라" 이미지로 바꿀지 정하는 브러시 스타일이라고 보면 돼. 여긴 좀 유식한 척 해볼까^^1. Euler 계열Euler의 뜻 (정확한 발음: 오일러) Euler는 수학자야 레온하르트 오일러(Leonhard Euler)의 이름이야.(발음은 "유-러" 아니고, "오일러"임) 이 양반은 18세기 수학자 중에서도 전설급 인물인데, 현대 수학, 공학, 물리, 컴퓨터 그래픽스에서 쓰이는 수치해석법, 적분법, 미분방정식 해법의 아버지라고 불려. Euler Method (오일러 방식)이라는 것이 있는데 복잡한 곡선을 계산할 수 없으니까, 그 곡선을 아주 짧은 직선들로 나눠서 계산하는 방법이야... 2025. 5. 4. Steps! 진화 과정의 단계 수 Steps는초기 노이즈를 점차 제거하며 이미지를 만들어가는 “진화 과정의 단계 수” 즉, AI가 그림을 완성하기까지 몇 번에 나눠 그릴 거냐는 거야. 어떻게 작동하냐구? Stable Diffusion은 처음에 무작위 노이즈(= seed)로 시작해. 그걸 점점 덜어내면서 그림을 완성해가는데, 그 “덜어내는 과정”을 몇 단계(Steps)에 걸쳐 하느냐가 바로 Steps야. Seed란 무엇인가.한 줄로 말하면: “랜덤을 정해주는 숫자”야. 랜덤인데 왜 정해? 이상하지? 그게 바로 핵심이야. AI가 이미지를 만들 때, 처음부터 아무거나 막 찍어서 만드는 게 아니라, '랜덤처럼 보이지만 재designmoney.tistory.com Steps = 10 → 10번만에 결과 도출 (빠름, 거칠 수 있음)Steps.. 2025. 5. 3. CFG(Classifier-Free Guidance) AI 이미지 생성의 핵심 조정 값 중 하나인 CFG(Classifier-Free Guidance)에 대해 완전 분석 들어가자. 이거 이해 안 되면, 프롬프트 조절도, 이미지 디테일 튜닝도 헛수고 될 수 있어. CFG란? Classifier-Free Guidance의 줄임말.텍스트 조건(프롬프트)을 얼마나 강하게 반영할지 조절하는 기법이야. 그리고 그걸 위해 “ Classifier (분류기)” 없이 작동하는 걸 의미해. 원래 방식 Classifier Guidance (옛날 방식), 초기 GAN이나 이미지 생성 모델은 진짜-가짜 판별기(Classifier 또는 Discriminator)가 필요했어. 이 판별기가 “이 이미지가 조건에 맞나?”를 판단해주면서 생성기(Generator)를 유도했지. 근데 이 .. 2025. 5. 3. GAN? 가짜를 진짜처럼 만드는 마법 같은 기술 ComfyUI를 공부하다보면 가끔 씩 어디에선가 보이는 GAN이라는 놈이있다.Stable Diffusion이나 ComfyUI 이전에, AI 이미지 생성의 역사를 판 바꾼 놈이지.ComfyUI는 GAN 모델을 직접 쓰진 않지만, GAN에서 파생된 개념과 결과물은 다양한 방식으로 녹아들어 있어.특히 StyleGAN의 얼굴 생성, CycleGAN의 스타일 전환 개념은 img2img + ControlNet 조합으로 완벽히 재현 가능해.그러니 GAN이 어떤 놈인지만 알고 있자고.StyleGAN(전통 GAN 시대) → Stable Diffusion(확산 시대) → ComfyUI(도구/플랫폼화) 이렇게 기술이 점점 ‘정교하게’, ‘접근 가능하게’ 진화해왔다. GAN( Generative Adversarial Netw.. 2025. 5. 3. Seed 완전 분석: 초기 노이즈, VAE, Sampler, Batch Size의 관계 Seed를 조금 전문적으로 들어가보자.AI 이미지 생성에서 'Seed(시드)'는 단순한 랜덤 넘버가 아니다. 이 숫자는 모델의 출력 결과를 실질적으로 좌우하는 '출발점'이자 '틀'이다. Stable Diffusion 기반의 시스템, 특히 ComfyUI 환경에서 Seed는 초기 노이즈 생성부터 샘플링 최종 단계까지 일관된 흐름을 만들어. 같은 시드라도 다른 모델이나 설정에서는 약간 다른 결과가 나올 수 있다는 점을 명심해야 해. Seed란 무엇인가.한 줄로 말하면: “랜덤을 정해주는 숫자”야. 랜덤인데 왜 정해? 이상하지? 그게 바로 핵심이야. AI가 이미지를 만들 때, 처음부터 아무거나 막 찍어서 만드는 게 아니라, '랜덤처럼 보이지만 재designmoney.tistory.com 1. Seed와 초기.. 2025. 5. 2. Seed란 무엇인가. 한 줄로 말하면: “랜덤을 정해주는 숫자”야. 랜덤인데 왜 정해? 이상하지? 그게 바로 핵심이야. AI가 이미지를 만들 때, 처음부터 아무거나 막 찍어서 만드는 게 아니라, '랜덤처럼 보이지만 재현 가능한 무작위'를 써. 그 출발점이 바로 Seed(씨앗)이라는 숫자지.쉽게 말해서, 시드는 ComfyUI를 포함한 이미지 생성 AI가 처음 그림을 그리기 시작하는 씨앗 같은 거야. 똑같은 씨앗을 심으면 거의 똑같은 결과물이 나오듯이, 똑같은 시드 값을 사용하면 (거의) 똑같은 초기 노이즈 맵에서 그림이 시작되기 때문에 비슷한 결과물을 얻을 수 있는 거지.같은 프롬프트 + 같은 Seed → 똑같은 이미지 같은 프롬프트 + 다른 Seed → 완전 다른 이미지 같은 씨드를 쓰면 같은 잡음에서 시작하니까, 결과물이 .. 2025. 5. 2. Checkpoint의 출력은 왜 3개일까? ComfyUI에서 Load Checkpoint 노드의 출력이 MODEL, CLIP, VAE로 나오는 이유는 Stable Diffusion 모델의 구조와 각 구성 요소의 역할 때문이야. Stable Diffusion 모델은 이미지 생성을 위해 여러 핵심 구성 요소로 이루어져 있거든, 이 세 가지 구성 요소는 각각 이미지 생성의 핵심 단계(노이즈 제거, 텍스트 처리, 이미지 변환)를 담당하며, 개별 출력으로 제공되어 사용자가 유연하게 워크플로우를 구성할 수 있도록 해준다. “한 덩어리로 묶어버리면 워크플로우 짜기가 빡세지니까.”MODEL만 바꿔서 실험하고 싶을 때CLIP만 다른 걸 써서 프롬프트 스타일 실험할 때VAE만 교체해서 색감 조정하고 싶을 때이렇게 파트별로 조립하고 교체할 수 있어야 ComfyUI답.. 2025. 4. 26. ComfyUI, 이미지 → 이미지 생성용 모델 리스트(2025.4월) 1. Stable Diffusion 시리즈Stable Diffusion 모델은 img2img 워크플로우에서 가장 널리 사용되며, ControlNet과 같은 확장 도구와 결합해 강력한 성능을 제공한다.Stable Diffusion 1.5 (SD1.5) 특징: 512x512 해상도에 최적화된 경량 모델. img2img에서 빠르고 유연하며, ControlNet, LoRA와 호환성 뛰어남.최신 버전: v1-5-pruned-emaonly-fp16.safetensors (FP16 최적화).용도: 스타일 변환(예: 사진을 애니메이션 스타일로), 디테일 수정, 간단한 이미지 리터칭.설치: ComfyUI/models/checkpoints 폴더에 저장. Hugging Face 또는 Civitai에서 다운로드.img2im.. 2025. 4. 26. Denoising이 뭔지 쉽게 풀어줄게 디노이징은 말 그대로 "잡음(노이즈)을 없애는" 과정이야. ComfyUI에서 쓰는 Stable Diffusion 같은 모델은 처음에 완전 잡음으로 가득 찬, TV 화면 깨진 것 같은 이미지를 가지고 시작해. 이걸 점점 깨끗하고 우리가 원하는 그림으로 바꾸는 게 디노이징이야. 비유하자면, 흐릿한 안개 속에서 점점 선명한 풍경이 드러나는 느낌? 이거 완전 AI 그림 그리기의 핵심 기술이다. 그런데 그냥 잡음 정리하는 게 아니야.ComfyUI나 Diffusion 기반 AI에선 좀 달라. 여긴 노이즈에서 이미지를 만들어내는 방식이야. 애초에 '이미지'가 잡음(노이즈)에서 시작돼. 처음부터 랜덤 노이즈로 가득 찬 이미지(latent image)를 준비해 하는 거야.처음엔 완전 엉망진창이야. 그냥 하얀 화면에 까만.. 2025. 4. 25. ComfyUI 모델, 도대체 뭐 하는 놈들인가? 모델은 다 이유가 있어서 만들어진다.업스케일링? 인페인팅? 얼굴복원? 스타일변환? 1. 그림 그리는 놈들 (텍스트 → 이미지 생성용) “프롬프트만 던져줘. 그림 내가 그릴게.”대표 모델: sd-v1.5, SDXL, DreamShaper, Anything 역할: 네가 “벚꽃 핀 한강에 앉은 고양이”라고 하면 그걸 이미지로 뽑아주는 메인 화가야. 노드: Load Checkpoint, KSamplerhttps://designmoney.tistory.com/63 comfyUI, 텍스트 → 이미지 생성용 모델 리스트(2025.4월)1. Stable Diffusion 시리즈 Stable Diffusion은 ComfyUI에서 가장 널리 사용되는 텍스트-이미지 생성 모델로, 다양한 버전과 커뮤니티 기반 커스텀 모델이 .. 2025. 4. 24. “Stable Diffusion이 몸, ComfyUI는 조립 키트다” 먼저 정리하자. Stable Diffusion = 그림 그리는 AI 엔진 ComfyUI = 그 엔진을 갖고 노는 조립식 도구 조금 더 쉽게 말하면…Stable Diffusion은 진짜 훌륭한 AI야. 하지만 “말로만 시키면 그림이 나오는 마법”은 아니고, 속에 있는 계산 방식, 모델, VAE, CLIP 이런 부품들이 되게 복잡해. 이걸 뭐 먼저 연결하고,어떤 모델을 불러오고,프롬프트는 어디에 넣고,이미지를 어떻게 뽑고 저장하냐이런 걸 전부 눈으로 직접 조립할 수 있게 만든 게 바로 ComfyUI라는 거야.그러니까 ComfyUI는 뭐냐면 Stable Diffusion이라는 슈퍼카의 수동 기어 박스야. AUTOMATIC1111은 오토매틱. 그냥 프롬프트 넣고 버튼 누르면 뽑아줘.근데 ComfyUI는? 내가.. 2025. 4. 24. ComfyUI 노드메칭 헐~ 뭐야이건 ...!! 복잡하기 짝이 없군 ComfyUI좀 배워보려했는데 이런것 까지 배워야 하나 싶지^^.이 그림을 이해하면 ComfyUI가 훨씬 이해하기 쉬워져.따라만 와바. 이 구조도는 "Latent Diffusion Model (LDM)"의 작동 과정을 설명하는 그림이야. 복잡해 보이지만 핵심 개념을 쉽게 쪼개서 설명해줄게. " Latent Diffusion Model (LDM)”이라는 건 결국 AI가 이미지를 똑똑하게 생성하는 방법 중 하나야. "고양이 그림을 그려줘” → AI가 뚝딱 그림을 만들어주는 구조라 치자. 그냥 픽셀 단위로 처리하면 너무 계산량이 많고 느려.그래서 LDM은 이미지를 압축해서 간단한 숫자 정보(z)로 바꾼 뒤, 그 숫자 정보만 가지고 이미지 생성을 연습하고, 나중에 .. 2025. 4. 23. KSampler-그림의 형태를 만들어가는 핵심 노드 Sampler는 AI가 노이즈에서 이미지를 만들어가는 방식을 정의하는 알고리즘이야.노이즈 제거를 몇 번에, 어떤 속도로, 어떤 수학적 곡선을 따라 할지 결정해예: Euler는 빠르고 단순, DPM++는 정밀, UniPC는 속도+품질 밸런스 AI 이미지 생성 샘플링 기법 중 유명한 논문: "Elucidating the Design Space of Diffusion-Based Generative Models" (Tero Karras et al.) 이 논문에서 제안된 Karras-style 스케줄러와 관련된 구조를 쓰기 때문에 붙은 명칭이라는 설이 있어.Stable Diffusion에서도 DPM++ Karras 라는 샘플러가 자주 등장하지 KSampler = Karras 기반 샘플링 방식 + Sampler 노.. 2025. 4. 21. ComfyUI기본구성-3 "Model★★" 오늘은 모델의 구조를 이해해보자! ComfyUI에서 불러오는 모델은 크게 3가지로 나뉘어. Checkpoint 모델 이미지를 생성하는 메인 뇌CLIP 프롬프트(텍스트)를 숫자로 바꾸는 인코더VAE latent 이미지를 진짜 이미지로 복원 이 세 가지가 합쳐져야 "그림을 잘 그리는 AI"가 되는 거야. Checkpoint는 앞에서 간략히 설명해봤고 ComfyUI, Checkpoint가 뭘까?ComfyUI의 Graph-Canvas영역이야 .ComfyUI에서 노드를 배치하고 선으로 연결하는 ‘설계도’ 같은 공간이야. 이 영역 안에서 모든 이미지 생성 워크플로우가 시각적으로 이루어져. 실제로 노드를 배치designmoney.tistory.com CLIP이 뭐야? CLIP(Contrastive Language-I.. 2025. 4. 21. ComfyUI기본구성-2 "Model" 우리는 아주 중요한 부분으로 들어 왔어. ComfyUI 전체를 100%라고 했을 때, '모델(Model)'의 이해와 활용은 최소 40~50% 이상을 차지해. “ComfyUI에서 모델을 이해한다”는 건 단순히 ‘불러온다’ 수준이 아니라, 그 모델이 어떤 특성을 가지고 있고, 어떤 작업에 적합하며, 조합할 때 어떤 영향을 미치는지를 파악하는 것이야.그냥 “많이 써봐” 같은 말은 하지 않아. 구조적으로 접근하는 방법이 있어. 우선 ComfyUI에서 "모델" 개념부터 잡아보자.일상에서 ‘모델’이라고 하면 이런 게 떠오르지옷을 입고 런웨이에 서는 사람 (fashion model)자동차 모델 (예: 아반떼, 그랜저 같은 제품군)어떤 구조나 원리를 본뜬 모형 (예: 건축 모델하우스)예시, 틀, 기준이 되는 것 (ex.. 2025. 4. 21. ComfyUI, Checkpoint가 뭘까? ComfyUI의 Graph-Canvas영역이야 .ComfyUI에서 노드를 배치하고 선으로 연결하는 ‘설계도’ 같은 공간이야. 이 영역 안에서 모든 이미지 생성 워크플로우가 시각적으로 이루어져. 실제로 노드를 배치하고, 연결해서 이미지 생성 과정을 설계하는 무대야.마우스를 올리면"Loads a diffusion model checkpoint. Diffusion models are used to denoise latents." 자동으로 메시지가 뜨네“디퓨전 모델 체크포인트를 불러옵니다. 디퓨전 모델은 잠재 이미지(latent)를 노이즈 제거(denoise)하는 데 사용됩니다.” 이미지를 생성하는 데 필요한 AI 모델(Stable Diffusion 모델)을 불러와서 그림그릴 준비를 하라는거야. 친절하네^^ 처.. 2025. 4. 21. 입력포트(Input) & 출력포트(Output) 전 강의에서 포트를 알아봤으니 입력 포트와 출력 포트는 이해하기가 쉬울 거야.간단히 말해서,입력 포트(Input)는 "나 이거 받아서 일할게!" 출력 포트(Output)는 "내가 만든 결과 여기 있어!"이렇게 생각하면 돼. 이 두 가지는 ComfyUI에서 노드들끼리 소통하는 통로야. 데이터가 이 구멍들 사이를 흐르면서 이미지가 점점 완성되는 거지. 노드를 ‘작은 기계’라고 생각해보자.ComfyUI에서 하나의 노드는 무언가 일을 하는 작은 기계야.근데 이 기계는 혼자선 아무것도 못 해. 외부에서 재료(데이터)를 받아야 작동하고, 그 결과물을 다음 기계로 보내야 전체 작업이 굴러가.그래서 필요한 게 바로 이 입력과 출력 포트야.전 강의에 포트에는 타입이 있다고 했잖아? 기억 안나면 다시보기^^ https:/.. 2025. 4. 19. 포트에는 타입(type)이 있다? ComfyUI의 노드 박스를 딱 보면 이래직관적인 흐름 구조야.왼쪽 → 오른쪽, 데이터 흐름 방향을 시각적으로 따르게 되어 있어.사용자가 노드를 배치하면서 자연스럽게 “왼쪽은 받는 곳, 오른쪽은 내보내는 곳”이라고 인식하게 돼. ComfyUI 고수가 되고 싶어? '워크플로우 읽기'부터 시작하자요즘 ComfyUI 배우는 사람들 보면 딱 두 부류로 나뉘더라. 하나는 "이게 뭔지 모르겠지만 일단 누른다" 타입, 다른 하나는 "이 노드는 뭐지?" 궁금해하면서 하나씩 뜯어보는 타입. 솔직히 말해서, 후designmoney.tistory.com 모듈형 레이아웃(각각의 기능이 독립된 블록처럼 따로따로 작동하는 구조)이기 떄문에 각 노드는 자기 일만 딱 하게 설계되어 있어.블록처럼 쌓고 연결하는 구조는 확장성에 유리.. 2025. 4. 19. 노드(Node)의 개념 ComfyUI의 핵심 중의 핵심인 '노드(Node)' 개념에 대해 풀어보자. 이건 그냥 단순한 기능 설명이 아니야. 진짜 제대로 이해하고 넘어가야 나중에 이미지 만들 때도, 효과 넣을 때도, 어디서 막히는지 바로 감이 와. 30년 그래픽 인생 동안 수도 없이 툴 바뀌는 거 봤지만, 이렇게 직관적이면서 강력한 방식은 오랜만이야. 노드가 뭐냐고? 레고 블록이라고 생각해어릴 때 다들 레고 한 번쯤 만져봤지? 노드는 딱 그거야. 레고 블록 하나하나는 작고 별거 없어 보여도, 몇 개만 잘 연결해도 멋진 성, 자동차, 우주선까지 만들 수 있잖아. ComfyUI에서의 노드도 똑같아. 각각은 아주 단순한 기능만 해. 근데 이걸 연결하면 AI가 진짜 멋진 그림을 만들어내는 거지. 예를 들어:어떤 노드는 "빈 종이를 준.. 2025. 4. 19. 이전 1 다음 반응형