본문 바로가기
반응형

MucKOO's ComfyUI 바이블35

HiDream I1 써봤냐? AI랑 찰떡궁합인 진짜 물건 등장했다 .너 혹시, 아직도 웹캠으로 버티고 있는 거 아니지? 아니, 스마트폰 카메라로 AI 돌리면서 "왜 이렇게 뿌얘?" 하고 있으면… 그건 진짜 시대에 뒤처진 거다. 이제는 AI용 영상 입력 장비도 ‘전용’ 시대야. 오늘은 그중에서도 요즘 크리에이터들 사이에서 슬슬 입소문 타고 있는, HiDream I1에 대해 한 번 제대로 까보자.얘, 도대체 뭐 하는 앤데? HiDream I1은 이름만 보면 뭐 카메라 브랜드 같지만, 사실 AI 이미지 생성 모델이야. 그냥 '모델'이 아니라, ComfyUI 같은 고퀄리티 워크플로우를 위한 하이엔드 비주얼 파트너라고 보면 돼. 이 친구는 텍스트 프롬프트만 던져주면, 사진보다 더 사진 같은 이미지로 뚝딱 만들어줘. 뭐? 그런 거 다 해본 것 같다고? 근데 얘는 달라. ‘빠르고’.. 2025. 5. 8.
VAE는 도대체 뭐하는 녀석인가? 요즘 ComfyUI나 Stable Diffusion 좀 만져봤다 하면 꼭 듣게 되는 말, “형, VAE는 뭐 써요?” “VAE 없으면 디코딩 어떻게 해요?” “vae-ft-mse-840000-ema-pruned 이게 맛있다던데요?” 그래, 이름부터 참 정이 안 가. 외계어처럼 생겼지. 하지만 형이 지금 이걸 싹 풀어줄게. VAE (Variational AutoEncoder) 말이 좀 길다. 그래도 딱 세 글자면 AI 그림 인생이 바뀐다. VAE란 뭐냐면.V = Variational (비슷한 걸로 퉁치는) 여기서 말하는 "Variational"은 그냥 확률적/통계적 접근을 쓴다는 뜻이야. 일반 AutoEncoder는 단순히 데이터를 압축했다가 복원만 하지. 하지만 Variational AE는 laten.. 2025. 5. 5.
초보자용 ComfyUI 샘플러 설명서: KSampler 제대로 쓰는 법 Ksampler node KSampler-그림의 형태를 만들어가는 핵심 노드Sampler는 AI가 노이즈에서 이미지를 만들어가는 방식을 정의하는 알고리즘이야.노이즈 제거를 몇 번에, 어떤 속도로, 어떤 수학적 곡선을 따라 할지 결정해예: Euler는 빠르고 단순, DPM++는 정밀, Unidesignmoney.tistory.com1.seed & 2. control_after_generate Seed란 무엇인가.한 줄로 말하면: “랜덤을 정해주는 숫자”야. 랜덤인데 왜 정해? 이상하지? 그게 바로 핵심이야. AI가 이미지를 만들 때, 처음부터 아무거나 막 찍어서 만드는 게 아니라, '랜덤처럼 보이지만 재designmoney.tistory.com3.step Steps! 진화 과정의 단계 수Steps는초.. 2025. 5. 4.
Scheduler-AI 그림 뽑기의 숨은 실세 Scheduler가 뭐냐고? 일단 기본 정의부터 깔고 가자. 스케줄러는 노이즈 제거의 스케줄을 짜주는 놈이야. AI 그림 생성이 어떻게 되냐면, 아무 것도 없는 노이즈 범벅 이미지에서, 조금씩 정리해가며 점점 그럴싸한 그림을 만드는 거잖아? 이때 ‘어떻게 정리할 거냐’, ‘언제 세게 지우고, 언제 살살 지울 거냐’ 이걸 정해주는 게 바로 스케줄러야. 쉽게 말해, “언제 불 세게 할지, 언제 약불로 졸일지”를 정하는 레시피북 같은 거지. 스케줄러는 요리다? 라면 끓인다고 생각해봐.어떤 스케줄러는 초반에 확 쎄게 끓이고 → 뒤에 약하게 불 줄여가면서 디테일 살림. 어떤 건 초반에 살살 데우다가 → 중반에 확 끓였다가 → 다시 낮춰. 이게 각 스케줄러마다 노이즈를 지우는 흐름(=노이즈 스케줄)이 달라서 그.. 2025. 5. 4.
sampler_name Sampler는 이미지를 어떻게 그릴지 결정하는 방식이야. 프롬프트를 "얼마나 부드럽게", "얼마나 정밀하게""어떤 경로를 따라" 이미지로 바꿀지 정하는 브러시 스타일이라고 보면 돼. 여긴 좀 유식한 척 해볼까^^1. Euler 계열Euler의 뜻 (정확한 발음: 오일러) Euler는 수학자야 레온하르트 오일러(Leonhard Euler)의 이름이야.(발음은 "유-러" 아니고, "오일러"임) 이 양반은 18세기 수학자 중에서도 전설급 인물인데, 현대 수학, 공학, 물리, 컴퓨터 그래픽스에서 쓰이는 수치해석법, 적분법, 미분방정식 해법의 아버지라고 불려. Euler Method (오일러 방식)이라는 것이 있는데 복잡한 곡선을 계산할 수 없으니까, 그 곡선을 아주 짧은 직선들로 나눠서 계산하는 방법이야... 2025. 5. 4.
Steps! 진화 과정의 단계 수 Steps는초기 노이즈를 점차 제거하며 이미지를 만들어가는 “진화 과정의 단계 수” 즉, AI가 그림을 완성하기까지 몇 번에 나눠 그릴 거냐는 거야. 어떻게 작동하냐구? Stable Diffusion은 처음에 무작위 노이즈(= seed)로 시작해. 그걸 점점 덜어내면서 그림을 완성해가는데, 그 “덜어내는 과정”을 몇 단계(Steps)에 걸쳐 하느냐가 바로 Steps야. Seed란 무엇인가.한 줄로 말하면: “랜덤을 정해주는 숫자”야. 랜덤인데 왜 정해? 이상하지? 그게 바로 핵심이야. AI가 이미지를 만들 때, 처음부터 아무거나 막 찍어서 만드는 게 아니라, '랜덤처럼 보이지만 재designmoney.tistory.com Steps = 10 → 10번만에 결과 도출 (빠름, 거칠 수 있음)Steps.. 2025. 5. 3.
CFG(Classifier-Free Guidance) AI 이미지 생성의 핵심 조정 값 중 하나인 CFG(Classifier-Free Guidance)에 대해 완전 분석 들어가자. 이거 이해 안 되면, 프롬프트 조절도, 이미지 디테일 튜닝도 헛수고 될 수 있어. CFG란? Classifier-Free Guidance의 줄임말.텍스트 조건(프롬프트)을 얼마나 강하게 반영할지 조절하는 기법이야. 그리고 그걸 위해 “ Classifier (분류기)” 없이 작동하는 걸 의미해. 원래 방식 Classifier Guidance (옛날 방식), 초기 GAN이나 이미지 생성 모델은 진짜-가짜 판별기(Classifier 또는 Discriminator)가 필요했어. 이 판별기가 “이 이미지가 조건에 맞나?”를 판단해주면서 생성기(Generator)를 유도했지. 근데 이 .. 2025. 5. 3.
GAN? 가짜를 진짜처럼 만드는 마법 같은 기술 ComfyUI를 공부하다보면 가끔 씩 어디에선가 보이는 GAN이라는 놈이있다.Stable Diffusion이나 ComfyUI 이전에, AI 이미지 생성의 역사를 판 바꾼 놈이지.ComfyUI는 GAN 모델을 직접 쓰진 않지만, GAN에서 파생된 개념과 결과물은 다양한 방식으로 녹아들어 있어.특히 StyleGAN의 얼굴 생성, CycleGAN의 스타일 전환 개념은 img2img + ControlNet 조합으로 완벽히 재현 가능해.그러니 GAN이 어떤 놈인지만 알고 있자고.StyleGAN(전통 GAN 시대) → Stable Diffusion(확산 시대) → ComfyUI(도구/플랫폼화) 이렇게 기술이 점점 ‘정교하게’, ‘접근 가능하게’ 진화해왔다. GAN( Generative Adversarial Netw.. 2025. 5. 3.
Seed 완전 분석: 초기 노이즈, VAE, Sampler, Batch Size의 관계 Seed를 조금 전문적으로 들어가보자.AI 이미지 생성에서 'Seed(시드)'는 단순한 랜덤 넘버가 아니다. 이 숫자는 모델의 출력 결과를 실질적으로 좌우하는 '출발점'이자 '틀'이다. Stable Diffusion 기반의 시스템, 특히 ComfyUI 환경에서 Seed는 초기 노이즈 생성부터 샘플링 최종 단계까지 일관된 흐름을 만들어. 같은 시드라도 다른 모델이나 설정에서는 약간 다른 결과가 나올 수 있다는 점을 명심해야 해. Seed란 무엇인가.한 줄로 말하면: “랜덤을 정해주는 숫자”야. 랜덤인데 왜 정해? 이상하지? 그게 바로 핵심이야. AI가 이미지를 만들 때, 처음부터 아무거나 막 찍어서 만드는 게 아니라, '랜덤처럼 보이지만 재designmoney.tistory.com 1. Seed와 초기.. 2025. 5. 2.
Seed란 무엇인가. 한 줄로 말하면: “랜덤을 정해주는 숫자”야. 랜덤인데 왜 정해? 이상하지? 그게 바로 핵심이야. AI가 이미지를 만들 때, 처음부터 아무거나 막 찍어서 만드는 게 아니라, '랜덤처럼 보이지만 재현 가능한 무작위'를 써. 그 출발점이 바로 Seed(씨앗)이라는 숫자지.쉽게 말해서, 시드는 ComfyUI를 포함한 이미지 생성 AI가 처음 그림을 그리기 시작하는 씨앗 같은 거야. 똑같은 씨앗을 심으면 거의 똑같은 결과물이 나오듯이, 똑같은 시드 값을 사용하면 (거의) 똑같은 초기 노이즈 맵에서 그림이 시작되기 때문에 비슷한 결과물을 얻을 수 있는 거지.같은 프롬프트 + 같은 Seed → 똑같은 이미지 같은 프롬프트 + 다른 Seed → 완전 다른 이미지 같은 씨드를 쓰면 같은 잡음에서 시작하니까, 결과물이 .. 2025. 5. 2.
왜 하필 ComfyUI인가? – Midjourney 세상에서 ComfyUI를 외치는 이유 요즘 AI 이미지 생성 바닥 보면 말이야, Midjourney, Stability AI, Runway, Pika, 뭐 이름만 들어도 숨이 턱턱 막히지. “야, 이렇게 많은데 왜 굳이 ComfyUI야?” 좋은 질문이다. 쫙. 깔끔하게. 네 머리에 쏙쏙 박히게 설명해줄게. 1. 통합 제품 vs 분리형 제품 – 둘의 차이를 알아야 한다 요즘 나오는 AI 제품들은 두 부류로 갈려. ① 통합형: Midjourney, Stability 같은 거. 모델 + UI + 기능 싹 다 세트로 포장돼있지. ② 분리형: ComfyUI, SD WebUI 같은 거. 모델은 따로, 제품은 따로. 모듈형이야. 자, 둘 다 장단점이 있어. 학습비용: 통합형이 훨씬 비싸다. 튜토리얼은 많고 친절해. (마치 어린이용 레고 같지.) 마이.. 2025. 4. 29.
"영상 콘텐츠의 소비 패턴, 완전히 뒤집히는 중" 옛날엔 그랬다. 영상 하나 올라오면 일단 품을 봤어. "이거 전문가가 만들었네?", "카메라가 꽤 좋았나 봐." 조명 한 번 봐, 촬영 구도 한 번 봐, 편집 리듬 한 번 봐... 사람들은 '전문성'이 진짜 품질이라고 믿었어. 그리고 그 믿음은 꽤 오래 갔지 유튜브 초창기부터 광고 제작 시장까지, 돈 많고 장비 좋은 사람이 퀄리티도 먹어버리는 시대였으니까. 그런데 세상이 돌았다. 아니, 그냥 스핀 돌듯 확 뒤집혔다. ComfyUI, Midjourney, Runway ML, ElevenLabs... AI 기반 영상 제작 툴들이 줄줄이 등장하면서, "프로 장비 없어도 고퀄 영상 가능" "1인 크리에이터도 단편 영화 뽑는다" 이게 현실이 된 거야. 이제 영상은 누가 만드는지가 중요한 게 아니야. 어떻게 .. 2025. 4. 27.
Checkpoint의 출력은 왜 3개일까? ComfyUI에서 Load Checkpoint 노드의 출력이 MODEL, CLIP, VAE로 나오는 이유는 Stable Diffusion 모델의 구조와 각 구성 요소의 역할 때문이야. Stable Diffusion 모델은 이미지 생성을 위해 여러 핵심 구성 요소로 이루어져 있거든, 이 세 가지 구성 요소는 각각 이미지 생성의 핵심 단계(노이즈 제거, 텍스트 처리, 이미지 변환)를 담당하며, 개별 출력으로 제공되어 사용자가 유연하게 워크플로우를 구성할 수 있도록 해준다. “한 덩어리로 묶어버리면 워크플로우 짜기가 빡세지니까.”MODEL만 바꿔서 실험하고 싶을 때CLIP만 다른 걸 써서 프롬프트 스타일 실험할 때VAE만 교체해서 색감 조정하고 싶을 때이렇게 파트별로 조립하고 교체할 수 있어야 ComfyUI답.. 2025. 4. 26.
ComfyUI, 이미지 → 이미지 생성용 모델 리스트(2025.4월) 1. Stable Diffusion 시리즈Stable Diffusion 모델은 img2img 워크플로우에서 가장 널리 사용되며, ControlNet과 같은 확장 도구와 결합해 강력한 성능을 제공한다.Stable Diffusion 1.5 (SD1.5) 특징: 512x512 해상도에 최적화된 경량 모델. img2img에서 빠르고 유연하며, ControlNet, LoRA와 호환성 뛰어남.최신 버전: v1-5-pruned-emaonly-fp16.safetensors (FP16 최적화).용도: 스타일 변환(예: 사진을 애니메이션 스타일로), 디테일 수정, 간단한 이미지 리터칭.설치: ComfyUI/models/checkpoints 폴더에 저장. Hugging Face 또는 Civitai에서 다운로드.img2im.. 2025. 4. 26.
ComfyUI, 이제 GPT-Image-1을 지원한다 AI 시대, 창작자는 도구를 넘어 파트너를 얻었다. ComfyUI가 이제 GPT-Image-1을 지원한다. 우리는 이미지를 이해하고 대화하는 새로운 창작 방식을 만난다. 멋지네~AI가 그림을 그리고, 사진을 찍고, 이야기를 짓는 시대. 이 변화의 중심에 있던 ComfyUI가 다시 한 번 문을 열었어 단순한 기능 추가가 아니야 창작 방식 자체가 달라지는 신호다. 우리는 AI와 "명령과 복종"의 관계를 넘어, "이해하고 상상하는" 협력의 시대로 걸어 들어간거지. ComfyUI는 노드를 이어가며 창작 과정을 시각화하는 생성형 AI 아티스트들의 성역과도 같은 곳이다. 그리고 업데이트를 통해 GPT-Image-1이라는 새로운 동료를 맞이했다. GPT-Image-1은 단순히 이미지를 생성하는 도구가 아니다... 2025. 4. 26.
ComfyUI 고수가 되고 싶어? '워크플로우 읽기'부터 시작하자 요즘 ComfyUI 배우는 사람들 보면 딱 두 부류로 나뉘더라. 하나는 "이게 뭔지 모르겠지만 일단 누른다" 타입, 다른 하나는 "이 노드는 뭐지?" 궁금해하면서 하나씩 뜯어보는 타입. 솔직히 말해서, 후자가 진짜 고수가 된다. ComfyUI는 뭔가 거창한 툴 같지만, 사실 단순하다. '노드'라는 작은 블록들을 '선'으로 연결해서 '그림 그리는 공정'을 짜는 거문제는, 이 퍼즐을 눈으로만 보고 넘어가면 평생 초짜로 남는다는 거다. 워크플로우 읽기란 뭐냐?쉽게 말하면, ComfyUI 워크플로우를 그림 보듯 이해하는 능력이야. "이 노드는 뭐 하는 놈이지?" "이 선은 왜 여기로 이어졌을까?" "이걸 빼면 무슨 일이 일어날까?" 이런 질문을 스스로 던지고, 대답할.. 2025. 4. 26.
Denoising이 뭔지 쉽게 풀어줄게 디노이징은 말 그대로 "잡음(노이즈)을 없애는" 과정이야. ComfyUI에서 쓰는 Stable Diffusion 같은 모델은 처음에 완전 잡음으로 가득 찬, TV 화면 깨진 것 같은 이미지를 가지고 시작해. 이걸 점점 깨끗하고 우리가 원하는 그림으로 바꾸는 게 디노이징이야. 비유하자면, 흐릿한 안개 속에서 점점 선명한 풍경이 드러나는 느낌? 이거 완전 AI 그림 그리기의 핵심 기술이다. 그런데 그냥 잡음 정리하는 게 아니야.ComfyUI나 Diffusion 기반 AI에선 좀 달라. 여긴 노이즈에서 이미지를 만들어내는 방식이야. 애초에 '이미지'가 잡음(노이즈)에서 시작돼. 처음부터 랜덤 노이즈로 가득 찬 이미지(latent image)를 준비해 하는 거야.처음엔 완전 엉망진창이야. 그냥 하얀 화면에 까만.. 2025. 4. 25.
AI 영상 제작, 프리랜서가 주인공 되는 시대 96년이었나. 먹구가 처음 애니메이션 회사에 신입으로 들어갔을 때야. 그때는 뭐, 3D 애니메이션이란 말만 들어도 입사 동기들 눈이 반짝이던 시절이지. 형한텐 그게 꿈의 기술이었고, 현실은... 진짜 악몽이었다. MBC에서 1분짜리 3D 애니메이션을 매주 한편씩 제작 했거든.요즘 같으면 “어? 그거 ChatGPT에 프롬프트 넣고 ComfyUI로 렌더 뽑으면 되겠네” 할 텐데, 그땐 진짜 피, 땀, 눈물 다 쏟아야 했어. 그 짧디 짧은 1분짜리 만들겠다고 7명이 일주일을 철야했어. 진짜로. 사무실 형광등은 꺼질 줄을 몰랐고, 코피 터진 친구는 화장실에서 잠깐 눕고 나와 다시 모니터 앞에 앉았지. 역할 분담이 얼마나 철저했냐고? 작가는 글 쓰고 콘티 짜고 모델러는 캐릭터 만들고 애니메이터는 움직임 잡고 렌.. 2025. 4. 25.
ComfyUI 모델, 도대체 뭐 하는 놈들인가? 모델은 다 이유가 있어서 만들어진다.업스케일링? 인페인팅? 얼굴복원? 스타일변환? 1. 그림 그리는 놈들 (텍스트 → 이미지 생성용) “프롬프트만 던져줘. 그림 내가 그릴게.”대표 모델: sd-v1.5, SDXL, DreamShaper, Anything 역할: 네가 “벚꽃 핀 한강에 앉은 고양이”라고 하면 그걸 이미지로 뽑아주는 메인 화가야. 노드: Load Checkpoint, KSamplerhttps://designmoney.tistory.com/63 comfyUI, 텍스트 → 이미지 생성용 모델 리스트(2025.4월)1. Stable Diffusion 시리즈 Stable Diffusion은 ComfyUI에서 가장 널리 사용되는 텍스트-이미지 생성 모델로, 다양한 버전과 커뮤니티 기반 커스텀 모델이 .. 2025. 4. 24.
“Stable Diffusion이 몸, ComfyUI는 조립 키트다” 먼저 정리하자. Stable Diffusion = 그림 그리는 AI 엔진 ComfyUI = 그 엔진을 갖고 노는 조립식 도구 조금 더 쉽게 말하면…Stable Diffusion은 진짜 훌륭한 AI야. 하지만 “말로만 시키면 그림이 나오는 마법”은 아니고, 속에 있는 계산 방식, 모델, VAE, CLIP 이런 부품들이 되게 복잡해. 이걸 뭐 먼저 연결하고,어떤 모델을 불러오고,프롬프트는 어디에 넣고,이미지를 어떻게 뽑고 저장하냐이런 걸 전부 눈으로 직접 조립할 수 있게 만든 게 바로 ComfyUI라는 거야.그러니까 ComfyUI는 뭐냐면 Stable Diffusion이라는 슈퍼카의 수동 기어 박스야. AUTOMATIC1111은 오토매틱. 그냥 프롬프트 넣고 버튼 누르면 뽑아줘.근데 ComfyUI는? 내가.. 2025. 4. 24.
카메라 없이 영상 만든다 – ComfyUI가 여는 시네마틱 혁명 요즘 영상판 돌아가는 거 보면, 진짜 ‘영화 같은 일’이 벌어지고 있어. 근데 이건 영화 속 얘기가 아니라 우리 눈앞에서 벌어지고 있는 현실이야.카메라도 없고, 조명도 없고, 배우도 없는데… 영상이 만들어져. 그 중심에 뭐가 있냐고? 바로 ComfyUI라는 놈이 있어. 옛날엔 시네마틱 영상 하나 만들려면 일단 카메라 장비부터 싸들고 나가야 했지. 헬리캠 돌리고, 슬로우모션 찍고, LUT 먹이고, 편집실에 쳐박혀 밤새우고…그거 다 해도 감독은 “이 컷이 아니야…” 하면서 다시 찍자고 했고.근데 지금은 달라. 한 줄만 써도 돼.예를 들어서 이렇게“비 오는 도쿄, 붉은 우산을 쓴 여자가 조명 아래 멈춰 선다.” 끝. 이 문장이 ComfyUI에서는 영상의 시퀀스로 바뀐다. 배경, 캐릭터, 구도, 조명, 감정, .. 2025. 4. 24.
ComfyUI 노드메칭 헐~ 뭐야이건 ...!! 복잡하기 짝이 없군 ComfyUI좀 배워보려했는데 이런것 까지 배워야 하나 싶지^^.이 그림을 이해하면 ComfyUI가 훨씬 이해하기 쉬워져.따라만 와바. 이 구조도는 "Latent Diffusion Model (LDM)"의 작동 과정을 설명하는 그림이야. 복잡해 보이지만 핵심 개념을 쉽게 쪼개서 설명해줄게. " Latent Diffusion Model (LDM)”이라는 건 결국 AI가 이미지를 똑똑하게 생성하는 방법 중 하나야. "고양이 그림을 그려줘” → AI가 뚝딱 그림을 만들어주는 구조라 치자. 그냥 픽셀 단위로 처리하면 너무 계산량이 많고 느려.그래서 LDM은 이미지를 압축해서 간단한 숫자 정보(z)로 바꾼 뒤, 그 숫자 정보만 가지고 이미지 생성을 연습하고, 나중에 .. 2025. 4. 23.
ComfyUI,Text2image 오늘은 드디어 ComfyUI로 고양이를 그려보자! 어떤 복잡한 노드를 만나더라도 이런 식의로 노드를 보며 해석할 수 있는 능력이 있으면 노드를 다루는 천재가 된다."모델을 불러오고 → 말로 그림을 설명하고 → 빈 캔버스를 준비한 뒤, AI가 노이즈를 지우며 그림을 그려가고 →마지막에 사람 눈에 보이게 바꿔서 → 저장하는 흐름이야. " ComfyUI 노드메칭헐~ 뭐야이건 ...!! 복잡하기 짝이 없군 ComfyUI좀 배워보려했는데 이런것 까지 배워야 하나 싶지^^.이 그림을 이해하면 ComfyUI가 훨씬 이해하기 쉬워져.따라만 와바. 이 구조도는 "Latent Diffusion Model (Ldesignmoney.tistory.com 1. AI의 그림 실력 세팅 → 먼저 ‘그림을 그릴 수 있는 능력’을 .. 2025. 4. 21.
반응형