본문 바로가기
반응형

❤Visual Tutor & Mentor❤109

"영상 콘텐츠의 소비 패턴, 완전히 뒤집히는 중" 옛날엔 그랬다. 영상 하나 올라오면 일단 품을 봤어. "이거 전문가가 만들었네?", "카메라가 꽤 좋았나 봐." 조명 한 번 봐, 촬영 구도 한 번 봐, 편집 리듬 한 번 봐... 사람들은 '전문성'이 진짜 품질이라고 믿었어. 그리고 그 믿음은 꽤 오래 갔지 유튜브 초창기부터 광고 제작 시장까지, 돈 많고 장비 좋은 사람이 퀄리티도 먹어버리는 시대였으니까. 그런데 세상이 돌았다. 아니, 그냥 스핀 돌듯 확 뒤집혔다. ComfyUI, Midjourney, Runway ML, ElevenLabs... AI 기반 영상 제작 툴들이 줄줄이 등장하면서, "프로 장비 없어도 고퀄 영상 가능" "1인 크리에이터도 단편 영화 뽑는다" 이게 현실이 된 거야. 이제 영상은 누가 만드는지가 중요한 게 아니야. 어떻게 .. 2025. 4. 27.
Checkpoint의 출력은 왜 3개일까? ComfyUI에서 Load Checkpoint 노드의 출력이 MODEL, CLIP, VAE로 나오는 이유는 Stable Diffusion 모델의 구조와 각 구성 요소의 역할 때문이야. Stable Diffusion 모델은 이미지 생성을 위해 여러 핵심 구성 요소로 이루어져 있거든, 이 세 가지 구성 요소는 각각 이미지 생성의 핵심 단계(노이즈 제거, 텍스트 처리, 이미지 변환)를 담당하며, 개별 출력으로 제공되어 사용자가 유연하게 워크플로우를 구성할 수 있도록 해준다. “한 덩어리로 묶어버리면 워크플로우 짜기가 빡세지니까.”MODEL만 바꿔서 실험하고 싶을 때CLIP만 다른 걸 써서 프롬프트 스타일 실험할 때VAE만 교체해서 색감 조정하고 싶을 때이렇게 파트별로 조립하고 교체할 수 있어야 ComfyUI답.. 2025. 4. 26.
ComfyUI, 이미지 → 이미지 생성용 모델 리스트(2025.4월) 1. Stable Diffusion 시리즈Stable Diffusion 모델은 img2img 워크플로우에서 가장 널리 사용되며, ControlNet과 같은 확장 도구와 결합해 강력한 성능을 제공한다.Stable Diffusion 1.5 (SD1.5) 특징: 512x512 해상도에 최적화된 경량 모델. img2img에서 빠르고 유연하며, ControlNet, LoRA와 호환성 뛰어남.최신 버전: v1-5-pruned-emaonly-fp16.safetensors (FP16 최적화).용도: 스타일 변환(예: 사진을 애니메이션 스타일로), 디테일 수정, 간단한 이미지 리터칭.설치: ComfyUI/models/checkpoints 폴더에 저장. Hugging Face 또는 Civitai에서 다운로드.img2im.. 2025. 4. 26.
ComfyUI, 이제 GPT-Image-1을 지원한다 AI 시대, 창작자는 도구를 넘어 파트너를 얻었다. ComfyUI가 이제 GPT-Image-1을 지원한다. 우리는 이미지를 이해하고 대화하는 새로운 창작 방식을 만난다. 멋지네~AI가 그림을 그리고, 사진을 찍고, 이야기를 짓는 시대. 이 변화의 중심에 있던 ComfyUI가 다시 한 번 문을 열었어 단순한 기능 추가가 아니야 창작 방식 자체가 달라지는 신호다. 우리는 AI와 "명령과 복종"의 관계를 넘어, "이해하고 상상하는" 협력의 시대로 걸어 들어간거지. ComfyUI는 노드를 이어가며 창작 과정을 시각화하는 생성형 AI 아티스트들의 성역과도 같은 곳이다. 그리고 업데이트를 통해 GPT-Image-1이라는 새로운 동료를 맞이했다. GPT-Image-1은 단순히 이미지를 생성하는 도구가 아니다... 2025. 4. 26.
ComfyUI 고수가 되고 싶어? '워크플로우 읽기'부터 시작하자 요즘 ComfyUI 배우는 사람들 보면 딱 두 부류로 나뉘더라. 하나는 "이게 뭔지 모르겠지만 일단 누른다" 타입, 다른 하나는 "이 노드는 뭐지?" 궁금해하면서 하나씩 뜯어보는 타입. 솔직히 말해서, 후자가 진짜 고수가 된다. ComfyUI는 뭔가 거창한 툴 같지만, 사실 단순하다. '노드'라는 작은 블록들을 '선'으로 연결해서 '그림 그리는 공정'을 짜는 거문제는, 이 퍼즐을 눈으로만 보고 넘어가면 평생 초짜로 남는다는 거다. 워크플로우 읽기란 뭐냐?쉽게 말하면, ComfyUI 워크플로우를 그림 보듯 이해하는 능력이야. "이 노드는 뭐 하는 놈이지?" "이 선은 왜 여기로 이어졌을까?" "이걸 빼면 무슨 일이 일어날까?" 이런 질문을 스스로 던지고, 대답할.. 2025. 4. 26.
Denoising이 뭔지 쉽게 풀어줄게 디노이징은 말 그대로 "잡음(노이즈)을 없애는" 과정이야. ComfyUI에서 쓰는 Stable Diffusion 같은 모델은 처음에 완전 잡음으로 가득 찬, TV 화면 깨진 것 같은 이미지를 가지고 시작해. 이걸 점점 깨끗하고 우리가 원하는 그림으로 바꾸는 게 디노이징이야. 비유하자면, 흐릿한 안개 속에서 점점 선명한 풍경이 드러나는 느낌? 이거 완전 AI 그림 그리기의 핵심 기술이다. 그런데 그냥 잡음 정리하는 게 아니야.ComfyUI나 Diffusion 기반 AI에선 좀 달라. 여긴 노이즈에서 이미지를 만들어내는 방식이야. 애초에 '이미지'가 잡음(노이즈)에서 시작돼. 처음부터 랜덤 노이즈로 가득 찬 이미지(latent image)를 준비해 하는 거야.처음엔 완전 엉망진창이야. 그냥 하얀 화면에 까만.. 2025. 4. 25.
AI 영상 제작, 프리랜서가 주인공 되는 시대 96년이었나. 먹구가 처음 애니메이션 회사에 신입으로 들어갔을 때야. 그때는 뭐, 3D 애니메이션이란 말만 들어도 입사 동기들 눈이 반짝이던 시절이지. 형한텐 그게 꿈의 기술이었고, 현실은... 진짜 악몽이었다. MBC에서 1분짜리 3D 애니메이션을 매주 한편씩 제작 했거든.요즘 같으면 “어? 그거 ChatGPT에 프롬프트 넣고 ComfyUI로 렌더 뽑으면 되겠네” 할 텐데, 그땐 진짜 피, 땀, 눈물 다 쏟아야 했어. 그 짧디 짧은 1분짜리 만들겠다고 7명이 일주일을 철야했어. 진짜로. 사무실 형광등은 꺼질 줄을 몰랐고, 코피 터진 친구는 화장실에서 잠깐 눕고 나와 다시 모니터 앞에 앉았지. 역할 분담이 얼마나 철저했냐고? 작가는 글 쓰고 콘티 짜고 모델러는 캐릭터 만들고 애니메이터는 움직임 잡고 렌.. 2025. 4. 25.
책 쓰기의 진짜 비밀: '남의 생각' 활용법 책은 혼자 쓰는 게 아니다. 혼자 쓰는 것처럼 보여도. 다들 처음엔 이래. 책을 쓴다니까 뭔가 대단한 창작의 세계로 들어가는 줄 알아. 내 머릿속 생각만으로 200~300쪽을 꽉 채워야 한다고 믿는단 말이지.마치 머리에서 불꽃 튀기며 창작의 신과 교감해야만 나올 수 있는 무언가처럼 말이야. 근데, 먹구가 말해줄게. 책은 쓰는건 그 안에는 수많은 다른 사람의 생각, 통찰, 자료, 말, 연구가 섞여 있어. 진짜 멋진 책이란 건, 내 생각을 중심에 놓고, 거기에 설득력을 더해줄 수 있는 '남의 생각'을 잘 끌어다 쓰는 기술이야. 네 말이 맞다는 걸 '남의 입'으로도 증명하는 거지.. 먹구는 이렇게 생각해. 좋은 글, 좋은 책은 마치 재판 같아. 내가 하고 싶은 말이 '피고인'이라면, 그걸 변호해주는 게 '논.. 2025. 4. 25.
ComfyUI 모델, 도대체 뭐 하는 놈들인가? 모델은 다 이유가 있어서 만들어진다.업스케일링? 인페인팅? 얼굴복원? 스타일변환? 1. 그림 그리는 놈들 (텍스트 → 이미지 생성용) “프롬프트만 던져줘. 그림 내가 그릴게.”대표 모델: sd-v1.5, SDXL, DreamShaper, Anything 역할: 네가 “벚꽃 핀 한강에 앉은 고양이”라고 하면 그걸 이미지로 뽑아주는 메인 화가야. 노드: Load Checkpoint, KSamplerhttps://designmoney.tistory.com/63 comfyUI, 텍스트 → 이미지 생성용 모델 리스트(2025.4월)1. Stable Diffusion 시리즈 Stable Diffusion은 ComfyUI에서 가장 널리 사용되는 텍스트-이미지 생성 모델로, 다양한 버전과 커뮤니티 기반 커스텀 모델이 .. 2025. 4. 24.
“Stable Diffusion이 몸, ComfyUI는 조립 키트다” 먼저 정리하자. Stable Diffusion = 그림 그리는 AI 엔진 ComfyUI = 그 엔진을 갖고 노는 조립식 도구 조금 더 쉽게 말하면…Stable Diffusion은 진짜 훌륭한 AI야. 하지만 “말로만 시키면 그림이 나오는 마법”은 아니고, 속에 있는 계산 방식, 모델, VAE, CLIP 이런 부품들이 되게 복잡해. 이걸 뭐 먼저 연결하고,어떤 모델을 불러오고,프롬프트는 어디에 넣고,이미지를 어떻게 뽑고 저장하냐이런 걸 전부 눈으로 직접 조립할 수 있게 만든 게 바로 ComfyUI라는 거야.그러니까 ComfyUI는 뭐냐면 Stable Diffusion이라는 슈퍼카의 수동 기어 박스야. AUTOMATIC1111은 오토매틱. 그냥 프롬프트 넣고 버튼 누르면 뽑아줘.근데 ComfyUI는? 내가.. 2025. 4. 24.
영월_다슬기향촌성호식당 영월에 일이 있던 그날 ,몹시 배가 고파서 영월역 근처를 배외하던 터에 대한민국 유명 정치인 연예인 사진으로 도배가 된 식당을 만났지. 성호식당. “다슬기 해장국 하나요.” 성호 식당과의 만남은 그렇게 시작된 거지. 국물 한 숟가락 뜨는데, 와… 이게 속풀이가 아니고 속 깨 우기더라. 깊고 맑은 국물에 다슬기가 자잘하게 박혀 있는데, 이게 꼭 누가 등 두드려주듯 ‘괜찮아, 다시 시작할 수 있어’ 하는 것 같더라고. 반찬은 얼마나 깔끔하던지. 내가 밥을 먹을 때 반찬을 많이 먹거든 반찬은 깔끔한데 양이 많지 않더라고 그런데 반찬 그릇 비우기가 무섭게 반찬을 채워주시는 사장님 때문에 나중에는 죄송해서 아껴먹었서 또 주실 가봐 ㅎㅎ다슬기는 흐르는 물에 살아. 고여 있으면 죽지.사람도 그래. 가만있지 말고 자꾸.. 2025. 4. 24.
카메라 없이 영상 만든다 – ComfyUI가 여는 시네마틱 혁명 요즘 영상판 돌아가는 거 보면, 진짜 ‘영화 같은 일’이 벌어지고 있어. 근데 이건 영화 속 얘기가 아니라 우리 눈앞에서 벌어지고 있는 현실이야.카메라도 없고, 조명도 없고, 배우도 없는데… 영상이 만들어져. 그 중심에 뭐가 있냐고? 바로 ComfyUI라는 놈이 있어. 옛날엔 시네마틱 영상 하나 만들려면 일단 카메라 장비부터 싸들고 나가야 했지. 헬리캠 돌리고, 슬로우모션 찍고, LUT 먹이고, 편집실에 쳐박혀 밤새우고…그거 다 해도 감독은 “이 컷이 아니야…” 하면서 다시 찍자고 했고.근데 지금은 달라. 한 줄만 써도 돼.예를 들어서 이렇게“비 오는 도쿄, 붉은 우산을 쓴 여자가 조명 아래 멈춰 선다.” 끝. 이 문장이 ComfyUI에서는 영상의 시퀀스로 바뀐다. 배경, 캐릭터, 구도, 조명, 감정, .. 2025. 4. 24.
ComfyUI 노드메칭 헐~ 뭐야이건 ...!! 복잡하기 짝이 없군 ComfyUI좀 배워보려했는데 이런것 까지 배워야 하나 싶지^^.이 그림을 이해하면 ComfyUI가 훨씬 이해하기 쉬워져.따라만 와바. 이 구조도는 "Latent Diffusion Model (LDM)"의 작동 과정을 설명하는 그림이야. 복잡해 보이지만 핵심 개념을 쉽게 쪼개서 설명해줄게. " Latent Diffusion Model (LDM)”이라는 건 결국 AI가 이미지를 똑똑하게 생성하는 방법 중 하나야. "고양이 그림을 그려줘” → AI가 뚝딱 그림을 만들어주는 구조라 치자. 그냥 픽셀 단위로 처리하면 너무 계산량이 많고 느려.그래서 LDM은 이미지를 압축해서 간단한 숫자 정보(z)로 바꾼 뒤, 그 숫자 정보만 가지고 이미지 생성을 연습하고, 나중에 .. 2025. 4. 23.
프롬프트에도 설계가 있다 AI에게 서울 근교 하이킹을 추천해달라고 할 거야. 하지만 그냥 “추천해줘” 하면 평범한 결과밖에 못 얻지. 목적과 맥락, 형식과 주의사항까지 다 담아야 결과가 살아 움직이는 거야. 아래처럼 짜보자. "서울에서 차로 2시간 이내에 갈 수 있는, 중간 거리의 하이킹 코스를 추천해줘. 중간 거리: 왕복 60km, 하이킹 시간 10시간 정도 ,특별하고 독특한 경험, 덜 알려진 곳이면 더 좋음" "각 코스에 대해 다음 정보를 포함해서 알려줘,하이킹 이름 (포털이나 맵에서 검색 가능한 이름으로),시작 지점 주소, 종료 지점 주소,총 거리 (km), 소요 시간 (하이킹 기준),차로 이동 시간 (서울 시청 기준), 그리고 이 코스만의 특별한 점이 뭔지 설명해줘." “우린 주말마다 서울 근교를 걸어. 북한산, 청계산.. 2025. 4. 23.
이유 없는 디자인은 없다. 이유 없는 디자인은 없다..의도적 디자인이 중요하다는 말씀이지.그래. 지금 보고 있는 이 글도 이유가 있어. 내가 디자인과 씨름하면서 깨달은 한 가지. '그냥'이란 단어는 디자이너의 사전에 없다는 거야. '그냥 예뻐서요'라고 말하는 순간, 디자이너가 아니라 그냥 '예쁜 그림 그리는 사람'이 되는 거지. 프레젠테이션을 기획하고 디자인할 때도 마찬가지야. 대학시절 내 첫 프레젠테이션 날이었어."이 로고를 파란색으로 만든 이유가 뭐죠?" 교수님의 질문에 내 대답은? "음... 파란색이 예뻐..서요?" 강의실이 얼어붙었어. 그 순간 깨달았지. 내가 디자인학과 학생이 아니라 그냥 '색칠공부' 하는 사람이 됐다는 걸. 진짜 디자인 좀 공부한다는 학생이라면 이렇게 말했어야 했어. "파란색은 신뢰와 안정감을 주며.... 2025. 4. 23.
스토리 발굴의 4가지 기둥: 사람, 시간, 장소, 갈등 요즘 애들은 모를 거야. 내가 처음 포토샵 1.0을 켰을 때 그 느낌을. 화면은 작고, 메모리는 터지고, 마우스는 묵직했지. 그래픽 작업보다 글쓰기가 더 가벼웠어. 이제 디자인과 글쓰기는 내 몸의 양팔이 됐지. 한쪽만 있었다면 이렇게 버텨왔을까? 아마 불가능했을 거야. 디자인이 시각의 언어라면, 글쓰기는 내 생각의 뼈대니까. 오늘은 그 중에서도 '이야기'를 찾는 법에 대해 얘기해볼까 해. 그래픽으로 화려하게 포장해도 알맹이 없는 콘텐츠는 금방 들통나거든. 자, 그럼 내 30년 경험에서 뽑아낸 스토리 발굴의 비법을 풀어보자. 1. 사람을 파헤쳐라 사실 세상의 모든 이야기는 '사람'에서 시작해. 내가 젊었을 때는 사람보다 관념이나 철학에 집착했어. 결과물? 죽은 텍스트와 지루한 디자인뿐. 마흔이 넘어.. 2025. 4. 23.
글의 힘!! 안녕? 먹구형이야. 그래픽 디자이너로 30년 살아오면서 느낀 게 있어. 이미지만으로는 세상을 다 표현할 수 없다는 거지. 요즘 들어 더 강하게 느끼는 건, 글쓰기가 얼마나 중요한지에 대한 거야. 그래서 오늘은 이 늙은이가 왜 글쓰기에 꽂혔는지 얘기해볼까 해. 처음에 디자인만 하던 시절엔 '이미지가 천 마디 말보다 낫다'는 말을 진리처럼 믿었어. 그런데 세월이 흐르면서 깨달았지. 아무리 멋진 이미지도 제대로 된 글 한 줄이 없으면 그냥 예쁜 그림에 불과하다는 걸. 특히 클라이언트한테 프레젠테이션할 때, 내 디자인 의도를 글로 명확하게 전달 못하면 프로젝트가 산으로 가는 경우를 수도 없이 봤거든. 생각의 정리, 그게 첫 번째야 글을 쓴다는 건 머릿속 생각을 정리하는 과정이야. 어제 포토샵으로 작업하다가 .. 2025. 4. 22.
글그리는 먹구형 안녕? 난 먹구형이라고 해. 30년차 그래픽 디자이너지. 어느새 머리는 희끗희끗해졌고, 안경은 점점 두꺼워지고 있어. 하지만 내 상상력만큼은 아직도 청춘이라고 우기고 있지. 허허. 처음 그래픽 디자인이란 걸 시작했을 때가 생각나네. 그땐 포토샵도 1.0 버전이었고, 컴퓨터는 무지하게 비쌌어. 학교 컴퓨터실에서 밤새 작업하다가 가끔 파일 날려먹고 울었던 기억도 나고. 그때는 포토샵에 '실행취소' 기능이 지금처럼 무한대가 아니었거든. Ctrl+Z를 열 번만 누르면 끝! 얼마나 조심스럽게 작업했는지 몰라. 지금 젊은 이들은 알까 몰라? 도스(DOS)... 니들이 쓰는 윈도우 전에 컴퓨터 운영체계가 DOS였거든. 마우스가 필요 없는... 상상이 가? 그 도스에서 3D STUDIO라는 지금의 마야니, 블렌더니.. 2025. 4. 22.
쓰는 사람과 안 쓰는 사람 야~ 내가 30년 디자인계에서 굴러먹은 그래픽 디자이너로서 하는 말인데, 이거 진짜 중요한 얘기야. 요즘 학생들한테 꼭 들려줘야 할 이야기지. 그 유명한 그래프, 봤어?시간-능력 축으로 그려진 그래프 있잖아. 파란선(AI 안 쓰는 사람)은 꾸준히 올라가는데, 빨간선(AI 쓰는 사람)은 처음엔 좀 낮게 시작하다가 어느 순간 '확' 올라가는 거. 이게 지금 우리 현실이야! 처음엔 다 어려워, 괜찮아 AI 툴 처음 쓰면 다 그래. 나도 처음 포토샵 배울 때 '아 X팔, 이거 뭐야' 했던 것처럼. 인터페이스 배우고, 명령어 익히고, 실수도 하고... 이런 러닝 커브가 있는 거야. 근데! 이거 넘어가면 완전 다른 세상이 펼쳐진다고. 안 쓰는 게 더 위험해 "나 그냥 기존 방식으로 할래~" 하는 사람들. 지금은 .. 2025. 4. 22.
ComfyUI,Text2image 오늘은 드디어 ComfyUI로 고양이를 그려보자! 어떤 복잡한 노드를 만나더라도 이런 식의로 노드를 보며 해석할 수 있는 능력이 있으면 노드를 다루는 천재가 된다."모델을 불러오고 → 말로 그림을 설명하고 → 빈 캔버스를 준비한 뒤, AI가 노이즈를 지우며 그림을 그려가고 →마지막에 사람 눈에 보이게 바꿔서 → 저장하는 흐름이야. " ComfyUI 노드메칭헐~ 뭐야이건 ...!! 복잡하기 짝이 없군 ComfyUI좀 배워보려했는데 이런것 까지 배워야 하나 싶지^^.이 그림을 이해하면 ComfyUI가 훨씬 이해하기 쉬워져.따라만 와바. 이 구조도는 "Latent Diffusion Model (Ldesignmoney.tistory.com 1. AI의 그림 실력 세팅 → 먼저 ‘그림을 그릴 수 있는 능력’을 .. 2025. 4. 21.
KSampler-그림의 형태를 만들어가는 핵심 노드 Sampler는 AI가 노이즈에서 이미지를 만들어가는 방식을 정의하는 알고리즘이야.노이즈 제거를 몇 번에, 어떤 속도로, 어떤 수학적 곡선을 따라 할지 결정해예: Euler는 빠르고 단순, DPM++는 정밀, UniPC는 속도+품질 밸런스 AI 이미지 생성 샘플링 기법 중 유명한 논문: "Elucidating the Design Space of Diffusion-Based Generative Models" (Tero Karras et al.) 이 논문에서 제안된 Karras-style 스케줄러와 관련된 구조를 쓰기 때문에 붙은 명칭이라는 설이 있어.Stable Diffusion에서도 DPM++ Karras 라는 샘플러가 자주 등장하지 KSampler = Karras 기반 샘플링 방식 + Sampler 노.. 2025. 4. 21.
ComfyUI기본구성-3 "Model★★" 오늘은 모델의 구조를 이해해보자! ComfyUI에서 불러오는 모델은 크게 3가지로 나뉘어. Checkpoint 모델 이미지를 생성하는 메인 뇌CLIP 프롬프트(텍스트)를 숫자로 바꾸는 인코더VAE latent 이미지를 진짜 이미지로 복원 이 세 가지가 합쳐져야 "그림을 잘 그리는 AI"가 되는 거야. Checkpoint는 앞에서 간략히 설명해봤고 ComfyUI, Checkpoint가 뭘까?ComfyUI의 Graph-Canvas영역이야 .ComfyUI에서 노드를 배치하고 선으로 연결하는 ‘설계도’ 같은 공간이야. 이 영역 안에서 모든 이미지 생성 워크플로우가 시각적으로 이루어져. 실제로 노드를 배치designmoney.tistory.com CLIP이 뭐야? CLIP(Contrastive Language-I.. 2025. 4. 21.
CLIP: 텍스트와 이미지를 잇는 마법의 붓 옛날, 그러니까 2020년 즈음까지 AI 세상은 좀 답답했어. 디자이너인 우리 같은 창작자들은 머릿속에 "붉은 석양 아래 춤추는 고양이" 같은 비전이 가득한데, AI한테 그걸 설명하려면 손발이 오그라들 지경이었지. AI는 이미지를 만드는 데는 능했지만, 우리가 쓰는 인간 언어(프롬프트 같은 것들)를 제대로 못 알아듣는 거야. 이미지와 텍스트가 서로 다른 캔버스에 그려진 것처럼, 둘 사이의 간극이 너무 컸어. 그러다 OpenAI라는 아티스트 집단이 2021년에 CLIP이라는 새로운 붓을 꺼내 들었어. CLIP(Contrastive Language-mage Pretraining)은 텍스트와 이미지를 한 캔버스 위에서 자연스럽게 연결해주는 기술이야. 이 붓은 AI한테 "이건 고양이고, 이건 석양이야"라고 가르.. 2025. 4. 21.
반응형