Latest Tutorials
from AIPOQUE
LATEST NEWS
Read my latest blog posts
-
Flux LoRA 학습 12GB VRAM GPU로 ComfyUI에서 직접 진행하는 방법
하루가 멀다하고 FLUX 관련 기술들이 발전하고 있습니다. 최근들어 Local에서 FLUX LoRA 학습을 많이들 진행하는 추세인데요, 일반적으로 구동에 비해 학습은 “정밀도”를…
-
Ollama 로컬 LLM 설치하고 llava-llama3 모델을 StableDiffusion 프롬프트에 활용하는 방법
Ollama는 사용자의 로컬 PC에서 설치하여 사용할 수 있는 LLM(Large Language Model)입니다. LLM은 언어모델을 의미합니다. 이해를 위해 ChatGPT를 예로 들면, 웹을…
-
FLUX GGUF 양자화 모델 ComfyUI에서 구동하기
지난 포스팅에서 다룬 FLUX 모델의 높은 이미지 품질과, 높은 프롬프트 이해도 덕분에 굉장히 빠른 속도로 관련 기술이 발전하고 있습니다. 그…