DALLE2(5)
-
hand style : dall-e2 vs stable diffusion
hand style : dall-e2 vs stable diffusion Dall-e2가 스탁 이미지 등 명확한 표현을 보장하는 데이터셋이 4배 정도 더 많고, Stable Diffusion의 Default CFG가 손 모양 표현에 적합하지 않기 때문에, Stable Diffusion에서 손 모양을 개선하는 방법은 손에 대한 표현이 풍부한 라벨링 데이터, 손 모양에 대한 스타일 데이터셋의 충분량 필요, 그리고 손이나 발 모양 표현에 적합한 Steps와 CFG로 설정하는 것이 좋다. 다음은 Stable Diffusion 2.1에서 많은 개선이 이뤄졌다는 손 모양에 대한 여러가지 출력결과(개선된 로직이 동일 데이터셋 문제로 인하여 개선의 정도를 알 수 없을 정도..) Stable Diffusion 2.1 p..
2022.12.11 -
Stable Diffusion 2 Keyword, Prompt Simple Guide
상기 이미지 4개는 Stable Diffusion 2에서 "Cluttered house in the city, anime, matte painting, high resolution"라는 키워드, 프롬프트를 이용하여 생성된 이미지이다. 가장 생성하고 싶은 핵심 메인을 앞에 표현하거나, 핵심 메인의 타입이나 스타일을 함께 표현하는 방법, 그리고 쉼표를 이용하여 다른 스타일을 여러가지 혼재하여 사용하는 방법 모두 가능하다. 1. 기본적인 Stable Diffusion 2의 Keyword, Prompt 형식 아래는 Stable Diffusion 2의 Keyword, Prompt 예시이다. “A [type of picture] of a [main subject], [style cues]*” "A [size] [t..
2022.12.04 -
Apple Silicon(M1, M2 Model)에서 성능이 좋은 Stable Diffusion 쓰는 법
Apple Silicon(Mac AP, M1, M2 Model)에서 성능이 좋은 Stable Diffusion 쓰는 법 Intel 기반의 맥북, 맥북에어, 맥프로, 맥미니 등과 달리 맥 실리콘을 탑재한 M1, M2 모델의 경우 PyTorch가 뉴럴 엔진/GPU 자원을 제대로 사용할 수가 없는 관계로 CPU의 깡성능에만 의존해서 Stable Diffusion을 사용했었다. 이는 Stable Diffusion Bee 역시 마찬가지인데, Stable Diffusion에서 사용하는 PyTorch 모델을 Core ML format으로 변경하여 뉴럴엔진과 GPU의 성능을 좀 더 사용할 수 있는 Core ML 지원버전이 나왔다. 실제적인 체감으로는 Stable Diffusion 2의 약 2배 정도(벤치마크상으로는 3..
2022.12.04 -
Stable Diffusion 2의 Depth-to-Image Model
Stable Diffusion 2의 주요한 업데이트 내용 중 하나인 Depth-to-Image Model은 이미지의 깊이를 추론하고 텍스트와 깊이 정보를 모두 사용하여 새로운 이미지를 생성하는 Stable Diffusion 2의 새로운 깊이 기반 모델(depth-guided model)이다. 기본 이미지에서 깊이 정보를 추론하여, 이를 공간으로 치환하고, 같은 공간내 이미지를 생성하므로 사용자의 기대값에 근접하는 3차원적인 구조를 특정하고, 유지할 수 있는 장점이 있으며, 평면적인 이미지 생성에 많이 쓰이는 경향이 있던 인공지능 생성 이미지를 좀 더 공간적인 영역으로 확장할 수 있는 장점이 있다. 또한 깊이 기반 이미지의 생성이 가능하게 되면서 단순한 2차원적인 이미지의 연속적인 레이어의 생성 이상으로 ..
2022.12.01 -
Stable Diffusion 2 First Demo Image
기술적으로 Stable Diffusion 1.5에 비해서 어떤 점이 나아졌는지를 확인하기 위하여 Stable Diffusion 2의 First Demo Image를 일반 구문으로 생성해 보았습니다. 보통 인공지능 이미지 생성 결과물을 가장 좋은 것을 선택해서 올리는 경향이 있으나, 인공지능에 대한 환상이 있거나, 인공지능 이미지 생성에 대한 이해도가 없는 경우 추가적인 학습과 프롬프트 최적화 과정없이 어떤 Stable Diffusion 2 데모에서는 어떤 결과가 나오는지 보여드리는 것도 좋을 거 같다는 생각이 듭니다. 드림스튜디오 베타와 연동없이 즉시 볼 수 있는 결과물이니 (일반적으로 한 30초 가량 소요) 가벼운 마음으로 한 번 해 보세요. https://huggingface.co/spaces/sta..
2022.12.01