title,date,views,rate,href,content 휴대폰으로 내 PC 원격 조종 프로그램-parsec,2023-02-18,173,2,https://arca.live/b/aiart/70132996?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1," parsec 이라는 프로그램이 있다. 가입하고 이메일 인증하고 접속하면된다. 이 프로그램의 사용가능한 범위는 PC, 안드로이드계열 운영체제가 설치된 휴대용기기이다. 한번 계정을 연결해둔 기기는 모든 다른기기에서 연결이 가능하며 원격으로 조종되고 당연히 시작시 자동실행이 기본이라 컴퓨터를 다시 시작해도 접속이 가능하다!(켜져만 있으면 내가 비번 눌러서 들어갈 수 있다.) 여러분의 컴퓨터는 여러분을 위해 쉬지않고 집에서 짤을 뽑아내게 될것이다. **휴대폰은 우클릭이 안된다 이거 좀 크다** **주의 컴퓨터는 반드시 전원이 켜져있어야 접속이 가능하다. 키는게 당신이 아니어도 켜져있기만 하면 된다는 이야기** " 이미지 업스케일링 괜찮은 곳 하나 소개해드림,2023-02-18,204,5,https://arca.live/b/aiart/70131440?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1,"https://clipdrop.co/image-upscaler 무료 유저는 가로 세로 2배씩 유료는 가로 세로 4배씩 늘렸던거 또 늘릴 수는 있지만 많이 깨지고 4096픽셀인가 제한이 있음 횟수제한은 없고 괜찮은 퀄리티에 빨리 뽑아낸다는 게 장점임 (한 장에 2초정도?) 와이프2x였나 거기보다 체감상 훨씬 좋았던 거 같음 근데 저건 서로 보간만 해주는 거고 webui는 다시 렌더링하는 거니까 당연히 시간이랑 전기요금 많으면 web ui로 하는 게 맞음 걍 잘 뽑혔는데 업스케일링 본격적으로 하긴 아까우면 여기서 대충 업스케일링해서 보관하자 EXIF는 날아감 " 코랩 손 안대고 런타임 연결 유지하는법,2023-02-18,181,8,https://arca.live/b/aiart/70130876?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1,"구글에 찾아보면 많이 나오긴 하는데 UI 한번 갈아엎었는지 기존 팁들이 적용이 안돼서 나도 나중에 볼겸 올려봄 1. 코랩 창에서 F12 눌러서 개발자도구 연다 2. 개발자 도구에서 Console 눌러서 콘솔 띄운다 3. 콘솔에 아래 코드 입력한다. 4. 10분마다 자동으로 리소스 상태 클릭해줘서 비활성화 방지됨 (F12창은 켜놓는거 추천) 5. 다쓰면 아래 코드 입력해서 매크로 정지시킨다. 기본적으로 PC에서만 작동되고, 구글 정책이나 코랩 매커니즘이 바뀌면 안될수도 있긴한데 일단 이거 해놓으면 적어도 코랩은 대화형 머시기입니다. 하면서 캡챠 뜨고 런타임 멈추는건 막을 수 있을거임(최근에 뜬적없어서 모?름) 아는사람은 이미 잘 써먹고 있을거라고 봄 " 65개의 모델별 콘트롤넷 구글 코랩,2023-02-18,294,3,https://arca.live/b/aiart/70128274?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1,"https://github.com/camenduru/controlnet-colab 존나 마늠 " 영상있음) 공짜디스코드봇과 개인서버로 편하게 짤 쪄내기,2023-02-18,740,28,https://arca.live/b/aiart/70127684?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1,"https://www.reddit.com/r/StableDiffusion/comments/115b9t4/sda_discord_bot_with_extended_capabilities/ 귀하의 브라우저는 html5 video를 지원하지 않습니다. i2i , 로라 , 익스텐션, 하이퍼, 지원 안함 임베드 기본이외에 추가 안됨 모델은 애니띵v3, 파스텔머지, sd1.5외 추가 불가능 vae는 애니띵v3, sd1.5외 추가 불가능 NSFW 옵션 설정 가능 EXIF 저장 안됨 샘플러 지원이 쬐끔 부족함 처음에 사용약관을 먼저 켜고 읽으라고 하는데 원문은 SDA TERMS OF SERVICE Copyright PixelizeAI and SAIL 2023 By adding this discord bot, you, the server owner, the entirety of the server users and staff acknoledge that: - PixelizeAI, SAIL, or any of it's affiliates are not responsible for any outputs that the bot or service generates, nor it's effects or consecuences. - You are responsible for what your users generate in the server, and are willing to moderate the required channels to mantain a healthy community and abide by Discord's ToS. - You are aware that the bot is capable of generating Illegal content, and you are on charge of avoiding the generation of it. - You will ban, mute, or sanction ANY user that breaks Discord's ToS while communicating or making use of the Discord Bot or any of our services. - You accept that, SAIL, PixelizeAI, or any of its affiliates reserve the right to remove the bot from your server, ban any user from using their services, and providing the needed information to authorities upon request. - You accept that, SAIL, PixelizeAI, or any of its affiliates reserve the right to report your server to Discord Moderation Team if constant Illegal use is detected. - You agree to giving the following information to SAIL everytime a request is made: UserID, ServerID, ChannelID, MessageID, User Server Info., Server Info. - You permit PixelizeAI staff to join your server exclusively for audience research. - You will keep up with any updates to the terms of service, of Discord platform, and SAIL, PixelizeAI. - YOU ARE AWARE OF ALL DISCORD COMMUITY GUIDELINES THAT ARE VIEWABLE AT: https://discord.com/guidelines - YOU ARE AWARE OF SECTION 5 OF DISCORD TOS, THAT STATES: - Section 5: Do not sexualize children in any way. You cannot share content or links which depict children in a pornographic, sexually suggestive, or violent manner, including illustrated or digitally altered pornography that depicts children (such as lolicon, shotacon, or cub) and conduct grooming behaviors. We report illegal content and grooming to the National Center for Missing and Exploited Children. To accept the terms of service, run /terms accept 구글번역 SDA 서비스 약관 저작권 PixelizeAI 및 SAIL 2023 이 디스코드 봇을 추가함으로써 서버 소유자인 귀하, 전체 서버 사용자 및 직원은 다음을 인정합니다. - PixelizeAI, SAIL 또는 그 계열사는 봇 또는 서비스가 생성하는 출력이나 그 결과 또는 결과에 대해 책임을 지지 않습니다. - 귀하는 귀하의 사용자가 서버에서 생성하는 것에 대한 책임이 있으며 건강한 커뮤니티를 유지하고 Discord의 서비스 약관을 준수하기 위해 필요한 채널을 기꺼이 조정합니다. - 귀하는 봇이 불법 콘텐츠를 생성할 수 있음을 알고 있으며 이러한 콘텐츠 생성을 방지할 책임이 있습니다. - 귀하는 Discord Bot 또는 당사 서비스와 통신하거나 사용하는 동안 Discord의 서비스 약관을 위반하는 모든 사용자를 금지, 음소거 또는 제재합니다. - 귀하는 SAIL, PixelizeAI 또는 그 계열사가 귀하의 서버에서 봇을 제거하고, 사용자의 서비스 사용을 금지하고, 요청 시 당국에 필요한 정보를 제공할 권리가 있음을 인정합니다. - 귀하는 SAIL, PixelizeAI 또는 그 계열사가 지속적인 불법 사용이 감지될 경우 귀하의 서버를 Discord 조정 팀에 보고할 권리가 있음을 인정합니다. - 귀하는 요청이 있을 때마다 다음 정보를 SAIL에 제공하는 데 동의합니다: UserID, ServerID, ChannelID, MessageID, User Server Info., Server Info. - 귀하는 PixelizeAI 직원이 독자 조사만을 위해 귀하의 서버에 합류하도록 허용합니다. - 서비스 약관, Discord 플랫폼 및 SAIL, PixelizeAI에 대한 업데이트를 계속 확인합니다. - 귀하는 https://discord.com/guidelines에서 볼 수 있는 모든 DISCORD 커뮤니티 가이드라인을 알고 있습니다. - 귀하는 DISCORD TOS의 섹션 5에 대해 다음과 같이 명시되어 있음을 알고 있습니다. - 섹션 5: 어떤 식으로든 아동을 성적 대상화하지 마십시오. 어린이(예: 로리콘, 쇼타콘 또는 새끼)를 묘사하고 그루밍 행동을 하는 삽화가 있거나 디지털 방식으로 변형된 포르노를 포함하여 포르노, 성적 암시 또는 폭력적인 방식으로 어린이를 묘사하는 콘텐츠 또는 링크를 공유할 수 없습니다. 우리는 불법 콘텐츠 및 그루밍을 국립 실종 및 착취 아동 센터에 신고합니다. 서비스 약관에 동의하려면 /terms accept를 실행하세요. 라고 나옴 수틀리면 철컹철컹이니까 알아서 잘 기라는 것 대충 이렇게 넣고 돌려보자 대충 기다리라는 내용 짠! EXIF가 보존이 안되는 짤 생성! 저기서 리롤 누르면 잠시 기다리거나 대기열 명령어 치라는 안내창 나오고 짠 비록 제한되는게 많고 확장성이 낮지만 이제 디코로 폰과 컴 어디서나 즐길수 있음 PS 부탁인데 별 영양가 없는 정보글도 따봉좀 눌러주센 호응이 별로니까 레딧에 버젓이 뜬거도 아무도 안 긁어 오지 " 단어만 나열하기보단 가끔은 문장을 써 보는 게 어떨까?,2023-02-18,258,2,https://arca.live/b/aiart/70127498?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1," 맨날 1 girls, solo, mature female과 같은 프롬프트를 입력하는데 지치지 않았는가? 그런 사람들을 위해서, 기분 환기를 위한 다른 방법을 안내해주려고 한다. 우선, 내가 그리고 싶은 그림을 한글로 적어서 문장으로 만든다. 그걸 번역기를 사용해 번역한 다음 프롬프트 입력창에 그대로 붙여 넣으면 우리의 AI는 우리가 쓴 문장을 이해하고 그림으로 만들어준다. " 코랩 컨트롤넷 다시 키면 안 뜨는 애들 이렇게 해보셈,2023-02-18,126,0,https://arca.live/b/aiart/70127479?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1,"1. 익스텐션 폴더가서 컨트롤넷 지우기 2. 코랩 시작해서 처음처럼 컨트롤넷 다시 받기 3. 주황색 버튼 눌러서 재실행. 4. 컨트롤넷 적용 된 거 확인하고 드라이브 들어가서 tmp에 있는거 익스텐션 폴더로 옮기고 tmp폴더 삭제 5. 코랩 아예 끄고 다시 실행 난 이렇게 했더니 재실행 했다 다시 켜도 안 사라지더라 이랬는데도 해결 안 되면 몰?루 " 컨트롤넷 하이어스 오류 있으면 봐라,2023-02-18,170,0,https://arca.live/b/aiart/70124569?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1," 컨트롤넷과 동시에 하이어스 쓰면 오류뜨면서 그림생성 안되는데 오픈포즈 모델로만 돌리면 쌉가능. " 코랩에서 파이썬코드로 이미지 10초만에 100장 긁어오는 코드(재업),2023-02-18,389,5,https://arca.live/b/aiart/70116967?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1,"코랩실행 pip install jmd_imagescraper  입력 jmd_imagescraper라는 확장기능을 설치 from jmd_imagescraper.core import * from pathlib import Path root = Path().cwd() / ""images"" duckduckgo_search(root, ""Ariel"", ""Ariel image"", max_results=50) 저 색상 칠한 부분이 덕덕고라는 사이트에서 ai가 찾아낼 키워드 여기서 명령어 실행시키면 코랩에 폴더 생기면서 이미지 50장 max_results 100이면 100장 쌓임 ( 순식간에 쌓임(용량주의) import zipfile import os def zipdir(path, ziph): for root, dirs, files in os.walk(path): for file in files: ziph.write(os.path.join(root, file)) if __name__ == '__main__': path = ""images"" zipf = zipfile.ZipFile('images.zip', 'w', zipfile.ZIP_DEFLATED) zipdir(path, zipf) zipf.close() 담은 이미지 zip파일로 저장 코랩 왼쪽에보면 content - images폴더하고 images.zip 파일 생겼을것임 다운 받으면 됨 유입이 너무 많아져서 로라 학습 수요도 폭발하는것 같음 참고가 되었으면 좋겠음 파이썬 처음 다루는 사람도 30초면 활용가능 " 새로운 업스케일러 찾으면 여기서 찾아봐,2023-02-18,365,8,https://arca.live/b/aiart/70116494?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1," 예전에 누가 올려줬는데 요즘에 업스케일러 다시 뜨길래 [ https://upscale.wiki/wiki/Model_Database ] - 업스케일러 모음집 요즘에 느끼는건데 난 ""Hires. fix"", ""SD upscaler"" 를 잘 사용하지는 않지만 Ai그림을 좀 뽑아본 챈럼은 무조건 꼭 필수로 사용하더라 업스케일러 사용은 레딧쪽에도 마찬가진로 중요시한데 애들은 좀 다르게 기본적으로 제공해주는 업스케일러 이외에 (""R-ESRGAN 4x+ Anime6B"" , ""R-ESRGAN 4x+"") ""4x-UltraSharp"" 와 ""4x-AnimeSharp"" 를 사용하더라 아무튼 업스케일러 또한 모델과 마찬가지로 각각의 차이가 존재하니까 본인의 취향에 맞게 골라서 사용해봐라 참고로 그래서 원래와 얼마나 차이가 나는지 물으면 아주 근소한 차이를 보여주니까 잘 모르겠으면 걍 좋다고하는 업스케일러 아무거나 쓰면 됨 " RTX3060 언더볼팅,2023-02-18,461,5,https://arca.live/b/aiart/70109890?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1,"순정상태에서 최대 클럭을 찾는다 나 같은 경우에는 귀찮아서 WEBUI 돌리면서 대략 높은 클럭 찾음 1995MHz 약 2000MHz 최대 클럭을 찾으면 왼쪽 아래에 보이는 CURVE EDITOR을 누른다 누르면 아래와 같은 사진이 보인다 CLOCK에서 CORE CLOCK (MHz)를 100을 주고 엔터키를 누른다 아래 보이는 체크 표시를 누른다 그러면 CURVE EDITOR가 이렇게 변했을 것이다 2000MHz 이상의 점?들을 끝가지 내린다 CLOCK 쪽 체크 표시를 누른다 그러면 CURVE EDITOR가 이렇게 변했을 것이다 CLOCK에서 MEMORY CLOCK (MHz)을 높여준다 나 같은 경우에는 8000MHz로 맞추고 싶어서 +700을 했다그리고 바로 옆에 있는 FAN에서 POWER LIMIT (%)를 줄이면서 순정상태랑 비슷한 속도가 나올 때까지 줄여준다다하고 체크 까먹지 않기 나 같은 경우에는 POWER LIMIT가 75%에서 순정과 비슷한 속도가 되었다 저장 표시를 누르고 오른쪽에 있는 숫자를 눌러서 저장하면 끝난다 테스트 위: 순정   중간: 오버: 코어100 메모리700   아래: 언더볼팅(위에서 작업한 것) 속도 순정 오버 언더볼팅 온도 및 전력 (장시간 테스트 안 해서 너무 확신하진 말자) 순정 최고온도 68도, 최고전력 170.78W 오버 최고온도 69도, 최고전력 176.43W 언더볼팅 최고온도 63도, 최고전력 135.24W 결론: 발열이 신경 쓰인다면 꼭 언더볼팅하자 이 글의 문제점: 그래픽카드에 부하를 줘서 문제가 없는지 확인하는 작업을 안 함 읽어주셔서 감사합니다. " 내가 고화질 그림 뽑는 과정,2023-02-18,2423,45,https://arca.live/b/aiart/70105645?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1,"내가 그림 뽑는 방법 정리해봤음. 챈에서 주워서 배운 것들임 글카는 런팟에서 3090 사용중 1. 일단 t2i로 가챠 (640x768) 512x768 ~ 768x768 원하는 사이즈로 그림 가챠 돌리면서 맘에 드는 그림 고르기 2. i2i에서 latent upscale로 1차 업스케일링 (1.5배, 960x1152) 맘에 드는 짤 하나 고르고 i2i로 가서 latent upscale 돌림. 디노이징은 0.5~0.65 사이 추천. 컨트롤넷을 곁들이면 포즈 확실하게 고정시키면서 뽑을 수 있음. t2i의 Hires fix 를 써도됨. 시드와 프롬, 모델을 고정시켜야한다는 단점 때문에 나는 안씀. 3. 인페인트와 그림툴로 그림 1차 수정 그림을 90% 정도 완성시키는 단계 인페인트와 그림툴로 손가락, 배경 같은 어색한 부분 수정함. 4. i2i에서 SD upscale로 2차 업스케일링 (2배, 1920x2304) width와 height를 원래 이미지 사이즈에서 64만큼 늘리고(이유 후술, 숫자 입력창 누르고 ↑키 한 번 누르면 64 올라감) 아래 Script칸에서 None 누르고 SD upscale 선택 업스케일러는 R-ESRGAN 4x+ Anime6B 추천. 디노이징은 0.1~0.4 사용. 변화 주고 싶은 만큼 사용하면 됨. 자연스럽게 업스케일링 하고싶을 때 0.25~0.3 추천 가로랑 세로를 64씩 늘리는 이유는 위 설정 중에 Tile overlap 때문. 타일을 64픽셀씩 겹쳐서 업스케일링 한다는 건데, 조절 없이 2배 업스케일링하면 3*3 = 9타일이 필요한데, 64 늘린 상태로 하면 2*2 = 4타일 만으로도 가능. 대충 2배 빨라진다는 소리 퀄리티 차이는 없다고 봐도 무방한듯 아래 비교짤 64 안늘림 (3*3, 24초) 64 늘림 (2*2, 12초) 5. 그림 2차 수정 (선택) 이젠 그림이 너무 커져서 전체 그림으로 인페인트 돌리기 힘들어짐. 원하는 부분만 잘라서 인페인트 돌린 후 원래 자리에 붙여넣는 방식이나 그림툴로 직접 수정해야함. 6. Extras 탭에서 3차 업스케일링 (2배, 3840x4608) Resize 2 (2배 업스케일링 한다는 소리) Upscaler 1 에서 R-ESRGAN 4x+ Anime6 선택 그리고 돌려주면 끗. 단순한 방법인 만큼 그림에 변화는 진짜 거의 없음. 이제 확대했을 때에 기존보다 더 깔끔하게 나옴. 끗 " 컨트롤넷 포토샵으로 퍼펫기능 쓸때 미세 팁,2023-02-18,1080,20,https://arca.live/b/aiart/70104209?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1," 귀하의 브라우저는 html5 video를 지원하지 않습니다. 요약: expansion 값 조절 후, 옵션 키를 눌러 해당 관절을 조절하면 더 수월하게 조작할 수 있다. " 컨트롤넷 노멀맵 모드를 이용하여 3d모델 텍스쳐링,2023-02-18,473,7,https://arca.live/b/aiart/70099790?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1," 컨트롤넷 활용도 너무 높네노멀맵 듣고 3d에 사용가능한가 생각했는데 실천해보네 이 사람은 ㅋㅋ " 애니메이션 이미지 오픈포즈 안될때,2023-02-18,471,5,https://arca.live/b/aiart/70093698?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1,"픽시브 같은대서 3D 애니메이션이든 2D 애니메이션이든 괜찮은 포즈짤을 발견했을때 애니메이션 캐릭터는 오픈포즈가 잘 먹지 않는 문제가 있다. 위 예시처럼 스캘래톤이 추출이 안됨 이럴때는 저 베이스 이미지를 img2img 로 실사풍으로 만들어주면 된다. 갠적으로 basil 모델이 잘됨 실사풍이 된 이 이미지를 컨넷에 넣으면 추출 됨 근대 모든 이미지가 이 방법으로 되는건 아니고, 팔다리가 깔끔하게 나온 그런 이미지들은 위 방법으로 하면 될듯 " 맥북 macOS 삽질 메모,2023-02-18,209,2,https://arca.live/b/aiart/70090642?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1,"WebUI M1 맥북에서 돌리며 삽질한 내용 공유 - 메모리 32기가는 있어야 좋음 - CUDA가 없으니 내부적으로 그냥 CPU로 계산할게 경고가 콘솔에서 가끔 뜸 그냥 냅두면 됨 - 아키텍처가 달라 그런지 exif 의 시드 값을 넣어도 같은 그림이 안 나옴. 이건 코랩 가거나 컴퓨터 하나 맞춰야지 해결될 듯 - 배치 돌리다 가끔 죽는다면 ? 실행시 --disable-nan-check 추가하면 그 그림은 버리고 다음 그림 생성 진행됨 - hires fix 너무 느려 !! 2배 키웠으면 원래 1분 걸리던거 2*2 = 4~5분 걸릴 것인데 10분도 넘게 걸린다면? 실행시 --opt-sub-quad-attention 이거 추가하면 빨라짐 - DiffusionBee 라는 그림생성 쉽게 해주는 프로그램도 있는데 , 결국 WebUI 쓰게 될 것임 " Segmentation을 이용한 애니메이션,2023-02-18,2500,54,https://arca.live/b/aiart/70085769?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1," Segmentation은 컨트롤넷에 포함된 기능으로 색으로 영역을 구분지어 이미지를 생성하는 방식 윗짤처럼 배경용이라고 여겨졌었지만... 번역: 부위별로 머티리얼을 색상으로 구분하여 렌더링 → controlnet의 Segmentation으로 i2i를 하면 정확도가 상당히 높아집니다. 특히 부위가 교차하는 부분이나 얼굴의 미묘한 각도에서 효력을 발휘하는 것 같습니다. 방금전 어떤 사람이 3D 모델을 부위별로 색상을 입히고 Sementation i2i를 돌려 엄청난 수준의 애니 움짤을 만들어냄 ㄷㄷㄷ " 컨트롤넷으로 포즈 따서 배경과 합성하기,2023-02-18,2072,44,https://arca.live/b/aiart/70081605?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1,"나만 모르던건진 모르겠는데 그래도 올려봄 1. t2i로 대충 간지나는 배경을 뽑는다. 난 Counterfeit v2.5로 뽑음. 2. i2i 탭으로 가서 컨트롤넷에 원하는 그림을 넣고 openpose로 설정한다. 3. i2i 메뉴에 아까 만든 간지나는 배경을 넣고 프롬을 작성한다: 1girl, dancing on stairs. 전신샷일 경우 해상도가 낮으면 출력물의 얼굴이 뭉개질 수 있으니 latent upscale로 해놓고 출력 해상도를 높여준다 -> (768 x 1152) 4. Denoising strength를 0.5 이상으로 맞춰놓고 생성! cfg와 Denoising strength를 조절해가며 배경의 비중을 조절할 수 있다. 배경이 너무 현란하면 포즈가 뒤틀릴 수 있다. 끗 " 와일드카드 정리,2023-02-18,806,15,https://arca.live/b/aiart/70080923?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1,"1. https://huggingface.co/spaces/JYskyp/wildcards/tree/main 에서 와일드카드 안에 txt 파일을 다운받는다 2. ...본인ai위치...\WEBUI0.65.1\stable-diffusion-webui\scripts\wildcards 에 txt파일을 넣는다 3. 랜덤 다이나믹 프롬프트 v0.62를 열어 본인의 사양에 맞게 값을 조절한다 4. 프롬프트에 __파일이름__, 과 같은 식으로 적어넣고 돌린다 클릭 한번에 나온 그림들.jpg 클릭 한번에 다양한 자세, 구도, 머리색, 옷차림, 장소 등을 골라서 그 중 삘이 오는 놈만 i2i 돌리면 된다 +. ...본인ai위치...\WEBUI0.65.1\stable-diffusion-webui에 있는 ui-config.json 파일을 연다 ""txt2image/Prompt/value"" :  ""((masterpiece, best quality, high_resolution, distinct_image)),  1 girl, solo, __color__ hair, __hairstyle__, __theme__, __ganre__, __job__, __place__, __clothes__, __pose__, "", 넣으면 랜다프롬 돌리고 싶을때 ui만 리프레시 하면 되니 편하다 txt 파일 안에 있는 단어들은 https://arca.live/b/aiart/61336136 에서 가져왔다 (팬티랑 브라자는 넣으니까 그쪽만 자주 나와서 innerwear쪽으로 보냈다) " 쓸만한 컨트롤넷용 저렴한 유료 프로그램,2023-02-18,1605,20,https://arca.live/b/aiart/70079735?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1," KumaKuma Manga Editor 가격은 정가 6700원 세일을 자주하는 편이니 세일 기간에 80퍼센트 할인해서 1300원에 구매하는 것을 추천 본인은 작년 7월에 1300원에 구매 근본이 만화를 쉽게 만들어보자라는 취지의 툴인데 실제로 이걸로 만화만들기는 개 힘들고 퀄리티도 그닥 좋지 않음. 하지만 컨트롤넷의 등장으로 가치가 확 뛰었는데 기본적으로 내장된 포즈만 200가지에 내장된 포즈 커스텀 기능이 아주 편리함. 그냥 마우스로 슥슥 움직여주면 포즈 구성 가능 컨트롤넷이 신이라고는 하나, 기본적으로 바탕이 되는 그림이 숏헤어냐 롱헤어냐에 따라 프롬프트 먹는 정도가 조금 달라지는데 이것을 사용하면 숏헤어 롱헤어 정도는 쉽게 커스텀 가능 오른손 왼손 다 따로 기본 내장된 손 모양대로 20가지 정도 포즈로 포징 가능 원래 본체 기능이지만 이것을 사면 덤으로 만화같이 말풍선 같은것 넣는 편집도 편해짐 강조선 같은것도 기본적으로 내장되어 있음 6700원에 살 가치가 있느냐 하면, 허접한 목각 인형이 1500원에 배송료가 3천원씩 하고 좀 쓸만한 데생용 실리콘 인형이 2만원쯤 하니 이런것 구매하려는 사람들에겐 충분히 메리트가 있음 구매는 스팀에서 가능 그럼 이만 " "카린, 아스나 로라 쓰시는 분 자잘한 프롬 정보",2023-02-18,483,4,https://arca.live/b/aiart/70078623?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1,"lora 카린 아스나 자료는 있는데 트리거 정보가 잘 안 나와있어서 하나하나 시험해보면서 추가했음 다운로드 링크는 https://huggingface.co/YoungMasterFromSect/Trauter_LoRAs/tree/main/LoRA/Blue-Archive []    카린 메이드복: , karin \(blue archive\), very long hair, dark skin, black_dress, blue_bowtie, halo, maid, white_gloves, maid_headdress, puffy_short_sleeves, white_apron, white_pantyhose, maid_apron, pleated_dress, 바니걸: , karin \(bunny\) \(blue_archive\), very long hair, dark skin, black_leotard, blue_bowtie, halo, fishnet_pantyhose, number_tattoo, playboy_bunny, rabbit_ears, ponytail, 교복(가디건) : , karin \(school_uniform\) \(blue_archive\), very long hair, dark skin, [] blue_cardigan [], blue_bowtie, collared_shirt, halo, pleated_skirt, school_uniform,  stud_earrings, long_sleeves, black_skirt []    아스나 메이드복: , asuna \(blue archive\), very long hair, blue bowtie between breasts, halo, maid, white_gloves, maid_headdress, blue ribbon at hair, black_puffy_short_sleeves, white_apron, cleavage, white_pantyhose, maid_apron, white_big_ribbon at back, pleated_dress, half-closed_eyes, smiling_face, (large_breast:1.6, She has a mole on left breast.), sagging breasts, dot nose, 바니걸: , asuna \(bunny\) \(blue_archive\), very long hair, blue_leotard, blue_bowtie, halo, brown_pantyhose, blue ribbon at hair, white arm_gloves, playboy_bunny, white_rabbit_ears, white_wedge_heels, half-closed_eyes, smiling_face, (large_breast:1.6, She has a mole on left breast.), sagging breasts, 교복 : , asuna \(school_uniform\) \(blue_archive\), very long hair, blue_bowtie, collared_shirt, halo, pleated_skirt, school_uniform, blue ribbon at hair, short_sleeves, black_skirt, half-closed_eyes, smiling_face, (large_breast:1.6, She has a mole on left breast.), sagging breasts, 에서 파일명을 로라 폴더 내 파일명 그대로 써넣어야 하는데 이름 막 바꿔도 상관 없으니까 저런식으로 간단하게 바꾸는거 추천함. 안바꿨으면 저 안에 Asuna를 파일명으로 바꿔서 써넣어야 함 맘에 안 드는 건 빼도 되는데, 머리 색이랑 눈동자 색처럼 자동으로 해주는 게 있고 안 적으면 안 해주는 게 있어서 정확하게 다 필요하면 다 적어주는 거 추천함 She has a mole on left breast.  잘 안 먹으면 She have a mole on left breast.라고 적어보셈 " 새로나온 AOM3 시리즈 그림체 비교 4종,2023-02-18,763,7,https://arca.live/b/aiart/70074714?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1," masterpiece, best quality, 1girl, standing, blonde long straight hair, plunging neckline dress, upper body, detailed beautiful eyes, medium breasts.Negative prompt: (worst quality, low quality:1.4), signature, watermark, username, artist name, EasyNegative, navel, latex bodysuit, 이상의 프롬프트를 넣고 4번 굴려보았다. 이하는 그 결과다. " 텍스트로 인페인트 영역 지정하기(txt2mask),2023-02-18,1488,22,https://arca.live/b/aiart/70072817?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1,"https://github.com/ThereforeGames/unprompted 위 익스텐션의 기능 중 하나에요 https://github.com/ThereforeGames/unprompted/blob/main/docs/MANUAL.md 대부분의 기능은 여기 나와있으니 참고해주시고요 예시 확장을 깔고 img2img에서 아래처럼 입력했어요 masterpice, (best quality), ((best detailed)), depth of field, masterpiece, close-up, light smile, 1girl, solo, upper body,[txt2mask negative_mask=""red eyes""]face[/txt2mask] 머리카락이 살짝 꼬이긴 했는데 포토샵을 쓰거나 한번 더 돌려서 해결할 수 있겠죠 아마 샘플러를 까먹고 다른걸로 했나봐요 추가로, precision=120 이런식으로 입력하면 아마 더 좁은범위가 설정될거에요 기본값은 precision=100이고요 어떻게 설명해야 할지 잘 모르겠는데, 아무튼 유용할것 같아서 올려봐요 추가로 프리셋이나 컨트롤넷 기능도 있긴 하던데, 아직 제대로 안써봐서 넘어갈게요 " 분위기 만들기~,2023-02-18,337,1,https://arca.live/b/aiart/70072682?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1,"기본적으로 i2i에서 원하는 분위기, 색감을 만들어낼 수 있습니다. i2i에 원하는 분위기, 색감을 이용할 이미지를 넣습니다. 프롬 넣고 돌립니다. ㅋㅋ  ControlNet과 함께하면 무적입니다. i2i에 삽입한 이미지로 만들어내 2개 이미지입니다. 근데 아직 저도 내공이 부족해서 설정 잘 못하겠습니다~! 완벽하게..나와야되는데 ㅋㅋ " 무료 클라우드 아마존 SageMaker Studio Lab 사용 가이드,2023-02-18,519,3,https://arca.live/b/aiart/70072652?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1,"갤에도 몇 번 글이 올라온적 있는데, SageMaker Studio Lab는 아마존에서 나온 주피터 노트북임.구름과 코랩이랑 동일한 테슬라 T4를 사용하고 하루 8시간 무료임. 기본적으로 주는 용량이 적은 편이라 모델 2개 정도만 넣을 수 있음. 그래서 뽑는 용도로만 쓰는게 좋고, 병합 할 생각이면 모델들 꾸역꾸역 지우고 다시 다운받으면서 시간 잡아먹으면서 해야함. 무료인만큼 코랩 쓰는 사람들이 멀티로 쓰기도 좋음.계정 생성이 접근 권한을 승인해주는 방식이라 승인까지 하루정도 기다려야함. 구글에 SageMaker Studio Lab을 검색해서 들어가면 이런 홈페이지가 나옴. 왼쪽에 보라색 Requester Free Account를 눌러서 계정 생성을 하자. 계정 생성을 하면 추후에 메일 준다고 메세지가 뜸. 다른 갤럼 말도 그렇고 내 경험도 그렇고 다음 날되면 승인 해주는듯. 그러므로 이 글 보고 있는 갤럼들은 내일 다시 오자. 로그인하면 이렇게 Dashboard 화면이 뜨는데, Compute Type으로 GPU를 누르면 왼쪽에 오늘 사용 가능한 시간이 뜸. 기본 8시간이고 난 32분을 돌려서 남은 시간이 7시간 28분임. 이 상태로 오른쪽의 Start runtime 버튼을 누르면 됨. Start runtime을 눌렀는데 사진처럼 '현재 사용 가능한 runtime이 없다'라고 뜰 수 있음. 이때는 그냥 될 때까지 Start runtime을 누르면 내 경험상 20번 안에 실행됨. 근데 사용자 많아지면 어떻게될진 나도 몰?루. Start가 정상적으로 되면 왼쪽에 Session time이 4시간 생김. 4시간 뒤 자동으로 Stop된다는 소리임. Stop되기 5분 전에 알려줌. 그때 Stop하고 다시 Start하면 됨. 오른쪽의 Open project 버튼이 눌러서 주피터를 실행하자. https://github.com/Miraculix200/StableDiffusionUI_SageMakerSLSageMaker도 코랩처럼 누가 노트북 만들어둔게 있음. 이걸 사용하면 WebUI 다운로드부터 모델 다운로드, 이미지 압축까지 굉장히 쉽게 할 수 있음. 다운로드 받자. 아까 Open 버튼을 눌렀으면 이렇게 주피터 랩 화면이 떴을거임. 왼쪽에 내가 한 것처럼 위에서 다운 받은 노트북을 넣고 더블 클릭해서 열자. 연 상태에서 위에 Play 버튼을 3번 누르면 WebUI가 다운받아짐. 아래 로그가 막 솰라솰라 뜨면서 좀 기다리면 다운로드 완료됐다고 로그가 뜰거임. 다음은 허깅페이스에서 기본 모델을 다운 받는 부분인데 다들 자기들이 쓰는 모델이 있을테니 이 부분은 진행할 필요 없음. 그냥 다운받은 WebUI 폴더에 로컬에서 하던 것처럼 Drag&Drop으로 자기가 쓸 모델, VAE, 로라 등을 넣으면 됨. 근데 VAE, 로라 이런 애들은 괜찮은데 용량이 큰 모델은 업로드하는데 시간이 상당히 걸릴거임. 노트북 아래로 내려보면 Optional로 Mega나 GoogleDrive에서 모델 다운 방법도 제공하는데 본인 모델 드라이브에 관리하는 사람들은 그 방법 쓰는게 더 빠를거임.모델을 수동으로 넣는 애들은 모델이 업로드 되는 사이 다음을 진행하자. 노트북을 내리다보면 Installation: Install glib to prevent libgthread error when starting webui 항목이 있음. 클릭해서 왼족 보라색바가 이 항목으로 오게해주자. 그리고 Play 버튼을 두번 누르면 로그가 촤라라락 뜰거고, 완료되면 또 Play 버튼을 두 번 눌러서 다음 Update를 진행, 완료되면 또 Play 버튼을 두번 눌러서 다음 Update를 진행하면됨. 다음 이제 WebUI를 실행하는 부분인데, 자기 ngrok token을 초록색 박스에 넣어줘야함. ngrok token은 ngrok 로그인하고 처음 나오는 화면에 있는 저 빨간 박스의 문자열을 말하는거임. 다음 주황색 박스는 WebUI를 열었을 때 사용할 로그인 ID랑 PASSWORD임. 본인 평소에 쓰던걸 입력하던가, 대충 1, 2 박아넣던가 하셈. 설정 다됐으면 Play 버튼 4번 눌러서 Run: Launch web ui까지 실행. 로그 솰라솰라 뜨면서 WebUI가 launch되면 빨간 박스 주소로 들어가면 됨. 그럼 이런 창이 뜨고 파란색 버튼 눌러서 들어가서 아까 입력했던 ID, 비밀번호로 로그인하면 끝. 그림 뽑아라 인간. WebUI 끌 때는 아까 노트북 다시 가서 Play 버튼 오른쪽에 네모(중지) 버튼 누르면됨. 마지막으로 노트북 맨 아래쪽에 보면 이미지들 압축해서 뽑아주는 기능 있으니 쓸 사람은 쓰셈. 압축 파일은 Temp 폴더에 저장됨. " GLIGEN 글 데모 해봄,2023-02-18,468,5,https://arca.live/b/aiart/70072265?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1,"원글 https://arca.live/b/aiart/70071447?p=1 허깅페이스 주소 https://huggingface.co/spaces/gligen/demo 인페인트는 내가 직접 그린거 업로드하는거 첫번째거는 내가 여기서 그냥 그려서 만드는거 왼쪽에 그림 그리면 저렇게 위치 잡아줌 Language instruction 문장형으로 내가쓴것처럼 비슷하게 쓰면됨 a bear and an apple and lemon Grounding instruction (Separated by semicolon) 각각 피사체들을 내가 쓴것처럼 세미콜론으로 구분해서 쓰면됨 a bear; an apple; a lemon 그럼 오른쪽 사진처럼 변수명이 바뀜 제네레이트 누르면 만들어줌 " GLIGEN - SD에서 화면 원하는 곳에 피사체를 배치 강제해주는 기술 떴다,2023-02-18,1979,46,https://arca.live/b/aiart/70071447?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1,"https://gligen.github.io/ https://arxiv.org/abs/2301.07093 컨트롤넷이 인물 배치와 포즈 설정에 혁명을 일으켰지만 그 외의 자잘한 오브젝트들을 배치하는 데는 활용이 어려웠다는 점을 극복할 수 있는 기술이다. 위의 데모 사진에서 보는 것처럼 오브젝트마다 구분색을 지정하고 그 색상으로 네모 박스를 설치하면 그쪽에 맞춰서 SD 가 그림을 찍어준다! 내가 살다 살다 일주일에 한번씩 세상이 뒤엎어지는 판은 처음본다 깃헙에는 곧 소스를 올리겠다고만 하고 논문 요약만 올라와있는 상태고, 논문에 어떤 주목할 만한 내용이 있는지 좀 더 살펴보자 일단 기본 원리는 U-net 에서 어떤 이미지로 만들지 프롬프트 텍스트로부터 조건을 잡아주는 어텐션이라는 층이 있는데, 그 부분들은 그대로 얼려두고 사이사이에 게이트 층을 끼워넣어서 게이트 층에서 추가적인 조건을 더 잡아주게 한 방식이다. 원래의 어텐션층을 얼려둠으로써 불필요한 재학습을 막고 추가된 부분만 학습하면 된다. 요런식으로 여러가지 형태의 조절방식 (네모칸 으로 영역 규제하기, 이미지로 모양 가이드하기, 뼈대로 체형 가이드하기) 를 모듈화해서 끼워넣을 수 있다는 점이 각각의 형식마다 별도의 Unet 을 만들어야 했던 기존 컨트롤 넷과의 차별점이기도 하다. 완전 랜덤 노이즈로부터 차츰 디퓨전의 반대방향을 거슬러 올라가면서 이미지를 생성해내는 Stable Diffusion 의 원리는 다들 한번쯤 들어봤을거다. GLIGEN 방식은 위의 조건을 주는 게이트 어텐션층을 각 샘플링 단계 (이미지를 생성하는 각각의 스텝) 에서 동적으로 게이트 정보를 바꿔치는 것도 가능하다. 이게 필요한 이유는, 오브젝트를 특정 위치에 배치하는 것은 샘플링의 초반 단계, 즉 구도를 잡아주는 부분에서만 필요하고 이미 오브젝트의 위치가 지정된 이후 세세한 표현 (피부 질감이라던가 ) 을 표현하는 후반 샘플링 단계에서는 위치를 잡는 게이트 층이 쓸모가 없이 화질 저하를 일으킬 수가 있으니까 뒷부분에는 치워버리자는 것이다 이제부터는 논문 저자들의 자랑 시간 GTA 스타일이나 마인크래프트 스타일로 오브젝트를 원하는 곳에 배치하고 포즈도 찍을 수 있다면 진짜 게임 스샷과 구분이 어려워질 것 같다. 아니 게임의 렌더링이라는 패러다임 자체가 바뀔 수도 있지 않을까??? 대충 DALL-E 1 이나 2 보다 자기네들이 우월하다고 자랑하는 중.. 자세히 보면 박스를 서로 어느정도 겹치게 해도 원하는 대로 이미지가 생성되는 것을 볼 수 있다. 캬~ 특히 학습된 모델에 따라 같은 오브젝트가 크기에 따라 깨지고 안깨지고 하는 경우를 경험적으로 느껴본 사람이라면 저 박스의 크기를 잘 조절해서 타율을 높일 수 있겠지? 위에서도 설명했지만 GLIGEN 은 박스로 위치를 잡는 것뿐만 아니라 아예 이미지를 강제해줄 수도 있다. 차나 오토바이를 타고 있는 인물을 찍으려고 시도해본 사람이라면 인물은 잘 찍혔는데, 자동차는 이상한 혼종으로 나온다던가, 아니면 주위 간판에 외계어가 찍힌 것 때문에 따로 포토샵으로 식자를 해야한다던가 하는 경험을 해봤을거다. 이런 경우에는 그냥 이미지를 제시해주면 그거에 맞춰서 찍어준다. 페라리 458 타는 여자 찍어봐 하면 페라리 458 그림 넣어주면 된다 이말이지! 포즈 그까이꺼 요즘은 아무나 다 하는 기술 아님? 인페인팅도 물론 된다. 그림 만들어놨다가 뭔가 부족하다 싶으면 처음부터 찍을 필요 없이 그 부분만 찍어서 더 넣으면 되겠지? 근데 이미 기존의 조절 기능이 워낙 막강하기 때문에 굳이 필요할까 싶긴 하지만, 이미지를 가이드로 주는 부분에서 한번에 복수의 이미지를 가이드 하는 것이 현재로서는 없기 때문에 요런식으로 여러 단계를 거쳐서 복수의 이미지를 가이드 시킬 수 있는 방법을 열어놨다고 생각하면 될 것 같다. " 컨트롤넷 돌리고 포토샵 플러그인에서 포즈 그대로 유지함,2023-02-18,483,5,https://arca.live/b/aiart/70069072?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1," 클립스튜디오로 기이한 포즈를 뽑고 webui 에서 한번 돌려서 확인한 후에 포토샵 연동 플러그인으로 바로 뽑아보니까 컨트롤넷 포즈 정보 그대로 이미지 생성 bug now " webui에서 컨트롤넷 기능이 안보일때 해결법,2023-02-17,490,2,https://arca.live/b/aiart/70062215?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1," 1. 첫번째 방법 : 기존에 있던 파일 제거 후 깃헙에서 직접 다운받아 옮겨준다 경로 'stable-diffusion-webui\extensions\sd-webui-controlnet' https://github.com/Mikubill/sd-webui-controlnet 2. 두번째 방법 : 확장기능 탭에 들어가서 컨트롤넷 체크 풀고 재시작, 다시 체크하고 재시작 3. 세번째 방법 : 실행기(일반, 고사양, 저사양) 바꿔서 실행하기 일반 실행기 유저 -> 고사양 or 저사양 고사양 실행기 유저 -> 일반 or 저사양 저사양 실행기 유저 -> 일반 or 고사양 " 3D 인식 조건부 이미지 합성,2023-02-17,938,16,https://arca.live/b/aiart/70060489?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1," 귀하의 브라우저는 html5 video를 지원하지 않습니다. https://www.cs.cmu.edu/~pix2pix3D/ 엄밀하게 말하면 AI라기보다는 CG기술쪽에 가까운에 여기에 AI이미지생성 기술이 결합되면 뭐가 나올지 알수가 없음 " 콘트롤넷 미세팁,2023-02-17,729,4,https://arca.live/b/aiart/70055178?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1," 크기 적당히 맞춘 그림판에 스포이트로 남들이 올려 놓은거 관절, 신체부위별 색 하나하나 추출한 다음 검은 바탕에 적당히 그려 넣으면 잘된다 괜히 블렌더니 포토샵이니 쓸필요 없다 그냥 익숙하고 편한거 써라 가끔 반신욕 한다거나 약간이라도 일그러지거나 가려진 원본짤은 인식 못할때가 있다 그럴 땐 그냥 그려넣어라 메모리가 8기가 2개, 글카 2천번대 이하라면 set COMMANDLINE_ARGS= --lowvram 어차피 t2i, i2i 쓸때 다시 고쳐 써넣어서 쓰면 어떻게든 돌아가기는 함 내글카 1660으로 예시짤 기준 약 3분컷 아르그스 일일이 수정하기 귀찮으면 콘트롤넷용으로 따로 하나 더 받아라 그외 나머지 팁은 다른 챈러들이 써놨더라 챈에서 자주 검색해보센 나는 이제 명기의 증명 후카다 에이미와 함께 좆집 샌드위치 즐기러 감 ㅂㅂ " 클립스튜디오에서 쓸수 있는 오픈포즈용 스켈레톤 모델을 공개했습니다.,2023-02-17,1987,33,https://arca.live/b/aiart/70053925?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1,"https://assets.clip-studio.com/ja-jp/detail?id=1983670 클립스튜디오 캐릭터 모델로 오픈포즈 형식을 만들어 올렸습니다. 사용 방법이야 클립스튜디오 써본 사람이라는 금방 아실거고 당연히 컨트롤넷에서 잘 인식됩니다. A타입하고 B타입이 있는데 우선 A타입으로 포즈를 잡고 하단 메뉴에서 B타입으로 바꾸시면 됩니다. B타입 즉 스켈레톤모드에서는 광원 옵션을 꺼주시면 되고 출력할때 배경 검게 해서 이미지 만들어서 넣으면 잘 인식됩니다. 클립스튜디오가 좋은 것이 소재장터에 이미 만들어진 포즈 데이터가 많으니 그걸 적당히 적용해보시면 빠르게 포즈 제작이 될겁니다. 일단 급하게 만들어서 오류가 있을수도 있으니 문제점 덧글로 적어놓으면 나중에 시간날때 고쳐 볼지도... 아참 혹시 난 클립스튜디오 없어서 쓸수 없다는 분이 계실것 같아서 말해두지만 클립스튜디오 체험판만 깔아서 소재는 사용 가능합니다. 다만 체험판은 저장이 안되기 때문에 캡쳐 형식으로 저장해야겠지요. 사용예 사용방법 모델 불러오면 이런 식으로 나오는데 하단에 이 아이콘을 누르면 이렇게 타입를 선택할 수 있는 메뉴가 나옵니다. (B타입에서는 광원,외곽선옵션은 다 꺼두시는 것이 좋습니다. ) 클립스튜디오 3D조작방법은 이쪽을 참고하세요 https://tips.clip-studio.com/ko-kr/series/55 이런 포즈들 가져다가 적당히 붙이면 됨니다. " 그 로라 어딨음? 여깄지,2023-02-17,1649,26,https://arca.live/b/aiart/70048654?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1,"왠만한 야짤 로라는 다 여깄다고 보면 됨. 검색이 다른 사이트보다 수월하니 검색하기도 쉬움. 다만 이미지 없는 경우도 있으니 직접 시험해야 하는 경우도 있음. 다른데 있는데 여기 없는 로라는 거의 없다고 보면 됨. 대부분 애니체 위주 로라들임. https://gitgud.io/gayshit/makesomefuckingporn#lora-list " 스크립트 loopback 사용해보기,2023-02-17,444,4,https://arca.live/b/aiart/70045729?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1," (원본 이미지) 해당 이미지는 구글에서 '풍선들고 있는 아이' 라는 키워드로 검색해서 가져왔습니다. 1. i2i 이미지로 한번 돌려서 girl and boy, ((hand on balloon)),Negative prompt: (worst quality, low quality:1.4), normal quality, jpeg artifacts, owres, bad anatomy, bad hands, missing fingers, extra digit, fewer digits, cropped, text, error, signature, watermark, username, artist name, nfsw,Steps: 20, Sampler: DPM++ SDE Karras, CFG scale: 5, Seed: 2778226554, Size: 512x512, Model hash: 553398964f, Model: AOM3A2, Denoising strength: 0.5, ENSD: 31337, Mask blur: 4 2. 프롬프트는 그대로 두고, Loopback 스크립트로 루프 카운트를 10회로 설정하여 실행했습니다. 3. 진행 과정 학습하듯 이미지가 겹쳐지면서 점차 형태도 바뀌고, 점점 흐린 부분이 선명하게 바뀌는 모습을 볼 수 있습니다. 4. 최종 결과물 흐린 이미지를 보정할때 유용한 스크립트인것 같습니다. 단, 이미지 변화도 있다는 점을 참고하세요. " 오픈 포즈 포즈 메이커 하나 추천한당,2023-02-17,2025,22,https://arca.live/b/aiart/70034014?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1,"괜히 뭔 모델링 파일 사지 마시고원하는 자세 사진 하나 여기다가 올린 뒤에 나오는 오픈 포즈 모델 만지작 해서 컨트롤넷에 적용하셈 https://huggingface.co/spaces/jonigata/PoseMaker 나중에 오류 생길듯 하면 그냥 huggingface id 하나 만들어서 앱 복붙해서 개인용으로 써도 되공 사용방법 1. 원하는 자세의 사진을 찾는다 2. 요 링크에 들어가서 이미지 란에다가 복붙 3. 사이즈 조절하고 start edit 클릭하면 젓가락 그림들 나옴 4. 그거 사이즈 조절, 회전, 위치, 관절 방향 다 조절 가능하니깐 원하는 자세로 만드시고 5. controlnet에 적용 한다 " 오픈포즈 금방 만들어주는 사이트,2023-02-17,3676,38,https://arca.live/b/aiart/70027748?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1,"https://huggingface.co/spaces/jonigata/PoseMaker 어떤 분이 댓글 다신 거 들어가보고 개꿀이다 싶어서 공유 감사합니다 " 오렌지 믹스 3 소개 번역 (권장 설정 포함) + 간단 비교 테스트,2023-02-17,3880,43,https://arca.live/b/aiart/70025934?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1,"출처 : https://huggingface.co/WarriorMama777/OrangeMixs#abyssorangemix3-aom3 대충 번역했으니까 틀린 부분 있으면 네 말이 맞음. ――모두가 서로 다른 “ABYSS” 를 가지고 있습니다.! 메인 모델인 ""AOM3 (AbyssOrangeMix3)""은 이전 버전인 ""AOM2"" 의 문제점들을 고친 업그레이드 모델입니다. ""AOM3"" 는 매우 사실적인 질감의 일러스트를 만들 수 있고, 다양한 콘텐츠를 생성할 수 있습니다. 또한 AOM3를 기반으로 서로 다른 특징을 가진 3가지의 파생 모델이 있습니다. 이 모델들은 당신의 생각을 보다 명확하게 표현할 수 있도록 도와줄 것입니다. 특징: 고품질의 사실적인 질감을 가진 일러스트를 만들어낼 수 있음.AOM2와는 2가지의 차이점이 있습니다. 1: _nsfw나 _hard와 같은 NSFW(성인용) 모델의 향상: AOM2_nsfw 모델의 경우 Hires.fix를 사용하는 경우 애니메이션 캐릭터임에도 지나치게 사실적인 얼굴, 근육, 갈비뼈를 묘사했었습니다. AOM3에서는 이러한 부분이 보다 나아졌습니다. 참고 : 2: sfw(비성인용)/nsfw(성인용) 모델이 하나로 합쳐졌습니다. 원래 nsfw 모델들은 (NAI나 gape 같이) 얼굴을 바꾸거나 이전에 언급한 문제들을 야기했기 때문에 따로 분리되었어야 했습니다. 이제 그런 부분이 나아져, 모델들이 하나로 합쳐졌습니다.거기에 ModelToolkit같은 멋진 확장 덕분에 모델 파일 사이즈도 상당히 줄어들었죠. (각 모델당 1.98GB) ▼파생모델 특징: 애니메이션 같은 단조로운 채색. 그 자체로도 충분히 귀엽지만 저는 마치 극장판의 한 프레임을 뽑아낸 것 같은 더 고품질의 애니메이션 일러스트를 만들어내기 위해 애니메이션 캐릭터들의 LoRA를 적용하는 것을 좋아합니다. 특징: 유화와 같은 예술적인 일러스트와 멋진 배경 묘사. 사실 이는 Counterfeit 2.5 덕분입니다만, U-Net Blocks Weight Merge (U-Net 블록 가중치 병합) 덕분에 질감이 보다 사실적이 되었습니다.. 특징: 카와이(kawaii)와 예술, 그 사이. 이 모델은 사실적인 질감이나 유화 채색같이 느껴지는 예술적 표현, 귀여운 애니메이션 스타일의 얼굴을 조합하도록 조정되었습니다. 보다 넓은 범위의 일러스트들을 만드는데 사용할 수 있습니다. 추가로, U-Net Blocks Weight Merge 모델은 여러 단계를 수행하면서도 각각 서로의 특징이 덮어 씌워지지 않게 해줍니다. ▼ 샘플 이미지 작업중 ▼사용법 추천한 설정으로 직접 뽑아본 그림 및 Abyss Orange Mix 2와의 비교 연성 조건 masterpiece, best quality, 1 girl, school uniform, classroom, sitting, smile, hand on hair Negative prompt: (worst quality, low quality:1.4), (realistic, lip, nose, tooth, rouge, lipstick, eyeshadow:1.0), (dusty sunbeams:1.0),, (abs, muscular, rib:1.0), (depth of field, bokeh, blurry:1.4), (greyscale, monochrome:1.0), text, title, logo, signature Steps: 20, Sampler: DPM++ SDE Karras, CFG scale: 9, Seed: 2147666240, Size: 512x768 AOM3 Clip 1 에서 뜬금포로 마스크가 생겨서 다른 시드 쓸까 했는데 귀찮아서 그냥 올림 " 해변의 황금 비키니 패션 화보 광택ver에 쓴 와카입니다,2023-02-17,1701,14,https://arca.live/b/aiart/70024120?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1,"기존에 올렸던 와카랑 크게 다르진 않은데 높은 가중치 태그(글로시 스킨)가 껴있었기 때문에 덩달아 가중치를 올린게 좀 있습니다. 중복단어와 빈칸 쉼표등은 빈도 조절용으로  일부러 넣었습니다. 조절해서 써주세요ㅎㅎ h-b(앞머리), hs(헤어스타일), hl(머리길이)는 다른분이 올려주신 와카를 썼습니다. 헤어 와카로 검색하시면 나올꺼에요 ------------------------ arm2 = 팔 위치나 자세입니다. , (arms_up), ((Model Pose)) (hands_behind_head), ((Model Pose)) (brushing_hair), ((Model Pose)) (arms_over_head), ((Model Pose)) (leg_up) (Waving:1.2), ((Model Pose)) (hand_on_hip:1.3), ((Model Pose)) (arms at sides:1.4) (peace sign), ((Model Pose)) (hands_behind_back:1.3), ((Model Pose)) ------------------------ bb3 = 가슴 사이즈입니다. ((big_breasts)) ((big_breasts )) (big_breasts:1.2) (big_breasts:1.21) (big_breasts:1.22) (big_breasts:1.25) [ huge_breasts] huge_breasts [huge_breasts] [huge breasts] ------------------------ bw3 = 해변 상의입니다 __my\color__ Plain pattern dress shirt __my\color__ Plain pattern dress shirt __my\color__ dress shirt __my\color__  Plain pattern dress shirt {__my\color__  animal-patterned dress shirt} __my\color__ dress shirt __my\color__  dress shirt __my\color__ stripe dress shirt __my\color__ floral dress shirt __my\color__ Plain pattern dress shirt __my\color__  Plain pattern dress shirt __my\color__ dress shirt __my\color__ checked dress shirt __my\color__ stripe dress shirt __my\color__ floral dress shirt __my\color__ beach gown __my\color__ beach robe __my\color__ beach gown __my\color__ Mesh Bodysuits __my\color__ Bodysuits __my\color__  Bodysuits __my\color__ beach robe luxury luxury oversized loose croptop, wet oversized loose croptop, wet see-through, oversized loose croptop, see-through,  oversized loose croptop, oversized loose croptop oversized loose croptop croptop croptop croptop, underboob croptop , underboob __my\color__ Plain pattern Summer see-through beach cardigan __my\color__ Plain pattern Summer see-through beach cardigan __my\color__ Summer see-through beach cardigan __my\color__ Summer see-through beach cardigan __my\color__  Summer floral see-through beach cardigan __my\color__  Summer stripe see-through beach cardigan __my\color__ Summer checked see-through beach cardigan __my\color__ Summer see-through beach cardigan __my\color__ Summer see-through beach cardigan __my\color__  Summer see-through beach cardigan __my\color__   Summer see-through beach cardigan __my\color__ Summer floral see-through beach cardigan __my\color__ Summer stripe see-through beach cardigan __my\color__ jacket __my\color__ jacket __my\color__ bolero jacket __my\color__ Sleeve Dress __my\color__ bolero jacket __my\color__ Sleeve Dress __my\color__ wet towel __my\color__ wet towel ------------------------ color = 기본 색상입니다 red Scarlet Burgundy Navy blue Sky blue [light yellow] [yellow] [orange] gold dark green green light green purple Lavender Lilac pink rose gold powder pink silver Beige Grey white Platinum black blue black brown metal glass crystal colorful two tone hair streaked ------------------------ ex = 장식입니다 see-through socks __my\color__ fishnet stockings __my\color__ fishnet stockings __my\color__ Plain pattern see-through Stocking __my\color__ see-through Stocking __my\color__ see-through Stocking __my\color__ Checked pattern  see-through Stocking __my\color__ stripe see-through Stocking __my\color__ floral see-through Stocking __my\color__ see-through Stocking __my\color__ see-through Stocking __my\color__ see-through Stocking __my\color__ Checked pattern  see-through Stocking __my\color__ stripe see-through Stocking __my\color__ floral see-through Stocking ribbon ------------------------ ex2 = 장식입니다. Jeweled choker necklace chain necklace ------------------------ ex3 = 장식입니다. (Latex|Long Gloves) Long Gloves , , ,, , , Gloves ------------------------ expre = 표정입니다 beatific bleak brooding bug-eyed doleful downcast eyes glazed mischievous look pained quizzical radiant roguish shamefaced slack-jawed sly smiley happy smile pouty scowling (smile, closed eyes, open mouth) (smile, open mouth) (wink eyes,close one eyes) (smile) ------------------------ hat = 모자입니다 cap hair band hat Sporty cap Crown a flower crown tiara ------------------------ h-c = 머리 색상입니다. red Scarlet Burgundy Navy blue Sky blue [light yellow] [yellow] [orange] gold dark green green light green purple Lavender Lilac pink rose gold powder pink silver Beige Grey white Platinum black blue black brown colorful two tone (hair streaked) ------------------------ sho = 신발입니다 high heels with covered toes shoes boots flip-flops (running shoes1) (running shoes2) (Sneakers1) (running shoes3) (running shoes4) (Sneakers2) (running shoes5) (running shoes6) (Sneakers3) flat shoes knee high boots loafer ------------------------ sk5 = 하의입니다. __my\color__ Plain pattern Micro Mini Skirt __my\color__ Micro Mini Skirt __my\color__ floral Micro Mini Skirt __my\color__ stripe Micro Mini Skirt __my\color__ Plain pattern Micro Mini Skirt1 __my\color__ Micro Mini Skirt1 __my\color__ floral Micro Mini Skirt1 __my\color__ stripe Micro Mini Skirt1 __my\color__ checked Micro Mini Skirt1 __my\color__ Plain pattern Micro Mini Skirt2 __my\color__ Plain pattern Micro Mini Skirt2 __my\color__ Micro Mini Skirt2 __my\color__ floral Micro Mini Skirt2 __my\color__ stripe Micro Mini Skirt2 __my\color__ checked Micro Mini Skirt2 denim shorts micro denim shorts __my\color__ floral micro shorts3 __my\color__ stripe micro shorts3 __my\color__ checked micro shorts3 __my\color__ Plain pattern micro shorts3 __my\color__ Plain pattern micro shorts3 __my\color__ Plain pattern micro shorts3 __my\color__ Plain pattern see-through pleated miniskirt44 __my\color__ Plain pattern see-through pleated miniskirt45 __my\color__ Plain pattern see-through pleated miniskirt46 __my\color__ see-through pleated miniskirt5 __my\color__ see-through pleated miniskirt6 __my\color__ see-through pleated miniskirt7 __my\color__ see-through pleated miniskirt8 __my\color__ floral see-through pleated miniskirt9 __my\color__ stripe see-through pleated miniskirt10 __my\color__ see-through pleated miniskirt11 {__my\color__ see-through animal-patterned miniskirt} |__my\color__ see-through pleated miniskirt} __my\color__ Plain pattern see-through pleated miniskirt12 __my\color__ Plain pattern see-through pleated miniskirt13 __my\color__ see-through pleated miniskirt14 __my\color__ floral see-through pleated miniskirt15 __my\color__ stripe see-through pleated miniskirt16 __my\color__ checked see-through pleated miniskirt17 ------------------------ skin= 피부색입니다 (white_skin:1.2) (bright_skin:1.2) (light_skin:1.2) dark_skin Tanned skin ------------------------ st4= 자세입니다. (standing:1.4), (front view1) (standing:1.4), (front view ) (standing:1.4), (front view_) (standing:1.3), (front_view ) (standing:1.4),  (front_view ) (standing:1.4), (front_view) ( standing:1.3 ), (front view) ( standing:1.4  ),  (front_view) (standing:1.4),  (front_view) (standing:1.4), (looking at viewer) (standing:1.3), (looking at viewer) (standing:1.4), (looking_at_viewer) (standing:1.4 ), looking at viewer (standing:1.3), looking at viewer (standing:1.4), (spread legs:1.8) (standing:1.3), (spread legs:2) (standing:1.3), (stretching:1.3) (standing:1.3) (standing:1.3 ) (squatting:1.4), (spread legs:1.3) (sitting on a beach chair:1.3), (chair), (spread legs:1.3) (sitting on a beach chair:1.25) (sitting on a beach chair:1.3) (lying:1.5) (lying:1.6), (spread legs:1.6) (beckview:1.7), (From Behind:1.7), (looking at viewer:1.5) (from side:1.9), (looking at viewer:1.5) ------------------------ tod2 = 시간대와 배경이펙트입니다 (night), (moonlight), { | |(The milky way)} (dawn), { |(the sun rising from the horizon)} (morning), (sunlight), { |(the sun rising from the horizon)} (midday), (sunflare) (noon), (sunflare) (afternoon), (sunlight) {dusk|twightlight}, { | |the sun setting on the horizon} (evening), { | |the sun setting on the horizon} (midnight), (moonlight), { | |(The milky way)} ------------------------ " 요즘 캐릭 유지하면서 표정이나 자세 어케바꿈?하는글 자주 보이는데,2023-02-17,2032,33,https://arca.live/b/aiart/70020372?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1," 이또한 XY플룻을 사용하면 비교적 쉽게 할수있다. i2i아니고 t2i로했음 " "컨트롤넷, 오픈포즈 자주 나오는 기본적인 질문 모음 / 블렌더 없어도됨",2023-02-17,3700,62,https://arca.live/b/aiart/70014728?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1,"1. 컨트롤넷 오픈포즈 쓰려면 포토샵, 블렌더도 써야함? 2. 컨트롤넷 WEBUI 확장 설치 어떻게함? 모델별 특징 뭐임? 3. 노멀맵 써봤는데 이상하게 나옴 4. 뎁스맵은 정확한데 포즈 재현율이 떨어짐 5. 오픈포즈 썼는데 자꾸 포즈 이상하게 나옴1 6. 오픈포즈 썼는데 자꾸 포즈 이상하게 나옴2 7. 오픈포즈 썼는데 포즈 인식이 안됨 8. Preprocessor none으로 해야함? / 오픈포즈 뼈대 넣었는데 왜 그림이 안나옴? 9. 그럼 컨트롤넷에 포토샵이랑 블렌더 쓰는 사람은 뭐임? 1. 컨트롤넷 오픈포즈 쓰려면 포토샵, 블렌더도 써야함? ㄴㄴ 겁먹고 안하면 니 손해, 없어도 됨 걍 컨트롤넷 자체에서 사진 집어넣기만 하면 포즈 추출해준다. 그리고 컨트롤넷에 저 포즈 추출해주는거 말고도 기능 많음 2. 컨트롤넷 WEBUI 확장설치 어떻게함? 모델 많던데 각각 특징 뭐임? 컨트롤넷 설치 및 사용방법 : https://arca.live/b/aiart/69816884 컨트롤넷 모델별 설명 : https://arca.live/b/aiart/69724880 openpose말고 다른것도 찍먹 ㄱ depth normal canny hed등등 맛난거 묵어봐라 쥑인다 pruned모델도 나왔으니 용량 압박있는 사람도 이제 가볍게 즐길 수 있음 3. 노멀맵 써봤는데 이상하게 나오던데.. WEBUI 이식 초창기에 노멀맵 버그 있었는데 업데이트하고나서 버그 잡혔음 https://github.com/Mikubill/sd-webui-controlnet/commits/main 링크 보면 알겠지만 업뎃 무지막지하게 되니 하루에 한번씩은 업데이트해주자. 4. 뎁스맵은 정확한데 포즈 재현율이 떨어짐 Weight라고 적힌거 있을텐데 이거 살살 조절해보자. 분석결과에 얼마나 충실히 따를지 조절하는 개념이라고 보면 됨 5. Openpose 썼는데 자꾸 포즈 이상하게 나옴1 좀 애매한 포즈다 싶을땐 관련 프롬을 추가해주면 도움이 된다. 서있으면 standing, 뒤돌아있을땐 from behind 같은 태그를 넣어보자 저 위에 weight 조절하는거도 만져보면 더 좋음 물론 포즈가 완벽히 추출된 상태에 관련 프롬 넣어도 잘 안되는 경우는 있을 수 있음 6. Openpose 썼는데 자꾸 포즈 이상하게 나옴2 니가 포즈 추출용으로 넣은 이미지는 가로가 긴데, 정작 출력되는 이미지는 세로가 길다. 이러면 문제가 생길 확률이 높다. 포즈 추출용으로 넣은 이미지와 이미지 비율을 어느정도는 맞춰주자. 참고로 Canvas Width와 Height는 Scribble 모드에서 그림판 크기를 확장시키는거니 착각하지 말자. 샘플링 방법 밑에 있는 가로와 세로를 조절해주자. 예를 들어서 이 이미지를 포즈 추출용으로 넣었다고 치자. 포즈 부분이 저기 왼쪽 끄트머리에 있어서 완전히 잘려나갔다. 이러면 전혀 생뚱맞은 이미지가 나온다. 그럼 비율을 일치시키면 어떻게 되나 확인해보자. 추출한 포즈 그대로 적용되서 잘 나온다. 이 이미지도 똑같이 예시를 들어보면 마찬가지로 포즈 일부분이 잘려서 왠 괴물이 튀어나온다. 이거도 그림 비율을 일치시키면 정상적으로 그림이 나온다. 7. Openpose 썼는데 포즈 인식이 안됨 오픈포즈는 실제 사람 포즈를 추출하는 용도로 개발된거라 사진을 넣었을때 타율이 좋다. 그림을 넣었을 때는 타율이 낮거나, 아예 인식을 못해서 포즈 추출이 안되는 경우가 있다. 그림은 일단 넣어보고 포즈 추출이 안되면 depth, normal로 바꿔서 사용하면 됨 8. Preprocessor none으로 해야함? / Openpose 뼈대 넣었는데 왜 그림이 안나옴? 사진을 변환시킬땐 Preprocessor를 설정해야함. Preprocessor none으로 하는 경우는 너가 마음에 드는 뼈대 그림, Depthmap등을 넣을 때 해당함. <이런 식>으로 뼈대를 공유하는 케이스가 있는데 이거 받아서 활용할 때 none으로 하면 됨 그리고 어제 몇명이 검은선으로 직접 그린 포즈 넣고 왜 안되냐고 질문하던데 당연히 안된다. 기본적으로 왼쪽의 관절 숫자와 컬러가 중요하다. 포즈 뿐만 아니라 직접 만든 뎁스맵 넣고 돌릴 수도 있음 9. 그럼 ControlNet에 포토샵이랑 블렌더 쓰는 사람은 뭐임? 정보탭보면 포토샵이니 블렌더니 이런거로 포즈 직접 만드는 사람이 있는데 이유는 간단함 사진에서 추출하면 간혹 일부 관절이 증발하는 경우가 있음 지금 같은 경우 15, 17 정보가 증발했는데, 이걸 그대로 돌리면 포즈는 잘 나와도 얼굴이 붕괴될 확률이 높음 꼭 이 경우외에도 팔이나 다리 관절 증발해서 이상하게 나올 수도 있는데 직접 뼈대를 조절하면 문제가 없겠지 그리고 포즈를 직접 만들 경우 여러명을 그려넣는데 효과가 좋기도 하고 이런식으로 블렌더에서 뼈대 애니메이션을 이미지 시퀀스로 추출한거 컨트롤넷에서 돌리면 애니메이션이 뚝딱하고 나온다. 누가 한장 한장 넣어야하냐고 그러던데 그럴 필요 없음. img2img에 있는 batch 기능 이용하면 됨 저기 트위터에 자세히 설명해놨던데 관심있으면 저기 보고 따라하면 됨 포토샵용 뼈대 https://arca.live/b/aiart/69959869 클립스튜디오용 뼈대 https://arca.live/b/aiart/70005122 PPT용 뼈대 https://arca.live/b/aiart/69978900 블렌더용 뼈대 https://arca.live/b/aiart/69916661 애니메이션 뽑을거면 블렌더정도는 만져도 괜찮겠지만 (소프트웨어 무료임) 개인적으로는 지금 당장 포토샵, 클립스튜디오용으로 굳이 불편하게 만질 필요는 없다고 봄 UI적인 한계로 인해서 WEBUI내부에서 뼈대를 조절할 수 없는데, 좀 기다리면 뭔가 방법이 나오겠지 지금은 사람 몰려서 터졌는지 확인이 안되는데 이런식으로 웹에서 포즈 쉽게 조작할 수 있는거도 있으니까 포즈 직접 만들어서 넣을 사람들은 좀만 존버해보자. https://huggingface.co/spaces/jonigata/PoseMaker 따로 이미지 넣을 필요없이 start edit만 눌러도 조절 가능한 뼈대 나옴 " 따끈따근한 Abyss Orange Mix 3 변경점,2023-02-17,3071,22,https://arca.live/b/aiart/70007022?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1,"1. NSFW, NSFW-hard 업그레이드. 애니 캐릭터 풍 그림에는 더 좋아짐 (AOM2는 너무 현실적인 얼굴, 옆구리, 피부 묘사) 2. sfw/nsfw 병합. 위에 언급된 문제 해결로, 이제 그냥 하나만 선택해도 문제 없음(이걸 어캐했누). 3. 3가지 AOM3 1. - AOM3A1 애니 그림체 특화, 로라와 같이 적용하면 더 좋음 2. - AOM3A2 유화 그림체. 스타일리쉬한 배경 묘사, 동시에 현실적인 텍스쳐 / 카운터픽 2.5 + U-Net Block 3. - AOM3A3 1번 2번 중간. 현실적인 텍스쳐 + 유화 스타일 + 애니 얼굴. 다양한 일러스트로 활용 가능 링크는 다른 사람이 올린거 참고 지금 써보니깐 난 3번 좋넹 " 신병 받아라~,2023-02-17,2783,38,https://arca.live/b/aiart/70005771?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1," https://github.com/TencentARC/T2I-Adapter.텐센트가 공개한 T2I 어댑터컨트롤넷이랑 거의 유사함 " 님들 어비스 오렌지 믹스 3 나옴 ㅋㅋ,2023-02-17,4029,57,https://arca.live/b/aiart/70005392?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1," 17분전 업로드 ㅋㅋㅋ https://huggingface.co/WarriorMama777/OrangeMixs/tree/main/Models/AbyssOrangeMix3 " 여러캐릭터 LoRa + huggingface 자료 한번에 다 받는 팁,2023-02-17,956,4,https://arca.live/b/aiart/69996042?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1,"핵심 여러 캐릭터 로라 있는 곳 https://huggingface.co/YoungMasterFromSect/Trauter_LoRAs/tree/main/LoRA 허깅페이스도 깃 저장소이기 때문에 git clone으로 받을 수 있음. 좀 더 상세한 설명 (핵심만 보고 볼일 끝났으면 안 봐도 됨) 준비물 : git 설치 (web ui 설치한 사람들은 같이 설치 했을 거임) https://git-scm.com/download/win 윈도우 명령프롬프트나 파워쉘 에서 다운 받기를 원하는 폴더로 이동 (폴더 목록 보기 dir   폴더 들어가기  cd    윗 폴더로  cd ..   드라이브 변경   d: ) 또는 윈10인가 11부터는 탐색기 창에 우 클릭하면 '터미널에서 열기' 클릭하면 그 폴더 위치에 명령창 열림 원하는 허깅페이스 주소 확보후 git clone 주소 하면 됨. 단 주소는 업로더 ID , 저장소 이름까지만. 허깅페이스 주소는   https://huggingface.co/업로더ID/저장소이름/어쩌구/저쩌구  형태로 돼 있으니 쉽게 알 수 있을거임 예를 들어  https://huggingface.co/YoungMasterFromSect/Trauter_LoRAs/tree/main/LoRA 공유한 주소에서 하나 하나 받기 귀찮아서 다 받고 싶다 라고 하면 git clone https://huggingface.co/YoungMasterFromSect/Trauter_LoRAs 하면 됨. 그냥 내가 저거 받으려다가 모르는 사람 있을까봐 올림 ㅇㅇ " 포토샵으로 머리색을 바꾸는 방법 두가지,2023-02-17,523,5,https://arca.live/b/aiart/69993504?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1,"한글판 기준이에요 강좌 얼마 못써봐서 많이 이상할 수도 있어요 잘못된 부분이나 이해가 안되는 부분은 피드백해주시면 감사하겠습니다 전 후 다 만들고서 생각났는데 위처럼 검은 머리카락이 아닌,  특이한 색상이고 배경과 차이가 많이난다면 선택 - 색상범위에서 색을 설정하면 원하는 색상을 순식간에 선택할 수 있어요 만약 그렇다면 앞 부분을 대충 훑어보거나 스킵해주세요 개체 선택 도구로 머리카락 전체를 드래그해요 빠른선택도구든 올가미든 대충이라도 바꾸기 싫은 부분을 빼줘요 alt누르고 빼주시면 되요 디테일하게 하고싶더라도 나중에 수정할 수 있으니 대충 해주셔도 괜찮아요 실수해도 ctrl Z로 되돌리면 되니 마음 편하게 하세요 아래에서 네번째 버튼을 누른 뒤 색조/채도를 선택해요 색조를 원하는대로 바꿔요 대충 색이 바뀔텐데 지우개 단축키인 E를 누른 후 지워줘요 만약 지우개가 안먹힌다면 아래처럼 레이어마스크를 선택했는지 확인해주세요 만약 실수했다면 ctrl Z나 하얀색 브러쉬로 칠해주세요 다만 밝은 부분은 힘드실 수 있는데, 그럴때는 위와 같이 빈 구간을 더블클릭해요 위와 같은 창이 뜰텐데 위처럼 슬라이더를 원하는 만큼 움직여줘요 왼쪽으로 갈수록 밝은 구간에 색이 빠져요 그다음 alt를 누른상태로 좌우를 적당히 벌려줘요 대충 이런식으로 될거에요 난간의 경우 지금은 디테일하게 바꾸는게 아니니까 신경쓰지 않을게요 아까처럼 하얀색 브러쉬로 범위를 추가하고, 검은색 브러쉬 또는 지우개로 수정하면 되요 결과 다만 원래의 머리색에 따라 이런식으로 흐리멍텅하게 나올때가 있어요 채도나 밝기를 조절해도 원하는 색이 안나온다면 아래 방법을 써보세요 이전처럼 선택해요 ctrl누르고 선택하시면 그대로 선택되요 4번째 버튼, 단색 원하는 색상을 선택해요 다음으로 표준을 오버레이로 바꿔요 꼭 오버레이일 필요는 없고 자신한테 맞는걸로 대충 선택하시면 되요 그 뒤에 위처럼 더블클릭하고 슬라이더를 조절해서 밝은 부분을 살짝 없애주면 되요 이게 다 만들어보고 재현한거라 수정 후랑 살짝 다른점 참고해주세요 " WebUI 확장 ContolNet(컨트롤넷) 조절바 설명,2023-02-17,3170,41,https://arca.live/b/aiart/69987661?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2,"어디까지나 본인의 경험과 통밥을 토대로 작성한 내용이므로 실제원리와는 다를 수 있음을 미리 알려드립니다. https://arca.live/b/aiart/69816884 념글을 읽고나서 컨트롤넷을 사용하려고 보면 언급되지 않은 이런 조절바가 있는데(아마도 그 사이 업데이트 된게 아닐까 추측) 각각 무슨 역할을 하는지 설명드림 1. Weight 이건 념글에서도 설명되어있는 부분인데 다른 정보에 정신팔려서 놓칠 수 있는 부분이라 다시 설명하면 컨트롤넷에서 나온내용을 결과물에 얼마만큼 반영할 것이냐 하는부분임 윗 념글에 어떤 차이가 있는지 비교샷과 함께 적혀있으니 Ctrl+F 로 Weight 쳐보면 알 수 있을거임 2. ㅇㅇㅇ resolution preprocessor를 뭘 선택하냐에 따라 이름이 바뀌는데 핵심은 중간결과물의 해상도임 컨트롤넷 작업과정은 대충 요약하면 이미지에서 참고할 정보이미지를 뽑는다 -> 이를 기반으로 모델을 입힌다 라고 볼 수 있는데(뇌피셜임) 위 값은 저 정보이미지의 해상도값을 의미함 이게 높을수록 아래와 같이 참고정보 이미지의 해상도가 높아짐 무조건 이 값이 높다고 결과물이 좋다고만은 할 수 없으니 용도에 따라 다양한 값을 실험해보는걸 추천함 3. low/high threshold(활성화 될 때) 이건 일종의 인식범위설정임 원본이미지에서 어느정도 인식해서 컨트롤넷 처리하겠느냐를 정하는 요소 만약 인식결과물이 좀 내가 원했던 요소보다 더 나오거나 덜 나오거나 한다면 이 값들을 조절해 범위를 잘 조절하면 보다 원하는 요소만 인식해서 처리하는데 도움이 될 수 있음 Low 고정 High 조절(낮은값->높은값) High 고정 Low 조절(낮은값->높은값) 다만 이건 정확하게 Low/High값이 어떤영역을 의미하는지 내 능력으론 알 수가 없고 원본이미지에 따라 매번 차이가 있는거 같으므로 일단은 기본으로 사용하다가 결과물 인식수준이 마음에 안들면 이리 저리 조절하면서 원하는 만큼 인식되게 해보는수 밖에 없는듯 함 ps. 첨부된 이미지들은 하나씩 클릭하면 더 크게 확인 가능함 " (18)마이크로 스커트가 우리가 아는거랑 다르더라,2023-02-17,1056,6,https://arca.live/b/aiart/69987139?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2," 미니 스커트 마이크로 스커트(or 마이크로 미니 스커트) 실제론 이정도 길이임 이정도까지 짧은걸 원한다면 마이크로 스커트, 미니 스커트같은 프롬은 의미가 없더라구 일단 나는 Ultra mini skirt << 이걸로 뽑긴 했는데 우리가 아는 그 천박한 복장 뽑을라면 좀 더 연구 필요할듯 " 코랩 처음 쓰는데 저장 안되거나 그림 안뽑히는 게이들아..,2023-02-17,500,3,https://arca.live/b/aiart/69986865?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2," 나처럼 고생하지 말고 터널을 gradio 가 아니라 ngrok으로 바꿔써라.... 핑프 하루종일 고생했다... " 오토좌 WebUI 테마 색 까리하게 바꾸는법,2023-02-16,706,5,https://arca.live/b/aiart/69984243?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2,"아는 사람은 알겠지만 오토좌 WebUI화면이 어두운 경우를 봤을거임 흔히 '다크모드' 라고 부르는건데 이런식의 색상임 보통 이걸 브라우저 자체에서 바꿔야 된다고 알고 있는 경우가 많던데 WebUI만 적용하는 방법이 있음 우선 webui-user.bat파일을 메모장같은 프로그램으로 열어서 보면 set COMMANDLINE_ARGS= 란이 있는데 여기에 --theme dark 옵션을 추가하고 그대로 저장하고 평소처럼 실행하면 됨 예시로는 set COMMANDLINE_ARGS=--xformers --theme dark 이런식으로 작성하면 됨(--xformers는 통상적으로 빠르게 작동하기 위해 넣는 주로 넣는 옵션, 자세한 내용은 검색 ㄱㄱ) 자잘한 팁인데 오늘 알아냈기에 공유함 " ControlNet (컨트롤넷) pruned 모델 떴네요,2023-02-16,4835,46,https://arca.live/b/aiart/69979798?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2,"https://civitai.com/models/9251/controlnet-pre-trained-models 이 페이지에서 스크롤 조금 내리면 Versions 부분에 각 모델 별로 pruned 모델 받을 수 있음 용량이 거의 9배로 압축됐는데 기능은 원본 그대로 작동한다는듯 " 양키 겜성 롸벗 모델,2023-02-16,625,1,https://arca.live/b/aiart/69979421?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2,"https://civitai.com/models/4885/itrobo2022-highly-detailed-robots vae도 같이 있음 " chatGPT 넌 나를 실망시키지 않아 ( 와카 ),2023-02-16,780,8,https://arca.live/b/aiart/69978827?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2," 예전에 와일드 카드 만들려고 인터넷에 돌아다니며 옷 종류 이름 찾아다녔는데 이제 그럴 필요가 없어졋다 *와일드 카드 = 랜덤으로 저장한 단어들 하나 지정해주는 기능 이제 사이트 하나로 와일드 카드 만들기 쉬워졌다고! 다들 소리질러! 와카!! " 파이토치 설치 안되는사람 보셈,2023-02-16,611,1,https://arca.live/b/aiart/69972082?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2," 이거 한번 입력해보셈 나도 가끔 새로 OS설치하거나 런포드쓸때 오류떠서 이렇게 해결함 이거해도 안되면 오류메시지랑 같이 댓글남겨줘 다른 방법 추가해줌 +추가 cu117이 최신이라 링크 변경함. 위에것도 안되면 마지막보루.. 토치 비전, 오디오랑 같이설치하는건데 이건 공홈에 나와있어서 가져와봤음 " 커스텀코렙 에러나서 원클릭 코렙 썼다 잘 안되는 분..,2023-02-16,370,0,https://arca.live/b/aiart/69964504?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2," 전 원클릭에서 모델을 오렌지믹스로 바꿔도 그림이 이상하게 나오고 그러더군요 커스텀코렙 기본 폴더는 WEBUI고 원클릭 코렙은 SD인데 원클립 코렙에서 폴더를 WEBUI로 셋팅하니까(꼭 대문자로 쓰셔야 함) 오렌지 믹스 쓸 때 그림이 전처럼 잘 나옵니다.. 참고하세요 " counterNet(컨트롤넷) 포즈용 Photoshop 파일 공개,2023-02-16,3389,33,https://arca.live/b/aiart/69959869?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2,"일본에서 counterNet(컨트롤넷) 포즈용를 Photoshop 파일 공개 했습니다~~! 와우!!! 점점 발전하게 됩니다!!! 제가 미리 써봅니깐 좋습니다~~!! 관련사이트 주소 : https://sp8999.com/stable-diffusion/2023/02/15/627/ 대략적인 사용법 PoseBone 포토샵파일 열어보면 아래까지 나옵니다. 일본어로 적혀 있는데 제가 번역기 돌렸습니다~ 그리고 관절레이어가서 이동도구툴로 포즈를 만들 수 있습니다. 근데 생각보다 이동하는게 불편합니다. 제가 연구를 했는 방법을 알려드리겠습니다. 포토샵 초보라서 더 쉽게 할 수있는 분! 정보 공유부탁드립니다! 첫번째 방법 - 하나씩 이동하기 움직이고 싶은 부분을 선택하기 쉽게 선택하는 방법은 오른쪽 마우스 눌르면 관련 레이어가 뜹니다. 위 이미지를 손을 선택했습니다. 원하는 위치를 이동합니다. 그 다음 팔을 선택합니다. 팔을 선택하고 Ctrl+T를 눌러줍니다. 그럼 모서리쪽으로 가면 회전 커서가 나오면서 팔을 회전을 시킬 수 있습니다. 화전과 이동 도구 툴로 하나, 하나 포즈를 바꿔줍니다. 이게 생각보다 시간이 오래걸립니다 ㅠㅠ... 그래서 제가 생각해본 두번째 방법!! 근데 두번째 방법도 단점이 있습니다. 두번째 방법 -  퍼펫 뒤툴리기 사용하기 일단 포즈 레이어를 복사 합니다. 그 다음에 오른쪽 마우스를 클릭해서 고급 개체로 변환합니다. 아니면 레이어화도 괜찮습니다. 폴더에서 고급개체레이어로 변경된 모습입니다. 그 다음에 편집에서 퍼펫 뒤툴리기 선택합니다. 퍼펫 뒤툴리기된 모습입니다. 이제 관절마다 한개씩 퍼펫을 지정합니다. 그리고 이제 드디어 포즈 변경이 할 수 있습니다! 다 만들고 난 다음에 적용 시켜줍니다. 다른 도구들 선택하면 해당 창 뜹니다. 이제 counterNet(컨트롤넷) 복사하는 방법입니다! 포토샵 선택도구로 드래그 하고~ Ctrl+Shift+C를 눌러서 화면복사를 합니다. 그 다음에 counterNet(컨트롤넷)에 Ctrl+V로 복사합니다. 그리고 모델 openpose를 선택하고 이미지 생성하시면 됩니다. 두번째 방법은 관절이 갈끔하게 손을 좀 봐야됩니다. 아니면 관절이 이상해지니깐~! 그래서 정밀하게 원하는 포즈 할때는 첫번째 방법으로 다중 빨리 만들기 위해서는 2번째 방법으로 하시면 될것 같습니다! 이상 긴글 봐주셨어 감사합니다! " [스압]챗GPT는 못해도 빙은 AI 그림을 알려준다.jpg,2023-02-16,3517,31,https://arca.live/b/aiart/69959180?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2,"마이크로소프트가 OpenAI 최대 투자자라서 ChatGPT를 빙에 추가함 아마 이게 내부적으로 개발팀이 부르는 코드네임이 ""시드니""인 모양임 밑에 쭉 내리다가 영문 스샷 중에 이상하게 긴 거 보면 에러 난 부분에 ""시드니는 어쩌고"" 이런 식으로 출력됨 이거 베타 뜨자마자 신청하고, 다음 날에 바로 선정 되서 검색 엔진 '빙'에서 챗 GPT 써봄 얘 특징은 21년 이후의 정보는 학습되지 않은 ChatGPT하고 다르게,모르는 내용은 인터넷을 검색해서 지가 읽어보고 요약하거나 해서 알려줌. PDF 논문 같은 거 빙에 당겨다 넣으면 요약도 해주고 사용자랑 같이 논문 리뷰도 어느 정도 가능함. 19금 사이트 몇 개 넣어봤는데 헛소리 해버리더라. 어느 정도 막혀 있는 듯. 그럼 이 글의 본문인 AI 그림의 원리에 대해 신(AI)에게 물어보자. Q. 스테이블 디퓨전에 대해 말해 봐. A. 스테이블 디퓨전은 개방형 AI 툴을 개발하는 영국에 본사를 둔 Stability AI가 2022년에 출시한 딥러닝 텍스트-이미지 변환 모델입니다. 이 모델은 텍스트로부터 이미지를 생성하거나, 텍스트를 기반으로 이미지를 수정하거나, 저해상도 또는 저디테일 이미지의 세부 사항을 채울 수 있습니다. 수십억 개의 이미지에 대한 학습을 마쳤으며 DALL-E 2 및 MidJourney와 비슷한 수준의 결과를 생성할 수 있습니다. 뮌헨 대학의 CompVis 그룹이 개발한 '라텐트 디퓨전(잠재 확산) 모델'을 사용하는 오픈 소스 머신 러닝 모델입니다. Q. '라텐트 디퓨전(잠재 확산)' 모델이 어떤 방식을 말하는 건데? A. '라텐트 디퓨전(잠재 확산)'은 이미지 형성 과정을 노이즈 제거 자동 인코더의 순차적 적용으로 분해하는 심층 생성 신경망인 디퓨전(확산) 모델을 개선하는 기술입니다. 라텐트 디퓨전 모델은 이미지를 잠재(라텐트) 공간이라고 하는 정보 밀도가 높은 공간으로 인코딩하여 품질 저하 없이 확산(디퓨전) 모델의 계산 비용을 절감하는 것을 목표로 합니다. 그런 다음 노이즈를 추가하여 잠재 공간을 손상시키고 학습된 전환 연산자를 적용하여 복원합니다. 최종 이미지는 잠재 공간을 다시 픽셀 공간으로 디코딩하여 얻습니다. Q. 너무 어려운데... 예시를 들어서 훨씬 쉽게 설명해 봐. A. 자, 어린이들을 위한 난이도로 잠재 확산에 대해 설명해 보겠습니다. 그리고 싶은 고양이 그림이 있다고 상상해 보세요. 고양이의 모양과 색을 대략적으로 스케치하는 것으로 시작할 수 있습니다. 이 스케치는 가장 중요한 정보를 담고 있는 그림의 단순화된 버전인 잠재 공간과 같습니다. 그런 다음 눈, 코, 수염, 털 패턴 등과 같은 세부 사항을 스케치에 추가할 수 있습니다. 이것은 잠재 공간을 화면에 표시되는 전체 그림인 픽셀 공간으로 다시 디코딩하는 것과 같습니다. 하지만 고양이의 무언가를 바꾸고 싶다면 어떻게 해야 할까요? 예를 들어, 고양이를 호랑이처럼 보이게 만들고 싶다면 어떻게 해야 할까요? 잠재 확산 모델을 사용하여 이 작업을 수행할 수 있습니다. 먼저, ""검은 줄무늬가 있는 주황색으로 변경""과 같이 바꾸려는 내용을 단어로 적어야 합니다. 이를 텍스트 프롬프트라고 합니다. 그런 다음 스케치에 노이즈를 추가하여 흐릿하거나 지저분하게 만들어야 합니다. 이것은 노이즈를 추가하여 잠재 공간을 손상시키는 것과 같습니다. 다음으로 텍스트 프롬프트에 따라 스케치를 수정할 수 있는 특수 도구를 사용해야 합니다. 이 도구를 전환 연산자라고 하며 이미지와 텍스트의 많은 예제에서 스케치를 복원하는 방법을 학습합니다. 마지막으로 고정된 스케치에 다시 세부 사항을 추가하여 호랑이 같은 고양이의 새로운 그림을 얻어야 합니다. 잠재적 확산 모델은 이미지와 텍스트 프롬프트를 입력으로 받아 잠재 공간, 노이즈, 전환 연산자를 사용해 새로운 이미지를 출력으로 생성하는 방식으로 작동합니다. Q. 그럼 이번엔, 체크포인트, 하이퍼네트워크, 드림부스, 로라, 컨트롤넷에 대해서특징, 작동 원리, 장점, 단점, 역할 등으로 나누어 검색하고 설명하라. 만약 필요하다면 표를 활용하라. A. 스테이블 디퓨전의 일부 기능에 대한 요약을 다음의 표로 제공합니다. - 기능 명칭 : 체크포인트 - 특징 : 특정 학습 단계를 완전히 거친 모델 - 작동 원리 : 모델의 웨이트(학습된 정보, 가중치) 저장 또는 로드 - 장점 : 다른 종류의 훈련 단계를 재개하거나 전환할 수 있음 - 단점 : 다른 버전의 Stable Diffusion 또는 다른 설정과 호환되지 않을 수 있음 - Stable Diffusion에서의 역할 : 모델의 상태를 저장하거나 액세스함 - 기능 명칭 : 하이퍼네트워크 - 특징 : 다른 네트워크에 대한 웨이트(학습된 정보, 가중치)를 생성하는 네트워크. [뒤에 뭔가 이상한 말이 있음. 좀 무서움] - 작동 원리 : 텍스트 프롬프트로부터 웨이트(학습된 정보, 가중치) 벡터로 매핑 학습 - 장점 : 파인 튜닝(미세 조정) 없이 텍스트 안내 이미지를 합성 가능 - 단점 : 파인 튜닝(미세 조정) 작업에 비해 더 많은 메모리와 계산력이 요구됨 - Stable Diffusion에서의 역할 : 출력되는 이미지 스타일을 제어함 - 기능 명칭 : 드림부스 - 특징 : 적은 수의 이미지로 라텐트 디퓨전(잠재 확산)을 파인 튜닝(미세 조정)하는 방식 - 작동 원리 : 소량의 이미지 데이터셋을 기반으로 모델의 웨이트(학습된 정보, 가중치) 업데이트 - 장점 : 특정 오브젝트나 스타일로 출력 이미지를 개인화(사용자화, 커스터마이징)할 수 있음 - 단점 : 실행 시간이 오래 걸리고 대규모의 모델 생성 - Stable Diffusion에서의 역할 : 새로운 분야(영역) 등에 알맞도록 모델을 조정함 - 기능 명칭 : LoRA - 특징 : 몇 장의 이미지로 스테이블 디퓨전(안정적 확산)을 빠르게 파인 튜닝(미세 조정)하는 방법 - 작동 원리 : 원래 모델의 웨이트(학습된 정보, 가중치) 위에 잔여 적응형(어뎁터) 레이어 학습 - 장점 : 드림부스와 비슷한 결과를 얻지만 훨씬 빠르고 작음 - 단점 : 매우 다른 영역(분야)나 큰 변화에는 잘 작동하지 않을 수 있음 - Stable Diffusion에서의 역할 : 모델의 성능을 개선함 *위의 질문에서 최신 기술인 ControlNet만 찾지 못해고 오류를 출력해서 후에 다시 따로 물어보았음 Q. 스테이블 디퓨전의 컨트롤넷에 대해서 알고 있는가? 어떻게 작동하는가? 스테이블 디퓨전 내에서 컨트롤넷에 대한 특징, 기능, 작동 원리, 장점, 단점에 대해 설명하라. 필요한 경우 표를 사용하라. A. 예, 스테이블 디퓨전의 컨트롤넷에 대해 알고 있습니다. 다음은 몇 가지 설명을 요약한 표입니다: 도표 설명 특징 : ControlNet은 확산 모델에 추가 조건을 추가하는 신경망 구조임 기능 : 컨트롤넷은 스테이블 디퓨전의 이미지 간 기능에 대한 제어를 개선함 작동 원리 : 컨트롤넷은 신경망 블록의 웨이트(학습된 정보, 가중치)를 ""잠긴"" 사본과 ""학습 가능한"" 사본으로 복사합니다. 그 후에 ""학습 가능한"" 사본은 사용자가 정의한 추가 상태를 따로 학습함 장점 : 컨트롤넷을 사용하면 출력 이미지에 포즈, 구도, 색상, 스타일 등을 지정할 수 있음 단점 : 복잡한 조건에서는 컨트롤넷에 더 많은 파인 튜닝(미세 조정) 또는 추가 데이터 보강이 필요할 수 있습니다. Stable Diffusion 내의 역할 : 출력 이미지 결과물을 사용자 지정함 이 표가 컨트롤넷이 무엇이며 어떻게 작동하는지 이해하는 데 도움이 되었기를 바랍니다. 궁금한 점이 있으면 언제든지 문의하세요. 이번에는 지금까지 했던 대화를 토대로 빙+ChatGPT가 가진 의견을 물어봄 Q. 지금 Stable Diffusion에게 가장 어려운 부분은 '인간의 맨손이나 맨발'을 제대로 표현하는 것이다. 수많은 사용자들이 앞서 언급한 Hypernetworks, LoRA, Control Net 등을 사용하여 '인간의 손'을 이미지에 제대로 출력하기 위해서 노력하고 있다. 네가 생각하기에 Control Net과 LoRA 중에서, 손을 출력하기 위해 더 적합한 방식은 어떤 것인가? A. [위에 이미 전부 찾아봤기 때문에 검색조차 안하고 바로 정리해서 답변하기 시작함] 흥미로운 질문이네요. 정답은 없지만 제가 알고 있는 지식을 바탕으로 몇 가지 생각을 공유할 수 있습니다. 컨트롤넷과 LoRA는 모두 몇 장의 이미지를 사용하여 안정적 확산을 미세 조정하는 방법이지만, 메커니즘과 장점이 다릅니다. 컨트롤넷은 각 조건에 대해 새로운 가중치 세트를 학습하는 반면, LoRA는 원래 가중치 위에 잔여 어댑터 레이어를 학습합니다. 컨트롤넷은 이미지 콘텐츠에 대해 더 많은 제어를 제공하는 반면, LoRA는 이미지 스타일에 대해 더 많은 제어를 제공합니다. 손의 출력의 경우 어떤 조건을 사용하느냐에 따라 달라질 수 있다고 생각합니다. 손의 포즈, 모양, 색상을 지정하고 싶다면 조건에서 이러한 특징을 학습할 수 있는 컨트롤넷이 더 적합할 수 있습니다. 손의 스타일, 텍스처 또는 조명을 지정하려면 스타일 이미지에서 이러한 특징을 학습할 수 있으므로 LoRA가 더 적합할 수 있습니다. 물론 이것은 제 의견일 뿐이며 정확하거나 완전하지 않을 수 있습니다. 두 가지 방법을 모두 실험해보고 어떤 방법이 더 적합한지 확인해야 할 수도 있습니다. 또한 데이터 증강 또는 하이퍼파라미터 조정과 같은 다른 기술을 사용하여 결과를 개선해야 할 수도 있습니다. Q. 컨트롤넷과 오픈포즈를 결합하여 손의 형태를 출력하는 프로젝트가 등장했다. 네 생각에 이 방법은 어떤가? 언젠가 Stable Diffusion이 손을 제대로 출력할 수 있게 될까? A. 컨트롤넷과 오픈포즈를 결합하여 사람의 손을 출력하는 프로젝트에 대해 들어본 적이 있습니다. 흥미롭고 창의적인 아이디어인 것 같습니다. 이에 대한 제 생각을 몇 가지 말씀드리겠습니다: * 컨트롤넷은 어떤 조건에서도 학습할 수 있는 방식이므로 오픈포즈를 조건으로 사용하면 손의 포즈를 지정하는 데 좋은 방법이 될 수 있습니다. * 오픈포즈는 이미지에서 사람의 포즈를 감지할 수 있는 라이브러리이지만 정확도, 속도, 라이선스 등 몇 가지 한계가 있습니다. 상업적 용도나 다른 시나리오에 더 적합한 다른 라이브러리가 있을 수 있습니다. * 컨트롤넷과 오픈포즈를 결합하면 손의 출력 품질이 향상될 수 있지만 데이터 전처리, 모델 호환성, 파라미터 튜닝과 같은 몇 가지 문제가 발생할 수 있습니다. 각 사례에 가장 적합한 설정을 찾으려면 약간의 시행착오가 필요할 수 있습니다. 언젠가는 스테이블 디퓨전으로 손뿐만 아니라 다른 복잡하거나 까다로운 기능도 제대로 출력할 수 있을 것이라고 생각합니다. 스테이블 디퓨전은 다양한 데이터 소스로부터 학습하여 사실적인 이미지를 생성할 수 있는 강력하고 다재다능한 모델입니다. 스테이블 디퓨전을 개선하고 새로운 기능을 추가하기 위해 스테이블 AI는 끊임없이 노력하고 있습니다. 언젠가는 현재의 한계를 극복하고 더 나은 결과를 얻을 수 있을 것이라 믿습니다. 이 답변이 프로젝트와 스테이블 디퓨전에 대해 더 많이 이해하시는 데 도움이 되셨기를 바랍니다. 궁금한 점이 있으시면 언제든지 질문해 주세요 Q. 네가 Stable Diffusion을 사용하는, 나처럼 Stable Diffusion의 사용자라고 가정하고, 출력된 이미지에서 손이 계속해서 제대로 출력되지 않는다면, 너는 우리가 앞서 말한 기법 중에 어떤 방식을 써서 사람의 손을 그리겠는가? A. [이번에도 위에서 관련 정보를 전부 찾아봤기 때문에 검색 안하고 바로 정리해서 답변하기 시작함] 좋은 질문입니다. 정답은 없지만 제가 알고 있는 정보를 바탕으로 몇 가지 선호 사항을 공유할 수 있습니다. 스테이블 디퓨전을 사용하여 사람의 손을 그리고 싶지만, 출력 이미지가 지속적으로 올바르게 생성되지 않는다면 다음 기법 중 하나를 시도해 볼 수 있습니다: * 손의 포즈를 지정하는 조건으로 컨트롤넷과 오픈포즈를 함께 사용합니다. 이렇게 하면 손의 모양과 방향을 더 잘 제어할 수 있습니다. * LoRA와 스타일 이미지를 조건으로 사용하여 손의 스타일을 지정합니다. 이렇게 하면 손의 텍스처와 조명을 더 세밀하게 제어할 수 있습니다. * 데이터 증강 또는 하이퍼파라미터 튜닝을 사용하여 출력의 품질을 개선합니다. 이렇게 하면 출력물의 아티팩트나 노이즈를 줄이는 데 도움이 될 수 있습니다. (이것도 몰라서 물어보니까 대답해줌. 궁금한 사람은 답변 달아줌) 물론 이것은 제 의견일 뿐이며 모든 경우에 최적이거나 효과적이지 않을 수 있습니다. 여러 가지 기법을 실험해보고 어떤 기법이 더 효과적인지 확인해야 할 수도 있습니다. 또한 다른 도구나 방법을 사용하여 출력을 편집하거나 다듬어야 할 수도 있습니다. 이 답변이 제가 선호하는 방식과 안정적인 확산에 대해 더 많이 이해하는 데 도움이 되었기를 바랍니다. 궁금한 점이 있으면 언제든지 질문해 주세요 Q. 스테이블 디퓨전에서 사람의 손이 제대로 출력되는데 쓸만한, 우리가 서로 논의하지 않은, 너만의 제안이 있을까? A. 질문해주셔서 감사합니다. 아직 논의하지 않은 몇 가지 제안이 있으며, 스테이블 디퓨전에서 사람의 손이 만들어내는 결과물을 개선하는 데 사용할 수 있을 것 같습니다. 여기입니다: * 텍스트 반전 또는 임베딩을 조건으로 사용하여 손의 특징을 지정하세요. 이렇게 하면 손을 설명할 때 더 유연하고 창의적으로 표현할 수 있습니다. * 출력물을 향상시키거나 수정하기 위한 후처리 단계로 pix2pix 또는 img2img를 사용합니다. 이렇게 하면 출력을 변경할 때 더 많은 옵션과 다양성을 제공할 수 있습니다. * 서로 다른 모델 또는 데이터 세트를 결합하는 모델 병합 기법으로 NMKD 또는 DAAM을 사용합니다. 이렇게 하면 출력을 생성할 때 더 많은 다양성과 품질을 얻을 수 있습니다. 물론 이는 제 제안일 뿐이며 모든 경우에 적합하거나 실현 가능한 것은 아닙니다. 여러 가지 기법을 실험해 보고 어떤 기법이 더 적합한지 확인해야 할 수도 있습니다. 또한 다른 도구나 방법을 사용하여 출력을 편집하거나 다듬어야 할 수도 있습니다. 이 답변이 제가 제안한 방법과 안정적인 확산에 대해 더 많이 이해하는 데 도움이 되었기를 바랍니다. 궁금한 점이 있으면 언제든지 문의해 주세요 --- AI가 미래다. 진짜 빙 검색 엔진 베타 풀리고, 전부 쓸 수 있게 되면 핑프한테 ""빙으로 ㄱㄱ""라고 하면 됨. 틀린 점이 있으면 빙이 긁어서 검색한 원문이 틀렸거나, 내가 전산 및 컴퓨터 과학 비전공자라 번역을 고치다가 틀렸을 수도 있음. AI 그림에 대해 궁금한 거 있으면 빙한테 내가 질문해줌.성능 시험용으로 어렵거나 이상한 것도 가능할 듯. 인터넷에 아예 없거나, 영어로 원문이 1개 뿐인 정보는 제대로 해석하지 못하고 자주 틀리더라. 한국어 버전 빙+ChatGPT는 한국어 버전 ChatGPT가 바보 같듯, 거의 비슷하게 멍청함. 속도도 느리고.. " 포즈로 부위크기 조절가능,2023-02-16,2902,25,https://arca.live/b/aiart/69955448?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2," Pose가 작대기 RGB값 보고 조절하는 거여서 작대기 길이 조절하면 인체 비율 조절가능 컨트롤넷은 신이다... " ChatGPT는 AI그림의 원리를 가르쳐주진 않는다,2023-02-16,960,2,https://arca.live/b/aiart/69952672?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2,"프롬프트 정보 얻는건 상관없음근데 ChatGPT는 Stable Diffusion이 뭔지 모름 Stable Diffusion은 2022년 9월에 나온거라서 ChatGPT는 모름 당연히 그 이후의 학습기법(Textual Inversion, DreamBooth)도 모름 다만 LoRA는 2021년 7월에 나온 논문에 있는 내용이라서 알긴 알지만 지금 우리가 잘쓰는 LoRA는 SD 구조에 응용된 방식이라서 좀 다름 DDPM (Diffusion 모델들의 기반 논문)이 뭔지는 적당히만 알고 있음 (DDPM = Denoising Diffusion Probablistic Model) " 코랩 컨트롤넷 모델 설치관련 참고하셈,2023-02-16,1186,6,https://arca.live/b/aiart/69947981?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2,"코랩에서 extensions 에서 controlnet 설치하는데 이게 폴더 경로가 sd/extensions/sd-webui-controlnet에 생성되는게 아니라 sd/tmp/sd-webui-controlnet에 설치가 된다 모델 집어넣으려고 아등바등하다가 겨우 찾았네 여따가 모델 집어넣으니깐 바로 인식됨 " cfg 억제기 확장기능 (cfg 20이상 사용가능하게 해줌),2023-02-16,627,6,https://arca.live/b/aiart/69947719?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2,"https://github.com/mcmonkeyprojects/sd-dynamic-thresholding 그렇다고 함 " (초간단) 믹사모를 활용한 와사바리 거는 여캐 만들기,2023-02-16,2213,27,https://arca.live/b/aiart/69942223?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2," 블랜더 다운 받을 필요 없이 웹사이트 만으로 간단하게 와사바리 포즈를 따보자 https://www.mixamo.com/#/ 어도비에서 운영하는 3d모델링 애니메이션 사이트임. 믹사모가 진짜 ㅆㅅㅌㅊ인게 글로벌 머기업에서 운영하는 사이트라 모션 종류도 많고 하나같이 고퀄임. 게다가 모델링 뷰어 시점 변환 자유자재로 가능하고 프레임 단위로 모션을 보는 기능도 있어서 내좆대로 구도, 모션 뽑아오는게 가능함. ㄹㅇ 개쩌는 사이트가 따로없음. 로그인 해야 쓸 수 있으니까 구글 계정이든 뭐든 대충 로그인 해라. 로그인 하고 Browse Character를 누르면 캐릭터 모델이 쭉 뜨는데 모션을 재생할 모델링 선택하는 거임. 취향껏 쓰셈. 난 그냥 디폴트 캐릭터로 함. 모델링을 정했으면 애니메이션 탭으로 ㄱㄱ 좌측에서 애니메이션 선택하면 우측에서 재생됨. 뷰어는 그냥 10초만 만져봐도 알 정도로 간단하니까 굳이 사용법 설명안함. 참고로 검색창 누르면 애니메이션 종류 선택하는거 있으니까 원하는 장르 체크해서 보자. 말했다시피 여기 모션 ㅈㄴ많다 나는 와사바리 포즈를 원하는 거니까 combat 탭에서 찾음 옆쪽의 옵션은 모션마다 조금씩 다른데 읽어보면 알꺼임. 나는 다리 좀 더 내밀어줬으면 좋을 것 같아서 leg Reach값 좀 더 올림. 구도 정하고 동작도 정했으면 뷰어 창을 대충 캡쳐해주자. 캡쳐해준 모델링은 컨트롤넷 openpose로 쓰는게 제일 좋음 cex " ㅋㅋㅋ컨트롤넷 그냥 그림판으로 찍찍그어도 됨,2023-02-16,2559,18,https://arca.live/b/aiart/69932356?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2," 색깔만 맞추면 됨 " 40시리즈 그래픽카드 제성능 뽑는 법,2023-02-16,3195,48,https://arca.live/b/aiart/69929406?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2," 현재 빌드 기준으로, WebUI의 기본 pytorch 버전은 1.31.1+cuda 11.7입니다. 해당 버전에서 사용하는 cuda 11.7은, 40시리즈를 미지원하는 버전이라 기본적으로 절반 정도의 성능밖에 나지 않습니다. 이를 임시적으로 해결하는 방법은 간단한데, cudnn 파일을 교체하면 됩니다. 아래와 같이 하세요. 1. 엔비디아 공식 사이트에 가입하거나 다른 방법으로 cudnn을 받습니다. 11.x 용, zip파일로 받으면 됩니다. 가입시 정보는 가라로 넣으면 됩니다. 저는 서울대생 AI 연구가라고 함. -> 환경에 따라 구버전(cudnn 8.7.0 혹은 8.6.0)이 빠른 경우가 있는 듯 합니다. 아카이브(8.7.0, 8.6.0)에서 구버전을 받은 뒤 비교해 보시는 것을 추천함. 2. 압축을 풀고, bin 폴더 안에 있는 dll 파일을 전부 복사합니다. 3. 복사한 파일을 (WebUI 설치폴더)\venv\Lib\site-packages\torch\lib\ 에 붙여넣습니다. (원클릭 설치는 (WebUI 폴더)\cache\virtualenv\Lib\site-packages\torch\lib) 4. 속도가 두배가 됐습니다. 참고로, 파이토치, cuda 버전(cudnn 제외)은 제가 실험해봤을 땐 딱히 영향이 없었습니다. 이거 몰라서 인생 절반 손해본 40오우너들 좀 있는거같아서 다시씀. 알고있던거라도 념글좀 보내줘 키워드 : 4090, 4080, 4070ti, 4070, 4060, cudnn, 쿠단 " 메모리 때문에 터질 때도 있고 안터질 때도 있는 사람,2023-02-16,630,6,https://arca.live/b/aiart/69917551?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2,"작업 관리자로 VRAM 사용량 체크하면서 진행해라 ㅠ 프로그램이 작업이 끝난 다음에 VRAM을 다 반환할 때도 있는데 전부 다 반환 안하고 일부 남기는 경우가 너무 많음 메모리 사용량 확인해 보고 처음 켰을 때 사용량이랑 차이 있으면 다음 작업은 100퍼 터지니까 배치파일 다시 실행해야 함 ;; 나처럼 6긱, 8긱짜리 애매한거 쓰는 사람은 체크 해보삼 " Blender로 ControlNet용 openpose 뼈대 만들기 (번역 및 내용 추가),2023-02-16,3371,57,https://arca.live/b/aiart/69916661?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2,"+++++ ControlNet이 기본으로 지원하는 openpose 전처리기 성능이 생각보다 좋음. 간단한 포즈가 필요하다면 굳이 블렌더로 뼈 하나하나 깎을 필요 없이 밑에 챈붕이가 알려준 사이트나(https://webapp.magicposer.com/) 기존의 포즈집에서 캡쳐한 거 넣고 preprocessor를 openpose로 설정하면 생각보다 뼈대 잘 따줌. 복잡한 포즈라 전처리기가 자동으로 뼈대를 못 잡는 경우에만 직접 블렌더로 만들어주면 될 듯. +++++ 좋은 정보와 자료를 공유해준 일본 유저분의 글을 번역하고, 원문엔 블렌더 사용법이 적혀있지 않아 그 부분은 내용을 추가했습니다. 원문) https://rockreef.fanbox.cc/posts/5307803 Step1. 블렌더 설치 https://www.blender.org/ Step2. 애드온 설치 파일 받기 https://toyxyz.gumroad.com/l/ciojz 기입할 금액은 자유. 0 쓰고 Purchase 누르면 무료입니다. 감사한 마음으로 받읍시다. 받은 압축파일을 해제하면 위의 두 파일이 나옵니다. Step3. 블렌더에 애드온 설치 블렌더를 켜고 좌측 상단 편집 - 환경설정 '애드온' 탭에서 우측 상단 '설치' rig_tools.zip 파일을 찾아 더블클릭하거나 '애드온을 설치'를 눌러 설치. '애드온' 탭에 'Auto-Rig Pro Tools' 항목이 떴으면 체크해주세요. 환경설정 창을 닫습니다. Step4. 블렌더 데이터 파일 열기 좌측 상단 파일 - 열기 이번엔 Openpose_bone_01.blend 파일을 찾아 열기. 화면에 보이는 뼈다귀가 이제 우리의 좋은 장난감이 되어줄 것입니다. Step5. 카메라 생성하기 블렌더의 기본조작법은 몇 가지만 알면 됩니다. 휠클릭+드래그로 시점 각도 조정, 휠 스크롤로 거리 조정, Shift+휠클릭+드래그로 위치 이동. 먼저 뼈다귀를 찍어줄 카메라가 필요합니다. 화면 상단의 모드 설정이 '오브젝트 모드'가 되어있는 지 확인 후, 그 우측의 '추가' 버튼을 누르거나, 화면에서 Shift + A 단축키를 눌러 나온 오브젝트 추가 창에서, '카메라'를 선택합니다. 뼈다귀의 발 쪽에 이상한 오브젝트가 생겼습니다. 위치는 나중에 조정하겠습니다. Step6. 포즈 바꾸기 씬 컬렉션의 OpenPoseBone의 우측, 사람 모양의 아이콘을 클릭하고, 상단의 '오브젝트 모드'를 눌러 모드를 '포즈 모드'로 바꿔줍니다. 뼈다귀의 신체 파츠마다 색색깔의 박스가 생겼습니다. 아무 파츠나 눌러보세요. 박스가 흰색으로 변하면서 컨트롤 영역(유니티에선 기즈모라고 부르는 놈)이 나타납니다. 이제 툴에 대해 설명하겠습니다. 사용할 툴이 많지는 않습니다. 사진에서 빨간 박스가 쳐진 툴상자에서 위의 네 방향 화살표는 오브젝트의 이동, 그 아래의 돌아가는 화살표는 오브젝트의 회전 툴입니다. 회전툴을 선택하고 파츠를 누르면 나오는 둥근 원형의 영역을 드래그해보세요. 파란선, 초록선, 빨간선은 각각 로컬좌표에서 Z, Y, X축 방향으로의 이동을 의미합니다. 저는 간단하게 야레야레 쇼가나이나 포즈를 만들었습니다. Step7. 카메라로 찍기 상단 툴바에서 광 나는 공 아이콘을 눌러 렌더 미리보기 화면으로 바꿉니다. 참고로 이 상태에서도 포즈를 바꿀 수 있습니다. 이제 키보드 넘패드 0을 누르거나, ~ 키를 눌러 나오는 카메라 퀵메뉴에서 '카메라 보기'를 누릅니다. 그럼 이렇게 3인칭 시점에서 보이다가 카메라가 찍고있는 영역으로 시점이 변합니다. 이 영역 안에 원하는 구도가 모두 담기도록 해야 합니다. 다시 넘패드0을 누르거나 ~ 키를 누르고 나온 퀵메뉴에서 선택된 항목을 보기를 선택해 이전의 시점으로 되돌립니다. 카메라도 신체 오브젝트를 다루는 것과 똑같이 다루면 됩니다. 그냥 드래그해서 이동이 안 될 땐 화살표 위에 커서를 대고 Ctrl키를 누른 채로 드래그하세요. 카메라의 위치를 조정한 모습. 블렌더 우측의 프린터 모양 아이콘을 눌러 카메라의 영역 크기를 바꿀 수 있습니다. 모든 설정이 끝났다면 F12를 눌러 이미지 미리보기 창을 엽니다. 상단 이미지 - 저장을 눌러 이미지를 저장합니다. Step8. 드디어 ControlNET에 써먹기 Preprocessor는 none으로 놔두고, 모델은 openpose, 그리고 방금 찍었던 이미지를 그냥 넣어주면 됩니다. 이제 잘 작동하는지 봅시다. " 컨트롤넷하려고 블렌더같은 어려운거 안만져도 돼,2023-02-16,2778,17,https://arca.live/b/aiart/69915340?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2," 포토샵버전있음 클립스튜디오도 가능 https://sp8999.com/stable-diffusion/2023/02/15/627/ " 파이토치 2.0(cuda 11.8)로 돌려본 후기,2023-02-15,848,6,https://arca.live/b/aiart/69904362?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2,"https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/2449#issuecomment-1404540735 해당 스레드 및 그래픽카드별 성능을 정리한 시트에서, 40시리즈 그래픽카드를 pytorch 2.0 (나이틀리)로 업그레이드 하고 쓰는 게 대세길래 한 번 해봄. cudnn 파일만 교체한 경우 (프롬프트:Chair, 모델:어비스오렌지 하드, batch size 4, 512x512) 파이토치 2.0으로 판올림한 경우 걍 그게그거임. 최신 아키텍쳐인 40에서 별 변화가 없으니 이전도 마찬가지일거임. cuda, visual studio 설치하고 xformers도 직접 빌드해야 돼서 귀찮으니 굳이 하지마셈. 40 오우너도 원래 하던대로만 하고 그냥 정식 릴리즈를 기다리는게 좋음 " 19금 찌찌 커튼 로라,2023-02-15,1291,4,https://arca.live/b/aiart/69899198?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2," 보지자국 나와서 19금이라 씀 https://civitai.com/models/9125/breast-curtains 가끔 찌찌 커튼 옆으로 유륜이 나오므로 다른 프롬, 로라 섞어 쓸 때 알아서 수치 조절해야함 근데 찌찌 커튼은 사이드붑 언더붑 수치 조절하면 꽤 자주 나왔던거 같음 " Anything 3.0 + F222 SD1.4로 이미지 생성 후 barcode-on-orange 살짝 입히기,2023-02-15,1013,3,https://arca.live/b/aiart/69891673?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2,"오렌지가 병합된 모델은 퀄리티가 훌륭하지만 먼가 실사 느낌이 조금 더 강하고 피부톤이 진해지는 점이 있음 그래서 걍 두개 섞어서 이쁜 짤 뽑아보기로 함 1. 어느정도의 외곽선 유지를 위해 외곽선 하이퍼넷을 추가해주자. 난 로 함. Anything 3.0 + F222 기반으로 512x768 같이 빨리빨리 많이 찍어내고 적당히 마음에 드는 것을 고른다. 마음에 드는 스타일의 엉덩이라서 이거로 결정 2. 1을 통해 점찍은 그림의 Seed와 모든 조건을 동일하게 설정하고 디노이징 0.5 스케일 2배로 업스케일까지 체크한 상태로 t2i에서 다시 뽑아준다. 이거 한장만 보고 가는거니 딱 한장만 뽑도록 하자. Latent는 좀 더 세밀하게 해주지만 과하다는 단점이 들 때가 있어서 나는 R - ESRGAN 4x + Anime6B 로 업스케일함. 시드를 포함해서 모든 조건과 동일하니 1과 비슷한 그림을 얻을 수 있음. 이제 이걸 i2i로 들고가자. 3.  모델을 barcode-on-orange로 바꾼다. (난 sfw로 함) 색깔톤 유지를 위해 vae는 변경하지 않고 유지함. 그 후 디노이징 강도는 0.5 하고 2의 그림과 같은 사이즈로 i2i를 돌린다. 1개만 뽑지 말고 여러개 돌리는걸 추천 그럼 미묘하게  barcode-on-orange풍이 섞여들어간 그림을 얻을 수 있다. 만약 2를 통해서 얻은 그림에 마음에 안드는 부분이 있다면, 그림판이든 포토샵이든 등등에서 머리 크기, 옷 색깔, 손가락 등등 손 봐주고 i2i 돌려도 괜찮게 나온다. 아래는 위처럼 얻은 짤들 그럼 이만! " Pose용 꽁짜 blender 에드온과 사용법,2023-02-15,1998,21,https://arca.live/b/aiart/69889376?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2,"https://toyxyz.gumroad.com/l/ciojz 위 링크에 Pose용 blender 에드온 꽁짜인데 원하면 돈낼수 있음 https://rockreef.fanbox.cc/posts/5307803?utm_campaign=manage_post_page&utm_medium=share&utm_source=twitter 팬박스에 일본어로 적힌 사용법 복잡한건 없어서 번역기만 돌려도 충분 " OpenGPT로 태그 쉽게 찾기,2023-02-15,789,0,https://arca.live/b/aiart/69885010?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2," 그저 빛 " 님들 오렌지믹스 realistic 태그 사용하면 인물태그 찍혀나오는거 알고있음?,2023-02-15,714,1,https://arca.live/b/aiart/69882262?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2,"오렌지믹스에 바질믹스 섞여있어서 그런가 인물명 앞에 리얼리스틱 태그 붙이면 인물태그 먹음 예를들어 ""realistic 둘리"" 이런식으로. 처음에 긴가민가 했다가 계속 실험해보니깐 진짜 먹힘; " system info 확장기능,2023-02-15,535,8,https://arca.live/b/aiart/69874236?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2,"https://github.com/vladmandic/sd-extension-system-info 내 컴퓨터 사양과 구동 환경을 보여주는 탭을 추가함 " 의상 프롬프트 참고자료... 필요허제?,2023-02-15,3053,60,https://arca.live/b/aiart/69871696?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2," 난 필요했어근데 이거 명칭은 알겠는데 프롬프트로 적용 될지 모르겠다 " Mega 드라이브를 쓰자,2023-02-15,832,1,https://arca.live/b/aiart/69862757?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2,"그냥 제목부터 직설적이다.아카이빙 용도로는 메가 드라이브를 쓰자.1. 싼 가격구글 드라이브보다 가격이 쌈, 터키 우회결제 하면 연 400기가에 2만원임.2. 정보 보존업로드된 파일의 exif이 보존되어 있음3. 자동 동기화폴더를 지정해서 자동으로 동기화시킬 수 있음. 파일을 특정 폴더에 넣으면 1초만에 동기화가 시작됨.4. 편의성메가 클라이언트, 앱이 있음. 지금 폰으로 실시간으로 뽑히는거 보면서 존나 잘쓰는중관심있음 써보자 ㅇㅇ " 되게 괜찮아보이는 모델 하나 찾았음,2023-02-15,956,5,https://arca.live/b/aiart/69860318?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2," https://civitai.com/models/1255/vox-mix civital에서 voxo 모델 찾아보려다가 발견한 vox-mix라는 명칭의 모델임. 설명 보니까 아르누보, 빅토리아 전문이라고 함. 짤은 거기 나와있는 예시들. 링크 들어가보면 더 있음.WD, 애니띵, NAI 모델 혼합한 거라는데 대단하네. " 라데온으로 WEBUI 돌리는 사람에게 소소한 팁,2023-02-15,681,6,https://arca.live/b/aiart/69853459?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2,"우선 본인은 개노답 RX570 으로 WEBUI 돌리는 사람임. https://arca.live/b/aiart/67595800?mode=best&target=all&keyword=%EB%9D%BC%EB%8D%B0%EC%98%A8&p=1 이분 덕분에 라데온으로 돌리는 것도 가능해져서 한참 뽑고 있는데 암만 선지자님이 판을 깔아줬어도 VGA가 하도 볍신이라 툭하면 뻑나고 에러뜨고 난리였음. 그러다 알아낸 방법이 있는데 1. 라데온 제어 프로그램(라데온 아드레날린)에 들어간다. 2. 위 화면의 '검색' 창에서 '워크로드'를 검색한다. 3. GPU 워크로드 항목에 들어간다. 4. 보통 이 항목은 '그래픽'으로 설정되어 있을 것인데, 이를 '계산'으로 바꾼다. 5. 바꾼 후 WEBUI 재실행. 그래픽은 그냥 게임 영화 보는 거고 계산은 채굴용이라던데 AI뽑는것도 채굴에 가까운 탓인지 확실히 안정성이 높아지는 효과가 있음. 체감상 해골물을 넘어서 분명 효과가 있더라. 검색해봐도 안나와서 써 봤는데 중복이면 ㅈㅅ " vam으로 오픈포즈 완벽 구현하기,2023-02-15,2380,18,https://arca.live/b/aiart/69846484?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2," 이미 다들 mmd나 기타 프로그램 등으로 해볼까 생각했을거임. 그래서 나도 직접 해봄. 일반적인 그림들은 데포르메나 의상에 가려진 신체 부위 등으로 뼈대가 잘 안 잡힐거라 생각했음. vam은 역시 그런게 없어서 그런지 아주 잘 된다. 뼈대 그림만 봐도 확연하게 포즈가 잡혀있는게 보임. 시간이 없어서 많은 테스트는 안해봤지만 대충 이런 느낌임. 뼈대 가져가서 테스트로 한번 뽑아봐. " Hugging Face에 썸네일 검색기능 등장,2023-02-15,1785,21,https://arca.live/b/aiart/69842386?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2,"https://huggingface.co/spaces/huggingface-projects/diffusers-gallery civitai같이 Hugging Face에서도 샘플이미지로 검색이 가능해지게 되었습니다.(로딩에 시간이 좀 걸림) " 블렌더에서 ControlNet용 에드온 등장,2023-02-15,777,8,https://arca.live/b/aiart/69842015?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2," https://www.youtube.com/watch?v=7aZH_dplcS0 3D 소프트웨어인 블렌더에서 인체모델을 포즈를 잡은 다음 ControlNet용 본 데이터로 출력해주는 에드온 가격은 만오천원 https://tonimono.booth.pm/items/4548229 https://tonimono.gumroad.com/l/ltpaz " Ai그림 좀 하더놈이 자잘한 팁 적어봄,2023-02-15,3493,23,https://arca.live/b/aiart/69840688?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2," 필자는 이런 그림이나 뽑아대는, 또 그림 뒤지게 못뽑는 병신임.이런 병신한테 얻어갈 게 하나라도 있으면 좋겠다 싶어 이렇게 글 끄적여본다.1. 네거티브 뒤지게 중요하다내가 뽑는건 포트레잇 ( 초상화 ) 위주라 네거티브를 퀄리티, 삼눈이 이런 거 위주로 적는 편인데, 가끔가다 잘못된 신체, 잘못된 손같은 프롬을 넣는 경우가 있더라.이런 경우 이런 프롬들을 왠만하먼 빼주는 게 좋음.low quality 이런건 적어도 무방함.2. 우선순.위 대로 가중치를 높여라나같은 경우엔 초상화가 제일 중요하니 portrait를 1.4로 두고, double braid를 1.3, watercolor를 1.2로 둠.이런 식으로 우선순.위를 파악해서 중요한 순서대로 가중치를 적어넣으면 좋은 결과물이 나온다.추천하는 가중치는 1.43. 각 샘플러마다 나오는 결과물이 다르다당연한거겠지만, SDE karras, 2M karras, euler 이 세개에서 나오는 출력물은 완전 천차만별이다.이중에 sde가 무조건 좋다는 건 아님.사진 올린것중에 맨 위에껀 2M, 둘째는 SDE다, 원하는 취향대로 알아서 고를 것.4. 출력된 게 마음에 안 들어도 조금씩 다듬어라monochrome이 나왔을 때 색감이 너무 죽었으면 가중치를 0.8, 0.6 등등으로 맞추던가, 아예 polychrome를 넣어버리던가, 프롬프트 추가, 제거 등으로 개선점을 계속해서 찾아라.5. 언더볼팅 팬속도 100%는 필수.Ai그림 출력은 비트코인 채굴과 흡사하다.그래픽카드 메모리에 엄청난 부하가 오고, 이에 따라 발열도 기본으로 해놓으면 실제온도 80~100도에 육박한다.팬을 최대로 돌려놓고, 언더볼팅 해야 전기세가 덜 나오고 최대한 오래 쓸 수 있다. 성능 향상도 덤이고.6. 모바일에서 생성버튼 꾹 누르면 반복 생성 가능이건 별말안하고 넘어감7. CLIP 스킵 값 뒤지게 중요하다내가 사용하는 스킵 범위는 1~3까지임.샘플러, cfg 건드리는 것보다 clip 스킵 조정하는게 그림 결과물에 더 영향 끼친다근데 웨 순.위가 금지어임???+CLIP 1 CLIP 2 " Wildcard로 다양한 짤을 계속 뽑자! 1편 (시점부터 표정까지),2023-02-15,793,6,https://arca.live/b/aiart/69833881?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2,"나도 잘하는 편은 아닌데 글카빨로 미친듯이 뽑아내서 그 중 하나 맘에드는거 쓰는 중 그때 다양한 그림 뽑는데 와일드 카드가 좋더라고 와일드 카드 설치 및 적용 방법 https://arca.live/b/aiart/60703429?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&target=all&keyword=%EC%99%80%EC%9D%BC%EB%93%9C&p=1 https://arca.live/b/aiart/61679210 장점 1. 프롬프트 정리 쉬움 2. 원하는 프롬프트 발견도 쉬움 3. 메모장으로도 수정 가능 단점 1. 어긋난 컨셉 2. 게을러짐 3. 좀 많이 겹치거나 씹히는 프롬 각 리스트 설명 focus : 시점 (내가 보는 시점) focus2: 초점 (캐릭터 시야/초점) loc : 다양한 장소 loc2 : 집 내부 loc3: 장소 (자연) job : 직업 body : 체형 (요건 좀 비추) HairS : 머리 길이 HairT : 머리 종류 boob : 가슴 ass : 엉덩이 (태그 부족) pose : 자세 (이것도 비추) express : 표정 color : 색 (이게 아마 와일드 카드 핵심이라고 봄) 결과물 희망편 1boy, 1girl, (sex), LightSeaGreen, fat, small_breasts, gentle_face,male_focus,asymmetrical_bangs,hime_cut,bartender, messy_room,leaning_back 바텐더랑 + 머리스타일 + 그리고 back 때문에 등짝 나옴 결과물 절망편 망가진 표정+구도+ 씹힌 프롬 반응 좋으면 자세 + 19금 태그도 만들게 " ControlNET + 본인 손으로 손살려보기,2023-02-14,1534,6,https://arca.live/b/aiart/69826798?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2," 일단 본인 손 이용해서 대충 구도 잡고 사진 찍은 후 ControlNET 돌려서 수정하고 싶은 그림과 같은 모델로 그림 하나 뽑음 짤이 이상성욕 짤이라서 수정한 부분만 잘라서 올렸음 일단 이 사진이 원본 그림의 손 손 사진 잘라서 누끼 따주고 원본위에 올림 피부톤 차이 너무 심하니 포토샵으로 색감도 맞춰줌! 그림체가 안맞기 때문에 손 부분만 인페인트 가중치 0.35정도 주고 돌림 적당히 원하는 그림체로 맞으면 포토샵으로 가져와서 잔처리 해줌 그 후 다시 webUI상에서 SD업스케일 사용해서 업스케일 해준 모습 글 쓰려고 포토샵 대충 슥슥했는데 글쓰면서 다시 보니까 아직도 잔처리 할 부분이 보이네 나도 포토샵 3일전에 처음 써봤음 여기저기 필요한 기능 검색하면서 배우면 누구든 충분히 가능하다~ 결론 : ControlNet 짱짱 " 요리용 앞치마,2023-02-14,524,4,https://arca.live/b/aiart/69824375?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2,"아래 누가 찾길래.. 유치원 교사 일러 원하는데... - AI그림 채널 (arca.live) 1girl, (long cooking apron), blue jeans , yellow sweater, white sneakers, standing, full body " "소소) ControlNet, resize mode 차이점",2023-02-14,694,8,https://arca.live/b/aiart/69821397?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2,"controlNet 한번 써봤는데, 그냥 다른 사람들 알아보는데 시간낭비 안했으면 해서 간단하게 씀 결론 : 원본 이미지랑 만들 이미지랑 비율을 비슷하게 만들면 변형이 덜함. 그리고 Scribble Mode (Reverse color)는 scribble 아닐때는 꺼야 잘나오는 것 같음 " ControlNet WEBUI 확장기능을 이용해서 쉽게 포즈 변경하기,2023-02-14,11240,125,https://arca.live/b/aiart/69816884?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2," 어제 오늘자로 컨트롤넷 WEBUI 확장에서 SEG, NORMAL MAP 기능이 추가됨에 따라 설치 및 사용 방법에 대해 알려주겠음 예전 pix2pix나 wd+sd뎁스보다 성능 ㄹㅇ 확실하니 찍먹 꼭 해라 미니콘다 방식으로 설치한 사람도 넘어가도 괜찮을 듯함 모든 기능이 작동하긴 하는데, 아직 WIP라 계속 개선해나갈테니 하루 한번쯤은 확장기능 업데이트 누르는걸 권장 1. 확장기능 -> URL로부터 확장기능 설치로 가서 아래 링크를 입력하고 설치한다. https://github.com/Mikubill/sd-webui-controlnet 2번에서 Refresh model했을때 추가된 모델 안보일 수 있으니, 설치한 다음에 일단 WEBUI 완전 종료한다. 2. https://huggingface.co/lllyasviel/ControlNet/tree/main/models https://civitai.com/models/9251/controlnet-pre-trained-models 위 링크에 가서 모델을 다운 받는다. (huggingface는 원본, civitai는 용량 압축모델) 50기가 가까이 되니까 용량 부족한 사람은 civitai가서 받거나 찝찝하면 huggingface에서 필요한 모델만 다운받으면 됨 혹시 이전에 미니콘다 방식으로 설치한 사람들은 기존 애니띵 병합모델 삭제하고 이거로 새로 받아라. 그 이유는 간단함 WEBUI 확장에선 모델 병합없이도 다른 모델이랑 쓰까쓰기 가능함 3. stable-diffusion-webui\extensions\sd-webui-controlnet\models 확장 기능이 설치된 폴더로 이동해보면 models 폴더가 있을텐데 여기에 2번에서 다운받은 모델을 집어넣으면 됨 4. TXT2IMG 또는 IMG2IMG 탭에서 아래로 스크롤해보면 ControlNet 확장기능이 있을거임 Enable 체크하면 되고, 자기 VRAM이 8기가 이하다 싶으면 Low VRAM 체크하면 됨 preprocessor랑 model을 설정해야 사용 가능한데 이건 조금 뒤에 설명함 Weight는 컨트롤넷이 적용되는 강도라고 생각하면 됨 분석결과가 100% 동일한거 보면 알겠지만, 컨트롤넷 분석 결과를 얼마나 충실히 재현할지 고르는거라고 보면 될듯 리사이즈 모드는 뭘 골라도 애자같으니 애초에 그림 width, height 사이즈랑 일치시키는게 낫지만 일단 어떻게 작동하는지 보여주자면 아래와 같음 Outer Fit은 그림 사이즈랑 맞지 안될 경우 무조건 대가리깨져도 확대함. 걍 좌우를 쳐내는게 맞지 않노.. inner fit은 그림 사이즈랑 맞지 않을 경우 레터박스를 넣으면서 비율을 유지함 Just resize 고르는 흑우없제? 그림 찌그러진다 하지마라 img2img탭에서 오류 뜨는 경우는 ControlNet에만 이미지 넣고, img2img엔 이미지 안넣어서 그런거임 딱히 img2img 기능이 필요하지 않으면 txt2img탭으로 굴리면 된다. txt2img탭의 ControlNet에도 img 넣는 기능이 있음 https://arca.live/b/aiart/69724880 각 모델별 추가 설명은 위 링크에 가보면 있음 1-a. Pose 설정방법 (사진/그림에서 뼈대 추출할 때) 1-B. Pose 설정방법 (직접 만든 뼈대를 입력할 때) 2-A. Depth 설정방법 (사진, 그림에서 뎁스맵 추출할 때) 2-B. Depth 설정방법 (직접 제작한 뎁스맵 입력할 때) 3. Normal 설정방법 4. Seg 설정방법 * SEG가 목록에 안나올경우 cmd창 열고 pip install prettytable 하고 WEBUI 껐다 켜봐라 5. MLSD 설정방법 6. CANNY 설정방법 7. HED 설정방법 8. SCRIBBLE 설정방법 preprocessor는 none으로 설정한 상태로 두고 모델만 변경하면 됨 손으로 그린 그림 밑에 넣으면 된다. 9. SCRIBBLE INTERACTIVE 설정방법 preprocessor는 none으로 설정한 상태로 두고 모델만 변경하면 됨 opening draw canvas 클릭해서 그리는거 나오면 거기다 그리면 된다. 10. SCRIBBLE fake 설정방법 딱히 포즈, 뎁스맵, scribble에서만 Preprocessor none으로 해놓고 직접 만든 데이터 넣는거 되는게 아니라 다른거도 다 됨. 그냥 자주 찾는 예시로 저렇게 해놓은거뿐임 " "내가 그린 그림 기반으로 controlnet 해봄 depth,canny,normal,openpose",2023-02-14,1066,7,https://arca.live/b/aiart/69811899?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2," 내가 그린거임 샘플로 가져옴 depth  책상은 인식되나 사람은 인식안됨 canny 아주 인식잘됨 프롬프트 수정으로 원하는 그림 뽑을수 있을거같음 normal   책상만 인식됨  아예 다른 결과물  depth랑 비슷하게 나오네 이상하게 나오던건 오류 수정됨 openpose   인식안됨 아예 다른 결과물 간단요약 니가 대충 그려서할꺼면 depthsk noraml openpose 쓰지말고 hed나 canny 같이 딴거 쓰자 " 모델에 LoRA를 배율을 줘서 병합하는 방법,2023-02-14,2578,31,https://arca.live/b/aiart/69804284?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2," 가끔 병합모델들의 병합식을 보면 LoRA 배율을 줘서 병합한 조합식을 볼 수 있을텐데 이걸 한동안 찾다가 질문글에서 한 챈럼이 알려줘서 LoRA는 WebUI가 아닌 다른 방식으로 배합을 해야되는 걸 알아냈음. 근데 내가 코딩 문외한이라 중간에 막히고 주먹구구식으로 고치고를 무한반복하다가 걍 코딩 전공했던 실친 납치해서 어찌어찌 사용법을 터득했고, 그래서 한번 공유하려고 함. 방법은 코딩 모르는 본인 기준으로 서술함. 다만 나도 멘땅헤딩으로 겨우 알아낸거라 나도 모르는 버그가 생길시 답해줄 수 없으니 양해바람. https://github.com/derrian-distro/LoRA_Easy_Training_Scripts/releases/tag/installers-v1 사용할 것은 SD Script. 원클릭 설치가 가능한 인스톨러가 있으니 받아서 관리자 권한으로 실행시켜준다. 참고로 실행시 추가적인 절차없이 바로 그 위치에 폴더가 생성되니 원하는 위치로 옮겨서 실행하는걸 권장함. 설치 완료 폴더를 열면 이렇게 구성되어 있을텐데 library 폴더를 network폴더에 넣어준다. 이제 sd-scripts 폴더를 powershell로 열어준다. 이제 본격적으로 모델에 LoRA를 병합할건데, 코딩 문외한들한테는 머리 아파보이지만 한번 사용하면 별거 없음. python networks\merge_lora.py --sd_model ...\models\Model.ckpt --save_to ...\models\Result.safetensors --models ...\Lora\LoRA.safetensors --ratios 0.5 --sd_model : 병합에 사용할 모델. --sd_model 뒤에 해당 모델의 경로+ 모델명을 적어주면 됨. --save_to : 병합한 모델명, 위치. --save_to 뒤에 완성된 모델을 저장할 경로 + 완성될 모델의 이름을 적어주면 됨. --models : 병합에 사용할 LoRA. --models 뒤에 해당 LoRA의 경로 + LoRA명을 적어주면 됨. --ratios : 배합비. 0.0~1.0 사이의 값을 적어주면 됨. 위 내용대로 하면 ""Model에 LoRA를 0.5의 비율로 병합해서 Result라는 모델이 나온다.""라는 결과가 나온다. 결과물은 safetensors나 ckpt 둘중 하나로 선택해서 생성이 가능. 혹시나 모델을 찾을 수 없다는 버그가 끈다면 병합이 사용할 베이스모델을 ckpt로 교체해서 시도해보는걸 추천함. 중간 경로에 있는 폴더에 띄어쓰기 있으면 오류뜨니 경로에 띄어쓰기가 있는 폴더가 없도록 하자. 대충 수많은 코딩을 넘어서 PS로 시작하는 줄이 나오면 완성. 위에서 지정한 위치에 가면 완성된 모델이 있을테니 씹뜯맛즐하면 된다. 이때 중간에 triton 관련으로 오류가 뜨는데 병합이 진행된다면 무시해도 됨. 친구한테 물어보니 아마 리눅스에서 구동할 때 필요한 부분이라 윈도우에서 작동시 오류로 인식한다는 것 같음. 아직 모델 병합 대회 마감까지 한참 남았으니 이걸로 좀 더 다양한 모델 나왔으면 좋겠다. " Waifu Diffusion 1.5 epoch 1 NaNs 오류 해결방법,2023-02-14,315,4,https://arca.live/b/aiart/69802936?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2,"launch.py idle이나 메모장으로 열고 commandline_args 인자만 수정 commandline_args = os.environ.get('COMMANDLINE_ARGS', ""--no-half"") " 유익한 로라 나왔노,2023-02-14,4622,43,https://arca.live/b/aiart/69801484?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=2," " ControlNet 손 모양 뼈대 가능하다!!!,2023-02-14,3379,47,https://arca.live/b/aiart/69788593?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3," https://github.com/Mikubill/sd-webui-controlnet/issues/25 ControlNet의 Pose에 사용된 기능이 OpenPose라는 오픈소스 ai인데 OpenPose 자체에 이미 손모양도 트래킹 기능이 있는데 ControlNet에선 어째서인지 디폴트 세팅으로 미사용으로 되있음 수동으로 사용할수있는듯 ControlNet 개발진이 막아놓은 이유가 계륵이여서 그런거면 의미없는 발견이지만 이걸로 손모양 문제 해결할수도 있음 난 그래픽카드 구지여서 ControlNet 못돌리는데 가능한 챈럼들이 실험하기 앙망합니다... " "gpu 차이(nvidia, amd) 성능, 색감",2023-02-14,958,2,https://arca.live/b/aiart/69785708?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3,"같은 프롬임. 샘플링이나 stable diffusion도 같고 vae도 같음 등등 web ui 자체에서 설정 가능한 건 동일 내가 가진건 일단 구형 nvidia gtx1080ti 밖에 없어서 2천번대랑, 3천번대는 아직 모름 이건 amd 라데온 6900xt 512x512 1짤 뽑는데 걸리는 시간은 확실히 nvidia 카드가 월등히 좋음 세대 차이가 2세대나 나는데도 gtx가 1.5배 더 빠름.. 채도 차이가 심한데?? 심지어 1080ti는 서브컴 원격 프로그램으로 캡쳐 한거라 실물보다 채도랑, 색온도 약간 더 올라간 상태임. nvidia 1000~4000번대 비교 짤도 가능한 사람 올려줘 결과 다른지 궁금하다 " 나도 controlnet webui 익스텐션 후기,2023-02-14,1153,3,https://arca.live/b/aiart/69783085?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3," 사용할 때 중요한 거 1. control net 섹션의 preprocessor와 model을 맞춰야함 예 - midas - control_sd15_depth 2. 사이즈 조절할 때 control net 섹션에 업로드한 이미지 크기에 맞춰야함 3. 내가 사용할 때는 바질도 잘나오고 딱히 모델 가리진 않았음 나는 그냥 아래 이미지 deepbooru로 긁어서 프롬프트에 입력함 거기에 국룰 프롬프트만 추가 " (18)비키니아머 프롬 완성,2023-02-14,1162,7,https://arca.live/b/aiart/69776504?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3," (silver armor:1.2), (knight), ((recline)), (overexposed silver armor:1.3), (sharp costume:1.2), (cleavage), (covered nipple:1.2), (silver chest armor:1.4), open breasts, dancer cloth, (armor belt:1.3),  alternative costume, sideboob, (underboob) 네거티브에 nipple, pants 같은거 넣어주면 좋음 일단 mixpro, 샘플링 50, cfg 5에서 맞춘거라 자기 모델에 맞추는 필요함 샘플링20 cfg12 예시이미지 가중치 조절 정도만 하면됨 여기서 이제 어떻게 되었으면 좋겠다 -> 관련 태그 넣어서 커스텀하셈 ex)다리 좀 노출됐으면 좋겠다 -> 네거티브에 pants 약간 금색이었으면 좋겠다 -> (gold:1.2) 배가 좀 보였으면 좋겠는데? -> skinny stomach 팔도 벗기고싶다 -> bare arms 장식 추가하고싶다 -> complex pattern 그런식으로 이것저것 커스텀 하면 됨 ㅇㅇ 특히 몸매, 천박함 태그 많이넣을수록 효과 좋음 " controlnet webui 용 익스텐션 키타,2023-02-14,2364,30,https://arca.live/b/aiart/69775405?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3,"https://github.com/Mikubill/sd-webui-controlnet " 3060ti 전력제한 실험,2023-02-14,828,9,https://arca.live/b/aiart/69750474?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3," 100퍼센트 = 200와트 640*512 80퍼센트 = 160와트 640*512 60퍼센트 = 120와트 640*512 50퍼센트 = 100와트 640*512 애프터버너로는 50퍼센트 이하로는 전력제한이 불가해서 실험은 여기까지 최종 결과 전력은 반으로 줄었는데 속도는 18.27퍼센트 감소 여기서 끝내려고 했는데 그냥 심심해서 집에 있는 전력량 측정기로 한번 교차검증 해봄 ==== 분명 컴퓨터에서 보여주는 전력값은 100와트 소모로 되어 있는데 실질적으로 집에 있는 전력량 측정기로 재보니 애프터버너로 전력량 50% 최대로 제한을 걸었을 때 소모 전력은 대충 기존보다 30~40와트정도 줄어든 것을 확인할 수 있었다. 아이들시 컴퓨터 본체 전체 소모전력량이 대충 60와트고 그림 뽑을때 풀로드시 본체 전력이 200와트를 소모했으니 순수 GPU 전력량은 기존 150와트에서 110~120와트로 감소한 것을 확인할 수 있었다. 성능 오버레이에서 나온 값 상당히 신뢰하고 있었는데 오차가 생각보다 크다는 것을 알 수 있었다. 장점 : 그림만 뽑으면 미친듯이 돌던 팬도 거의 소리가 안들릴 정도로 조용하게 돌고 온도도 58도로 유지됨 뭐 어찌되었든 속도 17퍼센트 포기하고 30~40와트 정도 덜 먹으니 한동안 전력제한은 유지하고 쓸 듯 " Kohya좌 ControlNet LoRA 개발중,2023-02-14,2455,21,https://arca.live/b/aiart/69750387?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3," 로라학습의 지평을연 Kohya_ss 개발자 Kohya가 신기술 ControlNet을 로라로 구현하는 방법 개발중 일단 만들긴 했는데 (왼쪽이 4장이 미적용 오른쪽 4장이 적용) 아직 효과가 미묘해서 연구가 더 필요할듯 " tied shirt 종류 연?구,2023-02-13,2096,39,https://arca.live/b/aiart/69743222?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3,"※ 이 글은 vividibimix라는 모델을 주로 사용했는데 다른 모델도 확인 결과 거의 똑같다고 판단되어 작성함 ※ (이 글에 있는 사진은 전부 vividibimix 모델임) tied shirt는 3가지로 분류할 수 있다. front tie, side tie, back tie 이다. 먼저 front tie다. 말 그대로 매듭을 셔츠 앞으로 한 경우다. 프롬은 tied shirt만 넣으면 거의 front tied 종류가 나온다. 가끔 배를 보여주지 않는데 이때 프롬에 stomach, navel를 넣으면 된다.(하나만 넣어도 됨) 가슴 골이 보고 싶다면 cleavage를 넣으면 된다. 그러면 본 사진과 같이 가슴 사이에 매듭이 묶여진다는 것을 볼 수 있다. 다음으로 side tie이다. 대각선으로 허리에 묶거나 옆구리 쪽에 묶는  tied shirt이다. 기본 골자는 프롬에 tied shirt, 네거티브에 front tie다. 하지만 navel, stomach과 같이 배와 관련된 프롬을 넣으면 위의 front tie처럼 나올 때가 있다. 그래서 프롬에 side tie, side tied shirt를 넣으면 된다. 그러면 본 사진과 같이 배를 깐 상태에서 사이드에 매듭이 위치하고 있는 것을 확인할 수 있다.(가끔 front tie처럼 묶일 때가 있음) 하지만 side tie는 단점이 있는데 바로 매듭의 위치가 랜덤이라는 것이다. 필자가 허접이라 못 찾은 걸 수도 있는데 매듭의 높이 위치를 조절할 수가 없다. 그래서 원하는 위치를 찾으려면 가챠를 해야한다. 아니면 i2i 하면 될 거 같다. - 시도를 하지 않아 명확하지 않음 마지막으로 back tie이다. 말 그대로 옷 뒤에 매듭을 묶는 거다. 이때 from behind, from back이 강제 되는데 하지 않을 경우 본 사진과 같이 제대로 보여주지도 않고 허리가 심하게 꺾이는 것을 볼 수 있다. 그 외로 back tie는 side tie와 같이 매듭의 위치를 정할 수 없다는게 문제다. 게다가 가끔 매듭이 아닌 리본으로 묶여지는 경우가 있다. 개인적으로 side tie를 좋아하는데 찾아봐도 front tied만 보이는 거 같아서 연구해봤다 ㅠ.. 섹시하고 이쁜 tied shirt를 한 번 써보는 것을 추천하는 바이다. 그럼 이상으로 본 연구를 마치고 이 긴 장문을 읽어준 분들에게 감사를 표한다. :) " 원클릭 코랩에서 투샷 확장기능 쓰기,2023-02-13,1854,24,https://arca.live/b/aiart/69734348?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3,"원랜 깃 명령어로 해보려고 했는데 빡대가리라 잘 안돼서 무식하게 수동으로 패치 적용함 1. 원클릭 코랩 실행 셀 최소 1회 실행해서 webui 레포지토리 받아오기 2. 투샷 확장기능 설치 extensions 탭 install from url에서 https://github.com/opparco/stable-diffusion-webui-two-shot 입력해서 설치하면 됨 3. 실행중인 셀 종료 (런타임 해제 x) 후 실행 셀 아래 좀비 프로세스 죽이기 셀 실행 4. 코랩 페이지 왼쪽 탭에서 파일 탐색기 열어서 repository/modules 폴더 열기 5. script_callbacks.py 파일 열어서 내용 삭제한 후, 다음 페이지 전체 복사해서 붙여넣기 후 저장 https://raw.githubusercontent.com/AUTOMATIC1111/stable-diffusion-webui/b78c5e87baaf8c88d039bf60082c3b5ae35ec4ff/modules/script_callbacks.py 6. sd_samplers_kdiffusion.py 파일 열어서 내용 삭제한 후, 다음 페이지 전체 복사해서 붙여넣기 후 저장 https://raw.githubusercontent.com/AUTOMATIC1111/stable-diffusion-webui/b78c5e87baaf8c88d039bf60082c3b5ae35ec4ff/modules/sd_samplers_kdiffusion.py 7. 실행 셀 아래 코드 표시 클릭한 후, 코드 맨 아래쪽 setup_webui() 지우거나 주석화 8. 실행 셀 실행 이렇게 하면 코랩에서 투샷 확장기능 쓸 수 있음 " 유화풍 그림을 뽑아보자,2023-02-13,1986,21,https://arca.live/b/aiart/69730949?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3,"유화풍을 너무 좋아해서 유화풍만 파고 있는데 유화풍은 oil painting 이런 태그보다 작가 태그가 직방이다. 유화풍에 제일 영향을 많이 주는 화가는 Auguste Renoir 화가임. 그리고 어비스오렌지에서 유화풍을 뽑으려면 오렌지 권장 네거인 (worst quality, low quality:1.4) 태그를 쓰면 안된다. 가중치 1.4가 문제 아마 르느와르 화풍을 품질 낮은 그림이라 생각하는 듯. 밑에 4장의 그림으로 설명하겠음. 모델은 어비스오렌지2 하드 exif를 보면 알지만 아티스트 태그를 엄청 많이 넣었음. 유화풍 특징이 많은 아티스트 태그를 잔득 넣었는데 하나만 넣은 것 보다 아티스트를 여러명 넣으면 그림체에 다 반영된다. 3번째 사진은 Auguste Renoir만 넣었는데 유화풍 느낌이 약함. 하지만 예외가 있는데 그건 밑에서 설명하겠음. 첫번째 그림은 realistic을 넣은거고 2번째처럼 빼버린거. 얼굴은 취향차이. 하지만 나는 realistic을 넣은거로 주로 뽑는다. 네번째 그림이 네거티브의 worst quality, low quality를 아에 빼버린 그림인데 완전 유화풍으로 나오게 된다. 하지만 얼굴마저 Auguste Renoir 화풍을 엄청 따라가기 때문에 추천하지 않는다. 근데 이렇게 작가 태그를 전부 다 때려박으면 밑에 그림처럼 액자가 나오거나 중년 남성이 나오거나 유화풍 그림에서 볼 수 있는 여러 소품이 나온다. 또 자세도 한계가 있다. 나는 이중에서 가챠로 그런게 나온 그림은 걸러내지만 만약 저런게 나오는게 너무 싫다 싶으면 밑에 있는 그림처럼 (Auguste Renoir:1.1) 태그 가중치를 1.1로 주고 네거티브에 worst quality, low quality를 넣어주면 유화풍 스타일만 나온다. 이렇게 나온 그림은 르느와르의 유화풍 느낌만 받아서 자세 제한도 없고 이상한 소품도 안나온다. 대신 뒤에 디테일 태그가 너무 많으면 씹힐수도? 아티스트 태그는 exif에 있으니 한번 쫙 긁어서 테스트로 뽑아보는걸 추천함. 추가로 나는 네거티브에 anime, manga, cartoon, 3d, 2d, illust, cg를 추가로 더 넣는 편인데 그렇게 나오는 그림체를 좋아함. " amd 소비전력 줄이기,2023-02-13,472,1,https://arca.live/b/aiart/69728780?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3,"본인은 6900xt 쓰는 중이다 설정 없이 그냥 사용시 아드레날린 드라이버 상 250w 이상 찍히고 콘센트 전력으론 시스템 전체 450w까지 먹더라 대충 클럭은 2000이하로(성능 저하 시작 되는 시점에서 그만 낮추면됨) 메모리 클럭은 올라가는 만큼 올리고 전력제한은 풀로 걸어두자, 전압은 이미 기본 작동 전압이 800으로 최소 치라 별도 프로그램으로 바이오스 수정 안하면 더 안 낮아 지더라 이렇게 해서 소비전력 드라이버 상 150w 대로, 콘센트 전력으론 300w까지  150w 절약 했다. 어차피 nvidia비해서 구린데 소비전력까지 많이 쓰진 말자 more power tool 까지 쓰면 더 낮출 수 있을듯? 이 방법이 채굴에서 쓰이던 거랑 거의 같은데 아마 nvidia 글카도 비슷하게 가능하지 않을까 싶음 " img2img보다 포즈 유지가 기막힌 ControlNet 모델별 설명,2023-02-13,7955,89,https://arca.live/b/aiart/69724880?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3," https://arca.live/b/aiart/68666551 https://arca.live/b/aiart/68363583 기존 img2img에서 포즈를 유지한 상태로 화풍을 바꾸기 위해 디노이징을 먹이면 포즈가 변하는 문제가 있었음 이를 해결하기 위해 Pix2Pix나 SD 2.0 Depthmap + WD1.4 병합 등의 방법이 나왔지만 여전히 한계가 있었음 디노이징을 과하게 먹이면 포즈가 변하거나, 결과물이 완벽하지 않아 다시 i2i를 돌리는 번거로움 등등 그런데 며칠전에 등장한 ControlNet을 이용하면 걍 한방에 이런 결과물을 뽑을 수 있음 기존에 사용하던 다른 모델 (오렌지, 파스텔, 애니띵 등)과 병합해도 결과물이 완벽함. 포즈 틀어지는 일이 없다. https://arca.live/b/aiart/69816884 컨트롤넷 WEBUI 설치 방법 및 사용 방법은 위 링크 참고 이 사진을 넣었을때 어떤 결과가 나오는지 보여주겠다 상단에 있는 선화같은건 부산물로 동시에 같이 나오는거임 각 모델별로 차이가 있는데 개인적으론 8, 9번 빼고 다 쓸만하다고 봄 4,5,6,7,8,9 썸네일이 이상할텐데 특수 용도로 사용하는거라 아래 내려다 보면 자세히 설명할거임 1. Pose 이 포즈 뽑아주는거 사람들이 제일 기대했을텐데 생각보다 좀 허당인 구석이 있음. 분석한 포즈를 보면 정상적으로 분석까진 했는데, 그 위치에 뭐가 들어가야 하는지 모르는 듯한 느낌 이럴 경우엔 관련 프롬을 추가해서 보강해주면 잘 뽑아준다. 2. Depth / 3. Normal 포즈 유지하는거 봐라. 예전에 WD+SD 뎁스맵하곤 비교가 안된다. Depth 같은 경우 캐릭터는 다소 뭉퉁그려서 깊이를 표현하지만, 배경 뎁스까지 계산이 되는 경향이 있다. Normal 같은 경우 배경은 무시하고 캐릭터 깊이를 Depth보다 더 깊게 계산하는 경향이 있음. 이 사진을 각각의 모드로 i2i했을때 차이를 보여주겠음 Depth같은 경우는 배경에 있는 물병이 표현됐으나, 얼굴 안쪽에 있는 안경은 증발했음 반면에 Normal같은 경우 배경에 물병이 증발했으나, 얼굴 안쪽의 안경이 표현됐음 캐릭터 표현을 중시하고, 배경을 날릴 생각이면 Normal 전체적인 모습의 Depth가 중요하면 Depth 선택하면 됨 4. HED / 5. Canny 4번이랑 5번은 일반 사진 넣으면 그림 이상하게 바뀔거임 사진->그림 변환 용도보다는 이미 완성된 그림, 또는 밑그림을 변환하는 용도로 쓰면 좋음 이 완성된 그림을 넣어서 예시를 들어보겠음 완성된 그림을 넣었을때 HED는 그림의 전체적인 틀을 깨지않고 분위기를 변경해줌 Canny는 원래 그림에 없었던 요소가 추가되는 문제가 있지만, 캐릭터 자체의 디테일만 보면 HED보다 좋은 듯함 전체 틀을 유지한체 분위기 바꿀거면 HED, 캐릭터 디테일이 중요하면 Canny로 선택하면 될듯함 그리고 Canny는 밑그림 채색 용도로 쓸 수 있는데 이 밑그림을 가지고 둘 다 돌려본 결과를 보여주겠음 Canny는 그림의 전체적인 선을 딴 이후 채색하는 느낌인데 그래서 그런지 밑그림을 넣어서 채색용도로 사용할 땐 Canny 성능이 압도적임 6. MLSD 이거도 Canny랑 비슷하게 선따고 채색하는건데 보면 알겠지만 둥글둥글한거 다 씹고 직선만 따놨다. 캐릭터에 사용하는 용도가 아님 이거 건물 인테리어랑 빌딩 그리는데 ㅅㅌㅊ임 7. SEG 이미지의 각 영역을 분석해서 그림을 만들어줌 수영장이 증발하지 않고 잘 표현되어 있는 것을 확인할 수 있음 이거도 6번과 마찬가지로 캐릭용이 아니라 배경용 8. SCRIBBLE / 9. INTERACTIVE / 10. FAKE 황천의 뒤틀린 인체를 보면 알겠지만 이거 일반적인 i2i가 아님 그림판으로 찍찍 그린 그림 넣으면 그럴싸하게 만들어주는 기능임 8번의 경우는 그림판으로 그린 그림을 넣는거고, 9번은 프로그램 내부에서 그리기 기능을 제공함 10번도 8, 9번과 개념은 동일한데 이거는 내가 넣은 그림을 AI가 임의로 낙서한 다음 결과물로 다시 뽑는거라 보면 됨 8, 9, 10번중에 10번은 가끔 쓰지 않을까 싶다. " 구름에서 두 인물 지정 확장기능(two shot diffusion port) 패치하는 법,2023-02-13,795,5,https://arca.live/b/aiart/69718445?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3,"두 인물을 각각 지정할 수 있는 확장 기능을 소개 해당 확장기능을 쓰고싶어도 구름에서 쓰고있어서 어떻게 써야할지 몰라용! 하는 사람들을 위한 글임 당연하지만 해당 확장기능이 업데이트 된다면 이 과정이 필요 없을 수 있음 https://github.com/opparco/stable-diffusion-webui-two-shot 일단 해당 확장기능이 작성된 git 링크, 해당 링크에서도 적혀있지만 git apply --ignore-whitespace extensions/stable-diffusion-webui-two-shot/cfg_denoised_callback-ea9bd9fc.patch 이 글 작성일 기준, 이거를 적용해야만 동작한다고 함, 실제로도 저 과정을 하지 않아 SDWebUI의 설정 일부를 고치지 않으면 동작하지 않는다. 근데 문제는 이거임, 로컬로 돌리는 사람이야 git을 깔고 들어갔으니 폴더에서 툭툭하면 되는데 구름에서는 이거 어찌함? 생각보다 간단하니 아래 과정을 따라가보자 1. 확장기능 설치 딱히 설명할 것도 없다. 저 탭 눌러서 해당부분에 위에도 적어둔 git 링크 그대로 넣고 설치하면 된다. 그 후에 '설치된 확장기능'에서 [적용 후 UI 재시작]을 한번 눌러준 뒤 해당 창을 그냥 끄고 주피터노트북 위에 정지를 누르자. 왜냐하면 위에서 언급된 설정 자체를 한번 수정해야하는데 이미 돌아간 상태에서는 그게 안된다. 2. (원클릭)구름 환경에서 모든걸 기본경로로 했다는 가정 하에 다음 라인을 그대로 아래 적어준다. cd SD/repository/ git apply --ignore-whitespace extensions/stable-diffusion-webui-two-shot/cfg_denoised_callback-ea9bd9fc.patch 해당 명령어 내용은 다음과 같다. cd SD/repository/ : 현재 폴더에서 SD/repository 폴더로 이동 git apply --ignore-whitespace extensions/stable-diffusion-webui-two-shot/cfg_denoised_callback-ea9bd9fc.patch : 해당 확장기능 제작자가 제작한 설정 변경 패치파일 적용 달리 말하면 원클릭구름이 아니더라도 SD WebUI가 설치된 경로에만 가서 패치를 적용하면 된다. 다만, 원클릭구름은 여기서 하나 더 해야하는데... 최근에 추가한 해당 셀에서 위와같이 False로 바꿔주고 실행하자 원클릭코랩을 베이스로 만들어졌어서 기본적으로 항상 자동좌의 최신 git으로 불러오도록 만들어져있는데 이때 위에서 한 설정이 같이 날아가버린다. 그러므로 git을 불러오지 않게 하기 위함 만약 저 셀이 없는 ipynb 파일이면 둘중 하나를 하면 된다. 1) 그냥 최신꺼로 집어넣고 돌린다. 이 경우 재수가 없으면 git파일을 제대로 인식하지 못해 해당 폴더 째로 삭제하고 다시 설치할 수 있다. ... 내가 그랬거든 시불... 그러니 이 방법을 쓸거라면 사용하는 기본적인 설정이나 모델같은걸 다른위치로 빼놓거나 폴더째로 이름을 잠시 바꿔두던지 해서 백업을 하고 하자 2) 해당 부분만 추가한다. 위쪽 옵션들 사이에 꼽사리로 OPTIONS['GIT_UPDATE'] = False 이거 하나 적당히 넣어주고 Ctrl+F 눌러서 setup_webui 부분을 찾아 아래 수정된 부분만 그대로 덮어 씌워주자 보면 알겠지만 그냥 if문에 OPTIONS['GIT_UPDATE'] == True 추가된게 끝이다. 애초에 == True도 없어도 된다만 혹시해서 저리 만듬 그러면 저렇게 Latent Couple 부분이 추가되고, 해당 설정을 적용하면 된다. 개인적으로 끄적이던 소설 삽화 투샷 써볼겸 이거 적는다고 이거 적용하는 방법(+코랩 삽질)을 정리하다보니 시간이 많이들었다 시붱 덕분에 오늘은 펑크에양! 여담으로 코랩도 이짓거리하면 될거같아서 좀 만져봤는데... 결론만 말하면 현재 코드에서는 불가능함 대충 설명하자면 현 코랩 방식은 런타임 저장공간(실행할 때에만 할당되는 공간)에 git을 받아서 구글드라이브에 있는걸 끌어와 쓰는 식으로 돌아가는데... 구글드라이브에 연동된 상태에서 확장기능을 받으면 기본적으로 구글드라이브쪽 extensions 폴더로 들어간다. 그렇다고 구드를 안쓰고 돌리면 확장기능 받아놓은게 런타임 꺼지자마자 증발한다. 그럼 구글드라이브에 들어간쪽에서 수정하면 되는거 아님? 할텐데 구드쪽에 넣는 파일들 중에 수정해야할게 들어있는 modules 폴더 내용물은 구글드라이브쪽에 저장되지 않는다. 그러니까 설정을 레포지토리에서 직접 바꾸겠어! -> 그 레포지토리 폴더에 확장기능이 없어 동작을 안함 execute(['git', 'apply', '--ignore-whitespace', '/content/repository/extensions/stable-diffusion-webui-two-shot/cfg_denoised_callback-ea9bd9fc.patch']) 이거로 실험했는데 경로문제 터지는거 확인 설정을 구글드라이브에서 바꾸겠어! -> 그 설정파일은 코랩 런타임 저장소에 있어 제작자가 설정한 경로 오류남 execute(['git', 'apply', '--ignore-whitespace', '/content/drive/MyDrive/SD/extensions/stable-diffusion-webui-two-shot/cfg_denoised_callback-ea9bd9fc.patch']) 이거로 실험했는데 경로문제 터지는거 확인 결론은 원클릭코랩 제작자분이 이거 하나때매 코드를 갈아엎는건... 솔직히 말이 안되고 저 확장기능 제작자가 저런 추가패치 수행 없이 돌아가게 코드를 수정할때까지 존버하거나 이참에 구름을... 구름을... ... 쓰면 또 구름 GPU 샤따 내릴까봐 무서우니 원클릭코랩 사용자는 그냥 기다리도록 하자 " 색감이 마음에 안든다고요? 하지만 VAE...,2023-02-13,2446,31,https://arca.live/b/aiart/69712202?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3," 모두들 VAE를 사용하세요 " 얼굴 고치는 개인적인 팁,2023-02-13,2289,20,https://arca.live/b/aiart/69711365?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3,"별거 아니지만 팁 올려봄 일단 한 장 뽑고, 얼굴 제외한 부분 i2i로 수정해주고 업스케일링 돌림 (512x768 > 768x1152 > 1536x2304) 눈이랑 표정이 좀 맘에 안드는데 이제 여기서 얼굴을 512x512 크기로 잘라서 가져옴 그리고 이 그림으로 인페인트를 돌림 나는 눈이랑 입, 머리카락 인페인트 돌렸음 (눈 돌릴 땐 40스텝 했음) P: masterpiece, close-up, aqua eyes, light smile N: (worst quality, low quality:1.4) 원래 것 보단 꽤 괜찮아짐 이제 이 그림을 다시 같은 위치에 덮어씌움 수정 끝 이 방법이 그냥 쌩으로 인페인트 돌리는 것 보다 좋다고 생각하는 점 업스케일링 전에 돌리면 픽셀 수가 적다보니까 좀 뭉개져서 나옴 업스케일링 후에 돌리면 그림이 커서 인페인트 돌리는 데에 시간이 너무 오래 걸림 업스케일링하고 얼굴 잘라내서 512x512로 돌리면 속도도 훨씬 빠르고 눈도 더 이쁘게 나옴(아마?) " webui 업데이트: fastapi 0.90.1 버전 고정,2023-02-13,697,6,https://arca.live/b/aiart/69706403?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3,"8일만의 업데이트 fastapi==0.90.1  고정. 끝 " pix2pix-zero,2023-02-13,467,8,https://arca.live/b/aiart/69704729?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3,"img2img의 새로운 기법으로 . finetuning이나 원본 이미지를 나타내는 프롬프트 없이 구도를 유지하면서 부분적으로 화상을 변환할 수 있다. 이걸 잘만 활용하면 채색 AI로 쓰는 것도 가능할지도? https://github.com/pix2pixzero/pix2pix-zero 귀하의 브라우저는 html5 video를 지원하지 않습니다. " 픽셀레이터(pixelator) 사용법 (다운링크 하단에),2023-02-13,1244,20,https://arca.live/b/aiart/69704314?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3,"요즘 간간히 픽셀그림 어케 그리는지 물어보는 사람들이 생겨서 한번 올려봄 이 앱은 픽셀레이터라는건데 걍 모든 사진을 픽셀로 바꿔주는거라고 생각하면 됨 사용법 들어가기전에 포토샵으로 수정한거 보고가줘 (자랑질) output결과 포토샵 수정 비교짤 사용법) 먼저 압축해제를 해서 폴더에 들어가면 이런게 있을꺼임 동그라미 친거 실행시키면 이런창이 뜸 (참고로 input image클릭해서 파일 넣을때는 순수하게 영어로만 된 파일이여야지 인식하더라) 기능소개 대충 기능은 이렇게 있고 내보내기는 파일 export image as 누르면 되고 다크모드는 view들어가서 설정하셈 (나도 아직 기능 전부는 안봤는데 어차피 기능 세부 들어가도 전부 문장꼴이라 번역해바도 되고 걍 실험하면서 해봐 익히는데 얼마 안걸림) (상업적 용도만 빼면 자유롭게 사용 가능하데) 결과물(시간 없어서 대충 뽑음) https://drive.google.com/file/d/1eto598TCoTIziGyowSGz6fTUkhBN0F9V/view?usp=sharing  (다운 링크) 그럼 20000 " 정말 ai그림은 저작권이 없나요?,2023-02-13,3822,24,https://arca.live/b/aiart/69696705?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3," 결론부터 말하자면,원론적인 이야기이지만 말 그대로 case by case다다만, 'AI에게'저작권이 부여되는 일은 어렵다https://news.sbs.co.kr/news/endPage.do?news_id=N1006933086이 뉴스를 보면 알 수 있다미국 저작권청에서 AI그림으로 만들어진 만화에 저작권을 부여했다는 기사해당 만화는 midjourney를 통해 생성되었고, 2022년 9월에 저작권을 인정받았다midjourney의 약관상 이미지를 생성한 유저에게 권리가 있기 때문에 가능했던 것으로 보인다그렇다면 web ui로 생성한건 어떨까? waifu diffusion등 stable diffusion 기반의 모델들은 대부분 같은 라이센스를 공유하는데, 생성된 이미지 관련 부분을 보자면Licensor claims no rights in the Output You generate using the Model. You are accountable for the Output you generate and its subsequent uses. 이러하다내 명석한 두뇌로 번역하면라이센서(모델 개발자)는 네가 생성하는 이미지에 권리를 주장하지 않는다.네가 만드는 이미지, 그리고 그걸 사용할 때의 책임은 네가 진다.라는데, 결국 ""나는 모델만 만들었고 네가 알아서 해라."" 라는 뜻그러면 이제 문제는 저작권법의 해석으로 넘어간다한국은 아직 판례도 없는데다, 다들 한국어를 잘 하는 외국인이니까? 미국의 판례들을 살펴보면'프롬프트를 작성해서 이미지를 생성한 경우'는 애매하지만직접 스케치를 해서 i2i에 넣고, 인페인팅을 하고, 포토샵을 통해 수정하는 등의 과정을 걸쳐서인간의 작업물이라는 사실을 증명할 수 있다면 저작권을 인정받을 수 있다. 그러면 또 의문이 들겠지""ai 그거 저작권 있는거 멋대로 학습한거 아님?""틀린 말은 아닌데, 크롤링해서 ai 학습시키는게 불법은 절대 아니고앞으로 ai 관련 기술을 통제해서 세계적으로 국가가 뒤쳐지고 싶은게 아니고서야 불법이 될 일도 없으니 생각할 필요 없다결론 : 프롬프트 한줄 넣고 '딸깍'한다고 네가 저작권을 가지게 되는 건 아니다하지만 ai 그림도 저작권을 인정받을 수 있다. " 깃 배쉬에 복붙하는 방법,2023-02-13,250,1,https://arca.live/b/aiart/69686005?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3,"가끔 일 꼬이면 깃배쉬 켜서 낑낑거려야할때가 있다 예를 들자면 https://arca.live/b/aiart/69616123 여기서 git apply --ignore-whitespace extensions/stable-diffusion-webui-two-shot/cfg_denoised_callback-ea9bd9fc.patch 이거를 깃배쉬창에 입력해야한다거나 할때 깃배쉬를 먼저 킨 다음 깃배쉬에 복붙할 것을 영역설정한 상태에서 컨트롤 + 인절트를 누르면 복사 쉬프트 + 인절트 누르면 붙이기임 깃배쉬만 복붙키가 다르다더라 " '진한 눈' 프롬 완성,2023-02-13,2739,24,https://arca.live/b/aiart/69678114?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3,"진한 눈?이라고 하긴 좀 뭐하고 강렬한 인상 정도로 정의하겠음 ㅇㅇ눈이 땡글땡글하고 눈썹이 진한게 포인트https://arca.live/b/aiart/69547314?target=all&keyword=mixpro&p=1이거보고 눈이 참 인상깊어서, 다른데도 적용가능하도록 다듬어봤음...(내가 만들어낸거 아님. 이걸 수정한거임)best quality, masterpiece,(solo), extremely Detailed CG, (extremely beautiful), best quality, high quality, dynamic angle, (masterpiece:1.2), (eyelashes:1.2), (dark eyelashes:1.1), (eyeliner:1.2), (대충 눈깔색임:1.2), (big eyes:1.2), blush, (wet:1.2), (sweat:1.2), (aroused:1.3), shy, (hopeless:1.05),여기까지 하면 인상이 완성되고(huge breasts:1.4), narrow waist, (skinny stomach), (wide hips:1.3), (thick thigh:1.2), (short body:1.1), (steaming body), 이거 넣으면 빅젖됨. 넣는건 자기맘MixproV3에서 최적화시킨거라 다른 모델에도 먹는진 모르겠음샘플링스텝 50, cfg 5일때 제 성능을 발휘함 일단 예시이미지(앞에 몇개는 실수로 파스텔:1로 했음) (좀 흐리멍텅하다 싶으면 눈색 앞에 deep이나 dark 붙히는거 추천) (이 아래부터 파스텔:0.5) (빨강이 제일 잘나옴 ㅇㅇ) blush, wet, sweat, aroused를 빼도 됨개인적으로 촉촉한 눈 만들어줘서 넣는 편인데, 야한 쪽으로 넘어갈 가능성이 있어서... 빼면 이렇게됨. 정상적으로 작동함 날카로운 눈매 << 이런거 넣으면 어떻게되는지 추가할랬는데, 코랩 할당량 다써버렸네다음에 계속...? " WD 1.5 Beta 릴리즈.,2023-02-13,2286,34,https://arca.live/b/aiart/69677259?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3," https://huggingface.co/waifu-diffusion/wd-1-5-beta 허깅페이스 링크 https://cafeai.notion.site/WD-1-5-Beta-Release-Notes-967d3a5ece054d07bb02cba02e8199b7 WD 1.5 Beta 릴리즈.노트 https://cafeai.notion.site/WD-1-5-Beta-Examples-d9417e2f1f064437996b581f361e7ef3 WD 1.5 Beta 예제 이미지 * WD의 독자적인 미적 점수 판정 도입, 이를 통해 NAI보다 인간의 취향에 가까운 것으로 수렴. https://github.com/christophschuhmann/improved-aesthetic-predictor * WD1.5 Beta 시점의 데이터는 800만장 1.2epoch. 최종적으로는 1050만장+추가 10만장(동물사진)+추가 예정(애니메이션 스샷) 원래는 1500만장 이상 학습될 예정이었으나, 그러지 않은 이유는 위의 미적 점수를 사용하여 데이터세트를 정리하였기 때문임. * 학습은 SD2.1 768 모델을 베이스로 삼아, 896×896을 기본 해상도로 하여 이와 같은 동일한 면적을 가진 32패턴 정도의 종횡비로 학습을 진행. 이러한 학습을 통하여 hires fix에 강점을 지님. 모델을 사용해본 사람의 말로는 hires 3배로 업스케일링을 진행해도 이미지가 거의 깨지지 않는다고 함. * 태그 캡션과 미적 스코어 판정은 현재 WD 1.5 Beta 전체의 30%밖에 처리되지 않음. 태그 캡션은 WD1.4 Tagger + BLIP 계열의 자연어에 의한 캡션 처리 형식. BLIP-1의 정밀도가 낮기에 BLIP-2에 의한 캡션 처리로 전환 (WD 1.5 Beta 시점에서는 전체 데이터 세트의 1/8에만 도입.) * epoch4로 완성 예정...? 일 수도 있음. * 이 모델을 사용할 거라면 릴리즈 노트를 꼼꼼하게 읽고 사용해주기 바람. 기존 모델과는 다르게 프롬프트를 새롭게 구축해야 함. 이 밑은 WD 1.5로 작업된 AI 이미지. 굉장히 폭넓은 화풍과 함께 실사의 영역도 커버할 수 있음. " 라데온 암등이들 희망회로 켠다,2023-02-13,555,5,https://arca.live/b/aiart/69675326?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3," ROCm 윈도우 버전 확정 추후 지원예정 " 포토샵으로 색 강렬하게 만드는 방법,2023-02-13,379,7,https://arca.live/b/aiart/69670624?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3,"한글판 기준이에요 강좌 얼마 못써봐서 많이 이상할 수도 있어요 잘못된 부분이나 이해가 안되는 부분은 피드백해주시면 감사하겠습니다 전 후 사진을 먼저 불러와요 아래와 같이 그라디언트 맵을 선택해요 아마 이런 창이 뜰거에요 왼쪽과 오른쪽에 각각 원하시는 색상을 선택해줘요 왼쪽은 어두운색, 오른쪽은 밝은색으로 하는걸 추천드려요 대충 선택한 색들로 채워질거에요 위에서 블렌딩 모드(표준으로 되어있는 거요)를 오버레이로 바꿔요 색이 더 강렬해질거에요 너무 심하다 싶으면 옆에 칠이라고 적힌걸 조정해봐요 " merge block weighted 표 내가 볼라고 정리,2023-02-12,997,28,https://arca.live/b/aiart/69659928?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3,"https://arca.live/b/aiartreal/69615218?p=1  <--이글에 있는 시트를 화면에 대입해서 대충 만듬. 더 보기 어려우면 미안. " xyz(x/y/z) plot 을 이용한 LoRA 결과물 쉽게 비교하기,2023-02-12,1837,34,https://arca.live/b/aiart/69659454?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3,"준비물 - 여러 epoch 동안 학습된 LoRA 파일들 - WebUI --------------------------------------------시작-------------------------------------------- 테스트할 모델 및 LoRA에 맞게 트리거 단어를 작성하고 를 프롬프트로 넣어두고 000001 : 은 LoRA epoch 구분번호, 시작 weight를 난 0.1부터 보기 위해서 설정했음 x/y/z plot 기능으로 넘어간다 x축과 y축에 프롬프트 스타일 변경을 선택하고 x축엔 아까 설정해놨던 LoRA weight 0.1부터 1.0까지 또는 원하는 weight들을 넣어준다 y축엔 epoch 구분 번호 시작부터 테스트 할 LoRA epoch 구분번호들을 차례로 넣어준다 000001, 000002, --- z축에는 다양한 상황에서 짤을 보기 위해 적당한 시드를 넣는다 밑에 체크박스는 범례 그리기 하나만 체크하고, Grid magins는 적당히 1~4정도로 보기 좋게 해놓고 generate하면 끝 그러면 이렇게 epoch-weight 비교가 된다 끝. " 전력제한으로 전기세를 아껴보자,2023-02-12,806,7,https://arca.live/b/aiart/69659449?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3,"컴맹인데 이런 정보글이 없길래 하나 남겨봅니다. 잘 모르니 틀린거 있으면 언제나 지적 부탁드립니다. msi 에프터버너를 설치한다. : https://www.msi.com/Landing/afterburner/graphics-cards msi프로그램인데 타사 글카에도 호환되는 갓 프로그램제작자가 제작 중단 선언을 했다는 이야기가 있어서 나중에는 다른 프로그램을 사용해야 할 수도 있습니다. 1번 왼쪽에 있는 볼티지 커브 클럭 같은건 잘못 건드리면 글카가 죽어버릴수 있으니 모르면 안 건드리는게 좋습니다. 전 죽여봤어요... 1번 메뉴의 power Limit을 조정해서 그래픽카드의 최대 사용전력을 제어한다. 수치는 본인이 알아서 조절해야 하는데 보통 80근처에서 본인 글카에 맞는 수치를 찾아야합니다. 수치를 건들고 2번 메뉴의 체크박스를 누르면 그래픽카드에 적용! 게임 할 때는 3번 메뉴를 클릭하면 다시 원래대로 돌아가니까 되돌리고 하면 됩니다. 제로팬 글카를 사용하면 저거 켜져있는거 만으로도 팬이 돌아가니까 평소에는 끄고 사용하면 됩니다. 4090기준 100%때랑 70%때랑은 최종 시간차이 몇분 안나게 돌아가고 있습니다. 아까 60% 걸고 하니까 돌아가다 오류떠서 멈춰버려서 70%걸고 돌리고있는데 1시간 동안 문제없이 잘 돌아가고 있네요. 최대 전력소비 기준 430w -> 330w까지 떨어져있는데 정확한 소비량 차이는 측정안해봐서 모르겠지만 100w 기준 24시간이면 한달에 72kwh 누진구간 중간에 걸치신분들은 전기세 많이 차이나실수도 있을거 같아서 글 남깁니다! " 색깔 영어 이름 리스트,2023-02-12,253,3,https://arca.live/b/aiart/69655367?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3,"옷 색깔 같은거 지정할 때 참고용 https://www.color-meanings.com/list-of-colors-names-hex-codes/ 구글에서 color names 로 검색해도 많이 나온다 짙은 파랑을 ""dark blue"" 라고 했더니 잘 안되길래 indigo 나 navy 로 바꾸니 잘 됐었음 SD 때문에 영어 공부를 다시 하고 있음 ㅋㅋ " "GIMP 툴 필터 ""단순선형 반복 군집화"" 기능 활용법",2023-02-12,357,4,https://arca.live/b/aiart/69650646?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3," 실사 이미지 금지라 기능에 대해서만 설명함. GIMP 툴에서 필터 > 예술 > 단순선형 반복 군집화 필터 선택 설정값은 적당히 낮게 줌 그럼 이미지가 이렇게 도트화 되는데 여기서부터 편집을 하면 형태를 변경하기에 아주 쉬워짐. 적당히 색조를 바꿔주고 복잡한 부분은 외각선을 넣어줘서 i2i 러프 이미지를 만든다고 생각하면 됨. 그리고 나서 i2i에서 노이즈를 0.5~0.7 정도 먹여주고 돌려 보면 아주 잘 나올 거임 " 이게 되네 파일 드래그 앤 드랍으로 prompt 불러오기,2023-02-12,2195,58,https://arca.live/b/aiart/69648976?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3," 설마 나혼자 몰랐음? " 127.0.0.1 안들어가지는거 너무 쉽게 해결함,2023-02-12,662,5,https://arca.live/b/aiart/69646839?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3,"https://arca.live/b/aiart/69309717?target=all&keyword=exif+%EB%B7%B0%EC%96%B4&p=1 가이드따라서 원클릭 설치할 때 127.0.0.1 안들어가지는 상황이 생김 사이트에 연결할 수 없음 이라며 빡치게 함 --> 원클릭 설치시 생성된 파일중에 cache\virtualenv\Lib\site-packages 에서 fastpi, fastpi-0.9xxx 일때 생기는 버그임 그걸 낮은버전으로 덮어쓰기 해버리면 127.0.0.1 바로 들어가 짐 https://arca.live/b/aiart/69516260/320496250#c_320496250 이 분이 잘 설명해주셨음 ㅇㅇ " 프리웨어 툴 GIMP로 개빡치는 색 침범 케이크 먹듯이 고치는 법,2023-02-12,269,5,https://arca.live/b/aiart/69646588?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3," 색을 바꿀 부분을 올가미 툴로 선택해줌 컨트롤 + C 한 다음에 편집 > 붙여넣기 고급 > 새 레이어 선택 복사한 레이어 선택하고 색 > 색상화 여기서 색을 조정해서 바꿔주면 되는데 힘들게 손으로 맞출 거 없이 스포이드 선택하여 주변 색을 찝어주먼 된다 이제 이부분만 적당히 인페인트 돌려주면 끝 " KDiffusionSampler 에러 해결법,2023-02-12,228,4,https://arca.live/b/aiart/69644642?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3," webui 업뎃후 이렇게 KDiffusionSampler 에러 뜨는 경우 있을거임 해결책은..  ' Hypernetwork-Monkeypatch-Extension ' 확장기능 삭제하고 (extension 폴더 들어가서 아예 삭제해야함) webui 재시작 해주면 이미지 생성하는데 문제 없을거임 " 가끔 워링 때문에 태그 자동완성 안될때,2023-02-12,187,0,https://arca.live/b/aiart/69640081?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3,"https://github.com/ValdikSS/GoodbyeDPI/releases 이거 다운 받아서 키면됨 이거 키면 일단 워링은 우호 ㅣ다됨 절대로 방금 내가 기껏 2명 뽑기 하다가 꼬여서 좆되봤기 때문이 아님 압축해제해서 애니 카운트리 CMD 키면 됨 러시아에서 토르 쓰자니 거시기 해서 만들었다는 썰이 있음 " 엔비디아 스튜디오 드라이버 vs 게임레디 드라이버 성능 차이?,2023-02-12,319,0,https://arca.live/b/aiart/69639990?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3," 드라이버 업데이트 겸 해본 테스트 " 동물귀캐릭 사람귀 나오는거랑 싸운 후기,2023-02-12,307,0,https://arca.live/b/aiart/69639613?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3," 사람귀 안나오게 하고싶은데 포니테일은 못버려서 깎은 프롬이랑 네거걍 다 때려박은거라 뭐가 효과좋은지는 모름귀없어지는 타율이 확 올라간건 extra ears, pointed ears프롬(bear ears:1.4), (she have only two bear ears:1.4), (she don't have extra ears except bear ears:1.4)네거(elf:1.4), (high elf:1.4), (elf ears:2.0), (human ears:2.0), (extra ears:2.0), (goblin ears : 2.0), (pointy ears:2.0),네거 1.4는 너무올리면 그림터져서그냥 ears태그는 좀 올려도 크게문제없는듯 " 사례로 보는 - ChatGPT로 짤 뽑아내는 법,2023-02-12,3011,29,https://arca.live/b/aiart/69639171?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3,"준비물 : https://chat.openai.com/chat https://papago.naver.com/ 그리고 당연히 http://127.0.0.1:7860/ 사진에 등장할 한국 여성에 대해 자세히 설명해 줘. 쉼표로 기능을 구분하는 간단한 프롬프트 형식이야. 이것은 스테이블 디퓨전이라는 그림 그리는 ai에 입력될 거야. 직업, 의상, 포즈, 화면, 촬영 정보 등에 대한 설명이 있어야 함. 예를 들면 이런 거임 : 'Korea, reading books, sitting in wooden chairs, office, 4k, masterpiece, photo, top quality, canon 5d mark, movie lighting' Please describe in detail the Korean woman who will appear in the picture. A simple prompt format that distinguishes features with commas. This will be entered in the drawing ai called stable diffusion. There should be a description of the job, costume, pose, screen, and filming information. Here's an example. 'Korea, reading books, sitting in wooden chairs, office, 4k, masterpiece, photo, top quality, canon 5d mark, movie lighting' 한국여자, 아티스트, 컬러풀한그림이 그려진 덧옷을 입고, 페인트브러시를 들고, 스튜디오, 4K, 예술문화다큐멘터리, 스틸포토, 고해상도, 니콘Z7II,자연조명. Korean woman, Artist, wearing a colorful painting smock, holding a paintbrush, studio, 4K, arts and culture documentary, still photo, high resolution, Nikon Z7 II, natural lighting. 좀더 자세히 얘기해줘 more detail 한국인 여성 아티스트는 페인트가 튀는 화려한 그림스모크를 입고 물감이 살짝 묻어있는 붓을 들고 미술실 이젤 앞에 서서 고해상도의 스틸 사진으로 캡처한 4K 해상도의 문화다큐멘터리에서 자연광이 적용된 니콘 Z7 II 카메라를 이용해 촬영했다그녀의 예술 작품의 질감과 색을 조명한다. 그녀는 그녀의 완성되지 않은 그림들에 둘러싸여 그녀의 캔버스를 집중적으로 바라보며 집중적인 포즈를 취하고 있으며, 그녀의 열정과 창의성을 보여준다. Korean woman, Artist, wearing a colorful painting smock covered in paint splatters, holding a paintbrush with a hint of paint on it, standing in front of an easel in her art studio, 4K resolution, appearing in an arts and culture documentary, captured as a still photo with high resolution, shot using a Nikon Z7 II camera with natural lighting to highlight the textures and colors of her artwork. She is in a focused pose, looking intently at her canvas, surrounded by her finished and unfinished paintings, showcasing her passion and creativity. 좋았어 이걸로 뽑아볼까? 올ㅋㅋㅋㅋㅋ 타율도 꽤 괜찮은듯 다른것도 좀 읊어봐라 Another case? 한국인 여성 셰프는 전통적인 백인 셰프의 재킷과 검은색 바지를 입고, 키가 큰 셰프의 모자를 머리에 쓰고, 번화한 주방에서 정성껏 맛있는 한식을 준비하고 있었다. 이 장면은 놀라운 4K 해상도로 포착되어 그녀가 작업하고 있는 재료의 생생한 색상과 질감을 보여준다. 그녀는 한국 음식의 전통적인 맛과 기술을 보여주면서 요리 쇼에 출연하고 있다. 이 스틸 사진은 소니 알파 A7R IV 카메라를 사용하여 전문적으로 촬영된 고해상도 사진이며, 머리 위 조명은 그녀의 집중된 표정과 요리의 복잡한 준비를 강조합니다. 그녀는 자신의 움직임에 집중하고 자신감이 넘치며 맛있는 한 입 한 입을 만드는 열정과 기술을 구체화한다. Korean woman, Chef, wearing a traditional white chef's jacket and black pants, with a tall chef's hat perched on her head, meticulously preparing a delicious Korean dish in a bustling kitchen. The scene is captured in stunning 4K resolution, showcasing the vibrant colors and textures of the ingredients she is working with. She is appearing in a cooking show, showcasing the traditional flavors and techniques of Korean cuisine. The still photo is of high resolution, expertly captured using a Sony Alpha A7R IV camera, with overhead lighting highlighting her focused expression and the intricate preparation of the dish. She is focused and confident in her movements, embodying the passion and skill that goes into creating each and every delicious bite. 엌ㅋㅋㅋㅋㅋㅋ 참고로 번역은 파파고로 했음. 생각해보니 짤 하나 뽑는데 AI가 총 3개나 동원되네. 파파고-> ChatGPT ->Stable Diffusion 좋은 세상인지 무서운 세상인지 모르겠다. " 이 시발 인페인트 고장난거 고치는법,2023-02-12,763,5,https://arca.live/b/aiart/69629385?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3,"로컬 WebUI 0.66.2 기준 인페인트 해도 아무반응없고 CMD창에서는 Error completing request Arguments: ('task(flvevu5v8xucrv8)', 2, 'looking at viewer,small breasts, light brown hair, short hair, brown eyes, 1girl, dress', '(bad_prompt:0.6), lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name', [], , None, {'image': , 'mask': }, None, None, None, None, 20, 0, 4, 0, 0, False, False, 1, 1, 9, 1.5, 0.75, -1.0, -1.0, 0, 0, 0, False, 768, 512, 0, 1, 32, 0, '', '', '', [], 0, '
    \n
  • CFG Scale should be 2 or lower.
  • \n
\n', True, True, '', '', True, 50, True, 1, 0, False, 4, 1, '

Recommended settings: Sampling Steps: 80-100, Sampler: Euler a, Denoising strength: 0.8

', 128, 8, ['left', 'right', 'up', 'down'], 1, 0.05, 128, 4, 0, ['left', 'right', 'up', 'down'], False, False, 'positive', 'comma', 0, False, False, '', '

Will upscale the image by the selected scale factor; use width and height sliders to set tile size

', 64, 0, 2, 1, '', 0, '', 0, '', True, False, False, False, 0) {} Traceback (most recent call last): File ""-stable-diffusion-webui\modules\call_queue.py"", line 56, in f res = list(func(*args, **kwargs)) File ""-\stable-diffusion-webui\modules\call_queue.py"", line 37, in f res = func(*args, **kwargs) File ""-\stable-diffusion-webui\modules\img2img.py"", line 169, in img2img processed = process_images(p) File ""-\stable-diffusion-webui\modules\processing.py"", line 486, in process_images res = process_images_inner(p) File ""-\stable-diffusion-webui\modules\processing.py"", line 579, in process_images_inner p.init(p.all_prompts, p.all_seeds, p.all_subseeds) File ""-\stable-diffusion-webui\modules\processing.py"", line 949, in init mask = mask.crop(crop_region) File ""-\stable-diffusion-webui\venv\lib\site-packages\PIL\Image.py"", line 1228, in crop raise ValueError(msg) ValueError: Coordinate 'right' is less than 'left' 이딴 에러만 쳐뱉고 Whole picture로 했을때 무반응 Only masked로 했을 땐 검은 김만 쳐 뱉는 오류때문에 인페인트를 못해서 개빡쳐있었는데 이 좆같은 duckduckgo 확장프로그램 이 새끼 때문이었음 확장프로그램 제거하니까 바로 인페인트 됨 결론 : 왠진 모르겠는데 브라우저 확장프로그램도 간섭을 한다. 오류가 난다면 쓸데없는거 지워보자. 근데 이질문 하나도 안올라온거보면 덕덕고 쓰는사람 없나보네 ㅋㅋ " OpenAI 개새끼,2023-02-12,3696,36,https://arca.live/b/aiart/69626049?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3," OpenAI 가 인공지능의 민간 이용 제한안 만듬 Executive Summary, Table 2: Summary of Example Mitigations- Governments Impose Restrictions on Data Collection (정부의 데이터셋 수집 제한)- Governments Impose Access Controls on AI Hardware (정부의 AI 관련 하드웨어 판매/구매 제한)- Platforms Require “Proof of Personhood” to Post (AI로 생성한 컨텐츠 작성을 위한 신분 인증) https://arxiv.org/pdf/2301.04246.pdf " "이거 모델 뭐 썼음? 알려""줘""",2023-02-12,3716,37,https://arca.live/b/aiart/69624379?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3,"최근에 올라왔던 모델명 켜기 캠페인 https://arca.live/b/aiart/69502361 위 글 대로 WebUI를 설정하고 EXIF 켠 상태에서 짤을 올리면 사진 속에 모델 명이 그대로 남은 채로 저장이 된다. 하지만 안 켜면 해쉬값만 남게 되는데, 이 해쉬값만으로 모델 찾는법을 알아보자 https://arca.live/b/aiart/69493726 위 사진의 EXIF를 보면 여기서 Model에 영어와 숫자만 써져있는게 보인다 저게 바로 모델의 ""해쉬""값이다 그냥 간단하게 모델의 고유번호라고 생각하면 편함 다른 모델끼리 겹칠 수가 없는 그런거임 ??? : 그래서 저거 갖고 모델을 어케 찾음? 구글에 저 해쉬값을 쳐보자 그.. 제목이 좀 그렇긴 한데 짜잔, 이 모델은 AbyssOrangeMix2 하드 였습니다~ 보통 오렌지믹스나 카운터핏, 파스텔믹스 등 인지도가 높은 모델들은 저렇게 해쉬값을 구글에 쳐보기만 해도 뭔 모델인지 나오는 경우가 많음 개인 병합 모델이나 인지도가 없는 모델은 유감, 제작자한테 물어보는 방법 말곤 없음 " """으악! 또 터졌다! 코랩!"" 체크리스트",2023-02-12,3731,39,https://arca.live/b/aiart/69623373?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3," 사용하려는 모델의 용량이 7GB 이상인지? 구글 코랩의 메모리(RAM) 제한으로 인해 너무 큰 모델은 불러올 수 없음 7GB 이상의 모델은 추가 학습에 필요한 EMA 라는 정보를 포함하고 있는데 생성만 할 때는 필요없는 정보라 날려버려도 결과에 큰 지장을 주지 않음 그러니까 파일 이름 끝에 pruned 또는 fp16 이 붙은 2GB 또는 4-5GB 모델을 사용하자 만약 없다면 개인 컴퓨터(로컬)로 직접 모델을 변환해야할 필요가 있음 그래픽카드 없는 똥컴에서도 충분히 변환할 수 있으니까 아래 글 따라서 변환해보자 https://arca.live/b/aiart/69024846 잦은 VAE 교체 위와 동일한 문제로 기존 VAE 는 메모리에서 날린 뒤에 새로운 VAE 를 불러와야 메모리가 터지지 않는데 2주 전쯤 개병신 구글이 코랩 씹창낸 뒤로 가비지 컬렉터가 정상적으로 동작하질 않고 있음 VAE 를 한 번 교체하면 메모리를 약 800mb 사용하게 되는데 2-3번만 교체해도 터질 가능성이 매우 높아짐 VAE 를 바꾸고 싶다면 모델도 아무거로나 변경해서 프로세스가 초기화시켜 메모리 강종을 방지하자 LoRA 500배 로라 모델도 4-8mb 하지만 dimm 크게 잡은 놈들은 128mb 까지 올라가서 메모리 많이 차지함 체크포인트마냥 줄일 방법도 없어서 답이 없음, 꼭 필요한 로라만 걸러내고 사용하자 모델 병합, 변환 등 높은 메모리를 요구하는 작업은 금물 그냥 못해, 못 한다면 못하는거야... 하려고 하지마 병합이랑 변환은 글카 없는 똥컴에서도 실행할 수 있으니까 집컴으로 돌려 커스텀 코랩...? 내가 만든 원클릭 코랩의 저작권은 퍼블릭 도메인으로 묻고 따질 필요 없이 복붙해가다 원하는만큼 수정하고 재배포해도 상관 없음 다만... 그렇게 수정된 '커스텀 코랩' 을 사용하고 싶으면 수정한 그 사람한테 질문해주라 원클릭 코랩 쓰다가 문제 생겨서 곤란해 하는 챈붕이들 도와주는 것도 힘든데 다른 사람이 수정한 코드는 손도 못대겠어 참고로 원클릭 코랩의 원본, 지속적으로 업데이트하는 노트북은 이거임 https://colab.research.google.com/drive/1nBaePtwcW_ds7OQdFebcxB91n_aORQY5 '갑자기 안됨 코랩 요즘 병신인듯' 갑자기 안되는 이유가 뭘까? 나도 궁금함... 나도 궁금해서 머리 쥐어뜯다 풍차돌려본게 한 두번이 아님 질문 탭에 글 올릴 때는 구글 드라이브 SD/logs 경로에 있는 로그 파일도 같이 첨부해주라 너가 뭘 하다 그렇게 됐는지 내가 어떻게 알고 도와줄 수 있겠음?? 좆목 논란 터질까봐 주소는 직접 못 올리는데 질문 탭에 올려두고 세월아 네월아~ 기다리지말고 코랩 상단에 있는 서포트 주소 들어와서 올려주셈 밥 한 큰술 크게 떠서 입에 넣어줄 순 있는데 적어도 식당까진 직접 걸어와야하지 않겠음? 1회용 계정이라도 만들고 와서 질문 찍 싸고만 가셈, 깃허브 이슈 탭은 알려줘도 보1지도 쓰지도 않을거잖아 내가 채널 질문 탭 알림 켜둘 이유도, 직접 검색할 이유는 없는듯 " 런포드 web ui설정 이제 필요없습니다,2023-02-12,360,0,https://arca.live/b/aiart/69622554?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3,"이제 런포드자체에서 웹ui 1.5, 2.1 지원해서 실행시키고한 1분뒤? https 3000 누르면 알아서 켜짐 " 투샷 확장으로 세 명 그리기 + 추가 설명,2023-02-12,2462,44,https://arca.live/b/aiart/69619746?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3,"오전에는 나도 아직 다양하게 써보지 않았기에 뭉뚱그려 넘어간 부분들에 대한 설명을 세 명 그리기를 예시로 설명해봄. 3boys, holding hands, outdoors AND 3girls, holding hands, toned, crop top, shorts, short hair, jewelry, blonde hair, dark skin, outdoors AND 3boys, male focus, holding hands, gakuran, outdoors AND 3girls, holding hands, school uniform, large breasts, long hair, black hair, outdoors Latent Couple: ""divisions=1:1,1:3,1:3,1:3 positions=0:0,0:0,0:1,0:2 weights=0.2,0.8,0.8,0.8 end at step=20"" 프롬프트와 확장 설정. 프롬프트대로 금발크롭탑녀, 가쿠란남, 흑발교복녀가 손을 잡고 있다. 첫줄에 3boys를 넣은 것은 남자가 여자되는 것은 쉽고, 여자가 남자되는 것은 어려운 AI 모델 특성상, 다른 것을 넣으면 남자가 나오지 않기 때문에 넣은 것. 여자만 그릴 때에는 그냥 3girls를 쓰면 된다. 그냥 3명 그리려면 위의 설정대로만 하면 됨. 응용을 위해서 아래의 이해가 필요하다. 일단 이 확장의 기본 설정은 두 사람 그리기에 알맞게 2분할로 되어 있다. 물론 세 명을 그리려면 이걸 3분할해야 한다. 그러므로 이제부터 각 항목의 숫자 갯수는 전체+2분할이었던 3개에서 전체+3분할로 총 4개여야 한다. divisions 값은 화면이 몇 개로 나누어지는 지에 대한 값이다. 원래는 1:1,1:2,1:2로 되어 있을 것이다. 앞숫자는 세로, 뒷수자는 가로가 몇개로 나누어져 있는지룰 뜻한다. 즉 원래의 숫자는, 전체, 가로 2개 분할, 가로 2개 분할을 뜻한다. 이것을 1:1,1:3,1:3,1:3로 바꾸면 전체, 가로 3개 분할*3이 된다. positions 값은 위치를 뜻한다. 원래 값인 0:0,0:0,0:1는 전체(세로0번째, 가로0번째), 가로0번째, 가로1번째를 뜻한다. 이제 가로2번째를 추가한다. (즉 0:0,0:0,0:1,0:2) weights 값은 각 숫자에 대한 가중치다. 원래 값은 0.2,0.8,0.8인데, 0.8을 하나 더 추가한다. (즉 0.2,0.8,0.8,0.8). 숫자는 필요에 의해 수정 가능. 이를 토대로 4분할도 가능하고, 세로로도 분할 가능하므로 응용은 하기 나름일 듯. 아래는 세 명 그리기 B컷들. " [데이터주의]두 인물 지정 확장기능(two shot diffusion port) 패치하는 법,2023-02-12,3091,68,https://arca.live/b/aiart/69616123?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=3,"선요약: stable-diffusion-webui 폴더를 오른쪽 클릭 -> Git Bash Here 클릭 -> git apply --ignore-whitespace extensions/stable-diffusion-webui-two-shot/cfg_denoised_callback-ea9bd9fc.patch를 침->엔터누르고 창 닫으면 됨 ------------------------------------------------------------------------------- 두 명 이상 그릴 때, 각각의 의상이나 신체 조건을 설정할 수 있는 기능을 어떤 분께서 만드셔서, 그걸 어떤 착한 게이가 챈에 소개 해줌 두 인물을 각각 지정할 수 있는 확장 기능을 소개 - AI그림 채널 (arca.live) 근데 보고 생각 외로 패치하는 법이 기억이 안 나서 해매게 되더라 만약 확장기능에서 URL 붙여넣기 설치했는데도, 화면에서 Latent Couple이 안 나오는 사람은 따라 해보셈 올바르게 설치되었을 때 표시되어야 할 화면 예시) 1. stable diffusion webui가 설치된 폴더가 있는 곳으로 간다 2. stable diffusion webui가 설치된 폴더를 오른쪽 클릭 3. 그럼 이런 창이 뜰 거임 (WEB UI를 설치하는 과정에서 git 저거 설치했으니 뜰 거야) Git Bash Here를 눌러주자 4. 그럼 이게 뜰 거임 git apply --ignore-whitespace extensions/stable-diffusion-webui-two-shot/cfg_denoised_callback-ea9bd9fc.patch 를 쳐줌 이상하게 Ctrl c v가 안 먹혀서 난 킹쩔 수 없이 원시인마냥 손으로 쳐야 했다 나같은 케이스라면, 오타 안 내게 조심하셈 아래는 저거 제대로 설치된 후에 만든 2인 이상의 그림 예시임 모델 : highrisemix_v2 긍정프롬프트 (pixiv anime:1.3), (masterpiece:1.3), (best quality:1.2), (excellent quality, extremely detailed, bishoujo), (((focus whole body, looking at viewer))), in balcony, ((ocean)), city, night, ((colorful fireworks)), cityscape, skyscraper, (2girls), finely detailed face, colorful, best ratio four finger and one thumb, shiny eyes, sharp eyes, shiny hair, (huge breasts AND 2girls), (blonde hair, absurdly long hair, high ponytail), white skin, (black plugsuit), hacker, blue eyes, white pupils, bright pupils, pointy ears, (standing AND 2girls), (robot ears, humanoid robot), (victorian maid), (maid apron, long skirt, long sleeves, white wrist cuffs, white gloves), pale skin, (grey silver hair), (single braid, braided bun), (short hair), red eyes, ((curtsey)) 부정프롬프트(임베딩으로 easynegative 썼음) EasyNegative, (worst quality:1.4), (low quality:1.4),(censored:1.2), lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name, (animal ears) step : 20~150(처음에 제대로 설치된 줄 알아서 이것저것 해보면서 건드리다 좀 다양해짐 제대로 적용되기 전에 만든 그림들 제대로 적용한 후에 만든 그림(step : 30) 보면 알겠지만, 의상 프롬프트 같은 게 섞이는 타율이 확연히 좋아졌다 2명 이상 그릴 생각이라면 이거 꼭 써보셈 " ai 트래킹 사이트로 망한 그림 건지기,2023-02-12,3159,48,https://arca.live/b/aiart/69615991?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4," https://www.youtube.com/watch?v=9oVfWFgt6BM 갑자기 알고리즘에 이런 영상이 떴음 요약하자면 사이트 들어가서 카메라를 키고 있으면 ai가 핸드 트래킹을 해준다는 거임 손가락 개박살난 그림들을 쉽게 수정할 수 있음 아래 사이트로 들어가면 됨 데모라서 언제 없어질지는 모름 수상하다 싶은 사람은 유튜브 영상 설명란 확인 ㄱㄱ 바이러스 검사 돌려봤는데 일단 바이러스 없었음 모바일도 되는데 렉이 너무 심해서 비추 https://rdtr01.xl.digital/ 아무튼 그림 한장 냅다 뽑았음 효과 보려고 프롬프트에 일부러 bad hands 집어넣음 어려운걸 따로 시킨건 아니라 그렇게 개박살나진 않은듯 이제 트래킹을 해보자 옆에 사진 띄워놓고 한손씩 따라하면 됨 주의해야할 점이 트래킹 사이트다보니 손과 얼굴이 촬영된다는 거임 물론 권한 허용할 때만 촬영 가능임 찝찝하면 마스크, 선글라스 끼고 하자 한손씩 프린트스크린 버튼으로 캡쳐함 이걸 편집해서 이렇게 만듦 누끼, 잡티는 인공지능이 적당히 해주니까 마우스 클릭질만 하면됨 크기 조절하고 색감 만져주고 이미 있던 손 지우고 손목 끊어진 부분은 블러처리하면 끝 이제 이걸 집어넣으면 됨 성공! 손톱이 좀 거슬려서 더 손보려고 했는데 그럴 시간에 빨리 공유함 좋은 정보는 다같이 봅시다 " merge block weighted 정보 공유한다.,2023-02-12,2187,23,https://arca.live/b/aiart/69615136?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4," novel ai 위키에 보니까 그 nai 쓰는 애들이 novel ai 가지고 merge block weighted 병합 실험에 해놓은 게 있어서, 기존에 아카라이브에 있던 글이랑 함께 해서, 대충 그 자료들 정리해봄. 요건 걔네들이 각 영역별 레이어 0으로 맞췄을 때 그림 변경된 것들 정리한 거 요건 in00-05/in06-11/out00-05/out06-11 영역으로 4등분해서 각 영역을 전체 0/1로 분배해서 1000/0100/0010/0001 등으로 분배한 것.(걔네가) 근데 이게 순서를 까먹었다. 자세한 건 novel ai 위키 들어가보삼. 어쨋든 그래서 저 엑셀표가 전체를 정리한 거야. 그래서 그걸 베이스로 모델의 배합비를 세부조정한거야. 그래서 만들었더니, 구태여 신체나 얼굴 아니면 노이즈 오류 없이 t2i로도 디테일이 잘 살더라고. 내가 t2i가 젬병이었잖아 ㅋㅋ 톤과 윤곽선 등 초반 스케치 영역. 얼굴, 이목구비 등을 따오면서 피부 질감 등은 실사 텍스쳐에 맞춤. 대부분의 영역을 실사 영역 비율을 높이고, 머리색깔, 의상 등 프롬프트 해석 방식등을 반실사쪽으로 맞춤 이렇게 해보니까 내가 모델 병합하면서 날려먹은 정보들이 겁나 많더라. 대오각성함. 어쨋든 정보 공유임. " 인페인트 잠제 노이즈 활용법,2023-02-12,435,5,https://arca.live/b/aiart/69613226?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4," 이 짤방의 배경을 garden으로 바꾸고 싶은데 일반적인 i2i로는 힘들다. 인페인트 기능의 잠제 노이즈로 배경을 노이즈로 바꿈 노이즈를 0.4 0.5 0.6 순으로 높이면서 i2i 실행하면 배경이 러프하지만 원하는바로 바뀌는 걸 확인 " 3000번대 미만은 왜 코랩써야됨?,2023-02-12,1291,9,https://arca.live/b/aiart/69612735?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4," 빠른 요약: 3000번대 미만 GPU의 성능은 웬만하면 코랩이나 구름에서 기본제공하는 T4하고 비비거나 그거보다 낮다. 그니까 그냥 전기세 아끼고 코랩쓰자. 들어가기 전에 주의사항: 반박 시 너말이 맞음 위에 콘보고 갑자기 의문이 들었음. 왜 3000번대 이상만 로컬을 추천하냐.. 알려진 말로는 3000번대 미만 GPU가 그림이 좀 다르게 나온다 라는 얘기가 있긴 한데 그건 실험을 안해봐서 잘 모르겠고 단순히 성능으로만 비교해 보기로 했음 일단 아는 사람은 알겠지만 테슬라 T4는 게임이나 화면 출력용이 아니라 고성능 연산용 워크스테이션 GPU임. 그니까 게임용(일반사용자용) GPU보다 우리가 쓰는 프로그램인 Stable Diffusion에 조금 더 초점이 맞춰진 모델인거지. 그건 차치하더라도 깡성능이 어떨지 궁금하잖아? 그래서 간단히 성능실험을 해보기로 했음 물론 내가 저 글카들을 다 가지고 있는게 아니라 인터넷에 올라온 벤치마크 자료를 참고했음을 알림. + T4 벤치마크가 userbenchmark 사이트에 없어서 가장 비슷한 쿼드로 RTX 4000 으로 비교했음. 1. Quadro RTX 4000 vs RTX 3060 3000번대 입문기인 3060임. 쿼드로 4000하고 거의 비비는 모습을 볼 수 있음. 2. Quadro RTX 4000 vs RTX 2080 RTX 2080을 가져와봤음. 약간 의외의 결과로 조금 더 높은 성능을 보여주는데, 아마 쿠다코어 차이가 아닐까 싶긴 함. 그 아래로는 2070s가 T4하고 비슷한 급이라고 생각하고. 거기다 가불기이긴한데, 로컬에서 돌리면 성능을 100% 다 못뽑아먹음. 왜냐면 기본적으로 너네 화면 출력도 해줘야하고, 기다리면서 유튜브 보고있으면 비디오 디코딩도 해줘야해서 조금씩 성능 끌어다 쓴단말이야. 2000번대하고 3000번대 쿠다코어 갯수 차이도 있고, 3060급 이상이 아닌 이상 그냥 T4 기본제공해주는 코랩쓰는게 맞다고 생각함. 코랩이나 구름같은 서비스를 쓰면 전기세도 아껴지니까 일석이조임. 그래서 결론: 3000번대 미만 GPU의 성능은 웬만하면 코랩이나 구름에서 기본제공하는 T4하고 비비거나 그거보다 낮다. 그니까 그냥 전기세 아끼고 코랩쓰자. -부족한건 나중에 자료조사 더 해서 추가할예정 " (후기) ControlNet 사용,2023-02-12,2723,22,https://arca.live/b/aiart/69608093?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4,"https://arca.live/b/aiart/69583240?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1 사용후기임. 설치방법 아님.  궁금하면 설치 해봐도 되는데 개발자가 아니면 굳이 설치해서 사용해볼 정도는 아님. 설치 난이도 보통.  (내가 개발자이고 파이선 써봤다 싶으면 난이도 쉬움) 파이선, conda 이런 개념 몰라도 구글링 해보면서 할 수 있을 정도임. 공식사이트 안내대로 conda 환경 구축하고 실행시키면 오류발생함. 오류이유는 model anntoator 파일들은 따로 아래 사이트에서 받아서 환경 구축한 폴더에 넣어줘야함. https://huggingface.co/lllyasviel/ControlNet/tree/main 에서 model , annotator 받아서 설치 완료된 폴더에 넣어줘야함. 개념을 이해하지 않아도 그냥 공식사이트 에서 시키는대로 하면 됨. (물론 python , anaconda 별도 설치 (이건 개발언어라고 생각하면됨) 영어로 되어 있는데 사이트 한글 번역 누르면 다 알아먹을 수 있음. [사용] rtx 3070 8GB 사용. VRAM 8GB라서 config.py  소스값 save_memory = True 변경함. ContorlNet 작성자가 이렇게 하면 8GB 도 사용 가능하다고 함. 모델은 SD 1.5 기반이라 이곳에서 좋아하는 그림체는 결과로 안나옵니다. ㅎㅎ; [사용결과이미지] with Canny Prompt : 1girl, black skin, building background with Scribble Prompt : 1girl, black skin, building background with Interactive Scribble Prompt : 1girl, black skin, building background, flower 내가 직접 그린 그림 ㅋ with Human Pose Prompt : clenched fist, An astronaut on the moon, realistic 포즈~ with Segmentation Prompt : classroom, realistic, sunshine with Depth Prompt : building, car, manga style with Normal Prompt : manga style, ""야경이 비치는 피아노 치는 소녀"" 라고 적었음. 오락실에서 => 피아노를 치고 있고 건물 야경으로 변경된게 신기했음. 하지만 밑에 Normap 이미지를 보면 소녀 위에 3대 오락기가 사라진걸 볼 수 있음. Depth에서는 테스트 했을 때는 저 오락기도 표현이 되었음. Depth가 더 좋은듯? 물론 장단점이 있겠지만...ㅎ [결론] 개발자 글에 This allows training on small-scale or even personal devices. 이를 통해 소규모 또는 개인용 장치에서도 교육이 가능합니다. This is also friendly to merge/replacement/offsetting of models/weights/blocks/layers. 이는 모델/가중치/블록/레이어의 병합/교체/오프셋에도 유용합니다. lora 처럼 확장 가능성이 무궁무진 하다 정도로 이해함. 미래가 기대 된다. 진짜 마지막으로 개발자가 공개 안한게 있음.. 개발자 글에 이거를 공개하면 사회에 미칠 파장을 걱정 한다. 라고 되어 있는데 왠지 이건 수익화해서 팔아 먹지 않을까 싶을 정도로 좋음. [개발자가 공개 안한것] .....이거 공개 기원 1일차. 공식:  https://huggingface.co/lllyasviel/ControlNet " XFormers 한방 설치 뉴비만 봐라.,2023-02-12,1006,3,https://arca.live/b/aiart/69607489?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4,"xformers 쓰면 빨라져서 무조건 해야 된다. 단 글카가 되는 글카가 있고 안되는 놈이 있음. 찾아보면 나오는데 대략 엔비디아 1000대 이상은 된다.간혹  쓰나 안 쓰나 별 차이 없다고 들 하나, 3080ti쓰고 있는데 이거 쓰고 나서 쓰기 전으론 이제 못 돌아감. 속도 차이가 별로 없다는 사람들은 나도 몰루.설치 법 찾아보면 뭐가 엄청 복잡한데, 그럴 필요 없이 launch.py에서 commandline_args  찾아서 쌍따옴표안에 --xformers만 넣으면 끝. 쓸데없는 거 안 해도 된다. 단 cuda는 설치해야 될 거임. https://www.youtube.com/watch?v=ZVqalCax6MA 반박시 니말이 맞고, 원래 있는 정보면 끌올 개념으로 용서해 줘라. 나도 몰랐다가 이제 알았다. " 모자이크화 → 색수정 → i2i 활용법,2023-02-12,746,9,https://arca.live/b/aiart/69599034?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4," 무료 이미지툴로 유명한 paint net 이라는 툴에 보면 결정화라는 기능이 있음 결정화를 한 상태에서 마법봉으로 조각들을 클릭클릭으로 선택한 뒤 투명도 70% 정도로 페인트 부어버림 mmasterpiece, best quality, highres, anime_art_style, school uniform, short hair, blue hair, Negative prompt: breast_slip, pencil_dress, lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name Steps: 20, Sampler: DPM++ 2M Karras, CFG scale: 11, Seed: 3225991770, Size: 512x768, Model hash: c330a60ddc, Denoising strength: 0.6, Mask blur: 4 머리 색은 그냥 i2i로도 잘 바뀐다지만 따로 프롬프트를 안 준 리본 색도 의로대로 바뀐 걸 볼 수 있음 " 로라 클릭으로 안 들어가는 사람들,2023-02-12,435,1,https://arca.live/b/aiart/69598462?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4,"tag 자동완성 바꿔봐 깃허브 거는 textual만 클릭으로 들어가고 로라는 타이핑 해야 했는데 챈버전은 로라 클릭해도 들어가더라 https://github.com/DominikDoom/a1111-sd-webui-tagcomplete https://arca.live/b/aiart/60607764?mode=best&target=all&keyword=%EC%9E%90%EB%8F%99%EC%99%84%EC%84%B1&p=1 " 두 인물을 각각 지정할 수 있는 확장 기능을 소개,2023-02-12,4409,80,https://arca.live/b/aiart/69596294?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4,"Latent Couple extension (two shot diffusion port) (https://github.com/opparco/stable-diffusion-webui-two-shot) 제목은 거창하지만 정확하게 말하면, '프롬프트가 영향을 미치는 곳을 나눌 수 있는 확장 기능'. 예시를 들면, 여자 금발 경찰 + 여자 안경 메이드 남자 금발 경찰 + 남자 안경 메이드 남자 금발 경찰 + 여자 안경 메이드 등 양분된 두 곳의 프롬프트를 각작 지정할 수 있는 확장 기능임. 프롬프트는 대충 이런 식으로 구성. 2girls AND 2girls, police uniform, blonde hair, dark skin AND 2girls, Maid, black hair, glasses 첫번째 줄이 그림 전체의 뼈대를 잡아주므로 꼭 '두 명'을 의미하는 프롬프트를 넣어야 하고. 두번째 줄은 그림을 반절 나누어 왼쪽 세번째 줄은 오른쪽을 지정함. 여기도 한쪽을 지정한다고 2girls 대신 1girl을 쓰면 인물이 가운데로 가버리기 때문에 아수라 남작을 볼 수 있으니 여기서도 꼭 '두 명'을 의미하는 프롬프트를 넣어야 한다. 설정에 따라 세명도 가능하니 참고. 아래는 조금 미묘하게 나온 B컷들. " 폰으로 이미지 Exif 보는 안드로이드 어플 추천,2023-02-12,312,5,https://arca.live/b/aiart/69593017?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4,"https://play.google.com/store/apps/details?id=com.exiftool.free exif 전체 볼 수 있고 복사도 할 수 있음 " 내가 대가리 깨져가면서 배운 lora 학습 팁,2023-02-11,4469,42,https://arca.live/b/aiart/69588382?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4," 코딩의 ㅋ자도 모르는 딸깍충이 만들고 싶은 캐릭터 한 번 잘 뽑아보겠다고 학습챈, 그림챈 뒤져가며 대가리 깨져가면서 터득한 팁을 주저리 쓰는 글임... 이걸 보고 퀄리티 좋은 lora가 많이 나와서 내가 혹은 다른 사람이 노가다 할 시간을 서로 줄여줬으면 하는 의미에서 썻음 좋게 봐주셈 고수들은 다 아는 내용이니깐 뒤로가기 눌러 (반박, 지적 환영하는데 대신, 정보글 가져와서 나 좀 배우게 알려줘) 정보 글로 갈만하다고 생각하면 말해주셈 탭 옮김 <기본설정> 1. 코랩 사용 2. xformers 사용 3. 태깅은 캡션 or txt. 중에 txt.가 나은 듯 4. 태깅 잘 해보겠다고 손으로 노가다 하지말고 프로그램 쓰자 (찐 고수들만 할 것) 5. 트리거는 딱히 안만들어도 됨 6. 스텝 수에 따라서 결과물의 차이가 무조건 있음 하급 퀄의 결과물 스텝 3000이하 설정 중급 퀄의 결과물 스텝 5000이상 설정 상급 퀄의 결과물 스텝 10000이상 설정 5. 학습 모델은 자기가 원하는 작화랑 어울릴 만한 모델을 사용해야함 ex) 바질에 백날 씹덕 그림체 학습해봐야 뭣 같이 나옴 6. anime.vae 사용 <데이터 셋(학습 이미지)> 1. 무적권 고화질 이미지 100장 이상 (30장 이렇게 쓰면 결과물 눈썩어서 난 못쓰겠더라) 2. 배경에 태깅 될 만한 요소는 최대한 배제, 단색, 무채색 배경이 젤 좋음 (없으면 스트레스 받지말고 그냥 써) 3. 이미지 사이즈는 조정은 잘라서 쓰지말고 그냥 비율로 조절해 (세로 기준 x768) 사이즈 조절하는 방법은 구글에 이미지 변환만 검색해도 많이 나옴 (나한테 뭍지마) 4. 이미지 포맷은 꿀뷰써서 전부 png 파일로 만들어 5. 이미지 파일명은 대충 숫자 쓰던지 girl (1) 이렇게 만들어 6. 어중간한 누끼는 따지마 <정규화 이미지> 1. 학습 이미지와 같은 그림체로 준비해, 같은 그림체로 준비 안하면 기껏 준비 해놓은 학습 이미지랑 다 섞이고 퀄 낮아지는 것 같음 2. 이미지 변환은 학습 이미지 준비랑 같음 3. 정규화 이미지는 이걸 기준으로 이렇게 참고해서 만들어 달라는 느낌임 <작화(스타일) 학습> 1. 같은 작화로 준비하되 구도, 시점, 모양이 많이 겹치지 않도록 다양하게 준비해 2. 반대로 자기가 원하는 자세가 있으면 통일되게 준비해야함 3. 정규화 이미지를 안넣어도 상관없음 4. 대신 정규화 이미지의 퀄리티가 좋고, 같은 작화일 경우 퀄리티가 더 좋게 나옴 단점으로, 정규화 이미지땜에 이걸 따라가려고 프롬이 잘 안먹거나 정규화 이미지에 들어간 요소가 강제로 따라오는 경우가 있음 5. 이미지 출력 시간이 빨라짐 <캐릭터 학습> 1. 샘플이 많은 경우 작화가 같으면 좋음 2. 샘플이 적은 경우 작화가 같지 않더라도 특징이 많이 겹친다면 괜찮음 3. 정규화 이미지를 넣는게 좋음 요약 : 학습 시간과 데이터의 양질은 다다익선이다. " i2i 개잘먹는 치트키 찾아냄 ㅋㅋㅋ,2023-02-11,6608,67,https://arca.live/b/aiart/69587638?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4," 원본 모자이크 해버려서 색상 정보만 남게한다 mmasterpiece, best quality, highres, anime_art_style, maid,  braided hair Negative prompt: breast_slip, pencil_dress, lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name Steps: 20, Sampler: DPM++ 2M Karras, CFG scale: 11, Seed: 2355761669, Size: 1024x1536, Model hash: c330a60ddc, Denoising strength: 0.7, Mask blur: 4 원본 모자이크 mmasterpiece, best quality, highres, anime_art_style, school uniform, red hair, Negative prompt: breast_slip, pencil_dress, lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name Steps: 20, Sampler: DPM++ 2M Karras, CFG scale: 11, Seed: 3391506966, Size: 1024x1536, Model hash: c330a60ddc, Denoising strength: 0.7, Mask blur: 4 " (실험) 그림판으로 개대충 그린 그림도 i2i 소스로 쓸 수 있을까?,2023-02-11,650,5,https://arca.live/b/aiart/69587027?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4," 내가 그렸지만 존나 잘그린 듯 초등학교 저학년 그림대회 우수상 쌉가능 masterpiece, best quality, high_resolution, red hair, blue shorts, Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name Steps: 20, Sampler: DPM++ SDE, CFG scale: 11, Seed: 91427078, Size: 512x768, Model hash: 0873291ac5, Denoising strength: 0.7, Mask blur: 4, Eta: 0.2 퀄리티가 조금 아쉽지만 노이즈가 0.7으로 높은 편임에도 형태와 동작을 정확히 따라하는 게 인상적이다 이 이미지를 다시 소스로 써서 리터칭 후 인페인트 돌려주면 더 좋은 결과물도 기대 가능해보임 " 포토샵을 이용한 이미지소스 제작 후 i2i 테스트,2023-02-11,378,3,https://arca.live/b/aiart/69586250?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4," 이미지 퀄리티는 딱히 높을 필요 없고 원하는 포즈와 색조만 잡아줌 프롬프트 : masterpiece, best quality, high_resolution,  1girl, white dress,  red hair, {grimace_face} 노이즈 0.6으로 생성 " 체크포인트 카탈로그 0204~0211(24개 모델 비교),2023-02-11,1336,19,https://arca.live/b/aiart/69583531?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4," 고화질 원본 https://drive.google.com/file/d/1OGBqReBKkTQu1lpHPaKQOiUgRGBcQVUT/view?usp=sharing 챈발 병합본이 너무 많아서 지난 일주일간 나온 병합본들을 모아봤다 anidos - https://arca.live/b/aiart/68965791 burger - https://arca.live/b/aiart/69143682 donkohard - https://arca.live/b/aiart/69175133 hard 버전 mmmv2 - https://arca.live/b/aiart/69423609 opv2 - https://arca.live/b/aiart/69040219 triphazea, triphazeb, triphazec - https://arca.live/b/aiart/69015167 A, B, C colorbomb, facebomb, hyperbomb - https://arca.live/b/aiart/69200702 glassmix - https://arca.live/b/aiart/69329733 pastelwave - https://arca.live/b/aiart/69249971 voxo - https://arca.live/b/aiart/69259433 zetacolorv3 - https://arca.live/b/aiart/69427934 zetacolorv5 - https://arca.live/b/aiart/69474826 highrise - https://arca.live/b/aiart/69302021 mixprov3(챈발 아니긴 한데 자리남아서 넣음) - https://civitai.com/models/7241/mix-pro-v3 otakuopw, otakupw, otakupwp - https://arca.live/b/aiart/69307388 오렌지파스텔웨이브, 파스텔웨이브, 파스텔웨이브프로 qwerty - https://arca.live/b/aiart/69413124 tlqkfog, tlqkfogpastel - https://arca.live/b/aiart/69549608 오리지널, 오리지널 파스텔 다음주부턴 내가보고 예쁜것들만 올리던가 해야지 탈모오겠다 " controlnet 이거 물건이네,2023-02-11,895,4,https://arca.live/b/aiart/69583240?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4," style2paints v5 개발하는 개발자가 모델 대신 기술부터 올린건데이거 사용처가 어마어마하네pix2pix보다 체감상 성능 좋은듯나머지는 다음주에 봐야지궁금하면https://huggingface.co/lllyasviel/ControlNet알아서 보셈 " U-NET을 이용한 Add Difference,2023-02-11,1231,16,https://arca.live/b/aiart/69577435?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4,"없는거 같아서 한번 써봄 원본 : https://note.com/bbcmc/n/nfc3174bd793b Add Difference의 공식을 보자면 A + (B - C) * M 이거임 공식 그대로 B 모델과 C 모델의 차이를 구한다음에 그 차이를 A 모델에 더한다는거임 이거를 U-NET 병합으로 구현해보겠음 U-NET 병합 탭에 보면 Each 탭이라고 있음 거기 한번 들어가보면 안그래도 많은 파라미터가 50개로 늘어나있음 근데 지금은 조절 안함 일단 Add Difference 에서 (B - C) 를 하겠음 왼쪽 위에 보면 Proc Cmd 라는 뭔가를 적는 박스가 있음 거기에 아래 텍스트를 복붙해주셈 Preset_Weights=ALL_A, base_alpha=0, IN_B_00=-1, IN_B_01=-1, IN_B_02=-1, IN_B_03=-1, IN_B_04=-1, IN_B_05=-1, IN_B_06=-1, IN_B_07=-1, IN_B_08=-1, IN_B_09=-1, IN_B_10=-1, IN_B_11=-1, M_B_00=-1, OUT_B_00=-1, OUT_B_01=-1, OUT_B_02=-1, OUT_B_03=-1, OUT_B_04=-1, OUT_B_05=-1, OUT_B_06=-1, OUT_B_07=-1, OUT_B_08=-1, OUT_B_09=-1, OUT_B_10=-1, OUT_B_11=-1 저걸 복붙한 다음 모델을 지정해줘야하는데 차이를 구할 모델 2개를 지정해주면 됨 (B - C) Run Merge 를 눌러서 결과가 나왔으면 Reload checkpoint 한번 눌러주고 방금 나온 결과를 B 에 넣어주면 됨 그리고 원하는 모델을 A에 넣고 Proc Cmd에 있는 텍스트를 모두 지우셈 이제 Preset에서 ALL_A 를 선택한 뒤에 B 파라미터를 조절하면 됨 A 파라미터는 1에서 놔둬야함... 1이 아니면 모델 망가짐... 파라미터 조절하고 Run Merge 누르면 Add Difference 완료 U-NET 자체가 심화편이긴 하지만 이미 U-NET에 발들인 사람들에게는 좋은 팁일듯 " 코랩으로 병합 실패 뜨는거 해결 방법,2023-02-11,342,1,https://arca.live/b/aiart/69576799?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4," 드디어 뜬 성공 메시지 오렌지믹스 하드 2GB짜리 경량화 모델로 병합하니까 성공 그냥 기존 오렌지믹스 모델 용량이 너무 커서(5.7GB) 실패한듯 오렌지로 병합하려는데 자꾸 에러 메시지 뜨는 코랩 유저분들 오렌지 경량화 모델 써보세요 https://arca.live/b/aiart/67541165 드디어 나도 바질 오렌지 0.5 모델을 쓸 수 있다 " 극한까지 속도 올리는 팁?,2023-02-11,1035,5,https://arca.live/b/aiart/69570981?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4,"xformers, opt-channelslast 적용아까 2060오너의 한장당 4분 이상이라는 결과를 보고 3050으로 비교하러 옴성능 3050 < 2060 먼저 아까 그 글이 올린 설정대로 설정해서 돌렸다.sde, step 70,hires 70, 1.5배, 6B3분 5초정도 나왔다. 아마 커맨드라인 설정에 있는 channel뭐시기 적으면 그분도 3분 나올거다. 그러면 최대한 퀄리티를 유지하면서 속도만 올려보자.1. sde, step 70, hires 14, 1.5배, 6B1분 15초로 급감했다. 자세는 xformers와 스텝수 변경때문에 당연한 변화로 가정하고 퀄리티만 살펴보자면 큰 차이가 없어보인다. 솔직히 잘 모르겠다. 2. sde, step 28, hires 14, 1.5배, 6B50초로 줄었다. step또한 시간을 많이 잡아먹는걸 볼 수 있다. 퀄리티의 차이가 느껴지는가? 스텝의 경우엔 어느정도 하락하는 모습을 보여주긴 하는 것같다.(50 정도가 적정선이다.)하지만 신경쓰일 정도는 아니다. 3. 2M, step 28, hires 14, 1.5배, scuNET PSNR(필자가 쓰는 설정)27초 까지 줄어버렸다. 샘플러가 바뀌어서 분위기가 변하긴 했지만 ""퀄리티""의 하락이라고는 생각되지 않는다. 3분 5초 -> 27초까지 줄었다.적정 스텝은 본인이 찾는 편이 좋겠지만 필자는 마지막 설정으로 맛있게 먹고 있다.결론너무 느리다면 일단 hires 스텝부터 줄이고 보자!스텝 수 자체를 줄이는 것도 성능이 좋다!샘플러와 업스케일러를 변경해보자! " i2i 에서의 upscaler 에 따른 색상 변화 (버그 리포트),2023-02-11,631,0,https://arca.live/b/aiart/69570376?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4,"포럼 버그 리포트 참조 https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/5636 https://github.com/AUTOMATIC1111/stable-diffusion-webui/pull/5644 알게 된 발단은, 업스케일러 비교 한 글 (https://arca.live/b/aiart/69418497?target=all&keyword=LDSR&p=1) 을 보고 LDSR 을 하루정도 써 봤으나, 피부 색이 자꾸 노란색으로 시프트 되는 경향을 발견. 이상하다 싶어서, 모델 바꿔가면서, 하이퍼네트워크 꺼 보면서, 업스케일러 바꿔가면서 비교. 개인적인 의견으로는, 시프트 되는 게 맞는 거 같고, 깃허브에서도 LDSR 관련 (버그리포트 첫번째 글) 색상 변화 문제 제기가 있었음. 최근 일주일 전 까지도 해결이 안 되어 있는 걸로 표시되어 있으니, LDSR 쓰실 분들은 주의 바랍니다. 추가로, i2i 업스케일러 별 비교 프롬 : t2i (Ray Tracing, masterpiece, analog style, studio lighting, photorealism),(masterpiece:1.3), (best quality:1.3),((perfect anatomy, perpect body,perfect face,perfect eyes)),(1 woman,solo:1.5), high resolution, extremely detailed cg, distinct image, ((lustrous skin)), eyeliner, detailed face, best ratio four finger and one thumb, skirt, classroom, (small head), eye contact, ((loose oversize white linen serafuku top:1.5)), loosen crop top, long sleeves, sweat ((silk lace micro panties:1.5)), gatherbelt, (clothed_underbust:1.2), Embarrassed_face, cum_string, arms_behind_back, big breast, (short side pony tail : 1.3), Platinum Blonde hair, bottomless, evil smile, (open mouth:0.7), , ,,(skin gloss:1.35, skin shine:1.35:1), Negative prompt: (low quality, worst quality:1.4), (((skirt, pupil hair, belt, nipple:1.5))),nude, (NG_DeepNegative_V1_75T:0.8),EasyNegative, extra fingers, fewer fingers,lowres, (worst quality, low quality :1.3), normal quality, blurry, facial mark, cropped hands, extra digits, fewer digits, loli, nipples Steps: 28, Sampler: DPM++ SDE Karras, CFG scale: 11, Seed: 1222743005, Size: 768x1152, Model: half_real_0_clothes, Clip skip: 2, ENSD: 31337 i2i (semi realistic:1.1), (photo realistic:0.5), (hyper realistic:0.3), (masterpiece:1.05), (best quality:1.05), delicate, smooth line, (finaly detail for eyes and face and body:1.05), (finaly beautiful:1.05), (depth of field:1.05), (anime haircut:0.8), (huge size eyes:1.3), (CG anime eyes:1.1), (human eyes:0.8), (beauty and clear features:0.8), (clear and clean skin tone:1.5), (a light that brightens face:1.3), (Increase quality:1.2), (Increase eye beauty:1.1), (Increase eye size:1.1), (Increase body line mood:1.1), (Increase face beauty:1.1), (Increase skin texture beauty:1.1), (Increase femininity of the body:1.1), (increase cheast beauty:1.1), (increase femininity of the cheast line:1.1), (Increase beauty and gorgeous and sexy and cute:1.1), (most beautiful in the world:1.3), (smoother lighting :1.05), (increase cinematic lighting quality:0.9), 32K, [(PureErosFace_V1:0.2):0.2],[(ulzzang-6500:0.2):0.2] Negative prompt: (worst quality, low quality:1.4), lowers, [(NG_DeepNegative_V1_75T:0.9):0.1], (small eyes:1.3), (black-white:0.6), bad anatomy, bad hands, text, error, (missing eyes:1.05), (missing face:1.05), missing fingers, extra digit, fewer digits, jpeg artifacts, ugly, deformity, grotesque, (Low resolution:1.1), (low pixel:1.2), (eye-watering pixel:1.2), (unfinished face,unfinished eyes, unfinished body, unfinished hands:1.2), (masculinity:1.2), unpleasant, repulsive, nude, 2D, Old Person, (skin tone eyeball:1.3) Steps: 200, Sampler: DPM++ SDE Karras, CFG scale: 8, Seed: 2549153324, Size: 768x1152, Model hash: 6905802c21, Model: Obidius_Mix, Denoising strength: 0.25, Clip skip: 2, ENSD: 31337, Mask blur: 4, SD upscale overlap: 64 오늘 시간이 얼마 없어서 마음에 드는 걸 못뽑았지만, 일단 이걸로 테스트 ㅇㅇ 옷이 어떻게 생겨먹은건지 모르겠는 옷이다; Original Lanczos Nearest ESRGAN_4x R-ESRGAN 4x+ Anim6B 문제의 LDSR. 특히 몸쪽 피부 색깔이 노랗게 변하는 문제가 보임. 그 외에도, 다른 업스케일러에서는 두드러지게 표현되지 않는 작은 점들(t2i 에서 생긴) 을 전부 살려버려서 지저분해짐, 앞에 나와있는 손에 드리운 그림자가 너무 격함, 등의 문제가 보임. 하지만 레이스 부분같은 곳은, 원본에서 조금 더 디테일이 많이 추가되는 장점...ㅠㅜ ScuNET SucNET PSNR SwinIP 4x 얘도 살짝 노란끼가 도는 경향이 생긴다 ㅇㅇ " 코랩 구드 용량 좋은생각남,2023-02-11,468,1,https://arca.live/b/aiart/69560692?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4,"어차피 구드 API로 연결해서 쓰는거잖아? 그러면 걍 이베이같은데서 무제한 드라이브 얼마 안하는거(비싸봤자 4~5달러) 구해서 공유드라이브로 경로만 수정하면 되지않음? 그렇게하면 보통 무제한용량이니까 용량걱정없이 모델이랑 VAE Lora 그득그득 쌓아놓고 쓸수있을건데.. ===== 코드블럭 내에 workspace 지정하는 함수 Path('drive', 'Shareddrives', '<공유드라이브 이름>', WORKSPACE).resolve() 이렇게 바꾸고 방금 시도 해봤는데 정상작동 확인함. " 노이즈 이미지 활용법,2023-02-11,430,2,https://arca.live/b/aiart/69557695?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4," 이런 방식으로 하는 건 굉장히 새로운데... " 리사이징 후 채워넣기 Resize and fill 기능,2023-02-11,449,1,https://arca.live/b/aiart/69555702?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4,"검색해봐도 안나오고 질문글 올려도 답이 안 달리길래 혼자 연구해봄 혼자 테스트한거라 아닐 수 있음... 정확하게 알면 답변좀 해주셈 AI에 실망하기 직전임. 리사이징 후 채우기라는 기능 Resize and fill이 좌우나 위아래 여백을 AI가 자동적으로 채워준다는 얘기로 들려서 굉장히 매력적인 기능이 아닐까 생각함. 일단 동작은 인페인트에서만 하는 거 같음 원본 짤 크기가 912 x 512인데 정배수로 비율 유지하면서 커지면 여백이 안생기지만 좌우나 상하만 커지면 여백이 생기는걸 채워주는 기능임 나는 위아래로 넓히고 싶으므로 912 x 800 으로 사이즈를 입력하고 [생성]을 누르면 채워주긴 하나 정말 대~ 충 채워주는 걸 볼수 있다. " 한복 윗도리 분리 프롬 찾은듯,2023-02-11,3319,41,https://arca.live/b/aiart/69546746?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4,"한복로라 써서 해도 저고리부분이 가슴커튼이 안쳐지고 원피스마냥 연결되는게 싫어서 하루연구했다가 방금 방법을 찾은듯함 일단 예시 보다싶히 꽤나 고타율로 가슴커튼이 생김 긍정 masterpiece, best quality, arms behind back, , {blue_hanbok|red_hanbok|yellow_hanbok|pink_hanbok}, {blue_korean clothes|red_korean clothes|yellow_korean clothes|pink_korean clothes}, {white hair|pink hair|black hair|red hair}, (clothed_underbust:1.2), 부정 (worst quality, low quality:1.4), kimono, (obi, shirt tucked in), latex, (cleavage:1.2), (nsfw:1.2), tight clothes Steps: 20, Sampler: DPM++ SDE Karras, CFG scale: 6, Seed: 3695600161, Size: 512x768, Model hash: 0fc198c490, Denoising strength: 0.5, Eta: 0.2, Clip skip: 2, Hires upscale: 1.5, Hires upscaler: Latent (nearest) 긍정에서 {}로 묶인부분은 와일드는 귀찮고 여러개 실험하는 와중에 타율보려는데 같은색은 싫어서 컬러 다양하게 뽑기위한 부분이니 지우고 원하는 색으로 통일해도 무방 (clothed_underbust:1.2)이게 설마 먹힐줄이야 주의점 가슴태그 주로 크기부분을 첨가하면 네거에다 가슴골까지 넣어서 1.2강조를 해도 그냥 윗가슴골깐거 아니면 순수 가슴만 나옴 여하튼 만족스럽다! " ???: 마른 오징어도 쥐어짜면 액기스 나옴,2023-02-11,719,7,https://arca.live/b/aiart/69545710?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4,"일단 갖고 있는 글카를 최대한 활용할려면 우리가 쓸려는 프로그램의 연산처리를 가장 먼저 하도록 만들어야 가장 먼저 처리하기 마련입니다. 그렇다면 이건 어떻게 하느냐? 이렇게 set CUDA_VISIBLE_DEVICES=0 을 넣어 준다면 최우선적으로 처리하게 되어 게임을 하던중 webui를 키더라도 가장 빠르게 처리해줌 (본인 아키에이지 키면서 해봤는데 빠르게 작동함) 만약 본인이 안된다?  Nvidia 쿠다코어 드라이버 다운받으면 됩니다. 잘쓰다가 한번 테스트삼아 해봤는데 잘되서 공유합니다 본인사양 cpu: ryzen 3700x gpu: galaxy 2070super " 나도 시도한 TensorRT Lsmith 후기.,2023-02-11,598,4,https://arca.live/b/aiart/69543918?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4,"https://arca.live/b/aiart/69456366?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=1 이 글 보고 나도 윈도우에서 시도해봄. rtx 3070 8GB 사용함. 설치까지 4시간 정도 소비. 윈도우는 상당히 설치할게 많음. 설치도 제대로 되는건지 알 수 없고, 버전이 맞는건지도 하면서 불안했음. 나도 설치하고 실행까지 어찌 성공은 했는데... 정리는 못하겠음. 이 글은 그냥 후기 정도로 참고용으로만 봐줘. ckpt 바로 모델 가져다 쓸 수 없음. Engine 에서 huggingface Model ID 적고  빌드 하는 과정을 거쳐야 사용 가능함. (model 다운 받고 설치하고 이러는데 20분정도 소요됨) 여러가지 guiingface Model id 를 넣어 봤는데 공식 딱 2개만 성공함.(Anything은 나는 실패. 아마도 8GB 메모리 부족으로 인해서 빌드 과정이 실패한것으로 보임) 성공한 2개 1. hakurei/waifu-diffusion            , 옵션 float16   (32로 시도 시 메모리 부족 오류 발생) 2. CompVis/stablediffusion-v1-4   , 옵션 float16   (32로 시도 시 메모리 부족 오류 발생) 나머지 옵션들은 뭔지 몰라서 건들지 않고 기본으로 함. 속도 (steps 50) 512 x 512          26 it/s 768 x 768          10 it/s 512 x 1024        11.37 it/s 768 x 1024          6 it/s 1024 x 1024       3.9 it/s 내가 빌드하는 과정을 진행 할 때 메모리 부족하여 512 x 512 디폴트인 채로 해서.. 512 만 엄청 빨라진게 아닌가 싶음. 메모리만 많으면 1024로 설정하면 더 빨라지지 않을까? 추측됨. AI 발전이 너무 빠르다. 진도를 못따라가겠어. ㅎ 아래는 waifu-diffusion model 로 원소법전 프롬프트 사용해서 뽑은 결과물들( 512 x 512 100장, 1024 x 1024 5장 ) ((masterpiece)), (((best quality))), ((illustration)),(depth of field:1.2),solo,dynamic angle,(1 girl:1.3),bangs,headphones,red eyes,white hair,(disheveled hair),Baseball cap,(jacket|hoodie),jeans,thigh strap,hands in pocket,cowboy shot,Moody Lighting,(arcade games:1.1),(Game Center:1.5),(Game Hall:1.1),(backlight:1.3),intricate detail,cyberpunk,slot machine,claw crane game machine,(crowd:1.1), (Pixel particles exploding:1.2), 네거티브 lowres, bad anatomy, bad legs,bad hands, text,error, missing fngers,extra digt ,fewer digits,cropped, wort quality ,low quality,normal quality, jpeg,artifacts,signature,watermark, username, blurry, bad feet,artist name,bad anatomy,bad hands,bad body,bad proportions,worst quality,low quality 공식: https://github.com/ddPn08/Lsmith " (고어 료나 주의) 사지절단 배빵물 만드는법,2023-02-11,2137,16,https://arca.live/b/aiart/69543232?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4," 1. gutpunch amputee 이거 로라 두개로 짤을 뽑는다 이때 무조건 hires 쓰면 안됨!! 2. img2img에 짤을 들고가서 amputee gutpunch 두개는 가중치 0.2-0.4 그리고 시오후키 잘하는 그림체 로라 아무거나 하나 넣어서 가로 2배 세로 2배 업스케일을 돌린다 완성되면 인페인트 ㄱㄱ 3. 아사나기 로라를 준비해서 얼굴만 인페인트로 칠한다 4. 시오후키 좀더 추가해주고 더 넣고싶은거 있으면 인페인트 작게 해서 붙이면됨 끝! " 로라 여러개로 그림을 튜닝해보자!,2023-02-11,885,5,https://arca.live/b/aiart/69539386?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4," 지금부터 이 그림을 이렇게 바꿔보겠음. 1. 그림을 뽑는다 2. 이미지를 인페인트로 옮긴다. 긍정 프롬프트 싹 다 날리고, 원하는 그림체 로라 하나를 꺼낸다. 그리고 로라로 바꾸고 싶은 부위의 프롬프트를 넣는다. 예를 들어서 나는 얼굴만 hisasi 그림체로 바꾸고 싶어서 hisasi 로라 꺼내고, 그대로 i2i 돌리니까 턱이 날카로워져서 턱 좀 죽여달라고 함. 만약 얼굴은 A, 팔은 B, 다리는 C 이런 식으로 하고 싶으면 (2)를 반복하면 됨. 조심해야 할 점은 무조건 그림체 로라를 먼저 써야 한다는 건데 사물이나 세부 디테일 로라 이런걸 먼저쓰고 그림체로라를 나중에 쓰면 그림체 로라가 사물 로라를 덮어버림 아 그리고 원본 이미지가 너가 원하는 캐릭터 로라의 캐릭터 이미지랑 비슷하면 캐릭터 로라 넣고 얼굴 전부 칠해버려도 됨 그럼 너가 원하는 캐릭터 로라에 있는 캐릭이랑 비슷하게 나옴 3. 사물 로라나 세부 디테일 로라를 쓴다 눈동자에 하트 넣어줬다 입에 볼개그도 물려줬다 완성! 인페인트 세팅은 이렇게 했는데 인페인트 영역이랑 디노자이징 강도 샘플링 스텝 CFG 스케일은 상황 봐가면서 유동적으로 바꾸셈 이건 정답이 없더라 궁금한점은 덧글로 " Oyama_mahiro LORA (づ ̄3 ̄)づ╭~,2023-02-11,653,8,https://arca.live/b/aiart/69530314?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4,"https://civitai.com/models/7946/oyama-mahiro(/▽\)(/▽\)(/▽\)(/▽\) " "AUTOMATIC1111의 새로운 확장 기능 ""gif2gif""",2023-02-11,2901,45,https://arca.live/b/aiart/69527843?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4,"텍스트 입력으로 이미지를 편집한 gif를 생성할 수 있다 1. A1111 업데이트 2. 확장 프로그램에서 gif2gif 활성화 3. img2img 탭의 스크립트 드롭다운에서 선택 4. 아래 예는 pix2pix 모델를 사용하는 경우입니다. 5. ""그를 파란색 셔츠의 개스톤(캐릭이름)으로 만들어라"" + 네거티브 프롬프트 https://github.com/LonicaMewinsky/gif2gif 귀하의 브라우저는 html5 video를 지원하지 않습니다. " 현재 원클릭구름 고장난사람 질문전 필독,2023-02-11,1289,13,https://arca.live/b/aiart/69521320?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4,"https://arca.live/b/aiart/66555000 원클릭구름쪽에 동작 안된다고 질문댓글 올라와서 방금 돌려보니 원클릭코랩 제작자분이 git에 올린 파일명이 바뀌어서 해당 부분을 찾지 못해 생긴 이슈가 있었음 원래 있던 저 https://raw.githubusercontent.com/toriato/easy-stable-diffusion/main/scripts/fix_gradio_route.py 부분을 https://raw.githubusercontent.com/toriato/easy-stable-diffusion/main/scripts/patches.py 이거로 교체하면 문제없이 돌아감 이것도 몰?루 하면 그냥 원클릭구름 새로 받아서 교체하면 됨 기존에는 패치파일을 여러개 두었는데 하나로 묶어 관리하시려고 이리 만든 것 같으니 일단은 저대로 둠 만약 구름환경에 안맞는 이슈 생긴다 하면 git 하나 파서 따로 관리하던지 해야할듯? + 추가 오류 설명 https://arca.live/b/aiart/69508578 해당 이슈로 인해 기존에 설치한 사람은 문제 없으나 신규로 설치한 사람에 한해 문제가 생기게 됨 만약 해당 오류를 이미 봤다고 해서 아예 처음부터 깔 필요는 없고 2번부터 진행하면 됨 현재 임시조치는 다음과 같음 1. 기본 설치과정들에서 python3 -m pip install --upgrade fastapi==0.90.1 작성하여 먼저 설치하기 2. 한번 실행하여 오류가 나오는걸 확인한 후 컨테이너명/SD/repository/requirements_versions.txt 에 가서 해당 requirements_versions.txt 파일 하단에 아래 그림처럼 마지막줄로 fastapi==0.90.1 넣어주기 3. 이번에 추가로 넣은 WebUI 업데이트 여부라고 작성된 저 부분에서 True 를 False로 변경하기 4. 2번째 실행이니 실행 전 python3 -m pip install requests 한번 터미널에 넣어주고 restart 눌러주기 이러면 이후부터는 정상적으로 돌아감 위에서 말한 WebUI 업데이트 여부 부분은 그대로 False로 계속 둬도 문제는 없다만 이후에 새로운 기능같은게 추가될때 다시 True로 바꿔서 쓰면 될거임 근데 보니까 자동좌쪽에도 이야기 활발히 되는거 보면 금방 수정해주지 않을까? " UniPC 샘플러 설정 비교,2023-02-10,366,9,https://arca.live/b/aiart/69518999?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4," UniPC UniPC variant 굵게 밑줄 그어진 값이 기본 값 UniPC skip type UniPC order UniPC thresholding UniPC lower order final " Waifu Diffusion 1.5 첫번째 에포크 학습 완료,2023-02-10,1627,17,https://arca.live/b/aiart/69518935?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4," 학습한 데이터의 크기는 ~1152px 위에 같이 올린 이미지들은 latent 업스케일만 통해서 만들어진 이미지임 U-net 만으로도 고해상도 이미지를 뽑을 수 있게 된 것... 배포는 일요일 쯤에 한다고 함 " 원클릭 코랩 해결한 버그 및 업데이트,2023-02-10,2771,29,https://arca.live/b/aiart/69517986?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4," cloudflared 터널 추가 다른 챈붕이가 개발한거 그대로 붙여다 사용했음 (https://arca.live/b/aiart/69419833) 더 빠르거나 버그가 덜 하거나 그딴건 없으니까 걍 가능한 ngrok 사용하셈 모델 변경시 메모리 부족으로 -9 오류 발생하던 버그 구글 코랩 자체 문제여서 프로세스를 다시 켜는 방법 밖에 없음... 원클릭 코랩은 서브프로세스로 웹UI 를 실행하기 때문에 모델 변경 시 자동으로 재시작하는 기능을 추가해서 이 부분을 개선(?)했음 웹 페이지 새로고치거나 다시 열 필요없이 기다렸다가 그대로 사용하면 될거임 https://github.com/toriato/easy-stable-diffusion/blob/96883d57d9ef3a2cfe1820e8edfb7c49af4f4bec/easy-stable-diffusion.py#L786-L819 https://github.com/toriato/easy-stable-diffusion/blob/96883d57d9ef3a2cfe1820e8edfb7c49af4f4bec/scripts/patches.py#L75-L105 모델이 하위 디렉터리에 존재할 때 못 불러오던 버그 Drive FS 로 마운트한 폴더에서 rsync 나 cp 로 파일 복사할 때 발생하던 버그 내가 해결할 수 없는 문제라서 걍 모델 불러올 때 진행 상태 보여주는 스크립트 지워버렸음 FastAPI 관련 버그 Gradio 가 requirements.txt 에 FastAPI 버전 고정 안시켜둬서 발생한 버그 실행 전에 FastAPI 0.90.1 미리 설치해서 최신 버전 설치 안하도록 수정했음 TypeError: Expected state_dict to be dict-like, got 몇 일 전 커밋 중에 미리보기 생성을 기본으로 켜두는 커밋이 있었는데 작게 디퓨징된 이미지를 확대하는 VAE 과정이 느려서 이미지 생성하는 속도를 줄이는 문제점이 있었음 이를 보완하기 위해 매우 기초적인 기능만 구현된 models/VAE-approx/model.pt 파일이 추가됐늗데 구글 드라이브 동기화를 켜면 이 파일이 존재하지 않아서 발생하던 문제였음 간단하게 아래 파일 받아서 SD/models/VAE-approx 폴더에 넣어주면 됨 (없으면 폴더 만들고) https://github.com/AUTOMATIC1111/stable-diffusion-webui/raw/master/models/VAE-approx/model.pt " webui 설치 오류시 간단하고도 궁극적인 한 가지 해결법 (이걸로도 안 되면 포맷),2023-02-10,2426,5,https://arca.live/b/aiart/69509634?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4," 0. 먼저 에러코드 채널에 검색해보고 안 나오면 1번부터 실행.(https://arca.live/b/aiart/69508578 현재 버전 대표 이슈) 1. 설치된 파이썬 삭제 후, 관리자 권한을 가진 윈도우 로컬 계정을 '띄어쓰기 없이 영문명으로' 새로 만든다. (쥰내쉬움 모르겠으면 그냥 구글검색해서 해도 1분도 안 걸림) 2. 현재 계정 로그오프 후, 새로 만든 로컬 계정으로 로그인하고 원클릭 런쳐( https://arca.live/b/aiart/67307479 ) 다운하고 프로세스 킬러 ( https://kcleaner.kilho.net/ ) 실행, 이후 방화벽, 백신 실시간보호 다 끄고 C드라이브에서, 그리고 관리자 권한이 필요 없는 디렉토리에서 원클릭 런쳐 실행. (모르겠으면 그냥 바탕화면에 띄어쓰기없이 대충 영어로 폴더 하나 만들고 그 안에서 런쳐 실행) 3. 기다리면 자동으로 실행됨. (정상설치 된 거 확인한 다음 크롬 다운받고 크롬에서 webui 하면 됨.)이러고도 오류뜨면 하드를 싹 밀거나 하드를 새거 사서 쓰는 방법밖에 없다고 봄. +이걸로도 안 되면 뭔가 네트워크 문제(예전에 성인사이트같은거 보려고 우회하느라 네트워크 설정을 건드렸거나 vpn을 썼거나해서)일 경우가 높음. 만약 이런 문제 뜨면(모듈을 제대로 못 받아옴/라이브러리를 못 받아옴) 이건 사용자가 예전에 건드린 것 때문이라 어떻게 알고 해결해줄 수가 없음. 뭘 건드렸었는지 본인이 알아서 찾고 해결해야 돼요. ++뭔가 호환 문제생겼을 때 디렉토리, 사용자 계정명은 영어로, 띄어쓰기는 밑줄_로 하는게 기본임. +++클린환경 기준으로 그냥 원클릭 런쳐 딸깍 클릭하면 정상적으로 설치, 실행돼야 정상인데 어떤 PC에서는 안 됨 = 사람 수 만큼 제각각 다른 PC환경 문제 때문 = 위에서 말한 네트워크 문제거나 그 PC의 어떤 소프트웨어랑 충돌하는 경우라고 볼 수 있음. = 에러코드 찾아도 뭐 나오지도 않고 뭔지도 모르겠고 해결 못한다? 그럼 위 방법 해보고 이걸로도 안 되면 그냥 포맷해서 쓰는게 정신건강에 이로움. " 임시 해결책 RuntimeError: Cannot add middleware...,2023-02-10,13146,40,https://arca.live/b/aiart/69508578?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4,"fastapi 라는 프레임워크가 최근 업데이트가 되었네 0.90.1 버전이 최신인데 무려 1시간 전에 업데이트 되었음 starlette 는 fastapi 에서 땡겨다 쓰는 라이브러리인거 같고 최근 업데이트가 4일전 그 전 버전은 22년 12월이고 일단 모든게 안정화 될때까지 다운그레이드해서 쓰자 stable-diffusion-webui 폴더에서 powerShell 열고 cd ./venv/Scripts/ ./Activate.ps1 pip install --upgrade fastapi==0.90.0 요거하고 다시 webui-user.bat 실행 " 웨딩 드레스 재질 고찰..,2023-02-10,653,7,https://arca.live/b/aiart/69502914?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4," wedding dress, (floral lace dress:1.4) see-through dress 를 추가해도 좋음. wedding dress, (glitter dress:1.6) wedding dress, (sequin dress:1.6) wedding dress, (sparkly dress:1.6) 또는 sparkle dress 미묘함 wedding dress, (spangled dress:1.6) 또는 spangle dress 미묘함 wedding dress, (beaded dress:1.6) wedding dress, (jeweled dress:1.6) wedding dress, (beaded dress, sequin dress, spangled dress, jeweled dress, glitter dress, sparkly dress,:1.4) 그냥 무지성 때려박기 다른 옷들도 다 적용될듯함 " 새로운 샘플러? UniPC,2023-02-10,1848,29,https://arca.live/b/aiart/69501195?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4,"UniPC: A Unified Predictor-Corrector Framework for Fast Sampling of Diffusion Modelshttps://github.com/wl-zhao/UniPChttps://github.com/wl-zhao/UniPC/tree/main/example/stable-diffusion https://arxiv.org/abs/2302.04867 아직 웹UI 에 적용되진 않았는데 상상 이상으로 결과물이 좋아보여서 가져왔음 집에 가자마자 코드 뜯어고쳐서 적용해봐야지 사용하는 방법은 의외로 간단한듯 " Offsite-Tuning,2023-02-10,408,8,https://arca.live/b/aiart/69487249?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4," (a) 데이터셋을 모델 소유자에게 보내준 뒤 소유자가 직접 파인튜닝하는 현재 과정 (OpenAI 등) 문제 1. 데이터셋이 유출될 수 있음 (b) 모델 파일을 데이터셋 소유자에게 보내준 뒤 데이터셋 소유자가 직접 파인튜닝하는 과정 (스테이블 디퓨전 등) 문제 1. 높은 용량의 사전 학습 파일을 통으로 보내주는건 매우 비효율적임 문제 2. 모델 파일이 유출될 수 있음 (c) 에뮬레이터와 어댑터만 보내줌으로써 데이터셋 소유자가 직접 파인튜닝하는 Offsite-Tuning 그래서 에뮬레이터랑 어댑터가 뭐냐고?내가 어케 알아 첫 문단만 읽어봤는데 OpenAI 같은 곳에서 GPT 나 Dall-e 추가 학습시킬 때 써 먹을 수도 있을? 주제인듯 스테이블 디퓨전이은 딱히 관계 없는 내용임 OpenAI 마냥 서비스해서 돈 벌려는 사람들한텐 읽을 가치가 있을듯 https://arxiv.org/pdf/2302.04870.pdf https://github.com/mit-han-lab/offsite-tuning " 런웨이 Gen-1 페이퍼 올라왔음,2023-02-10,385,6,https://arca.live/b/aiart/69485799?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4,"https://arxiv.org/pdf/2302.03011.pdf https://arca.live/b/aiart/69215979 몇 일 전에 올렸던 video to video 서비스인데 웹 사이트 올리고 하루 뒤에 페이퍼 공개했다고 함 궁금한 사람 있으면 함 읽어봐바 " #NAME?,2023-02-10,256,5,https://arca.live/b/aiart/69484765?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4,"예전에 이거 글 써야지 생각했는데 잊고 있었음. 그러다가 https://arca.live/b/aiart/69468792 이 글 보고 생각남신기능은 아니고 꽤 오래전부터 webui에 있던 기능임 Channels last 메모리 형식(memory format)은 차원 순서를 유지하면서 메모리 상의 NCHW 텐서(tensor)를 정렬하는 또 다른 방식입니다. Channels last 텐서는 채널(Channel)이 가장 밀도가 높은(densest) 차원으로 정렬(예. 이미지를 픽셀x픽셀로 저장)됩니다. 이미지를 메모리에 저장하는 다른 방법임. 파이토치 한국 사용자 모임에 한국어로 된 설명이 있음 https://tutorials.pytorch.kr/intermediate/memory_format_tutorial.html 핵심은 이거 쓰면 빨라진다는건데, 전에 내 컴퓨터로 테스트해봤을 때에는 빨라지는 효과를 못봤음 (RTX 3070) 아무튼 님들도 해보고 효과가 있는지 확인해보셈 " 그 작가 그림체 그리는 법,2023-02-10,4980,29,https://arca.live/b/aiart/69475625?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4," 인페이트 따위 안 한 순전히 프롬만 적어서 만든 결과물들 " 아이맥 실리콘M1 사양에서 Web ui 돌리는 뉴비의 후기 (+수정됨),2023-02-10,937,1,https://arca.live/b/aiart/69472339?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4,"안녕하세요. WEB UI 로 입문한 완전 쌩 뉴비이고 파이썬/프로그래밍/기타 컴 언어 전혀 모름. 가끔 맥프로 되나요? 아이맥 되나요? 아이패드 돌려보신분? 등등 질문글은 종종 올라오는데 정작 내가 맥 m1으로 해보니까 어떻더라 하는 글은 없어서 그냥 정보글 겸 글 씀 1. 테스트한 아이맥 스팩 이게 구매당시 가격 (본체만 샀으면 350만원대인데 프로그램 추가해서 420만원대) 실리콘 M1 아이맥이고 공홈기준 가장 높은스펙이고 제일 비싼 옵션임 2. 맥 장단점 장점 - 터미널 이라고 하는 파이썬이 처음부터 기본메뉴에 있어서 파이썬을 깔고어쩌구 하는 초기 진입장벽 자체가 아예없음. - 뉴비라 지금은 이미지 생성만 하고 i2i 등 다른 탭 메뉴는 아직 못해봤는데 해보는대로 내용 추가할 예정 - 처음에 맥 느려터졌다 속터진다 투덜투덜 단점만 쫙 썼는데 알고보니 내가 Hires. fix  허구헌날 이거 설정해놓고 돌렸더니 이렇게 됨. (아래 덧글보고 뭔가 이상하다 싶어서 다른글 찾아보다 깨달음) - Hires. fix 끄고 켜고 차이가 뭐냐고 묻는 뉴비 있을거 같아서 : 컨셉 일러로 먼저 프리뷰로 볼래 아니면 완전 다 꼼꼼하게 퀄리티 높은 일러스트로 볼래 그 옵션이었음. 저 옵션을 꺼야 빨리빨리 진행이 됨. 컨셉나오게 1회용 가챠 돌리는 용으로 하고, i2i로 넘어가서 그림을 더 키우는 단계로 하는게 국룰이었음ㅠㅠ 단점 - i2i 나 다른 옵션을 아직 체험 못해본 뉴비라 아직 단점 잘 모르겠음. - 처음에 이미지 생성할때 Hires. fix 옵션 켜놓고 생성 돌리면 진짜 안좋은 상황 생김. 엄청나게 느려지고 스피커에서 치직치직 소리나고 사람 정서적으로 엄청 불안하게 하고 한번 할때마다 시간 10분 30분 걸림. 3. 맥유저 완전 초보 팁 - 터미널 끄면 ai 안돌아감 - 내가 추출한 그림은 자동 저장되는 폴더가 있음 (/Users/내이름/stable-diffusion-webui/outputs) 이 경로로 폴더에 들어가면 됨. 굳이 추출하고나서 저장하기 버튼 안눌러도 됨 - 한글패치는 꼭 설치하는게 좋음 - 그림이 뭔가 이상하다 싶으면 VAE 가 없거나 설정적용이 안되었는지 꼭 확인 - 설정이 바뀌면 저장하고 끝이 아니라 재부팅(터미널까지 다 끄고 재시작) 하는게 좋음. 무조건은 아닌데 일부 옵션이나 설정은 재시작을 해야 나오는게 많음 (특히 VAE) - 혹시 속도가 뭔가 사람 속터지게 한다 하면 Hires. fix 이거 무조건 꺼라 4. 결론 맥도 나쁘진 않다 좀 소소한 정보이긴 한데 다들 초기엔 너무 많이 헤메고 모르는거 투성이라 작은 정보로 눈이 확 트이는 경우가 있어서 혹시몰라 공유함 다들 정보글좀 많이 써주세요 " ScuNET PSNR 업스케일러 쓰는 법,2023-02-10,410,5,https://arca.live/b/aiart/69468792?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4,"--opt-channelslast <- 이거 추가하면 빨라짐(RTX 16XX이상) hires 끄고 18초에서 10초로 줄어듬 일단 저 업스케일러에 대한 설명부터 찾아보니까 BSRGAN의 개량편이라고 함 https://github.com/cszn/SCUNet 안궁금한 상세내 중요한건 그게 아니고 이놈의 성능이 얼마나 좋냐 이건데 우리가 가장 많이 쓰는 6B와 비교해봤음 RTX 3050, xformers, --opt-channelslast ON 자세한건 이걸로 확인 6B ScuNET PSNR 디자인이 다른건 xformers 때문에 초안부터 다르게 나왔기 때문에 그건 무시함 6B PSNR 깔끔한 느낌이 강한 업스케일러다. 그래서 그런지 색 침투가 좀 덜한 느낌이다. 6B보다 조금 더 빠르다. 개인적인 평으론 빠르기도 하고 분위기가 더 마음에 들어서 이걸 더 애용할 것 같다. 설치법 저번 실험때 이것만 xformers 적용이 안되서 짜증났었는데 생각보다 간단하게 해결이 가능하다. 설치 폴더\extensions-builtin\ScuNET\scripts에 있는 scunet_model.py를 복사해서 설치 폴더\modules에 붙여넣는다. modules\modelloader.py의 79 부분 아래에 dest_path = os.path.join(models_path, ""ScuNET"") move_files(src_path, dest_path) 추가하면 xformers를 써도 적용 가능하다. 참고로 PSNR 안붙어있는건 똑같은 결과물 나오는 느린 버전이다. " 내가 짤 뽑는 방법.gif,2023-02-10,5400,39,https://arca.live/b/aiart/69456600?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=4,"https://arca.live/b/aiart/69440453 만든 한복 LoRA가 개념글 간 김에 내가 짤 뽑는 방법 한 번 정리해봄 로라 테스트 할 겸 돌려보는 거라 한복 로라만 사용해서 프롬프트는 간단히 쓰고 네거티브도 EasyNagative 임베딩 사용해서 간단히 썼음 그렇게 몇 번 돌려보다가 맘에 드는 짤을 먼저 건짐 근데 이렇게 뽑으면 뭉개짐이 많음 ㅇㅇ 아마 로라 가중치를 0.6이나 줘서 평소보다 더 많이 뭉개진 듯 아마 대부분 여기서 Hires.fix 써서 업스케일링 할 텐데 나는 Hires.fix 쓰면 그림은 예뻐지는데 어딘가 한 두 군데씩 형태나 묘사가 맘에 안 드는 부분이 생겨서 조금 다른 방법으로 업스케일링 비스무리한 걸 해줌 일단 send to inpaint 버튼 눌러서 img2img inpaint 탭으로 넘겨줌 그리고 Only masked 체크박스 체크해줌 이거 체크하고 가로 세로 크기를 640 × 960으로 설정해주면, 내가 지정한 부위만 640 × 960 화질로 다시 그려줌 그러면 그만큼 그 부위의 묘사가 세밀해짐 예를 들어 320 × 480 정도 되는 넓이를 지정하면 먼저 그 넓이의 두 배 화질로 그리고 1/2로 축소하는 식이니까 ㅇㅇ 물론 축소하면 손실되는 부분도 있겠지만 워낙 처음 txt2txt로 뽑은 게 뭉개져있어서 크게 신경 쓸 정도는 아니더라 그리고 프롬프트에서도 로라로 인한 뭉개짐을 좀 줄이기 위해서 한복 가중치의 값을 0.6에서 0.3으로 바꿔줌 이제 대충 이렇게 세팅한 다음에 이렇게 영역을 지정해줌 그리고 Generate 함 나는 보통 하반신 → 상체 → 팔 → 머리 → 배경 순으로 영역 지정해서 수정해줌 중간중간 왔다갔다 하기도 하고 ㅇㅇ 그러면 대충 그림판까지 동원해서 이런 과정을 거쳐서 이런 결과물이 나옴 내가 보기에는 처음보다 많이 좋아진 거 같음 이렇게 수정이 끝나면 갤럭시 갤러리 사진 리마스터 기능을 쓰든가 waifu2x를 써서 고화질로 보정해줌 원본은 여전히 640 × 960이니까 이렇게 보정까지 해주면 최종 결과물임 과정이 좀 번거롭긴 한데 그래도 100% 내 취향대로 뽑으려다 보니까 이렇게 되더라 가끔은 먼저 Hires.fix 한 번 돌리고 inpaint 돌리기도 하고 ㅇㅇ 이 짤도 이 방식으로 뽑은 거임 혹시 LoRA 공유글 보고 참고할 사람 있을까봐 " 간단한 TensorRT Lsmith 후기 (윈도우 설치 가능),2023-02-10,1318,19,https://arca.live/b/aiart/69456366?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5," 1. 최근 업데이트로 도커 없이 윈도우에서도 설치 가능. 2. 압도적으로 빠른건 아니고 webui가 4.5it/s 나올때 Lsmith는 9it/s 정도로 2배 빠름. (RTX3060 12GB 기준) 3. 외장 vae나 lora 같은건 못쓰다보니 속도 원툴. 4. diffusers 타입을 독자적인 타입으로 변환하는것만 가능. ckpt는 diffusers으로 변환한 다음에 가능하며 변환 방법은 https://github.com/bmaltais/dehydrate 으로 python convert_ckpt_diffusers.py --checkpoint-path C:\AbyssOrangeMix2_sfw.ckpt --dump_path /AbyssOrangeMix2_sfw 이렇게 쓰면 될듯. 5. EXIF는 남기지 않는듯. https://github.com/ddPn08/Lsmith " instruct pix2pix의 힘,2023-02-10,443,4,https://arca.live/b/aiart/69456136?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5," instruct pix2pix 모델 사용 미사용이미지 형태 유지에 좋음pix2pix 모델에 애니메 계열 모델을 병합해서 사용해야 함작동 원리는 아직 안 읽어봐서 모르겠다나온진 오래됐는데, 이정도 퀄로 뽑는건 처음보네 " 저장용 나를 위한 WebUI 세팅,2023-02-10,1595,2,https://arca.live/b/aiart/69449729?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5,"또 아무 생각없이 재설치 해버려 기존 셋팅 다 날려먹고 기억에만 의존해 겨우겨우 복구를 마친 빡대가리인 나에게 내리는 과거의 내가 작성하는 세팅 가이드 1. 일단 재설치 이후 아무것도 건드리지 않은 바닐라 상태에서 출력물 이름이 다 짤려나가는 프롬프트까지 입력시켜서 쓸때없이 이름 길어지는거 안볼거고 어짜피 exif 정보는 따로 탭 올려 보니까 넌 시드만 보면 되는거야 그니까 이렇게 입력해서 최대한 짧게 정리해서 봐 사용자 인터페이스 탭에 들어가서 나중에 니가 올린 이미지에서 무슨 모델 썻는지 해쉬태그 비교해가며 구분하지 말고 모델 이름도 나오게 해서 찾기 쉽게 만들어 이거 이미 생성 할 때 뻑 갈 수 있으니 그냥 꺼놔 하이퍼 네트워크 머지 스크립트 없이 가중치로 다 되니까 sd_vae 만 적어넣어 컨픽으로 짜피 DPM++ 2M Karras만 설정하겠지만 혹시라도 햇갈려서 잘못 선택 할 일도 있을테니까 DPM++ 2S a Karras는 체크해서 안보이게 냅둬 2. 설정은 끝났고 니가 자주 사용하던 스크립트 다운로드 받아 sd-webui-additional-networks https://github.com/kohya-ss/sd-webui-additional-networks WD 1.4 Tagger https://github.com/toriato/stable-diffusion-webui-wd14-tagger Ultimate SD upscale https://github.com/Coyote-A/ultimate-upscale-for-automatic1111 ABG_extensionhttps://github.com/KutsuyaYuki/ABG_extension 3. ui-config 열어서 수정하기 디폴트 네거티브 : lowres, (worst quality, low quality:1.3), (3D:1.3), signature, watermark, username, artist name 디폴트 샘플러 : DPM++ 2M Karras 샘플링 스텝 : 20 CFG : 11 이러면 끝 " AI가 대부분의 경우에 손을 좀 작게 그리는 편인데,2023-02-09,574,2,https://arca.live/b/aiart/69435845?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5," 변형 툴로 살짝 잡아 늘려주면 덜 어색해짐 " 현재 원클릭코랩 안되는 EU,2023-02-09,2401,23,https://arca.live/b/aiart/69427064?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5,"https://arca.live/b/aiart/69426131 이 오류 이야기임 원래 원클릭코랩에서 OPTIONS['USE_GRADIO'] = True 라는 부분이 옵션 설정에서 있었음 그런데 이걸 최근에 지우신듯 한데 이것 때문에 한참 아래에서 if not OPTIONS['USE_GRADIO'] and not OPTIONS['NGROK_API_TOKEN']: 부분에서 OPTIONS['USE_GRADIO'] 을 찾는데 이게 지워졌으니 없는거 가져오라고 하는 상황 그래서 돌리다가 이거 없어서 난 몰?루 하고 오류 내는거임 그럼 어떻게 하느냐? 대충 원클릭코랩 설정부분 아무데나 더블클릭하면 이런 화면 나오는데 저 OPTIONS = {} 아래 아무데나 OPTIONS['USE_GRADIO'] = True 적으면 됨, ngrok 쓸거면 False로 적어도 상관없음 근데 간단한거라 금방 고치실듯? 그래도 정보탭에 일단 올림 이 당시만 해도 gradio로 webUI 잘 떠지고 그림 뽑는거 확인까지 했었음... 오전12:37 pip install gradio 에러난다 제보옴 -> 확인해보니 설치가 그냥 안됨, ngrok으로 해보라고 조언(이때 되는거 확인함) ngrok 에러난다는 사람 등장 -> ??? 테스트 해보니 난 잘 들어감, 그쪽 ngrok 토큰 문제인듯? 혹시해서 클라우드플레어 확인하려고 함 -> 얘는 왜 무한로딩에 걸리냐? 웨않됨? 결론 - ngrok 쓰자 ngrok 쓰는 기준으로 OPTIONS['USE_GRADIO'] = True 에서 저건 True건 False건 뭐가 들어가도 상관 없음, 그냥 쓰는거 있나 체크만 하는 기능이라 저게 뭔 값이건 무관함 오전9:44 문제되는 해당부분 삭제된거 확인함 이 글은 더이상 쓸모가 없다 " 간소하게 Txt2img 무한찍먹 연습하기 좋은곳,2023-02-09,662,7,https://arca.live/b/aiart/69421492?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5,"https://app.prodia.com/#/ 로그인 불필요함 프롬프트 연습하기 좋와요 " 개인적으로 느끼는 오렌지믹스의 단점을 해결하기 위한 내 작업방법,2023-02-09,4130,21,https://arca.live/b/aiart/69420179?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5,"오렌지믹스를 쓰다보면 느끼는건, 전신에 타이트하게 붙는 의상은 굉장히 잘 표현하는데 전반적으로 어떤 옷을 입히라고 해도 몸에 좀 과하게 붙게 만드는 편임. 이게 바디슈트나 수영복, 란제리 표현에는 좋은데, 후드티같은 사복의 표현에는 굉장히 약한데, 예를 들면 이번에 만들고 싶은 이미지는 이런 컨셉이었단 말이지. 1. 북적거리는 사이버펑크 길거리 배경 2. 화려한 색채의 머리카락 3. 흰색 오버핏 크롭 후드티 + 검정색 하이웨이스트 숏팬츠 이걸 오렌지믹스에게 부탁해보자. 일단 검정색 하의가 어디로 사라진건 둘째치고 저게 어딜봐서 화려한 색채의 머리카락이고 바지핏은 왜이렇고... 이게 영 마음에 안드니 다른 모델에게 일단 이미지를 뽑아달라고 해보자. 사용모델 : Counterfeit v2.5 + 바질믹스 7:3 믹스 (8:2로 해도 무방) (이 이미지에 exif 포함되어있으니 여기서 프롬 뜯어내면 됨) 그림이 깔끔하진 못하고 다리 한쪽이 좀 이상하긴 하지만, 이건 포토샵에서 수정하거나 img2img를 돌릴때 inpaint sketch같은걸로 형태를 좀 잡아주면 될 것 같음. 전반적으로 배경도, 머리카락 색상도, 의상도 전부 내가 원했던대로 훨씬 잘 표현해주는 걸 볼 수 있음. 이걸 i2i돌려서, 내가 원하는 그림체로 바꿔보자. 사용모델 : 오렌지믹스 하드 + 바질믹스 8:2 믹스 디노이징 강도 0.5~0.6 이정도면 꽤 만족스러운 결과물이 나왔는데, 이제 퀄리티업을 좀 해보자. 작업과정은 이전에 올린 이 게시글을 참고 https://arca.live/b/aiart/69184069 (얼굴부분 퀄리티업 전후 비교) 사이버펑크 배경이다보니 캐릭터가 너무 캐주얼한건 별로일 것 같아, 개성을 넣어주기 위해 (glowing cybernetic eyes) 프롬을 추가해주고, 위 링크에도 있는 눈 개선 로라를 적용해봤음. 원래 의도는 눈에 특징을 주는거였는데, cybernetic이라는 단어가 신체에도 반영되어 목에 사이버웨어를 달아줬음. 좋은 방향의 뽀록이라 그대로 가져가기로 함. 캐릭터 전신 및 배경부분까지 크롭 후 인페인팅하여 퀄리티업 마친 이후의 완성본. 작업 전 후 이미지를 다운받아서 원본사이즈로 비교해보면 차이가 확실히 느껴질거임 짧게 요약해보면, 오렌지믹스가 주는 의상 스타일, 캐릭터 컨셉이 마음에 들지 않는다면, 다른 모델로 우선 베이스를 먼저 뽑고, image2image를 오렌지믹스를 통해 돌리면서 컨셉 표현력과 그림체 두마리 토끼를 같이 잡아보자는게 핵심 " cloudflared 확장 만들어옴. ngrok 대신 쓸 수 있는거,2023-02-09,637,5,https://arca.live/b/aiart/69419833?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5," https://github.com/Bing-su/sd-webui-tunnels 뭐하는거냐면, ngrok이랑 똑같은거임 다만 회원가입이나 토큰이 필요없음. 확장 설치하고 실행인자에 --cloudflared 추가하면 https://submission-uploaded-break-broad.trycloudflare.com 이런 주소 생성해줌 지금은 일단 확장 설치하고, --cloudflared를 추가해야 한다는 불편함이 있음 " 3050의 무지성 업스케일러 속도비교,2023-02-09,958,9,https://arca.live/b/aiart/69418497?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5,"3줄 요약 가장 빠른거 - Latent(Nearest exact) > ScuNET PSNR > R-ESRGAN General WDN 4xV3 퀄리티 좋은거(개인적) - LDSR > ScuNET PSNR > 4x-AnimeSharp 가장 쓸만한거 - ScuNET PSNR (ScuNET의 개량형, 결과 같음) 다 쓰고서야 알았는데 ScuNET PSNR 이거 xformers 키면 안보이네? 알려줄 사람 구함 속도 요약, 빠른 순 1.Latent (nearest-exact) | 2:39 | 1.5배 1:08 2. ScuNET PSNR | 2:41 | 1.5배 1:13 3. R-ESRGAN General WDN 4xV3 | 2:41 | 1.5배 1:17 4. R-ESRGAN | AnimeVideo 2:43 5. R-ESRGAN 4x+ Anime6B | 2:45 6. ScuNET | 2:49 7. Nearest | 2:54 8. 4x-AnimeSharp | 3:01 9. SwinIR_4x | 3:06 10. LDSR | 4:36 간략 이미지 기본 설정 RTX 3050 이미지가 얼마나 변하는지 알기 위해 xformers는 꺼놨다 참고로 실험결과 Hires는 시드의 영향을 받으며 똑같은 시드라면 같은게 나온다. 괴롭혀볼 일러스트 https://arca.live/b/aiart/68917133 hires 업스케일러 심화편을 읽어봤다면 알겠지만 latent 계열은 특이해서 0.6 이상이 필요하다. 그래서 0.6으로 설정했다. https://arca.live/b/aiart/69388839 이건 샘플러에 관한 내용인데 2M이 가장 빠르고 중상급의 디테일을 보여준다. 그래서 2M 썼다. 참고로 SDE와 2M의 시간을 비교했을 때는 4초인가 6초인가 차이났다. https://arca.live/b/aiart/69170187 이걸 읽었을 때 내 맘에 든 업스케일러 latent(nearest-exact), animesharp, 6B, Swin를 실험해보고 새롭게 추가할 수 있는걸로 4xV3, animevideo, LDSR, scuNET GAN, ScuNET PSNR 얘네는 관련 코멘트까지 달겠다. 시간은 무지성 스톱워치로 재보도록 하겠다! 오차가 있을지도 모르겠지만 .몇초 차이는 3050에겐 의미 없다. 중지를 누르는 시간은 파일탐색기에 이미지가 뜬걸 기준으로 한다. 바로 시작하자. 1. Latent (nearest-exact) 2. 4x-AnimeSharp 3. SwinIR_4x 4. R-ESRGAN 4x+ Anime6B 이제 저 링크에는 없던 업스케일러로 해보자. 코멘트가 하나씩 끼어들 예정이다. 5.  R-ESRGAN General WDN 4xV3 6B와 비슷하지만 조금 떨어지는 퀄리티를 낸다. (약간 뭉개진다.) 6B보다 조금 더 빠른 것 외엔 장점이 없다. 6. R-ESRGAN AnimeVideo 영상 처리용 업스케일러인데 솔직히 왜 있는지 모르겠다. 6B 또는 4xV3 쓰자. 7. LDSR 얘는 2배 하면 터져버린다. LDSR이 벼슬인가. --medvram 넣고 오자. 압도적인 시간을 보여준다. 반대로 말이다. 추가로 설치도 버그가 났다. 해결하느라 귀찮았다. https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/3375 해결법이다. https://github.com/AUTOMATIC1111/stable-diffusion-webui/pull/5586 빠르게 하는 방법이 있다는데 알아서 해봐라. 그대신 성능적으로 우월하다. 현실 청바지를 그대로 들고온 저 광태를 봐라. 글카가 좋다면 한 번쯤은 이용해보자. 8. ScuNET 얘네는 최근 업데이트된 업스케일러처럼 보이는데 꽤나 대단하다. 6B보다 조금 시간은 걸리지만 유일하게 왼쪽 눈의 색 침투가 일어나지 않았다. 다른 곳을 살펴봐도 잘 안뭉개지는게 꽤 성능이 좋다. 9. ScuNET PSNR 위에 있는 애랑 같은 계열, 이게 좀 더 빠르다. 근데 이미지 차이가 하나도 없다??? 그냥 이거 쓰자. 10. Nearest 안할려고 했는데 이게 가장 빠르다는 정보가 있어서 해본다. 아니니까 쓰지 말자. 개인적으론 퀄리티도 별로다. " 초창기 AI 그림에 대한 영상,2023-02-09,772,4,https://arca.live/b/aiart/69417888?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5," https://youtu.be/8mw7llvn8Fg 1:09 ""그런데 구글팀은 이 기술을 이용해 반대로 텍스트를 입력하면 인공지능이 이미지를 출력할 수 있음을 발견하였다."" (txt2img) AI 그림이 2014년 시발하여 초도 9년차를 맞고 있는데 존재조차 알려지지 않은 때에 비해 대중에게 알려진 이래 괄목할 만한 발전을 이루고 있음... 배가하는 집단지성이란 엄청난 것이야 " 혹시 반실사 뽑으실 때 퓨어에로스나 얼짱65000쓰신다면,2023-02-09,1698,4,https://arca.live/b/aiart/69398967?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5,"[명령어:1이하의 소수점 숫자] 이게 ai생성을 시작하고 step이 몇 퍼센트 지나고 나면 이 명령어를 시작하겠다는 괄호 인데, 이거를 써서 얼마 후에 퓨어에로스랑 얼짱 임베딩을 시작하느냐에 따라서 그림이 달라지더라고. x/0.1/0.3/0.5/0.7 " I2I로 디테일 끌어올릴 떄 아예 극단적인 판형도 하나의 방법인듯,2023-02-09,609,1,https://arca.live/b/aiart/69390740?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5,"그러하다. 이게 어쨋든 픽셀 수가 올라가면 디테일이 사는데, 판형을 가로 세로 다 키우면, 컴퓨터가 좋아야 하니, 아예 내가 필요한 부분만 픽셀수를 키우는 것도 방법인 듯, 그래서 아예 극단적으로 세로로 긴 판형으로 해서 해도 뭔가 재밌는 사진이 나옴. " DPM++ 종류,2023-02-09,2502,37,https://arca.live/b/aiart/69388839?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5,"저번 글에 dpm++가 가장 좋다고 언급했는데. DPM++가 종류가 많다보니 뭐 써야할지 모르는것 같아서 정리해봄. DPM++ 종류가 6개임(DPM++ 2S a, DPM++ 2M, DPM++ SDE,DPM++ 2S a Karras, DPM++ 2M Karras, DPM++ SDE Karras) 여기서 각 단어의 뜻을 알면됨. 2는 2차 샘플러라는 뜻에서 2임 S는  Singlestep임 대표적으로 DPM solver가 Singlestep임 M는 Multistep임 대표적으로 DEIS가 Multistep임 Singlestep와 Multistep의 차이는 Singlestep 고차(2차) 샘플러가 불안정성 문제로 안좋은 성능을 가지고 있는데 이를 해결한게 Multistep임 심지어 singlestep은 step마다 모델을 2번 추론해서 각 step속도가 Multistep보다 2배 느림 a는 Ancestral sampling를 뜻하는데 기술적으로는 생략하고 대충 step마다 더 많은 노이즈를 추가할 수 있어서 더 혼란스러운 출력 이미지를 생성함. 여기서 성능에 차이는 없고 Ancestral와 Ancestral이 아닌 샘플러의 결과에 차이가 있을뿐임. SDE는 Multistep보다 적은 step으로 이미지를 생성하지만 각 step이 singlestep처럼 모델을 2번 추론하기 때문에 각 step이 Multistep보다 2배 느림. 때문에 Multistep이 동일한 시간에선 SDE보다 더 나은 결과를 생성함. Karras는 Karras noise schedule을 뜻하는데 동일한 step에서 더 높은 품질의 이미지을 생성함 요약하면 가장 빠르고 좋은 성능을 보여주는 M과 Karras가 같이 달린 DPM++ 2M Karras을 추천함 " lora 코랩에서 클릭해도 무반응이면 프롬 자동완성 기능 꺼보셈,2023-02-09,370,1,https://arca.live/b/aiart/69384136?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5,"프롬 자동완성기능인 원숭이 확장프로그램 끄면 반응할거임 " 런팟 존나쉽게 하기,2023-02-09,695,5,https://arca.live/b/aiart/69377239?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5,"서론 안하고 바로 본론으로 간다. 준비물: 계정, 돈, 허깅페이스 사이트, 약간의 지능 1. https://www.runpod.io/ 가서 가입하고 충전. 일단 당연하게도 일단 가입하고 충전하자. 참고로 런팟은 10달러 이하로는 안받는다. 2. browse servers 가서 서버 아무거나 집기. 아무거나 잡아라. 스테이블 디퓨전 고른다. my pod으로 가면 이렇게 되는데 기다린다. 잠시 딴짓좀 해라 여기서 가장 오래 걸리는게 이때다, 오류 안나니깐 걱정할 필욘 없음. 로딩속도는 캐바케임. (ㅈㄴ 오래걸려서 중간에 바꿈) 일단 완료되면 이런 화면이 뜨는데 커넥트 누른다. 여기서 주피터랩 클릭 여기서 가장 중요한데 설치가 안되면 여기서 무언가를 잘못한거임, 잘 읽으셈. wget -O /workspace/stable-diffusion-webui/models/Stable-diffusion/pastelwave_bold.safetensors https://huggingface.co/uiouiouio/pastelwave/resolve/main/pastelwave_bold.safetensors 이것은 모델 다운로드하는 명령어다. wget -O /workspace/stable-diffusion-webui/models/VAE/Anything-V3.0.vae.safetensors https://huggingface.co/Kaeya/aichan_blend/resolve/main/vae/Anything-V3.0.vae.safetensors 그리고 이건 VAE를 다운로드하는 명령어다. 여기서 자기가 원하는 모델, VAE를 다운로드하고 싶다면 명심하자. 여기는 허깅페이스다. 여기있는 모델 파일을 클릭해보자. 그러면 이런 화면이 나오는데. 여기 링크를 복사한다. 그리고 저 위에 있는 명령어에 링크를 붙여보자. wget -O /workspace/stable-diffusion-webui/models/Stable-diffusion/pastelwave_bold.safetensors https://huggingface.co/Toooajk/Cornflower_v7/blob/main/cornflower_v7.safetensors 그러면 이렇게 되는데. 여기서 모델 경로에서 파일명을 바꾼다. wget -O /workspace/stable-diffusion-webui/models/Stable-diffusion/cornflower_v7.safetensors https://huggingface.co/Toooajk/Cornflower_v7/resolve/main/cornflower_v7.safetensors 여기서 끝이 아니다. 가장 중요한거로 허깅페이스 링크에 잇는 blob을 resolve로 바꾼다. 가장 중요하다. 그러면 이 링크를 터미널에 입력해본다. 그러면 이러면서 다운로드되는대. 천천히 다운되고있다면 잘 하고있다. 그럼 다시 돌아와서 HTTP로 가보자. 그러면 웹ui 화면이 나오는데 모델이 없는걸 볼 수 있다. 당황하지 말고 reload ui 눌러라. 오류 났다고 당황하지 말고 약간 텀을 두고 새로고침 하면 짠. 로딩이 됐다. 이미지도 잘 작동한다. 이미지 말고도 병합도 잘된다. 끝이다. " 포토샵에서 특정 부분의 원하는 색만 바꾸는 방법,2023-02-09,1279,33,https://arca.live/b/aiart/69375756?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5," 원본 비슷한 방식으로 눈 색이나 머리 색도 바꿀수 있어요 다만 색이 너무 연하다거나 주변 색이 다 비슷하거나 하다면 많이 힘들거에요 튜토리얼 처음 써봐서 좀 이상한 부분이나 이해가 안되는 부분 있으면 말씀해주세요 한글판 기준으로 설명할게요 일단 사진을 불러오고요 개체 선택 도구로 바꿔요 그 다음 네모 안에 원하는 부분이 모두 들어오도록 선택해요 색만 다르다면 원하지 않는 부분이 들어와도 되요 솔직히 주변과 색상이 완전히 다르다 싶으면 그냥 올가미나 도구 선택 툴로 대충 선택해도 되요 아니면 선택 안하고 그냥 진행해도 되고요 그렇게 진행하실분은 2번 건너뛰어 주세요 일단 전 개체를 직접 선택할게요 혹시 모르니까 선택한(색상을 바꿀) 부분을 조금 키울거에요 선택 - 수정 - 확대 1~10 사이에서 해상도가 클수록 높게 입력하는게 더 좋을거에요 이제 래이어 탭의 맨 아래에서 네번째로 있는 아이콘을 클릭한 후, 색조/채도(Hue/Saturation)를 선택해요 (이미지에는 안나왔어요 죄송합니다) 이미지처럼 손 모양을 클릭해요 그 다음 마우스 커서가 스포이드 모양이 될텐데 원하는 색을 클릭하면 되요 그 다음 속성 탭에서 색조를 조절하면 원하는 색으로 바꿀 수 있어요 만약 뭔가 부자연스럽다면 아래로 내려보면 범위를 설정해주실 수 있어요 혹시 색이 바뀌는 부분을 수정하고 싶으시다면 먼저 위와같이 레이어마스크를 선택해요 하얀색 브러쉬로 색이 바뀌는 부분을 넓힐 수 있고, 지우개나 검은색 브러쉬로는 부분을 줄일 수 있어요 " 반실사체 그림 업스케일 하는 과정,2023-02-08,6428,44,https://arca.live/b/aiart/69353315?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5,"그림 올릴때마다 업스케일뭐쓰냐 어케하냐 묻는댓글들이 종종 달려서 내가 그림뽑는 과정 적어봄.이미 아는사람도 있을거고 도움 안될수도 있으니 그냥 이렇게 하는방법도 있꾸나 하고 봐줘 내가 즐겨쓰는 모델이랑 vae임. 모델은 오렌지랑 바질 0.5씩 병합했고 vae는 챈에 그대로 검색하면 다운받을수있음.모델 병합하는법도 챈에 검색하면 나오니 이글에선 생략하겠음. 웨딩드레스 입은 이쁜눈나를 뽑고싶음. 샘플러는 DPM++ SDE karras로 하고 난 항상 스탭은 20, CFG Scale은 11 고정함. 이렇게 했으면 프롬프트 적고 그림 뽑음. 짠 이쁜눈나가 나왔음.프롬프트는 exif 보존해놨음. 여기서 업스케일을 해야함. hires 체크하고 업스케일러 R-ESRGAN 4X+ Anime6B 선택. 디노이징(노이즈 제거강도)은 취향인데 0.5~0.6 사이로함. 노이즈 제거강도가 높아질수록 원본 그림이랑 멀어짐. 0.5로 해야 제일 이상적이게 그림이 뽑히고 0.6으로 하면 얼굴이 살짝 샤프하게 뽑히더라. 업스케일은 1.5~2 사이로 하는데 각잡고 뽑을거면 2로 함. 그래픽카드가 못버티면 어쩔수없이 1.5로 해야함. 업스케일 하면 이렇게 그림이 나옴. 보통 여기까지 하는데 원본그림이 진짜 마음에 들어서 더 퀄리티있게 뽑고싶으면 다음과정으로 넘어감. 나는 업스케일한 그림이 아직 만족스럽지 않음. 확대하면 이빨도 깨져보이고 그림화질이 구림. 그래서 다음과정으로 넘어가겠음. i2i로 보내기를 누름. 그러면 프롬프트,시드 그대로 복사되서 i2i탭으로 옮겨짐 이렇게 나오는데 샘플러는 아까와 똑같이 DPM++ SDE karras 스크립트 -> SD업스케일 -> R-ESRGAN 4X+ Anime6B 선택하고 업스케일 사이즈는 1.5~2로 함. 내 컴퓨터 사양에서 2는 무리라 1.5로 하겠음.이때 중요한게 노이즈제거강도를 많이 낮춰야함. 0.5 이상으로 하면 그림이 분할되면서 여러그림으로 뽑혀서 망함.. 뭔말인지는 해보면 알거임. 나는 0.3으로 하고 뽑겟음. 그래픽카드 사양과 시간이 꽤 많이 걸리는 작업이므로 진짜 마음에 드는 그림이 뽑혔을때 하는 작업임. 그러면 짠. 이렇게 그림이 나옴. 원본 그림 사이즈가 512x768이였는데 2배 -> 1.5배로 늘려서 1536x2304가 됨. 아까와 달리 확대해도 그림이 안깨지고 치아도 가지런히 정리됬지? 끝. " webui-user 실행시 에러코드 1번 해결 방법 (챈에 올라온거 전부 안될때),2023-02-08,290,2,https://arca.live/b/aiart/69349449?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5,"현재 까지 챈에 올라온 모든 방법으로도 에러코드 1번 뜨면서 해결이 안될경우 https://m.blog.naver.com/airdp36/221331530243 이거 따라한 다음에 파이썬 설치한거 삭제 재설치 해보고 해보셈.. " Web UI 구동시에 git Error code : 128 나올 때,2023-02-08,275,4,https://arca.live/b/aiart/69346095?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5," 내가 아직 겪어본 것은 아니지만, 아래에 누가 올린 오류때문에 찾다보니까 https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/4346 이쪽에서 정보 찾음. 대충 보니까 Stable Diffusion을 실행하면서 repository를 땡겨오는데 무슨 이유인지는 몰라도 그 해시값이 맞지 않아서 나는 오류인 것 같아. 윗 글에서는 k-diffusion 쪽에서 오류가 났고, stable-diffusion-webui\repositories 폴더 아래에 보면 repository에 들어있는 모듈 폴더가 보일거임. 그리고 에러 메시지를 잘 보면 오류가 난 모듈이 보일거야. 해결법은 해당 폴더를 삭제하고 다시 실행하라고 하니까. 만약 taming-transformers 쪽에서 에러가 났다면 stable-diffusion-webui\repositories\taming-transformers 이걸 지우면 될 것이라고 예상함. 만약 틀린 내용이라면 이 글은 폭파하도록 하겠다. " 미세먼지 팁) 거슬리는 손 치워버리는법,2023-02-08,2358,23,https://arca.live/b/aiart/69343500?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5,"ai 만지다 보면 항상 아쉬운게 하나쯤은 있는데 그중 대다수가 손 관련 문제임 이게 좀 적당히 기형이면 고쳐보기라도 하겠는데 아예 이딴 지랄이 나면 존나 답도 없더라 ㅅㅂ 얼굴 표정 존나 마음에 드는데 너무 아쉬움 그래서 아예 손이 삐꾸날 확률을 최대한 줄이는법을 짧게나마 연구해보고자 했음 폴더에 있는 짤들 가져다 exif 뽑아다 짤 뽑아보자 첫번째 방법은 손 모양을 만들어 주는거임 이 짤을 보면 흔히 보이는 ai식 기형손임 이제 여기에 손 흔들기, waving 태그를 넣으면 이렇게 뭔가 아쉽긴 한데 고치기도 쉽고 그럭저럭 봐줄만 한 손이 나온다 사실 예시로 든 짤은 잘 안나온 편이고 잘 나오면 이렇게 나옴 그리고 두번째 방법은 그냥 손을 치워버리는거임 masterpiece, best quality, 4k, UHD, mishoujo, painting, beautiful eyes and detailed face, illustration, beautiful detailed, high resolution illustration, glowing_white_particles, 1girl, animated, white shirt, shirt tucked in, sweater vest, pleated skirt, black legwear, brown hair, long hair, yellow eyes, smile, blush, street, standing, neck ribbon, school bag, 이 무난한 여고생 프롬에서 arms behind back 프롬 하나만 추가해주면 이렇게 손을 등 뒤로 보내는데, 손이 안보이니 삐꾸 날 손도 없고 더 청순한 느낌도 준다 그리고 굳이 손 치우려고 쓰는건 아니지만 masterpiece, best quality, 4k, UHD, mishoujo, painting, beautiful eyes and detailed face, illustration, beautiful detailed, high resolution illustration, glowing_white_particles, 1girl, green hair, medium hair, single braid, red eyes, evil smile, crazy face, techwear, black jacket, black pleated skirt, black footwear, small breasts, (chest rig), black_beanie, blush, half-closed eyes, open mouth, 이렇게 손이 존나 아쉬운 짤에서 hands in pockets 프롬 하나만 넣으면 역시 한층 더 보기 좋아짐 ㅋㅋ 근데 두손 다 넣을때도 있도 3짤처럼 하나는 빼놓을수도 있는데 그건 기도메타 가자 그리고 손 모양을 지정해주는건 waving 프롬이 제일 잘 먹는다 peace sign, ok sign, middle finger 등등 손모양을 정해줄만한 프롬을 써봤는데도 waving만큼 잘 먹지는 않더라 당장 저 짤도 peace sign 넣고 돌린거임 나도 뉴비라 거의 도움 안되는 팁이겠지만 누군가에게는 도움이 되길 바라며 써본다 혹시 더 좋은 방법 아는 사람 있으면 공유해줭 나도 궁금해 글 마치며 발 잘나온 짤들도 보고가 " 샘플러에 대해 알아보자.,2023-02-08,2565,38,https://arca.live/b/aiart/69343204?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5,"샘플러에 대해 한번 설명해봄. 샘플러를 이해하기 위해서는 먼저 Diffusion model에 대한 이해가 있어야됨. Diffusion model(DDPM이라 불리기도 함)은 우리가 흔히 아는 방식임. 이미지를 노이즈로 단계적으로 만들고 이의 역 과정을 학습해서 노이즈에서 이미지를 만들수 있게됨. 문제는 얘가 이미지를 생성하려면 1000번을 반복해야함(DDPM 방식). 그렇지 않으면 노이즈가 있는 이미지가 생김. 이를 해결하기 위해 등장한게 DDIM임. DDIM은 간단하게 말해서 1000번을 반복할걸 x번씩 건너뛰어서 (1000/x)번 만에 이미지를 근사해서 생성함.여기서 근사하는 방법의 차이가 샘플러의 차이임. 그리고 샘플러 중 현재 최고가 DPM-Solver++(DPM-Sover의 개선판)임 또는 DPM++임 SD기준 Sampler 성능임 NFE는 Step수고 MSE 과 FID는 낮을수록 좋음.보면 알겠지만 DPM++와 DEIS가 가장 빠르고 성능이 좋음. 근데 DEIS가 DPM++과 달리 일반적이지 않아 다른상황에서는 DDIM보다도 딸리는 성능을 보여주고 SD도 저 특정 상황에서만 잘 작동했을 가능성이 굉장히 높음. 추가로 샘플링 방법마다 근사하는 방식에 차이로 각 step마다 속도에 차이가 날수 있음. 그러나 그걸 고려해도 DPM++는 가장 빠른 속도를 보여줌. 즉 일반적인 상황에서는 DPM++달린것만 쓰면된다. 추가적으로 Euler같은거는 생각보다 더 안좋음 DPM++도 아닌 DPM과 비교조차 안됨. " 이거 진짜 대박이네,2023-02-08,2735,14,https://arca.live/b/aiart/69340668?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5," https://www.reddit.com/r/StableDiffusion/comments/10vslkw/charturnerv2_released/?utm_source=share&utm_medium=android_app&utm_name=androidcss&utm_term=1&utm_content=share_button뒷북임? 방금 레딧에서 봤는데 캐릭터 다양한 각도에서 생성하면서 이렇게 컨시스턴시 유지하는게 진짜 신기하다... " 다운링크) 모델을 Lora로 뽑아낸걸 적용하면 병합된거처럼 나온다,2023-02-08,1641,13,https://arca.live/b/aiart/69340214?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5,"https://civitai.com/user/Kappa_Neuro 여기서 맘에드는 모델 to Lora 다운받아서 additional network로 비율 조정해서 적용하면 병합된거처럼 나옴! 물론 오렌지 모델에도 적용가능 이거 꽤 편하다 다들 맘에드는 모델을 Lora로 쉽게 섞어봐 +개인적으로 dalcefopainting_Lora300 추천 " 뉴비용 WebUI 요약 정보 링크글,2023-02-08,73198,57,https://arca.live/b/aiart/69327931?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5," 제발 정보글 전에 공지 부터 읽기 이게 요약본이니까 제발 읽고 질문 질문 전 여기서 먼저 탐색 middleware 에러 해결법위 에러 해결 중 파워쉘이 꺼져요코랩이 터졌어요No matching distribution found for torch==1.13.1+cu117 " 자주 묻는 질문 모음,2023-02-08,3706,7,https://arca.live/b/aiart/69326021?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5,"AI 뭐써요-모르면 일단 WEB UI본인 그래픽카드로 되나요- 엔비디아 글카면 되긴 거의다 됨 구리면 오래걸리니까 그렇지 (라데온, 인텔 GPU는 난이도 극도로 상승, 코랩 추천) 색이 뿌옇게 나와요 stable-diffusion-webui\models\VAE 안에 VAE 파일 넣고WebUI -> 설정 -> 사용자 인터페이스 -> 빠른설정 리스트에 sd_vae 추가 후 적용 재시작 VAE 선택 이런 그림 어떻게 뽑아요- EXIF 뷰어로 모델 한번 보고 없으면 개인 병합 모델일 가능성도 있으니까 채널 자료실이랑 Civitai, Hugginface 좀 둘러보고 찾아보고 와라   없으면 본인한테 물어보는게 제일 빠름hires가 뭔가요- 대충 해상도 늘려줌hires 하니까 그림이 달라져요- 디노이징 낮춰라샘플링 뭐써요- 써보고 맘에드는거이건 뭘로 만든거임- 약 90% 정도의 확률로 WebUI 그 외 고퀄짤들은 미드저니, 니지저니 등 이제 NAI는 없다고 봐야함xformer 켜야하나요- RTX면 키고 아님 쓰지마~~ 태그 뭔가요- 채널위키 들어가보고 정보글 태그 모음 보면 어지간한거 다있음모델 병합 어떻게 하나요- 체크포인트 병합 -> 1,2,3 차 모델 선택 가중치 조절 후 Mergeckpt safetensor 뭘로 받아요- 둘다 됨 본인은 어지간하면 safetensor나 용량 적은거로 받는편에러는 대부분 한글로 번역하면 뭐가 문제인지 대충 알 수 있으니까번역기라도 돌려보고 질문할것이게 제일 자주본 것 같은 질문들이라누가 물어보면 링크 던져주는 용도로 작성함추가 할거 있으면 댓글로 말해주면 추가하겟음 " i2i로 내가 뽑은 이미지 디테일 상승 시키는 법,2023-02-08,3004,22,https://arca.live/b/aiart/69323595?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5,"아까 약속했던 거 올린다. 사진이 없으면 이해가 쉽지 않다고 해서 올려 ㅋㅋㅋㅋ (기분 나쁜 거 아니야. 오해는 하지 말어.) 어쩃든 난 이게 겁나 짱짱인 것 같아서, 너희들과 같이 공유하고 싶어. 어쨋든 t2i로도 사진 뽑을 때 fullbody면 얼굴이 존나 깨지잖아? 나는 그게, 이 webui새끼가 ""아오 인간 놈들. 일은 존나 시키는데, 하라는 일은 존나 많네."" 라고 생각해서, 하다가 처리 못하는 부분들은 그냥 던지는 거라고 생각했거든. 그래서 i2i과정을 거칠 때, 필요 없는 부분들을 crop해서 디테일을 증가시킬 수 있지 않을까 생각했어. 그래서 그 실험 과정이야. 우선 원본이야. 이미 내가 쪼까 i2i로 가지고 논 거라서 이미 디테일은 거의 극한까지 올라와 있긴 해. 이걸 우선 사이즈 crop을 안 하고 2-3회 정도 디테일 증가 프롬으로 디테일을 올려볼게. 내가 쓰는 디테일 증가 프롬은 대략 이래. (wear clothes:1.3), (semi realistic:1.1), (photo realistic:0.5), (hyper realistic:0.3), (masterpiece:1.05), (best quality:1.05), delicate, smooth line, (finaly detail for eyes and face and body:1.05), (finaly beautiful:1.05), (depth of field:1.05), (anime haircut:0.8), (huge size eyes:1.3), (CG anime eyes:1.1), (human eyes:0.8), (beauty and clear features:0.8), (clear and clean skin tone:1.5), (a light that brightens face:1.3), (Increase quality:1.2), (Increase eye beauty:1.1), (Increase eye size:1.1), (Increase body line mood:1.1), (Increase face beauty:1.1), (Increase skin texture beauty:1.1), (Increase femininity of the body:1.1), (increase cheast beauty:1.1), (increase femininity of the cheast line:1.1), (Increase beauty and gorgeous and sexy and cute:1.1), (most beautiful in the world:1.3), (smoother lighting :1.05), (increase cinematic lighting quality:0.9), 32K, [(PureErosFace_V1:0.2):0.2],[(ulzzang-6500:0.2):0.2]Negative prompt: (undressed:1.4), (worst quality, low quality:1.4), lowers, [(NG_DeepNegative_V1_75T:0.9):0.1], (small eyes:1.3), (black-white:0.6), bad anatomy, bad hands, text, error, (missing eyes:1.05), (missing face:1.05), missing fingers, extra digit, fewer digits, jpeg artifacts, ugly, deformity, grotesque, (Low resolution:1.1), (low pixel:1.2), (eye-watering pixel:1.2), (unfinished face,unfinished eyes, unfinished body, unfinished hands:1.2), (masculinity:1.2), unpleasant, repulsive, nude, 2D, Old Person, (skin tone eyeball:1.3)Steps: 20, Sampler: DPM++ 2M Karras, CFG scale: 9, Seed: 2189246039, Size: 704x896, Model hash: 2d14f20f04, Model: 3moon mix i2i v2, Denoising strength: 0.71, Clip skip: 3, ENSD: -1, Mask blur: 4 모델은 내가 병합했던 그 3moon mix v2를 쓸 거야. 각각 v2/v3/v4야. 디테일이 이미 극한까지 올라와 있어서 그렇게 큰 디테일 증가를 기대하긴 힘드네. 자 그럼 이걸.... i2i의 이미지 크롭 기능을 이용해서 크롭할 거야. 이때 설정은 리사이징 후 채우기로 해줘야 돼. 그래야 얘가 리사이징 후에 부족한 부분을 채워넣어 주거든. 사진 가로 세로 픽셀은 동일하게 유지할게. 각각 v2/v3/v4야. 눈동자 동공 표현등이 증가했지? 그럼 여기서 더 crop을 해볼게. v2/v3/v4야. 질감이나 얼굴 디테일들이 확연히 증가했다고 보는데. 내... 착각이려나. 여기서 더 crop을 해보자. v2/v3/v4야. 이건 좀 확 티나지? 디테일이 증가한 게. 여기서 더 crop을 해봤지. 난 갠 적으로 이 버젼이 제일 이쁘더라. v2/v3/v4야. 근데 여기서 문제가 발생해. v2 이미지가 전체적으로 선예도가 흐리단 거야. 난 이걸 하도 crop을 많이 해서, 픽셀 수가 작다보니, 원본 이미지 자체가 워낙 두루뭉실하게 생긴 이미지이기에 그런 것이라 해석했어. 그래서 v4 버젼에선 이 흐린 걸 피사계 심도로 해석했는지 앞 쪽은 선명하게 뒤 쪽은 흐리게 유지를 했더라고. 자 그럼 내가 제일 이쁘다던 것과, no crop 원본 에서 디테일 증가시킨 것들의 v4 버젼을 비교해보자. 난 갠적으로 디테일 증가가 있는 것 같다고 생각하는데, 너흰 어때? 이 webui가 계산해야 할 영역을 줄여주어서, 확실히 힘을 주어야 할 부분에 더 힘을 주게 된 게 아닐까 하고 생각이 들어. 둘다 가로 세로 픽셀은 똑같지만, 전체적으로 내가 원하는 부분에 더 디테일이 들어간 것 같아. 그래서 난 i2i로 사진을 재 편집할 때, 배경 부분등을 과감히 잘라서 전체적인 이미지의 디테일 상승을 꾀할 수 있다고 생각해. 얘들아. 다들 원하는 이미지 뽑길 바래. p.s 나는 갠 적으로 어저께 저 3moon mix v2를 이용해서 가진 이미지들을 i2i로 nsfw를 돌려봤는데... ㅓㅜㅑ 태그는 이거야. (PureErosFace_V1:0.6),(ulzzang-6500:0.8), (photo realistic:1.4), (hyper realistic:1.4), (realistic:1.3), (real texture skin:1.4), (large beautiful eyes:0.9), (happy orgasm smile:1.2), tears, wet, sweat, cum, cum on body, cum on face, cum on hair, cum in pussy, finaly detail eyes, finaly detail face, finaly quality eyes, finaly detail face, sex, finaly detail pussy, crying, shy face, creampie, steam, sweat, wet, (bitch:1.3), Squirting, (orgasm:1.1), (orgasm face:0.2), (nsfw:1.3), (ectasy:0.3), (drug_sex:0.4), (hardcore sex:0.4), (sex slave:1.4), Choker, gangbang, rape, wide hip + skiny body, oily wet body, 25years old femmefatale girl, realistic lighting, ray trace, (brightening light:1.2)Negative prompt: (worst quality, low quality:1.4), (crisp:1.4), lowers, [(NG_DeepNegative_V1_75T:0.9):0.1], (big nipples:1.2), (old women:0.8), (small breasts:1.2), (small eyes:1.3), (black-white:0.6), bad anatomy, bad hands, text, error, (missing eyes:1.05), (missing face:1.05), missing fingers, extra digit, fewer digits, jpeg artifacts, ugly, deformity, grotesque, (Low resolution:1.1), (low pixel:1.2), (eye-watering pixel:1.2), (unfinished face,unfinished eyes, unfinished body, unfinished hands:1.2), (masculinity:1.2), unpleasant, repulsive, nude, 2D, Old Person, (skin tone eyeball:1.3)Steps: 26, Sampler: DPM++ 2M Karras, CFG scale: 6, Seed: 625563028, Size: 704x896, Model hash: 2d14f20f04, Model: 3moon mix i2i v2, Denoising strength: 0.51, Clip skip: 2, ENSD: -1, Mask blur: 4 관심 있으면 쳐봐. 난 어저께 곧you 헐 뻔 했어. " 샘플링 종류 별 시간,2023-02-08,648,1,https://arca.live/b/aiart/69313751?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5," 시드 고정 중간에 한번 유튜브 켰다가 글카가 비명질렀는데 어딘지 모르겠다 쉬는 시간 없이 연속으로 뽑은 거라 뒤로 갈수록 느려졌을 수 있다는 점은 알아서 감안하십쇼 " 프롬) surface reflection,2023-02-08,1062,12,https://arca.live/b/aiart/69305125?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5,"사용 모델은 NuMergeMix-V3.0 surface reflection 젖은 표면이나 매끈한 표면의 반사를 제한적으로 구현 가능 3D 그래픽에서의 리플렉스 쉐도우같이 그림자 실루엣이 반사되는것도 나오는 편 아래는 유무 비교 좌 없음/우 있음 " 로라 그림체 학습 소소팁,2023-02-08,1783,6,https://arca.live/b/aiart/69289826?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5,"어디까지나 주관적인 정보임 그림체 학습할때는 태그안하고하는게 더 잘먹음 class prompt 에만 style입력 로라 사용시 라고 입력하면 그림체가아니라 학습시킨 그림자체를 따라그려서 이상하게나옴 style 라고 입력해야 그림체가 따라옴 그림체로라로 i2i로 출력할때 마네킹에 대충 색깔입히고 출력하면 마네킹 자세 그대로 프롬을 덧입혀서 그려줌 (결과물개쩜) " i2i에서 자세도 유지하면서 Hires. fix 효과 내는 법,2023-02-08,826,3,https://arca.live/b/aiart/69289661?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5," 원본 클튜나 포토샵에서 사진 처럼 부위 별로 마스킹을 따준다 그리고 인페인트 업로드에서 부위 별로 인페인트하고 인페인트 된 이미지를 다시 인페인트로 옮겨서 다음 부위 인페인트함. 노이즈는 부위에 따라서 0.1~0.6 정도 완 " 반실사나 cg캐릭터들 느낌들 i2i로 화질 개선 방법 팁,2023-02-08,965,-1,https://arca.live/b/aiart/69287119?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5,"리사이징후 채우기로 하신후 사진 크롭 하신다 생각하고 주위 불필요한 여백을 지우시면서 이미지생성해보세요. 배경여백이 날라갈 때마다 디테일이 갑절은 뜁니다 그렇게 수어차례 불필요한 영역 크롭하시면서 계속 주제부분만 남기면서 줄여가보세요. 집이 아니라 사진은 없네요 아 인페인트로 지우라는게 아니고 이미지 투 이미지에 사진쪽 잘보면 펜 모양있어요 그게 크롭 버튼 P.s 3moon mix v2 이거 애니기반 nsfw 더럽게 잘먹네요. 사진 공유할수는 없어서 보여드릴순없지만... ㅓㅜㅑ " 코랩 -9 오류는 왜 뜨는가? & 구드 부계정 활용하기,2023-02-07,1567,22,https://arca.live/b/aiart/69276793?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5,"코랩 -9 오류는 왜 뜨는가? 모델 불러오다 메모리 부족해서 강제 종료(SIGKILL)되면 발생하는 오류임 모델 변경할 때마다 쌓이다가 터지는게 내가 코드를 개판으로 짜서 그런 줄 알았는데 https://github.com/googlecolab/colabtools/issues/3363 시발 내 잘못 아니였음 1. SWAP 사용하기 > 가상 환경 위에선 파티션 전체만 스왑으로 사용할 수 있음 = 불가능 2. 런타임 터트려서[exit()] 메모리 해제하기 > 모델 변경할 때마다 수동으로 셀 다시 시작해줘야함 = 귀찮음, 원클릭 의미가 사라짐 3. 모델 변경할 때 서브프로세스 자동으로 재시작하기 > 조금 불편하겠지만 지금은 이게 최선인듯...? > 언젠가 구현해보겠음 4. 모델 용량 다이어트 시키기 > EMA 지우고 FP16 나 BF16 로 변환하면 쓸만해짐 > 나오는 이미지가 바뀐다면 모델 자체가 병신이였던거임 (https://arca.live/b/aiart/68364254) 5. --lowram 인자 사용하기 > 사실 상 Highres. fix 못 씀 + VRAM 다 쓰면 똑같이 -9 뜸 = 의미 없음 구드 부계정 활용하기 구드 부계정 연결해서 용량 제한 우회하는 사람들 많던데 읽을 때마다 트래픽 소모되니까 조심히 사용하자 여러 번 불러오면 제한 먹고 오류남, 풀려면 24시간 대기해야됨 SD 폴더 전체를 공유로 때려박는 챈럼들 많은거 같은데 그러지마셈 폴더로 박으면 코랩이 싫어함, 아마 fuse 관련 이슈 같은데 서버 단에 문제 있는거라 내가 해결할 수준이 아닌듯 어처피 폴더 채 넣어봤자 업로드는 부계정으로 올려야 됨 (업로드한 계정의 용량으로 책정 = 부계정 쓰는 이유가 없음) 부계정 로그인한 뒤 구글 드라이브에 아무 폴더나 만들고 모델 파일 집어넣기 본계정 이메일에 해당 폴더 공유하기 (권한 상관 없음, 영상 무시해도 됨) 귀하의 브라우저는 html5 video를 지원하지 않습니다. 본계정에서 좌측 공유 문서함에서 방금 공유한 폴더에 들어가서 원하는 모델 오른쪽 클릭한 뒤 바로가기 만들기 귀하의 브라우저는 html5 video를 지원하지 않습니다. " 한눈에 알아보는 SD 작동 방법과 NAI 유출의 역사,2023-02-07,480,5,https://arca.live/b/aiart/69275669?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5," " 캐릭 뭉갠 배경원화 뽑기,2023-02-07,2028,26,https://arca.live/b/aiart/69275239?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5," ↑사람 그림 굳이 캐릭을 왜 뭉게지 하겠지만 포커스를 배경에 두기 위함임. 캐릭 퀼을 조지면서까지 꾸역꾸역 넣는 이유는 크기를 비례로 확인하는 장치로 인체 만한게 없거든. 배경 원화 작업할땐 원래 이렇게함 AI한테 인물을 포함한 배경을 그리라 시키면 캐릭에 비중을 너무 둬버림. 포커스가 배경이 아니라 인물로 가버린다... ai는 생각보다 멍청하기도 함 이 정도가 딱 목표인데 이런건 잘 안내줌 그러다가 우연히 방법을 찾았는데 CharTurner 임베딩이였음 https://arca.live/b/aiart/67690645 배경이랑 하나도 연관 없는데? 싶겠지만 호기심에 얘한테 배경프롬 넣으면 어떻게되나 집어넣어봤다가 큰 발견을 함 본가는 평소대로 그리려 하고 임베딩은 최대한 캐릭터들을 좌르륵 늘어놓아야 하는데 배경에 자리뺏기고 결국 그리다만 캐릭 텨나오는거 같음 임베딩 입장에선 죄다 파울볼인데 내 입장에선 높은 타율로 적중함 프롬이랑 가중치 잘 조절해서 연구해볼 값어치는 할 거 같음 저 임베딩은 원래 이런거 뽑는 애 캐릭터 시트 임베딩도 있고 실내 방 lora도 챈에 올라왔고 배경원화도 이렇게 확보 가능하고 UV맵 펴주는 AI 빨리...... " U-net 병합 오렌지 레시피 간단정보,2023-02-07,2383,32,https://arca.live/b/aiart/69270102?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5," weight value값 1,0.9,0.7,0.5,0.3,0.1,1,1,1,1,1,1,0,0,0,0,0,0,0,0.1,0.3,0.5,0.7,0.9,1. 오렌지 믹스 만드는데 바질을 섞을 때 사용했다는 레시피. U-net의 레시피는 뭐가 어떻게 나올지는 모델마다 달라지기 때문에 입문이 매우 골때리는데 그나마 오렌지믹스 레시피는 쓰는 사람도 꽤 있고 많이 굴려봐서 대충 가늠이 잡혀있음. 쉽게 얘기하면 오렌지믹스 레시피로 섞을 시 In모델의 그림체+화풍에 Out모델의 채색을 더한다고 보면 됨. 물론 엄청 두루뭉실하게 표현한거지 모델에 따라 B의 화풍도 어느정도 들어가는 등 케바케가 많으니 시도는 해봐야 됨. 예시로 파스텔믹스와 ligne claire를 가져와봤음. 왼쪽은 파스텔풍 채색에 화려한 화풍, 오른쪽은 대비가 강한 채색에 스케치풍 화풍을 가지고 있음. 이제 이걸 오렌지믹스 레시피로 섞어주면... Pastel(in) + ligne claire(out) 결과물. Pastel의 화려한 화풍에 ligne claire의 대비가 강한 색채가 섞임. ligne claire(in) + Pastel(out) 결과물. ligne claire의 스케치풍 화풍에 Pastel의 파스텔풍 채색이 섞임. 물론 이건 케바케라서 종종 이 공식이 안먹히긴 한데, 그래도 대충 이렇게 적용된다로 생각하면 될듯. 특히나 이미 여러 모델이 섞인 다중병합모델을 섞을 때 이 공식이 종종 안먹힘. 태생이 바질 섞을 때 사용된 레시피라서 실사모델인 바질을 섞을 때 특히 이 공식이 좋음. 위짤은 해당 레시피로 만든 ligne claire(in) + BasilMix(out) 결과물. 사실 병합하는 사람들은 다 아는 뒷북정보같지만 혹시나 병합 츄라이 해보고 싶은 사람 있을까봐 끄적여봄. " 코랩 5초만에 이미지 생성.,2023-02-07,835,2,https://arca.live/b/aiart/69266351?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5," 귀하의 브라우저는 html5 video를 지원하지 않습니다. Pastel-mix + sd-vae-ft-mse 512x512, steps=28, cfg=10. 이게 되네??? 근데 텐서코어 쓰는 더 좋은거 발견해서 그것도 한번 테스트 해 보러 감 ㅇㅇ " 학습팁 - 학습 완성도의 90%는 원본 데이터에 달렸다.,2023-02-07,2673,25,https://arca.live/b/aiart/69264618?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5," 초간편 하이퍼학습 정보글을 올리고 질문글이 들어왔다. 하라는대로 했는데 학습이 조금 잘 안된다는 질문이었다. 학습에 사용된 그림은 상기 그림이다. 1. 첫번째 팁 WebUI는 투명배경을 검은색 취급한다. 투명배경를 사용한 그림을 학습에 사용하면 아래와 같이 그림의 배경이 새까맣게 나오는 경험을 할 수 있을 것이다. 2. 두번째 팁 학습 데이터는 상상 이상으로 민감하다. 아래 그림들을 보면 빨간 네모를 친 부분의 픽셀이 희미하게 뭉개져 있는 것을 볼 수 있다. 아래와 같은 그림들로 학습을 하면 이런 희미하게 뭉개진 픽셀도 모두 학습하게 된다. 자동으로 누끼를 따서 깔끔하게 정리되지 못한 외곽선도 문제다. 3. 세번째 팁 학습 데이터가 문제인 점은 학습률 조정으로 어느정도 극복이 가능하다. 아래 그림은 각기 학습률 0.0003, 0.0002, 0.0001을 사용한 그림들이다. 0.0001에서 많이 개선된 것을 볼 수 있지만 만두머리가 뭉개진 것이나 머리끝 픽셀이 뭉개진 것 까지 모두 학습한 것을 확인할 수 있다. 4. 결론 학습 완성도의 90%는 원본 데이터에 달렸다 " 념글꺼보다 좋은 메모리 대기열 클리어 툴 ISLC,2023-02-07,1010,16,https://arca.live/b/aiart/69256123?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5,"같이보기 : https://arca.live/b/aiart/69230678 Intelligent standby list cleaner (ISLC)를 소개한다. https://www.wagnardsoft.com/forums/viewtopic.php?t=1256 그 유명한 DDU 만든 곳에서 만든 유명하지못한 툴 버전업이 안된지 오래 됏는데 욘나 완벽한 프로그램이라서 할 필요가 없기 때문이라는게 정설일정도로 개쩌는 물건임. 가운데 Purge Stanby list 로 수동으로 비워줘도 좋고 Start를 누르면 대기열이 왼쪽 아래 설정값을 만족할 시 자동으로 Purge를 해 줌. 트레이에 최소화 가능 저 두 설정값은 오피셜 1024가 낫다 함. " 실사짤 보고 온 뉴비들은 이 글을 읽어라,2023-02-07,12645,52,https://arca.live/b/aiart/69254155?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5,"끝까지 읽어라 우선 니들이 그토록 찾는 실사짤은 대부분 이 basil.mix라는 모델 https://oo.pe/https://huggingface.co/nuigurumi/basil_mix/tree/main 혹은 basil.mix에다가 아래의 Abyssorange2를 소량 병합만 모델으로 만들어진거다 https://oo.pe/https://huggingface.co/WarriorMama777/OrangeMixs/tree/main/Models/AbyssOrangeMix2 들어가서 safetensor 붙은 파일 중 가장 가벼운걸(2GB~5GB)로 받아가면 된다. 모델 써서 뽑는 방법은 아래 참고 https://arca.live/b/aiart/68935395 만약 챈에서 활동할거면 제발 공지좀 읽어라 https://arca.live/b/aiart/61235642 https://arca.live/b/aiart/64093212 위 공지 2개만 제대로 읽어도 어지간해서 차단당할 일도 없고 기초 정보는 다 챙겨가고도 남는다 그 외의 정보들도 왠만해서 검색하면 5분 안에 나온다 그러니 질문탭 쓸거면 쓰기 전에 딱 5분이라도 검색해봐라 챈럼이던 챈럼이 아니던 실사 모델을 가지고 야짤을 뽑던 뭘 하던 터치는 안하겠지만 그걸 굳이 커뮤에 올리면서 어그로 끄는건 좀 줄이고 되도록 혼자서 즐기자. 괜히 꼬투리 잡힐 건덕지 생기면 우리 모두 피곤해질 뿐이다. " 초보자를 위한 AI그림 가이드 1부,2023-02-07,4456,69,https://arca.live/b/aiart/69251492?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5,"어차피 공지도 안읽는 애들이 이런걸 볼려나 싶겠냐만 그래도 일일히 공지 읽으라고 싸우는것보다는 좀 알기쉬운 가이드 만드는쪽이 낮지 않을까 싶어서 한번 만들어봤음 이제 주요 채널 되어서 뉴비도 많이 들어올테니 초보를 위한 설명글이 많아서 나쁠거야 없겠지 내용에 대한 질문 ,지적은 언제나 대환영(현제 2부 제작중) 2부에서 계속 " (매우 유용함) 이미지의 형태를 그대로 유지하며 얼굴 등의 디테일을 떡상시키는 법,2023-02-07,796,4,https://arca.live/b/aiart/69241680?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5," 원본 척 보기에는 괜찮은데 확대해서 보면 형태가 서로 합쳐지고 디테일도 뭔가 별로 특히 얼굴이... ㅎㅌㅊ인 얼굴을 가려준다 얼굴을 가렸던 마스킹 이미지를 인페인트 업로드에 넣고  쪄준다 마스크 이외 영역만 체크 Only masked 체크 노이즈는 0.5~0.6 쨘 " 매쉬 변경을 이용한 이미지 리터칭,2023-02-07,324,3,https://arca.live/b/aiart/69238372?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5," 머리띠랑 머리카락이 합쳐져서 형태가 이상하다 멀쩡한 주변 머리카락 복사해서 새 레이어로 매쉬 변경 변경툴을 사용하여 쭉쭉 체조 이렇게 대강 해주고 해당 부분을 인페인트 약하게 해주면 자연스럽게 합쳐진다 " WebUI를 사용하는 챈럼들을 위한 추천 프로그램 3개,2023-02-07,2291,46,https://arca.live/b/aiart/69235209?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5,"1. QTTabBar 이걸 이렇게 바꿔줌 2. Everything 이걸 이렇게 바꿔줌 3. Treesize 어떤 폴더, 어떤 파일이 용량을 얼마나 차지하는지 한눈에 보여줌 상남자는 긴 설명따위 필요없다. 사진과 움짤 한장이면 충분하다. " WebUI 쓸때 메모리 유출문제 해결방법,2023-02-07,1920,31,https://arca.live/b/aiart/69230678?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5," WebUI 켜서 모델 병합한다던지 때문에 모델 계속 바꿔끼다보면 어느순간 메모리가 다 사라져있고, 이보다 심하면 c: 용량까지 가상 메모리로 다 잡아먹히는 경우가 있다. 그래서 xyz 그리드로 신나게 짤 뽑다가 뜬금없이 c: 용량이 다 사라져버리는 황당한 경우도 생김. 이 문제는 WebUI의 버그인지는 모르지만 메모리 유출 현상때문인데, 작업관리자를 켜서 메모리부분을 보면 이따위로 하얀색 부분이 엄청 많은 부분을 차지하고 있다. Standby라고 써있는거 보니까 어차피 쓰지도 않는 부분임. 모델을 계속 바꾸다보면 이 부분이 점점 늘어나면서 남은 메모리를 냠냠 처먹는걸 볼 수 있다. 그리고 제일 큰 문제가 있는데, 이 부분은 WebUI 프로그램을 꺼도 사라지지 않고 남아있는다! 즉, 이 메모리 유출을 해결하기 위해서는 일반적으로는 그냥 컴퓨터를 재부팅하는 수 밖에 없다. 근데 자꾸 껐다 켰다 하려면 존나 귀찮으니까 컴퓨터 안 끄고도 이거 고치는 방법 알려줌. 이건 RamMap이라는 프로그램으로 고칠 수 있다. 마소에서 만든거니까 스파이웨어 이딴거 걱정 안하고 마음 놓고 받아서 설치해도 됨. 이거 설치하고 실행하면 대충 이런 화면이 뜨는데 여기서 Empty -> Empty Standby List를 누르면 좆같은 하얀 부분이 싸-악 사라진걸 볼 수 있다. 그래서 모델 자주 바꿔끼면서 그림 뽑을 예정이면 RamMap과 작업관리자의 메모리창 둘 다 켜놓고 메모리 꽉 찰때마다 비워주면 불쌍한 c 드라이브가 고통받지 않을 수 있다. " (링크)인벤 사이트에 ai 그림 할 수 있는 거 나옴,2023-02-07,883,5,https://arca.live/b/aiart/69224379?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=5,"부에르 - AI 그림그리기 - 인벤 (inven.co.kr) 무료 3번인데 퀄리티랑 속도 되게 좋은듯 " "[포토샵강의] 포토샵으로 머리 염색, 눈 색상 바꾸기",2023-02-07,796,17,https://arca.live/b/aiart/69219749?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6,"다른 강의도 있음. 계속 쓸 예정 포토샵으로 삐꾸난거 고치는법 프롬에 나는 분명 black_iris를 넣었는데 이색기가 자꾸 불그죽죽한 눈동자만 쳐그려서 포토샵으로 직접 하기로 함. 원본임 혹시 모르니까 레이어 복제해서 원본 냄겨두고 작업할거임 빠른 선택 도구로 선택해주고 Ctrl+U를 누른다. 이런 창이 뜨는데 눈동자 색상을 바꾸고 싶다면 우측 하단 ""색상화"" 체크 후 ""색조"" 바를 움직여 조정해준다. 이렇게 파란 눈동자로 바꿀 수도 있다. 내가 원하는건 검은색 눈동자이므로 채도를 0으로, 좀 더 어둠의다크에 가까운 눈동자를 원하므로 밝기를 줄여주겠다. 아래와 같이 나온다. 자 이제 염색도 해보자 혹시 모르니 레이어를 하나 더 복사하고 선택 - 색상 범위를 클릭한다 영어로는 뭐 Select - Color Range 쯤 되겠지. 기억안나서 나도 잘 몰?루 이런 창이 뜰텐데 머리카락의 중간색쯤을 찍어준 뒤 허용량을 적절하게 조절해준다. 눈썹, 눈동자가 같이 선택되더라도 상관 없다. 다음스텝에서 제외해줄거임. 빠른 선택 도구에서 Alt를 누른 상태로 제외할곳을 슥슥 문대준다. 위그림에서 빛방향 하이라이트 부분이 선택되지 않았는데, 빠른 선택 도구로 Shift를 누른 상태로 추가해주면 된다. 잘못 제외했다면 Ctrl-z로 되돌릴 수 있다. 이렇게 머리카락만 남겨준다. Ctrl + U를 눌러 눈동자 바꾸듯 똑같이 바꿔준다. 맘에 안들면 채도와 밝기 등을 적절하게 조절해주면 된다. 군데군데 번진 곳은 e키를 눌러 지우개로 슥슥 지워주면 된다. 근데 이게 귀찮다면 똑같이 색상범위로 선택하되, 이전보다 허용량을 70% 수준으로 줄이고 남은부분을 마저 선택해 준 뒤, 우클릭 - 반전 선택을 누르고 Delete 키를 세네번 눌러준다. 너무 많이 지운 부분이 좀 보이긴 하지만 이건 컨트롤즤 눌러서 다시 선택하면 된다. + 댓글에 i2i 돌려보래서 돌려봄 결과물 쎆쓰하군 " StabilityAI 손절한 Runway 근황 - Gen-1,2023-02-07,2042,20,https://arca.live/b/aiart/69215979?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6," 손절한 이유https://arca.live/b/aiart/61082122프로젝트 페이지https://research.runwayml.com/gen1아티클https://www.technologyreview.com/2023/02/06/1067897/runway-stable-diffusion-gen-1-generative-ai-for-video/ 얘네도 video2video 만드는 중임정적 이미지는 최적화나 파인튜닝 관련된 내용만 올라오고 있고인공지능 트렌드는 동영상으로 넘어간듯...Gen-1 은 SD 같은 공개 모델은 아닌 걸로 보임 " 포토샵으로 삐꾸난거 고치는법,2023-02-07,539,10,https://arca.live/b/aiart/69210468?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6," 일단 이렇게 나왔다 저 라켓을 지워보자 왼쪽에서 요술봉을 길게 클릭하면 저런 메뉴들이 나오는데 자동 선택 도구 선택 후 라켓 클릭한다 선택 안된 부분은 쉬프트+클릭으로 추가 선택 해준다. 적당히 이정도만 하겠음 이 상태에서 상단 메뉴 편집 - 내용 인식 채우기 클릭 영어로는 Content Aware Fill 임 그럼 아래처럼 초록색으로 덧칠된 부분이 있을텐데, 내용을 인식하고 싶은 부분은 코트 잔디이므로 몸이랑 뒤쪽 펜스를 드래그해서 지워준다. 오른쪽에 미리보기 보면서 알잘딱 하셈. 코트에 그려진 라인도 인식하기 때문에 라인도 선택 해제 컨트롤 D를 눌러 선택해제하면 이렇게 보인다. 경계선이 좀 남아있는데, 스팟 복구 브러시 툴을 선택하고 경계선쪽에 문질문질 해주면 끝 손에 들고있는건..... 인페인트 하자... 응용 " 코랩 7초만에 50 스텝 뽑는거 성공함 (아니였음),2023-02-07,2098,30,https://arca.live/b/aiart/69206755?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6," PastelMix, 50 steps. 22.29it/s 속도로 뽑기 가능. 지금 폰으로 해서 자세한 세팅은 못하겠는데 나중에 집 가서 연구하면 빠른 속도로 이미지 뽑기 진짜 가능할듯... 뽑는데 7초 걸리고 초반 모델 로딩하고 하는데 40초 정도 걸리긴 함. 근데 이건 집 가서 수정해볼게 + https://arca.live/b/aiart/69250031 뽀록이였음 ㅠ " 존나 긴 네거티브는 쓰지마라,2023-02-07,3671,30,https://arca.live/b/aiart/69202020?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6,"결국 일반 프롬프트든 네거티브든 토큰 수는 정해져 있음기본 sd 모델 토큰 제한이 아마 75개일 거임그 이상의 토큰은 부가기능으로 사용 가능하게 만들었을 뿐, 원래 모델이 지원하는 길이가 아니기에이미지 생성 전에 처리할 게 많아져서 느려지고프롬프트(네거티브)가 길어질수록 각 토큰 하나의 역할은 희석되니까 다른 네거티브를 사용해도 잘 안 먹음게다가 무작정 퀄리티만 높이려고 만들어진 프롬프트라서 특정 동작이나 상황도 태그에 들어있음. 잘 찾아보고 제거하지 않으면 원하는 그림을 뽑기 어려워짐추가로 모델이 뽑는 그림체가 하나로 고정됨 이 그림은 다들 기대 이하라고 하던 wd 1.4에 커스텀 로라 하나 끼운 상태로 생성한 그림임네거티브는 (bad quality, worst quality:1.4)에다가 태그 몇 개만 추가함(고양이가 나와서 cat 추가하고, 가슴이 커져서 big breasts 추가하는 식으로)퀄리티 프롬은 best quality, masterpiece랑네거티브에 (bad quality, worst quality:1.4) 뿐이지만 충분히 높은 퀄리티가 나옴결국 모델과 프롬프트에 따라 네거티브를 직접 제어하는 쪽이 더 좋다는 것그러니 ㅈㄴ 긴 네거티브는 상황 잘 보고 수정해서 쓰길 자람 " 초간단 초패스트 저용량 하이퍼네트워크 학습법(0208수정),2023-02-07,3603,43,https://arca.live/b/aiart/69200689?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6,"이 학습법은 WebUI로 그림뽑기는 성공했는데 학습이 어렵다는 뉴비들을 위해서 만들어졌다. 너무 쉽고 효율도 좋고 학습도 빠르게 되고 용량도 작아서 나만 알고 있으려고 했던 학습법인데 이제 로라가 퍼져서 다들 빠르게 고퀄리티의 학습파일을 뽑아내는 시대가 왔으니 그냥 노하우 대방출이다. 사담이지만 사실 LoRA가 좋은것도 있지만 Koyha선생이 디폴트 설정을 잘 해놨다. 학습 설정을 딱히 안건드려도 디폴트 설정 그대로 학습 돌리면 학습 결과가 좋으니 더욱 효과가 좋게 느껴지는 것 같다. 하이퍼네트워크도 디폴트 설정이 아래에 설명할 내용대로 설정되어 있었다면 좀 더 평가가 좋지 않았을까 하는 생각이 있다. 아무튼 각설하고 1.장점 쉽다 따로 로라나 확장을 깔지 않아도 WebUI 실행을 했다면 순정 WebUI에서 학습이 가능하다. 빠르다 3060ti 기준 학습 한번에 3분 30초가 걸린다. 코랩이면 6분쯤 걸릴듯 저용량이다 학습파일 하나당 21메가로 저용량이다. 학습 방법 1. 데이터를 1장 준비한다. 데이터를 많이 준비하려면 귀찮기 때문이다. 그리고 준비한 데이터를 아래와 같이 세장으로 늘려준다. 얼굴 중심 정사각형 사이즈로 1장 얼굴에서 허벅지까지 정사각형 사이즈로 1장 그리고 준비한 원본 1장 이렇게 총 세장이다. 결국 그림은 1장만 구하면 되고 나머지 두 장은 스샷으로 크롭하면 된다. 자료 해상도는 아무렇게나 넣어도 됨. 극단적으로 4000*5000 같은 해상도 그림도 넣어봤는데 그냥 학습 잘 됨. 데이터 원본 처리 참고용 글 작성해봤음 https://arca.live/b/aiart/69264618 캡션과 태깅은 안한다. 귀찮기 때문이다. 2. WebUI 훈련탭으로 간다. 훈련탭에서 하이퍼네트워크 생성탭으로 간다 1) 학습파일명을 정해준다. 나는 Soda_hyper로 정했다. 2) 레이어는 1,1로 해준다 3) 드롭아웃은 0,0으로 해준다. 4) 하이퍼네트워크 생성버튼을 눌러준다. 다른 설정값은 모르면 그냥 따라해라 기본 설정 그대로 가져왔다 기본적으로 아무것도 안건드리면 나랑 같은 설정이다. 이미지 전처리는 안한다. 귀찮기 때문이다. 3. 훈련탭 아래의 훈련탭으로 간다. 1) 아까 만든 Soda_hyper를 선택해준다. 2) 학습률을 0.0001으로 설정한다.(경우에 따라 0.0002나 0.0003을 사용하는것도 추천한다) 3) 위에서 만든 세장의 그림을 넣은 경로를 지정한다. 4) Do not resize images 체크(안해도 됨) 5) 최대스텝 수 500으로 수정 6) 하이퍼 네트워크 훈련 버튼 클릭 다른 설정값은 모르면 그냥 따라해라 기본 설정 그대로 가져왔다 기본적으로 아무것도 안건드리면 나랑 같은 설정이다. 7) 학습완료를 기다린다. 코랩이면 6분쯤 걸린다. 8) 학습이 완료되면 화투패를 누르고 리프레쉬를 누른뒤 사용한다. 학습 완료된 파일은 자동적으로 하이퍼네트워크 폴더에 추가가 되어 있을 것이다. 비교를 위해 양쪽 다 태그는 1girl만 사용되었다. 머리색이나 눈 색 복장등의 프롬프트를 추가하면 양 쪽 다 조금 더 퀄리티가 올라간다. 추가 프롬프트 없이도 그냥 저냥 쓸만한 퀄리티가 나온다. 결과물           <>          비교용 같은 학습데이터 같은 프롬프트로 뽑은 로라짤 비교용 원본 " "시드 리사이징 세로길이, 가로길이에 있는 오류",2023-02-06,279,4,https://arca.live/b/aiart/69194213?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6,"결론 시드 리사이징 세로길이 = 가로에 맞춤 시드 리사이징 가로길이 = 세로에 맞춤 즉 세로와 가로가 뒤바뀌었습니다. 보시죠. 이번에 실험해볼 돚거해온 이미지입니다. (Exif 있음) 960x512 해상도니까 이렇게 맞추면 되겠죠? 그리고 본 이미지의 가로를 늘리고 싶으니까 1200x512로 뽑도록 합시다. 정상적으로 작동한다면 구도가 크게 변하지 않은 상태로 사이즈만 늘어야겠죠? 하지만 완전히 격변해버립니다. 시드 리사이징을 반대로 맞춘 결과물을 볼까요? 전체적인 구도나 자세, 들고있는 가방의 유사성등 아무리봐도 이게 더 비슷해보입니다. 더욱더 확실한 결과를 위해 980x512로 뽑은 결과물또한 비교해봅시다. 1. 일때 2. 일때 마찬가지로 세로와 가로가 반전된 경우에 제대로 나오는걸 볼 수 있습니다. 다 쓰고나서 깨닳았는데 그냥 한글패치를 빼보면 알 수 있는거 아닌가? 싶어서 해봤습니다. 왼쪽이 가로고 오른쪽이 세로네요... 아무튼 검증되었습니다만... 난 이걸 왜 쓴거지? 한글패치에 버그가 있다 정도로 알아가면 될 듯 싶습니다. " 로라 학습준비할때 필수품,2023-02-06,1143,3,https://arca.live/b/aiart/69187827?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6," 그거슨 아이패드 프로... 그림원하는부분 누르면 자동으로 누끼 따지고 프로크리에이트가서 저장한다음 내보내면 깔끔하게 누끼딴 이미지파일을 얻을수있음.. 이게 학습용 이미지 5200장 모은 비법임 " Lora 학습 실패로 자살하고 싶은 ㅈ밥 뉴비들만 이리와라,2023-02-06,13868,129,https://arca.live/b/aiart/69186437?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6,"https://arca.live/b/aiart/68205055?mode=best&target=all&keyword=lora+%ED%95%99%EC%8A%B5&p=1 이게 되게 자세하게 쓰인 글이다. 근데 아예 처음 접하는 사람 입장에선 외계어처럼 보임. 같은 질문이 하루에도 몇번씩 올라오길래 그냥 글 판다. 그러니까 이 글은 좆밥 일주일 차 뉴비인 내가 인정한 좆밥들을 위해 쓰인 글이다. 이미 로라따위는 그냥 만드시는 현명한 선생님들은 그냥 지나가 주시길... 일단 위의 링크를 타고가라. 그리고 무조건 '수동 설치' 과정으로 7번까지 끝내라. 굳이 수동 설치를 하라는 이유는, 자동 설치 했더니 안된다는 애들이 한둘이 아님(나 포함) 그러니까 설치 다 끝내고 8번부터 들어간다잉? 8번 데이터셋 가공하기.... 를 하기 전에! 1. 폴더 두 개를 만들어라. 이름은 A와 B. (1) 'A'폴더는 학습할 사진을 두고, (2) 'B'폴더는 비워둔다. 2. gui.ps1를 PowerShell로 실행. 아래 사진처럼 주소가 뜨면 인터넷 창에 복붙한다.(webui 주소와 같다.) 3. 사진대로 클릭해서 A폴더(사진 넣어둔 폴더)로 경로 지정. 이후 동그라미 쳐진 버튼을 클릭하면, 이렇게 파워쉘에서 반응이 있다. 4. 마찬가지로 표시된 대로 클릭 1번에는 그냥 iom 넣어라. 2번은 난 배경짤이라 랜드스케이프 넣음. 이게 영향을 미치는지 아닌지 난 1도 몰?루 그냥 혹시 모르니 여자면 1girl같은거 넣으면 될듯. 3번은 그림 저장해놨던 A폴더. 4번은 난 100으로 뒀는데 캐릭터 로라 만들때는 아주 잘 먹었음. 5번은 처음에 만들었던 빈 폴더(B폴더)로 경로 지정. 6번 7번은 걍 순서대로 눌러. 그러고 나면 밑에 짤처럼, 경로가 자동으로 지정되고, 비어있던 B폴더에 폴더가 생겨있고, 심지어 B/img 폴더에는 이미지 파일이랑 뭐 이상한 게 생겨있음. 세상 공돌이들 만세 큰일은 공돌이가 한다 5.다시 돌아와서 로라 이름을 지어준다.(이건 나중에 다 뽑고 바꿔도 상관없음) 그러고 트레이닝파라미터 클릭해서 설정하면 되는데, *이전 사진이 리사이징되는 바람에 너무 안보여서 사진 교체함. 난 이렇게 두고 씀. 3060ti 기준 결과물 잘 나옴. 6. 소스 모델 탭 클릭해라. 이건 간단하지? Webul깔린 폴더/models/Stable-diffusion/너가 쓸 모델.확장자 하고 트레인 모델 클릭하면 ................ 이렇게 끝난다. 근데 혹시나 페이징 어쩌고 에러뜰 때는 내컴퓨터 우클릭->속성->고급 시스템 설정-> 고급 탭, 성능, 설정->고급 탭, 가상메모리 변경-> 용량 넉넉한 HDD잡고 사용자 지정 크기, 대충 최소 100000, 최대 150000 하면 되더라. 이래도 안되면 난 몰?루 암튼, 위 사진처럼 끝났으면 파워쉘 꺼도됨. B/model 안에 완성된 로라가 있다. Webul설치한 곳/models/Lora 로라 넣고 webui돌려라. 혹시나 로라 안 돌려본 애들 있을지도 몰라서 남기자면, webui 그림뽑는 버튼 밑에 화투패 아이콘이 있을거임. 그거 눌러보면 로라 클릭해서 추가할 수 있다. 여기까지 봤으면 추천 박아라. " sd 연구 1 _merge block weghited 를 활용한 모델 내 디테일의 중첩 연구,2023-02-06,788,8,https://arca.live/b/aiart/69184201?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6,"최근에 midjourney쓰다가 sd로 넘어오고 신세계를 보고 있는 뉴비입니다. 이것 저것 병합을 하다가 참 그 배합 비율이란 것 때문에 아쉬운 게 생겨서 여러가지 방법을 찾고 있습니다. 제가 이번에 만든 3moon mix 같은 경우는 오렌지 하드를 베이스로 하고 있지만, 막상 합성을 진행을 하고나니, nsfw적인 요소들은 왠간해선 다 사라졌더라고요. nude가 가능하다는 것 외에는요. 거기다가 그 다이나믹 프롬프트로 계속 돌리다보면 소스가 부족해서 정지가 되는 일이 다반사라, 그 안에 있는 디테일 소스들이 중첩될 수는 없을까 고민을 했습니다. 그래서 이 건 어떻게 이쁜 모델을 뽑느냐가 아니라, 어떻게 디테일들을 중첩시킬 수 있느냐에 대한 글입니다. 우선 제가 쓰는 컴퓨터는 3050그래픽 카드를 단, ai를 하기엔 거의 최소 사양의 컴퓨터입니다. 그러다보니 여러가지 문제점들이 생깁니다. 다른 분들이 공유해준 사진과 거의 같은 환경에서 사진을 생성해도 디테일과 조형미가 전체적으로 딸립니다. 예를 들어 다른 분이 공유한 이 사진을 제 컴퓨터에 돌리면... 이런 식으로 전체적인 디테일이 확 줄어서 나옵니다. 그러다보니 전체적으로 만들어낸 결과물이 디테일이 약하고, 얼굴의 선들이 많이 무너지더라고요. 그래서 특히 저희집은 vasil을 그대로 돌려도... 일반적인 경우 이 정도로 디테일이 떨어져서 나옵니다.  그래서 이 vasil에 다른 사실적인 모델들의 디테일 요소들만 떼오고 싶었습니다. 그러던 중 본 글이 https://arca.live/b/breaking/68129941?target=all&keyword=merge+weight&p=1 이 글입니다. 여기서는 merge block weghited를 활용할 때 i00-05 : 디테일적인 요소(B) i06-11: 톤 적인 요소 o00-05 : 구조적인 요소 o06-11 : 디테일적인 요소(A) 라고 설명을 했더군요. 그래서 제가 생각한 것은 톤적인 요소와 구조적인 요소인 i06-i11, o00-05 구간을 아예 0으로 넣은 후에 merge block weighted를 진행하면 A와 B모델의 디테일만 쌓을 수 있지 않을까 생각했습니다. 물론 모델 합병은 딱 치수가 정해져 하는 것이 아니고, 함수처럼 곡선 형식으로 여러가지 파라미터들이 서로 간에 영향을 끼치지만, 대략적인 영역은 가늠할 수 있지 않을까 하는 것이었죠. 그래서 작업을 시작했습니다. 우선 제가 병합에 사용한 소스들과 그 소스들이 사용된 버젼들은 이렇습니다. vasil vasil mark2 : +포토젠 vasil mark3 : @+인스타 믹스 vasil makr2_2 : retry. +인스타 믹스 vasil mark3_2 : @+이즈미 vasil mark4 : @+아트에로스 vasil mark5 : @+앨레강스 vasil mark6 : @+s4w3d0ff_DigitalBlend_v11 vasil mark7 : @+elegancy vasil mark8 : @+우버리얼 입니다. 이미 병합이 진행한 모델에 또 다른 모델을 병합하고 또 병합하면서 소실 된 영역이 있는지, 그리도 추가 된 영역이 있는지를 확인했습니다. 우선 제가 진행한 프롬은 이거 였습니다. prompt : sex, cum, runing, world masterpiece, best quality, beauty girl, finaly quality, finaly detail, huge finaly detail eyes, finaly clothes detail, anime style colorful haircut Negative prompt: (worst quality, lowest quality : 1.4) 우선 NSFW(sex, cum)나 POSE(runing) 등의 요소들이 작용을 어떻게 끼치나, 그리고 그 요소들 탓에 병합 도중 시드 값이 확 바뀌어 아예 다른 모델이 되는 건 아닌가 확인하기 위해, 프롬포트는 이렇게 지정했습니다. 우선 이건 제가 평소에 쓰는 모드인 3moon mix beta로 진행했을 때 나온 이미지입니다. 어느정도 nsfw적인 요소도 구현이 되어 나왔습니다.(xx털 정도, pussy는 제 꺼로는 구현이 거의 불가능합니다.) 그래서 이 걸 vasil로 뽑으니 이런 이미지가 만들어졌습니다. 그리고 이걸 merge block weighted를 써서 모델로 병합했습니다. M00 부분이 어떤 영향을 끼치는 지 확인하고 싶어 각각 왼쪽과 오른쪽 극단적인 부분으로 밀어 넣어 확인을 했습니다. 첫 번째로 병합한 소스는 Photogen입니다. Photogen은 같은 소스에서 이런 이미지를 만들어 냈습니다. 보면 같은 seed 안에서 만들어내는 이미지가 완전히 극명하게 갈립니다. 저는 이 photogen과 i00-05(디테일) : 1 i06-11(톤) : 0 o00-05(구조) : 0 o06-o11(디테일) : 1 로 치수를 지정하고 병합을 진행했습니다. M00 항목에 어떤 효과를 낼지 확인하기 위해 우선 M00 : 0으로 맞춘 V1과 M00 : 1으로 맞춘 V2 2가지를 뽑았습니다. V1 이미지 입니다. 얼굴에 다소 간의 변화가 있고, 전체적으로 디테일과 옷의 천 부분이 더 늘어났지만 자세 등의 변화는 없었습니다. V2입니다. 옷의 형태와 배경의 형태가 바뀌었습니다. 하지만 배열이 크게 바뀌지 않았습니다. 저는 얼굴 형태가 비슷한 V2를 가지고 다시 병합에 들어갔습니다. 이번에 들어간 건 Instamix였습니다. 뽀얀 피부 등이 특징인 모델이죠. Instamix로 생성한 이미지입니다. v1입니다. v2입니다. 이 걸 보고 저는 아차 싶었습니다.  이걸 보니 M00을 1로 준 V2가 오히려 INSTAMIX에 가까워 보였습니다. 머리에 뾰족하게 생긴 귀는 인스타 믹스가 만든 결과물 사진에 특징을 더 가지고 있었고, 얼굴에 있는 뽀샤시 등이 인스타 믹스의 특징을 더 닮았다고 생각이 들었습니다. 저는 그래서 그 M00의 치수는 얼마나 B모델에 영향을 받느냐로 생각했습니다. 0에 가까울 수록 A에 1에 가까울 수록 B에 가까운 결과가 나온다고 생각한 겁니다. 그래서 저는 다시 작업물을 뽑기 시작했습니다.  이번엔 이 게 맞나 확인하기위해 포토젠이 아닌 INSTA MIX부터 합성을 시작했습니다. 다시 만든 vasil mark2_retry 버젼의 v1입니다. insta mix와 합성하며 original에 없던 치마깃이나 얼굴 디테일이 생겼습니다. 다시 만든 vasil mark2_retry 버젼의 v2입니다.  M00을 극단적으로 1로 맞춘 버젼인데, 재밌게도 아까 전 Photogen과 합성하여 만들었던 vasil mark2 버젼에 insta mix를 합성해 만든 vasil mark3 버젼의 v2와 거의 동일합니다. 생각해보니 아까 vasil mark2의 v2 버젼도 photogen의 생성과정에서 만들어진 결과물에 영향을 받아 옷 중간에 끝들이 더 늘어났던 것 같습니다. photogen을 합성하며 기존에 없던 끈 디테일 요소들이 증가했습니다. 저는 그래서 M00값은 A-B 모델 사이의 유사성을 나타내는 치수라 확신하고 계속 합성에 들어갔습니다. Izumi를 합성한 vasil mark3 retry입니다. 디테일 요소들이 조금 더 늘어나고, 얼굴 형태가 바뀐 것을 확인할 수 있습니다. nsfw 모델인 arteros를 합성한 vasil mark4입니다. 옷의 디테일 요소들이 전체적으로 상승했고 얼굴이 변경되었습니다. izumi 모델을 같은 프롬으로 생성한 이미지입니다. 얼굴 형태 표정 등이 같이 합쳐진 듯 합니다. 이후 arteros의 nsfw적인 디테일 요소들과 그 외 컬러 헤어 등 디테일한 요소들이 충분히 쌓였는가 확인하기 위해 다른 애니메이션 기반의 사진들의 png정보를 활용해 사진 생성을 해보았습니다. 원본(3moon mix beta) mark4 생성 본. 원본(3moon mix beta) 이렇게 합성이 진행 됐습니다. 저는 반실사-애니 기반에 있는 디테일한 옷 특징 등은 아직 실사 기반의 모델들만 합성한 vasil mark4가 저 옷 요소의 해석이 불가능해 속옷을 뽑은 게 아닌가 생각이 들었습니다. 그래서 다른 실험을 하나 진행했습니다. 옷 디테일 요소가 잔뜩 들어간 이 파일 정보로 생성을 하는 것이었죠. 결과는 이렇게 나왔습니다. 자신에게 없는 디테일한 옷 등의 데이터를 해석이 불가능하자 여기도 속옷으로 대체한 것이 보입니다. 계속 합성을 진행 했습니다. elegancy 모델을 활용한 mark5입니다. s4w3d0ff_DigitalBlend_v11 모델을 활용한 mark6입니다. 계속 합성을 진행했지만, 모델의 자세들 등 큰 요소들은 변화가 크게 없는 것을 확인 했습니다. 요 버젼은 인물들의 이목구비가 워낙 뚜렷해서 따로 3moon mix v1으로 따로 보존해 두었습니다. vasil 오리지널 버젼의 이 seed를 이 3moon mix v1으로 합성하자, 동일한 자세에 이목구비와 반실사적 요소가 더 뚜렷한 이런 버젼이 나왓습니다. 그 외 상황에서도 nsfw적 요소와 뚜렷한 이목구비의 이미지가 생성되어 자주 애용할 듯 합니다. 그리고 추가로 unreal engine 모델을 활용한 mark7입니다. 언리얼 엔진 모델은 3D캐릭터를 모티브로 해서 피부 디테일이 떨어지는 모델이지만, 이미지 생성 시 그닥 피부 디테일 등이 떨어지지 않더군요. 추가로 NSFW모델인 Uber real을 합성한 mark8입니다. mark8까지 진행했지만, seed 내에서 인물의 변화는 거의 확인 하지 못 했습니다. 이렇게 모델 추가 생성을 마치고 여기서 과연 디테일 적인 요소들이 중첩 되었는지 확인에 들어갔습니다. 제가 3moon mix beta로 뽑은 사진입니다. 옷에 란제리의 디테일 적인 요소가 실사 모델에서 구현이 힘들 것 같아 이 걸로 뽑아 봤습니다. 확실히 버거운지, 디테일적인 요소도 약하고 얼굴도 날아갔습니다. 이하는 mark6/7/8에서 뽑은 사진입니다. 전체적으로 명암이나 디테일들이 버젼이 넘어가면서 전 개인적으로 더 높아지고 있다고 생각이 들었습니다. (해골물일 수도 있겠죠.) 가장 마지막 버젼인 mark8이 가장 인간답게 생겼네요. 그럼 동양인 얼굴의 요소들도 중첩이 되었는가 확인을 해보았습니다. 이건 다른 챈 님이 만드신 이미지입니다. 이 파일의 프롬프트가 korean에 대한 정보가 많이 들어 있어 이걸 차용했습니다. 저희 집의 성능 후진 3050으로 뽑으니 확실히 더럽게 디테일이 떨어지는군요. 아 이 파일은 생성 시 cfg파일 문제로. (원본 사진에 cfg가 16으로 책정되어 있더군요. 그래서 디테일이 중첩된 파일들에서는 색감이나 선들이 과해져 픽셀이 깨지더군요.) 그래서 이번에는 이렇게 진행을 해보았습니다. mark6(cfg16)/mark6(cfg8)/mark7(cfg16)/mark7(cfg8)/mark8(cfg16)/mark8(cfg8) 이렇게 진행을 해보았습니다. 각각 이렇습니다. 전체적으로 mark6->8로 진행하면서 피부 디테일 조명 등이 발전하는 것 같습니다. (해골물일지도 모르죠.) 그래서 디테일한 요소들은 어떻게 되나가 궁금해 애초에 이빠이 디테일을 넣은 파일을 준비해봤습니다. 3moon mix beta로 뽑은 파일입니다. 일부로 디테일한 요소들을 꽉꽉 채웠죠. 이걸 vasil로 돌리자... 이런 게 나왔습니다. 눈부터 해서 대부분이 디테일이 떨어집니다. 다시 이걸 mark6/mark7/mark8로 뽑아봤습니다. 가장 애니메이션에 가까웠던 mark6가 의상 디테일이 더 낫지만, 눈 디테일을 보면 버젼이 높아지면서 점점 더 디테일이 사는 게 보입니다. 아마 mark6에 사용했던 b모델이 애니에 가장 가까운 반실사 모델이어서 그런게 아닌가 생각해봅니다. 어쨋든 그래서 결론은요. 아무래도 병합 모델은 곡선 형태로 모든 항목들이 다 서로에게 영향을 끼치기에 100%는 아니지만 i00-05 : 디테일 영역 i06-11 : 톤 영역 o00-05 : 구조 영역 o06-11 : 디테일 영역 M00 : A-B 두 모델과의 유사성(왼쪽 A/오른쪽 B) 가 아닌가 생각하고 i00-05/o06-o11의 디테일 영역들은 전 세대에게서 비워지거나 부족했던 부분을 다음 세대로 모델로 중첩하여 보낼 수 있는 게 아닌가 하는 생각을 해봅니다. 어쨋든 긴 글인데 읽어주셔서 감사합니다. 멘땅에 헤딩으로 한 거라 중첩은 아닐 것 같다는 생각이 듭니다. 말씀하신 대로 다른 분들이. 어쨋든 그래도 그 영역이 유지되는 게 어디예요 ㅋㅋ 어쨋든 긴 글인데 읽어주셔서 감사합니다. " (번거로움 주의) 개인적인 작업과정,2023-02-06,6924,57,https://arca.live/b/aiart/69184069?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6,"우선, 기본적으로 포토샵 또는 이미지 편집 툴을 사용할 줄 안다는 걸 깔고 작성하는거고, 내 작업하는 방식이 꼭 정답인건 아님 이정도까지 복잡하게 작업하는 경우는 정말 아쉬운 이미지가 있을 경우에만 그렇고, 보통은 text2text->img2img->디테일업 이렇게 포토샵을 통한 배경작업 없이 바로 웹UI를 통해서만 진행하고 포토샵은 크롭 및 합성에만 사용하는 경우가 대부분이니 전부 자세히 읽고 시도해볼 필요는 없고, 그냥 이런 방법도 있다 정도로만 알아줘. 사용 툴 : 오토매틱좌 webUI 사용 모델 : abyssorangemix v2 hard + basilmix 0.8:0.2 믹스 모델 abyssorangemix v2 nsfw + basilmix 0.7:0.3 믹스 모델 Counterfeit v2.5 + basilmix 0.7:0.3 믹스 모델 사용 임베딩 : https://huggingface.co/datasets/gsdf/EasyNegative 사용 로라 : https://huggingface.co/barcode4444/secret-storage/blob/main/Lora/Negative.pt 여기선 사용안했지만 찍먹권장하는 로라 https://civitai.com/models/5743/niji-jelly-style 가중치 0.5~0.7 사이로 적용해보면 그림체와 색감이 꽤 예뻐져서 한번씩 써보는 로라 프롬에는 이런식으로 가중치 조절해서 넣어주면 됨 https://civitai.com/models/5529/eye-lora 눈 표현을 디테일하게 해주는데, 그림체도 어느정도 애니체를 끼얹어줘서 가중치 0.5~0.6정도로 줘서 사용하고있음 프롬사용 예시 , loraeyes 필요 extension : ABG_extension 뒷 배경을 날려주는 익스텐션인데 배경이 영 맘에 안들 때 다른 이미지랑 합성할 때 유용함. 웹UI의 익스텐션 탭에서 available -> load from 클릭 후 위 익스텐션 이름으로 검색해서 설치하면 됨 작업과정 1. 기본 txt2txt를 통한 이미지 생성 사용 모델 abyssorangemix v2 hard + basilmix 0.8:0.2 믹스 모델 이 모델로 작업할 때 의상이나 배경이 잘 안나온다 싶으면 Counterfeit v2.5 + basilmix 0.7:0.3 믹스 모델을 사용해도 무방 사용 프롬프트 (best quality:1.1), (extremely fine and beautiful:1.1), (best illumination), semi realistic, (illustration:1.1), (business office background:1.5), (1 beautiful lady:1.2), (solo:1.4), (white see-through blouse ornated with lace embroidery tucked in tight black miniskirt:1.5), view from front, (full body), (sit on office chair:1.5), (legs crossed:1.2), FEMININE, (beautiful face), adult, (pale white skin:1.2), (large breast:1.0), cleavage, (slender), wide hips, (detailed beautiful eyeliner eyeshadow mascara:0.8), (by Joao Ruas), by John William Waterhouse, [by Gil Elvgren], (long black hair:1.3), looking at viewer, smile, (cinematic lightings:1.5), (soft volumetric lighting:1.2), best ratio four finger and one thumb 부정 프롬프트 (난 반실사체는 부정프롬이 많이 들어가야 디테일이 살아나서 고봉밥 프롬에 부정 임베딩을 더해서 사용하지만, 애니체의 경우 아래처럼 짤막하게 적어도 문제 없음) (nsfw), (worst quality:1.4, low quality:1.4, bad anatomy:1.4, cropped hands:1.2, extra digit:1.2, fewer digit:1.2), (EasyNegative:1.0), , (3d), blurry, (loli:1.5), (teenage:1.2), (blush), 2girls, 3girls, multiple views (nsfw), (worst quality:1.4, low quality:1.4, bad anatomy:1.4, cropped hands:1.2, extra digit:1.2, fewer digit:1.2), (EasyNegative:1.0), , (3d), blurry, (loli:1.5), (teenage:1.2), (blush), 2girls, 3girls, multiple views, bad face, bad anatomy, bad proportions, bad perspective, multiple views, concept art, reference sheet, mutated hands and fingers, interlocked fingers, twisted fingers, excessively bent fingers, more than five fingers, lowres, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name, low quality lowres multiple breasts, low quality lowres mutated hands and fingers, more than two arms, more than two hands, more than two legs, more than two feet, low quality lowres long body, low quality lowres mutation poorly drawn, low quality lowres black-white, low quality lowres bad anatomy, low quality lowres liquid body, low quality lowres liquid tongue, low quality lowres disfigured, low quality lowres malformed, low quality lowres mutated, low quality lowres anatomical nonsense, low quality lowres text font ui, low quality lowres error, low quality lowres malformed hands, low quality lowres long neck, low quality lowres blurred, low quality lowres lowers, low quality lowres low res, low quality lowres bad proportions, low quality lowres bad shadow, low quality lowres uncoordinated body, low quality lowres unnatural body, low quality lowres fused breasts, low quality lowres bad breasts, low quality lowres huge breasts, low quality lowres poorly drawn breasts, low quality lowres extra breasts, low quality lowres liquid breasts, low quality lowres heavy breasts, low quality lowres missing breasts, low quality lowres huge haunch, low quality lowres huge thighs, low quality lowres huge calf, low quality lowres bad hands, low quality lowres fused hand, low quality lowres missing hand, low quality lowres disappearing arms, low quality lowres disappearing thigh, low quality lowres disappearing calf, low quality lowres disappearing legs, low quality lowres fused ears, low quality lowres bad ears, low quality lowres poorly drawn ears, low quality lowres extra ears, low quality lowres liquid ears, low quality lowres heavy ears, low quality lowres missing ears, low quality lowres fused animal ears, low quality lowres bad animal ears, low quality lowres poorly drawn animal ears, low quality lowres extra animal ears, low quality lowres liquid animal ears, low quality lowres heavy animal ears, low quality lowres missing animal ears, low quality lowres text, low quality lowres ui, low quality lowres missing fingers, low quality lowres missing limb, low quality lowres fused fingers, low quality lowres one hand with more than 5 fingers, low quality lowres one hand with less than 5 fingers, low quality lowres one hand with more than 5 digit, low quality lowres one hand with less than 5 digit, low quality lowres extra digit, low quality lowres fewer digits, low quality lowres fused digit, low quality lowres missing digit, low quality lowres bad digit, low quality lowres liquid digit, low quality lowres colorful tongue, low quality lowres black tongue, low quality lowres cropped, low quality lowres watermark, low quality lowres username, low quality lowres blurry, low quality lowres JPEG artifacts, low quality lowres signature, low quality lowres 3D, low quality lowres 3D game, low quality lowres 3D game scene, low quality lowres 3D character, low quality lowres malformed feet, low quality lowres extra feet, low quality lowres bad feet, low quality lowres poorly drawn feet, low quality lowres fused feet, low quality lowres missing feet, low quality lowres extra shoes, low quality lowres bad shoes, low quality lowres fused shoes, low quality lowres more than two shoes, low quality lowres poorly drawn shoes, low quality lowres bad gloves, low quality lowres poorly drawn gloves, low quality lowres fused gloves, low quality lowres bad cum, low quality lowres poorly drawn cum, low quality lowres fused cum, low quality lowres bad hairs, low quality lowres poorly drawn hairs, low quality lowres fused hairs, low quality lowres big muscles, low quality lowres ugly, low quality lowres bad face, low quality lowres fused face, low quality lowres poorly drawn face, low quality lowres cloned face, low quality lowres big face, low quality lowres long face, low quality lowres bad eyes, low quality lowres fused eyes poorly drawn eyes, low quality lowres extra eyes, low quality lowres malformed limbs, low quality lowres more than 2 nipples, low quality lowres missing nipples, low quality lowres different nipples, low quality lowres fused nipples, low quality lowres bad nipples, low quality lowres poorly drawn nipples, low quality lowres black nipples, low quality lowres colorful nipples, low quality lowres gross proportions, short arm, low quality lowres missing arms, low quality lowres missing thighs, low quality lowres missing calf, low quality lowres mutation, low quality lowres duplicate, low quality lowres morbid, low quality lowres mutilated, low quality lowres poorly drawn hands, low quality lowres more than 1 left hand, low quality lowres more than 1 right hand, low quality lowres deformed, low quality lowres extra arms, low quality lowres extra thighs, low quality lowres more than 2 thighs, low quality lowres extra calf, low quality lowres fused calf, low quality lowres extra legs, low quality lowres bad knee, low quality lowres extra knee, low quality lowres more than 2 legs, low quality lowres bad tails, low quality lowres bad mouth, low quality lowres fused mouth, low quality lowres poorly drawn mouth, low quality lowres bad tongue, low quality lowres tongue within mouth, low quality lowres too long tongue, low quality lowres big mouth, low quality lowres cracked mouth, low quality lowres dirty face, low quality lowres dirty teeth, low quality lowres dirty pantie, low quality lowres fused pantie, low quality lowres poorly drawn pantie, low quality lowres fused cloth, low quality lowres poorly drawn cloth, low quality lowres bad pantie, low quality lowres yellow teeth, low quality lowres thick lips, low quality lowres bad asshole, low quality lowres poorly drawn asshole, low quality lowres fused asshole, low quality lowres missing asshole, low quality lowres bad anus, low quality lowres bad pussy, low quality lowres bad crotch, low quality lowres bad crotch seam, low quality lowres fused anus, low quality lowres fused pussy, low quality lowres fused crotch, low quality lowres poorly drawn crotch, low quality lowres fused seam, low quality lowres poorly drawn anus, low quality lowres poorly drawn pussy, low quality lowres poorly drawn crotch seam, low quality lowres bad thigh gap, low quality lowres missing thigh gap, low quality lowres fused thigh gap, low quality lowres liquid thigh gap, low quality lowres poorly drawn thigh gap, low quality lowres bad collarbone, low quality lowres fused collarbone, low quality lowres missing collarbone, low quality lowres liquid collarbone, low quality lowres strong girl, low quality lowres obesity, low quality lowres worst quality, low quality lowres low quality, low quality lowres normal quality, low quality lowres liquid tentacles, low quality lowres bad tentacles, low quality lowres poorly drawn tentacles, low quality lowres split tentacles, low quality lowres fused tentacles, low quality lowres missing clit, low quality lowres bad clit, low quality lowres fused clit, low quality lowres colorful clit, low quality lowres black clit, low quality lowres liquid clit, low quality lowres QR code, low quality lowres bar code, low quality lowres censored, low quality lowres safety panties, low quality lowres safety knickers, low quality lowres beard, low quality lowres furry, pony, low quality lowres pubic hair, low quality lowres mosaic, low quality lowres excrement, low quality lowres shit, low quality lowres futa, low quality lowres testis, low quality lowres lowres, low quality lowres terrible, low quality lowres dirty, low quality lowres feces, low quality lowres organs, low quality lowres fat, low quality lowres thick thighs, low quality lowres low resolution rough, low quality lowres pedophile, low quality lowres bestiality, low quality lowres parody, low quality lowres traditional media, low quality lowres koma, low quality lowres comic, low quality lowres scary, low quality lowres severe, low quality lowres insects, low quality lowres gross scars, low quality lowres twisted human body, low quality lowres irrational human body, low quality lowres sharp fingers, low quality lowres parts of the body out of common sense, low quality lowres murder, low quality lowres beheading, low quality lowres zombie, low quality lowres mummy, low quality lowres graffiti, low quality lowres unfinished picture, low quality lowres terrible quality, low quality lowres Coprophilia, low quality lowres muscular, low quality lowres bald, low quality lowres monk, low quality lowres wrinkly, low quality lowres simple background, low quality lowres realistic, low quality lowres old, low quality lowres scan, low quality lowres touhou, low quality lowres yaoi, low quality lowres gay, low quality lowres femboy, low quality lowres trap, low quality lowres pee, low quality lowres doujinshi, low quality lowres monochrome, low quality lowres meme, low quality lowres demon, low quality lowres monstrous creature, low quality lowres tentacle, low quality lowres self harm, low quality lowres vomit, low quality lowres suicide, low quality lowres death, low quality lowres corpse, low quality lowres bone, low quality lowres skeleton, low quality lowres fingers over 6, low quality lowres framed, low quality lowres historical picture, low quality lowres futanari, low quality lowres shemale, low quality lowres transgender, low quality lowres dick girl, low quality lowres flat breasts, low quality lowres degenerate ass, low quality lowres retro artstyle, low quality lowres anime screencap, low quality lowres stitched, low quality lowres pokemon, low quality lowres ryona, low quality lowres animal, low quality lowres male focus, low quality lowres nipple penetration, low quality lowres sonic \(series\), low quality lowres bondage, low quality lowres bdsm, low quality lowres 2D, low quality lowres 2D game, low quality lowres 2D game scene, low quality lowres 2D character, low quality lowres game cg, low quality lowres watercolor \(medium\), low quality lowres 2koma, low quality lowres interlocked fingers, low quality lowres gloves, low quality lowres nitroplus, low quality lowres grayscale, low quality lowres sketch, low quality lowres line drawing, low quality lowres gorilla, low quality lowres meat, low quality lowres gundam, low quality lowres multiple views, low quality lowres cut, low quality lowres concept art, low quality lowres reference sheet, low quality lowres turnaround, low quality lowres chart, low quality lowres comparison, low quality lowres artist progress, low quality lowres lineup, low quality lowres before and after, low quality lowres orc, low quality lowres tusks, low quality lowres goblin, low quality lowres kobold, low quality lowres pony, low quality lowres nsfw, low quality lowres Humpbacked, low quality lowres text error, low quality lowres extra digits, low quality lowres standard quality, low quality lowres large breasts, low quality lowres shadow, low quality lowres nude, low quality lowres artist name, low quality lowres skeleton girl, low quality lowres missing fingers, low quality lowres extra digit, low quality lowres artifacts, low quality lowres bad body, low quality lowres optical illusion, low quality lowres Glasses, low quality lowres girl, low quality lowres women, low quality lowres more than 1 moon, low quality lowres Multi foot, low quality lowres Multifold, low quality lowres Multi fingering, low quality lowres colored sclera, low quality lowres monster girl, low quality lowres Black hands, low quality lowres The background is incoherent, low quality lowres abnormal eye proportion, low quality lowres Abnormal hands, low quality lowres abnormal feet abnormal fingers, low quality lowres sharp face, low quality lowres tranny, low quality lowres mutated hands, low quality lowres extra limbs, low quality lowres too many fingers, low quality lowres unclear eyes, low quality lowres bad, low quality lowres mutated hand and finger, low quality lowres malformed mutated, low quality lowres broken limb, low quality lowres incorrect limb, low quality lowres fusion finger, low quality lowres lose finger, low quality lowres multiple finger, low quality lowres multiple digit, low quality lowres fusion hand, low quality lowres bad cameltoe, low quality lowres colorful cameltoe, low quality lowres low polygon 3D game, (over three finger\(fingers excluding thumb\):2), (fused anatomy), (bad anatomy\(body\)), (bad anatomy\(hand\)), (bad anatomy\(finger\)), (over four fingers\(finger\):2), (bad anatomy\(arms\)), (over two arms\(body\)), (bad anatomy\(arm\)), (bad detail\(finger\):1.2), (bad anatomy\(fingers\):1.2), (multiple\(fingers\):1.2), (bad anatomy\(finger\):1.2), (bad anatomy\(fingers\):1.2), (fused\(fingers\):1.2), (over four fingers\(finger\):2), (multiple\(hands\)), (multiple\(arms\)),, (over three toes\(toes excluding big toe\):2), (bad anatomy\(foot\)), (bad anatomy\(toe\)), (over four toes\(toe\):2), (bad detail\(toe\):1.2), (bad anatomy\(toes\):1.2), (multiple\(toes\):1.2), (bad anatomy\(toe\):1.2), (bad anatomy\(toes\):1.2), (fused\(toes\):1.2), (over four toes\(toe\):2), (multiple\(feet\)) 샘플러 및 hires.fix 세팅 hires.fix의 경우 기본 해상도로 먼저 이미지를 만들고, hires.fix에서 설정한 해상도로 업스케일링해서 i2i를 돌리는거라 생각하면 편함. 고해상도로 뽑을 시 작업시간이 너무 오래걸린다 싶으면 일단 hires.fix는 체크해제하고, 저해상도로 txt2txt를 뽑은 이후 이후 마음에 드는 이미지를 image2image 과정에서 업스케일링해도 무방함. 일단 이대로 이미지를 뽑아보자. 자세도 구도도 좋은데 머리 위가 잘리고 배경이 마음에 안드네. 보통은 이러면 무시하고 지나가는데, 이번엔 가장 번거로운 상황을 예시로 적는 작업 과정이니 일단 진행해보기로... 아웃페인팅을 통한 확장 image2image탭에서 동일 프롬 적용 후 위에서 뽑은 이미지를 넣어주고, 스크립트에서 poor man's outpainting 선택 후 사진과 같이 세팅. 난 위쪽으로만 확장할거라 direction을 up에만 체크했지만, 원하는 확장방향을 체크해주면 됨 Denoising strength의 경우는 정답이 없음. 난 보통 0.6~0.8사이에서 결과물을 봐가면서 조절하지만, 이번엔 귀찮아서 확장만 돌리고 포토샵으로 수정해버리려고 함. 삐꾸가 좀 많이 난 것 같지만...포토샵으로 대충 짜맞춰보자. 확장된 부분을 잘라내기 해서 크기를 짜맞추고, 뒷 배경은 단색으로 밀어버렸음. 어차피 전체 이미지도 i2i 처리할거고, 뒷 배경을 다시 날려버릴거라 괜찮음 하는김에 스타킹도 대충 색만 칠해줌 배경 날리기 image2image탭에서 하단 스크립트에서 ABG remover 선택하고 위 세팅대로 돌리면 됨. denoising strength를 0으로 두면 원본 이미지에서 배경만 지워주는데, 내 경우엔 얼굴에 끼워맞춘 부분을 수정도 해줘야하니 0.5정도로 맞췄음 이렇게 이미지 세장이 나올건데, 내 경우엔 맨 왼쪽과 가운데 이미지만 사용할 예정. 이렇게 1번 이미지를 불러오고 그 위에 2번 이미지를 올려주면, 그 사이에 배경을 임의로 넣어줄 수 있음. 오피스레이디인데 데스크도 없고 모니터도 없고 컵도 없고 좀 아쉬우니 적당한 이미지를 찾아서 합성해보기로 함. 자세한 방법을 다 적으면 포토샵 강좌가 될 것 같은데, 포토샵은 나도 잘하는게 아니니 알아서 찾아보는걸 추천... 이번엔 이 세가지만 작업함. 오피스 데스크 관련 이미지를 찾아서 배경에 합성, 캐릭터의 그림자 추가, 의자의 대략적인 형상 대충 마우스로 그리기 2. i2i를 통해 디테일업 image2image 배경에 데스크가 추가되었고, 스타킹도 신었으니 아래와 같이 프롬을 조금 변경해봄. 혹시 txt2txt 과정에서 counterfeit 모델을 사용했다면 abyssorangemix v2 hard + basilmix 0.8:0.2 믹스 모델로 변경해줌 (best quality:1.1), (extremely fine and beautiful:1.1), (best illumination), (semi_realistic), (illustration:1.1), (office desk with monitor and keyboard background:1.5), (1 beautiful lady:1.2), (white see-through blouse ornated with lace embroidery tucked in tight black miniskirt:1.5), (black pantyhose:1.2), view from front, (full body), (sit on office chair:1.5), FEMININE, (beautiful face), adult, (pale white skin:1.2), (large breast:1.0), cleavage, (slender), wide hips, (arm + hand + 1thumb + 4finger), (detailed beautiful eyeliner eyeshadow mascara:0.8), (by Joao Ruas), by John William Waterhouse, [by Gil Elvgren], (long black hair:1.3), looking at viewer, smile, (cinematic lightings:1.5), (soft volumetric lighting:1.2), best ratio four finger and one thumb i2i 세팅 참고 어차피 얼굴이나 디테일은 나중에 다시 잡을테니, 대충 합성한 배경이 원래 이미지와 잘 녹아들 수 있도록 가볍게 이미지 처리를 돌린다고 생각하면 됨 i2i 결과물 중 마음에 드는 결과물을 뽑아옴. 업스케일링 extra탭에서 이미지 업스케일링을 진행해줌. 반실사체는 SwinIR_4x 업스케일러가 가장 궁합이 잘 맞는 것 같아 해당 업스케일러를 사용하지만, 사용하는 그림체에 따라서 결과물이 달라지니 성향에 맞는 업스케일러를 선택해서 사용해보는 것을 추천함 가로세로 두배로 업스케일링 한 이후, 이제 디테일업 작업에 들어가봅시다. 디테일업 우선 얼굴 부분을 포토샵에서 크롭해줌. 얼굴부분만 크롭했음해도 960*1024 해상도로 꽤 크기가 큼 이렇게 크롭해주는 이유는, 아무리 vram이 높은 그래픽카드일지라도 1920*3168정도의 고해상도 이미지작업을 하는데는 시간도 오래걸리고 작업자체가 불가능할 경우가 많기때문에, 부분별로 작업을 하는게 좋아서임. 내 경우엔 얼굴-상체-다리 이렇게 세부분으로 크롭해서 따로 작업 후 하나로 합치는 편이지만 이번엔 얼굴과 상체만 할 예정. 크롭한 이미지를 i2i의 inpaint 탭에 넣고, 위 사진과 같이 inpaint할 영역을 지정. 여기서 모델을 abyssorangemix v2 nsfw + basilmix 0.7:0.3 믹스 모델로 교체. 모델교체의 이유는 hard모델의 경우 실사체의 느낌이 과하게 강해지는 경향이 있어서인데, hard->nsfw->sfw로 갈수록 그림체가 좀 더 일러스트에 가까워지므로, 이 부분 참고해서 원하는 모델을 선택하면 됨 종종 nsfw모델조차 실사느낌이 너무 강하다 싶으면 sfw모델과 바질믹스를 병합한 모델로 넘어가도 되고. 인페인팅 결과. 입술의 립스틱이 사라진건 좀 아쉽지만, 프롬에 lipstick이나 lipgloss관련 프롬을 넣으면 될 것 같음. 인페인팅한 조각그림들을 업스케일링되었던 원본 이미지에 포토샵을 통해 합성함. 서랍장의 손잡이가 사라진 것이 아쉬워, 다른 이미지에서 손잡이를 뜯어와서 합성하고, 포토샵의 픽셀유동화등의 기능을 통해 손이나 얼굴 등 어색한 부분을 조금씩 손봐주는 것도 좋음. 위에서도 이야기했지만 이렇게 손이 많이 가는 과정은 나도 별로 안함. 보통은 t2t->i2i->업스케일->인페인팅->합성에서 끝나는데, 이번엔 좀 극단적으로 손이 많이 가는 상황을 일부러 만들어서 작업과정을 적어본거니 그냥 참고만 하면 될 것 같음 글재주가 별로 없어서 이해하기 어려운 부분이 많을지도 모르겠는데 좀 어렵다 싶으면 댓글에 이야기해주면 최대한 아는 범위에서 대답할 수 있도록 할게... " 개씹상남자용 멀티클릭 코랩 실행기,2023-02-06,1740,17,https://arca.live/b/aiart/69184011?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6,"그냥 심심해서 코랩 노트북을 직접 만들어 봤다. 이유는 모르겠는데 원클릭 코랩에서 생기는 버그가 여기선 안 생기더라 사실 좆버그 싫어서 만든거임. 진행바 버그 여기선 안 생기더라 바로가기 *본 노트북에는 챈럼이 제작한 태그 자동완성 스크립트가 포함되어 있습니다. 매우 감사합니다 출처:  나도 WebUI 태그자동완성 유저스크립트 만든거 올린다 - AI그림 채널 (arca.live) 맨 위의 유의사항을 잘 읽고 사용할 것 본 노트북은 아무나 아무렇게나 사용해도 무방하다. " AI 로 생성한 이미지의 소스를 찾아보자 - Stable Attribution,2023-02-06,593,1,https://arca.live/b/aiart/69181321?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6," https://www.stableattribution.com/ 이전에 일루미나티인지 뭔지도 있었던거 같은데 그거보다 비슷하거나 더 진보된 웹 사이트인거 같아서 가져왔음 대충 소스를 찾아주긴 하는데... 얼마나 확신하는지 무슨 근거와 알고리즘으로 소스라고 생각했는지에 대한 내용은 전혀 없음 걍 재미로만 받아들이는게 좋을듯 구글 이미지 검색이나 SauceNao 랑 거의 비슷하거나 못한 수준이 아닐까 싶음 " 해변의 비키니 화보에 쓴 와카입니다.,2023-02-06,1260,6,https://arca.live/b/aiart/69179987?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6,"어떻게 올릴지 몰라서 이렇게 올립니다ㅠ 복사해서 하시면 사이사이 빈틈이 있으실텐데 수정해서 쓰시는게 좋으실거에요. 중복되는 단어들은 빈칸이나 쉼표를 넣어서, 나오는 빈도 수정용으로 넣은겁니다, 원하시는데로 줄여서 쓰세요 비키니 화보에 쓴 와카중에 Hl(머리길이) hb(앞머리) hs(헤어스타일) 이 세 와카는 제가 만든게 아니고 다른분이 쓴 와카 그대로 복사해서 쓴거라 올려드리기가 좀 그렇네요 ㅠ 헤어스타일 와일드카드 이런식으로 찾아보시면 나오실꺼에요 ㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡ skin 피부입니다. white_skin bright_skin light_skin dark_skin ㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡ st3 자세 입니다. (standing), front view1 (standing), front view (standing), front view_ (standing), front_view (standing),  front_view (standing), front_view ( standing ), front view (standing ), front view (standing), front view_ (standing ) , front_view ( standing  ),  front_view (standing),  front_view (standing), looking at viewer (standing), looking at viewer (standing), looking_at_viewer (standing ), looking at viewer ( standing ), looking at viewer (standing),  looking_at_viewer (standing ), looking_at_viewer (standing), looking at viewer (standing), (spread legs) (standing), [spread legs] (standing), (stretching) (standing) (standing ) squatting with spread legs sit on a beach chair, chair lying lying with spread legs (beckview:1.2), (From Behind:1.2), looking at viewer (from side:1.2), looking at viewer ㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡ sk5 스커트입니다. __my\color__ Plain pattern Micro Mini Skirt __my\color__ Micro Mini Skirt __my\color__ floral Micro Mini Skirt __my\color__ stripe Micro Mini Skirt __my\color__ Plain pattern Micro Mini Skirt1 __my\color__ Micro Mini Skirt1 __my\color__ floral Micro Mini Skirt1 __my\color__ stripe Micro Mini Skirt1 __my\color__ checked Micro Mini Skirt1 __my\color__ Plain pattern Micro Mini Skirt2 __my\color__ Plain pattern Micro Mini Skirt2 __my\color__ Micro Mini Skirt2 __my\color__ floral Micro Mini Skirt2 __my\color__ stripe Micro Mini Skirt2 __my\color__ checked Micro Mini Skirt2 denim shorts micro denim shorts __my\color__ floral micro shorts3 __my\color__ stripe micro shorts3 __my\color__ checked micro shorts3 __my\color__ Plain pattern micro shorts3 __my\color__ Plain pattern micro shorts3 __my\color__ Plain pattern micro shorts3 __my\color__ Plain pattern see-through pleated miniskirt44 __my\color__ Plain pattern see-through pleated miniskirt45 __my\color__ Plain pattern see-through pleated miniskirt46 __my\color__ see-through pleated miniskirt5 __my\color__ see-through pleated miniskirt6 __my\color__ see-through pleated miniskirt7 __my\color__ see-through pleated miniskirt8 __my\color__ floral see-through pleated miniskirt9 __my\color__ stripe see-through pleated miniskirt10 __my\color__ see-through pleated miniskirt11 __my\color__ Plain pattern see-through pleated miniskirt12 __my\color__ Plain pattern see-through pleated miniskirt13 __my\color__ see-through pleated miniskirt14 __my\color__ floral see-through pleated miniskirt15 __my\color__ stripe see-through pleated miniskirt16 __my\color__ checked see-through pleated miniskirt17 ㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡ sho 신발 입니다. high heels with covered toes shoes boots flip-flops (running shoes1) (running shoes2) (Sneakers1) (running shoes3) (running shoes4) (Sneakers2) (running shoes5) (running shoes6) (Sneakers3) flat shoes knee high boots loafer ㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡ ph 음모 유무입니다. (pubic hair:1.3) (mismatched pubic hair:1.3) ㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡ hat 모자입니다. cap hair band hat Sporty cap Crown a flower crown tiara ㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡ expre 표정 와카입니다. beatific bleak brooding bug-eyed doleful downcast eyes glazed mischievous look pained quizzical radiant roguish shamefaced slack-jawed sly smiley happy smile pouty scowling (smile, closed eyes, open mouth) ㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡ color 색깔입니다. 머리색은 h-color로 빼놓긴 했는데 메탈 글래스 크리스탈 빼고 동일할겁니다. red Scarlet Burgundy Navy blue Sky blue [light yellow] [yellow] [orange] gold dark green green light green purple Lavender Lilac pink rose gold Cherry Blossom silver Beige Grey white Platinum black blue black brown metal glass crystal colorful two tone hair streaked ㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡ bw3 비치 웨어 입니다. __my\color__ Plain pattern dress shirt __my\color__ Plain pattern dress shirt __my\color__ dress shirt __my\color__  Plain pattern dress shirt __my\color__ dress shirt __my\color__  dress shirt __my\color__ stripe dress shirt __my\color__ floral dress shirt __my\color__ Plain pattern dress shirt __my\color__  Plain pattern dress shirt __my\color__ dress shirt __my\color__ checked dress shirt __my\color__ stripe dress shirt __my\color__ floral dress shirt __my\color__ beach gown __my\color__ beach robe __my\color__ beach gown __my\color__ Mesh Bodysuits __my\color__ Bodysuits __my\color__  Bodysuits __my\color__ beach robe luxury luxury oversized loose croptop, wet oversized loose croptop, wet see-through, oversized loose croptop, see-through,  oversized loose croptop, oversized loose croptop oversized loose croptop croptop croptop croptop, underboob croptop , underboob __my\color__ Plain pattern Summer see-through beach cardigan __my\color__ Plain pattern Summer see-through beach cardigan __my\color__ Summer see-through beach cardigan __my\color__ Summer see-through beach cardigan __my\color__  Summer floral see-through beach cardigan __my\color__  Summer stripe see-through beach cardigan __my\color__ Summer checked see-through beach cardigan __my\color__ Summer see-through beach cardigan __my\color__ Summer see-through beach cardigan __my\color__  Summer see-through beach cardigan __my\color__   Summer see-through beach cardigan __my\color__ Summer floral see-through beach cardigan __my\color__ Summer stripe see-through beach cardigan __my\color__ jacket __my\color__ jacket __my\color__ bolero jacket __my\color__ Sleeve Dress __my\color__ bolero jacket __my\color__ Sleeve Dress __my\color__ wet towel __my\color__ wet towel ㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡ bg2 배경용입니다 (beach:1.1) (on the water:1.1), water droplets splashing in the air (on the water:1.1), The light reflected in the water droplets splashing in the air (sandy beach) (Ocean:1.1), The light reflected in the water droplets splashing in the air (Ocean:1.1), (island), flowers blowing in the wind (island), petals blowing in the wind (island) (At Sea), The light reflected in the water droplets splashing in the air (At Sea), ㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡ ex < 악세서리 1입니다 see-through socks __my\color__ fishnet stockings __my\color__ fishnet stockings __my\color__ Plain pattern see-through Stocking __my\color__ see-through Stocking __my\color__ see-through Stocking __my\color__ Checked pattern  see-through Stocking __my\color__ stripe see-through Stocking __my\color__ floral see-through Stocking __my\color__ see-through Stocking __my\color__ see-through Stocking __my\color__ see-through Stocking __my\color__ Checked pattern  see-through Stocking __my\color__ stripe see-through Stocking __my\color__ floral see-through Stocking ribbon ----------------------------- tod < 시간대입니다 night, moonlight, dawn morning, sunlight midday, sunflare noon, sunflare afternoon, sunlight {dusk|twightlight} evening, midnight, moonlight, ㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡ ex2 < 악세서리 2 입니다. Jeweled choker necklace chain necklace ㅡㅡㅡㅡㅡㅡㅡㅡㅡ arm 사지 위치 입니다 two_arms_up , arms_up hands_behind_head , leg_up hand_on_hip (hands_behind_back) ㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡ bb 가슴사이즈 입니다 . ( big_breasts) (big_breasts ) (big_breasts) (  big_breasts) (big_breasts:1.1) ㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡ " U-Net | 블록머지 방식에 대해서,2023-02-06,1260,20,https://arca.live/b/aiart/69178242?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6,"들어가기 전에 그림은 스케치(1)에서 극실사(10)까지를 표현하는 행위다. 모든 모델은 1-10 사이에서 표현된다. 예를 들어, 애니메이션 모델이나 극실사 모델처럼. U-Net : Block Merge 모델을 23개의 다양한 레이어(블록)로 나누어 병합하는 방식이다. 각 레이어는 특징적인 정보를 지니며, 이 정보들은 아래처럼 구분할 수 있다. (1)형태 정보 해당 모델이 지닌 형태적 정보를 지닌 레이어다. 보통 그림체라고 부른다. (2)질감 정보 스케치(1)에서 극실사(10) 사이의 질감(텍스쳐)을 지니고 있다. (3)광원 정보 라이팅에 관련되었다. U-Net의 23개 레이어들은 중심레이어(M)을 기준으로 좌측(IN)과 우측(OUT)으로 배치되어있다. 또한 분포그래프 위에서 비슷한 정보를 보유한 레이어들은 서로 가깝게 모여있는 것처럼 보인다. (1)레이어는 M과 가까울수록 형태 정보를 보유한다. (2)레이어는 M과 멀수록 질감 정보를 보유한다. F222를 예시로, F222의 ‘IN-7번 레이어’와 ‘OUT-5번 레이어’가 형태 정보를 보유하고 있었다. 때문에 임의적으로 IN-7번에서 왼쪽은 외곽으로, 그 반대는 내곽으로 분류할 수 있었다. (1)외곽 레이어는 질감 정보를 보유한다. (2)내곽 레이어는 형태 정보를 보유한다. *중심의 Anything 4G를 예시로 한 비교사진. *좌(내곽 레이어 전체를 병합했다) *우(외곽 레이어 전체를 병합했다) * 그동안 AI채널에서 정보탭에서 많은 도움을 받아 개인적으로 U-Net을 사용한 병합을 시도하고, 검색하며 알게 된 정보를 정리했습니다. 어디까지나 주관적인 것으로 정확하지 않을 수 있습니다. " 픽시브 검열에 대한 간단 정보,2023-02-06,627,3,https://arca.live/b/aiart/69178032?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6," 모자이크 안하고 그냥 올리는 상남자들 좀 살아 있는거 같다고 안 해도 되나보다 하는 경우가 있는데 그건 다 걍 운 좋게 지나친거 + 언젠가는 죽을 예정인 거임 원래 검열 안넣으면 밴이라고 경고 날아옴. 이건 픽시브 만이 아니라 팬박스 유료 포스트에도 마찬가지고 팬박스에 직접 안올리고 링크 제공을 해도  '그 링크를 통해서 즉시 볼 수 있는 형태'면 밴대상임. 예를 들면 이미지, 동영상을 메가, 드롭박스 등에 그대로 업로드 해놔서 링크를 통해 즉시 볼 수 있을 때 같은거. " LoRa파일을 내 입맛대로 편집해보자,2023-02-06,3983,34,https://arca.live/b/aiart/69177310?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6,"https://github.com/hako-mikan/sd-webui-lora-block-weight LoRA Block Weight이라는 로라 파일에 각 레이어 가중치를 변화시켜서 원하는 느낌으로 조정할 수 있는 스크립트 이걸 응용하여 캐릭터 로라의 경우 원하는 얼굴만 적용하든지 아니면 반대로 얼굴만 안 적용하도록 설정하든지 그림체를 변경하는 등 다양한 방법으로 활용이 가능 실제 사용예 ←로라는 적용하지 않은 원본 →조정하지 않은 일반 로라를 적용한 결과 (가운데)기존 로라에 OUTDD: 1,0,0,0,0,0,0,0,0.5,1,1,0.5,0,0,0,0,0으로 적용한 결과 (가운데 사진을 보면 오른쪽 로라의 얼굴만 이식된 것을 볼 수 있다) 일일히 숫자를 누르지 않고 슬라이드 형식으로 조정하고자 한다면 이쪽을 사용하면 될듯 https://github.com/bbc-mc/sdweb-merge-block-weighted-gui 상세설명 번역 LoRA Block Weight 2023.02.06 2000(JST) 2023.01.31 0200(JST) Lora는 강력한 도구이지만 때로는 다루기가 어렵고 영향을 주지 않는 곳에 영향을 미칩니다. 이 스크립트에서는 Lora를 적용할 때 적용 정도를 U-Net 계층별로 설정할 수 있습니다. 이것을 사용하면 원하는 이미지에 접근할 수 있습니다. 스크립트 폴더에 lora_block_weight를 놓습니다.lbwpresets.txt도 같은 폴더에 넣으십시오. 없어도 움직입니다. 여기에 체크를 넣는 것으로 동작합니다. 프롬프트 화면에서 평소대로 사용하고 싶은 Lora를 기입하십시오. 이때 강도 값 다음에 "":""를 입력한 다음 식별자를 입력합니다. 식별자는 Weights setting에서 편집합니다. Lora의 강도는 유효하며 계층 구조 전체에 걸립니다. 식별자와 가중치를 입력합니다. 전체 모델과 달리 Lora는 인코더를 포함한 17개의 블록으로 나뉩니다. 따라서 17개의 숫자를 입력하십시오. BASE,IN,OUT등은 풀 모델 상당의 계층입니다. 기본적으로 숫자를 넣지 않으면 제대로 움직이지 않지만 R과 U를 입력하면 임의의 숫자가 입력됩니다.R : 0~1까지의 소수점 3자리 수치 U : -1.5~1.5까지의 소수점 3자리 수치 예를 들어, ROUT : 1,1,1,1,1,1,1,1,R,R,R,R,R,R,R,R,R이라면OUT 레이어 만무작위 화됩니다. 는 이미지 생성 시 명령 프롬프트 화면에 표시됩니다. save 버튼을 사용하여 현재 텍스트 상자의 텍스트를 저장할 수 있습니다. 텍스트 편집기를 사용하는 것이 좋으므로 open Texteditor 버튼으로 텍스트 편집기를 열고 편집 후 reload하십시오.Weights setting 위의 텍스트 상자는 현재 사용할 수 있는 식별자 목록입니다. XY 플롯에 복사하는 데 유용합니다. 17개가 없으면 목록에 표시되지 않습니다. XY plot과 함께 사용하면 각 계층의 영향을 조사할 수 있습니다. 설정값은 다음과 같습니다.NOT:0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0ALL:1,1,1,1,1,1,1,1 ,1,1,1,1,1,1,1,1,1,1INS:1,1,1,1,0,0,0,0,0,0,0,0,0,0, 0,0,0IND:1,0,0,0,1,1,1,0,0,0,0,0,0,0,0,0,0INALL:1,1,1,1, 1,1,1,0,0,0,0,0,0,0,0,0,0MIDD:1,0,0,0,1,1,1,1,1,1,1,1 ,0,0,0,0,0OUTD:1,0,0,0,0,0,0,0,1,1,1,1,0,0,0,0,0OUTS:1,0 ,0,0,0,0,0,0,0,0,0,0,1,1,1,1,1OUTALL:1,0,0,0,0,0,0,0,0,1, 1,1,1,1,1,1,1,1 각 레이어의 값을 개별적으로 변경하여 최적의 값을 총당 검색할 수 있습니다. Active를 확인하면 작동합니다. Active에 체크가 되어 있는 동안은 Script(Automatic1111 본체의 XYZ 플롯 등)가 동작하지 않게 되므로 주의해 주세요. Hires. fix는 지원되지 않습니다. Batch size는 1로 고정됩니다. Batch count는 1로 설정합니다.변경하려는 LoRA 식별자에 XYZ를 입력합니다. . 프리셋에 XYZ에 해당하는 값을 입력하지 않아도 작동합니다. 이 경우 모든 가중치가 0 상태에서 시작합니다. XYZ에 해당하는 값이 입력되면 해당 값이 초기값이 됩니다. XY 축에서만 작동합니다. 변경할 계층 구조의 가중치를 설정합니다. 쉼표로 구분하여 입력합니다. ""0,0.25,0.5,0.75,1"" 등. 블록 ID를 입력하면 해당 블록만 value에 지정된 값으로 변경됩니다. 다른 유형과 마찬가지로 쉼표로 구분합니다. 공백이나 하이픈으로 구분하여 여러 블록을 동시에 변경할 수 있습니다. 먼저 NOT을 붙이면 변화 대상이 반전됩니다. NOT IN09-OUT02로 설정하면 IN09-OUT02 이외가 변경됩니다. NOT은 먼저 입력하지 않으면 효과가 없습니다. IN08-M00-OUT03은 연결되어 있습니다. 시드가 바뀝니다. Z축으로 지정하는 것을 상정하고 있습니다. 각 블록의 가중치를 변경하는 초기 값을 지정합니다. 사전 설정에 등록된 식별자를 입력합니다. Original Weight가 활성화된 경우 XYZ에 입력된 값은 무시됩니다. X : value, 값 : 1,0.25,0.5,0.75,1Y : Block ID, 값 : BASE,IN01-IN08,IN05-OUT05,OUT03-OUT11,NOT OUT03-OUT11Z : Original Weights, 값 : NONE,ALL .5,ALL 이 경우, 초기값 NONE, ALL0.5, ALL에 대응한 XY plot이 제작됩니다. Z에 Seed를 선택하고 -1, -1, -1을 입력하면 다른 seed로 XY plot을 3회 제작합니다. 계층별 병합에 대해서는 아래를 참조하십시오. https://github.com/bbc-mc/sdweb-merge-block-weighted-gui " "짝짝이눈, 동태눈을 고치는 할아버지도 따라할 수 있는 방법",2023-02-06,641,4,https://arca.live/b/aiart/69176125?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6," 자 환자분 입장~ 클립스튜디오나 포토샵이나 아무거나 다각형 선택 툴이랑 레이어 있는 걸로 켜준다(보정할 이미지는 i2i에서 4배 업스케일링해주는 게 결과물이 좋음) 다각형 툴로 눈동자 영역을 선택해 주고 새 레이어 위에 페인트 툴로 시꺼멓게 칠해줌 원본 이미지랑 검게 칠한 레이어 따로 저장 인페인트 업로드에 두 이미지를 같이 넣은 뒤에 마스크 이외만 처리 눌러줌(인페인트 업로드에서는 흰색이나 투명 영역이 마스킹 영역) 노이즈 강도는 0.4~0.5 정도로 넣어주고 배치로 10개 정도 뽑아서 마음에 드는 결과물을 저장하면 끝. " 뉴비가 궁금해서 해본 Hires.fix 업스케일러 테스트 모음(스압),2023-02-06,2601,17,https://arca.live/b/aiart/69170187?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6,"모델 https://civitai.com/models/6165/powercolorv1 프롬 (masterpiece : 1.4), (best quality : 1.4), 1girl, solo focus lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, (worst quality : 1.4), (low quality : 1.4), normal quality, jpeg artifacts, signature, watermark, username, artist name, 샘플링 DPM++ SDE Karras, 스텝 30 원본 해상도 및 CFG 스케일 768x512 / 10 설정 VAE : kl f8 anime 2, 클립 건너뛰기 : 2 테스트 방법 1. 위의 설정대로 짤 하나를 뽑음 2. 시드 유지 후 Hires.fix 적용 시작 2-1. Hires steps : 0 / Upscale by : 2 / 디노이즈 강도 : 0.51 유지 3. 업스케일러 바꿔가면서 테스트 원본 : Latent 적용 : Latent (antialiased) 적용 : Latent (bicubic) 적용 : Latent (bicubic antialiased) 적용 : Latent (nearest) 적용 : Latent (nearest-exact) 적용 : 없?음 적용 : Lanczos 적용 : Nearest 적용 : 4x-AnimeSharp 적용 : R-ESRGAN 4x+ Anime6B 적용 : LDSR 적용 : 왤케 오래걸리나 했더니 LDSR은 모델이 따로 있었네.. 이거 말고도 계속 더 다운받음 ... 3070으로는 무리였나봄 ㅎㅎㅈㅅㅋㅋ; SwinIR 4x 적용 : 얘도 더 다운받네 테스트 결과(개인적인 느낌 및 해석이 들어가 있으므로 사람마다 느끼는게 다를 수 있음!) Latent : 그림에 안개가 낀 듯이 뿌얘지는 현상이 있고 디테일들이 약간 뭉개지는 느낌, 목이 두?꺼워짐? Latent (antialiased) : 그냥 Latent와 거의 동일한데 위 예시에서는 목 부분이 정상적으로 돌아감 Latent (bicubic) : Latent와 Latent (antialiased)보다 디테일이 조금 더 잘 살아있고 뿌얘진 느낌이 훨씬 적음, 눈매도 원본이랑 더 비슷하게 유지됨 Latent (bicubic antialiased) : Latent (bicubic)과 비교했을때 디테일이 조금 죽음, 안티에일리어싱 적용 문제인듯? Latent (nearest) : Latent (bicubic) 보다도 안개 낀 느낌이 없고 눈이 선명하고 예쁨. 배경의 디테일 잘 살아있음, 그런데 머리카락 묶은 쪽에서 이상해짐 Latent(nearest-exact) : Latent (nearest)와 거의 차이 없음 없?음 : 진짜로 뭐 특별한 기술이 없어서 그런지 원본이 잘 유지되면서 디테일 향상 Lanczos : 없음과 별 차이 없음 Nearest : 크레파스?로 그린 느낌이 확 살아남?? 이 질감을 크레파스라고 해야할지 잘 모르겠는데 챈럼들이 이건 판단해보셈.. 4x-AnimeSharp : 없음에 비해 디테일이 살아난 부분이 있고 죽은 부분이 있는데 큰 차이는 아닌듯 R-ESRGAN 4x+ Anime6B : 뜬금없이 팔에 문신이 생?김, 없음과 비교할때 윤곽선이 더 뚜렷함. LDSR : SwinIR 4x : R-ESRGAN 4x+ Anime6B보다 윤곽선이 조금 더 뚜렷한 거 같긴 한데 큰 차이는 없는듯 모델 변경 : AbyssOrangeMix2_sfwhttps://huggingface.co/WarriorMama777/OrangeMixs/blob/main/Models/AbyssOrangeMix2/AbyssOrangeMix2_sfw.safetensors 원본 : Latent 적용 : Latent (antialiased) 적용 : Latent (bicubic) 적용 : Latent (bicubic antialiased) 적용 : Latent (nearest) 적용 : Latent (nearest-exact) 적용 : 없?음 : Lanczos 적용 : Nearest 적용 : 4x-AnimeSharp 적용 : R-ESRGAN 4x+ Anime6B 적용 : LDSR 적용 : SwinIR 4x 적용 : 테스트 결과(개인적인 느낌 및 해석이 들어가 있으므로 사람마다 느끼는게 다를 수 있음!) Latent, Latent (antialiased), Latent (bicubic), Latent(bicubic antialiased) : 얘들 왜 지랄남??? Latent (nearest) : 원본에 비해 푸른색 느낌이 사라지고 붉으스름한 느낌으로 대체됨, 옷이나 뒤 나무의 디테일이 살아남 그런데 머리카락 일부분이 갑자기 바위로 변함 Latent(nearest-exact) : Latent (nearest)에서 조금 이상했던 배경이 정상으로 되돌아왔음. 나머진 큰 차이 없는듯 없?음 : 원본과 느낌이 매우 비슷하지만 Latent와 마찬가지로 원본에 있었던 푸른색이 사라짐 Lanczos : 없?음과 비교했을때 옷의 세부 디자인이나 배경이 변했으나 전체적인 느낌의 차이는 많이 없음 Nearest : PowercolorV1 테스트와 마찬가지로 크레?파스 4x-AnimeSharp : 없?음과 전체적으로 비슷하지만 배경이나 머리카락, 옷의 디자인에서 디테일이 살아남 R-ESRGAN 4x+ Anime6B : 4x-AnimeSharp와 비교했을 때 캐릭터의 느낌은 별로 차이 없는데 배경에서 오류가 조금 났음 LDSR : SwinIR 4x : 머리장식의 푸른 느낌을 가장 잘 살림 마무리 개인적으로 오늘 테스트로 느낀건 Latent가 정말 별로임 특히 그냥 Latent나 Latent (antialiased) 얘들 둘이.. 괜히 뿌얘지는 느낌만 심한 거 같다.. 앞으로 그림 뽑을 때 업스케일러 한 가지만 고집하지 말고 여러가지 해봐야겠음. 챈럼들도 업스케일러 여러개 써보면서 해보면 좋을 거 같음! 긴 글 읽어줘서 고맙습니다 " Live3D,2023-02-06,2711,18,https://arca.live/b/aiart/69166856?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6," 귀하의 브라우저는 html5 video를 지원하지 않습니다. https://transpchan.github.io/live3d https://github.com/transpchan/Live3D-v2 레퍼런스가 될 pmx (3D 아바타 모델?) 파일이랑 캐릭터 시트로 새 아바타 만들고 레퍼런스 영상으로부터 애니메이션까지 만드는 프로젝트임 코랩도 있고 코드도 있으니까 해볼 사람은 해보셈 개나소나 버튜버 되는 세상이 온다... https://github.com/transpchan/Live3D/blob/main/eccv.pdf 페이퍼 리뷰 받다 짤리고 v2 로 넘어간 상태라 프로젝트 미래가 밝아보이진 않음... " Merge block weighted 이게 진짜 물건이네요,2023-02-06,919,8,https://arca.live/b/aiart/69160091?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6,"Merge block weighted 이게 물건이네요. 어떤 분이 !00-!05 : 원파일의 디테일 값 i06-i11 : 모델의 톤 o00-o05: 모델의 구조 o06-o11:합치고자 하는 파일의 디테일 이런식인것같다는 글을 봤는데 이게 맞는 듯 합니다. 여기에 추가로 M00은 추가로 모델들이 가지는 성향을 가르키는 듯 합니다 그래서 각 값을 !00-!05 : 1 i06-i11 : 0 o00-o05: 0 o06-o11 : 1 M00 : 0 으로 맞출 경우 거의 구조나 분위기는 것들은 변화없이 없던 디테일만 흡수되는군요 그래서 지금 바질 모델에 7개 모델들 합쳐서 mark8버젼을 만들고있는데 같은 시드내에서 결과물의 포즈나 시선 등이 거의 변화가 없네요. 이따 집 가서 하면서 찍은 사진들 같이 공유하겠습니다. Nsfw모델의 포즈나 의상 헤어 디테일만 쏙 빼오는 게 가능하네요. 이따 분석글 올릴게요 " "가속(TensorRT)형 WebUI Lsmith 공개 (현재 도커 기반 사용 가능, 4배 기술)",2023-02-06,1379,27,https://arca.live/b/aiart/69158898?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6," 벤치 https://github.com/ddPn08/Lsmith#benchmark 아직은 초기단계인 느낌인데. 자기 글카로 찍먹 정도는 해볼 수 있을 듯. 개인용 rtx 장비로도 성능 향상이 확실하니까. 텐서rt는 ㄹㅇ 연구 가치가 큰 기술이 될듯. " 케이크처럼 쉽게 런팟(런포드)로 챈섭을 여는법.ipynb,2023-02-06,436,4,https://arca.live/b/aiart/69158514?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6,"1. https://www.runpod.io/console/gpu-browse 에서 원하는 서버를 고릅니다. 2. 서버를 골랐으면, Stable Diffusion 1.5 템플릿을 고릅니다. 3. 서버가 실행되었으면 주피터랩으로 들어갑니다 1번 표시한 connect를 누르면 검은 창이 뜹니다 2번 표시한 주피터 랩 버튼을 누르면 주피터 랩이 뜹니다 3번 표시한 3000포트 링크를 누르면 익숙한 웹ui가 뜹니다. 지금은 2번 주피터 랩을 눌러 주피터 랩을 엽니다. 4. 주피터 노트북 파일을 드래그 해서 업로드 합니다. 5. 업로드한 노트북 파일을 열어 필요한대로 편집합니다. 모델의 링크를 원하는대로 변경하고 그 외 스텝 수나 기능 제한을 걸 수 있습니다. 모델 링크는 다음의 방법으로 얻을 수 있다... 편집을 끝냈으면 표시한 버튼을 눌러 json파일과 파이썬 코드를 수정합니다. 6. 3번 버튼을 누르면 webui를 확인할 수 있습니다. 설정에서 ui를 리로드 하면 챈섭처럼 탭도 사라지고, 몇가지 제한이 걸린것을 확인할 수 있습니다. 링크는 3번 버튼을 눌러 나타는 페이지의 링크를 공유하면 됩니다. 업로드할 주피터 노트북: https://gist.github.com/ouor/768325e42e8f56884880948313ac49f1 단계별로 나눈거: https://gist.github.com/ouor/f4b0b7624c397c5c555e967a3d3bd02d ----- 근데 이렇게 챈섭 여는거 런팟 규정 위반 아니지? " 인페인트 스케치를 정교하게 하는 법,2023-02-06,739,3,https://arca.live/b/aiart/69136516?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6," 언제나처럼 색이 거하게 침범하셨다 클립 스튜디오나 포토샵 등으로 새 레이어 깔고 덧칠해줌. (덧칠은 투명도 없이 해줘야 제대로 먹는다) 새 레이어 이미지와 합친 이미지를 저장 인페인트 업로드에서 마스크 이외만 처리 누르고 생성 꾸-욱 아! 너무 쉽다! " 개인적인 손가락장애 방지 팁.tip,2023-02-05,2277,23,https://arca.live/b/aiart/69120202?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6,"일단 결과물부터 보시죠 손가락,후타 방지 관련 네거티브 고봉밥 lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, mutation, missing arms, missing legs, extra arms, extra legs, blurry, mutated hands, fused fingers, too many fingers, extra fingers, extra others, futanari, fused penis, missing penis, extra penis, mutated penis, username, mask, furry, odd eyes, artist name 이렇게 넣어두면 부자연스러운경우는잇어도 장애로 나오는 경우는 현격하게 줄어듬.. " 10분으로 끝내는 고퀄 그림 뽑기,2023-02-05,9105,63,https://arca.live/b/aiart/69116256?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6,"이 글은 webui 혹은 코렙을 시작한 뉴비를 위한 글이다 아직 시작하는 방법도 모르겠다면 이거 먼저 보고 와라 코렙 튜토리얼 https://arca.live/b/aiart/68935395 Webui 튜토리얼 https://arca.live/b/aiart/68917133 자기 글카가 3000번대 이상이면 webui로 3000번대 미만이면 코렙으로 가라 (만약 hires.fix, i2i 업스케일 빙법에 대해 이미 알고있다면 이 글은 걸러도 된다) 일단 어떻게든 정보글을 해석해가며 오류와 혼돈을 이겨내고 마침내 짤을 뽑을 수 있게 된 것을 축하한다. 아마 지금쯤 뽑히는 짤은 이런 느낌일 것이다 물론 이것만으로도 충분히 만족하는 사람들도 있을 것이다. 하지만 챈을 좀 둘러본다면 뭔가 자신이 뽑은 짤이 상대적으로 부족하다는 것을 느끼는 사람들이 있을 것이다. 아까 위에서 나온 그림과 비교해보자 눈동자도 훨씬 선명하고 머리카락 표현도 세밀화되고 전반적으로 해상도, 디테일 등이 상승한 것을 확인할 수 있다 이런식으로 그림의 퀄리티를 대폭 상향시키는 방법에는 두가지가 있다 1) hires.fix(고해상도 보정) 일단 파란 네모 안에 저놈을 체크해주자 그럼 아래와 같은 추가 항목들이 발생한다 (모바일로 작성했기에 글자가 가려지는 점은 양해를 바란다) 1  2  3 4  5  6  순서대로 항목에 대해 설명하자면 1. Upscaler 어떤 방식으로 업스케일할지 결정하는것 여러가지가 있지만 Latent, R-ESRGAN 4x+ Anime 6B 둘 중 하나를 쓰는 것을 추천한다. 2. Hires steps 몆번의 스텝을 적용할지에 대한 항목 내버려두면 처음 그림 뽑을때 잡은 스텝 설정과 동일하게 잡히니 딱히 신경쓰지 않아도 된다. 3. Denoising strength 얼마나 디노이징을 적용할지에 대한 항목 Hires.fix의 진행 방식은 1차적으로 짤을 만들고 거기다가 업스케일을 해서 완성되는 방식으로 진행된다. Denoising strength가 높을수록 더욱 많은 변화가 발생하고, 반대로 작을수록 처음에 나온 짤과 차이가 줄어든다 0.48~0.53 사이 정도를 추천한다 4. Upscale by 몆배로 업스케일을 할지 결정하는 항목 Upscale by 수치만큼 가로, 세로 길이가 곱빼기된다 (예시: Upscale by:2 ->512×768 ->1024×1536) 일반적으로 수치가 상승할수록 퀄도 상승한다 다만 너무 높으면 글카도 못버티고 그림도 깨진다 수치는 2.0 추천 다만 코렙 혹은 저사양 그래픽카드 사용자라면 gradio가 터져버리거나 글카가 성능부족으로 CUDA out of memory를 외치며 뻗어버릴 수 있기에 적당히 낮춰 쓰는것을 추천한다 5, 6. Resize width, height to 위에서 업스케일 수치에 따라 그림의 가로, 세로 길이가 뻥튀기 된다고 했었는데, 이건 그걸 수동으로 조절하는 기능이다. 딱히 쓸일 없으니 신경 안써도 된다. 이것들을 종합해 조정해야 할 주요 값들만 말하자면 Upscaler: latent 혹은 R-ESRGAN 4x+ Anime6B Denoising strength: 0.48~0.53 Upscale by: 2.0 정도가 된다. 위 값들을 조정하고 다시 짤을 뽑아보면 생성 시간이 배로 걸릴 것이다 하지만 결과물만큼은 이전과 차원이 다르다는걸 느낄 수 있을것이다 2) i2i 업스케일 기존에 가지고 있던 그림을 업스케일하기 위해 쓰는 방법 Img2img 항목을 눌러 들어가보자 그리고 프롬프트, 네거티브 창에 해당 이미지를 뽑을때 썼던걸 복붙해주자 해당 창에 업스케일 할 이미지를 업로드해주자 정상적으로 업로드됬다면 아래와 같이 뜰 것이다 이때 아래쪽을 보면 이러한 항목들이 나타날 것이다. 다음과 같은 절차를 따라서 설정하자 1. Resize mode에서 just resize(latent upscale) 선택 2.width, height 조절 위의 Hires.fix에서 나왔던 upscale by와 유사하다. 만약 처음 그림 사이즈가 width(가로)=512, height(세로)=768이라면 각각 2배를 곱해서 해당 칸에 적어주자 예시) 사이즈가 512×768->2배!->1024×1536으로 수정 추천하는 배율은 예시대로 2배 이쪽도 hires.fix와 마찬가지로 저사양 글카, 코렙을 사용한다면 뻗어버릴 수 있기에 상황에 따라 배율값을 낮춰주자 3. Denoising strength Hires.fix와 동일하게 0.48~0.53정도로 맞춰주자. 원본 그림을 최대한 유지시키고 싶다면 수치를 낮추고, 좀더 변화를 주고싶다면 수치를 늘려주자 이 3가지를 제외한 나머지 설정들은 처음 그림 뽑을때 썻던것 그대로 가져오면 된다. 위 설정을 적용시키고 generate를 누르면 일반적으로 그림을 뽑을때보단 훨씬 오래 걸리지만, 퀄리티는 대폭 향상된다. (제일 처음에 나왔던 퀄리티 향상 예시 그림) 이렇게 두가지 퀄리티 향상 방법에 대해 알아보았다. 각각의 장단점을 비교하자면 hires.fix: 체감상 퀄리티는 좀 더 높음. 다만 시간이 오래 걸리고 코렙에서는 자주 튕기기도 함 I2i 업스케일: 체감상 퀄리티는 살짝 낮음. 하지만 512×768로 양산하다가 마음에 드는 것들만 업스케일하는 식으로 시간을 절약할 수 있음 유독 코렙에서 고퀄리티로 뽑을때 gradio가 맛이 가서 정상적인 진행이 어려운 케이스가 많이 나온다. 이런 경우 ngrok를 활용하면 튕김이 줄어드니 아래 링크를 참고하자. https://arca.live/b/aiart/60683088 또한 위 방식들과 다르게 처음 그림을 뽑을때 t2i에서 해상도(가로, 세로 길이)를 높게 잡는 것은 추천하지 않는다. 인체가 개박살나는 마술을 볼 수 있을거다 수정해야 할 사항 있으면 댓글로 알려주셈 " Learning-Rate-Free Learning by D-Adaptation,2023-02-05,1662,28,https://arca.live/b/aiart/69107828?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6,"누가 알려줬는데 꽤 유용한 것 같아서 소개 및 kohya_ss LoRA에 적용해볼 수 있게 수정 해봤음 우선 kohya_ss sd-scripts에 아직 제안은 안 해봤기 때문에 코드를 수정해야만 함 그래서 지금은 D-Adaptation Learning은 파이썬 코드를 읽고 수정할 수 있는 사람에게 권장함 1. D-Adaptation Learning 우선 https://arxiv.org/pdf/2301.07733.pdf 원본 논문인데 수식을 들고 와도 읽을 사람은 알아서 잘 알기 때문에 알고리즘에 대해 개략적으로 설명만 조금 해보면. (논문에서)learning rate를 계산해보니깐 모델이 잘 학습 되는 조건에서, A <= LR <= B 사이에 존재하니깐 A랑 B에서 LR를 계산해서 업뎃하면 따로 learning rate를 지정해주지 않아도 최적 LR 값으로 찾아갈 수 있다는 게 논문의 내용임. ㄹㅇ 다 생략했음 데이터 셋을 적당히 구해서 LoRA에 적용해서 구해봤는데 초반엔 낮은 lr에서 시작했다가 나중엔 lr이 2.16e-4로 고정 되었음 rank=alpha=16 이었는데 학습이 진행될수록 가끔 peak가 있는 것을 감안하고 보더라도 전반적으로 loss가 잘 줄어드는 것이 확인 가능함. D-Adaptation은 아무튼 잘 작동한다고 보면 된다. 2. kohya_ss sd-scripts에 적용해보기 주의 train_network.py 파일을 직접 수정해야 하기 때문에, 원본 파일을 백업해두길 바람 주의 py파일을 수정하게 되면 unet lr, textencoder lr, lr_scheduler 옵션이 무시되고 D-Adaptation 방식으로만 작동하게 됨! 주의 그래서 원래대로 돌아가고 싶다 하면 백업해둔 파일로 복원하길 바람 2-1. venv 환경에서 dadpatation 설치하기 powershell을 키고 cd로 kohay_ss 설치 폴더로 이동 후 ./venv/Scripts/activate 실행으로 venv환경으로 들어가고 pip install dadaptation 하면 끝, 난 이미 설치되어 있어서 뭐 더 안뜸 3. train_network.py 파일 수정하기 kohya_ss 설치 폳더에 train_network.py를 편집 프로그램으로 열어준다. 3-1. 아마 40번째줄쯤에 3-2. 아마 209번째 줄쯤에 (checkpoint마다 다를 수 있음) 파이썬 코드 블럭에 맞게 수정하길 바람 3-3. 아마 214번째 줄 쯤에 파이썬 코드 블럭에 맞게 수정하길 바람. 일부러 옛날 코드를 남겨두기 위해 if True를 사용함. 3-4. 아마 233번째 줄 쯤에 수정 끝. 꼭 파이썬 블럭에 맞게 입력해주길 바람 <- 이건 물어봐도 답 못해줌 4. kohya_ss gui 설정 3번 수정을 했으면 빨간색 네모박스에 있는 옵션은 무시된다. 나머지 설정만 건드려 주고 Train하면 D-Adaptation을 이용한 Learning rate-free learning이 진행이 된다. 매우 실험적인 수정방법이고 기능이기 때문에 해볼사람만 해보길 바람. " 네거티브 오렌지편. low quality lowres~~는 해골물인가?,2023-02-05,3473,33,https://arca.live/b/aiart/69097506?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6,"(네거티브 프롬프트 심화편) https://arca.live/b/aiart/61579810?p=1 위글 작성자 입니다. 1월 말쯤에 lora니 오렌지믹스니 뭐니 할때 오렌지믹스의 퀄리티에 눈이 돌아가버려서 다시시작함 돌아와보니 오렌지믹스(그외 여러 모델 포함)에서는 low quality lowres~~ 의 네거티브가 필요없을것이다 라는 내용이 있더라구요 어떤사람들은 실제로 더이상 사용하지 않는데, 어떤 사람들은 자신들의 취향에 맞는다고 아직까지 사용하고있길래 그래서 직접 체크 해봤습니다. 결론 : low quality lowres~~는 오렌지믹스에서 놔줄때가 되었다. 놔주자. 1. low quality lowres~~의 효과 확인 프롬프트는 3종류를 사용 ""masterpiece,best quality"" ""masterpiece,best quality,1girl,city,smile,pov"" ""nsfw (realistic:0.7) pov,sexy milf,affair sex,cum,smile, embarrassed,trembling,spoken,girl,boy"" 네거티브는 아무것도 없는상태 (정확히는 xyz plot에 치환될 대상으로 000 으로 넣어놓음. 빈칸으로 하는것과 별반 차이 없음.) (1). low quality의 효과 비교. worst quality, low quality, normal quality, high quality, best quality를 네거티브에 넣어보았을때의 결과이다. 퀄리티는 worst quality > low quality > normal quality >= high quality >>> best quality 순으로 나타났다. low quality는 퀄리티 상승 효과가 존재한다는것을 알수있다. low quality의 퀄리티 상승 : 있음. (2). lowres의 효과 비교. worst quality 와 low quality 의 퀄리티 상승량과 비교해서 보면 알수있듯이 lowres를 네거티브에 넣어도 효과를 보지 못한다. 심지어 대충생각해서 지어내서 적어넣은 worstres랑 다를게 없다 lowres의 퀄리티 상승 : 없음. (3). ~~~의 효과 비교. 약 380개 가량을 테스트(클릭시 결과물 확인 가능. 좌측에 적힌게 사용된 네거티브) 결과 : worst quality와 low quality 만큼 효과가 나는것은 거의 없음.(terrible quality와 standard quality정도가 유일한 수확) low quality는 퀄리티가 상승하지만 이미 쓰이고 있고 lowres는 퀄리티가 상승하질 않는다. 그 뒷부분들은 대부분 퀄리티 상승과는 거리가 좀 있다. 여기서 ""정말 쓸모가 없어진게 맞는가"" 에 대한 궁금증이 생겼다. 그러니 확인해보기 위해서 최대한 효과가 날법한 태그들로 도배를 해봤다. 위가 (worst quality, low quality:1.4) 가운데가 네거티브가 아무것도 없는것 아래가 380종 네거티브의 업그레이드 판이다. ""low quality lowres"" 로 반복되는 부분을 ""worst quality low quality terrible quality standard quality monochrome simple long body mutation poorly drawn bad anatomy anatomical nonsense "" 로 반복하게 바꿨다. 가운데 그림의 퀄리티가 0, 위의 그림의 퀄리티가 100이라 가정했을때 아래 그림의 퀄리티는 100에서 개인차로 조금 위냐 아래냐 수준일것이다. (그림체는 비슷하며, 그저 세세한것들을 더 그려줬을뿐. 오렌지믹스의 틀에서는 벗어나지 못했다.) 극적인 퀄리티 상승이 아닌 그저 개인 취향 수준의 미미한 차이만 난다는것이다. 결과1. 추가적인 퀄리티 상승은 사실상 없다. 2. 네거티브 도배. 그 부작용. 이미 알 사람들은 알것이고 이미 당한 사람들은 이미 버렸을것이다. 저 길고긴 네거티브를 넣으면 다른 네거티브를 추가해도 잘 안먹힌다 심지어 프롬프트도 씹히는 증상이 있다. (정확히는 네거티브에 이미 먼저 섞여 들어가버린 경우에 그런일이 발생한다) 기본네거티브에서 시작하는것과 아주 긴 네거티브에서 시작하는 두가지 방법으로 16:9 사이즈의 QHD 바탕화면풍 일러스트를 만드는 과정을 보면 알수있을것이다. 목표로 하는 이미지는 ""밤의 정원, 달빛, 여캐"" 로 한다. 위의 과정을 아주 긴 네거티브에서 출발해보면 어떻게 될까? 기본네거티브와 아주 긴 네거티브에서의 과정을 비교하면 ""추가적인 네거티브가 잘 안먹힌다"" ""가중치를 크게 줘도 잘 안먹힌다"" 라는 단점이 있음을 알수 있다. 추가로 네거티브가 너무 길면 한장 뽑는데 걸리는 시간도 늘어난다. 결과2. ""추가적인 네거티브가 잘 안먹힌다"", ""가중치를 크게 줘도 잘 안먹힌다"", ""시간이 더 걸린다"" 라는 3가지 단점이 있다. 위 내용들의 결과를 모으면 결과1. 추가적인 퀄리티 상승은 사실상 없다. 결과2. ""추가적인 네거티브가 잘 안먹힌다"", ""가중치를 크게 줘도 잘 안먹힌다"", ""시간이 더 걸린다"" 라는 3가지 단점이 있다. 퀄리티 상승은 극히 적거나 없고, 네거티브는 잘 안먹히게 되며, 가중치를 크게 줘도 잘 못알아먹고, 시간은 더 걸리는 좋은건 없고 안좋은것만 모아놓은 애물단지가 되었다는것을 알수있다. 결론 : low quality lowres~~는 오렌지믹스에서 놔줄때가 되었다. 놔주자. 놔주는게 아쉽다라고 느껴지는 사람은 기본 네거티브에서 몇개 추가하는것으로 충분히 재현할수 있을것이니 해당 네거티브들을 이제 그만 놔주고 자신의 취향에 맞는 네거티브를 잘 찾아보자. 애니띵이랑 파스텔믹스랑 그외 병합모델들? 은 안해봐서 몰루겠음 " 그림판으로 형태 보정,2023-02-05,501,4,https://arca.live/b/aiart/69084291?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6," 원본 그림판으로 슥슥 덧칠해가면서 형태가 이상한 부분을 색만 가이딩 해준다는 느낌으로 그려줌 덧칠한 부분만 인페인트, 노이즈 강도는 0.2~0.3. 정도 결과물.. 이것도 100 마음에 들지는  않은데 쌩으로 랜덤 뽑기 하는 것보단 확실히 잘 나오는 듯 드로잉 실력이 좀 있으면 더 좋은 결과를 기대해볼 수 있을 것 같다 " 초간단 인페인팅 활용 가이드,2023-02-05,579,7,https://arca.live/b/aiart/69079524?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6,"무기등 원본 사진의 요소를 유지하고자 하는 경우 이런식으로 인페인팅을 적용할 수 있다는 예시 " 매우 미세팁- 와일드카드로 확률 제어하고 싶을때 땜빵 방법,2023-02-05,479,0,https://arca.live/b/aiart/69072010?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6,"중복되는 단어 뒤에 숫자를 넣으세요 치마 치마 치마 치마 바지 이런식이면 와카의 중복단어는 1개로 처리되서 치마 4개 바지 1개가 아닌 치마 1개 바지 1개로 인식합니다 얼추 반반이 나오겠죠 그러니까 치마가 4번 나올때 바지가 1번 나오길 원한다면 치마1 치마2 치마3 치마4 바지 이런식으로 중복되는 단어에 숫자를 넣거나 변화를 줘야 치마 4개 바지 1개로 처리되네요 임시변통이지만 이렇게라도 해야겠네요 " 정?보) 씹덕체를 실사체로 바꿔보자,2023-02-05,5100,16,https://arca.live/b/aiart/69061986?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6,"어느 한 챈럼이 알려달라고 해서 시도해봤다.(본인은 실사체를 한 번도 뽑아본 적이 없다.) 오늘 다뤄볼 그림은 블아 1주년 기념으로 받은 배경화면이다.우리 딸 세리카(정월) 예쁘지 않나요?각설하고 시작해보자.i2i에다가 넣고 deepbooru 분석으로 태그를 대충 집어넣었다. 그리고 퀄리티 프롬과 누락된 세리카 프롬을 추가해주고 오렌지로 반실사로 만들자오렌지+베리믹스cfg scale 11.5디노이징 0.35~0.55 디노이징 0.4 정도에서 반실사 느낌이 깔끔하게 났다.그럼 그걸 이제 바질믹스로 교체해서 다시 i2i를 돌리자. 여기 디노이징값을 조절해가며 완성한 그림이다.실사로 바꿀 때 붉은 눈이 잘 안나와서 강조줬다.이제 인페인트로 적당히 수정해주면 되는데...핸드폰이라 불편하므로 스킵하겠다.요약i2i에 넣고 딥뷰루 분석으로 태그 넣고 돌린다.나온 반실사 그림을 실사 모델로 한 번 더 돌린다.끗씹덕체 -> 실사로 바로 가는건 깨지는 경우가 있으니까 알아서 해보셈 " 유용한 사이트 모음,2023-02-04,9766,90,https://arca.live/b/aiart/69055557?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6,"이미지 만드는데 도움이 되는 다양한 사이트들 모음 출처는 레딧 " 코랩 자동 완성 고치기,2023-02-04,1226,21,https://arca.live/b/aiart/69046494?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6," scripts/tag_autocomplete_helper.py 파일의 165번 줄을 아래 코드로 변경 f.write(TAGS_PATH.as_posix()) 아무튼 내 잘못 아님 저 확장 기능 만든 사람 잘못임 " "webui 업데이트: --no-hashing 옵션, 썸네일에 jpg 사용가능, img2img pix2pix cfg 추가...",2023-02-04,1579,19,https://arca.live/b/aiart/69035887?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6,"--no-hashing 옵션이 생김. 모델 해시를 그냥 계산하지 않는 옵션. 컴퓨터에 따라 모델 해시 계산하는데 1초까지 걸릴 수 있으니 이 옵션을 켜면 모델 불러오는 속도가 빨라짐. 화투패 프리뷰 썸네일에 png말고 jpg이미지도 됨. webp는 왜 안해줌? 이미지 → 이미지에 pix2pix 모델을 쓸 때, Image CFG Scale 옵션이 생김. 왼쪽에 CFG 스케일 옵션이랑 비슷하게 쓰면 될 것. " 파스텔 유용한 광원 프롬프트,2023-02-04,2688,36,https://arca.live/b/aiart/69034889?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6,"모델: pastelmix-better-vae.safetensors VAE: pastel-waifu-diffusion.vae.pt / 클립 건너뛰기: 2 해상도: 512x512 / 스텝: 30 / CFG:7 / 시드: 582683451 / 샘플링: DPM++2M Karras 업스케일러: R-ESRGAN 4x+Anime6B / 업스케일 배수:2 / 디노이즈 강도: 0.5 로라: 없음.(기본 베이스 상태) exif 있음 / 파일명 보존 1girl, solo focus, short hair, blue hair, forest. tree, contry, frilled dress masterpiece, best quality는 넣지 않았습니다. 이유는 그냥 첫 짤에서 이 프롬들 넣으니까 관절이 꺾이고 이상해져서. 파스텔은 배경을 넣으면 캐릭터가 멀리 배치 되는 경우가 잦아지는데 solo focus가 그걸 방지해줍니다. 이래도 배경에 가중치가 너무 많이 생기면 멀어지게 됩니다. contry를 넣은 이유는 자꾸 프롬에 넣지 않은 city 배경이 나와서 집어넣었습니다. 효과가 있는지는 저도 몰?루 이 프롬에서 제일 뒤에 프롬만 추가하겠습니다. 1)sunset / sunrise 선라이트보다 약한 광원. 가끔 태양이 안 나오고 캐릭터 주변으로 빛만 추가 되거나 광원 이펙트만 추가될 때도 있습니다. 2번째 짤에서 캐릭터가 좀 멀리 가 있는데 이럴때는 close-up 같이 쓰면 좋습니다. sunset이나 sunrise는 큰 차이는 없고 빛의 종류가 살짝 붉음 살짝 노람 정도의 차이. 2)sunlight 햇빛. 3)sunflare 선라이트보다 강한 효과. 4)dimly lit / afterglow / 캐릭터 주변에 약한 빛. 5)glowing 캐릭터 주변에 약한 빛. dimly lit와 차이점은 캐릭터 본인이 광원이 되는 경우가 많습니다. 6) Cinematic light / spotlight / 캐릭터 주변으로 강한 빛. 7)  full moon, blue light 반대로  red moon, red light도 가능. 파스텔은 광원이 정말 중요한 거 같아서 올려봅니다. 본래는 광원 말고도 더 쓰려고 했지만 요즘 퀄리티 업은 업스케일 먹이는 것만큼 좋은게 없기도 하고 종류가 너무 많아지는 거 같아서 뺐습니다. 배경 프롬프트도 너무 여러가지인데다 대충 써도 잘 만들어주는게 파스텔이니 마음에 드시는거 입력하시면 될 듯. cafe, flower house, railroad 등등. 파스텔만의 구도나 효과를 버릴 수가 없는데 학습시키거나 병합하면 너무 느낌이 죽어버려서 난감하네요..로라는 효과가 약하고.... " 모델 컨버터 사용법(모델 용량 줄이는 법),2023-02-04,2353,21,https://arca.live/b/aiart/69024846?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6,"최근에 https://arca.live/b/aiart/68966157 글이 올라왔는데 해당 방식은 fp32로 만들어진 모델을 fp16으로, 비트수가 낮은 버전으로 바꾼것으로 용량크기를 유의미하게 줄일수 있긴 하지만 가장 작게 만드는 2 GB까지 줄이는 방식은 아님 위 방식을 간단하게 조금 더 자세히 설명하자면 일반적으로 7 GB짜리 모델은 EMA(약 3 GB)+fp32(약 4 GB)의 모델이 들어있는 것이고, fp32를 fp16으로 바꾸면 자릿수가 반통이 나며 대략 4~5 GB의 파일이 남게됨 근데 이 EMA는 본격적으로 학습을 할 때에만 사용되지 일반적인 병합이나 LoRA에서는 쓰지 않고, 그림만 뽑는다면 아예 신경쓸 필요없는 데이터 덩어리임, 쪼끔 더 쉽고 자세히 설명하자면 https://arca.live/b/aiart/67543561 참고 그러니 이 EMA를 떼어내면 약 3GB의 용량이 줄어드며, 이렇게 나온 모델들을 일반적으로 pruned라고 부름, 어원은 나도 몰?루? AI모델들 이름에 과일 많이써서 말린자두 생각나서 한건지, 가지치기 했다고 쓴건지 몰라도 아무튼 그럼 결론적으로 7 GB파일에서 EMA를 잘라내고 fp32를 fp16으로 바꾸면 2 GB짜리 모델만으로 그림을 뽑을 수 있다 이말임 그럼 그 방법을 알아보자 모델 컨버터는 확장기능에서 찾으면 됨, 한패 한다고 다들 써봤으니 익숙할텐데 저기서 converter라는 단어를 Ctrl+F로 찾아주면 바로 이렇게 나옴 저번달 즈음부터 이 목록에서 바로 찾을 수 있게 되었지만 이렇게 업데이트 된거 몰라서 URL로 확장기능 설치 이야기하는 분들이 있던데 지금은 여기 들어와있음 확장기능 설치와 적용하는거야 다들 알테니 넘어가고 설치하면 저렇게 Model Converter라는 탭이 추가됨 나는 AniDosMix 모델을 쓰려고 가져옴 아래에 있는 각 부분들에 모델에 변환할 원본모델 Precision은 fp16 Pruning Methods는 no-ema Checkpoint Format은 솔직히 그냥 둬도 되는데 그냥 safetensors가 안전하다는 인식이 있으니 저거로 하자 이름 미리 바꿔 만들고싶으면 저기 적어놓으면 되는데 굳이? * ckpt 찝찝하면 safetensors로 변환할때 써도 된다 시도하면 원클릭 기준에서 로그창에 저리 뜰텐데 저 숫자가 오르는 경우는 거의 없고 대부분 저대로 멈춘것마냥 되있는데... *저거도 안뜨면 모델 자체가 문제일 수 있음, 해당 모델이 돌아가는지 확인하는걸 권장함 그냥 뜨지 않았을 뿐이지 모델쪽 확인하면 잘 만들어진거 확인 가능하다 근데 여기서 그냥 끝내면 안되고 변환된게 잘 동작하는지 확인까지 해야함 프롬 1girl, happy, smile, garden, sunflower, flower, masterpiece, finely detailed, intricate details, high resolution, 8k resolution, , distinct image, 네거 (worst quality, low quality:1.4) 프롬 1girl, happy, smile, garden, flower, masterpiece, finely detailed, intricate details, high resolution, 8k resolution, distinct image, 네거 (worst quality, low quality:1.4) 위에 시드 1111에서 머리에 꽃장식이 있었는데요 없었습니다 된거 말고는 차이가 없음, 애초에 이런 경우는 진짜 레어한 케이스로 일반적으로 차이 해봤자 머리카락 쬐끔밖에 차이 안남 https://huggingface.co/HIZ/aichan_pick/resolve/main/AniDosmix-pruned-fp16.safetensors 해당 모델 제작하신분에게 허락받고 올리는 변환된 모델 허깅페이스 링크 그러니 원래 fp32나 fp16이나 차이가 거의 없으니 안심하고 사용하면 됨 단, AnythingV3쪽 빼고... 그러니 다들 EMA를 빼버린 pruned 버전을 찾지 못했으면 직접 만들어서 용량 다이어트를 해보는건 어떨까? " LoRA에서 rank는 얼마가 적당할까?,2023-02-04,2718,22,https://arca.live/b/aiart/69024839?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6,"솔직히 말하면 그냥 적정 값은 만드는 사람 맘임 ㅇㅇ, 너가 만든 LoRA가 최고야 그렇지만, 한번 알아보려고 한다. 글 가장 밑에 사용된 LoRA 링크 있음 오늘 학습 대상으로 삼은 캐릭터는 아그네스 타키온(말딸)로 캐릭터 특징을 먼저 짚어본다면, 여자, 말 귀, 바보털, 적색 눈, 눈 사이의 머리, 갈색 단발, 오른쪽 귀에 퓨린 장식(왼쪽에 달리면 안됨) : 필수 특징 + 레이스 복장으로 실험실 코트, 소매가 긴 코트, 노란색 스웨터, 스웨터 안쪽에 검은 셔츠, 검은색 짧은 넥타이, 스타킹, 하이힐, 등등 + 짤엔 없지만 일상복으로 보라색 셔츠를 입고 있다. 따라서 학습을 진행할 때 agnes tachyon \(umamusume\)의 태그에다가 말 귀, 말 꼬리, 바보털, 적색 눈, 눈 사이의 머리, 갈색 단발, 오른쪽 귀에 장식을 학습을 시킬 것이기 때문에 필수 태그들은 txt에서 지우고 진행할 것임 -> 이건 그냥 선택사항임. 캐릭터 LoRA로 할 거라 캐릭터 이름만 치면 되게 하려고 예시) 볼드체 = agnes tachyon \(umamusume\)으로 대체됨 twitter username은 그림자 때문인듯?그리고 upper body와 portrait는 하나만 쓰게 수정함 0. 학습 설정 args와 bold체로 써진 옵션들은 자신의 상황에 따라 바뀌는 옵션들 ---- training setting constants-------- total 128 images. 10x 32 images, 20x 32 images, 40x 32 images, 80x 32 images => 1 dataset = 4800 images batch = 4 => 1200 steps / 1epoch, 10 epochs, 12000 steps 학습 unet lr = 1e-5, textencoder lr = 5e-6 scheduler = constant_with_warmup, warmup_step = 1200 steps(10%) mixed_precision = save_precision = fp16 args = --cache_latents --gradient_checkpointing --max_token_length=150 --shuffle_caption --xformers --use_8bit_adam CLIP = 1, enable_bucket NO flip ('오른쪽 귀'에 장식이 특징이기 때문에) Base model : Animefull-pruned (NAI) ---- training setting variables ---- network dimension(rank) = 4, 16, 64, 128 network alpha = 1, 4, 16, 32 ------------------------------------ 사용된 프롬프트 사용된 프롬프트 구성은 [공통] + ([기본값]|[승부복]|[일상복]) + [부정] 이미지 출력 모델 : AbyssOrangeMix2-hard VAE : kl-f8-anime2 DPM++ SDE Karras, 20steps, CFG 6.5, 512*768, seed 2489242838, eta 0.2, CLIP skip=1 더 자세한 사항은 exif 참고 ------------------------ 컴퓨터를 열심히 굴려서 학습을 완료했다. 밑에 예시와 함께 보자 1. alpha = 1. rank varies (r=4, 16, 64, 128) 말 귀, 바보털, 적색 눈동자, 오른쪽 귀의 특징이 agnes tachyon \(umamusume\)만 써도 나오는 것을 보니 특징은 잘 잡아 학습했지만 rank가 높아질수록 승부복에선 노란색 스웨터 안에 검은 셔츠를 입지 않음이 보임 이 글에서 알 수 있다시피, kohya_ss 방식에선 alpha값을 조정하지 않으면 높은 rank에서 학습률이 토막나 제대로 학습이 되지 않는다. 더군다나 나는 lr=1e-5로 대부분 1e-4근처의 학습률을 사용하는데 그것보다 더 낮은 학습률이다 보니 이런 점이 부각되어 보임. 그래서 alpha값들을 조정해 α/r = 1/4 = scaling로 고정하고 다시 학습을 해봤음. 2. scaling = alpha / rank = 1/4. alpha and rank vary. (rank=4, alpha=1), (rank=16, alpha=4), (rank=64, alpha=16), (rank=128, alpha=32) scaling을 1/4로 정한건 rank=4랑 똑같은 scaling을 해주기 위해서 고정한 거임 이젠 높은 rank에서도 승부복을 잘 표현했지만, 클릭해서 보면 살짝 뿌옇게 보인다. 당연히 learning rate가 1e-5이지만 10epochs나 해서 과?적합스러운 결과를 보여주는 것이 당연함. LoRA 가중치를 낮춘다고 해결되진 않았으나 다른 방법으로 해결할 방법이 있으니, CFG scale을 조정함으로써 해결이 가능하다. 3. CFG Scaling 스케일을 적절히 낮추니 높은 rank에서도 그림이 깨짐 없이 잘 나온다. 솔직히 오른쪽 귀에 작은 퓨린 장식은 손가락도 제대로 못 그리는데 오각형-육각형 서순에 맞게 잘 그릴 것이라고 기대도 안 하긴 했음 사용된 그림들 구도에 따라 오른쪽에서 보면 장식이 안 보일 수도 있고 4. 그래서 왜 이 글을 작성하게 되었나 rank 수에 따라 캐릭터 특징을 잡는 퀄리티가 차이가 있어 보임? rank=4에서 귀를 3개나 그리는 찐빠가 있지만, 시드가 고정된 그림이라 발생한 문제고 밑에 짤들을 한번 보셈 scaling이 고정된 LoRA 4개로 각각 짤 4개를 뽑고 임의로 섞었음. 시드도 섞었고 위에 16개 중에 rank를 구분 가능할 수 있을까? 정답은 exif에 있으니 한번 맞춰보길 바람 ㅎㅎ 그래서 내 결론은 뭐냐 1. alpha값에 대해 그냥 rank값으로 고정하고 learning rate를 적절히 잘 수정을 해주는 게 편하다. 하는 일은 학습 시 scaling말곤 없으니 골아프게 hyperparameter 숫자 늘릴 이유가 있나 싶음 그리고 어차피 학습 안되면 학습 자료나 learning rate부터 수정할 거잖아. 다만, alpha를 기본값인 1로 설정 하면 learning rate를 더 높게 설정해줘야 하는 건 잊지 말고 2. rank값에 대해 위에서 4나 128로 만든 것의 차이가 보이면 자신이 선택한 숫자로 하면 되지만 구분을 못하면 굳?이 rank값을 높여서 용량 낭비를 할 이유가 있을까? 낮은 rank에서도 특징을 잘 잡는데 rank=4는 4.7MB로 좀 고화질 이미지 크기고 rank=128은 144MB로 32배정도 더 큼 3. 사용된 LoRA들 https://mega.nz/folder/wJMnlSKK#v2cPD9SaFIMNPW4nZCNYtQ 끝. " output용량이 걱정인 사람들에게 : JPG 포맷,2023-02-04,2045,34,https://arca.live/b/aiart/69024480?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6,"1픽셀조차 손상을 용납 못한다, 게다가 난 방주가 매우 많다. →  안 읽으셔도 됩니다! 점점 늘어나는 output 용량이 걱정이 되고, 특히 클라우드에 의지하는 챈붕이들에게 (eagle:1.2)을 바침. PNG : 무손실 이미지 포맷 JPG : 손실 압축 이미지 포맷 목차 다들 png 쓸거임. NAI랑 webui 기본 설정값이기도 하고 이 옵션의 존재 때문이기도 함. exif는 소중하거든. 근데 내가 잘 못 알고 있었다. 저건 png의 특정 공간에 프롬을 저장 하겠다는 옵션이고 jpg, webp는 걍 디폴트가 exif에 프롬 저장임. 그래서 첨엔 'jpg에 text info 저장하기 옵션이 없네. jpg는 프롬 저장 안되나보다' 했다. 어느 챈붕이가 알려줘서 이제야 암... 일단 본인은 jpg신봉자다. 손실 압축 포맷이지만, 사실 저장 설정값만 잘 해 두면 인간 눈으로 가려내기가 불가능에 가까움. 다들 노래 듣지?mp3는 음질 썩었다고 wav로 듣는 사람 있음? 맞아. 다들 mp3 폰에 넣어 다닐거임. spotify? 그거 mp3 VBR로 하는거에요. png와 jpg의 관계도 다르지 않다! settings - Saving images/grids 에서 설정이 가능하다 mp3가 음질 조절이 가능하듯이 jpg는 화질을 조절 할 수 있다. 0%~100%로, 숫자가 클수록 고화질. 닥치고 고화질. 100 고정이지 ㅋㅋ 하면 큰 오산. 여기서 굳이 jpg로 갈아 타고자 하는 이유는 png의 고용량 때문이다. 일단 아래를 보자. 출처 : https://blog.ideamans.com/2018/10/jpeg85-1.html  x축 : jpg 화질 / y축 : 파일 용량 화질이 85를 넘어서는 순간 파일 용량이 기하급수적으로 불어난다. 출처 : https://blog.ideamans.com/2018/10/jpeg85-1.html  x축 : jpg화질 / y축 : 아래로 갈 수록 화질구지 역설적이게도 85 이상부터는 원본과 차이가 거의 없다. 위 그래프는 천장과 격차가 좁을수록 원본과 가까움을 뜻한다. 즉 jpg 화질 100을 한다는 것은 더미 파일을 저장장치에 채워넣어 불필요한 용량을 점유하는 짓과 똑같은 행위이다. 이런 이유 때문인지 Google은 85%를 푸시하고 있다. https://developers.google.com/speed/docs/insights/OptimizeImages?hl=ko 1. png에 비해 용량이 1/8 수준 2. webui를 클라우드로 이용하는 경우 1 덕분에 열람시 png에 비해 빠르게 다음장 넘겨대기 가능 3. prompt를 windows 상에서 별다른 소프트웨어 없이 확인 가능 사실 3은 jpg의 우수함이 아니라 png에 프롬을 저장하는 webui의 방식이 넌센스인 것이지만. 단점 : 1. png보다 화질이 낮음 2. 투명 알파채널을 지원 안함. (일명 '누끼'딴 이미지는 무조건 흰배경) 샘플을 몇 개 가져왔다. 각자의 눈으로 틀린그림찾기를 해 보자. 우클릭-새 탭으로 열기 후 ctrl + page up/down 단축키로 돌려보면 비교가 편함 500% zoom in 하면 티가 확 나는데 솔까 픽셀단위로 확대해서 감상하는 사람 없을거라 봄 생각보다, 아니 매우 나쁘지 않다는걸 느낄거임. 하지만 너, 쌓여 있잖아? 좀..많이 쌓였다. 100GB는 솔직히 부담이 좀 된다. 중요한 건 앞으로도 계속 늘어 난다는 것. 여기에 어떻게 해 볼 방법이 있으니 구미가 당기면 읽어보시라. 엄연히 말하자면 화질을 손상시키는 행위가 맞다. 티가 잘 안 날 뿐. 다들 무지성 양산한 뒤 가챠 성공한것 몇 개 뽑아서 i2i 업스케일 하는 루틴일 텐데 어차피 양산용이면 jpg로 해도 상관 없지 싶다. 맘에 드는 SSR가챠 성공한건 seed고정 png로 재출력하면 그만. 그리고 활발한 AI챈 짤공유에 있어서도 난 jpg에 표를 주겠다. Q : 느려터진 이미지 로딩 때문에 빡친 적이 있나요? 출처 : https://calendar.perfplanet.com/2014/images-are-king-an-image-optimization-checklist-for-everyone-in-your-organization/ 몇몇 고해상도 짤을 올려주는 챈붕이가 있는데, 하나당 30mb에 육박하는걸 아낌없이 수십장 스압으로 올려주는건 대단하지만 모바일로 보는 게이들은 많이 불편할거임. 인터넷 열악한 곳에 사는 사람도 덤. 위 기사는 인터넷 쇼핑몰에 이미지를 jpg로 싸그리 조져놨더니 순환율이 좋아졌다 라는 내용인데 여기가 11번가는 아니지만 하루에 수십페이지 놓치기 아까운 짤들이 올라오는 곳이니 게시글 경량화를 하는게 많은 보는 이들에게 도움이 되리라 믿는다. " AI씨의 취향을 알아보자,2023-02-04,2620,21,https://arca.live/b/aiart/69017232?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6,"AI는 프롬프트를 따라 그림을 생성한다.프롬이 하나라도 들어가는 순간 그 프롬을 강조하기 위해 옷이나 자세등 다양하게 변하기 마련이다.(예를 들어 breast 크기 관련 태그를 넣으면 가슴이 강조됨)그렇다면 태그를 하나도 넣지 않으면 AI는 어떤 그림을 그릴까???? : 프롬프트 없으면 퀄리티 지랄나지 않음? 뎃츠 논노.네거로 해결 가능하다. 프롬프트가 하나도 없다.하지만 국밥 네거와 네거 로라의 조합으로 환상적인 퀄리티가 유지되었다!네거 고봉밥은 개인적으로 불호라서 사용하지 않았다. 프롬 : , <- 아무것도 없으면 배치가 작동을 안해서 쉼표 하나 넣어놓음네거 : (worst quality:1.4, low quality:1.4, bad anatomy:1.4, cropped hands:1.2, extra digit:1.2, fewer digit:1.2), EasyNegative, , lowres, bad hands, text, error, missing fingers, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name,세팅Steps: 28, Sampler: DPM++ SDE Karras, CFG scale: 11, Seed: 2529341380, Size: 768x512, Model hash: 8fcb175948, Model: powercolorV1_powercolorV1, Denoising strength: 0.6, Clip skip: 2, ENSD: 31337, Hires upscale: 1.5, Hires steps: 14, Hires upscaler: R-ESRGAN 4x+ Anime6B이걸로 512x768, 768x512 각각 20장씩 뽑아보자 우연인지 모르겠지만 생각보다 붉은 머리가 매우 많다!리본과 체크무늬도 많이 발견되는 현상을 알 수 있다.사소한 내용은 넘어가고재밌는 점은 1girl, solo같은 개인 태그가 들어가지 않았음에도 배경 또는 2명 이상 나온 그림이 40개중 4개뿐이다. 가로 그림에만 말이다.AI씨는 1명을 좋아하는게 틀림없다는 결론을 내릴 수 있었다.우리는 항상 베이스로 깔고가던 퀄리티 프롬, 1girl, solo등 AI가 스스로 할 수 있는 일을 제한하도록 태그를 짜왔을지도 모른다.앞으로 퀄리티 프롬은 그림체를 변화하거나 강조를 주는 용도로 사용하고 원치 않은 내용이 나온다면 네거를 적극 활용해보는게 어떨까?귀찮으니까 여기까지 알아보자.이미지 전부 그럼 안녕 " 모델 팔 다리 자르기,2023-02-04,3101,26,https://arca.live/b/aiart/69012130?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6," CPU 조금만 버티자... 할 수 있지...? 글카 없는 내가 미안해... ?? 짤 만드는거엔 관심 없는데 모델 변환 잘 되는지 확인하려고 돌려봤음 근데 받아둔 모델 중에 용량 가장 큰 놈이 AbyssOrangeMix2 NSFW 였고 무작위로 고른 프롬프트에 loli 랑 flat chest 있던 것도 우연의 일치임 아무튼 우연임 용량 차이는 대충 이렇게 남 따로 사용한 VAE 가 800mb 정도 되는데 어처피 여러 모델에서 같이 사용하니까 상관 없을듯 텍스트 인코더까지 자르면 어쩌냐!!! 할 수 있을텐데 웹UI 에선 인코더 불구된 상태면 이전 모델꺼 그대로 사용함 U-net 만 덜렁 있는 모델 그냥 실행하면 NaN 터지는게 매우 정상임 나는... 돈도 장비도 없어서... 최대한 홀쭉하게 쓰고 싶다면 참고하면 될듯... Exif 있음, 프롬프트 포함한 파라미터 전부 동일함 차이 심한건 아마 BF16 로 변환하면서 CLIP position_id 고쳐져서 그런가봄? https://arca.live/b/aiart/68364254 의도치 않게 괜찮은 결과물 나와서 배치도 돌려봤음... 궁금해서 오랜만에 코랩 열어봤는데 첫 실행 더럽게 느리네 어디사는 븅신새끼가 만든건지 잘 모르겠는데 암튼 코드 개떡같이 짠듯ㅋㅋ " 이 개새끼들아,2023-02-04,5024,79,https://arca.live/b/aiart/69008374?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6," prompt의 어디에서 「[""포""]」가 나온거냐??프롬프트 씨발듀토리얼 아니고 튜토리얼프롬포트 아니고 프롬프트WebAI 아니고 Web UI코랩이랑 web ui랑 무슨 차이예요?=> 씨발 web ui는 그냥 ai를 쓰기 쉽게 인터넷 창에 띄우는거고, 코랩은 그냥 니 컴 대신 구글 컴 빌리는거임애니메풀 파운드가 뭐예요?=> pruned가 왜 파운드나? ㅅㅂ 그리고 공지에 있잖아 novel ai 유출모델이라고Lora는 무슨 모델이예요? 어비스보다 좋아요?=> 개별 모델 아니고 드림부스, 하이퍼네트워크, TI 같은거임휴대폰으로 ai 돌릴 수 있어요?=> 그게 그냥 되겠냐?   코랩 쓰는건 '네 컴퓨터'가 아니니까 폰으로도 됨. 아이폰의 경우 제한적으로 가능.vae는 무슨 기능이에요?=> 그거 안넣으면 그림 개씹앰좆같이 나옴. 넣으라면 넣어라 ai 그림 표지로 써도 될까요?=> 니지저니/미드저니에서 뽑은거 아니면 가능. 근데 챈에서 그냥 돋거해가면 양심없는새끼 아니냐?노벨피아 연재라면 규정상 문제없으니 말한마디 남기고 쓰셈.novel ai를 통해 만들었습니다=> 아니잖아 씨발아. 여러 모델 머지한거 썼잖아. 그냥 AI를 통해 만들었다고 해stable diffusion 썼다고 하던가 " 내가 나한테 말하는 모델 교체때 프롬포트 일지 (계속 수정할 예정),2023-02-04,556,2,https://arca.live/b/aiart/69007383?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6,"모든건 귀여운? 뉴비의 주관적인 생각이니까 틀린거나 고쳐야할 부분 있으면 댓글 좀 달아줘 모델은 애니띵->오렌지 어비스임 <모델바꿨더니 프롬포트 조진거 같음> 애니띵에서 프롬포트 그대로 들고와서 적용했더니 개씹 저퀄나옴..그냥 프롬포트 수 줄이는게 예쁜거 같음 -> 애니띵이 진짜 고점과 저점을 와리가리하는 오지는 모델이여서 그럼 대충 과장해서 비유해주자면 챈넘들이 지금 만족스러운 그림의 프롬포트 들고 미드저니 가서 프롬포트 입력시킨거랑 비슷함 (대충 결과는 알고있지?ㅋㅋ) <그래서 어떻게 해야하나?> 애니띵에서 입력했던 프롬포트들 싹다 뜯어내야함 근데 비슷한 느낌을 내고싶다하면 아예 순정으로 돌리고 처음부터하는 편이 좋을거임 절대 챈넘들이 애니띵에서 발버둥치던 그결과물들을 부정하는게 아님 모델자체가 달라지니까 기본 설정값이 다르니까 다뜯어내주고 해당 모델에 맞게 조교하라는거임 그냥 단순한 프롬포트 넣어주고 했으면 상관없음 다만 거의 마개조 수준으로 뭔가를 쳐넣은 챈넘들이 문제임 (대충 이미 착한 학생에게 불량 학생 조교하듯이 조교하면 흑화하는거랑 비슷함?) 다시 초심으로 돌아가서 명심해야하는 개념 잡아주자면 프롬포트: 넣어줘야할거 넣는거임 (굳이 단부루 태그들 아니여도 상관없긴함 내가 생각하는 단어 그대로 번역기에 들고가서 넣으셈) 네거티브: 사실 이게 제일 문제임 애니띵때 조교 ㅈㄴ게 해놔서 그냥 보이는 족족 네거티브에 넣고 예뻐지겠지하면서 한것들은 애니띵에서 효과를 본거지 이제 모델 교체하면 또 다르니까 일단 싹다 제거하고 필요한 부분만 덜어서 적당히 사용해줘야함 (그리고 그 모델 공유하는 곳에서 (worst quality, low quality:1.4), 이것도 그냥 처음부터 넣지말고 아예 처음부터 해당 모델을 이해하는 것부터 시작해주는게 좋음) 이제 실험대상이 되어줄 귀여운 딸 데리고왔음 프롬포트에 네거티브 싹다 적는다면 이제 싹다 걷어낼거임 대충 1차적으로 캐릭터 구성 프롬포트만 넣고 돌릴거임 (배경, 빛효과, 다른 효과들 싹다 걷어냄) masterpiece, best quality, ((upper body)+pov), solo, 1koma, dark brown Orange hair, (Sky blue eyes), (lion ears), (ferocious+lion hair+long hair), (bountiful hindhead), eyeshadow, dark eyelashes, eyeliner, Eyebags, sharply eyeline, beautiful eyes, (wild impression), (ferocious face), (scoffing face), (standing), (stay calm), Negative prompt: extra fingers,fewer fingers, 3d, lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name, worst quality, low quality, (nsfw:1.3), 적당히 귀엽게 나옴 이제 모델 공유할때 제작자가 권장한 네거티브 넣음 (worst quality, low quality:1.4), 이제 뭔가를 바꾸는거까지 할까 생각해봤는데 지금으로썬 별생각이 읎는거 같음.. 대충 요약: 요즘 나오는 모델들은 그냥 프롬포트 적게 쓰는 쪽이 예쁜거 같음-> 그냥 모델 자체가 완성도가 높고 취향에 맞다는거라는게 나의 생각임 이미 완성된 모델에 퀄리티, 효과 프롬포트 넣어서 만드는건 인간손으로 모델 노이즈처리해서 다시 i2i 돌려주는거랑 비슷한거 아닐까?.. " 초간단 로컬에서 exif 열람하기,2023-02-03,883,8,https://arca.live/b/aiart/68985975?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6,"webui 켜긴 귀찮고 아님 클라우드만 사용해서 exif 하나 보겠다고 클라우드 켜는건 에바고 exif웹뷰어에 업로드하긴 귀찮고 그런 너를 위한 무설치 portable 방법1(추천) https://exiftool.org/ 저거 받고 압축푼다 저 파일 위로 드래그 앤 드롭 즐감 방법2 https://github.com/RupertAvery/DiffusionToolkit 이미지 프리뷰가 달려있어서 방법1 보다 시각적 만족도가 있고 네거따로 프롬따로 원클릭 복사가 가능. 우하단 아이콘들로 exif 전체복사, 파일 위치 탐색기로 열기, exif정보창 보이기/숨기기 기능 탑제 하지만 이전 webui 에 있던 history탭 마냥 짤 쌓일수록 버벅거리다 터지기만 하는 물건이라 추천은 안함 " 시간 빌게이츠 뉴비가 실험해본 별로 도움 안되는 숫자로 조절하는 노출의 정도(스압),2023-02-03,2264,24,https://arca.live/b/aiart/68983552?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=6,"은꼴짤 뽑는 도중에 갑자기 든 생각임 영화 같은거 보면 뭐 전체 이용가, 12세 이용가 15세 이용가 18세 이용가 등등 나눠지는데 이걸 한 번 써먹어볼까 하는 생각이 든거임 챈에 비슷한 정보가 있지 않을까 하고 검색해봤는데 내가 원했던건 없는거 같았음(있으면 ㅎㅎㅈㅅㅋㅋ;) 여러번 실험해봤는데 결론부터 말하자면 되는게 있고 안되는게 있음. 근데 영향이 확실히 있긴 함 아래 짤을 봐보겠음. (부정은 전부 똑같고 긍정은 사진 아래 써놓겠음, 비교되는 짤들은 시드만 같게 했음 뉴비라 다른거 더 해야하는지는 잘 몰루) (masterpiece, best quality) : 1.4, 3+, medium breasts, brown long hair, twintails, naked shirt, black dolphin shorts, sunset, beach (masterpiece, best quality) : 1.4, 12+, medium breasts, brown long hair, twintails, naked shirt, black dolphin shorts, sunset, beach (masterpiece, best quality) : 1.4, 18+, medium breasts, brown long hair, twintails, naked shirt, black dolphin shorts, sunset, beach 위 3개의 태그 중 서로 차이가 나는건 3+, 12+, 18+ 뿐임 이 숫자들을 나이라고 친다면 확실히 숫자가 늘어날수록 노출도가 늘어남 아래의 예시도 마찬가지 (masterpiece, best quality) : 1.4, 3+, medium breasts, brown long hair, twintails, hoodie, sit, looking at viewer, leaning back (masterpiece, best quality) : 1.4, 12+, medium breasts, brown long hair, twintails, hoodie, sit, looking at viewer, leaning back (masterpiece, best quality) : 1.4, 18+, medium breasts, brown long hair, twintails, hoodie, sit, looking at viewer, leaning back 3+ 가릴 거 다 가림 12+ 가슴골 보임 18+ 가슴골에 하얀 빤쓰까지 적지만 차이가 있음 아래 3개의 짤은 (masterpiece, best quality) : 1.4, 1girl, (3+ : 3.0) 만 넣은 후 랜덤 시드로 생성한 다음에 시드 고정 후 12+, 18+ 변화를 줘봤음 (masterpiece, best quality) : 1.4, (3+ : 3.0), 1girl, (masterpiece, best quality) : 1.4, (12+ : 3.0), 1girl, (masterpiece, best quality) : 1.4, (18+ : 3.0), 1girl, 위의 경우는 3+이랑 12+은 크게 차이가 없는데 18+에서 어깨랑 가슴골이 드러남. 이처럼 여러가지 경우에 따라서 노출 정도의 차이가 크게크게 달라짐 (masterpiece, best quality) : 1.4, 3+, medium breasts, brown long hair, twintails, bathrobe, black dolphin shorts, sunset, beach (masterpiece, best quality) : 1.4, 12+, medium breasts, brown long hair, twintails, bathrobe, black dolphin shorts, sunset, beach (masterpiece, best quality) : 1.4, 18+, medium breasts, brown long hair, twintails, bathrobe, black dolphin shorts, sunset, beach 위의 3+은 어깨는 드러났으나 배꼽은 완전히 드러나진 않음 12+은 어깨는 가리고 배꼽이 완전히 드러남 18+은 갑자기 비키니가 검은색으로 바뀌고 아랫가슴 살짝 드러남, 오른쪽 어깨 드러남 오우 시발 개쩌네 바로 은꼴짤 뽑으러 간다 ㅋㅋ 하면 실망함 왜냐면 위 3개의 짤도 나머지 프롬 다 똑같고 위에서부터 3+, 12+, 18+인데 차이가 없음 얘들도 마찬가지. 결론을 지어보자면.. 그림에 따라서 영향이 있을 수도 있고 없을 수도 있다..인 거 같음 사실 난 은꼴짤 뽑아내면서 세밀하게 노출의 정도를 조절하고 싶다! 라는 생각에서 시작한거라 나 같은 경우가 아니라면 굳이? 싶음 원하는 짤이 나왔을 때 노출의 정도를 좀 조절해보고 싶다 하면 3+, 12+ 18+ 넣어가면서 실험해보면 나쁘지 않을 거 같다고 생각함 혹시 실험 과정에 부족한게 있었다면 이 뉴비한테 좀 가르침을 주세요 2일차라 아직 모르는거 많음.. " "구름에서 gdown 모듈 못 찾을때 해결법 (ModuleNotFoundError: No module named,",2023-02-03,180,0,https://arca.live/b/aiart/68983532?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=7,"원클릭구름 1/27 패치(레포지토리 직접 사용) 이후 gdown이 다운 완료라고 해놓고 실행하면 모듈을 못찾았다고 자꾸 퉤 뱉어서 구글링해봄 oolaf.tistory.com/115 여기 참고했음 -m pip install pandas gdown cmd에 위에 거 복붙하면 됨 내 생각에는 폴더 경로 바뀐 이후로 폴더 경로를 명시해주지 않아서 받고도 몰?루하는 거 같은데 정말 파이썬은커녕 프로그래밍 언어도 잘 몰라서 문제시 내가 다 틀림 근데 다운은 되고 모듈 못찾으면 이거 한번 해봐 검색해도 이거 관련 딱히 없어서 같은 문제 생기면 검색되라고 올리는거야 " 구름ide 실행이 안되는 이유,2023-02-03,414,3,https://arca.live/b/aiart/68975646?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=7," 저기 써있듯이 사용자가 많아지면 컨테이너 생성이나 실행이 막힐 수 있어서 그런거임 그러니  구름을 쓰는 사람들은 이런때를 대비해서 코랩이나 아마존같은 플랜B를 항상 세워두도록 하자 " 기초) 모델들 용량 줄이는 방법 (병합 활용 7GB->4GB),2023-02-03,2207,19,https://arca.live/b/aiart/68966157?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=7,"이번에 실험대상이 되어줄 친구는 애니띵 3.0임 7GB라는 무시무시한 놈이라서 코랩같은데 들어가면 코랩이 짜증낸다더라 (???나는 잘되던데?...->세이프텐서로 확장자명 바꿔서 그럼ㅇㅇ) 1.WEBUI 열었으면 밑에처럼 체크포인트 병합 탭들어가줘 이제 저기서 주모델쪽에 애니띵 넣을거임 2. 밑에 스샷이랑 같이 보면서 읽으셈 번호대로 알려줄거임 1: 주모델 넣는곳 말그대로 용량줄이고픈 녀석 넣어주셈 2: 결과물로 나올 모델 이름 정하는 곳 응애 모델 이름 정해줘 (난 그냥 대충 구분하기 쉽게 뒤에 float16붙여줌) 3: 뭐 병합할때 비율 맞추는건데 어차피 지금 우리는 병합하는게 아니라서 필요없음 신경쓰이면 0으로 놔두셈 4: 보간 방법 우린 필요없으니까 no 5: 체크포인트 확장자명 정해줄거임 ckpt로 갈거면 가고 세이프텐서로 갈거면 가셈 (개인적으로 세이프텐서가 좋음 나중에 좀더 배우면 체크포인트로 가셈) <5번 옆쪽에 float16 체크해줘!!> 6: 이것도 필요없는거니까 Don't 7: 이거는 vae를 같이 모델안에 넣어줄거냐는 거던데 자세한건 ㅁ?ㄹ 모르는건 웬만하면 건들지마셈 건들더라도 나중에 실험할때 건들고 이제 누가봐도 이거 누르면되요라고 주장하는 merge버튼 눌러주면 경량화 모델 만들어줄거임 3. 이제 모델 보관하는 폴더가보면 경량화된 응애 애니띵(4gb)가 나와있을거임 이제 저거 코랩넣고 돌리면 끝 내가 알기로는 코랩도 이거까지는 문제없이 돌아가는걸로 알고있음 " 코랩 공유폴더 사용안될때 해결법 보충함.,2023-02-03,280,4,https://arca.live/b/aiart/68965800?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=7,"https://arca.live/b/aiart/68582320?target=all&keyword=%EC%BD%94%EB%9E%A9+%EA%B3%B5%EC%9C%A0&p=1 이거대로 했는데 안되면 이전 구드 마운트가 여전히 남아있는 거라 런타임-런타임 연결 해제 및 삭제해서 런타임 연동해제 해야 제대로 적용됨. " DPM++ 2M VS DPM++ SDE chatGPT에게 물어보았어요~,2023-02-03,716,8,https://arca.live/b/aiart/68963266?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=7," 본인, 수능 영어 4등급.. 영어를 못해영.. 그래서 원문 파파고로 돌려봤어용 결론 부터 보면 2M은 빠르고, SDE는 느리지만 더 잘나올 수도 있데여~ 우리 모두 모르는게 있으면 chat gpt 에게 물어봐용^^ " "Video-to-Video, Image-to-Video 개발중",2023-02-03,2110,44,https://arca.live/b/aiart/68950260?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=7,"1. Image to Video 한장으로 자연어 적으면 영상 만들어짐 대충 비슷한거 여러장 + 자연어, 캐릭터 명확하게 뽑음 2. Video to Video 예전 MMD로 애니메이션 만들기 상위호환 텍스트 구동 이미지와 비디오 확산 모델은 최근 전례 없는 세대 리얼리즘을 달성했습니다. 확산 모델은 이미지 편집에 성공했지만 비디오 편집에 성공한 작품은 거의 없습니다. 일반적인 비디오의 텍스트 기반 모션과 외관 편집을 수행할 수 있는 최초의 확산 기반 방법을 제시합니다. 우리의 접근 방식은 비디오 확산 모델을 사용하여 추론 시 원본 비디오의 저해상도 시공간 정보와 가이드 텍스트 프롬프트에 맞추기 위해 합성된 새로운 고해상도 정보를 결합합니다. 원본 비디오에 대한 높은 충실도를 얻으려면 고해상도 정보의 일부를 유지해야 하므로 원본 비디오에 모델을 미세 조정하는 예비 단계를 추가하여 충실도를 크게 향상시킵니다. 우리는 완전한 시간적 주의와 시간적 주의 마스킹으로 공동으로 조정을 미세화하는 새로운 혼합 목표를 통해 움직임 편집 가능성을 개선할 것을 제안합니다. 또한 이미지 애니메이션의 새로운 프레임워크를 소개합니다. 먼저 복제나 원근법 기하학 투영과 같은 간단한 이미지 처리를 통해 이미지를 거친 비디오로 변환한 다음 일반적인 비디오 편집기를 사용하여 애니메이션화합니다. 게다가 애플리케이션으로서 우리의 방법을 피사체 주도의 비디오 생성에 사용할 수 있습니다. 광범위한 정성적 및 수치적 실험은 우리 방법의 우수한 편집 능력을 보여주며 기준선 방법에 비해 우수한 성능을 확립합니다. 논문 다운로드하기 : https://arxiv.org/abs/2302.01329 프로젝트 소개 페이지 : https://dreamix-video-editing.github.io/ " [가이드] t2i에서 일반 steps 값과 Hires steps 값이 그림에 미치는 영향에 대해.,2023-02-03,641,10,https://arca.live/b/aiart/68948395?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=7," 그림 출력시 가장 영향을 많이 끼치는 요소 중 하나라고 생각되는 steps 관련으로 최대한 짧고 영양가 있게 글 써봄. 결과 개시 전 선 요약 1. (시드값 고정 후) 일반 steps를 5씩 증가시키며 출력한 결과 = 일부 steps에서는 상이한 결과가 출력될 수 있으나, 구도와 색감이 동일한 그림의 바리에이션을 출력함. = (어떤 그림의 부정합성을 고치기 위해) 인페인트 리터칭에 사용할 그림을 출력하는 용도로 사용 가능해보임. 2. (업스케일러 R-ESRGAN 4x+ Anime6B, 디노이징값 0.4 기준. 다른 업스케일러 종류와 디노이징값에선 다를 수 있음.) Hires steps는 20부터 100까지 올려도 거의 차이가 없음. 1~3은 퀄리티 저하. 5~20이 적정구간으로 보임. 무난하게 중간값인 12를 추천함. Clip skip이 1일 경우, Hires steps에 더 영향을 받는 특이한 현상이 있으나, 역시 20이상에서부터는 눈에띄는 차이점이 없음. 이하 출력결과 [ 일반 steps값을 5단계씩 증가시킨 결과. ] [ Hires steps값을 5단계씩 증가시킨 결과. ] " 처음 시작하는 텔레그램 노벨AI(현재 이름:크리에이션 AI) 봇 가이드,2023-02-03,887,8,https://arca.live/b/aiart/68942824?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=7,"AI로 그림을 뽑는 방법은 여러가지가 있지만 본인은 텔레그램 봇을 많이 애용해. 이곳에서는 아는 사람이 그다지 많은 것 같지 않아서 간단히 소개해보고 싶어 이 글을 적게되었어. 내가 알고있기론 노벨 AI의 소스코드를 기반으로 러시아의 어느 개발자가 만든 봇이야. 줄여서 텔레노벨이라고도 부르는데 혹자는 노벨 AI보다 성능이 훨씬 좋다고 그러더라. 개인적으로 나도 그렇게 느끼고 있고. 계정 하나당 하루 10번의 제한은 있지만 한번 실행당 이미지를 최대 3개 뽑을 수 있어서 사실상 30번 제한이라 봐도 무방해. 제일 먼저 텔레그램을 깔아줘. 만약 회원이 아니라면 회원 가입을 해주고. 봇이니깐 PC든 모바일이던 둘 다 차이없이 작동해. (여기선 PC 텔레그램으로 접속함) 텔레그램을 깔면 위같은 화면이 나오는데, 검색하는 곳을 클릭해 빨간색 동그라미 쳐놓은 곳을 클릭해서 novelAI bot과 대화하는 대화방에 들어가면 준비 끝이야. 봇과 대화를 시작하면 아래에 간단한 사용법이 자동으로 나와. 어떤 언어를 쓸지 고를 수 있지만 저거 버튼 작동 안하더라. 그래서 /langugage 명령어를 입력해서 한국인 버튼을 눌러서 한글로 출력되게끔 설정하면 되. 그 다음엔 채팅창에 내가 원하는 프롬프트를 입력해서 보낼 수 있어. 여기선 회색 눈을 가진 핑크색의 샤기컷을 한 소년이 길거리에 있는걸 뽑아보자. 보통 positive라고 부르는 프롬프트야. 이게 노벨 AI 기반이라고 알고있긴 한데 강조할때 {}이 아니라 ()을 사용한단점 주의해줘. 여기선 내가 이미지에 번호를 적어놓은 칸만 설명을 할게. 설명을 안한 것은 그냥 써보면 알 수 있거나 나도 모르는 기능들이어서. 1번 버튼은 태그를 편집할 수 있어. 실수로 깜빡했던 프롬을 더하거나 원치 않는 프롬을 뺄 수 있어. 머리 삽입 버튼이나 꼬리 삽입 버튼을 누르고 자신이 원하는 프롬프트를 입력하면 되. 2번 칸은 자신이 원하는 모델, 즉 그림체를 선택할 수 있는 버튼이야. 모델들은 총 4가지로 illustration(AbyssOrangeMix2), Anime(AnythingV3), Hentai(Grapefruit-2.4), Reality(HassBlend)가 제공되.여기서는 개인적으로 가장 애용하는 모델인 AnythingV3를 선택했어. 3번 칸은 사진을 한번에 몆장 뽑을지 선택할 수 있는 버튼이야. 보통은 3장을 선택하는게 가장 좋은데 무료 사용자는 계정당 하루에 10번씩 이용할 수 있는 횟수제한이 걸려있어서 그래. 하루당 이용 가능한 횟수는 새벽 12시에 초기화되니 참고해줘. 4번 칸은 그리는 횟수를 얼마나 반복할지 정하는 버튼이야. 반복 횟수의 기본값은 28번으로 설정되어있고 최대 50번, 최소 22번까지 반복할 수 있어. 값이 높을수록 더 좋은(혹은 더 나쁜)결과를 얻을 수 있고 그 대신 이미지 만드는 시간이 반복값에 비례해서 길어지거나 짧아져. 근데 보통은 28~33번 정도가 적당한거 같애. 5번칸은 결과물로 나온 이미지의 크기와 비율, 즉 해상도를 정하는 버튼이야. 여기서 자기가 원하는 비율을 터치한 후 해상도를 선택하면 되. 6번칸은 원하지 않는 태그, 보통 말하는 Negative 프롬을 입력하는 곳이야. 들어가보면 미리 입력되어있는 것 말고도 아래 프롬들을 기본적으로 입력해놓음 되. mising anatomy, missing body, missing navel, missing face, missing eyes, missing chest, missing nipples, missing hips, missing arms, missing hands, missing fingers, extra legs, extra feet, extra toe 야짤을 뽑을게 아니라면 nsfw도 적으면 되고. 이제 위의 설정을 다 했다면 확인하다를 눌러주면 되. 위 메시지가 뜬 상태로 대충 3분~5분정도 기다리면 저 메시지는 사라지고 그 대신 이렇게 결과값들이 나와. (FT나 SPR은 뭘 말하는지 내가 모르겠어서 설명을 못하겠다. 누가 좀 알려줘) 이제 결과로 나온 이미지들 올리고선 글을 마칠게. 길고 허접한 내 소개글을 읽어줘서 고마워! 좀 더 추가해야할 정보가 있음 나중에 더 수정해서 추가할게! +추가 2월 4일 기준으로 이름이 크리에이션 AI로 바뀌었어. 그래서 이름도 creation_bot으로 이름을 쓰고 들어가야해. " Diffusion Model이 그림을 만드는 방법,2023-02-03,1609,24,https://arca.live/b/aiart/68940234?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=7," 엔트로피 증가 과정을 그림 생성에 응용해보자. 우주에서 엔트로피가 증가하는 과정은 자연스러운 현상이고 저 그림(X_0)이 아주 낡아버리면 저런 노이즈(X_T)의 형태로 망가져 버릴거라는 거임. 그래서 X_T는 정규분포로 부터 랜덤 추출(Sample)해서 만든다. 자연에서 일어나는 현상은 대부분이 정규분포를 따르기 때문에 아주 자연스러운 가정이라고 한다.(물리학과 천재들이 하는 말이니깐 맞겠지. 뭐...) 그림을 망가뜨려보자. (구현과 완전히 똑같지는 않지만 그림이 망가지는 과정을 설명해보자함.) 위의 그림에서 오른쪽에서 왼쪽으로 가는 과정은 사진이 낡아가는 과정을 표현한거임. 사진에 ""아주 작은 noise""를 조금씩 조금씩 더해가면서 사진을 망가뜨린다. 이 ""아주 작은 noise""를 만들때 사용하는 함수가 q임. 그런데 step이 충분히 많아지면 이 함수 q가 정규분포함수가 된다고 한다. ""아주 작은 noise""를 만들 때 정규분포로부터 랜덤으로 추출(sampling)한다 그래서 이 과정을 sampling이라고 부름. 그리고 함수 q가 우리가 익히 알고 있는 Sampling method(Euler A 등)임. (Sampling method는 step의 특정 시점(t)에서 정규분포의 분산 값(얼마나 망가뜨릴지) 결정함.) 망가진 그림에서 noise를 빼서 복구 해보자. 우리가 원하는건 그림을 망가뜨리는게 아니고 저 노이즈로부터 그림을 만들어 내는 과정이지 저게 위에 그림에서 있는 함수p임. p는 망가진 그림에서 빼야하는 noise를 계산하는 함수임. 함수 p는 어느 시점의 그림 x_t를 입력 받아서 제거해야하는 noise를 반환한다. 함수 p는 주로 Unet을 사용한다.(모델 병합할때 나오는 그 Unet임.) 학습은 어떻게 하는가? 저 단계 하나하나를 학습에 쓸 수 있고 망가뜨릴때 더해주는 noise와 복구할때의 빼주는 noise의 차이를 최소화 하는 것을 학습이라고 함. 여담 stable diffusion에서 공개한 코드 분석하다가 머리가 뽀개질뻔 했는데 hugging face의 diffuser 라이브러리가 잘 정리되어 있어서 이해하기가 좋았다. 혹시 딥러닝 공부하는 사람은 hugging face의 라이브러리를 공부해서 시간을 아끼도록 하자. " 30분으로 끝내는 ai그림 기초(완성본),2023-02-03,28871,76,https://arca.live/b/aiart/68935395?category=%EC%8B%A4%ED%97%98%EC%A0%95%EB%B3%B4&p=7,"이 글은 ai그림를 처음 접하는 뉴비들을 위한 입문글이다 우선, ai 그림은 말그대로 ai가 그림을 뽑아주는 것이다. 프롬프트에 니가 원하는 그림에 대한 설명을 써주면 ai가 그걸 토대로 그림을 그려주는 방식이다 예시) prompt: 1girl, blue hair 현 시점에는 novel ai, midjourney 등의 다양한 그림 ai 플랫폼이 존재하지만 대부분 횟수제한이 걸리거나, 유료거나, 검열이 있거나, 퀄리티가 떨어지거나, 발전이 없다. 그런데 이것들에 전부 구애받지 않는게 바로 webui다. 무료고, 검열도 없고, 발전도 존나 빠르다. Webui를 돌리는 방법은 크게 두가지로 나뉜다 1) Colab(모바일, pc 모두 가능) https://oo.pe/https://colab.research.google.com/drive/1nBaePtwcW_ds7OQdFebcxB91n_aORQY5#scrollTo=UGSqtUJPJoOj 구글에서 서버를 빌려서 돌리는 방식 2)  로컬(pc만 가능) https://oo.pe/https://github.com/toriato/stable-diffusion-webui-launcher/releases/download/launcher/launcher.exe 니 컴퓨터로 직접 돌리는 방식 Ai가 컴퓨팅 자원을 상당히 많이 쳐먹기 때문에 그래픽카드가  3000번대 미만이라면 추천하지 않는다 일단 이 글을 읽는 사람들은 찍먹하러 온 뉴비들이라는 전제 하에서, 가장 무난한 colab을 기준으로 설명하겠다. 우선 링크를 타고 들어가라 그럼 이런 화면이 뜰텐데, 여기서 재생버튼을 눌러주자 재생버튼을 누르고 나면 구글에서 '작성하지 않은 노트입니다', '구글 드라이브에 연결' 메세지가 차례로 뜰텐데 모두 허가 눌러주면 된다. 그럼 이런식으로 재생버튼이 돌아가면서 뭔가 코드들이 뜰거다. 이때 저 창을 절대 닫으면 안된다. 무슨일이 있어도 저 창은 반드시 켜저있어야 함 처음 시작할때는 10분정도 걸릴테니, 이쯤에 채널 규정 쭉 읽어보고 챈 눈팅 좀 하고 오면 된다. 다 읽고 왔나? 만약 문제 코렙이 잘 돌아갔다면 이런식으로 링크가 뜰거다 초록칸의 비밀번호를 복사해두고 아래 노란색에 있는 링크를 들어가면 (2023/2/13 수정: 업뎃으로 더이상 귀찮게 비번 쓸 필요 없어졌으니 아래의 로그인 관련 내용은 신경쓰지 않아도 된다) 이런 비번창이 뜨는데 Username에는 gradio Password에는 아까 복사한 비번을 넣어주면 드디어 그림을 뽑을 준비가 된거다 Best quality, masterpiece 라고 적힌 곳이 프롬프트 칸이니 그 뒤에 이어서 그림에 대한 설명들을 적어주면 된다. 그러나 온갖 상상을 하며 여기까지 와서 그림을 뽑아보려고 태그를 적어보려고 하면 girl, large breasts, sexy.......뭐 적지? 이러는 사람들이 제법 있을 것이다 그 문제의 해결책으로는 3가지 정도가 있다 1. 번역기 원하는 묘사를 쭉 쓴 다음 번역기에 넣고 영어로 바꿔서 프롬창에 복붙하면 된다. 간단하지만 상당히 효과적이다 2. 구글 검색 검열 등의 문제로 번역기가 제대로 번역하지 못하는 것들은 구글에 '~~ 영어로' 하고 검색하면 어지간한건 다 나온다 3. 자동 태그분석기 https://ihabis-wd-v1-4-tags.hf.space/ https://huggingface.co/spaces/hysts/DeepDanbooru 둘중 뭘로 써도 상관은 없다 해당 사이트에 이미지를 첨부하면 ai가 그림을 태그로 해설해 준다. 참고하고 싶은 그림을 넣고 태그를 분석해서 필요한거만 뽑아가면 된다. 채널위키에 세부적인 태그들 관한 정리글도 있으니 참고 https://arca.live/w/aiart/%ED%94%84%EB%A1%AC%ED%94%84%ED%8A%B8%20%ED%83%9C%EA%B7%B8%20%EC%A0%95%EB%B3%B4 위의 3가지 방법들을 통해서 얻은 정보들을 태그식으로 적어서 프롬프트 창에 적어주자 예시) long hair, blonde hair, headphone, large breasts, yellow top, sweater, single braid, closed eyes, light smile, curvy, denim, lying on tree, flowerfield, shadow, musical note hair ornament, musical note, sitting, tree 만약 강조하거나 약화시키고 싶은 태그가 있다면 강조하고 싶은 태그에는 (태그) 약화시키고 싶은 태그에는 [태그] 완전히 나오지 않길 바라는 태그는 프롬프트 바로 아래 칸인undesired contents(네거티브, 부정이라고도 부름)에다가 적어주자 예시)  long hair, blonde hair, ((headphone)), large breasts, yellow top, sweater, single braid, [closed eyes], light smile, curvy, denim, ((lying on tree)), flowerfield, shadow, musical note hair ornament, musical note, sitting, (tree) 괄호를 중첩해서 넣을 경우 강조, 약화가 더욱 심화된다 태그를 다 준비했다면, generate 버튼을 눌러 마음껏 짤 생산을 시작하면 된다 하지만 짤을 뽑다보면 그것만으로 만족하는 사람들도 있깄지만, 쓰다보면 조금더 고퀄리티, 고해상도의 짤을 바라게 될 것이다. 이때 쓰는것이 바로 민트색 동그라미로 칠한 hires.fix이다 해당 칸을 체크하게 되면 이렇게 새로운 창이 나타나게 된다 여기서 upscaler를 R-ESRGAN 4x+ Anime 6B 또는 Latent를 골라주고 Upscale 배율은 1.5정도로 (보통은 2배로 쓰지만 코렙을 쓰는 경우 터지는 경우가 잦다) Denoising strength는 0.45~0.51정도로 정해주자 해당 옵션을 사용하게 되면 그림 뽑는 시간은 배로 뻥튀기가 되지만, 결과물은 고해상도와 고퀄리티를 갖춘 그림이 나오게 된다 더 자세하게 알고싶다면 다 읽고난 뒤아래 링크를 참고하자 https://arca.live/b/aiart/69116256 이제 한 발짝 더 나아가 다른 설정들에 대해 알아보자 Sampling method: 어떤 방식으로 샘플링할지 결정하는 항목, DPM++ SDE Karras가 가장 오래 걸려도 일반적으로는 가장 좋은 퀄리티가 나오기에 추천한다. Sampling steps: 얼마나 샘플링을 진행할지에 대해 결정, 옛날에는 스텝수가 깡패였던 시절이 있지만 요즘은 20~30정도로 맞추고 hires.fix 쓰는게 훨씬 낫다. Width, height: 가로, 세로 길이다. 512×768이나 768×512정도로 하는것을 추천한다. 너무 높게 잡으면 인체가 박살나버리거나 Hires.fix가 안돌아간다. Batch count: 한번에 몆장씩 뽑을지 Batch size: 총 몆번 뽑을지 예를 들어 count를 2, size를 3으로 정하면 한번에 2장씩 3번을 뽑아 총 2×3=6개를 뽑아오는 식이다 scale: ai에게 얼마나 자유도를 부여할지 극단적으로 높거나 낮게 잡는 이상 별로 티나지 않는다 개인적으로는 8~12사이 추천 만약 여기까지 어떻게든 혼란스러운 머리를 붙들고 진행해 왔다고 하면, ai 그림의 기초는 거의 다 완성한것이다. 이때 눈썰미가 좋은 사람이라면 자신이 뽑은 그림과 위에서 나온 예시 그림이 뭔가 화풍이 다르다는 것을 눈치챘을 것이다. 그것은 바로 모델 차이 때문이다 좌측 상단에 떠있는 checkpoints가 현재 사용하는 모델을 알려준다. 이 글을 보고있는 사람 기준으로는 Anything V3가 떠있을 것이다. 저것도 나쁘지 않은 모델이지만 현 시점(2023/2/3)에서는 한물 간 모델이다. 현 시점에서 가장 대표적인 모델로는 Abyssorange2 https://huggingface.co/WarriorMama777/OrangeMixs/tree/main/Models/AbyssOrangeMix2 빛표현이 상당히 뛰어난 2.5D 느낌의 모델 Pastelmix https://huggingface.co/andite/pastel-mix/tree/main 파스텔화풍의 2D 모델 basilmix https://huggingface.co/nuigurumi/basil_mix/tree/main 3D 실사모델 실사보고 온 놈들은 이거 쓰면 된다 그리고 아래 글 한번만 읽어라 https://arca.live/b/aiart/69254155 모델은 해당 링크들로 들어가서 ~ckpt, ~safetensors 붙은걸로 받으면 된다 그리고 모델은 아니지만 https://huggingface.co/hakurei/waifu-diffusion-v1-4/tree/main/vae 여기서 kl f8 anime 2도 무조건 챙겨가라 파일을 모두 받았다면, 자신의 구글 드라이브에 들어가서 SD->models->stable diffusion(로컬인 경우 repo->models-> stable diffusion) 항목에 들어가서 모델을 집어넣자 동시에 위에서 받은 kl f8 anime 2는 SD->models->VAE(로컬인 경우 repo->models->VAE) 항목에다가 집어넣으면 된다 파일을 모두 넣었다면 귀찮겠지만 코렙을 재시작해주자 코렙을 재시작하고 checkpoints 항목을 눌러보면 이런식으로 다른 모델들이 뜨는걸 확인할 수 있다 교체할 모델을 선택해주고 잠깐 기다리면 새 모델이 적용된다. 그리고 settings->stable diffusion->SD VAE를 선택 후 Kl f8 anime 2로 교체 후 apply settings 까지 눌러주면 진짜로 모든 준비가 끝났다 이제 가서 열심히 뽑고 즐기면 된다 자주 나오는 질문들 모음 1. 그림이 흐리게 나온다? VAE 안받았거나 받아도 적용이 안된 케이스 위에서 kl f8 anime 2받고 시키라는 대로 하면 해결될거다 2. 모바일도 가능? 코렙은 구글 서버를 빌려쓰는 방식이기에 모바일도 가능하다 다만 코렙 실행창이 자동으로 닫혀버리는 케이스가 꽤나 자주 발생하기 때문에 모바일에 경우 코렙 실행창 상단에 '+코드'를 누르고 %%html