NEURO_PIXEL_PROMPTS / dancing-workflow_2.md
Tutorograd's picture
Create dancing-workflow_2.md
478e64b
# Author -Altair123
# Tools
- A1111
- Img2Img
- ControlNet
- Davinci Resolve
- Topaz Video Ai
# Model
- Realisian
## Positive Prompt
- masterpiece
- best quality:1.3
- 8k wallpaper
- smooth gradients
- soft shadows
- 1girl
- clean background
- detailed face
- beautiful brown eyes
- smile
- red boots
- realistic:1.5
## Negative Prompt
- worst quality
- low quality
- normal quality:1.8
- nude
- nsfw
- add your favourite negative prompts
# Settings
- Steps: 20
- Sampler: Euler a
- CFG scale: 7
- Denoising strength: 0.4
- Clip skip: 2
- ControlNet: softedge_hed weight: 1.5
- My prompt is more important
- [Loopback]
- Temporalnet
- Preprocesor: none
- Weight: 0.7
- My prompt is more important
- [Loopback]
# Workflow [RU]
Сначала измените размер и обрежьте видео до желаемого размера, учитывая, что SD лучше всего работает с квадратными изображениями. Затем извлеките из видео отдельные кадры, для медленно движущихся видео достаточно 18 кадров в секунду, а для динамичных - 30 кадров в секунду.
Затем я взял один кадр и начал создавать прототипы промптов и настроек в Img2Img, вот несколько полезных наблюдений: как правило, при работе с Img2Img большая степень устранения шумов означает больше изменений и больше мерцания. Чтобы уменьшить это, нужно балансировать denoising и CFG-scale. От выбора Sampler и ControlNet тоже многое зависит, лучшие результаты я получил с Euler a и Softedge_head.
Когда я достигаю нужного стиля, наступает время для пакетного создания изображений. Это долгий процесс, который займет несколько часов. Вы можете подглядывать, идет ли процесс успешно, и в случае каких-либо проблем прервать создание изображений.
После завершения создания изображений приходит время для рендеринга видео. Я не буду вдаваться в подробности использования программы для редактирования видео, но могу дать несколько важных заметок: используйте устранение мерцания (De-flicker), даже несколько раз, если это необходимо. Для последовательностей изображений с низким количеством кадров в секунду (менее 30 кадров в секунду) используйте методы интерполяции кадров, такие как optical flow.
Последний этап - улучшение видео в Topaz Video Ai. Это очень прстаоя в использовании программа, просто измените частоту кадров на 60 и увеличьте разрешение до желаемого. Поздравляю, теперь у вас есть замечательное видео с танцующей аниме-вайфу!
# Workflow [ENG]
1. First resize and crop the video to desired size, keep in mind the SD works better with square images.
2. Next extract video to images, 30fps is good for dynamic videos.
3. After that I took one frame and began prototyping prompts and settings in Img2Img, here are some useful observations: Generally, with Img2Img, higher denoising means more changes and more flickering. To reduce it, balance denoising and CFG scale. Sampler and ControlNet also matters, I got best results with Euler a and Softedge_head.
4. When I achieve style I'm looking for, it's time for batch generation. This is a long process and will take a few hours. You can sneak peak if generation is going well and if something went wrong interrupt generation.
5. After generation complete, it's time to render the video. I won't go into the details of how to use video editing software, but I can give some important notes: Use deflickering, even a few times if needed. For low fps image sequences (under 30fps) use frame interpolation methods like optical flow.
6. The last step is enhancing video in Topaz Video Ai. This is a very simple program to use, just change the framerate to 60 and upscale to the desired resolution.
# Source Video
[Original Video](https://www.youtube.com/shorts/LT3nauFn1NY) - The original video seems to be an animation (3D?) transformed into anime style using AI, but I don't know how it was made.