Skip to content

PRITHIVSAKTHIUR/Text-to-Image

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

12 Commits
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

title emoji colorFrom colorTo sdk sdk_version app_file pinned header license
Text-to-Image
red
blue
gradio
4.36.1
app.py
true
mini
creativeml-openrail-m

alt text

Working

D:\>python app.py 
Token will not been saved to git credential helper. Pass `add_to_git_credential=True` if you want to set the git credential as well.
Token is valid (permission: read).
Your token has been saved to C:\Users\prith\.cache\huggingface\token
Login successful
model_index.json: 100%|████████████████████████████████████████████████████████████████████████████████████████████| 685/685 [00:00<?, ?B/s] 
C:\Users\prith\AppData\Local\Programs\Python\Python310\lib\site-packages\huggingface_hub\file_download.py:149: UserWarning: `huggingface_hub` cache-system uses symlinks by default to efficiently store duplicated files but your machine does not support them in C:\Users\prith\.cache\huggingface\hub\models--stabilityai--sdxl-turbo. Caching files will still work but in a degraded version that might require more space on your disk. This warning can be disabled by setting the `HF_HUB_DISABLE_SYMLINKS_WARNING` environment variable. For more details, see https://huggingface.co/docs/huggingface_hub/how-to-cache#limitations.
To support symlinks on Windows, you either need to activate Developer Mode or to run Python as an administrator. In order to see activate developer mode, see this article: https://docs.microsoft.com/en-us/windows/apps/get-started/enable-your-device-for-development
  warnings.warn(message)
text_encoder_2/config.json: 100%|███████████████████████████████████████████████████████████████████████████| 575/575 [00:00<00:00, 575kB/s] 
text_encoder/config.json: 100%|████████████████████████████████████████████████████████████████████████████████████| 565/565 [00:00<?, ?B/s] 
tokenizer/tokenizer_config.json: 100%|█████████████████████████████████████████████████████████████████████████████| 704/704 [00:00<?, ?B/s] 
tokenizer/special_tokens_map.json: 100%|███████████████████████████████████████████████████████████████████████████| 586/586 [00:00<?, ?B/s] 
scheduler/scheduler_config.json: 100%|█████████████████████████████████████████████████████████████████████████████| 459/459 [00:00<?, ?B/s] 
tokenizer/merges.txt: 100%|██████████████████████████████████████████████████████████████████████████████| 525k/525k [00:00<00:00, 2.28MB/s] 
tokenizer_2/special_tokens_map.json: 100%|█████████████████████████████████████████████████████████████████████████| 460/460 [00:00<?, ?B/s] 
tokenizer_2/tokenizer_config.json: 100%|████████████████████████████████████████████████████████████████████| 855/855 [00:00<00:00, 654kB/s] 
unet/config.json: 100%|████████████████████████████████████████████████████████████████████████████████████████| 1.78k/1.78k [00:00<?, ?B/s] 
tokenizer/vocab.json: 100%|████████████████████████████████████████████████████████████████████████████| 1.06M/1.06M [00:00<00:00, 2.32MB/s] 
vae/config.json: 100%|█████████████████████████████████████████████████████████████████████████████████████████████| 607/607 [00:00<?, ?B/s] 
tokenizer_2/merges.txt: 100%|█████████████████████████████████████████████████████████████████████████████| 525k/525k [00:00<00:00, 777kB/s] 
tokenizer_2/vocab.json: 100%|███████████████████████████████████████████████████████████████████████████| 1.06M/1.06M [00:01<00:00, 856kB/s] 
model.safetensors: 100%|█████████████████████████████████████████████████████████████████████████████████| 492M/492M [02:16<00:00, 3.60MB/s] 
diffusion_pytorch_model.safetensors: 100%|███████████████████████████████████████████████████████████████| 335M/335M [02:16<00:00, 2.45MB/s] 
model.safetensors: 100%|███████████████████████████████████████████████████████████████████████████████| 2.78G/2.78G [08:30<00:00, 5.45MB/s] 
diffusion_pytorch_model.safetensors: 100%|█████████████████████████████████████████████████████████████| 10.3G/10.3G [19:37<00:00, 8.72MB/s] 
Fetching 18 files: 100%|████████████████████████████████████████████████████████████████████████████████████| 18/18 [19:39<00:00, 65.50s/it] 
Loading pipeline components...: 100%|█████████████████████████████████████████████████████████████████████████| 7/7 [00:03<00:00,  1.82it/s] 
Running on local URL:  http://127.0.0.1:7860███████████████████████████████████████████████████████████| 10.3G/10.3G [19:37<00:00, 10.9MB/s] 

Thanks for being a Gradio user! If you have questions or feedback, please join our Discord server and chat with us: https://discord.gg/feTf9x3ZSB

To create a public link, set `share=True` in `launch()`.
IMPORTANT: You are using gradio version 3.41.2, however version 4.29.0 is available, please upgrade.

Load all the model insights

alt text

Compiled & Ready to Launch

alt text

Result with the launched default port http://127.0.0.1:7860

alt text

.

.

.