Ti parlerò della WebUI di AI Picture (Difference Stable)
Oggi ti guiderò il sito che disegna l'immagine gratuitamente con AI!
Puoi disegnare un'immagine davvero facilmente!
WebUI (Difference stabile)
L'IA di stabilità, pubblicata il 22 agosto 2022, è un modello di intelligenza artificiale che converte il testo in un'immagine. Questo modello è distribuito come licenza open source, consentendo a una varietà di utenti di utilizzarlo liberamente. Quando si inserisce il testo, l'IA di stabilità crea un'immagine di alta qualità basata su quel testo.
Indirizzo Web :
https://stability.ai/
Caratteristica:
La diffusione stabile è un modello di intelligenza artificiale per l'apprendimento profondo sviluppato in base alla "ricerca sulla sintesi di immagini ad alta risoluzione" dal laboratorio del gruppo di Vision & Learning Group (Compvis) presso la Monaco di Monaco di Monaco di Monaco di Monaco di Monaco di Monaco, in Germania. È stato sviluppato con il supporto di stabilità AI e Runway ML.
Stability Ai è una società britannica chiamata Emad Mostaque, fornendo risorse di elaborazione per differenze stabili, che consente di imparare un database Laion-5B. A differenza dei modelli di testo a immagine come Dall-E 2 o Imagen, questo modello può essere utilizzato anche su computer con VRAM di 4 GB o meno riducendo notevolmente le risorse del computer.
Inoltre, anche se è costoso, è aperto all'open source e può essere utilizzato dal pubblico. Ciò ha aperto l'età della pittura di intelligenza artificiale e la funzione di servizio di immagini AI basata sul modello continua ad aumentare.
È possibile utilizzare il plug -in "Controlnet" per fare una posa. Inoltre, utilizzando vari modelli ausiliari di ControlNet, come il modello Canny derivato da OpensuPi, regola le colture dell'area del corpo per aiutare lo schizzo del livello di linea.
La differenziazione stabile è principalmente composta da tre reti neurali artificiali: clip, UNET e VAE (VAE). Quando l'utente inserisce il testo, l'encoder del testo, clip, converte il testo nel token che non si può capire. UNET crea un'immagine rimuovendo il rumore generato in modo casuale in base ai token. La ripetizione del processo dinoizzazione crea un'immagine accurata e i VAE svolgono un ruolo nella conversione di queste immagini in pixel.
A differenza del tradizionale modello di creazione di immagini di probabilità di diffusione, la differenziazione stabile ha introdotto l'incoder OTTO prima e dopo per risolvere il problema che il consumo di risorse aumenta all'aumentare della risoluzione. Ciò consente di creare un'immagine di risoluzione relativamente grande manipolando il rumore in un piccolo livello di spazio potenziale, non l'intera immagine e non richiede molte risorse di elaborazione. Pertanto, la differenza stabile può essere utilizzata come risorsa delle schede grafiche utilizzate nelle ipotesi generali.
Licenza:
L'IA stabile ha introdotto una licenza open source [4] per il nuovo apprendimento automatico. Questa licenza ha una funzionalità diversa dalla solita licenza open source. Se si fornisce un servizio utilizzando la differenziazione stabile, l'utente deve rispettare esplicitamente tale licenza. Inoltre, quando si ottiene la messa a punto del modello, dovrebbe essere utilizzato solo per l'uso specifico specificato nella licenza e non dovrebbe essere utilizzato per altri scopi.
Come usare :
Vari progetti open source sono stati sviluppati utilizzando differenze stabili. Di seguito è riportata una descrizione di ogni progetto:
1. Interfaccia utente Web di difficoltà stabile: un progetto che fornisce un'interfaccia utente basata sul Web per facilitare l'utilizzo del modello di diffusione stabile. Gli sviluppatori continuano ad aggiornare e aggiungere una varietà di funzionalità come la correzione GFPGAN, l'upscaling di ESRGAN e l'inversione testuale oltre alla funzione frontale della diffusione stabile.
2. Autore originale: il progetto originale pubblicato da compvis. L'usabilità è limitata, quindi può essere utilizzata a fini di riferimento.
3. Diffusers: questo è un frame per il nuovo modello di diffusione fornito da Herging Face, un famoso fornitore di quadri di apprendimento automatico. Fornisce un modo per rendere facilmente il falneduneng della diffusione stabile. Include anche quadri come trasformatori o set di dati.
4. DiffressBee: è possibile eseguire la differenza stabile direttamente con l'app per il Mac. È possibile inserire testo e immagini e supportare anche le funzioni di pagamento e avamposto. La versione Apple Silicon utilizza un motore neurale all'interno del silicio Apple e la versione HQ utilizza la GPU per aumentare la qualità, ma la velocità è lenta. Supporta anche Intel Mac e supporterà Windows in futuro.
5. Disegna le cose: puoi eseguire difficoltà stabile con app per iOS, iPados e macOS. Supporta tre modalità: GPU CPU +, motore neurale CPU +, motore neurale CPU + GPU + (ALL). È possibile utilizzare checkpoint, lora, inversione testuale, ecc. E offrire una funzione simile a WebUI. La funzione di espansione non è supportata e, a causa dei vincoli di capacità di memoria, l'app può spesso terminare a causa della mancanza di memoria se esegue più di una certa risoluzione sia nei dispositivi vecchi che nuovi.
6. Riffusione: questo è un esempio di applicarlo alla composizione AI usando lo spettrogramma.
7. Dish all'interno della galleria di immagini AI: abbiamo aperto una galleria dedicata che può creare immagini AI usando il servizio di Civitai.
I progetti di cui sopra utilizzano la diffusione stabile per creare immagini di intelligenza artificiale in varie funzioni e ambienti.
Commenti
Posta un commento