Lezione dal corso AI text to images
Ok.
Ciao, ragazzi.
Buonasera.
Buonasera a tutti.
Ciao a tutti.
Ciao a tutti! Da dove si è? Da dove ci ci seguite? Quanta gente abbiamo collegata? Dobbiamo Sì e no.
Ecco che ci sentono.
Una qualcuno si sta collegando.
Buonasera.
Buonasera.
Buonasera a tutti.
Ehm che benissimo! Perfetto.
Ci sentono a Ok, ci sentono bene.
Due da Udine.
Aspettiamo.
Magari un attimo che si collega anche qualcun altro.
Voi altri ragazzi? Dove siete? Cosa fate? C' è qualcuno che già conosce l'argomento della generazione dell'immagine tramite l'intelligenza artificiale.
Ok, era esploso il sito.
Bene, direi.
Direi che possiamo iniziare.
Perfetto.
Vedete tutte le slide che ha fatto? Va bene, ragazzi.
Buonasera.
Benvenuti a webinar.
Come generare le immagini tramite l'intelligenza artificiale? Io sono Riccardo Previtali.
Sia io di Vector sono un ingegnere informatico.
Anche i miei due colleghi, Alberto Federico, sono due ingegneri.
Abbiamo studiato tutti all'università di Pavia, dove ci siamo conosciuti e abbiamo intrapreso questo percorso insieme.
Nonostante sia già passato qualche annetto.
Io mi occupo di tutti quelli che sono le relazioni e le partnership e la comunicazione legata a questo progetto.
Poi abbiamo Alberto che gestisce ovviamente a tutte le attività del team.
É inoltre un grande appassionato di tecnologia, quindi questa sera darà sfogo a tutte quelle che sono le sue abilità tecniche che di solito tiene un po' nascoste.
Poi abbiamo Federico, il background del nostro progetto che il responsabile da parte un po' più tecnica produttiva del progetto e ogni giorno ci stupisce con idee innovative.
Ma arriviamo a quello che fa Vector Vector ha un vettore che si impegna a trasportare tutto quello che è il mondo dell'arte digitale in un mondo sempre più virtuale con l'obiettivo di mantenere quello che è il patrimonio culturale in questo mondo digitale.
Come lavoriamo, abbiamo all'interno strutturato diversi percorsi.
La prima fase parte sempre con un'analisi sulle opere d'arte, concentrandosi su quelle che sono andate magari distrutte, opere che sono incompiute.
Dopodiché partiamo con una faccia, una fase di ricostruzione digitale e concludiamo tutta questa fase di ricostruzione andando a creare dei talk in FTL che non servono per il punto di vista speculativo, ma per andare a rendere unica l'opera quindi legarla a quello che ha un contratto digitale.
Inoltre lavoriamo su quello che è l'ambito dell'intelligenza artificiale, la realtà aumentata, la realtà virtuale.
Questa sera il focus, ovviamente sulla parte dell'intelligenza artificiale come la utilizziamo.
Noi andiamo a creare dei modelli dedicati utilizzando un dataset ben preciso nei nostri casi, solitamente un dataset che è legato ad uno stile di un artista o una corrente artistica.
Andiamo a trainare il nostro modello di intelligenza artificiale e dopo che lo mettiamo in pratica per le ricostruzioni o per le generazioni.
Ma andiamo a vederlo nella pratica.
Quello che vedete nelle slide sono dei quadri di Gustav Klimt, un pittore che aveva vissuto tra il milleottocento il millenovecento a Vienna, quindi in Austria, e dipingeva principalmente paesaggi e figure femminili e ha una caratteristica che molte delle sue opere sono rimaste incompiute.
Per esempio, nel quadro di sinistra abbiamo il quadro di aria molto, molto famoso è mentre sulla destra abbiamo il ritratto di signora, sono due delle sue opere più famose.
Quello che vedete al centro non è un quadro di Klimt, ma è un quadro generato tramite un modello dedicato che è basato su un dataset legato a Gustav Klimt.
Di conseguenza, abbiamo trainato la nostra intelligenza artificiale in modo che potesse generare dei nuovi quadri con lo stesso stile del pittore.
Eh? Possiamo notare come nell'immagine il vestito riprende molto quello del ritratto di signora nel background, molto simile a quello di Raya Munk, anche lo sguardo della figura femminile.
Io vi invito a cercare altre opere di Klimt.
Potete notare sicuramente delle si milanese a quelle che sono le sue opere, anche le colorazioni.
Qua abbiamo un altro esempio di generazione in alto avete quello che è un castello con un paesaggio sempre di Klimt in basso il nostro, il nostro quadro generato e sulla destra delle immagini che sono state generate con un software che andremo a vedere questa sera.
Vedete che c' è molta differenza, nel senso che le immagini generate con un software che non ha un modello dedicato, di conseguenza utilizza un modello di default di intelligenza artificiale.
Sono molto differenti.
Una dall'altra a colori molto diversi, paesaggi molto differenti nonostante il pront testuale che è una stringa di caratteri che serve ad indirizzare la j' generazione dopo lo vedremo meglio insieme ad Alberto Il prompt è lo stesso, ma il risultato è molto differente.
Sulla nostra immagine invece, possiamo notare come riprendono la stessa forma gli alberi, i colori, le case e le finestre.
Di conseguenza riusciamo a con un modello dedicato ad avvicinarci a quello che effettivamente lo stile dell'artista.
Vediamo un esempio un po' differente.
Qua abbiamo chiesto all'intelligenza artificiale con il modello di default di generare dei quadri tramite un pront che includeva anche Klimt.
Di conseguenza abbiamo dato un indizio per quanto riguarda lo stile che doveva avere il quadro legato all'artista il modello di default, quindi non dedicato all'artista il genero dei quadri totalmente differenti uno dall ltro non sembra non esserci un filo logico dietro il modello invece sulla destra, che è quello fatto con il nostro modello dedicato, riesce a riprendere un pochettino.
Quelli sono gli elementi della pittura di qui quindi il vestito, la colorazione, il paesaggio dietro la parte interessante è che il client non disegnava uomini e di conseguenza che cosa abbiamo? Possiamo fare con questo strumento? Possiamo andare ad immaginare come fosse una cosa che in realtà non è stata fatta però con lo stesso stile.
Ma come ci puo'? Aiutare davvero l'intelligenza artificiale è come la utilizziamo noi andiamo a vedere un caso pratico, un po' differente la ricostruzione.
Noi partiamo con un processo che inizia con un'analisi del quadro.
Dopodiché abbiamo una fase di analisi della documentazione legata al quadro e la parte di generazione del pronto.
Quindi con tutta l'analisi che facciamo all'inizio andiamo a scrivere un pronto testuale fatto con delle parole chiave.
Le parole chiave sono fondamentali quando voi andate a scrivere un pront che vi servirà per generare poi un'immagine.
Dopodiché applichiamo la tecnica dell' out spending.
Di conseguenza, tramite un quadrato di generazione andiamo a selezionare ebrea che la nostra intelligenza artificiale deve andare a ricostruire sempre sfruttando il modello dedicato.
Adesso vi faccio vedere una cosa divertente l'invito a inquadrare il qr il qr code m' sostanza contiene un malware in questo viaggio per voi potete accedere a quello che è il quadro di Ria Munk originale e interagire.
Ci potete zo Marlo potete farlo ruotare, ma noi questo lo diamo in giro, oppure quando ci sono gli eventi o lo mettiamo all'interno di dei totem direttamente il web.
Così si può interagire con l'opera.
Oltre a questo, oltre al fattore di interazione, ci si possono creare dei punti di interesse per rendere l'esperienza piu' interessante.
Vi faccio vedere un'altra cosa mentre voi tenete sul telefono quella qua a vi mostro quella che invece è l'opera che abbiamo ricostruito con l'intelligenza artificiale.
Facciamola ruotare.
Eccola potete notare come lo stile riprende perfettamente quello dell'artista e va a completare il quadro.
Di conseguenza il vestito bianco viene completato.
Il background dell'immagine viene completato riprendendo un po'.
Gli elementi superiori i fiori sono in mano a ri ah riprendono lo stile perfetto del pittore.
Di conseguenza, con la tecnica che vi illustriamo prima è possibile andare a ricostruire appunto questi quadri incompiuti con l'intelligenza artificiale e il modello dedicato soprattutto.
Vediamo però un altro esempio vi invito a dare un'occhiata anche a questo per con il vostro telefono.
Ma questo è per il ritratto di signora l'altra opera che avete visto prima.
Vi lascio ancora qualche secondo per interagire e giocare con il modello puoi mentre teneteli il qr vi faccio vedere invece quello che abbiamo fatto noi abbiamo in sostanza dato un background differente all'opera basandoci su quelle che sono le stagioni e dando un contesto sensato.
Di conseguenza abbiamo dato un background che è quello di Vienna nel millenovecento diciassette di quando è stato fatto effettivamente il quadro abbiamo ricreato Vienna nelle varie stagioni, quindi vedete l'estate l'autunno e la primavera bene, ora che abbiamo fatto e fatto vedere quello che facciamo noi vediamo cosa vogliamo far vedere questa sera e cosa vi vogliamo lasciare di pratico e utile per tutti i vostri giorni.
Quindi faremo una breve introduzione ai sistemi hi-tech sui Madge con i loro campi di applicazione.
Poi vedremo gli strumenti principali che sono da giorni è stabile di fusione e chiuderemo con gli sviluppi futuri un breve arrecata.
Partiamo con quello che è il problema delle immagini le immagini al giorno d'oggi Sono necessarie un sacco di attività lavorative per chi crea siti web, per chi fa marketing, per chi deve creare dei concept e per chi deve creare dei contenuti.
Anche per i social network.
La creazione di tutti questi contenuti richiede tanto lavoro e soprattutto la maggior parte delle persone o le crea direttamente da zero per richiede un grosso e forte, oppure si appoggia.
Dei raccoglitori online a cui possono accedere.
Però tutti non sono univoci.
Voi non avete un prodotto unico, avete un prodotto a cui possono accedere a tutti e dopo, quindi richiede tanto editing per avere un prodotto che è unico.
E se voi potreste generare, ma le immagini in modo molto più semplice e soprattutto se queste immagini fossero uniche perché quello che riuscite a generare voi con un pront non è lo stesso che riescono a generare anche gli altri.
I sistemi hi-tech sui Madge si basano proprio su una rete neurale a cui vengono dati in pasto letteralmente delle immagini con associati dai testi.
Di conseguenza la rete viene trainata a rispondere degli input testuali con delle immagini.
Tutte le tecniche di deep learning Come funzionano i diritti su queste immagini? Dobbiamo sempre stare molto attenti, come prendiamo delle immagini dei container e dobbiamo stare attenti se le immagini hanno un diritto di tipo commerciale o non.
Quindi se possono essere utilizzate per i nostri prodotti, anche vendibili e prodotti di lavoro di tutti i giorni, dobbiamo stare attenti alla parte delle licenze.
Gli strumenti che vi facciamo vedere oggi hanno tutti e tre la licenza commerciale, qualcuno gratuitamente, qualcuno a pagamento, perché comunque dobbiamo darvi degli strumenti che possono esservi utili allora per gli appassionati quello che vedete sulla sinistra Monet, che tramite il pc disegna uno dei suoi quadri più famosi, quello dell' inferno, una una collezione era stata.
Adesso però passiamo alla parte pratica.
Vi lascio con Alberto.
Eccomi, eccomi.
Quello che vedete è il miracolo che potete tranquillamente scannerizzare e vi rilancerà direttamente a quello che è il sito di Dalì, quindi è quello che partiremo.
Quindi io mi occupero' di diciamo, farvi vedere quelli che sono da lì, da lì due in particolare e MJ è quindi partiremo con me con degli due.
Adesso voi avrete scannerizzato il cuore a coda in nel frattempo vi lascio con un po' di tempo e nel mentre vi è vi racconto quello che che da lì da lì fondamentalmente si si basa sul modello di learning che è stato sviluppato da Open day ed è stato sviluppato appunto, come diceva Riccardo, per generare delle immagini digitali partendo dagli input sessuali.
Quindi i famosi, i famosi pronti.
È nato, quindi è uscito inizialmente a gennaio del Duemila ventuno, ma è diventato free e quindi utilizzabile da tutto soltanto poi nel settembre del del duemila ventidue a diciamo, a differenza di degli altri software, quindi in particolare di disturbo di fusion che vedremo dopo.
I codici codici sorgenti non sono open source e poi tra poco tratteremo anche il tema diciamo più economico legato al software, il modello di cui vi parlavo, quindi il modello di bit learning è stato trainato su è sei centocinquanta milioni di coppie, quindi immagine testo quindi è giusto per dare un'idea.
Poi non entriamo tanto nei dettagli perché non è neanche di possiamo approfondirlo, ma magari poi poi in seguito questo era giusto.
È giusto un dato per dare un'idea della dimensione o anche della complessità che ha richiesto per la per la creazione di questo questo software è fondamentalmente allora intanto immagino che siamo riusciti a siete riusciti tutti a collegarvi scusate un attimo che ci sarà un attimo di matrix ma arrivando sul sul link quindi avendo fatto la canalizzazione vi troverete davanti a questa che è fondamentalmente l'interfaccia di dargli da dargli due che a differenza degli altri due software che vedremo come avete visto è possibile raggiungere tranquillamente tramite tramite pagina web è da lì dalle due prima vi anticipava una cosa che volevo dire era relativamente ai al costo, quindi al costo di utilizzo di quello di akley è questa quindi questa è l'interfaccia molto semplice.
Tra poco andremo poi a fare la parte di rigenerazione, però invece relativamente ai costi, quindi a quello che costa poi l'utilizzo, cioè una parte iniziale, quindi un friedrich a cui vengono assegnati una volta che vi registrate l'avrete visto, quindi potete registrarvi o creando una facendo un luogo in un museo dedicato, oppure potete usare tranquillamente il vostro account di Google.
Entrando vi verranno assegnati cinquanta crediti gratuiti che hanno una durata di trenta giorni e poi verrà fatto fondamentalmente un re film ogni ogni quindici di quindici crediti ogni mese.
Ovviamente, come potete vedere, cioè la possibilità di comprare dei crediti al costo di quindici dollari per cento quindici crediti.
Quindi questa è legata più alla parte dell'utilizzo dell'interfaccia è cioè ovviamente la possibilità che potrebbe essere comunque molto utile per chi ha un suo sito web e vorrebbe integrare utilizzare questo strumento legato alla parte invece di quindi di collegamenti di chiamate a quello che è quello che è il modello.
Ora qui vi do solo qualche dato per fare una facendo una chiamata per ottenere una un'immagine con una risoluzione di mille ventiquattro per mille ventiquattro.
Il costo è di zero virgola zero due dollari.
Eh, ha chiamato, quindi è un costo non altissimo, ma comunque per diciamo che se l'utilizzo viene utilizzato in modo in modo effettivamente utile per quello che è il proprio lavoro è un costo che è assolutamente sostenibile eh? Allora vi parlavo dell'interfaccia.
Quindi l'interfaccia è molto è molto semplice, quindi abbiamo visto prima Questa è la parte diciamo, del vostro, del vostro utente dove potete vedere i vostri crediti.
Come abbiamo visto qui avete questo questo bottone, questo pulsante in cui potete vedere da parte dello storico.
Quindi se avete già generato delle immagini, quindi troverete, avrete tutto lo storico è invece nella parte nella parte centrale troviamo quello che è la parte per fare la generazione è vi dico vi do soltanto inizialmente.
Poi sarà una cosa che ripetero' piu' volte da lì, a differenza degli altri degli altri due software modello degli altri due modelli, eh? Accetta dei pront senza avere la possibilità di inserire dei parametri.
Quindi non si puo' andare direttamente ad agire su quelli che sono i parametri del modello di intelligenza artificiale.
Ma il pront modifica quello che è il risultato finale semplicemente utilizzando le parole.
Quindi utilizzando il testo non è possibile, è ottenerlo in altra maniera.
Ma poi lo capiremo più avanti con Sam.
Che cosa mi sto? Mi sto riferendo un'altra cosa importante il testo dovrà essere solo ed esclusivamente in inglese.
Eh eh, ecco l'altra possibilità quindi avrete la possibilità ho di andare a digitare qui quello che voi volete, volete generale, tra poco lo faremo.
Avete la possibilità di fare la cloud di un'immagine dal vostro disco locale, quindi potrete caricare senza nessun problema.
Qui fate attenzione perché è l'unica limitazione è il fatto che non potete scaricare delle immagini in cui all'interno c' è una faccia che sia la vostra, che sia di qualcun altro.
Sappiate che è assolutamente vietato, non ve lo non me lo consentirà, è per il resto non ci sono altri particolari regole, se non quelle, ovviamente, di non utilizzare parole censurabili.
Quindi non se provate a fare un po' di questo tipo vi verranno, non vi verrà concesso di effettuare la generazione.
E quindi ma sono regole, regole abbastanza, abbastanza semplici.
Io ora passerei direttamente alla parte pratica per entrare un po' nel vivo.
É quello che volevo fare siccome immagino che un po' su linkedin o comunque di recente se n'è sentito parlare ovunque, anche al telegiornale.
E lo sappiamo che quando arriva il telegiornale perché è veramente una cosa di dominio pubblico di gp ti volevo fare un esercizio, cioè provare a chiedere a di fornirmi un pront Abby per da inserire poi in da lì.
Quindi, invece che usare il mio di cervello, proviamo a chiedere al Gip di fornirci quello che è in fronte e lo utilizziamo.
Quindi proviamo a fare un esempio.
Diciamo che mi ha diciamo trenta, trenta, trenta parole, quindi accento works pront that che chiamo in due si'.
Possiamo dire che ci mostra Lucious Abilities? Sì, facciamo una cosa.
Okay, ora vediamo perché.
Cioè, Gpt, come sapete, ha sempre sempre proviamo a riavviarlo, perché purtroppo i server non sono sempre così clementi.
Vediamo se dobbiamo rigenerare quella che è le immagini, come vedete, ci dice che sta un po' di c'è.
Un po' di traffico.
Okay.
Nel frattempo ce l'aveva.
Ok, ce l'aveva generata, quindi va bene.
Era un po' di traffico, ma siamo riusciti quindi gli abbiamo chiesto a quindi della stessa famiglia perché sempre ai come se open e ai quello che ha creato ci ha generato un pront così proprio alla buona facciamo un po' più incolla Mi sono perso una C, forse anche una R.
Ma adesso senza problemi, andiamo ad aggiungere.
Quindi andiamo così.
Quindi ora noi potremmo già partire con la generazione.
Però nel prima di partire con quella generazione.
Io vorrei anche un attimo entrare, anzi, facciamo così facciamo la nostra generazione, quindi andiamo a generare una nostra.
La nostra prima immagine intanto, come vedete è a lato.
Tra poco compariranno quelle che sono altre generazioni che ha provato a fare nel tempo è mentre invece lui fa vedere alcuni esempi.
Quindi alcune immagini è ad esempio ha alcune immagini che sono state generate da pronte un po', un po' simpatici richiede un attimo di tempo.
Questo sarà un po', una cosa comune sia per fondamentalmente per quasi tutti i software che vedremo.
Però sembra avere sembra avere quasi quasi concluso.
Quindi poi una volta che abbiamo la generazione possiamo possiamo vederlo, è giusto per me, mentre che genera ricominci un attimo a dare un'indicazione di quella che sarà le possibilità che abbiamo all'interno di da lì perché da lì ci consente sì, intanto che è finito come posso voglio vedere.
Intanto vi spiego questo, poi passo invece alle e alle altre funzionalità.
Quindi una volta che ha finito di generare luci genera quattro immagini, quindi quattro quattro immagini partendo da quel pronte.
A questo punto noi abbiamo la possibilità di selezionare una a nostro piacimento e a questo punto, come vi dicevo, le funzionalità sono noi.
Possiamo andare ad editare l'immagine cosa significa evitare d'italia significa che noi possiamo partendo da quella dall'immagine che lui ci ha generato andare presente.
Poi diciamo no, non ci piace questo grattacielo, lo vogliamo eliminare, anzi non ci piace questi qua noi li eliminiamo.
A questo punto lui crea uno spazio in cui è possibile a questo punto se noi adesso andassimo nella parte in alto ad inserire un'ulteriore pronte a dargli generale quindi di farci generare un'ulteriore un'ulteriore immagine lui quello che andrebbe a fare sarebbe quello di fare una sorta di autentico della parte che è stata rimossa.
Quindi questa è una prima parte.
Come vedete vi sottolinea che in beta, perché è una funzionalità abbastanza recente, ma che è veramente veramente interessante é quindi questa è una delle sicuramente una delle delle funzionalità ora quindi diamo l'ok quindi per tornare indietro un'ulteriore possibilità beh, le funzionalità più classiche sono ovviamente quella di poter salvare quello che è.
Quindi a noi va bene questa immagine ce la salviamo, ce la portiamo i locali, ci facciamo quello che quello che vogliamo in funzione di quelle che sono poi le diciamo i diritti, come diceva riccardo prima legati all'immagine abbiamo la possibilità ovviamente di fare uno share, quindi di fare una condivisione possiamo condividerla sui social, insomma dove vogliamo un'altra possibilità.
Quindi l'ultima possibilità è sicuramente quella di di fare delle variazioni.
Quindi noi diciamo ci ha dato un risultato, ma noi vogliamo generare delle variazioni.
Non ci piace ci è piaciuto sì, ma non tantissimo.
Vogliamo avere un risultato diverso è quindi gli diamo la possibilità di fare le variazioni entrando un po' piu' nella parte diciamo tecnica, ma neanche tanto ora vedrete, soprattutto lo vedrete dopo lo vedremo con me e dopo ancora con Federico è nella parte diciamo un po' piu' pratica di più tecnica perché ok, noi adesso abbiamo lanciato un po' generico ce l'ha dato gpt, però voi giustamente potrete dire si', ma io ho bisogno magari di dare delle indicazioni specifiche, perché io voglio dei risultati specifici della mia immagine per fare questo, come vi dicevo in da lì non c' è la possibilità di dare dei parametri.
È quindi ehm dare direttamente quella che è.
Intanto qui vediamo le quattro ulteriori risultati.
Però quello che possiamo fare all'interno di Dalì è di andare a dare quindi dare delle una parte di testo che ci consenta di dare indicazione di quello che si sa.
Adesso facciamo un esempio noi ripartiamo completamente da zero, quindi andiamo a riprendere la frase iniziale adesso con degli esempi.
Partendo da questa frase iniziale io vi faccio comprendere quello che sto dicendo perché a parole è sempre complesso.
Quindi noi mettiamoci nella stessa condizione di prima, no? Quindi noi vogliamo creare un'immagine futuristica con le nostre macchine volanti, i nostri grattacieli, i nostri robot che esiste coesistono con gli umani.
Va bene, questo lo abbiamo generato.
Però noi è possiamo per esempio cominciare a porsi delle domande ok, ma nella notte un'immagine che tipo di Wickes vogliamo? Che tipo di emozioni vogliamo? Vogliamo trasmettere? Non vogliamo, abbiamo un mood positivo, abbiamo un mood dove c'è tanta energia all'interno delle immagini oppure al contrario, cioè un negativo non c', è energia e così via.
Quindi questa potrebbe essere la prima domanda che ci poniamo.
Noi diciamo no, non vogliamo un'immagine allegra e quindi potremmo aggiungere l'aggettivo, quindi che sia attivo o no, una cosa è molto, molto, molto attiva, molto vibrante.
Poi una seconda parte sempre, sempre in una seconda domanda possiamo porci? È più legata al tipo di al lato fotografico? No.
Quindi supponiamo che noi dobbiamo decidere di fare una fotografia o quella che vogliamo dei risultati e vogliamo avere è una fotografia.
Possiamo farci delle domande, per esempio? Ma quali sono i quanto sono vicini i soggetti alla mia immagine? Che luce Voglio? Una luce naturale, una luce artificiale.
Voglio elevata qualità.
In quale anno? Oppure possiamo dire in quale anno è stata è stata effettuata questa foto? Ovviamente questa è in questo caso è semplice.
Sarà sicuramente il futuro.
Anche se robot e umani che coesistono non ci siamo tanto tanto lontani e così via.
Oppure possiamo andare.
Non so, il setting della telecamera è oppure possiamo andare a dire fammelo nello stile di un determinato artista.
Per esempio, noi mettiamo siccome abbiamo un'immagine di una di una città, possiamo dire non so Wide Shut.
Quindi è un'immagine.
È un'immagine molto larga.
Oppure possiamo anche dirgli è un'immagine che è stata effettuata da un burrone.
Quindi eccoci qua.
Quindi mettiamo non fotografi.
La vogliamo in una delle due mila Settecento K.
I famosi duemila settecento K Non so, adesso è magari mettete anche voi in chat.
Io attualmente non vi vedo, ma vi invito comunque a proporre alcune delle alcune soluzioni non so possiamo inserire action foto un'immagine che si arrabbia azione come abbiamo detto vibrante no? Quindi siamo andati ad inserire dei parametri come me e come vedete i parametri non abbiamo messo un valore che va a modificare il mio modello, ma siamo andati a mettere delle parole che ci possano indirizzare quello che è il in finale.
Quindi è questo è un concetto molto importante da far passare con con con degli perché è una grossa differenza rispetto rispetto agli altri software che andremo ad utilizzare.
Ovviamente ci sono mi l'abilità e l'esperienza vi porterà e su questo ovviamente noi siamo siamo a disposizione per anche stasera, poi nella nella fase finale, dove potrete fare delle domande, a trovare quelle che sono le parole corrette per poter ottenere il risultato.
Che che che volete.
Quindi io adesso abbiamo inserito questi questi queste parole perché vogliamo ottenere un risultato di questo tipo.
Vediamo qual è il risultato.
Diciamo poi questo è un concetto generale.
Ovviamente da lì cerca di più voi date un prompt che è vicino a quello che volete, più lui farà in modo di cercare di seguire quello che è quello che avete dato, ma ovviamente come diceva essere trainato su un rapporto tra immagine e testo è quindi non è sempre ovvio però come come non è sempre ovvio qual è il risultato, ma ovviamente più tentativi si possono fare, più variazioni si possono fare, più abitazioni potete fare, è più ovviamente il risultato alla fine potrà essere quello che più che vi aspettate.
Ok, è una cosa da sottolineare, ovviamente.
Ed è una grossa differenza.
Poi federico ce la ce la farà vedere ancora meglio rispetto a stable di fusion è ovviamente il fatto che voi non potete trainare Riccardo prima anticipato non potrete trainare un modello dedicato per dire voi magari avete bisogno di generare eh un'immagine questi sono i risultati.
È come vedete diciamo alcune di quelle che sono le richieste che sono state fatte quindi di avere un'immagine magari a duemila settecento k se ricordate le immagini di prima erano molto meno diciamo dettagliate e con con con così tanto fuoco se così tanta la qualità è un'immagine che abbia azione.
Come vedete possiamo vedere delle macchine volanti è molto futuristiche che sono movimento sono in azione.
Quindi quello che gli abbiamo chiesto, Shawn foto è, come dicevo poi, è anche la possibilità di avere un drone photography.
Quindi effettivamente un po' l'idea, magari non tutte.
Come vedete questa un po' meno forse non è troppo effettuato da un drone.
Però è bene o male, diciamo il risultato.
Come vedete, cambia cambia come non cambia mettendo dei parametri, diciamo letterali, specifici sul modello, ma andando ad esaurire delle parole che possono andare ad indirizzare il risultato.
Questo so che o sono stato gli americani dovrebbero stress out molto.
Quindi ho fatto stato molto su questo punto, ma è un punto importante da portare a casa.
Per quanto riguarda per quanto riguarda da lì, adesso invece è quindi per darli io avrei compiuto concluso qui.
Quindi è vi invito invece a questo punto ha sempre scannerizzare il corpo d' passerei a dirigerne.
Quindi avete tutto il tempo che prendete tutto il tempo che vi serve.
Intanto io come prima, magari vi racconto un attimo nel mentre è un po'.
Che cosa mi giorni voi potrete scannerizzare da direttamente Adesso il quark.
Arriverete su quello che è il nostro.
Il nostro sito, quindi sia di Vector è direttamente nella pagina Documentation andate, andate nella parte dove sono presenti tutorial, vi verrà chiesta una password, inserite quella password che vedete qui a schermo ed accederete all'interno della della pagina dedicata dove all'interno ci sono i tutorial, cioè il tutorial che vi consentirà di vedere quello che il tutto' la diciamo tutti i passaggi necessari per accedere a quello che è a quello che magari possiamo anche posso anche farvelo vedere.
Quindi voi vi troverete.
Allora intanto facciamo che chiudiamo sia lgbt sia da lì che comunque consumano un po' di risorse.
Quindi voi questo è quello che arriverete sul nostro.
Questo è il nostro sito.
Voi invece arriverete sulla pagina dedicata alla documentation.
Qui inserite la vostra la password che abbiamo visto prima, quindi se volete ve lo faccio vedere un attimino tranquillamente la inserite qui fate in via entrate a qui all'interno e troverete quello che è il tutorial per per fare per fare l'installazione io ve lo lascio qui.
Intanto vi racconto un attimo in breve che diciamo generale, che cosa nei giorni dei giorni eh, diciamo si descrive come esso stesso quindi per definizione si descrive come un laboratorio di ricerca indipendente che appunto ha generato e ha creato questo.
Questo modello è tramite il quale noi possiamo andare a generare delle delle delle immagini è in beta dal luglio del duemila ventidue ma la versione che attualmente in running tra poco la vedremo ci arriviamo subito è la versione è numero numero quattro è intanto io voi immagino che siete già riusciti ad accedere.
Nel frattempo io provo ad arrivare a quello che è il mio dischord, quindi questa è una cosa importante.
Prima abbiamo visto che da lì io vi ho fa ho fatto scannerizzare il cuor code voi siete arrivati su una pagina web è completamente diverso.
Ma perché mi werner è accessibile solo tramite disco è facilissimo registrarsi a dischord ci vuole veramente un minuto? Non c' è nessun tipo di problema.
Voi arriverete appunto su dischord.
Potrete lo vedete tranquillamente nel tutorial vi chiederà di la possibilità di essere invitati all'interno del disco di Dischord dirigerne.
E una volta che siete all'interno di Dischord e avete come vedete qua il canale di giorni, potrete poi cominciare a generare.
È quindi adesso intanto che è carica, vediamo che oggi dischord un po' non è rapidissimo e questo è un altro dei dettagli.
Come vedete la pagina non è velocissima.
Adesso ce l'ha fatta.
Sembrerebbe avercela fatta.
Nel frattempo però che carica! Visto che è un po' ai suoi tempi io vi racconto un attimo quindi vi stavo dicendo che i miei giorni, a differenza di Daley dove noi abbiamo siamo sicuri di qual è quì? Che tipo di modello? Quindi gli ho detto anche qualche dato mille giorni.
Invece non è chiaro il modello, diciamo come come sia stato realizzato.
Alcuni speculano che si giri utilizzi lo stesso modello che viene utilizzato da seguo di fiori che crediamo che vedremo tra poco, ma a noi poi in realtà sa per l'utilizzo che ne facciamo interessa interessa relativamente ehmm per quanto riguarda è sempre maggiore, quindi è quella che si è caricato.
Vorrei farvi una panoramica di quello che vi ritroverete davanti.
Quindi una volta che avete fatto l'accesso al canale è vi trovate sulla sinistra tutte queste, diciamo queste questi banner all'interno tutte le varie, tutti i vari un elenco con all'interno per le varie chat o i vari riferimenti a cui voi ovviamente ci sono gli annunci, eventuali nuovi cambiamenti, quindi all'interno della piattaforma e così via è quello che voi dovete fare invece per poter iniziare a generare delle delle immagini è quello di portarvi all'interno di una delle varie newcomer rooms vedete qua, sulla sulla sinistra, eh? Ora, portandovi su questa chat, come vedete arriverete all'interno di una chat che è molto dinamica perché tra poco lo vedremo.
Questa è la chat che noi utilizzeremo, in cui daremo il pronte in cui potremmo partire a fare la la generazione.
Vi stavo dicendo però prima di e poi partire, magari facendo il pronti andare direttamente è quello per quanto riguarda i costi dirigerne perché nei giorni, a differenza di em di dalì, ovviamente ha dei costi differenti.
Em, come come vi dicevo, come per d'alì avete un periodo di prova gratuita che in questo caso è non è strutturato in crediti, ma è strutturato in minuti di utilizzo delle gpu.
Avete venticinque minuti di gpu, è intanto vi faccio vedere è come è possibile scoprire quello che vi sto dicendo anticipando vi un po', un po' quello che è quello che vedremo, quindi è quello che stiamo facendo.
Quindi il black splash subscribe è dare un comando all'interno della chat.
Io adesso vedrete il comando, quindi do l'invio il pot.
Tra poco mi mi darà una risposta è come vedete mi ha mi risponde.
Questo era il problema, un po' della dinamica.
Ma poi ti farò vedere un trucchetto per risolverlo.
Mi risponde con un link noi possiamo tranquillamente ad accedere al link, lui qui ci manda questi sono è giusto per un'informazione poi poi vostra sono i costi di milioni che si distinguono in funzione del fatto che sia un abbonamento annuale un abbonamento mensile, ma comunque è giusto per darvi un riferimento, no? Quindi avete la vostra prova gratuita.
Esaurita quella dovrete obbligatoriamente passare ad un piano un piano diciamo a pagamento, in funzione di quelle che sono le vostre, le vostre esigenze.
Una cosa importante il fatto che è non non c' è la possibilità di fare delle.
Per quanto riguarda ginger, ovviamente essendo su Dischord un po' più complessa, però ce la possibilità con i piani pro che stavamo vedendo prima di andare ad integrare il bot di mille giorni all'interno di un vostro server, quindi è più una cosa personalizzata è quindi ci sono delle possibilità per rendere un po' piu' personalizzato.
Però non c' è la possibilità di fare il al momento pero', passiamo un po' più alla parte alla parte pratica.
Quindi prima avete visto Io per avere una risposta dal bot che cosa ho fatto? O all'interno della banner dedicato alla scrittura all'interno della chat o semplicemente inserite un back splash? E come vedete, mi compaiono mettendo semplicemente un backslash.
Quelli che sono i comandi, i comandi possibili è il comando voi.
Andando poi a dare l'invio, come vedete, ricevete una risposta da quello che è quello che il botto.
Il primo comando che vedete è quello di Em Managing.
Col pronte adesso lo vedremo tra pochissimo E quello che dovrete utilizzare per far fronte è il comando di settings che vi servirà per settare quelli che sono i parametri di default.
Prima ho parlato tanto di parametri da poco Capirete perché ho fatto questa distinzione tra prima e adesso Info.
Magari diamolo questo comando perché vi faccio vedere che cosa ci restituisce Info Vi stavo parlando prima della del vostro utente? No.
Come vedete, io questa sera, proprio per essere proprio nella vostra stessa condizione, non ho utilizzato il il l'utente a pagamento che che possediamo ha utilizzato un trial.
Quindi un litri è per per per essere proprio per proprio allineata.
Quindi come vedete sono in una fase di trial Job Mode Fest.
Tra poco vi spiegherò che cosa significa visibilità mod public anche questo tra poco vi spiegherò Ecco qua Fast time remaining diciannove punto quarantadue minuti.
Come vi dicevo prima, la prova gratuita vi dà accesso a venticinque minuti di generazione con la GPU Ehi, io qui ho fatto alcune prove per vedere che era tutto tutto funzionante.
Come vedete ho consumato poco più di cinque minuti e voi mi vivi che vi starete chiedendo ma cinque minuti cos'è minuti di più come come lo misuro? Tenete presente che per fare la generazione di un'immagine tendenzialmente midge carne stima un minuto in modalità fast, quindi potete fare un'approssimazione dire che venticinque minuti di GPU sono venticinque minuti sono venticinque generazione in generazione x che tra poco vedremo la differenza.
Ma questo per per darvi un'idea è quindi questo era era era quello di Digitando il comando info avrete delle informazioni all'interno della chat del vostro, in particolare del vostro, del vostro utente.
Ma torniamo ai comandi.
Quindi avevamo visto che anche prima che erano presenti i tuoi comandi.
Quindi subscriber è l'abbiamo visto e quello per fare la eventualmente gli abbonamenti pro è show che è molto utile in quanto è come avete visto la chat molto dinamica.
Quindi nel momento in cui voi andate a generare.
Essendo che le persone continuano a scrivere, ovviamente la chat si muove, potrebbe essere che per una persona perda il proprio il proprio la propria generazione è il comando show è possibile siccome ogni immagine associata un'idea di quell'immagine è possibile andare a ripescarlo all'interno della chat, ma è una funzione molto utile, ma diciamo già un po' più pop più avanzata è ora invece diamo il comando settings perché questo è molto è molto interessante.
Come vi dicevo, eh, mi giorni si basa su la possibilità di dare dei parametri.
Questo è il modo più semplice per dare dei parametri.
Come avete visto, io adesso ho inserito il front.
Il pot mi ha dato una risposta, quindi a just your settings.
Quindi noi abbiamo qui noi possiamo andando a selezionare una piuttosto che l'altro dei pulsanti presenti, andare a dare quelli che sono i parametri di default del mio del mio modello è quindi nella prima riga possiamo vedere.
Come vi dicevo, da fine del ventidue è stata e che poi il modello che di default attualmente viene utilizzata la versione quattro.
Dirigerne quindi il modello con la versione numero quattro.
Ci sono tre versioni precedenti a quella voi potete decidere di utilizzare quella di non utilizzare l'ultima moda, invece sempre è una modalità da non proprio legata al modello, ma vista la possibile di generare delle immagini che sono piu' in ambito anime.
Quindi se avete bisogno di necessità di fare quel tipo di immagine potrete selezionarlo.
È una molto importante.
Questi sono in fase di test anche per per primi giorni.
Non entriamo nei dettagli.
Invece molto interessante la questione di Ellie Quality Bays Quality High-quality Perché fondamentalmente questo parametro? Che cosa sette Nel momento in cui è andato a fare un pront lui è andrà a dedicare più o meno tempo per la generazione.
Ovviamente, come potete capire facilmente capire il tempo che ho dedicato è direttamente proporzionale e poi a quello che è il risultato.
Ovviamente però mettendo in un'altra qualità, ve lo dice già da subito vi costa il doppio dei crediti.
Quindi se prima vi ho parlato di un Jobs, quindi di il Jobs è il termine che viene utilizzato per fare una generazione un jobs un minuto.
Se mettete l'altra qualità avrete probabilmente la richiesta di due minuti.
Quindi un due per te è mme.
Quindi queste sono altri set di default potete andare a dare direttamente dal comando settings nella terza.
Nella terza riga vedete la tipologia, un altro settaggio di un parametro che il parametro di style parametro di style ci ci consente di andare a dare più peso o meno.
Quindi all'interno di un'immagine si dare più peso alla vena diciamo stilistica di quell'immagine o dare più peso.
Tutto quello che è il pronto quindi va a fare una taratura, un tuning su più stile più stilistico o più legato al pronto che gli stiamo dando quindi già cominciato a capire come come il ragionamento no.
Quindi il parametro modifica il modello di conseguenza.
Modifica il risultato è quarta.
Quarta riga è relativa agli scali.
La Skye le diciamo quel processo, poi tra poco lo vedremo.
Una volta che noi abbiamo generato delle immagini.
Ci consente di andare a fare appunto una scheda di questa immagine.
Quindi rendere di dare una risoluzione maggiore no.
E qui potete selezionare tra i diversi tipi.
Adesso entriamo troppo nei dettagli delle differenze.
Eventualmente poi il approfondiamo poi nella parte delle domande pero' in funzione della tipologia che scegliete.
Avrete un risultato, avrete una scala che che dipende da dal set che avete che avete inserito qui eh? Come vi dicevo prima lo vedete già dall'utente Public Cloud Street Food Street Food è una modalità che vi consente di generare senza che gli altri è vedano quello che voi avete avete generato.
È comunque possibile utilizzarlo solo con un pacchetto.
Quindi se siete abbonati con con un pacchetto generalmente utilizzate Public come vedete noi Public significa che come vedete L'utente Maxim prima ha fatto ha richiesto questo pront e noi lo vediamo, quindi lo vedono tutti quello che voi state state richiedendo il mix mode un'altra funzionalità Adesso non entriamo nei dettagli fast food e relax modo invece è abbastanza interessante è un attimo entrarci, entrarci perché è anche questa è una configurazione che vi consente se vuoi andare a selezionare relax mod.
La possibilità di non fare una richiesta immediata al al bot di generare subito l'immagine e questo vi consente di non sprecare crediti.
È quindi fondamentalmente voi inserito il pronte e lui si mette in coda a tutti gli altri.
Quindi la generazione se prima vi ho parlato di un minuto per generazione di un jobs qui siamo piu' tra l'uno e dieci minuti di giorni dichiara quindi probabilmente ci metterà di piu' a farmi la generazione però è almeno per un tot di pront che chiedete non vi verrà richiesta, non vi verranno scalati i famosi crediti che qui sono i minuti per intenderci.
Quindi abbiamo visto è un po' quelli che erano i comandi e poi quindi i parametri che poi andare a settare di default.
Ora ci portiamo nella parte bassa della chat, andiamo andando a recuperare l'ultimo l'ultimo messaggio.
Entriamo invece in quello che è il discorso relativo ai quindi per come vi avevo anticipato prima il comando che dovete inserire all'interno della chat per poter partire con un'impronta eh eh, immagino.
Quindi immagino come vedete tranquillamente lui vi dà il il diciamo un suggerimento di quello che è il pulsante ora va fatto un attimo un approfondimento perché è voi potete a questo punto fare quello che abbiamo fatto prima su da li' no? Quindi a parte le esercizio simpatico che abbiamo fatto di prenderlo direttamente da Gpt e voi avete la vostra azienda avete bisogno di fare, di generare una determinata immagine, andate a inserire il pronto eh però, come dicevo mi ger ne ha la possibilità e struttura il suo pronti in questa maniera.
Il pronte può essere composto da l'inserimento di un'immagine, quindi un'immagine che sia anche quella fondata finalmente un parametro perché il modello poi seguirà quello che è più o meno come realizzata quell'immagine è viene utilizzato come riferimento per la generazione che andiamo a chiedere quindi un'immagine un pronto quindi effettivamente un testo quindi voi immaginatevi che qui voi adesso potrete adesso troppo ve lo facciamo vedere però quindi concludono una spiegazione un piuttosto potete inserire poi un testo e infine in coda tutto dei parametri è proprio da inserire all'interno del proprio come vi dicevo voi potete inserire un'immagine è da utilizzare è quindi voi direte una cosa importante che devo sottolineare l'immagine per poterla caricare all'interno di di giorni deve essere un'immagine presa da downlink, quindi deve essere sul web è quindi voi magari qua già vi state preoccupando di te ma io voglio farlo sull'immagine del mio locale assolutamente non ci sono problemi perché anche in questo caso c'è un piccolo trick veramente veramente male perché se voi avete un'immagine nel vostro sul questo che vedete diciamo il mio disco locale prendiamo questa questo quadro di molto famoso di dalì, se noi lo carichiamo quindi faccia, abbiamo fatto una plot direttamente dalla dalla chat, lo carichiamo e lo inseriamo nella chat.
A questo punto noi siamo andati ad inserire, adesso non dobbiamo perderlo.
Questa è la cosa più sempre più un po' più complessa coi piani gratuiti vedete che io qui non è un bot non mi risponde, ma io ho caricato semplicemente l'immagine.
Ora io avendo caricato un'immagine su una chat che sta su dischord se noi adesso volessimo utilizzare l'immagine come riferimento ci basterebbe ridare il comando di problemi e a questo punto semplicemente andando sull'immagine trascinandola all'interno.
Come vedete tra poco come avete visto a questo punto ho associato un link perché avendo caricato l'immagine sul disco vi è stato associato un link, è stato fondamentalmente è sul web e quindi posso utilizzarlo.
Quindi non vi preoccupate se dovete utilizzare delle immagini che avete sul vostro locale invece che non sono presenti su sul web non fatevi problemi.
Questo qui è un piccolo trick che potete utilizzare.
Quindi, come vi dicevo, la prima parte potete inserire un'immagine, quindi lui adesso utilizzerà quelle immagini che io ho caricato come riferimento.
La seconda parte voi potete andare ad utilizzare andare ad inserire il vostro pronto, quindi utilizzate inserite il vostro pronte che avete che volete, quindi possiamo inserire possiamo potremmo anche riutilizzare lo so.
Prendiamo l'immagine che abbiamo e li mettiamo white background andando veramente a caso, sto parliamo di volere un background molto nervoso, in linea con quello che il tempo di questo periodo.
Quindi his mettiamo snow mettiamo authors come riferimento mettiamo long shot per dare un riferimento come vi dicevo, chi sta seguendo un po'? Anche quello che dicevamo prima no, per darli utilizziamo una parte testuale perché questo non mi interessa tanto è importante, nel senso che anche qui fate molta attenzione a quello che è il prodotto che mettete, perché poi sarà il riferimento che lui seguirà.
Ma poi è una parte veramente importante per quanto riguarda mi giro a me e adesso finalmente ci arriviamo è quella dei parametri voi all'interno del proprio.
La terza parte che struttura un pront sono è la possibilità di inserire dei parametri come fate per inserire dei parametri vi basterà la parte Quindi una volta che avete finito il vostro promo per andare a fare il trattino, trattino e poi qui ci sono diversi comandi, è che potete tranquillamente tranquillamente utilizzare.
Per esempio, partiamo dal primo comando voi potete decidere di utilizzare il comando I doppia fu che sta per Kim White questo e poi a seguito di questo dovete mettere un parametro che sta tra meno diecimila e più diecimila.
Quindi mettiamo un valore e voi direte Ma cosa significa questa questo parametro? Questo parametro lo possiamo già bene interpretare da immagini white.
Quindi lui cosa va a fare? Aspettare il modello cercando di dare più o meno peso a quello che ci sta prima.
Quindi ho all'immagine o al pront che voi avete messo.
Quindi se voi mettete un valore positivo dopo il parametro ma Dwight, che cosa avrete? Avrete che il modello andrà ad inseguire più l'immagine che il prompt che avete messo Al contrario.
Se voi andate a mettere un valore di meno cento, lui darà più peso al prompt che avete messo.
Quindi il nostro caso White background Winter, Alaska, Snow authors e così via piuttosto che all'immagine.
Ora questo non lo lanciamo semplicemente perché Matt White nella versione questo potrebbe essere un motivo.
Nella versione quattro, quindi giorni è stata rimossa, è stato tolto come come come parametro.
Però, essendo molto importante, molti lo utilizzano, si portano nella versione tre e lo utilizza perché è veramente molto molto interessante se si vuole andare a generare un altro parametro interessante che potreste utilizzare è il parametro aspetterai perché che potete abbreviare anche come AR è molto semplice.
In questo caso voi cos'è che andate a dare andate a dare quello che è il rapporto tra la larghezza e altezza dell'immagine no ecco l'importante è che è data dei valori che siano che siano accettabili è ovviamente di default il valore di base una a una, quindi altre otterrete dei quadrati.
Però poi voi potete dire no voglio in quattro terzi per dire quindi avrete un'immagine con delle dimensioni che sono solo in questo modo.
Questo lo lasciamo perché non dovrebbero esserci problemi a memoria è quindi virgola potete mettere ulteriori parametri.
Mettiamo un ulteriore parametro molto interessante il parametro no o no che è dopo Federico ve lo farà vedere meglio, perché questo è molto importante Instanbul di fusion, ma anche qui lo troviamo che il parametro è del negative pronto, fondamentalmente cos'è il negativo.
Proprio noi abbiamo messo proprio no, quindi abbiamo messo quello che noi vogliamo generare.
Eh è anche importante però se anche molto logico, il fatto che noi magari non vogliamo invece generare generare qualcosa all'interno della della nostra immagine.
Quindi delle del del un testo che dica il modello che noi quella cosa all'interno non la vogliamo per dire.
Per esempio nel nostro caso possiamo dire no, non vogliamo, non vogliamo il sole perché abbiamo detto che ce la neve che c' è che il ghiaccio non vogliamo il sole, quindi lui e farà in modo di cercare di evitare di inserire il sole all'interno della nostra, della nostra immagine.
Poi insomma, ci sono altri altri parametri.
Però adesso io giusto per per poi andare piu' nella parte del pratico.
Quindi diamo all'invio e proviamo a vedere cosa succede.
È proprio un test, quindi abbiamo dato l'invio.
Vediamo se dici nonni, ok, abbiamo per esempio un problema nella dimensione, quindi è dovrebbe Ok, va bene, nessun problema.
Lo modifichiamo come vedete.
Poi piu' ci piu', ci giocate piu'.
Vengono fuori le particolarità? No, perché ovviamente i parametri devono essere settati.
È sempre nel modo, nel modo, nel modo corretto.
Quindi è quindi diamo il generico cosa che ha modificato la parte sbagliata.
Ma recuperiamo subito.
Quindi diamogli il generico generico uno a uno, che poi è quello.
Però questo per dire che era mentalmente il parametro voi potesse farlo.
Ovviamente ci sono delle degli standard da mantenere.
Noi ridiamo gli il default di uno a uno.
Vediamo cosa cosa genera adesso? Non dovrebbero esserci problemi a memoria.
È sul B.
Ok.
Sul B, per esempio, il sedici noni uno a uno.
Vabbè, proviamo a cioè, una cosa, visto che così almeno proviamo a generare qualcosa e poi da quello, magari proviamo a dargliela.
Quello che questo problema non mi torna è ok.
Okay.
Quindi no, Sanna, vediamo se non dà problemi.
Ok, ora ci siamo.
Come vedete, abbiamo dato il nostro primo.
Quindi alla fine lui terrà come come riferimento il valore uno a uno perché tiene quello di default.
Sinceramente, questo problema mi è strano che è venuto, ma come vedete, i problemi poi è servono anche per capire.
Poi alcuni, alcuni dettagli.
Poi approfondiremo.
Magari è più più tardi.
Vi darò un riscontro di quello che era il problema che dava ehmm.
Comunque, come vedete voi l'avete è una volta lanciato, è lui.
È proprio per come sono strutturati questo tipo di modelli, quindi che partendo da un noyce vanno piano piano a generare quella che è l'immagine finale è lì da vidal.
Risultato come avete visto, adesso è scomparso e questo è un problema che purtroppo se avete è una versione trial, è un problema che è un po', una piccola pecca di quello che è di quello che ami giorni però potete tranquillamente utilizzare o lo ritrovate andando a fare lo scroll all'interno della della chat è intanto vediamo il risultato, altrimenti adesso vi farò vedere.
Quindi lui, come vedete è partito dal riferimento dell'immagine che gli abbiamo dato è che è la prima parte del proprio poi abbiamo messo il nostro pronto, quindi abbiamo detto che vogliamo il ghiaccio, vogliamo la neve, vogliamo un background bianco freddo e come vedete, lui ha seguito le indicazioni che vi abbiamo dato.
Abbiamo detto non metterci il sole.
Infatti come vedete, guardandoci rapidamente non vediamo, non vediamo il sole, quindi è spero di essere stato abbastanza chiaro con questo con questo esempio ora eh? Come vi dicevo supponiamo che però non trovate, quindi perdete la vostra, il vostro il vostro ritratto, un piccolo trick che potete utilizzare.
Quello è per chi per chi ha Windows.
Ma in realtà anche per me potete utilizzare direttamente su Chrome il comando di trova perché utilizzando il comando di trova.
Quindi cercando tranquillamente voi potrete ritrovare lui cercherà all'interno.
Come vedete adesso mi trovo una di tre.
Cosa trova? Quello in cui abbiamo avuto un piccolo problemino prima relativamente alla penetration me ne aspetto di trovarne un altro.
Esatto.
Era il secondo e il terzo, come vedete vi ritrova all'interno della chat quella che era la la generazione che avete fatto.
Questo è un come un ricco abbastanza utile per non perdere tempo a fare lo scrollo di tutta la di tutta la chat che trovate.
Quindi abbiamo generato questa immagine come avete visto, avete il vostro risultato ora cosa potete fare? Potete o andare a fare quello di cui ho parlato prima, quindi fare una scala di o dell'immagine numero uno Dell'immagine numero due dell'immagine tre Ovviamente sono una due, tre, quattro sono numerate partendo dall'alto e andando verso il basso.
Oppure potete andare a chiedere di fare delle variazioni e quelle che l'immagine quindi è voi vi mi piace l'immagine una, però magari volete togliere insomma la parte irritata qua sopra andrete magari a dare un negativo proprio andare a togliere quella parte retata ora a ultimo comando invece quello che sembra un po' l'aggiornamento questo invece è rilancia completamente il pronto quindi con quello che voi gli avete dato è fondamentalmente come se voi scrivesse dall'inizio qua quello che avete scritto prima quindi ve lo rilancio cercando di rifare una generazione perché magari nessuna delle quattro immagini vi ha soddisfatto ora giusto per per per provare facciamo noi.
Diciamo che che ci è piaciuta la prima immagine, quindi gli chiediamo di fare una scala.
Ora dovremmo attendere qualche qualche minuto perché come avete visto prima in realtà ci ha messo anche meno di un minuto a fare la parte di jay.
Però non è sempre così tipicamente la scheda è un po', più è un po' più lento e e quindi adesso attendiamo un attimo.
Nel frattempo vi magari vi parlo mentre aspettiamo che fa la generazione è vi parlo di ulteriori altri parametri che potremmo andare ad utilizzare.
Un altro parametro molto interessante, quindi sempre da mettere alla nella parte finale del promo.
Intanto qui abbiamo ritrovato quello che è il nostro.
Il nostro Skyler è per esempio il comando sempre trattino trattino video.
Cosa ti consente di fare? Questo è molto, molto simpatico.
Fondamentalmente lui fa una abbiamo visto prima non so se avete ci avete fatto caso meno lui parte da uno zero percento, quindi fai whiting su strada, poi fa zero percento e piano piano è con l'aumentare della percentuale.
Voi vedete l'immagine che piano piano diventa sempre più nitida, diventa sempre piu' vicina al risultato finale.
Il comando video il parametro video fondamentalmente fa una registrazione di tutti questi istanti e questo è molto, molto utile, molto magari simpatico molto è, come dicevo, molto utile da utilizzare.
Magari è da inserire poi all'interno di un video per una presentazione o qualcosa di simile ed ora mi sono riperso il mio mio pront vediamo se riusciamo a ritrovarla.
Come vedete, una volta che avete inserito in realtà della giusta tranquillamente all'interno della chat e l'ho trovata in pochi secondi l'alternativa l'abbiamo visto prima col comando che era al comando show inserite a Ecco una cosa importante vi starete che vi starete chiedendo dove ci hai detto usa il comando show con Liam dove si trova Liam li si trova all'interno.
Potete trovarlo tranquillamente l'ultima parte all'interno del link della vostra immagine.
Allo stesso modo, anche se scaricate l'immagine, il locale è l'immagine viene salvata con eh, ma al suo interno troverete li'.
Quindi se voi vi state chiedendo dove lo trovate, lo potete trovare in questa in questa maniera.
Quindi o all'interno della parte del del link in cui è stato generato nel momento in cui la aprite o all'interno dell'immagine.
Quando in quando l'avete salvata è quindi niente.
Abbiamo ottenuto il nostro esempio.
Questo è il nostro risultato finale quando avendo fatto la Porsche il è un piccolo consiglio Se date un rating, quello è il risultato finale.
Mi giorni tende a darvi qualche minutino per secondi in piu' GPU per la generazione.
Quindi è ve lo do un consiglio da fatelo tanto non costa niente e se avete una una versione potete aumentare i vostri i vostri minuti.
Ovviamente non finisce qui è se volete, perché se voi volete dite no, non mi hai fatto la scala.
Ma non so, ho cambiato idea.
Voglio cambiare la tipologia di Pascal che ho utilizzato file.
Il resto é lui utilizza un altro modo di scappare oppure dici no, io voglio fare la modifica.
Non mi è mi è piaciuto, voglio voglio effettuare una modifica.
Quindi lui dall'immagine a cui siamo partiti vedete che mi dà la possibilità di fare il pronti io se qui modificarsi qualcosa vado a dare l'invio e ovviamente lui va a rigenerare partendo da da quella che è quella che è l'immagine l'immagine iniziale è ci sono altri parametri ancora.
Voglio però lasciare la parola federico per approfondire a seguirmi your e seguo il diffusione.
Eventualmente torniamo poi su questo, più avanti nella parte finale.
Quindi ho un attimo Albert, perché c' è qualche domanda della chat.
Così risponde allora cioè Alessandro che chiede nel caso di parametri no.
Quindi quelli del negativo fronti multipli vanno dati diversi comandi, quindi uno per oggetto No, basta il trattino.
Trattino no, eh, poi è quello che non volete, virgola un'altra, cosa che non volete virgola un'altra, cosa che non volete.
Quindi è tranquillamente in questo modo.
Quindi no, non non non più volte.
Ma lui terrà come riferimento il primo no, e tutto quello che va in coda dove va un po', poi diciamo viene viene viene non viene considerato all'interno della generazione l'ho fatto poi c' era poi Believer che chiedeva se prende la virgola tra i parametri, però se prende la virgola tra i parametri ma io sui modelli che ho utilizzato sembrava fosse o no di non aver mai avuto questo tipo di problemi.
Magari poi lo lo approfondiamo dopo, perché effettivamente anch'io è tipicamente non vado a dare tantissimi negati pronto perché mi giorni eh eh funziona però noi poi come come come diceva anche tu inizialmente siamo più più più esperti, poi lato lato stable diffuso però è lo approfondiamo.
E comunque poi diamo diamo una risposta assolutamente sicura da quel punto di vista perfetto va bene, lascio la palla a fede federico e poi dopo ritorniamo più tardi sulle domande perfetto, perfetto ciao a tutti! Io tratterò la parte di stable di fusion, quindi quello che è il padre, diciamo, fondatore del di tutto il movimento di generative artificial intelligence.
Quindi tutti questi algoritmi che vanno a generare immagini a partire da un prompt testuale qui nella schermata vedete il quark e rimanda sempre al nostro sito nella nostra sezione locum documentazione nel quale spiegate nei dettagli i vari passaggi da da intraprendere per installare stavolta fusion è parto col dire che stai boldi fusion ha come parola d' ordine diciamo il controllo controllo nel senso che differentemente da da li' ed meyer nei non è un software puramente da utente web, quindi da utilizzo diciamo generico in quanto principalmente lo si utilizza in locale installando la sua la sua ultima bild che è probabile sul github.
Di stabiliti si è quindi questa repository di github contiene tutto il codice infatti stabili' diffusione open source e installando questa build che si trova sul loro tablet si ha a disposizione di tutto quello che è il codice sorgente e quindi si può interagire non solo lato front-end quindi come gli altri soft come da lì e niger nei quindi solamente con l'interfaccia utente che le aziende che li hanno sviluppati hanno messo a disposizione, ma volendo si può vero e proprio a che fare anche lato back-end con tutto quello che è.
Lo sviluppo è di inversioni custom che uno può utilizzare è quello che un esempio che richiama quello che è stato ehm presentato prima da Riccardo è il modello di Vector per Gustav Klimt, quindi un modello custom studiato ed elaborato per stavolta fusion, che non è probabile nei modelli scaricabili online è Gaston, creato da noi con un nostro dataset e quindi completamente customizzato rispetto alle nostre alle nostre esigenze.
Quindi si é diffuso, richiede un processo di inizializzazione un pochino più complesso di quello che è mi journey o da li'.
Ma diciamo che nella documentazione noi abbiamo fornito un tutorial passo-passo per cercare di spiegare nel modo più approfondito possibile, ma anche più semplice, i vari passaggi con una persona deve affrontare dal punto di vista sia di specifiche, perché ovviamente girando il locale rice richiede delle specifiche hardware del, del, del del pc sul quale gira, in quanto appunto utilizza queste risorse per generare le immagini, mentre da li' emergerne utilizzano le risorse dei server di operai e di dirigerne stesso Edinson.
E questo è anche uno dei motivi fondamentali per cui questi altri due software sono a pagamento, perché ovviamente devono mantenere tutta l'infrastruttura che li che li regge, mentre se Boldi fiutano può girare in locale è passo direttamente alle all'apertura del software che lo si utilizza attraverso una web dove una volta lanciato il vedrete poi attraverso la documentazione un bat file che va a lanciare ad eseguire tutto quello che è il software viene fornito in questo praticamente si apre una schermata di command prompt in cui vengono installati le varie librerie python necessarie e viene fornito un indirizzo http che punta al il locale, al quale appunto si voce accedere al all'interfaccia grafica di istanbul di fusion.
Adesso quello che vedete sotto sono fondamentalmente i progressi delle generazioni che andrete a fare, ma adesso man mano partendo dall'alto verso il basso, andro' affrontare tutto quello che è la descrizione dei parametri e di come tutta la i parametri di cui composto stable diffuso, come dicevo appunto stable diffusione molto più complesso tra virgolette, ma per il semplice fatto che da' molto piu' controllo all'utente di quello che è l'output quindi oltre al modello.
Quindi questo questo primo parametro che vediamo in alto a sinistra che stabili stable diffuso un checkpoint che non è nient'altro che una lista di modelli installati sulla sulla nostra bill del locale alla quale si può, alla quale il l'algoritmo principale di Istanbul di fusion va ad attingere per generare immagini con un determinato stile.
Ciò per esempio non è fattibile su da li' o suggerirei, come diceva alberto, in quanto essi hanno un loro modello, sul quale girano e su a sviluppare tutto ciò che è l'output dal prompt dato in input dall'utente.
Nel nostro caso, appunto, abbiamo anche quest'altro tipo di di controllo eh, io qui utilizzo la versione punto e anche questa è l'installazione di questa è descritta nel tutorial sul sito é l'ultima versione uscita diciamo che è quella più safe anche dal punto di vista dei diritti d'autore, in quanto la versione due punto uno è stata un po' ripulita dopo i movimenti degli artisti contro l'intelligenza artificiale che c' è stata qualche mese fa è perché la versione una punto cinque, essendo una versione sperimentale, aveva utilizzato, a detta di alcuni immagini non completamente con un copyright non completamente definito è mentre la versione due punto uno è stata completamente ripulita da tutto cio' perché ovviamente, seppur open-source stabiliti i che si è protetta dal punto di vista legale per evitare problemi, è appunto ancor peggiori.
Quindi con quest'ultima build a diciamo reso più più pulito il modello che che fornisce di default quando si scarica stival di fusion.
Quindi il come in tutti gli altri software, noi incontriamo come primi due parametri questi due campi.
Il primo è il campo del prompt, quindi la logica è la stessa identica che abbiamo visto su mille giorni o su da li'.
Io ho fatto un tipo di test, come come ha fatto Alberto utilizzando chat GPT, in quanto è molto comodo per sviluppare un prompt completo.
È cioè una piccola parentesi da fare a monte di questo discorso del prompt in quanto state building stable diffusa rispetto ad ali, ma i giorni non ha un un'elaborazione del prompt nascosta, quindi tutto quello che noi scriviamo effettivamente quello che lui elabora, mentre da lì e niger nei ehmm sostanzialmente aggiungono parole chiave al prompt che l'utente inserisce cosa che l'utente non vede.
Ma è ciò che succede per cercare di guidare un po' meglio il suo modello nell'autobus che andranno a produrre.
Quindi stai vuol diffuso da questo punto di vista non ha questo tipo di aggiunta, diciamo e quindi l'utente deve assolutamente cercare di spiegare il più possibile con piu' frasi possibili più tag possibili l'output che vuole ricevere.
Quindi in questo caso cosa ho fatto? Sono andato su certo gpt io gli ho chiesto di generare mi un prompt simile a quello che gli ho dato in pasto tra le virgolette.
Questo è un problema che io ho composto, che avevo trovato online seguendo alcuni tutorial, ma non è niente di particolare, semplicemente richiama la struttura di quello che è il prompt corretto che stai Boldi fusion si aspetta di ricevere, quindi è un insieme di parole chiave oppure, come in questo caso, oppure una frase seguita poi dalle varie parole chiave o tag, che sono quelle come inserito come inserito.
Alberto è sostanzialmente la in questo caso abbiamo un questo chat GPT ha preso tutto quello che è stato descritto da questo primo pront e ma sostanzialmente ha ricreato su mia richiesta un prompt simile dal punto di vista della struttura.
Ma descrivendo una scena di automotive prendo l'auto motive come esempio in quanto forse dal punto di vista di concept ting e dal punto di vista marketing può essere molto utile per far capire, diciamo che spesso può capitare magari di aver bisogno di presentare qualcosa un cliente, presentare qualcosa è velocemente senza dover richiedere un export eccessivo di risorse nello sviluppo di un concept e quindi anche per una presentazione a cose di questo tipo.
Io ho preso l'auto motive perché è l'ambito nel quale lavoro pero' rispecchia quello che può servire a chi vende un prodotto.
Gnam per velocizzare il processo di vendita e di presentazione ha un possibile cliente gnam bicipiti che rispedito questo questo output dove sono stati inseriti anche alcuni nomi di artisti, ma tante parole chiave interessanti.
Io ho levato dal prompt come tra poco vedremo nomi di artisti che non c'entrano con quello che è l'automotive, ma che lui non ha saputo interpretare da qui e quindi mi ha riproposto nel pronte.
Ma la struttura fondamentalmente che ho mantenuto è questa adesso vi faccio vedere bene o male quali sono le aggiunte qual è la struttura che ho dato.
Quindi full shot mercedes-amg Eckhardt.
Io ho usato una Mercedes, ma come ovviamente come esempio full car shot, ovvero un'immagine che rappresenti tutta la macchina.
E dopo questa piccola prima descrizione ho usato vari tag, quelli proposti da chat GPT, quindi parole chiave generiche che hanno a che fare col mondo automotive e anche alcune parole chiave che invece vanno a aiutare.
Stavo al diffuso a definire che cosa vogliamo.
Esempi di parole chiave generiche, diciamo, diciamo sono questi come intricate details sharper focus tra Mattingly thing, il drammatico leading serve per definire quale tipo di luce vogliamo nella nostra scena qua, per esempio, è stata inserita una luce altra, molto.
Quindi qualcosa di più emotional diciamo in altre parole chiave, per quanto siano simpatiche da vedere da un software all'altro è art dai miei giorni, quindi sostanzialmente si va a richiamare è meet the journey come output dentro il prompt di Istanbul Diffusion.
Questo perché funziona funziona in quanto nella creazione del della di questa versione della due punto uno sono state utilizzate immagini anche generata sua volta di intelligenza artificiale.
Quindi molte di queste provengono anche da germi.
Quindi richiamando lo si cerca di riprendere quello stile che ami i giorni, che è molto cinematico, è molto legato ai colori molto intensi che sviluppa nelle sue nelle sue immagini.
E queste sono altre parole come Carell per quindi che va a richiamare un modello dell'auto vorrei rendere vorrei è un motore di rendering credi che si utilizza dal punto di vista automotive e lo si richiama per andare a richiama? Richiamare scusate il doppio gioco di parole la quello che sono librerie di render render tre di veri e propri di che di macchine e che quindi possono essere utili nel nel definire quello che è il soggetto.
Infine abbiamo un modello di macchina fotografica, in quanto nella documentazione di Istanbul diffuso viene detto che inserendo il modello di macchina fotografica si aiuta il software a capire che noi vogliamo qualcosa di foto realistico, quindi lui cerca il più possibile di portarci un risultato foto realistico che appunto non abbia lo stile cartoon non abbia uno stile troppo colorato, qualcosa di neutro diciamo, ma che rispecchi uno shock fotografico di un'auto e infine la parola stessa foto realistico oltre che il tipo di inquadratura.
Questo quindi è la descrizione del nostro prompt più o meno quello che credo che ha descritto alberto, ma con la necessità di specificare il più possibile è meglio essere prolissi constable di fusion, quindi spiegargli fin troppo di quello che ha bisogno di sentire piuttosto che mettere pochi parametri e ricevere un output che non è quello desiderato.
Il negativo prompt è instabile di fusion è più semplice da inserire, diciamo dal punto di vista dell'interfaccia utente, in quanto anche qui abbiamo un un campo di testo che quello come quello del prompt nel quale vanno inseriti tutte le parole chiave un po' come tutto ciò che stava dietro al no al trattino trattino no di midler nei però qui vanno inserite semplicemente una dietro l'altra tutte le parole chiave che possono rappresentare qualcosa che noi non vogliamo assolutamente vedere nella nostra nella nostra immagine finale.
Quindi bassa risoluzione lo resolution pixelata graphics, quindi qualcosa di pixel allato dib l'errato, quindi vuol dire sfumato pochi dettagli.
Beh, darti sui deforme, quindi tutto ciò che può essere magari deformato, che può aiutare, lo scrive lo script diciamo l'algoritmo è di istanbul di fiona evitare quel tipo di informazioni che magari possono sviare dal dalla necessità del del risultato.
Qui ho inserito un negativo pronte molto generico che uso spesso, poi questo lo forniremo anche nella documentazione.
Se lo volete utilizzare, come diciamo come spunto per poter sviluppare il vostro è infatti si vede anche che ci sono mi united rosai, quindi negativo, pronte, più relativi a figure umane che però possono sempre servire e rendere un po' generico negativo pronte che magari è la parte più noiosa da inserire.
Più complicata è anche perché diciamo che la maggior parte dei negativi front sono cose che non vanno quasi mai bene in un'immagine e quindi si è cercato il più possibile di generalizzare viste le due parti di input principali.
Qui ora vediamo i sampling method sempre il metodo sono dei gli algoritmi sottostanti, diciamo a stable di fusion, i quali vengono utilizzati per calcolare in modo corretto o secondo un determinato metodo di calcolo, appunto l'immagine che si vuole generare.
Questi ultimi hanno parametri molto simili tra loro, ma gli output possono essere differenti in quanto alcuni di questi algoritmi richiedono di conseguenza alcune modifiche dal punto di vista dei sampling step che ai quali arrivo a breve è mentre alcuni invece funzionano genericamente, però magari danno un output meno dettagliato o meno definito rispetto ad altri.
Di solito di base si utilizza la a che è quello più legato a un output foto realistico e più generico io per questo invece per questo per questo output che vi porto ad esempio adesso fra poco vi lancerò una generazione per far vedere un altro possibile output che che potrebbe uscire.
Ho usato questo bpm due m cars che anche lui leggendo la documentazione è un tipo di modello che da richiede più sampling step e adesso, come dicevo, ci arrivo, ma da un output un pochino più cinematografico, quindi inquadratura un po' particolari forme un pochino più è accattivanti e quindi può essere interessante soprattutto in fase di concept, quindi nella fase di creazione di un'immagine che deve richiamare all'attenzione del dell'utente del cliente sampling stepney sampling step invece sono ha ovviamente inside.
Diffusione in quest'ultima versione quando si fa over col mouse al scritta viene fuori un piccolo tool tip che descrive un po' brevemente cos'è il valore cos'è il parametro.
In questo caso i sampling step non sono nient'altro che la quantità di di step che lui utilizza per calcolare l'output, quindi molto semplicemente più alti sono sempre più l'immagine verrà definita.
Ovviamente questo non vale per tutti i sampling method in quanto come dicevo, alcuni con pochi step non riescono proprio a generare un'immagine, quindi creeranno un mucchio di rumore fondamentalmente senza dare qualcosa di definito è quindi di solito diciamo come best practice.
Si cerca sempre di portare i sampling step tra i trenta tra i venticinque e i trenta e i cinquanta.
Ovviamente se si capisce che l'immagine è quella desiderata, si vuole provare a sviluppare qualcosa di più definito ovviamente la maggior parte delle volte sono test, si può provare anche tira su la definì la sampling step.
Importante ricordare che i sampling step sono quelli che vanno a prosciugare le risorse, quindi vanno a prosciugare le risorse gpu della nostra macchina.
È quindi nel mio caso, per fare un esempio pratico in questo portatile o una tremila ottanta ti hai del dell'invidia è questa circa sedici giga di ram dedicata.
Quando si arriva a cento centocinquanta step con magari una risoluzione di un certo tipo può capitare che nell' output qui perché questo fondamentalmente é il nostro logo è m' ci venga detto che siamo in cuda error, quindi un errore per cui la memoria disponibile non è abbastanza.
Per questo motivo se si è obbligati a utilizzare almeno step questo è l'esempio diciamo estremo però era giusto era giusto saperlo eh? Sotto troviamo quindi è weed whites, queste non sono nient'altro che la risoluzione in pixel dell'immagine che vogliamo che vogliamo generare perché settecento sessantotto come with light adesso ci arrivo eh? La risoluzione di partenza di un modello è quella che va a definire la risoluzione che noi dobbiamo inserire per avere il più possibile un output che sia coerente con quello che chiediamo.
Sostanzialmente la versione una punto cinque che la precedente questa è stata trainata con immagini, è stata istruita, trainata con immagini da cinquecento dodici per cinquecento dodici pixel.
Quindi la risoluzione di partenza era quella, mentre per quanto riguarda la due punto uno è stato fatto un training settecento sessantotto.
Questo vuol dire che noi tutte le immagini che andremo a generare devono cercare di essere nell'intorno di quella risoluzione, in quanto se noi andremo per esempio a mettere un mille ventiquattro, quindi una risoluzione di un kappa due k quattro k ma quattro k probabilmente si andrà in coda.
Errori come dicevo, perché anche quello richiede un sacco di calcolo in più, eh? Si otterranno immagini che fondamentalmente sono composte da rumore o che non richiamano per niente quello che è il il l'elemento diciamo descritto nella nel pronte è quindi in questo caso sono andato su un settecento sessantotto di weed e quattrocento trentadue che la proporzione per avere più o meno sedici nomi è dell'immagine.
Quindi questa è la risoluzione possono utilizzare.
A fianco troviamo Beth count Bex, Bex County.
La quantità di immagini che vengono generate con una sola generazione.
Questo cosa vuol dire? Sostanzialmente con beth count a una vera generata una sola immagine con beth account a dieci che creare una griglia, un po' simile a quella che si vedeva i miei giorni di quattro immagini, ma in questo caso di quanto vogliamo con tutti i possibili output, ma ovviamente richiederà molto più tempo di calcolo e molte più risorse.
Il brexit invece un moltiplicatore.
Quindi se noi andiamo a chiedere dieci immagini di black count con un mix di due, sarà dieci per due di andare a creare venti e quindi questo diventerà anche qui un un problema, diciamo dal punto di vista delle risorse richieste.
Ora passiamo all'ultimo più o meno ultimo parametro interessa veramente interessante che che può servire può davvero cambiare le sorti di quello che può essere un out che la c f g skill classe firefly gaiden skate quindi sostanzialmente quanto l'algoritmo andrà a seguire o il nostro prompt o lo stile del modello che stiamo utilizzando usando solamente le informa le parole chiave principale del nostro pronto quindi diciamo quanta libertà lasciamo all'algoritmo di ragionare per conto suo più questa cfg skype alta ti ho l'algoritmo andrà a cercare il più possibile di replicare nell'immagine quello che noi abbiamo scritto nel prompt e nel negativo a fronte di in proporzione inversa, mentre più la cfc Skye è bassa, più diciamo lasciamo libertà al prompt.
Quindi probabilmente alcune delle cose che scrivevamo che scriveremo nel prompt non verranno magari considerate perché agirà lui di di sua iniziativa cercherà di mantenere la coerenza con l'argomento.
Quindi in questo caso automotive andrà gira generare qualcosa di automotive, ma andrà un po' a caso rispetto a quello che il l'algoritmo, quello che l'algoritmo processeranno in quel momento sotto cfg Skye l'abbiamo Syd Syd di base almeno uno vuol dire che lui ogni volta che genera andrà a prendere un un sid diverso rendo Miko e quindi generare un genererà un'immagine differente.
Tuttavia, quando noi troveremo un'immagine che è di nostro interesse, vorremmo provare a elaborarla ulteriormente.
Cliccando questo simbolo verde che sembra quello del riciclo, andremo a fare un Gath di quello che è il Sid dell'immagine generata.
Infatti, come vedete da meno uno uscito questo questo codice numerico.
Quindi noi ogni volta che andremo a modificare gli step il semplice metodo DMX, la risoluzione qui andremo sempre a cercare di rigenerare un'immagine che si baserà su questa di partenza.
Quindi questo è da fare quando si ha uno stile di immagine che ci piace molto.
Ma in generale se si vuole far testing lo si lascia sul dado che lui va a meno uno e quindi lui continuamente andrà a generare cose generiche qui sotto abbiamo infine questi ultimi tre tic, diciamo i quali sono il storce, il timing e l'ires.
Il signor viene utilizzato quando si cerca di creare immagini umanoidi.
Quindi lui applicherà un altro algoritmo interno alla bild spavaldi fusion che perché nella abbiamo anche alcuni algoritmi come quelli di screening e anche di restare, dice che sono stati sviluppati da altri studi.
Di solito sono tutti di origine universitaria, i quali fanno cose diverse, sono stati inglobati nella build di Savoldi fusion.
Il resto serve per aiutare nel rigenerare correttamente una un viso.
Quindi diciamo che se lo ricreiamo senza il resistore, magari ci escono gli occhi posizionati in un modo non proprio corretto.
Cose di questo tipo mentre corre, starface lui andrà molto spesso andare a ripulire quella che è la faccia del personaggio, del del carter di di turno, di quella generazione che renda più pulita più coerente, più più corretta.
Diciamo.
Il timing secondo tic serve principalmente per quando vengono generate immagini che devono essere continue.
Se noi generiamo un'immagine, poi ne generiamo un'altra che deve essere un continuo della stessa.
Il timing ci aiuta a far sì che queste due immagini messe vicine siano interlacciato tra di loro.
Diciamo che non si usa praticamente mai.
È infine lyrics è un questo si attiva semplicemente attivando questo tic l'ires fix.
Invece attivando lo va ad aprire un altro pannello di è informazioni di di parametri quali servono per applicare un ulteriore noyce.
Quindi questo ulteriore rumore sull'immagine generata per andare a provare ad andare a dare una risoluzione maggiore a quello che è l'output di solito si mantiene appunto questa fu anche una che ìl quindi va anche ad aumentare, a moltiplicare la risoluzione, però di solito con un adenoidi strang alta se si ottiene un'immagine che spesso non è effettivamente un'immagine.
Scalata quindi di ottima risoluzione, ma può avere qualche difetto è diciamo che questa parte essendo molto relativa a quello che il rumore va a fare sull'immagine generata, è necessario testarla di volta in volta.
Fortunatamente ad ogni generazione, con questo bottone della cartellina lui andrà aprire Lim, la cartella di output che del nostro del folder dell'installazione di savoldi fusion che tutti avremmo nel momento in cui avremo clonato youtub é installato il installato Savoldi fusion quindi tutto quello che andiamo a creare verrà salvato Non andremo a perdere niente nel senso che se magari diciamo ci piace questa immagine e poi per sbaglio non pensandoci facciamo generata ancora non succederà niente in quanto si verrà generata un'altra immagine.
Però quella che è stata creata è già stata salvata all'interno di questa folle.
Quindi non andremo a perderla.
Ora faccio una prova molto generica con con trenta sempre con questo pront e con generale il calcolo è spesso è abbastanza veloce, ma allo stesso tempo richiede la sua il suo tempo.
Per quello avevo già generato un un'immagine di output perché a volte le risorse allocate comunque richieste sono sempre abbastanza.
Adesso vediamo se ci mette un tempo decente oppure ma nel frattempo che che genera? Posso spiegare ancora un attimo quello che è là quello che è la parte di scripting.
Quindi questa parte sotto che troviamo su statue di fusion.
Sostanzialmente questi scritti sono diciamo sviluppi di quello che è lo script principale sul quale genera stable di fusion è servono per andare a truccare, quindi andare a modificare più a livello codice quello che è il no il nostro algoritmo di base.
Quindi queste prompt matrix quindi vanno ad aggiungere più una matrice di prompt, quindi più promette che vengono combinati tra loro per generare un output.
Adesso non so come purtroppo ci sta mettendo un bel po', quindi probabilmente skipper emo questa questa parte.
Quindi io passerei a un esempio di quello che è l'output di questo stesso pront con daly e giorni allora questo è l'output generato dal niger, né con lo stesso identico scusate da lì con lo stesso identico pronte è come vediamo i dettagli sono molto più scarni, molto più deformati in alcuni punti in quanto non abbiamo, come abbiamo visto su dalì, un controllo sui parametri specifici sui quali il l'algoritmo lavora e quindi l'immagine comunque di piacevole aspetto diciamo però sono palesi gli errori e le problematiche che questo si si porta dietro.
Il ragionamento invece diverso avviene per leggerne, in quanto essendomi ger nei basato su un algoritmo è più simile a quello di stable di fusion è più probabile che vada a generare un output dettagliato, perché comunque il motivo, anche molto probabilmente del costo molto più elevato che ami journey e quindi l'output che va a generare molto più dettagliato, molto più pulito adesso.
Un esempio più specifico abbiamo preso una di queste, ne abbiamo fatto lo scalpo.
Se vedete è per te questa parte in cui ha sviluppato una sua idea di portiera aperta dalla di gabbiano.
Ma le ruote la' il fronte della macchina, la carrozzeria sono tutte comunque con un dettaglio pulito.
L'inquadratura della camera è molto interessante e molto simile a quella che può essere effettivamente di uno shot di automotive e quindi Midler nei diciamo quello che dà più un risultato utilizzabile forse sotto un certo punto di vista, ma con un costo ovviamente diverso è purtroppo segue Diffusion stasera ha deciso di non rispondere.
Probabilmente è necessario un riavvio è comunque la generazione viene semplicemente lanciando il comando, cioè una total progress bar che andrà fino a cento con gli step che abbiamo definito e qua verrà generata la nostra immagine.
Quindi ho una cui sarà che vi è una griglia di immagini.
Nel caso chiederemo un background più alto e quindi tutte le singole immagini le troveremo qui.
Ora la seconda parte piu' interessante piu' di possibile utilizzo dal punto di vista anche lavorativo.
Helix che ingmar cailin visto non come conseguenza del dell'algoritmo di aires punto fix che diciamo è dentro al corpo la procedura standard, ma vista come tabella proprio come tab di funzioni di stable diffuso.
Quindi non più una funziona di generazione di immagine, ma bensì solo di upgrading.
Quindi è un esempio che posso portare è proprio prendere una l'immagine che abbiamo generato.
Andrò a prendere direttamente questa con chi mi ha aperto la cartella nella quale ha salvato stabile di fusion.
Quindi qui c'e' tutto il il il repository github clonato e qui abbiamo la nostra la nostra immagine.
La risoluzione di partenza di questa immagine è come come abbiamo ovviamente impostato di la' settecento sessantotto per quattro e trentadue.
Se noi ora andiamo a prendere questa immagine, la carichiamo qui e ne facciamo una skill di due.
Selezioniamo un algoritmo di screening quindi anche qui, eh? Cosa abbiamo diversi algoritmi allo stesso modo di del semplice metodo, quindi diversi sotto algoritmi, chiamiamoli che vanno a effettuare determinati tipi di calcoli su su quello che è l' operazione necessaria.
Qui abbiamo diversi tipi di ap Skyler.
Alcuni servono per generare, per far scappare le immagini più anime.
Alcuni servono per fare skate di immagini, più foto realistiche.
Comunque tutti sono interessanti da provare a seconda dell'immagine che si da' in pasto.
Io vado veramente ad occhio.
Spero che anche almeno questo funzioni dal punto di vista dell'auto, perché il livello della diretta, non insistendo il diffuso comunque, girando i locali, a volte magari necessita di un riavvio perché, appunto non gira su server, gira il locale.
Quindi magari a volte è necessario provare a rilanciarlo per Vabbè, adesso magari chiedi quando arriviamo al clan dei fai un riavvio.
Assolutamente, assolutamente perfetto.
Risorse che Esatto.
Esatto.
Quindi diciamo che io dal punto di vista di quello che è stato diffuso in quello che può offrire, io ho detto tutto e lascerei la parola Riccardo che può dare uno sviluppo su un raccontarvi quelli che possono essere gli sviluppi futuri di Vector e di tutto quello che è il nostro lavoro.
Grazie, Fede.
Allora, facciamo vedere le slide Su cosa stiamo lavorando? Il nostro sviluppo futuro.
Va bene.
Premesso lo sviluppo dei modelli dedicati di cui abbiamo discusso prima che sono basati sui requisiti del cliente.
Facciamo un esempio avete una gioielleria? Dovete creare dei concept nuovi ogni giorno per i vostri gioielli tramite un modello dedicato, che quindi da un indirizzamento a quello che volete farlo non dà un risultato totalmente casuale.
Voi potete inventare nuovi modelli ogni giorno.
La seconda parte invece che serve al vostro cliente finale, quindi andare ad innestare tramite un'interfaccia apposita uno di questi modelli all'interno di una webpage per renderlo fruibile appunto il vostro cliente finale.
Facciamo un breve recap cosa abbiamo visto questa sera? La generazione della ricostruzione delle immagini tramite l'intelligenza artificiale l'introduzione a tutti quelli che sono i sistemi hi-tech sui magi, i campi di applicazione da parte dei diritti e il focus su i tre software, andando un po' in scala anche di difficoltà.
Quindi partendo da quello più semplice da li' nei giorni e infine stable diffusione abbiamo concluso con quello su cui stiamo lavorando nel momento, quindi gli sviluppi futuri e il capo.
Quindi concludo lasciando quelli che sono i nostri contatti.
Se avete qualsiasi dubbio ho visto in chat qualche domanda.
Già per quanto riguarda l'installazione di Istanbul, diffuso anche spesso può risultare complessa vi ritroverete ad affrontare anche qualche errore.
Le Python.
Sicuramente, per qualsiasi problema, scriveteci o direttamente ai nostri contatti, addirittura la sulla mail del sito o sul contact form cercheremo di rispondervi, magari ci mandate uno screening degli errori e sicuramente faremo il possibile per aiutarvi.
Quindi adesso direi di passare al CNI.
Quindi se avete domande, cercheremo di chiarire ogni vostro dubbio.
Ehm vedo qualche domanda al Beh, questo è per te, perché riguardava i miei giorni e rispondi tu per quanto riguarda i pixel ad Alessio si, ho visto sì anch'io ho visto un po' di domande tutte molto molto interessante.
Si' Alessio appunto chiedeva se si possono richiedere in pixel le dimensioni delle immagini.
Adesso in generale, come abbiamo visto nei giorni genera le prime quattro che genera sono sempre in cinque centododici per cinquecento dodici poi nella fase.
Quindi una volta che le ha generate vai a fare la skyler Skyler generico sta con con mille ventiquattro per mille ventiquattro.
Tieni presente come riferimento il fatto che è come massimo puoi arrivare fino a tre megapixel.
Germain genera fino a tre a tre megapixel, ovviamente in funzione dei parametri che gli dai.
Quindi quel valore che abbiamo visto di spalle cresce che adesso vivi tra l'altro vi faccio anche vedere prima perché ci era stato il problema lo eh l'ho trovata in un piccolo errorino però modificando quel parametro è fondamentalmente vai a fare quello che è il valore dei megapixel che ottieni.
Tieni presente che il massimo di tre megapixel per ottenere il massimo della della risoluzione che duemila quarantotto per duemila quarantotto de dovrai utilizzare quello che abbiamo visto che era il beta pap skyler credo si chiamava lo abbiamo visto prima facendolo facendolo passare spesso è insomma, per poterlo effettuare devi fare prima il passaggio di fare uno skate the max che è un altro è un pulsante che puoi trovare una volta che hai fatto, quindi fai una scala a quel punto fai lo scheletro di emacs e a quel punto poi vai a fare è quello che il il task e quello ti porta al massimo che puoi raggiungere che duemila ventiquattro per scusa duemila e quarantotto duemila quarantotto che è il valore massimo che puoi che puoi ottenere.
Quindi questa era la risposta io se se è possibile ricondurre nido un attimo che ho riavviato e si è ripreso savoldi fusion.
Così faccio vedere quello che è un altro output che ho generato nel frattempo e l'output della della styling.
Così si può capire qual è la differenza prima di continuare.
Ok, è utilizzando sempre lo stesso pronte negative fronte suonato a generare quest'altra immagine molto molto interessante però giustamente quest'ultima sempre settecento sessantotto per quattro e trentadue passando nella sezione extra, facendo drag drop di quello che è l'output sempre nella stessa cartella che abbiamo visto prima, inserendo di quanto moltiplicatore di quanto vogliamo fare la scaldi questa immagine e laps skyler quindi l'algoritmo come vediamo qua ho rilanciato.
Quindi qui c' è l'inizializzazione che dicevamo all'inizio il progresso in dal punto di vista dei sample degli dell' output dell'immagine generata.
Quindi quella dentro la sezione texto, immagino e infine qui vi è il il calcolo qui.
Nel mio caso ha fatto anche un download perché probabilmente c' è stato un aggiornamento del modello di Skyler e quindi lui avendo essendo costantemente collegato al GitHub dal quale dal quale viene scaricato sable del fiume Han se c' è un aggiornamento, lui ce lo scarica in automatico quando viene lanciato, quindi lo ha scaricato e lo ha applicato.
Questo è l'output.
Quindi noi vediamo questa immagine che, come notiamo zoomando a sgranata quasi ovunque dovuta al fatto che ha un'immagine da settecento sessantotto e poi abbiamo quest'altra immagine, è stata generata dal skyler e come vediamo è molto più pulita dal punto di vista di auto dove sono stati puliti i dettagli è stata ingrandita dal punto di vista appunto della risoluzione della resa della resolution e dal punto di vista dei dettagli è proprio non solo dei pixel, ma anche di possibili artefatti che invece con software come un photoshop di turno che può fare un ingrandimento di un'immagine, non riuscirebbe mai dettagli che non riuscirebbe mai a ricostruire questa immagine.
Infatti siamo passati da un settecento sessantotto ha un millecinquecento trentasei per ottocento sessantaquattro ci ha messo veramente poco.
Volendo uno può fare un quattro per e farla diventare un'immagine da quattro k.
Quindi capiamo che la risoluzione di partenza che io dicevo qua le settecento sessantotto per quattro trentadue è solamente per far funzionare correttamente il modello, mentre per ottenere una risoluzione dell'immagine molto più alta si utilizza la skyler skyler.
Ce ne sono anche di loro di vario tipo, è vanno provati a seconda a seconda dell'immagine e con questo ho concluso perfetto.
Torniamo alle altre domande.
Ciera Domenico che chiedeva per quanto riguarda i diritti dell'impiego di queste immagini ed è pronto, allora dipende dal software.
Come abbiamo anticipato da li rilascia appieno tutti quelli che sono i diritti per le immagini nei giorni con la versione trial, non da una licenza commerciale, solo all'utilizzo personale.
Gli utenti paganti invece sono i proprietari di tutto quello che generano però stable diffuso.
Il software innanzitutto è open-source, come ci ha spiegato Federico e la licenza che avete sulle immagini ad uso commerciale.
Poi c' era una domanda per federico per quanto riguarda l'automotive e mentre la legge rispondiamo invece a ludovico che ci chiede se si può utilizzare questi vuol diffusione anche senza un aiuto più invidia è sconsigliato perché qualcuno lo fa, ma è molto complicato andare a mettere in piedi.
Se vuol diffuso non sono più che non è quella invidia.
Mi connetto alla domanda di Alessandro? Assolutamente sì, nel senso che io ho usato una un'auto mercedes semplicemente perché è quella che mi è venuta in mente nel momento della costruzione dell' output, ma ovviamente alcuni test che avevo fatto.
Avevo inserito Ferrari per esempio, comunque qualunque tipo di modello di auto viene riconosciuto.
Certo è che se si scarica, si crea o si scarica perché qualcosa esiste online.
Un modello apposito, quindi, che contenga un dataset di informazioni sulle auto.
Ovviamente utilizzando poi quel modello di training Sustainable diffusion stabile di Fusion, appunto, riuscirà a ricreare immagini molto più coerenti.
Se noi andiamo a prendere un un modello di training, andiamo a crearci un modello di training su un migliaio di immagini di Ferrari, quindi di modelli di auto visti da diverse vi visti da diverse angolazioni di modelli Ferrari, ovviamente utilizzando poi quel modello in un prompt che ovviamente richiede una generazione di un'immagine di una ferrari.
Lui sarà molto piu' precisa nella generazione di quell'immagine e quindi riuscirà ad Hachim nasce un output molto più coerente rispetto a quello che gli abbiamo chiesto.
Pero' genericamente vari modelli di macchine sono gia', sono gia' inseriti nel modello base di Istanbul di fusion, quindi io ho richiamato Mercedes, lui l'ha riconosciuta molto bene.
Soprattutto l'ultima versione è stata ottimizzata da questo punto di vista sia dal punto di vista degli ambienti, sia dal punto di vista anche di oggetti come auto, veicoli in generale però sì, il modello sta diciamo che il limite da questo punto di vista è l'immaginazione.
Ovviamente spero di aver chiarito il tutto.
Eh sì, fede ti rubo la parola perché volevo alessandro prima mi aveva fatto una domanda che poi è quella che mi aveva riportato riccardo.
Ne approfitto per diciamo facciamo un attimo una una condivisione.
Condivido un attimo perché prima quindi se ricordo bene, alessandro chiedeva sulla questione delle della della virgola sul rating croft, mentre che federico ci ha fatto vedere tutta la parte sul sequel di fiona ho fatto una prova.
Adesso quello che vedete è un'immagine perché altrimenti puoi inseguire all'interno della chat.
Era un po' complesso pero'.
Come vedete ho utilizzato lo stesso pront è innanzitutto vi spiego prima dava un errore su la crescevo semplicemente perché per una ehm errorino mio, avevo messo una virgola dopo il quattro terzi e quindi ovviamente lui non riconosceva il formato che cresce, che gli stavo dando perché ovviamente era una virgola che non centrava.
Infatti se ricordate ci diceva diciamo altezza, il formato deve essere altezza due punti e larghezza.
Invece io gli davo il terzo due punti larghezza, una virgola.
Ovviamente diceva l'errore e non faceva non generava.
Però purtroppo non me ne sono accorto in diretta e vi chiedo scusa sulla domanda invece, come vedi assolutamente si' tu puoi dargli il pronto, quindi trattino trattino no e poi di seguito andare a mettere quelle che sono le diciamo i testi che tu non vuoi, quindi poi quello che non vuoi inserito all'interno del modello come come parametro io per farti un esempio vedi no, metti i tuoi parametri, poi se devi mettere un altro parametro per esempio qui come vi dicevo, un altro dei parametri potrebbe essere quello di generare con il con la versione tre piuttosto che la quattro.
A quel punto trattino trattino vi tre e lui ammette la versione quindi chiude col primo trattino ti chiude quelle che sono le e le immagini è invece per rispondere giusto per concludere prima una cosa che ho detto ad alessio come vedi poi io generate quattro immagini ha fatto un primo max cahill a questo punto se tu fai prima una scalda e max e poi quindi sul risultato della pascale che max gli fai un beta skye l'arredo ottieni quello che è il valore massimo.
Sottolineo che prima federico diceva constable diffusion potevamo possiamo arrivare ad un'immagine fino a quattro k? Ovviamente qui non ci arriveremo mai, un'immagine fino a quattro k perché come dicevo, il limite è quello dei megapixel, che ovviamente viene, viene, viene superato se noi utilizziamo un quattro, quindi questo era giusto per chiudere.
Anche sulle domande che mi avete fatto prima e volevo volevo diciamo, dare una risposta più completa possibile.
Perfetto.
Grazie Alberto Ciera Ludovico che ci chiedeva per quanto riguarda l'uso a livello sociale degli Artificial Intelligence? Sicuramente sì, noi stessi lo facciamo cercando di promuovere tutto quello che è il patrimonio culturale e poi ci sono sempre tanti altri usi.
Il fatto di dare un'immagine di un testo puo' essere sempre un incentivo anche da questo punto di vista, se non ci sono altre domande, dire che dobbiamo chiudere, aspettiamo che ci ri contattate per dubbi, domande e qualsiasi altra cosa dicevi anche tu prima vedo anch'io qualche nella chat.
Volevo Fabrizio forse che parlava di qualche problema? Assolutamente.
Contattateci che in anche in fase di installazione è corretto Perfetto.
Allora ringraziamo ancora tutti per la partecipazione, per la attiva partecipazione e vi auguriamo una buona serata.
Buona serata a tutti
Learnn è la piattaforma online che ti aiuta a 360 gradi a crescere nel digitale. Sviluppa competenze con oltre 220 corsi, condividi i tuoi risultati, fai networking con otre 120.000 professionisti/e e oltre 300 aziende.
Vogliamo cambiare l’Italia, una persona alla volta.
Per farlo ci proponiamo di democratizzare l’apprendimento e accelerare la crescita di persone, idee e aziende attraverso strumenti tecnologici a supporto di qualsiasi professionista.
Learnn prevede un piano totalmente gratuito (Free) che ti permette di iniziare qualsiasi corso che abbiamo su Learnn.
Per chi volesse finire i corsi, ottenere certificazioni e connettersi con professionisti e aziende, Learnn Pro permette di avere accesso illimitato a tutto questo. Il corso di Learnn Pro è 9.99 euro / mese e puoi disdire quando vuoi.
Per i team di aziende abbiamo anche un Piano Team con oltre 300 clienti aziendali.
Potrai seguire i contenuti da computer, tablet e smartphone.
Scarica l’App iOS/Android Learnn e segui i contenuti in modalità video, audio e testo.
Learnn ha un piano gratuito che ti permette di accedere all 40% di ogni corso in maniera gratuita e solo con la tua email.
Learnn offre sia un piano gratuito con accesso limitato ai contenuti, sia un piano PRO del costo di soli 9.99 euro al mese con cui potrai avere accesso a tutti i nostri contenuti senza limiti o sorprese.
Una volta completata l’iscrizione sarà possibile gestire i propri dati e disdire in qualsiasi momento e in completa autonomia.
No, non offriamo certificazioni, facciamo di meglio.
Man mano che completi corsi potrai verificare le tue competenze e condividerle sul tuo profilo LinkedIn o CV.
Inoltre abbiamo sviluppato una feature chiamata Profile attraverso il quale otterrai un link personale per mostrare in tempo reale tutti i contenuti da te completati e molto altro.
Immagine personale, username, badge, link esterni e molto altro.
Crea una vera e propria sales page dove il prodotto in vendita sono le tue competenze.
Se avessi altre domande puoi usare la live chat qui di fianco.
Per partnership compila questo form
La nostra vision è rendere l'Italia famosa nel mondo per l'esecuzione.
La missione di Learnn
è accelerare la crescita di ogni individuo rendendo accessibili conoscenza, opportunità e tecnologia per avere un impatto positivo sul mondo e sugli altri.
Tutto incluso (come Netflix), IVA inclusa, nessuna sorpresa o addebito indesiderato.
Disdici quando vuoi, in 1 click.
Scegli di migliorare ogni giorno per 12 mesi senza interruzioni scegliendo il piano annuale.
In un unico pagamento annuale
Disdici quando vuoi, in 1 click.
Con l’abbonamento otterrai:
Consuma i +200 corsi e webinar di Learnn da webapp o app iOS e Android, in formato video, audio o testo.
Con l'abbonamento a Learnn hai accesso a tutto (proprio tutto) ciò che contiene la piattaforma.
Ogni mese registriamo nuovi corsi su tutto cio di cui potresti avere bisogno nel mondo digitale.
Con l'app Learnn trasformi ogni momento di vuoto in un'occasione di apprendimento.
Scarica tutto il materiale che ti serve e utilizza i moduli riassuntivi per fissare i concetti.
Ogni settimana nuove offerte di lavoro da parte di tantissime aziende che operano nel mondo digitale.