Lezione dal corso Video AI con Sora: genera video per il content marketing
Um Cosa vedremo? allora Chi sono io proprio una breve analisi perché non mi avesse incontrato nei corsi su learn oppure sui webinar che ho che ho tenuto.
um Sono Siliochetti, mi occupo di innovazione, background ingegneristico, ho la mia vocazione è stata sempre quella dell'innovazione, un master in innovazione, ho sempre studiato un po' tutti i temi di frontiera, tra i temi di frontiera sui quali mi sono soffermato di più è l'intelligenza artificiale.
um.
Quindi faccio consulenza, formazione e ho una startup in cui sviluppiamo software, intelligenza artificiale, gioco con modelli e tutte queste cose, per mettere insieme per andare a creare poi prodotti nel mercato.
Ora, um um andiamo, come creare, video che funzionano.
Questo è un po' il vero il il vero punto.
Qui in in chat mi chiedono Silvia una repo video per vedere al di là del bello della diretta, contenuti so creati da te per capire l'aspettativa.
Poi la vediamo, ce ne ho diversi, c'ho diversi account, con diverse creazioni, e ve li faccio vedere alcuni e soprattutto vi faccio vedere appunto, alla fine vi già vi do questa premessa e vi darò un GPT che ho creato, che al netto della mia.
Prove empiriche, l'ho creato circa due settimane fa, sta creando tutti i video che più o meno sono utilizzabili, um non a livello, professionale, lo vedremo è un grande limite questo perché magari uno si aspetta già un video qualità da da da clip professionale, però video che nei social media per il content marketing funzionano.
um Cosa avremmo tutelare base Sora, funzionalità avanzate, limiti, vari use case e come creare prompt che funzionano.
Molto semplice, molto molto molto semplice.
E poi alla fine vi darò un GPT quindi come risorsa, un GPT che ho creato, vi faccio vedere anche come l'ho creato, e poi lo lo testiamo proprio vero e proprio, sperando che i tempi di generazione ci assistano.
Andiamo subito.
Cos'è Sora? Se siete qua, penso che lo sappiate, un generatore video e e.
CGPT, l'ecosistema Open e Eye ha fornito questo modello generativo, che riesce a trasformare testi o immagini o anche altri video in video realistici, fluidi e cinematici.
Questa è la loro proposition, adesso andiamo a vedere se è vera.
In primis, quindi vorrei un attimo collocarlo perché esistono diversi modelli di intelligenza artificiale che ci permettono di creare i video, quindi intelligenza generativa che ci permette di creare i video.
Dove si colloca Sora in questa leaderboard, in questa classifica, um che è stata pubblicata su Hin Face che è uno dei, diciamo.
più importanti per chi si occupa di modelli di intelligenza artificiale si occupa al terzo posto.
Vediamo che al primo c'è Veo due di Google, poi c'è Kling 15 pro e poi c'è Sora, un modesto terzo posto che potrebbe effettivamente avanzare nel tempo.
um Altre cose prima di iniziare senza saper leggere né scrivere, um chi ha accesso a Sora? Perché se avete, se siete qua, immagino um che um abbiate un account um fondamentalmente o P o pro.
Okay? Plus da 20 $ al mese e poi c'è il pro da 200 $ al mese.
Io in questo caso prenderò il Il mio professionale che ho il plus, poi quello aziendale ho il Pro, ma in realtà um è solo per una questione di di utilizzo e il plus, per un utilizzo diciamo um molto um più supportivo che professionale va più che bene e, spoiler, anche il pro non pensare.
po- possiate fare cose professionali, vedremo che ci sono dei limiti, sia in qualità che in tante altre varie sfaccettature.
Quali sono le differenze? Con il plus, quindi con i tipici 20 $ al mese, avete um una massima risoluzione di 07:20, contro la 1000:80 del Pro.
um Avete fino a 10 secondi di durata video, il pro avete 20 secondi.
Abbiamo um qui scrive nella loro guide ufficiali due generazioni contemporanee.
ecco Qui vorrei, è questo che servono i webinar per capire un po' la differenza tra la teoria e la pratica, quello che scrivono e quello che effettivamente è, cioè Già è tanto secondo la mia prova empirica e prove empiriche di altre persone che hanno condiviso la loro esperienza in, reddito o altri forum che riesce a farne uno per volta, alcune volte ti metti in coda, soprattutto se è il plus e non il pro, due ti dice proprio che non riesce a generarli, nonostante c'è scritta questa cosa nel loro um nel loro sito ufficiale, con il pro- con il plus puoi farne uno per volta, finisce e vai al prossimo.
Qui invece ti ti promette con 55 um video contemporanei.
Poi l'ul- l'ultima cosa è che ti leva il piccolo watermark sotto, ecco perché ho detto per chi vuole utilizzare a livello professionale, non tanto professionale, si può elevare il watermark sotto.
Ora um prima riflessione importante, pratica, perché qui sennò um si dicono solo le informazioni, le potete anche leggere, ecco, vi do que- qualcosa in più.
um Già vi ho detto questa piccola cosa empirica, un'altra, 20 secondi.
Ragazzi, allora um qui incomincio e anticipo dei concetti.
I video che genera è molto facile che più sono lunghi e più incominciano a fare cose strane, a succedere cose strane nel video.
Quindi l- io non genero mai video di, 10 secondi, figuriamo di 20 secondi.
Quando diventeranno più bravi a mantenere uno stile coerente, a non creare degli ar- degli artefici durante il video, allora potrebbe essere una f interessante, ma ora come ora, Figurati, non riesco neanche a um creare qualcosa di coerente e um se non qualcosa di veramente molto semplice per cinque secondi immaginiamoci 10, immaginiamoci 20.
um allora um intanto rispondo a due domande.
Intanto che sono arrivate e sarà registrata questa live.
Sì, cioè Marco, faccio subito una domanda.
Ho difficoltà a creare clip con persone che rispecchiano le emozioni, soprattutto quelle negative come tristezza, nostalgia, o che prova a descrivere i consigli um.
O che provo a descrivere con prompt.
Consigli, lo vediamo Gianmarco, lo vediamo un po' um del nella parte finale quella del GPT e barra i consigli che do per creare prompt migliori.
um Consideriamo pro- però che questo qui è un tool dove, c'è molto ancora il processo iterativo.
Quindi adesso vediamo e cerchiamo un attimo di risolvere anche questa questione.
allora incominciamo dalle basi proprio andrò abbastanza veloce qua perché sono delle, considerazioni abbastanza semplici da fare.
Qual è l'interfaccia? Ora qui vi ho messo tre slide, ma direi che ce ne andiamo direttamente a vedere l'interfaccia, no? um sul software sul sulla piattaforma stessa.
Quindi vi condivido questo che è un po' la.
Page di Sora, cioè accediamo a questo sito con Sora.
com, quindi se avete l'account loggato di CGPT, si attiva e capisce subito il vostro, um il vostro account e quindi il vostro la vostra subscription attiva.
Ora um la piattaforma è questa, molto importante, incominciamo dal menù Esplora.
Esplora um c'è una sorta di pagina con video e immagini perché in Sora si possono anche creare, le le immagini con il nuovo modello GPT quattro Image che penso tutti abbiate visto almeno uno studio Ghibli style nel vostro feed.
um Images, l'Imagine c'è un filtro sull'immagine.
um Video, tutti i video, filtro su in video, qui vedrete i video più, um um più apprezzati.
T, um anche qui avete un top di tutto, sempre potete, qui c'è un filtro che potete impostare day, week, month, all time e poi vi dico perché questo è importante.
Poi i likes, molto importanti i likes, poi ve lo dico questi sono i miei like, che ho generato nel tempo.
Poi tutto quello che hai creato, questo è il mio account personale, okay? um Favorites.
Tra quelle che ho creato l' uploads, qui c- c'abbiamo tutte le cose che abbiamo fatto in upload, abbiamo andato in upload, il cestino e poi la cosa interessante è che purtroppo non hanno ancora implementato in CGPT ci permettono di organizzare um le creazioni in cartelle.
Okay, Quindi quando effettivamente um andiamo e generiamo qualcosa, possiamo andare qua con tre puntini a to folder e metterlo su una cartella, quindi possiamo dividere le creazioni per cliente, per dirne una, oppure per progetto.
Okay? Questa quindi abbiamo un po' um elaborato la parte a a la il menù laterale.
um C'è un filtro? Un filtro per immagini e video qua e poi qui le le notifiche, quindi non non è rilevante.
um Ora.
um C'è una domanda, adoro anch'io questo tema, prima domanda, sono, um in ads per un cliente, settore allenamenti, volevo provare una creative video, generata con Sora a 10 secondi, va bene, che ne pensi? Eh quello che ho detto prima, 10 secondi per me um sono un po' tanti, cioè um generiamo effettivamente.
guardate, allora, vi do una piccola tips.
Se voi andate sui top, um fondamentalmente, no? Quindi c'abbiamo un diciamo le le cose migliori.
um I video migliori, le immagini migliori, ma cos'è che troviamo? Troviamo video molto brevi, fateci caso.
È raro che vediamo video sopra i cinque secondi sui top.
E ci sarà un motivo, no? E il motivo ve lo dico io perché sopra i cinque secondi poi le cose non vengono generate bene.
Guardiamo questo pure.
È una camminata.
E e e sta finendo.
Tante piccole cose, questo qui pure è un loop molto semplice, poi dipende quello che vogliamo fare, se facciamo 10 secondi, ma di un'immagine che rimane sempre così, va bene, ma se vogliamo cambiare, eccetera, um la vedo un po' un po' dura la la questione, quindi questo è il mio il mio tip.
Poi c'è sempre un trial and error che si può fare, però generalmente.
su Forum Reti gente che ha fatto veramente un, aggregato su reti ci stanno migliaia di prove perché in questo momento possiamo solo parlare di empirico, quindi a livello empirico, cosa che la gente sta testando, condivide eccetera.
Vediamo che la la cosa preferita sono video a cinque secondi, massimo, oppure 10 secondi ma più lungo.
um Alchemist scrive non so se ho capito bene i like che lasciano i contenuti sola vengono utilizzati da reference da sola per proporre poi gli output di contenuto nei tuoi prompt? No.
Però ti spiego dopo è molto importante mettere i like per un'altra questione, che è molto importante questa questione.
Ricordiamocela che fra un po' um ve la ve la spiego.
allora um poi proprio per i neofiti, per chi non l'ha mai visto, abbiamo qua una, un input dove possiamo mettere il nostro prompt.
Attenzione, facciamo um caso che qui sia selezionato il video e non image perché ovviamente, come ho detto, si possono creare anche immagini.
Su video qua ci sono poche cose da dire, possiamo impostare la proporzione del video, fino ad arrivare a 16 noni nove sedicesimi, quindi um YouTube, real, TikTok e um tre mezzi, due terzi è la tipica quadrata.
Qui possiamo impostare la lunghezza, cinque secondi, um 10 secondi e 15:20 non ce l'ho in questo account.
um e qui la risoluzione, la risoluzione.
04:80, 07:20 si è stato l'altro account, 1000:80.
Ora qua anche le variazioni, quante variazioni voglio della generazione, da questo prompt? Voglio che mi crea una- un'immagine, due, così che posso scegliere qual è la migliore, due di solito lo sweet spot, quello che vi che vi consiglio.
Dopodiché c'è questo qui che è un preset.
Il preset è un ci dovrebbe far ragionare su un qualcosa, perché hai messo questo preset? E questo preset cos'è? È una serie di stili archival V0, film noir, Cardbo and Papercraft V0.
Quando Sora crea questi modelli li crea con degli stili ben precisi, quindi tutti i vari dati che vengono dati nella fase di training saranno un po', sto ipers semplificando, etichettati con degli stili.
e vedremo che questo ci tornerà utile per una tecnica che andremo a utilizzare.
Ora qui potete impostare uno stile, MyCoo sense non lo fate, ma impostatelo direttamente da Prompt e vi faccio vedere poi in un come come fare.
E poi c'è la parte storyboard che a breve vedremo, fondamentalmente possiamo dire, invece di creare un singolo prompt, vi faccio una piccola anticipo, andiamoci, possiamo creare delle schede e descrivere la nostra storia.
Ad esempio voglio un Jack Russell, che corre nel prato.
e poi qua voglio un Il Jack.
Russell si stende.
Sul prato sfinito e tenderà a produrci un video um, Un video ben preciso che segue questa questa metodologia.
allora um Paolo, che differenza c'è tra creare un'immagine con Soro oppure direttamente nella chat normale di GPT? allora Nonostante questo sia un il webinar, diciamo per la correzione video ti rispondo molto brevemente, um la la, diciamo che qua hai un'interfaccia che ti aiuta meglio a impostare il prompt e come lo vuoi, se è verticale, orizzontale eccetera, e c'ha un'organizzazione delle immagini che tu crei per cartelle.
Okay, in CAGPT hai una chat dove c'è un'immagine, adesso CGPT ha creato questa sorta di libreria, non so chi di voi l'ha vista, dove, sotto i prompt avete libreria e vedete tutte le immagini che avete generato, ma questa è stata introdotta da poco.
Diciamo che Sora, è qualcosa che ti permette di organizzare meglio le tue creazioni e averci un po' più di controllo sui comandi.
um Lisa invece ci chiede, io non ho la storyboard, come mai, non ne ho idea, l'unica cosa che mi viene in mente Lisa, che potrebbe essere o un bug, um oppure um s- ha impostato immag- um video invece che immagini perché alcune volte capita anche a me, che um imposto per sbaglio immagine e vedete se se c'è immagine storyboard non c'è.
Magari fammi sapere se se è questa la soluzione, altrimenti se hai l'account plus o pro, e non l'hai sicuramente è un bug, quindi consiglierei di contattare Open EI.
Ora um quindi questa è un po' l'interfaccia è come muoverci, molto brevemente, ma era doverosa per chi non avesse mai aperto Sora oppure è um diciamo è alle prime armi.
Perfetto Elisa, sono contento di aver risolto.
Capita anche a me, quindi tranquilla.
allora Cosa possiamo fare allora con questo? Perché in realtà Sora uno dice eh puoi fare i video, mhm, fare i video significa cosa? E vediamo che ci sono veramente tante, possibilità che possiamo um implementare in Sora.
C'è il text to video, quindi da un testo mi generano un video, c'è Image to video, che questa è una delle migliori per me, da un'immagine di creare un video, soprattutto se è un video molto semplice che non è elaborato.
Video to video, puoi creare e puoi inserire un video, molto breve e ci crei un altro video sopra.
Poi c'è lo storyboard, quindi puoi creare uno storyboard e animarlo, come abbiamo adesso accennato, ma poi lo vediamo.
C'è il remix, quindi puoi utilizzare un contenuto che hai generato oppure un contenuto che ha generato qualcun altro, okay? E um puoi effettivamente andare um a um um migliorarlo in qualche modo.
E scusate, non avevo condiviso la slide, ma adesso ve la condivido così la vedete meglio.
um Quindi stavamo dicendo text to video, image to video, video to video, storyboard, remix, quindi migliorare un contenuto, recut, se un cu- un video che ha generato ci piace, ma solo una parte, possiamo fare il recut, quindi tagliarne un piccolo pezzettino, blend.
Fare una fusione tra due video, e quindi fare un po' quell'effetto dell'immagine del video che svanisce in maniera armoniosa e crea un altro video, e poi c'è una parte loop, che il loop ripete un video con quegli effetti un po' da Eastern Hill che quando finisce ritorna il video stesso.
Non vi preoccupate, li vediamo tutti, adesso questo è solo un accenno.
um OK.
Intanto um rispondo alle domande, animare un'immagine fatta con Sora è f- um è una facilitazione per Sora rispetto all'importo di immagini esterne, e in linea di massima ti dare- ti direi sì, però in linea poi empirica non im- cioè se l'immagine è ben fatta e non è sgranata, anche se non è stata generata da Sora e la carichiamo su, può essere presa di riferimento, però un linea empirica, ti dico che tutto ciò che è generato da EI è meglio letto dalle A.
Soprattutto se è una stesso ecosistema.
Paolo scrive um domanda banale, ma non riesco a trovare dove si vedono i crediti residui.
Grazie um Paolo.
um allora Diciamo che il i crediti residui um Ci sono non c'è una piattaforma dove vedere non c'è una parte della piattaforma dove vedere crediti residui.
Questi appunto, um son dei limiti che ci vengono imposti, ogni tanto quando il server è è carico, soprattutto nel P ci dirà aspettiamo un attimo, e um e ricomincia.
Non c'è purtroppo a livello di UI, um che io sappia ma penso proprio che non non ci sia perché è la parte di di crediti residui.
GTT scrivi top, ci spieghi poi perché è un video molto realistico, la strada prompt migliore, penso lo vedremo, esattamente lo vedremo.
allora Incominciamo a per le applicazioni più semplici, texto video, okay? Questo ecco un video che vediamo in cinque secondi, qui l'ho messo in GIF e se lo vedete un po' scattoso è perché è una GIF animata.
E questo è un po' il prompt, quindi si passa da un prompt a un video, questa è la cosa più banale.
Image to video.
ecco Questa per me a livello di ads è la cosa migliore, nel senso se tu hai un'immagine tipo questa, di una di una casa volante con palloncini, e vuoi animarlo oppure c'è un prodotto, vuoi fare delle micro animazioni e renderlo più dinamico, per me, Sora qui si comporta molto molto bene, quindi, si passa da un qualcosa che è statico ben preciso e si crea una mini animazione e ricordiamoci questo mini, lo vediamo poi.
Poi c'è il video to video, quello che vi ho detto, ho caricato questo video e gli ho detto mi metti l'aurora boreale in time lapse.
Ha cambiato, attenzione, ecco una cosa che ci tengo a dire.
um Là fuori, dove là fuori intendo i social um i social media, tante persone dicono carica la tua foto e te la modifica, oppure chiari il tuo video e te lo modifica.
Non te lo modifica, te lo ricrea da 0.
cioè non esiste un una sorta di su su CGPT o Sora o qualsiasi cosa tu tu carichi un'immagine e ti cambia solo quella parte.
Per fare queste cose ci sono altri strumenti di intelligenza artificiale molto più complessi con una, learning curve molto più alta, ovvero con una um bisogna formarsi un po' di più.
per utilizzare questi tool.
Alcuni sono più semplici, alcuni meno semplici, dove si possono fare queste cose.
Ma laddove utilizziamo Sora, cioè GP, quando carichiamo un'immagine in questa immagine verrà solo presa di reference.
Quindi se io carico un video del genere mi ha cambiato il ponte, cioè prende gli elementi, capite, riesce bene a capire.
spazio latente di questo video, eccolo qua, ha capito che era un time lapse, ha capito tutto, ha capito che c'erano delle delle strade con delle macchine che passavano e ha ricreato questo con effettivamente il mio prompt che era mettici una Northern Light.
Questa è un'applicazione molto interessante, carichiamo un video.
E magari diciamo cambia lo stile.
Se prendiamo una macchina ad esempio, um il video di una macchina che va in mezzo a un torrente di una alla scusate, una strada in mezzo alla montagna e diciamo me lo fai accartonato, c'è la ma- l'immagine di un cartone di una macchina che va, in mezzo alle montagne.
Qu è una tips molto interessante, perché se tu gli dai il video più o meno mantiene tutto quello che tu fai, però cambia lo stile.
Ho visto delle persone su su Reddit e poi l'ho testato anch'io in cui prendono dei piccoli modellini di auto, le fanno andare avanti, queste riprendendole sulla sulla scrivania, caricano il video di quest'auto che gli fa fare un be- un percorso ben preciso e poi gli dice mettici una Ferrari, mettici una Lamborghini, mettici un'altra auto e c'hanno un video coerente con la scena che vogliono fare.
Quindi questa parte.
Video to video è molto molto interessante.
Ora ragazzi, genereremo dei video, ma per motivi ovviamente di tempo sapete meglio di me quanto ci vuole a generare un video e alcune volte anche sei sette minuti.
Se adesso ogni cosa che dico genera un video, finiamo il il il webinar, con due tre concetti messi in croce.
Però adesso li vediamo e facciamo anche la pratica, non vi preoccupate.
Davide scrive come mai qui vedo dei- dei personaggi famosi, ricordavo che viola la content di Cha CPT.
Eh bella domanda, Davide, um effettivamente sì, però abbiamo dei limiti, diciamo un po' larghi a maglia larga, su.
soprattutto su Sora, um molto più stretti quando si utilizzano le PI.
Quindi se lo si utilizza a livello professionale questo software tramite delle connessioni esterne, i vincoli sono molto più stretti.
Qua c'è una maglia larga, è una sorta di zona grigia che accettano.
Poi storyboard, come abbiamo visto, eccolo qua.
um Questo qui per esempio è uno storyboard di un Jack Russell che alla fine doveva cadere a terra, ma non è caduto a terra ragazzi.
Questo che significa? Che le storyboard, bello e tutto, infatti poi alla fine di tutto io ho fatto una tear list, ovvero una classifica di quali sono le features migliori, quelle che falliscono di più, quelle che falliscono di meno.
Storyboard crederete che sta, quasi alla fine, se non alla fine, adesso non ricordo bene se è per ultimo o ultimo.
Però um perché bello è tutto um però, non rispetta lo storyboard ancora o se lo rispetta veramente devi averci una fortuna quasi daalotto.
Limiti, ricominciamo subito con i limiti e poi andiamo a sulla prova e tutto.
allora il limite principale è che c'è una difficoltà con l'interazione con gli oggetti.
cioè Quando cercate di far connettere due persone una mano con una mano, vedete una cosa del genere tipo.
Magari le le le le dita le vedete bene oppure quando 22 due oggetti fanno entrano in contatto, ha una difficoltà.
Ovviamente ragazzi, voi mi dite, ma Silvio, ma di cosa stiamo parlando? 2000:23 c'era questo e nel 2000:25 c'è questo, e non mi sembra che ci siano poi così tante problematiche qua.
ecco.
Questo il vero problema è il cherry picking.
Okay, il cherry picking è cercare qualcosa che funziona cioè in Sora, poi non dico che in altri strumenti più avanzati non si possono fare, ma in Sora, quindi quel modello che avete dentro c'è il GPT, in tutto il carrozzone della P che pagate 20 $ al mese, là il contatto a due dei Getti è ancora problematico.
Quindi attenzione quando dovete far toccare due persone, il batti, queste cose qua, cioè, le cose più comuni le fa, ma quando c'è un'interazione tra due oggetti, succedono cose strane.
Poi non ha ancora pieno controllo sui dettagli, anche con prompt precisi a volte aggiunge elementi non richiesti.
Serve fare 510 generazioni prima di ottenere il risultato voluto.
um Questa è una media ovviamente empirica, eh? Come ho detto, um tutte queste lezioni si basano sullo studio dello strumento a livello personale e sul ovviamente, per quanto possa averlo provato, la mia esperienza si limita a al mio tempo materiale e quindi mi sono appunto ho delle community di persone che lo fanno tutto il giorno, professionalmente.
Solo video generativo e ai e questi sono i limiti che ho preso anche um confrontandomi con loro.
E loro dicono che il media ci vogliono 510 direzione perché è qualcosa che effettivamente ha controllo su dettagli ben precisi.
Ad esempio che il colletto qua doveva essere scuro e non blu come la maglia, mhm? Questi dettagli stiamo parlando.
Movimenti complessi poco realistici, um ragazzi qua è è veramente um molto molto importante quando si chiede di far saltare soprattutto un movimento rigido oppure un movimento che è strano, lo fa ancora male.
um E quindi um ci sono ci sono effettivamente delle delle problematiche.
Uh, sì, guarda.
Poi ho visto che in chat state comunicando.
Perfetto.
Se posso contribuire, OpenI è un documento che si chiama System card che divide i soggetti in persone pubbliche e persone comuni, per soggi famosi, eccetera um comuni, diritto pieno e inviolabilità della riservatezza.
Perfetto.
In- in con l' EPI neanche quelli famosi o testando riescono a generarli.
Ad esempio, vi faccio un esempio pratico per generare un per per dirvi un po' il tutto.
Quando ho fatto, adesso ve la ripesco eh.
Ve la ripesco qua, um scusate, visto che siamo in argomento, condividi questa scheda.
Andiamo su My Media, ho generato tempo fa, mi ricordo, una immagine di Emma Stone.
um Eccola qua.
Non mi prendeva in nessun modo un, questo è il è il prompt, non mi prendeva in nessun modo Emma Stone, anche se era un personaggio, um Diciamo um pubblico, no? E ho dovuto mettere um Portrait of La La Land actress, quindi ho messo l'attrice e La La Land e ho eluso il limite è così e probabilmente appunto c'hanno delle de- dei dei limiti a maglia larga e sono stati inclusi, però, paradossalmente anche alcune volte dei dei personaggi pubblici non li prende e quindi lo aggiri dicendo guarda l'attrice del film che ha fatto La La Land, Emma Stone.
Altra piccola tips che vi dico, comunque grazie 1000 del contributo.
um Alchemist.
um Condividi questa scheda, movimenti complessi poco realistici, non gestisce bene istruzioni troppo specifiche, okay? Cowboy che fa una smorfia mentre si alza gli stivali ot trae solo la scena drammatica, ma nessuna smorfia nel gesto specifico.
A e ambienti spesso stilizzati oppure errati, non è assolutamente bravo, quindi ecco dobbiamo, um un po' quello che vorrei farvi capire in generale nei limiti è che ci servono tante interazioni, e poi un'altra cosa che dobbiamo fare è che se vogliamo fare qualcosa come lo pensiamo noi, con i dettagli che diciamo noi, eccetera, scordiamocelo.
Invece se lo utilizziamo come un tool per avere una, un in- gli diamo un'indirizzata e poi lasciamo che anche lei metta il suo, più realistica questa aspettativa.
allora a questo punto cosa funziona? um e poi andiamo a generare appunto un po' di vino, andiamo a vedere.
allora Generazione di volti umani dettagliati, abiti complessi e ambienti fantasiosi.
allora Questa qui i i i i volti ragazzi, funziona molto bene e se vogliamo, questo era uno dei primi prompt, adesso ve lo faccio vedere eh, condividi questa scheda.
Questa che vi faccio vedere è una delle prime prove che feci.
Chissà se era questo account o no, um era un altro account? Ah no era questo account ecco.
Guardate quanto è realistico questo volto.
Guardate i capelli, guardate i denti, le gengive quando li apre.
È è molto molto molto importante, quindi i volti, probabilmente è stato un parecchio training fatto su um persone umane, um riesce bene a gestirli e a a darci un po', il tutto.
Riconoscimento etnie, acconciature particolari, anche qui, molto bravo nel riconoscere questo.
È particolarmente bravo sugli animali, non si sa perché, tutti lo dicono nei vari forum eccetera negli animali è il, number one.
non so se vedete su Explora, quando entrate e vedete tutte le generazioni, quasi tutti si basano sugli animali.
Stile e atmosfera, sono è bravo a cogliere l'estetica di un genere, questo è molto importante, ricordiamocelo, um Vi ricordate, è collegato anche a quella piccola um finestrina che abbiamo in Sora, ve la faccio rivedere, um questa piccola um finestrina.
Di stile, ecco.
È collegato a questo, quindi è è bravo nel far questo, e um prom semplici, meno azioni meglio funziona, okay, quindi poche azioni, riprese statiche o movimento lento.
Questo pure è un qualcosa che aumenta di tantissimo la qualità.
cioè il già sono ora di suo creare i movimenti, se noi dicevamo un movimento della camera qua a destra e a sinistra, questo qui si è visto che spesso e volentieri ti girano un video, di pessima qualità e quindi devo reiterarlo più volte.
Perché già lei inserisce i movimenti, più è più vogliamo movimenti rapidi e più si perde.
Questo in realtà perché? Perché è una cosa molto interessante.
Da un punto di vista proprio um tecnico, il modello, cosa come come fa a generare il video ipers semplifico, di prevede il prossimo frame, prevede il prossimo frame, prevede il prossimo frame.
Quindi più questi frame vanno velocemente e più difficilmente riesce magari a a creare una coerenza, più invece si muove lentamente e meglio è.
Ora, questi che vi sto facendo vedere sono tutte caratteristiche che inserite nel se inserite nel prompt, si è visto che aumentano di molto la qualità della nostra um del nostro video che generiamo.
Il primo sono le inquadrature, le camera shots, non so c'è qualcuno in chat che magari è un video maker, video editor sicuramente.
Anche videomaker, fotografo eccetera, ecco tutto quello che sapete la fotografia potete tranquillamente darlo in pasto perché um Sora è molto um è molto molto brava nel um dare, nel prendere questo stile.
Rispondo a va- a Valentina? um Sì, sì, le le avrete, ma avrete anche un GPT dove ho messo dentro tutte queste informazioni e vi genera prompt già tenendo in considerazione di tutte queste informazioni che stiamo vedendo qua.
Che vi ho detto adesso a livello empirico a me ha dato sempre video utilizzabili, poi vediamo.
Quindi il primo punto è l'inquadrature, primo piano, quindi vuol dire così.
um campo medio, Campolungo panoramico vuol dire la prima um di solito, il primo il primo frame di un qualsiasi, film di solito è l'establish shot, quindi lo shot che stabilisce dove siamo, ecco quello lì.
Low angle quindi visto da sotto.
Quindi la solita inquadratura alla Tarantino, quando apre il baule, um sia su Pulp Fiction che in bastardi senza gloria.
Low angle cioè ce ce ne stanno tante, okay, e dobbiamo utilizzarle.
Stile e colori, okay? Quindi stile anche che tipo di telecamera.
Non vi preoccupate, avevo creato una lista con tutte le telecamere la tipologia qua che potete utilizzare.
Però quello è molto mol- è è è molto ghiotto di queste informazioni e c'ha delle reference ben specifiche.
Se voi non dite niente, sceglierà sempre uno stile lui.
È perché lui poi nella memoria latente ha diversi stili.
Poi color grading, possiamo dirgli anche che toni vogliamo abbiano il video, più freddi, più caldi, Ten Orange che è la tipica color correction di Netflix.
Poi movimenti di camera, evita di scrivere zoom, pan tilt, se proprio vuoi usarli fallo con parsimonia e testa i risultati con prompt brevi.
Quello che dicevo prima, non gli dite di fare 1000 movimenti eccetera, perché sarà un bagno di sangue.
cioè dovete farlo 567101520 volte fino ad avere qualcosa che alla fine poi è difficilmente utilizzabile.
Okay? Illuminazione, anche qui, um ci sono diversi tipi di illuminazione, okay? Per esempio quella che sto avendo io adesso in questo momento è un'illuminazione sembrante in cui prende l'illuminazione di meto volto e si crea un triangolino di luce qua, per se non siete esperti di um di fotografia, um non vi preoccupate, non vi preoccupate perché um, Il il vero punto è che basta che capite due tre concetti e li utilizzate un po' come un pappagallino stcastico che um questa è una battuta di un ricercatore di intelligenza artificiale.
Basta che sapete effettivamente il concetto e lo applicate, se siete fotolofici, sapete queste teorie ancora meglio, okay? um Che poi se non sapete una di queste cose, googleate quali sono le tipologie di illuminazioni, quali sono queste anche fosse una miniformazione anche a livello composizione, barra illuminazione potrebbe sicuramente essere um interessante.
um um allora um.
um Elisa um grazie 1000, grazie 1000, cercherò di esserci, cercherò di esserci.
Sto testando un sistema ancora non funziona, approfitto per un confronto con te Silvio.
Perfetto, vediamo al prossimo commento.
Per movimenti complessi crea un'immagine con C CPT, poi creo piccole variazioni come se fosse una GIF, um come se fosse una GIF.
Per movimenti complessi crea un'immagine con CCPT.
E allora, per movimenti complessi la l'unico punto è andare su trial and error.
Per- e soprattutto il prossimo consiglio che vi do, che forse è il è il più è il più grande.
um Ti dico quello che ho che ho testato, um s- start frame e end frame.
Quello quello potrebbe funzionare Alchemist, poi adesso lo spieghiamo meglio, ma soprattutto, quello che vi consiglio di fare è questo, ruba come un artista.
Non so chi effettivamente di voi ha letto questo piccolo libricino, il concetto è che um um 11 ladro copia un artista ruba, quindi prendi ispirazioni da più fonti e poi li utilizzi.
C'è una funzionalità che forse è la più sottovalutata, più sottovalutata, che è questa.
Che quello che vi ho detto, mi raccomando i likes sono importanti, adesso capiamo perché i likes sono importanti, perché noi possiamo andare su video, okay, vedere tutti i video che funzionano, E potenzialmente poter giocare con questi variazioni.
Ora io vi sfido a trovare un video che funziona, e replicarlo e non avere qualcosa di veramente molto simile che funziona e magari da lì andare a fare piccole variazioni per arrivare al tuo risultato originale.
Vi ricordate quello che vi ho detto? I limiti voglio riassumerli.
Io quando ho parlato dei limiti, voglio riassumerli in non potete fare video molto.
Complessi e è più e video con tanti dettagli, dicendo per esempio che questo schizzo qua, adesso ve lo faccio vedere, no? Questo piccolo schizzetto qua deve essere un po' più alto, um c- non possiamo, diamogli un po' la guida e lasciamolo andare.
Perché nel momento in cui noi facciamo così andiamo a creare nella nostra libreria di likes, tante piccole ispirazioni che possiamo andare a prendere e modificare, perché se io asso modifico uno di questi video, È molto, ma molto molto probabile che venga un video buono come quelli che stiamo vedendo.
Poi modificando, facendo piccoli habitest, modificando delle piccole parole, andiamo a migliorarlo.
Voi mi dite Silvio, però così devo sempre basarmi su qualcosa di altrui.
Questa è una tecnica, se volete fare qualcosa da 0 adesso vediamo il GPT, lo proviamo e andiamo all'azione.
Però se volete nel io quando ho dei tempi morti, entro, vado su Explora e pian piano mi segno sia le immagini che i video che mi piacciono e che voglio replicare.
um E poi, come ho detto, non dobbiamo ri- replicare lo stesso video, ma magari vediamo, ad esempio nella domanda che mi faceva, prima non ricordo chi, come faccio a fare delle delle immagini di persone tristi, non non non riesco, okay? Ad esempio possiamo prendere questa qui, vedi, è triste.
Ora, come ha fatto questa qui per creare un'immagine triste? Molto semplice, t'ha risposto, ha preso un'immagine? Era già triste, quindi una tecnica che già vi ho dato, che è molto buona, dare una reference di immagine, e poi lasciare che lui faccia il resto.
E quindi questo è un, come superare un limite, se non lo prende da prompt, probabilmente andiamo a generare prima un'immagine di reference e poi abbiamo il prompt.
Questo è un po' quello che voglio fornirvi che per me è molto importante dare queste reference um um di di um funziona molto.
Ma adesso arriveremo al prompt.
um Datemi un attimo un secondo, eccolo qua, condivido la scheda, quindi ruba come artista.
Questa è un po' la mia classificazione tier list.
cioè um se vogliamo prendere tutte le cose che abbiamo visto, adesso le vediamo magari un po' meglio nel dettaglio.
Texto video lo metterei tra le tante come la migliore.
I to video perché l'ho messa qua in realtà? um Perché funziona per queste piccole cose qua, ma se noi vogliamo fare qualcosa di complesso, di un po' più complesso, oppure vogliamo averci controllo, vedete quella ragazza era triste, ha messo solo l'immagine e ha fatto un buon video.
Ma se io avessi voluto dire no immagine deve essere in questo modo, in questo, vedete che poi è molto meno bravo.
Loop? L'ho messo qua perché in realtà fa il suo, guarda, dopo vi faccio avere degli esempi.
Video to video l'ho messo qua perché in realtà se da un video di referenza e vuoi cambiargli lo stile e dire fallo cartonauto funziona abbastanza bene, anche qui l'abbiamo visto prima, no? Come, um cambiare, mettere una nuola boreale, eccetera.
Remix l'ho messo qua, remix cos'è che è la capacità, di andare a ispirarci da un prom per crearne un altro.
Poi c'è recut, l'ho messo qua perché devi tagliare un video e generarne un altro, funziona male malino.
um Blend, stessa cosa, son due fotogrammi, 222 video che possiamo prendere e creare questa armonizzazione non funziona bene e storyboard pure non funziona bene.
Ma siccome il tempo è poco io vorrei andare adesso la pratica, vi faccio vedere direttamente questo GPT che ho creato e poi andiamo a vedere queste funzionalità un po' dal vivo.
allora Il GPT um è a questo link qua che vi lascerò nelle slide, vi faccio vedere come l'ho creato.
Qua ho introiettato dentro appunto tutti i vari stili, okay? Guardate che cosa ci s- c'è qua dentro per esempio, vi faccio vedere um questo PDF.
Tutte le cose che abbiamo detto, categorie principali lighting, ambient lighting, foggy, drammatica, eccetera, quindi ha tutti gli aggettivi che gli servono per capire da mettere dentro il prompt.
E poi nell'altro PDF invece ha, um una sorta di guida che abbiamo la guida che avete, Che avete in qualche modo anche voi um seguito tramite questa parte teorica, um laddove avete tutti i vari strumenti per andare a capire limiti pro e contro.
Come funziona? Lo vediamo subito.
Andiamo soggiorno un attimo.
um Okay? Visualizza GPT.
allora Fondamentalmente dobbiamo, possiamo o fare training, tipo come scrivere un prompt, come scrivere un prompt.
Quindi potete utilizzare questa lezione un po' in maniera interattiva, se volete.
Formula consigliata, soggetto principale, più azioni, più ambiente, più v- eccetera.
Oppure fondamentalmente possiamo incominciare a dire, voglio che mi crei un prompt di una ragazza triste, Che um guarda.
Il vetro.
E qui massimizzi il la probabilità che il video sia di qualità, poi um il caso vuole che ha, che magari adesso genera un video non non bello, però dai, ci fa parte è il bello della diretta.
In linea di massima, um scusate, questa è la scheda, eccolo qua, il lo stavo provando, era rimasta nella nella vecchia.
um Grazie 1000, scusate.
Ho ho detto voglio che mi crei un prom di una ragazza triste che guarda il vetro.
um Lo troviamo GDT, Elisa, Marco, lo lo lo andiamo a vedere direttamente um lo trovate tra gli sia sulle slides che tra le risorse.
caratteristiche tecniche incluse, lighting, Windows lighting.
Vedete, ha messo questi questi aggettivi, ha messo il close up with foreground blur, ha messo Harry Alexa Mini per per chi fa video making sa che che camera è la Harry molto molto bella, romantic drama modern.
Modes consigli, se vuoi una variante notturna, posso sostituire l'illuminazione con Moonlight più Window B L.
ecco Insomma, avete una sorta di assistente che vi guida nella struttura di un prompt, che potrebbe generare 111 qualcosa che è più allineato a, le aspettative di che che dovremmo avere.
Quindi in torniamo su Sora e mettiamolo subito.
Andiamo qua, cambiamo su video.
um faccio a 04:80, così lo vediamo subito il risultato.
Okay, young woman with a pale skin.
Okay, andiamo.
E una volta che abbiamo messo invio, abbiamo qua nella coda.
Nel mentre, um in- um GDT dice intendevo se era già dentro c'è il CPT.
Ho fatto una prova e invece no.
No, no l'ho creato io questo questo prompt si chiama Maestra di prompt Sora.
Ho preso tutte le vi dico la metodologia che ho utilizzato.
Ho preso tutte le informazioni più rilevanti a livello empirico nelle fonti più autorevoli, le ho messe insieme, ho creato una serie di aggettivi che di.
di shot, tutto quello che abbiamo visto che migliora effettivamente la qualità del della del prompt e quindi la qualità del video successivo e li ho messi tramite dentro questo GPT.
Questo GPT potete farci formazione oppure chiedervi di descrivere un prompt seguendo le linee guida.
E questo lo sa già nel System prompt ho messo questo.
Quindi adesso avete il link a poi a questo GPT lo potete utilizzare.
Nel mentre andiamo a vedere un po' le altre caratteristiche che vi ho detto solo a voce, ma in realtà non l'abbiamo visto, ecco, mettiamo che, ci piace il nostro quest- quest- questa questo video, no, vogliamo farci una video adds ma carina.
allora Andiamo, vi ricordate quando vi ho detto ap.
in questo caso, um Possiamo fare un recut, quindi quella che vi ho detto che non è una grande opzione questa, almeno a me non non piace perché tra l'altra, tra l'altro, è una cugina dello storyboard, perché se andiamo sul recut vi faccio vedere quello che possiamo fare.
Mettiamo che mi piace solo questa parte qua, no? Perché qua poi salta.
Cosa che vado a fare? Vado a cambiare, a a fare un cut qua, e qui tramite delle schede posso dire come voglio che il video cambi.
Okay? Questa è la sezione di um di um reat, okay? Vediamo um non posso mandarvi l'invio perché c'ho già un invio, però avete capito come funziona, potete tagliare il video e metterci altre schede.
Adesso, in questo giorno 30/04/2000:25, non ve lo consiglio come opzione piuttosto tagliatelo mettete in un altro video.
um Sono più le attivazioni che dobbiamo fare, che effettivamente poi la qualità di quello che esce fuori.
um Poi c'è il blend, come ho detto sul blend possiamo fare l'upload di un altro video e mixare questo video con un altro.
Ad esempio io faccio, posso fare il blend um, um Di um questo video qua, con questo.
Carichiamo il video, sta caricando.
Vi faccio vedere un po' la la quello che succede quando fate blend.
E quando fate blend dite voglio che passiamo da questo video a questo video qua, con dei droni che aiutano dei piccoli omini che stanno fa- um facendo la maglia.
Qui possiamo cambiare la tra- la transizione o manualmente oppure tramite questo, questo menù che cambierà la rigidità, del del processo che porta da un video all'altro.
Okay? Quindi c'è transition blend, sample, anche qui è una transazione tra un video e l'altro.
Non ve la consiglio, um s- provatela, provatela, magari vi piace, però alcune volte fa qualcosa che sembra quasi il il um, Il f- l'effetto fantasmino darà una slide e l'altra.
Però intanto è giusto che sappiate come si fa e poi è giusto che vi dica quali sono le esperienze personali barra quelle che ho preso un po' in giro.
Loop, ti crea un loop da un video, guarda ho fatto proprio oggi 11 esperimento per farvi vedere anche qualcosa che da questo video qua um da da un video che avevo generato sotto che era questo video di umanoidi, okay, questi video fatto sempre con cioè GPT, gli ho chiesto di creare un loop a questo video qua.
E questo è quello che m'ha generato, vi faccio capire la differenza tra un loop e un video normale, vedete? A una certa, vedete che questo va avanti e va all'infinito questo loop, perché tutto connesso.
Possono farlo andare avanti all'infinito questo video.
Vete, rientra sullo stesso frame di uscita.
Abbiamo creato un loop.
Né più né meno, quindi potete prendere un video, anche qui mio consiglio, prendete un video che è già predisposto per il loop, dove c'è un movimento, um- um um verso lo schermo, oppure uno zoom out, oppure un ciclo, Vete a prendere qualcosa che a mio avviso funzioni, questo è My sense.
A tal riguardo.
um Dopodiché andiamo sempre sulla parte video, così faccio le le altre in pratica.
Cos'è che non abbiamo visto nella nella piattaforma Rat l'abbiamo visto.
Abbiamo visto un po' il um um il il remix non l'abbiamo visto.
Cos'è il remix? Semplicemente utilizzare questo video per cambiare, Il il video, quindi utilizziamo questo video di riferimento e diciamo voglio che la balena um si muova, voglio che la balena diventi un elefante.
Okay, quindi un remix vero e proprio.
Poi come fare per dare ad esempio delle immagini di reference oppure voglio creare effettivamente una, un video da un'immagine, ma semplicemente carichiamo l'immagine in questo caso dal dal più, E andiamo a um a scrivere un pronto, voglio un video di questa ragazza, ad esempio, prendiamo, andiamo su immagini.
Faccio vedere.
um Mhm mhm mhm mhm mhm prendiamo un'immagine, poi ovviamente c'è da divertirsi nella fase explore.
Veramente è qualcosa di di divertente.
Okay, ad esempio possiamo prendere queste immagine qua e questa, ci sta.
Ho fatto uno screenshot.
An- andiamo a caricarlo questo screenshot upload from device.
Una scrivania Okay.
Ora il modo migliore che a mio avviso funziona sempre di più è non scrivere niente.
Silvio lo so e non dopo non c'hai controllo.
È vero, però se vuoi un video dove non ti interessa molto il fatto di avere un controllo ma vuoi solo un'animazione nella foto, basta che inserisci un'immagine, e poi mandi invio, è la più alta probabilità che venga un video buono.
Quindi qua scegliamo ovviamente la um come lo balliamo, facciamo due terzi.
um Nulla, ecco rispondo a The Alchemist.
um che aveva scritto prima un qualcosa sul sullo storyboard.
Okay? um In questo caso quindi qua possiamo incominciare a, um mettere un'altra foto, quindi non so se era questo il workflow che avevi um sperimentato tu, mi chiedeva qual è il modo migliore per, intanto ci ho generato il video, fra un po' lo vediamo.
Qual è il modo migliore per avere una coerenza di un movimento complesso? Cappello iniziale è molto difficile um così, però al netto del cappello iniziale è questo, immagine iniziale, immagine finale, e qui quello che vuoi, su una storyboard e poi cliccare invio.
Però con il grande però, e c'è mio zio che dice che tutto quello che sta prima di un però non vale, um funziona male questa cosa qua e lo storyboard funziona male um.
Ci vuole tanto tanto tempo di testing.
um Detto questo andiamo a vedere come come come è stato generato il video.
Ragazzi, che dire? Eh? Non m'ha fatto fare una brutta figura dai.
Oddio, questo un pochino, ma no, no, anzi si è comportata abbastanza bene, sta facendo una magia, non so cosa sta facendo con quella mano.
Però questa diciamo che potrebbe essere interessante.
Qui è uno sguardo un po' troppo verso la camera, comunque um la qualità è come vedete, è quello che volevamo un, forse non troppo triste? Poteva essere più triste? Non lo so.
Comunque un po' di interazioni, però se non altro non abbiamo quelle ar- artifi- artificio eccetera e abbiamo un moot che possiamo controllare completamente.
um.
Questo è un po' è u- è un po' um il il modo, a mio avviso che si possa utilizzare, quindi vogliamo creare, ad esempio una piccola, um andiamo un attimo su use case finali, okay? Piccoli video così che possiamo utilizzare come Ble su reel, eccetera, fenomenale.
Piccole animazioni di product, di prodotto, quindi si inserisce appunto il proprio prodotto, a meno che non ci sono 1000 scrine piccole eccetera, avere qualcosa di effettivamente carino che possiamo animare, potrebbe essere interessante.
Altra piccola tip, mettiamo che il prodotto è fisso e c'è un'animazione intorno al prodotto, okay, tipo delle gocce che scendono qua.
Ricordiamoci che non è che, Dobbiamo per forza automatizzare tutto il processo, magari esce fuori un video, con una bottiglia in cui le scritte non sono state rispettate eccetera, ma l'animazione intorno, sto ipotizzando il video di una bottiglia in un profumo, um tutto quello che è intorno funziona.
Cosa fare? Andare a prendere la parte che non funziona e sostituirla in un video editor.
Però abbiamo economizzato un po' tutto quello che è lì intorno.
um Valentina, allora per il piano P sì, per il piano um da 200 $ al mese no.
Come faccio di solito? um Assolutamente, facciamo un animazione immagine.
Facciamo animazione immagine.
um Quella quella che abbia che abbiamo fatto adesso, choose from Library.
A P F D Design.
Volete che proviamo, allora quello che propongo io è al 100 percento, se la lascio così c'abbiamo, molta più probabilità che il video funzioni, se scriviamo qualcosa può essere che ci stanno gli artefatti.
Cosa volete provare? Poi finisco a risponderti e Valentina, sono rimasto a metà.
e e ti rispondo.
Proviamo così.
Valentina no, il il metodo che utilizzo io è il CAT, tagliare sotto, se non vuoi parlare di 200 $ al mese quando lo faccio il mio personale, poi c'ho quello aziendale con i con i miei soci in cui abbiamo senza logo.
Per il watermark però ecco um sul P tu lo hai, quindi due sono le soluzioni, una una um, diciamo.
U- una un una clean una un po' meno clean non sapevo come dirlo.
Quella clean è tagli, quindi genera appunto un video e tagli quella parte di video, okay a me mi serve in 16 noni e quello è un problema.
Un'altra cosa ci sono tool di intelligenza artificiale che ti tolgono i frame con l'animazione logo, okay? Sennò la cosa giusta da fare sarebbe pagare 200 $ al mese, oppure utilizzare um l' API.
Quindi con l' API di um intanto che aspettiamo la generazione, Ah caspita, alla fine che ho dato un'immagine, sapete? Ho sbagliato? A proposito di di prima, um pam pam pam pam, remix.
Credo di sì, allora vediamo, facciamo un attimo.
un lo rifacciamo al volo così, qualora avessi sbagliato.
due terzi.
OK.
Facciamo normale.
OK e diamolo.
um ecco Vedete qua you can only generate one image or video at the time, quando in realtà c'è scritto che possiamo fare di più.
Però ecco, um puoi utilizzare l' API, quindi se fai un piccolo programmino, Uh, sì, aveva fatto aveva fatto l'immagine.
Scusate, ragazzi, la rifaccio.
um Se utilizziamo, se puoi puoi creare un programmino oppure un qualcosa che è un software che ha l' API e paghi a consumo.
Okay? E ci sono qua, se andiamo sul sito di OEI, adesso vi vi condivido lo schermo, API Sora.
Ve lo condivido subito.
allora condividi questa scheda, eccola qua, intanto che genera il video.
Se andiamo su Sora, um un build video.
Ah ah ah Ve lo faccio sapere, ve lo faccio sapere questa cosa qua, adesso n- non non vorrei perdermi nei vari, 1000 siti openeai, però c'è un costo specifico.
C'è un costo specifico per generazione, dovrebbe essere intorno ai 3040 centesimi per un video, um 1000:80.
um Qualcosa del genere, però ve lo faccio sapere e ve lo integro poi nelle slide subitissimo, senza che adesso perdiamo tempo.
um piuttosto torniamo un attimo qua che faccio vedere questa cosa qua.
Mhm Paolo Bianchini dice ciao a me rimane il watermark animato in basso nel video anche su quelle 200 $, forse perché, l'ho fatto come privato e non aziendale o sbaglio qualcosa? Grazie Paolo.
No, dovresti non poter non avere il watermark um Paolo, io lì contatterei un attimo il, Do- do- dove dove l'hai generato.
Forse lo stai generando con quella di 200 $ al mese.
Qua su My plan um dovresti um dovresti avere questa cosa qua.
um um.
Qua dovresti avere no watermark.
Dimmi un po'.
Prova.
um Gianmarco Catalgo um um aspetta non ti seguo, um quando scrivi quai.
allora Antonio Polato, scusami mi son perso la tua domanda, i video poi finiscono tutti nella sezione pubblica Explora o posso tenerli privati? um Questa parte qua um è una parte molto interessante um perché um in realtà, tutto quello che generi in in teoria avendoci il il nickname, puoi um vanno nella parte Explorer.
Devo essere sincero, qua adesso ti um non non so benissimo come funziona ma faccio una piccola ricerca e anche qui integro nelle slide.
Questa parte devo un attimo vederla come funziona, perché in linea di massima direi che, nel P non puoi e nel pro c'è un'opzione però voglio essere sicuro e te lo cerco.
Non sono mai stato così attento su questo aspetto.
Come vediamo, infatti mi sembrava troppo strano che avessero, Avessero creato queste immagini così velocemente, aspettiamo un attimo, intanto se ci sono altre domande, Intanto per chi um vuole poi ecco, avrete tutto um nella nelle slides.
Farei aspetterei un attimo in questo momento e vi condivido un pensiero mio personale e e come gestire se siete interessati nella parte generativa video, fare un discorso un po' più ampio, se siete d'accordo.
um, Qui avrete tutto, come ho detto, qui la parte question answer e qui la parte finale, intanto che, um intanto che finisce questa, faccio un discorso più ampio, se siete qua è perché siete interessati nella generazione video um, Quindi, cosa fare? ecco rispondo anche te, nel caso di set- di um di settore allenamenti, cosa faresti? Rispondo anche a questo in generale.
Ci sono diversi tool, ovviamente per comodità abbiamo un tool molto um semplice, dentro c'è la CPT, che con piccole accortezze si può creare dei video che possono essere utili, se manovrati a dovere e se integrati, magari con un piccolo di, post production barra con tutti i limiti del caso.
Però, ci sono dei limiti, quindi se volete esplorare questa zona, la cosa migliore che dovreste fare è informarvi a tutto tondo, poi magari ecco non si sa mai, faremo anche altri webinar con altri tool.
Abbiamo fatto questo perché nel rapporto qualità prezzo di CGPT, 20 $ al mese per avere tutti questi tool è fenomenale.
Però se pensiamo per esempio.
alla videogenerazione, cioè pensare a un Kling, Kling, un altro modello di di videogenerazione oppure Vo due di Google, oppure altri strumenti open source, ne è uscito uno gratuito che puoi scaricare direttamente nel tuo computer che si chiama Frame pack, Frame pack.
Questo questo tool ti permette di generare solo video da immagini, ma fino a due minuti.
E video coerenti, che sono ben fatti.
L'unico piccolo limite di quest'altro video, di questa generazione video è che, non segue bene le istruzioni, però il video è coerente, c'è un balletto, puoi fare anche un balletto TikTok eccetera.
Insomma, non avere Sora come unico riferimento, ma se volete approcciare questo mondo, cominciate a creare un una sorta di conoscenza in base a questi strumenti.
Poi dipende qual è il vostro focus, se il focus è solo questo, Ti consiglio di farlo, sul focus è questo e altro in generale, Padroneggiare questo strumento Sora è molto interessante anche perché l'introduzione che ho fatto iniziale vale, ovvero oggi abbiamo questo strumento, ma domani cosa abbiamo? cioè da se da qui a un anno siamo passati da questa da qui a due anni siamo passati da, da questo a a qualcosa del genere, questa qui è fatta col Kling.
Dove arriveremo tra i prossimi due anni, quindi, un po' di pazienza per me ci vuole e barra um capire, Il livello, arredamenti, arredamenti quello che si può fare in primis, um Neanche a farlo apposta, se andiamo sul mio um sulla mia cronologia del mio personale, abbiamo qualcosa sugli arredamenti.
Qui era un post LinkedIn in cui avevo detto, un modo per utilizzare CGPT Image um se sei il se il settore immobiliare.
Tu hai una foto di un di un ambiente.
Puoi creare effettivamente una un un'alternativa di questo ambiente già arredato.
Stessa cosa puoi fare con il video, una volta che ce l'hai puoi, puoi effettivamente, questa qui potrebbe essere un ads, co- come ag- agiremmo a livello di AS? Stiamo nel settore immobiliare, non so adesso qual è il settore ben preciso è B two C, B two B, um B two C, non non non non non non lo so, però, per dire se questo qui fosse un servizio immobiliare nel quale um, Scusate, scusate.
Se fosse, eccolo qui, neanche a farlo apposta ho fatto questa questa immagine qua, questa potrebbe essere un, okay? Dove ho qui ho fatto un post link in cui dicevo fondamentalmente con le nuove API di Open EI, possiamo creare dei piccoli software che permettono al real estate, ad esempio.
Di dire al cliente finale, guarda questo è come um ques- questo è un servizio che possiamo fare per fra virgolette abbellire i tuoi spazi.
Quindi passare a un'immagine statica, un'immagine arredata con le luci, eccetera eccetera eccetera.
Mettiamo che vogliamo avere un copy e poi questa questa qui.
Cosa cosa farei? Prenderei questa immagine, la metterei dentro e metterei il video.
Quindi col video magari qua si si anima qualcosa.
C'è qualche un qual- queste foglie che sventolano oppure posso dire fammi un'animazione con le due che fanno uno swap.
Posso dire qualsiasi cosa, faccio un po' di testing e utilizzo questa come AS.
Ricordiamoci che se vogliamo precisioni di dettagli, voglio che mantenga qualsiasi cosa, non esiste.
Non lo fa, questo non lo fa.
Quindi non non vi l- l- la falsa aspettativa è che voi mettete qualcosa e modificate quel qualcosa.
um Gianmarco scrive il problema è che non si può ancora addestrare su un particolare prodotto, um Sora, cambia sempre qualcosa, esattamente quello che sto dicendo.
Quindi non è lo strumento giusto per far questo.
Non è lo strumento giusto per far questo, se volete la cosa perfetta non è lo strumento giusto.
Però cosa si può fare? Cos'è che ho fatto anch'io? Di solito quando um, Questo è è un altro esempio che che che che fornisco.
Quando crea delle um creiamo una foto, di noi, di diciamo la fai in un certo modo che sto io che combatto contro un alieno, Mi cambia la faccia.
Di solito sulle thumbnail di YouTube io creo, la copertina con me con la faccia un po' storpiata perché mi mi storpia, non so perché non per me ce l'avrà con me, quindi non lo so.
Però dopo vado in un Photoshop o in canva, faccio, mi levo la faccia, mi rimetto la mia, faccio un minimo di correzione.
E c'ha una thumbnail che posso utilizzare, YouTube me lo posso permettere di fare una cosa del genere con YouTube.
Perché non è che c'ho qu- non deve andare in stampa, non deve fare niente, quindi anche se l'immagine e c'ha dei dettagli che non vanno proprio bene, anche su NS piccolini che non vanno bene, ovviamente c'è sempre il compromesso finale, però è è questo è un po' il punto.
Se volete una cosa che rispetta al dettaglio eccetera, questo non è lo strumento um da utilizzare.
Però real estate per fare piccole alze del genere in cui magari alcune cose cambiano, ma c'è un'animazione, ci sono queste cose qua, questo è è come, um io lo utilizzerei come lo stanno utilizzando poi le altre persone nel mercato um per economizzare un po' tutti i tempi.
Andiamo a vedere cosa ha generato con Alice nel paese delle meraviglie.
Eccoci qua, questa male, questa pure male.
vediamo due.
E2.
Questo è l'esatto motivo per cui alla fine, ho messo nella te list i Mcito video sul B e non sta sopra.
Perché spesso e volentieri qui magari abbiamo peccato anche noi, potevamo mettere un piccolo prompt, potevamo utilizzare quello che il GPT che vi ho fatto vedere, eccetera.
C'avete ragione.
Però l'image to video, di solito, o creava qualcosa del genere oppure micro movimenti.
Magari dovevo dirgli guarda non farlo muore, fa muovere solo le le auto che stanno dietro.
Il motivo per cui l'ho messo qua l'imageito video è proprio questo.
Detto questo ragazzi, tanta pratica um vi riassumo un po' quello che dovete portarvi a casa.
allora, Prompt perf- um il prompt, il generatore di prompt, um Sicuramente la parte fondamentale.
Dopodiché un'altra parte importante è capire la parte esplora, e andare a segnarsi i video che funzionano.
Questo per me, se non abbiamo troppi, per esempio se le vediamo la il lato marketing ads, incominciamo a pensare mhm questa ads potrebbe funzionare, questa potrebbe funzionare, ah questa posso farla in questo modo per quest' ads.
Poi magari sopra ci metto il mio logo barra ci metto lo modifico un pochino eccetera.
Barra um andare a testare ragazzi, testate e poi soprattutto mettete nei favoriti casi studi di successo, e dai casi studi di successo fate dei piccoli habitest.
Questo ha funzionato perfetto perché ha funzionato? C'era un image prompt e c'era questo.
Se io adesso prendo questa foto, ci metto.
Per esempio la famiglia dei Simpson piuttosto che qualcun altro, il mio team, e rifaccio questo e poi cambio qui Carter e ci metto un'altra parola, cosa cambia? Ogni volta che crei questo ti crei una library di casi di successo.
Scusate, una laurea di casi di successo che potete riutilizzare.
Questo per ora Sora è così.
Se volete qualcosa di più avanzato, um guardiamo Kling, guardiamo VEO, guardiamo dei software open source che si basano su Stable Diffusion.
Questo è quello che doveva dire, se avete delle domande molto volentieri rispondo um sennò spero che insomma sia stato utile e di valore um che dire? Eccolo qua, a rispondere domande.
C'è una qualche proprietà intellettuale dei video generati agli utenti, allora in teoria Sora ci mette a disposizione questi video um sia l- le immagini e i video, poi la parte legal, io questa l- l- non sono esperto legale, quindi è un po' um parlando con amici legali, um dicendo che, Possiamo effettivamente utilizzarli dentro, soprattutto nel P, ci sono dei watermark non solo visivi, ma anche um segreti, cioè nel senso che poi se scarichi il video c'è il watermark, però in teoria hai i tuoi diritti di utilizzo anche a scopo commerciale.
Altre domande? Se ci sono, sennò ecco um.
Ci ci saltiamo.
Posso utilizzare gli altri video degli utenti, um non li puoi scaricare i video, no, direi i i tuoi, io intendevo che i tuoi Paolo.
allora Io personalmente io personalmente non ho un'agenzia marketing, quindi non faccio ads, con i video, però so di agenzie che li utilizzano, ho fatto consulenze, agenzie che poi hanno utilizzato, messi in canva, modificati, leggermente, um contestualizzati a dovere, ovviamente.
dovremmo Sì, uh.
Eleonora guarda, io dico la la pratica sì, sì, lo lo puoi fare um lo fanno, sono delle agenzie di marketing um insomma, per me ci fare un consulto collegale però io adesso non voglio fare un overstep di competenza, però lo fanno tutti, quindi però ecco, per onestà intellettuale ti dico che è un qualcosa di così, perché lo stanno facendo tutti, ma quando se lo fanno tutti non è gius-, non è vero che um non è detto che sia vero, quindi con onestà intellettuale, ti dico um sì, Faccio una chia- chiacchierata con un mio amico avvocato e e anche lì integro nelle slide questi tre aspetti.
Che per intenderci è questa parte legal.
Ah.
Poi c'è una parte um della era un altro messaggio che mi ero mi ero segnato.
Eccolo qua.
Eh sì questo questo questo comando um questo qui è così.
E quello che dovevo cercare, esattamente, metterò queste due cose.
Guarda, Paolo, io io credo che si possa far tutto, vi dico, andrò a fare un check con l'avvocato e ti dico perché in teoria i diritti con i diritti, di riproduzione, ovviamente magari quello che non puoi fare è tagliare il logo però um, Guardate, vi dico questa piccola cosa, mi mi sbilancio in questo eccetera.
L'innovazione è una è una zona diciamo di innovazione.
Facendo anche diverse consulenze per la pubblica amministrazione, le pubbliche amministrazioni non facendo nomi non potrebbero utilizzare modelli open e e, perché non sono ancora compliant col- con le AC, non potrebbero fare cose, ma le fanno lo stesso.
Quindi, ovviamente non vi sto dicendo andare contro la legge, vi sto solo dicendo che ovviamente se abbiamo un diritto commerciale e tagliare il logo, non tagliare il logo, questa cosa qua, io questo non ve lo posso dire c'è confrontare il legale, però, Empiricamente parlando in questa zona ancora in dove non è, non è poi così chiara um un po' il l'asse un po' tutto quello che gira intorno a questo perché Open Eye sta cambiando le proprie policy, settimana settimana no, ma mese mese sì, um, ti direi che si si, nei limiti dell'accettabile si può andare avanti e utilizzarlo con una certa tranquillità, per AS, per cose commerciali eccetera.
Certo, le le alternative a Sora, guarda, io andrei anche a farle rivedere nelle slides.
Che sono sono fondamentalmente um quelle che vediamo nella leaderboard.
che adesso vi faccio vedere.
VO 2, Kling uno punto cinque pro, T201, pika, 2.
0, non so se avete visto nei social quei video, dove sbuca un animaletto 3D sopra la spalla, ecco tutti fatti con con Pika.
Poi c'è Kling, sempre un altro della stessa, e poi c'è quello di Alibaba, One che è open source.
Ce ne sono diversi.
um Diversi che possiamo utilizzare comunque li avete nelle slides.
Sì, una una una un ads mo- è- è simile a quella che ti ho fatto vedere prima, ovvero um un prima e dopo, animato con una piccola animazione.
Un altro è un prodotto, um immaginate di avere un'immagine prodotto, adesso magari ecco, vi faccio vedere come impostare questo processo.
Cominciamo a immaginate di avere non so schifo profumo.
Ah ah ah ah ah.
Condividi questa schema scheda invece ecco miamo che è un immagini di un profumo, adesso io veramente sarò molto brutale.
OK.
um Dopodiché si andrà a caricare qua l'immagine del nostro prodotto e magari incomincio con l'immagine.
Run- um Runway sì Paolo è valido, molto valido.
Molto valido, i un runaway integra in realtà modelli open source o barra close source leggermente modificati.
Upload from device, metti il tuo prodotto, e poi incominci con un'immagine a mio avviso, per vedere se prende bene il prodotto.
Una volta che hai l'immagine, e che ti piace la animi con il video e la utilizzi come ads.
Questo è un tipico processo che vedo.
Però devi modificarla perché dopo Blue Channel magari ti cambia leggermente il logo, quindi ti devi rimetterci un po' le mani.
Però alla fine, se il prodotto è statico non è neanche troppo importante questo processo.
Oppure un'altra appunto un prima e dopo, um della di una stanza.
Un'altra ancora per la parte medica.
Guarda forse c'ho qualcosa perché gli gli avevo anche fatto un esempio, e vi faccio vedere um l'esempio che avevo creato molto sotto sotto sotto sotto.
um pa pa pa pa pa.
Eccola qua.
Questa parte qua.
Non mi ricordo poi um l'avevamo migliorato, però c'erano questi qua per una costruzione facciale, um questi piccoli omini che stavano lì e costruivano la parte della faccia.
Sono delle ads che spaccano lo schermo, dopo tu le metti contestuale nel tuo contesto, le scegli magari dei tratti che sono più um sono più carini e li utilizzi come ads.
Nel caso del prima e dopo um in questo caso io posso far vedere l'immagine perché poi è il cliente stesso che ha creato il.
Una co- una cosa del genere, poi carichi questa immagine e dici anima leggermente la foto e quindi d- dove vedrai delle animazioni che magari sono più um più catchy da un punto di vista di feed.
Poi um la la creatività è è il limite, nel senso possiamo animare qualsiasi cosa.
Questo ecco per esempio un prodotto, eccolo qua um, um Possiamo a questo punto dire fai passare un filo tra 11 non so un, un'onda di energia tra questo barattolo, il barattolo rimane fisso, se mi cambia leggermente le scritte Tesla Neotropis concentration pleasure, Funziona anche con più immagini? um no um no, cioè nel senso, mettiamo un'immagine per volta.
Questo un po' è il consiglio, il consiglio che do.
Che dire? Se ci sono altre domande.
Perfetto, io direi che ci siamo.
um come al solito um beh ecco aspettiamo le ultimissime domande.
Ah nel prima o dopo due o anche più ah nel senso nel nella foto l- l'ultimissima domanda, TTT um sì, sì.
um, Però è meglio farne sempre 2, più elementi gli diamo e più deraglia.
Come ha sempre la semplicità non chiediamo troppo nei momenti complessi, certo, possiamo farne 03:03, però vediamo che più chiediamo, più stiamo um introducendo la possibilità che possa farmi un errore, tutto qua.
Quindi a livello empirico, direi direi questo.
Sì sì Alchemist.
Aspettiamo un attimo il tuo commento e poi ci siamo.
Fra fare due persone per volta e farne quattro cosa scegliere? due persone nel senso, ah um due o 4? Io faccio sempre 2, per un motivo perché quattro ci mette di più, ovviamente il doppio.
um il doppio del del tempo um perché ne faccio 2? Perché voglio capire se l'intento è stato preso una troppo poca, perché magari se ci sono 2, una può essere andata male, ma quattro ovviamente troppe.
Se se in due non ha preso almeno una foto che si avvicina anche leggermente a quello che voglio, mi evito di farne 4.
Spreco crediti, spre- spreco appunto tempo e quindi stoppo subito il processo.
Massimiliano come ha generato quest'immagine costruzione faccia? Ah quelle della faccia e sempre con il prompt con il con un prompt generato da il GPT che vi fornisco.
Quello della costruzione dei mattoncini.
Si parlava di medicina estetica lì e quindi loro avevano questa esigenza di creare delle immagini catchy che potessero fermare il feed.
Prompt o in realtà lì son partito è un mix, um prompt immagine di partenza con prompt, con prompt um è più lungo.
Piccolo preambolo
1) sono utente fin dal suo lancio
2) quest’anno ho speso oltre 3000 ore sulla piattaforma con oltre 13 corsi
3) Pago di tasca mia l’abbonamento e non ho conflitto d’interessi
Esperienza
Quando Learnn è stato lnaciato ho deciso di abbonarmi perchè ho visto nella piattaforma una possibilità di affrontare argomenti di cui sono carente.
Mi occupo di IT ma non sono così miope da non capire che il digital marketing va conosciuto passando per chi lo pratica.
Ho avuto e avrò anche abbonamenti? Si
Perchè allora dici di iscriversi a questo servizio? Perchè a prescindere di quale servizio specialistico a cui ti abbonerari questa è la base. La base per tutti gli argomenti del digital Marketing oggi e in futuro visto che ogni settinaman escono corsi nuovi e vengono aggiornati, ampliati, approfonditi gli esistenti con gli stessie con nuovi docenti.
I docenti poi sono professionisti e hanno reale esperienza rendendo estremamente pratico applicare i concetti.
Ho una iniziativa nel non-profit e per riuscire, nel tempo libero, a non fare danni e a crescere mi serviva portermi aggiornare e capire come funzionano alcune parti del digital marketing con Learnn ci riesco, mi diverto e sopratutto posso delegare perchè ho capito come funziona quell’ambito.
Avere questo allo stesso prezzo di un abbonamento di streaming permette di ampliare la conoscenza in un ambito in cui troppi parlano senza padronanza.
Prendiamo come società Learnn perchè volevamo avere più il controllo della situazione su ciò che succedeva nel nostro dietro le quinte. Ci sembrava che il nostro venditore non fosse sul pezzo, dormisse sugli allori e non studiasse nuove strategie.
Dopo 1 settimana abbiamo eliminato il nostro “venditore”, ne abbiamo trovati altri validi nel sito con i quali collaboriamo, abbiamo acquisito competenze e abbiamo grazie alla competenza, un sacco di consapevolezza in più, dato che adesso lavoriamo solo online.
Uno degli investimenti migliori mai fatti, insieme ai 50k risparmiati (che non era un problema spendere, volevamo “solo” il lavoro fatto bene)
Learnn è la soluzione olistica alla formazione di imprenditori e professionisti. Professionalmente, essendo un Growth & Innovation Advisor, utilizzo la piattaforma per ampliare la vision e per rimanere sul pezzo grazie a imprenditori e professionisti di altissimo livello presenti al suo interno, che offrono il loro contributo in maniera a dir poco magistrale.
L’abbonamento Learnn permette di avere a disposizione un tool di formazione continua, sempre aggiornato su temi e trend professionali.
Uso Learnn per tenermi costantemente aggiornato sul mondo del digital marketing e per approfondire tutti quelli aspetti dove non sono verificale (sono dei specialist) e lo reputo molto utile per un infarinatura.
Piattaforma estremamente professionale e professionalizzante. Corsi di qualità, docenti anche di più e le risorse a disposizione sono veramente tante. Chiunque può formarsi qui, da chi parte da zero a chi ha già esperienza. La flessibilità nel seguire le lezioni è totale: ci sono lezioni fast per chi ha due minuti al giorno e corsi più strutturati per quando si ha più tempo. C’è anche una parte community da non sottovalutare: grazie alla rete di possibili contatti che hanno creato, io ho trovato lavoro come Digital Marketer!
Ho scoperto Learnn tramite una sponsorizzata IG! Mi si è aperto un mondo! Trovo tutti i corsi molto utili ed interessanti, complimenti a Luca ed a tutto il team Learnn
Learnn e’ tutto ciò che un imprenditore ha bisogno per formarsi ed avere una base solida nel mondo del digital marketing ma anche in tanti altri aspetti.
E soprattutto avere le consulenze 1to1 a pagamento sono un valore aggiunto incredibile non e’ il solito corsetto pre-registrato che poi ti abbandona a te stesso qui puoi confrontarti e secondo me e’ una cosa unica.
Learnn mi ha permesso di approfondire temi che stavo studiando all’università e mi ha fatto scoprire altri corsi che mi sono serviti molto all’inizio del mio percorso da freelance.
Ad oggi ho l’abbonamento annuale perché trovo sempre qualcosa di nuovo e interessante da approfondire.
Consiglio Learnn perché copre una vasta gamma di argomenti e permette di passare da tematiche di Growth alla User Experience passando per il GDPR e la psicologia.
Davvero molto interessante e sempre in espansione.
Ultimamente sono state inserite anche nuove funzionalità che la rendono una piattaforma veramente completa e super utile.
Grazie alla community si possono scambiare opinioni con altre persone che stanno studiando e poi ci sono gli esperti che hanno messo a disposizione anche degli slot a prezzi ragionevoli.
Ultimo ma non meno importante il prezzo che è veramente affrontabile anche per gli studenti universitari.
Luca e tutta la sua squadra hanno davvero fatto un ottimo lavoro, grazie.
Scoprire Learnn è stato un salto di qualità per la mia formazione personale. Con l’autorizzazione dell’azienda, ascolto corsi anche mentre lavoro: con una cuffietta sempre in ascolto e uno dei tre schermi esclusivamente dedicato.
Ritengo che Learnn sia una piattaforma che abbia una mission reale e vera. Si percepisce semplicemente dal prezzo super accessibile e dalla qualità elevata di quasi tutti i corsi.
Avendo completato più di 80 ore posso dire veramente grazie a tutto il team di Learnn che mi ha svoltato la formazione e svoltato a livello pratico il mio lavoro!
Il titolo della recensione sarebbe il Netflix della formazione ma sarebbe troppo da clickbait, però è quello che penso. Buon lavoro!
Learnn è la piattaforma di formazione per ottenere maggiori risultati professionali e di business attraverso formandosi nel digitali (e non solo). In un unico abbonamento hai accesso a 400+ corsi, 120+ risorse, 25+ percorsi, live webinar e certificazioni. 190.000 professionisti/e e oltre 700 aziende si formano su Learnn per crescere.
Vogliamo digitalizzare l’Italia, una persona alla volta.
Per farlo ci proponiamo di democratizzare l’apprendimento e accelerare la crescita di persone, idee e aziende attraverso strumenti tecnologici a supporto di qualsiasi professionista.
In un unico abbonamento hai accesso a 400+ corsi, 120+ risorse, 25+ percorsi, live webinar e certificazioni. Potrai fruire i corsi sia dalla piattaforma web che dall’app.
I corsi sono on-demand, mentre i webinar sono live e poi caricati nella piattaforma per essere visti on-demand quando vuoi.
Potrai seguire i contenuti da computer, tablet e smartphone.
Scarica l’App iOS/Android Learnn e segui i contenuti in modalità video, audio e testo.
Certamente. Learnn ha un piano gratuito che ti permette di accedere al 40% di ogni corso in maniera gratuita e solo con la tua email, no carta richiesta. Crea il tuo account per iniziare a seguire qualsiasi corso.
Learnn Pro costa 16.99 euro al mese nel piano trimestrale, ma offriamo sconti per il piano annuale. Crea il tuo account per vedere il prezzo corrente.
Si, le nostre certificazioni vengono rilasciate al completamento dell’80% di ogni corso dopo il superamento di un quiz di 10 domande.
La certificazione potrà essere condivisa sul proprio profilo personale Learnn e sui proprio profili LinkedIn e CV.
Le nostre certificazioni sono riconosciute da centinaia di aziende che formano i loro team su Learnn e queste aziende assumono abitualmente dentro alla nostra piattaforma.
Iscrivendoti a Learnn avrai accesso ad una community con 190.000 professionisti dove potrai confrontarti, fare networking e trovare nuove opportunità.
Inoltre potrai partecipare a workshop live e fare domande ai professionisti che hanno tenuto i corsi.
Se avessi altre domande puoi usare la live chat qui di fianco.
Per partnership compila questo form
Ogni acquisto ti garantisce 14 giorni di garanzia per richiedere il rimborso.
In qualsiasi momento puoi disabilitare il rinnovo automatico dalla tua area membri in pochi click e senza dover parlare con un operatore.
Non offriamo invece rimborsi per i rinnovi.
Vogliamo rendere l'Italia famosa nel mondo per l'esecuzione.
Learnn
è nato per accelerare la crescita di ogni individuo rendendo accessibili conoscenza, opportunità e tecnologia per avere un impatto positivo sul mondo e sugli altri.
Tutto incluso (come Netflix), IVA inclusa, nessuna sorpresa o addebito indesiderato.
Disdici quando vuoi, in 1 click.
Scegli di migliorare ogni giorno per 12 mesi senza interruzioni scegliendo il piano annuale.
In un unico pagamento annuale
Disdici quando vuoi, in 1 click.
Con l’abbonamento otterrai:
Consuma i +200 corsi e webinar di Learnn da webapp o app iOS e Android, in formato video, audio o testo.
Con l'abbonamento a Learnn hai accesso a tutto (proprio tutto) ciò che contiene la piattaforma.
Ogni mese registriamo nuovi corsi su tutto cio di cui potresti avere bisogno nel mondo digitale.
Con l'app Learnn trasformi ogni momento di vuoto in un'occasione di apprendimento.
Scarica tutto il materiale che ti serve e utilizza i moduli riassuntivi per fissare i concetti.
Ogni settimana nuove offerte di lavoro da parte di tantissime aziende che operano nel mondo digitale.