<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>intelligenza artificiale Archives - Il Futuro del Cinema - di Dario Riccio</title>
	<atom:link href="https://www.darioriccio.com/tag/intelligenza-artificiale/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.darioriccio.com/tag/intelligenza-artificiale/</link>
	<description>Tecnologia e Business</description>
	<lastBuildDate>Thu, 16 Nov 2023 09:05:35 +0000</lastBuildDate>
	<language>it-IT</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.6.2</generator>

<image>
	<url>https://www.darioriccio.com/wp-content/uploads/2022/02/cropped-android-chrome-512x512-2-32x32.png</url>
	<title>intelligenza artificiale Archives - Il Futuro del Cinema - di Dario Riccio</title>
	<link>https://www.darioriccio.com/tag/intelligenza-artificiale/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>AI nella produzione cinematografica: come produrre un film innovativo low budget</title>
		<link>https://www.darioriccio.com/ai-nella-produzione-cinematografica-come-produrre-un-film-innovativo-low-budget/</link>
					<comments>https://www.darioriccio.com/ai-nella-produzione-cinematografica-come-produrre-un-film-innovativo-low-budget/#respond</comments>
		
		<dc:creator><![CDATA[Dario Riccio]]></dc:creator>
		<pubDate>Sun, 12 Nov 2023 12:29:56 +0000</pubDate>
				<category><![CDATA[Cinema]]></category>
		<category><![CDATA[Tecnologia]]></category>
		<category><![CDATA[cinema immersivo]]></category>
		<category><![CDATA[innovazione]]></category>
		<category><![CDATA[intelligenza artificiale]]></category>
		<guid isPermaLink="false">https://www.darioriccio.com/?p=853</guid>

					<description><![CDATA[<p>Nell&#8217;articolo di oggi, voglio iniziare a presentarvi un grande progetto nel quale stiamo lavorando con the usual nExt, unendo intelligenza artificiale e cinema. Usiamo l&#8217;AI per la produzione cinematografica, in un film immersivo, a 360 gradi, inizialmente proiettato in cupole mobili. Sfruttando tutte le ultime tecnologie per essere un&#8217;esperienza memorabile che unirà reale e virtuale. [&#8230;]</p>
<p>L'articolo <a href="https://www.darioriccio.com/ai-nella-produzione-cinematografica-come-produrre-un-film-innovativo-low-budget/">AI nella produzione cinematografica: come produrre un film innovativo low budget</a> è apparso primo per <a href="https://www.darioriccio.com">Il Futuro del Cinema - di Dario Riccio</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p>Nell&#8217;articolo di oggi, voglio iniziare a presentarvi un grande progetto nel quale stiamo lavorando con <strong><em>the usual nExt</em></strong>, unendo intelligenza artificiale e cinema. Usiamo l&#8217;AI per la produzione cinematografica, in un film immersivo, a 360 gradi, inizialmente proiettato in cupole mobili. Sfruttando tutte le ultime tecnologie per essere un&#8217;esperienza memorabile che unirà reale e virtuale. In pratica: <strong>una pietra miliare per quello sarà il cinema del futuro</strong>.</p>


<div class="wp-block-image">
<figure class="alignright size-medium"><img fetchpriority="high" decoding="async" width="300" height="300" src="https://www.darioriccio.com/wp-content/uploads/2023/11/dome-300x300.jpg" alt="Persone in una cupola immaginaria con proiezioni di pesci e pianeti in un grande cielo." class="wp-image-864" srcset="https://www.darioriccio.com/wp-content/uploads/2023/11/dome-300x300.jpg 300w, https://www.darioriccio.com/wp-content/uploads/2023/11/dome-150x150.jpg 150w, https://www.darioriccio.com/wp-content/uploads/2023/11/dome.jpg 512w" sizes="(max-width: 300px) 100vw, 300px" /></figure></div>


<p>Promette di lasciare un segno profondo e di rappresentare una svolta significativa nella storia del cinema. Per un cinema più democratico, più presente tra la gente, che unisce&#8230; Quello che fu il cinema originario, e che da tanto non riesce più ad essere.</p>



<p>In questo articolo voglio parlarvi a grandi linee, tecnicamente, dell&#8217;idea di base. E condividere con voi alcune possibili aree di utilizzo dell&#8217;intelligenza artificiale per ottenere il massimo con un budget, volutamente, ridotto.</p>



<p>Possiamo considerarlo anche un aggiornamento, in fase molto più avanzata, dello scorso articolo scritto a febbraio 2023 dal titolo <em><a href="https://www.darioriccio.com/come-fare-film-low-budget-con-lintelligenza-artificiale-prime-fasi/">Come fare film low budget con l’Intelligenza Artificiale – Prime fasi</a></em>. </p>



<h2 class="wp-block-heading">L&#8217;impatto rivoluzionario dell&#8217;Intelligenza Artificiale nel cinema</h2>



<p>Un tempo, gli effetti speciali e le tecniche narrative erano le bacchette magiche del cinema, ma oggi l&#8217;intelligenza artificiale sta giocando una carta rivoluzionaria. È un aiuto incredibile, un complice che spalanca le porte a un&#8217;innovazione senza precedenti. Stiamo cavalcando questa onda, con l&#8217;IA al nostro fianco che dà una mano nella creazione di storie avvincenti, personaggi digitali che sembrano veri e musiche che ti arrivano dritte al cuore. Ma non dimentichiamo il tocco umano, il vero cuore pulsante di ogni nostra creazione.</p>



<p>&#8220;Intelligenza artificiale e cinema&#8221; non è un motto gettonato, ma l&#8217;inizio di un nuovo capitolo nel raccontare storie. Siamo pronti a dimostrare che il futuro dell&#8217;intrattenimento non è più un sogno lontano: è qui, ed è animato dall&#8217;intelligenza artificiale.</p>



<h2 class="wp-block-heading">Luna Dolph, Kyle e China: dal virtuale alla vita reale</h2>


<div class="wp-block-image">
<figure class="alignright size-medium"><img decoding="async" width="300" height="300" src="https://www.darioriccio.com/wp-content/uploads/2023/11/robot-and-teen-300x300.jpg" alt="Disegno di un robot con un bimbo" class="wp-image-877" srcset="https://www.darioriccio.com/wp-content/uploads/2023/11/robot-and-teen-300x300.jpg 300w, https://www.darioriccio.com/wp-content/uploads/2023/11/robot-and-teen-150x150.jpg 150w, https://www.darioriccio.com/wp-content/uploads/2023/11/robot-and-teen.jpg 512w" sizes="(max-width: 300px) 100vw, 300px" /></figure></div>


<p>Il racconto, sceneggiato da <em><strong><a href="https://www.linkedin.com/in/gbernasconi?originalSubdomain=fr" target="_blank" rel="noreferrer noopener">Gérard Bernasconi</a></strong></em>, parte dalla storia di <em>Luna Dolph</em>, <em>Kyle</em> e <em>China</em>; non semplici personaggi, ma avatar tridimensionali che respirano vita in un mondo virtuale affascinante e complesso. Questi avatar non sono solo protagonisti di una storia, ma <strong>simboli della nostra epoca</strong>. Rappresentazioni vivide della <strong>nostra progressiva immersione nell&#8217;universo virtuale</strong>, conosciuto anche come <em>metaverso</em>. Questo concetto, un tempo relegato alla fantascienza, sta rapidamente prendendo forma e influenzando settori diversi, dai videogiochi alle piattaforme di social networking, trasformando il modo in cui interagiamo, lavoriamo e ci divertiamo.</p>



<h3 class="wp-block-heading">Realtà Virtuale e Identità Digitali</h3>


<div class="wp-block-image">
<figure class="alignleft size-medium"><img decoding="async" width="300" height="300" src="https://www.darioriccio.com/wp-content/uploads/2023/11/artificial-intelligence-and-cinema-300x300.jpg" alt="Una ragazza e un robot insieme in un cinema" class="wp-image-872" srcset="https://www.darioriccio.com/wp-content/uploads/2023/11/artificial-intelligence-and-cinema-300x300.jpg 300w, https://www.darioriccio.com/wp-content/uploads/2023/11/artificial-intelligence-and-cinema-150x150.jpg 150w, https://www.darioriccio.com/wp-content/uploads/2023/11/artificial-intelligence-and-cinema.jpg 512w" sizes="(max-width: 300px) 100vw, 300px" /></figure></div>


<p>Il nostro obiettivo non è solo quello di raccontare una storia avvincente, ma di invitare il pubblico a <strong>riflettere sulla natura della realtà in un&#8217;era digitale</strong>. Questi avatar, con le loro interazioni complesse e i loro mondi intricati, rappresentano la fusione in atto tra la nostra vita fisica e quella digitale. Una convergenza che sta ridefinendo il significato stesso di identità, comunità e appartenenza.</p>



<p>Al fulcro della nostra narrativa troviamo Luna Dolph, Kyle e China. Sono tre avatar tridimensionali le cui vite si svolgono in un mondo virtuale di straordinaria bellezza. Pur esistendo nell&#8217;etere digitale, la loro storia è un ponte verso la realtà, un mezzo per ricordare ai nostri spettatori il valore insostituibile dell&#8217;interazione umana e della vita reale. In un&#8217;epoca in cui la digitalizzazione ha trasformato i nostri modi di connetterci, il nostro racconto mira a usare la tecnologia non come un rifugio, ma come un trampolino per riscoprire e rinvigorire la socialità autentica e tangibile.</p>



<h3 class="wp-block-heading">La tecnologia aiuta a vivere meglio</h3>



<p>Mentre Luna, Kyle e China navigano in un metaverso affascinante, le loro esperienze e sfide risuonano con un messaggio chiaro: <strong>la tecnologia, per quanto avanzata, è uno strumento che, se usato con saggezza, può arricchire ma non sostituire il calore e la complessità delle connessioni umane</strong>. Il nostro obiettivo è far emergere la consapevolezza che, nonostante l&#8217;attrattiva del digitale, la vita vera si svolge fuori dallo schermo. Nelle risate condivise, nelle strette di mano, negli abbracci e nei momenti spontanei che costituiscono il tessuto della nostra esistenza.</p>



<p>Con questa narrazione, aspiriamo a ispirare gli spettatori a sollevare lo sguardo dai loro dispositivi e a immergersi nuovamente nel mondo reale, arricchendo le loro vite con esperienze autentiche. Attraverso l&#8217;esplorazione di mondi virtuali, vogliamo celebrare e promuovere la bellezza e l&#8217;importanza insostituibile della vita reale e della socialità umana.</p>



<p>Il film rappresenterà la prima uscita nel mondo reale per i tre protagonisti.</p>



<h2 class="wp-block-heading">Come usiamo l&#8217;AI nella produzione cinematografica</h2>



<p>Siamo ancora in fase pre-produttiva, quindi dal punto di vista pratico vi terrò aggiornati nei prossimi mesi. Per ora abbiamo un&#8217;idea di massima: abbiamo selezionato un compendio di tecnologie di intelligenza artificiale (AI) di ultima generazione e allo stesso tempo economiche e disponibili a tutti.</p>



<p>Il film sarà in formato <strong>fulldome</strong>, immersivo a 360&#215;180 gradi. Praticamente lo proietteremo in cupole e planetari. E&#8217; un&#8217;innovazione cruciale guardando al futuro, visto che si spinge sempre più verso l&#8217;immersività totale. E abbiamo un budget limitato, diciamo a occhio tra 10 e 20.000 euro. Il film durerà circa 40 minuti, e sarà per circa il 30% nel mondo virtuale di Luna e i suoi amici (interamente ricreato in <em><a href="https://www.unrealengine.com/" target="_blank" rel="noreferrer noopener">Unreal Engine</a></em>), per il restante 70% nel mondo reale.</p>



<h3 class="wp-block-heading">Usare Luma AI per il cinema del futuro</h3>



<p>Per cominciare a parlare di questo arsenale tecnologico cito <strong><em><a href="https://lumalabs.ai">Luma AI</a></em></strong>, una soluzione pionieristica che rivoluziona completamente la generazione di ambienti tridimensionali. <strong>Luma AI ci consente di riprodurre ambienti reali all&#8217;interno di Unreal Engine, in qualità fotorealistica e </strong>persino<strong> con un iPhone</strong>. Impiegando tecnologie avanzate come il <a href="https://www.matthewtancik.com/nerf" target="_blank" rel="noreferrer noopener"><strong>Neural Radiance Fields</strong></a> (NeRF) e il nuovissimo <strong><a href="https://arxiv.org/pdf/2308.04079.pdf" target="_blank" rel="noreferrer noopener">Gaussian Splatting</a></strong> (quest&#8217;ultimo pubblicato appena tre mesi fa dall&#8217;Università della Costa Azzurra, in Francia), possiamo catturare la complessità e la ricchezza del mondo reale in formato digitale, inserirlo in Unreal Engine (compresa la possibilità di muoversi liberamente all&#8217;interno della scena) e dar vita a scene precedentemente relegabili solo a grandi budget.</p>


<div class="wp-block-image">
<figure class="alignright size-medium"><img loading="lazy" decoding="async" width="300" height="181" src="https://www.darioriccio.com/wp-content/uploads/2023/11/lumaai-300x181.jpg" alt="Screenshot del sito web di Luma AI" class="wp-image-885" srcset="https://www.darioriccio.com/wp-content/uploads/2023/11/lumaai-300x181.jpg 300w, https://www.darioriccio.com/wp-content/uploads/2023/11/lumaai-1024x619.jpg 1024w, https://www.darioriccio.com/wp-content/uploads/2023/11/lumaai-768x464.jpg 768w, https://www.darioriccio.com/wp-content/uploads/2023/11/lumaai-1536x928.jpg 1536w, https://www.darioriccio.com/wp-content/uploads/2023/11/lumaai-2048x1237.jpg 2048w" sizes="(max-width: 300px) 100vw, 300px" /></figure></div>


<p>Abbattiamo i costi legati alla creazione di ambientazioni dettagliate e oggetti complessi, oltre a snellire e accelerare il processo produttivo. Luma AI non democratizza soltanto l&#8217;accesso a tecnologie di prim&#8217;ordine, ma ci fornisce anche gli strumenti per sperimentare a una velocità che prima era inimmaginabile. E permette di imprimere un livello di vivacità e profondità senza precedenti nelle nostre scene.</p>



<h3 class="wp-block-heading">Skybox AI per il cinema &#8211; Illuminazione semplificata su Unreal Engine</h3>


<div class="wp-block-image">
<figure class="alignleft size-medium"><img loading="lazy" decoding="async" width="300" height="168" src="https://www.darioriccio.com/wp-content/uploads/2023/11/skyboxAI-300x168.jpg" alt="Interfaccia utente di Skybox AI" class="wp-image-888" srcset="https://www.darioriccio.com/wp-content/uploads/2023/11/skyboxAI-300x168.jpg 300w, https://www.darioriccio.com/wp-content/uploads/2023/11/skyboxAI-1024x575.jpg 1024w, https://www.darioriccio.com/wp-content/uploads/2023/11/skyboxAI-768x431.jpg 768w, https://www.darioriccio.com/wp-content/uploads/2023/11/skyboxAI-1536x862.jpg 1536w, https://www.darioriccio.com/wp-content/uploads/2023/11/skyboxAI-2048x1150.jpg 2048w" sizes="(max-width: 300px) 100vw, 300px" /></figure></div>


<p>Un altro strumento cruciale nel nostro repertorio è <strong><a href="https://skybox.blockadelabs.com" target="_blank" rel="noreferrer noopener">Skybox AI</a></strong> di <em><a href="https://www.blockadelabs.com" target="_blank" rel="noreferrer noopener">Blockade Labs</a></em>, per creare <em>skybox</em> immersive. Arricchendo le scene virtuali con dettagli vitali sull&#8217;illuminazione e l&#8217;ambientazione. </p>



<p>Uno <a href="https://it.wikipedia.org/wiki/Skybox_(videogiochi)" target="_blank" rel="noreferrer noopener">skybox</a> in Unreal Engine non solo fornisce un ambiente circostante visivamente convincente (montagne, cielo, case lontane ecc&#8230;), ma <strong>influisce anche sull&#8217;illuminazione globale degli asset 3D all&#8217;interno della scena</strong>. Questo è quanto più ci interessa in ambito cinematografico: agisce infatti come una fonte di luce ambientale, riflettendo i suoi colori e le sue tonalità sugli oggetti, contribuendo a <strong>creare un&#8217;atmosfera coerente e realistica</strong>. Ad esempio, uno skybox che raffigura un tramonto infonderà calde tonalità arancioni e rosse sulla scena; mentre uno skybox notturno fornirà una luce più fredda e tenue. Questo processo aiuta a integrare gli assets 3D nell&#8217;ambiente circostante, rendendo l&#8217;intera esperienza visiva più immersiva e coerente.</p>



<p>Aspetto che si rivela essenziale nella creazione di ambienti fulldome a 360 gradi. Ogni minimo particolare è fondamentale per sostenere l&#8217;illusione di un mondo completamente immersivo.</p>



<h3 class="wp-block-heading">Usare Kaiber AI per il nostro film</h3>



<p><strong><a href="https://kaiber.ai" target="_blank" rel="noreferrer noopener">Kaiber AI</a> </strong>è utile e di qualità, ma ho un serio dubbio: non so se funziona con i video fulldome. Ancora non ho avuto il tempo di sperimentarlo, ma eventualmente aiuterà a rendere più omogenee le scene in modo da unire ancor meglio gli assets. Lavora tramite l&#8217;AI direttamente sui file video finali.</p>



<h3 class="wp-block-heading">Intelligenza artificiale e cinema: Reverie AI</h3>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="608" src="https://www.darioriccio.com/wp-content/uploads/2023/11/reverieai-1024x608.jpg" alt="Schermata del sito di Reverie AI" class="wp-image-890" srcset="https://www.darioriccio.com/wp-content/uploads/2023/11/reverieai-1024x608.jpg 1024w, https://www.darioriccio.com/wp-content/uploads/2023/11/reverieai-300x178.jpg 300w, https://www.darioriccio.com/wp-content/uploads/2023/11/reverieai-768x456.jpg 768w, https://www.darioriccio.com/wp-content/uploads/2023/11/reverieai-1536x911.jpg 1536w, https://www.darioriccio.com/wp-content/uploads/2023/11/reverieai-2048x1215.jpg 2048w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure>



<p>In attesa del lancio di <a href="https://reverieai.net" target="_blank" rel="noreferrer noopener"><strong>Reverie AI</strong></a>, siamo stimolati dalle sue promesse di creare mondi virtuali per Unreal Engine quasi &#8220;copiando&#8221; una foto preesistente. La sua capacità di generare scenari che imitano fedelmente la realtà, unita alle potenzialità nella color correction delle scene virtuali, ci apre porte verso possibilità illimitate nella narrazione visiva. <em>Reverie AI</em> promette di essere un eccellente complemento al nostro workflow, migliorando la coerenza visiva e garantendo transizioni fluide e convincenti tra il mondo virtuale e quello reale.</p>



<h3 class="wp-block-heading">Move.ai, mocap economica e funzionante</h3>



<p>Un altro tool &#8220;intelligente&#8221; che contiamo di usare per il nostro film sarà <strong>Move.ai</strong>, nello specifico l&#8217;economico servizio <em><a href="https://www.move.ai/single-camera" target="_blank" rel="noreferrer noopener">Move One</a></em> (in offerta lancio a 15 dollari al mese, poi dovrebbe costare 30). Con una semplice <a href="https://apps.apple.com/us/app/move-one/id6448635527" target="_blank" rel="noreferrer noopener">app per iPhone</a>, potremo creare animazioni personalizzate semplici e pronte senza troppe correzioni o clean-up. Ciò riduce tempi e costi, permettendo di non essere limitati dalle animazioni già disponibili in servizi come <em><a href="https://www.mixamo.com" target="_blank" rel="noreferrer noopener">Mixamo</a></em>, <em><a href="https://actorcore.reallusion.com" target="_blank" rel="noreferrer noopener">ActorCore</a></em> o il <a href="https://mocap.market/"><em>MoCap Market</em></a> di Noitom.</p>



<p>Qui un rapidissimo video test:</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="Move.Ai single camera Motion capture Test &quot;MOVE ONE&quot;" width="678" height="381" src="https://www.youtube.com/embed/mJoZURcNiL4?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" allowfullscreen></iframe>
</div></figure>



<p>Chiaramente, hanno anche il più costoso servizio professionale che permette di usare fino a 8 camere. Ma non contiamo di usarlo per questa prima produzione, a meno di concretissima necessità. </p>



<h2 class="wp-block-heading">Speech-to-speech per il doppiaggio cinematografico&#8230; È possibile?</h2>



<p>Nella nostra produzione, l&#8217;innovazione non si ferma alla creazione del mondo digitale; vogliamo infatti approfittare della rivoluzione tecnologica in atto anche per aspetti tradizionali della cinematografia, come il <strong>doppiaggio</strong>.</p>



<figure class="wp-block-image size-full"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.darioriccio.com/wp-content/uploads/2023/11/speech-to-speech.jpeg" alt="Immagine generata con MidJourney che mostra un uomo del futuro che parla con un robot." class="wp-image-893" srcset="https://www.darioriccio.com/wp-content/uploads/2023/11/speech-to-speech.jpeg 1024w, https://www.darioriccio.com/wp-content/uploads/2023/11/speech-to-speech-300x300.jpeg 300w, https://www.darioriccio.com/wp-content/uploads/2023/11/speech-to-speech-150x150.jpeg 150w, https://www.darioriccio.com/wp-content/uploads/2023/11/speech-to-speech-768x768.jpeg 768w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure>



<p>La voce di Luna e degli altri avatar 3D, deve essere coerente (per non dire identica) in tutti i media, sia nel mondo virtuale che in quello reale. Affrontiamo una sfida complessa: <strong>mantenere la stessa voce su diverse piattaforme</strong>, compresi i social media e soprattutto lo streaming in tempo reale, <strong>senza legarci a un unico doppiatore</strong>. Questo ci permette di avere flessibilità nella narrazione e di adattarci a vari formati senza dipendere dalla disponibilità di un attore specifico.</p>



<p><strong>L&#8217;idea è replicare le voci di alcuni attori reali e associarle agli avatar</strong> (Luna, Kyle e China per cominciare), poi trasformare la voce di un qualsiasi attore, in tempo reale, in quella di Luna, per usarla sia per il doppiaggio di film e contenuti social (tanto in lingua originale, tanto per le traduzioni), sia per il <em><a href="https://it.wikipedia.org/wiki/Live_streaming" target="_blank" rel="noreferrer noopener">live streaming</a></em> sovrapponendo queste voci all&#8217;avatar animato in <a href="https://docs.unrealengine.com/5.3/en-US/recording-face-animation-on-ios-device-in-unreal-engine/" target="_blank" rel="noreferrer noopener">motion capture</a>.</p>



<h3 class="wp-block-heading">Dall&#8217;ottimo ma costoso Respeecher, all&#8217;ambiguo Voicemod</h3>



<p>Abbiamo esplorato opzioni come <a href="https://www.respeecher.com" target="_blank" rel="noreferrer noopener"><strong>Respeecher</strong></a>, uno strumento avanzato di conversione speech-to-speech, ma i costi per il real-time sono proibitivi. Parliamo di circa 1000 o 2000 euro al mese, per poche ore di utilizzo. <strong><a href="https://www.voicemod.net/ai-voices/" target="_blank" rel="noreferrer noopener">Voicemod</a></strong> si presenta come una soluzione più economica grazie alle sue <em>AI voices</em>, anche se circolano voci contrastanti sulla sua affidabilità (alcuni lo considerano addirittura un malware o un <a href="https://www.kaspersky.it/resource-center/definitions/what-is-cryptojacking" target="_blank" rel="noreferrer noopener">cryptojacking</a>&#8230;). E resta il problema di non avere i diritti sulla voce, di loro proprietà, il che risulterà certamente un problema in futuro. Non so ancora il costo per la conversione in real-time di <em><strong><a href="https://www.resemble.ai" target="_blank" rel="noreferrer noopener">Resemble.ai</a></strong></em>, che ho usato in passato per il molto più economico text-to-speech, e di <a href="https://www.veritonevoice.com" target="_blank" rel="noreferrer noopener"><strong>Veritone Voice</strong></a>.</p>



<p>Un altro strumento che non ho potuto testare è <strong><a href="https://crimsontech.jp/apps/voidol3/?lang=en" target="_blank" rel="noreferrer noopener">Voidol 3</a></strong>, ad un costo di circa 300 dollari. Non ho trovato una versione demo, ma ammetto di non essermi neppure impegnato tanto a richiederla. E&#8217; uno dei vari software orientali, creati per la tipica passione giapponese verso il mondo anime. Ma in realtà adattabile al nostro scopo, come vedremo tra poco con un altro giapponese.</p>



<h3 class="wp-block-heading">MetaVoice Live, Mangio RVC Fork e W-Okada Voice Changer, gratis e open-source</h3>



<p><strong>Le soluzioni finali</strong>, dopo tanta ricerca, sono <strong><a href="https://github.com/metavoicexyz/MetaVoiceLive/releases" target="_blank" rel="noreferrer noopener">MetaVoice Live</a></strong> e il <a href="https://github.com/w-okada/voice-changer" target="_blank" rel="noreferrer noopener"><strong>Voice</strong></a><a href="https://github.com/w-okada/voice-changer"><strong> Changer</strong> di W-Okada</a>. Entrambi <strong>open source</strong>, il che ci rassicura di poter basare la &#8220;vita futura&#8221; dei personaggi su questi servizi, ed entrambi <strong>gratuiti</strong>. Non posso non citare il canale YouTube <a href="https://www.youtube.com/@ai-tools-search" target="_blank" rel="noreferrer noopener"><em>AI Tools Search</em></a> che mi è stato utilissimo. Tra i video più interessanti in questo ambito, sicuramente questo:</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="Make UNLIMITED AI Voice Conversions, Training, &amp; Covers for FREE: RVCv2 Installation &amp; Tutorial" width="678" height="381" src="https://www.youtube.com/embed/ixB9oalT3cQ?start=475&#038;feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" allowfullscreen></iframe>
</div></figure>



<p><em>MetaVoice</em> mi piace particolarmente: è in fase di acceso sviluppo ed ha una versione cloud per le conversioni non in tempo reale che garantisce maggior qualità e flessibilità. Questa non è gratuita, ma il costo tra 10 e 25 dollari al mese si può tutto sommato affrontare.</p>



<p>Al contrario, il <em>Voice Changer</em> di <em>W-Okada</em> ha molti sviluppatori indipendenti che sviluppano soluzioni compatibili con esso, come l&#8217;utente GitHub <a href="https://github.com/Mangio621" target="_blank" rel="noreferrer noopener"><em>Mangio621</em></a> che ha creato il <strong><a href="https://github.com/Mangio621/Mangio-RVC-Fork/releases/tag/v23.7.0">Mangio RVC Fork</a></strong>, un software con interfaccia Web in grado di trasformare la voce di un attore reale in quella del modello vocale scelto. Molti di questi modelli, soprattutto personaggi famosi, sono già disponibili su siti come <a href="http://voice-models.com" target="_blank" rel="noreferrer noopener">Voice-Models.com</a> in formato &#8220;.pth&#8221;. Un classico formato usato nell&#8217;ambito del machine learning), ma la cosa più bella è che con lo stesso <em>Mangio RVC</em> possiamo effettuare l&#8217;addestramento, o training, di una voce personalizzata. Tutto in locale grazie ad una buona scheda video. E pertanto chiaramente sempre disponibile, e gratis.</p>



<p>A breve però farò un articolo specifico su questo. Così mi seguirete mentre faccio qualche prova interessante.</p>



<h2 class="wp-block-heading">Generare video con l&#8217;intelligenza artificiale</h2>



<p>Un uso dell&#8217;AI nella produzione cinematografica può essere il text-to-video, o video-to-video. Ma quanto può essere utile generare video con l&#8217;intelligenza artificiale? Intendo proprio da zero, descrivendo all&#8217;AI in maniera testuale (o con una referenza video molto semplificata) ciò che si desidera ottenere. Un po&#8217; il futuro, ad oggi tools come <a href="https://research.runwayml.com/gen1" target="_blank" rel="noreferrer noopener"><strong>Runway Gen-1</strong></a>, <a href="https://www.genmo.ai" target="_blank" rel="noreferrer noopener"><strong>Genmo AI</strong></a>, o <a href="https://moonvalley.ai"><strong>Moonvalley AI</strong></a> sono poco più che esperimenti. Utili in alcuni frangenti, ma lontani dalla qualità e realismo necessari ad una produzione cinematografica.</p>



<p>Evidentemente, dovremo lavorare ancora per qualche anno per ottenere i nostri film <img src="https://s.w.org/images/core/emoji/15.0.3/72x72/1f642.png" alt="🙂" class="wp-smiley" style="height: 1em; max-height: 1em;" /></p>



<h2 class="wp-block-heading">Canon EOS R5C e obiettivo Dual Fisheye per video fulldome 3D</h2>



<p>E per le riprese live action? Nel nostro viaggio, ci stiamo cimentando con una combinazione di attrezzature davvero entusiasmante. Teniamo sempre a mente l&#8217;obiettivo: <strong>poca spesa tanta resa</strong>. Avevo inizialmente pensato di girare tutto in completo 360 gradi, anche per rendere il tutto già compatibile in caso di futuri porting in realtà virtuale. Ma il costo diventava proibitivo, sia per la camera (una camera professionale come la <em><a href="https://www.insta360.com/it/product/insta360-titan">Insta 360 Titan</a></em>, tra l&#8217;altro non aggiornata da anni, costa oltre 17.000 euro), sia per le difficoltà di iniziare già dal primo momento con un campo così largo. </p>


<div class="wp-block-image">
<figure class="alignright size-medium"><img loading="lazy" decoding="async" width="277" height="300" src="https://www.darioriccio.com/wp-content/uploads/2023/11/canondualfisheye52-277x300.jpg" alt="" class="wp-image-897" srcset="https://www.darioriccio.com/wp-content/uploads/2023/11/canondualfisheye52-277x300.jpg 277w, https://www.darioriccio.com/wp-content/uploads/2023/11/canondualfisheye52-768x831.jpg 768w, https://www.darioriccio.com/wp-content/uploads/2023/11/canondualfisheye52.jpg 906w" sizes="(max-width: 277px) 100vw, 277px" /></figure></div>


<p>L&#8217;idea è quindi di produrre il video giusto per la cupola, in <strong>360&#215;180 gradi</strong> (in pratica metà sfera). E l&#8217;obiettivo <em><a href="https://www.canon.it/lenses/rf-5-2mm-f2-8l-dual-fisheye-lens/" target="_blank" rel="noreferrer noopener">Canon RF 5.2mm F2.8 L Dual Fisheye</a></em>, abbinato alla <em><a href="https://www.canon.it/cameras/eos-r5c/" target="_blank" rel="noreferrer noopener">Canon EOS R5C</a></em>, dovrebbe rivelarsi una scelta vincente. Questo setup non solo offre immagini immersive, ma ci permette anche di sperimentare con riprese stereoscopiche, che aggiungono un livello extra di profondità e realismo.</p>



<p>La cinepresa Canon EOS R5C, con la sua gamma dinamica tra 11 e 12 stop e sensore da 8K, offre un ottimo rapporto qualità-prezzo. È una considerazione importante per noi, poiché stiamo cercando di mantenere un budget equilibrato senza sacrificare la qualità. Valuteremo anche se noleggiarla&#8230; Da <a href="https://www.adcom.it" target="_blank" rel="noreferrer noopener"><em>Adcom</em></a>, obiettivo e camera vengono offerti a circa 200 euro giornalieri.</p>



<p>Ad essere onesti, non possiamo ancora sfruttare appieno le potenzialità della stereoscopia a causa della proiezione, ma è sicuramente qualcosa che ci piacerebbe esplorare in futuro. È una di quelle cose che sembrano davvero cool e potrebbero aggiungere un tocco speciale al nostro progetto. Avete mai proiettato fulldome stereoscopici o avete qualche suggerimento su come potremmo integrarla nel nostro lavoro? Sarei felice di sentire i vostri pensieri e idee.</p>



<p>E se in qualcosa mancherà rispetto a camere più blasonate&#8230; Anche in questo caso, contiamo di sfruttare l&#8217;AI per il miglioramento della qualità dei video. Ma le ricerche, nel campo, dobbiamo ancora farle.</p>



<h2 class="wp-block-heading">Conclusioni</h2>



<p>Alla fine, la nostra scelta di strumenti digitali e attrezzature riflette il desiderio di non scendere a compromessi sulla qualità, pur tenendo d&#8217;occhio il budget.</p>



<p>In breve, stiamo creando qualcosa che va oltre il cinema tradizionale. Grazie all&#8217;intelligenza artificiale e alla tecnologia di punta, il &#8220;cinema del futuro&#8221; non è più un sogno. È reale, vogliamo vederlo accadere. E con il genio di <strong><em><a href="https://www.linkedin.com/in/gbernasconi" target="_blank" rel="noreferrer noopener">Gérard Bernasconi</a></em></strong> alla sceneggiatura (il quale ci ha dato anche un gran contributo tecnico), la precisione di <strong><a href="https://www.linkedin.com/in/michela-sette-613009198/" target="_blank" rel="noreferrer noopener"><em>Michela Sette</em></a></strong> nel ruolo di VFX Supervisor e la creatività di <strong><em><a href="https://www.linkedin.com/in/michele-pelosio-4a455b112/" target="_blank" rel="noreferrer noopener">Michele Pelosio</a></em></strong> alla regia, stiamo forgiando un&#8217;esperienza cinematografica rivoluzionaria. Tenetevi pronti, perché stiamo per portarvi in un mondo dove cinema e realtà si fondono in un&#8217;esperienza trascendentale <img src="https://s.w.org/images/core/emoji/15.0.3/72x72/1f642.png" alt="🙂" class="wp-smiley" style="height: 1em; max-height: 1em;" /></p>
<p>L'articolo <a href="https://www.darioriccio.com/ai-nella-produzione-cinematografica-come-produrre-un-film-innovativo-low-budget/">AI nella produzione cinematografica: come produrre un film innovativo low budget</a> è apparso primo per <a href="https://www.darioriccio.com">Il Futuro del Cinema - di Dario Riccio</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.darioriccio.com/ai-nella-produzione-cinematografica-come-produrre-un-film-innovativo-low-budget/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Come fare film low budget con l&#8217;Intelligenza Artificiale &#8211; Prime fasi</title>
		<link>https://www.darioriccio.com/come-fare-film-low-budget-con-lintelligenza-artificiale-prime-fasi/</link>
					<comments>https://www.darioriccio.com/come-fare-film-low-budget-con-lintelligenza-artificiale-prime-fasi/#comments</comments>
		
		<dc:creator><![CDATA[Dario Riccio]]></dc:creator>
		<pubDate>Thu, 16 Feb 2023 17:13:23 +0000</pubDate>
				<category><![CDATA[Cinema]]></category>
		<category><![CDATA[Tecnologia]]></category>
		<category><![CDATA[cinema]]></category>
		<category><![CDATA[intelligenza artificiale]]></category>
		<guid isPermaLink="false">https://www.darioriccio.com/?p=774</guid>

					<description><![CDATA[<p>Scopri come utilizzare gli ultimi strumenti dell'intelligenza artificiale per scrivere grandi sceneggiature a basso budget. Ottieni consigli, suggerimenti e strategie dagli esperti per rendere il tuo prossimo film un successo.</p>
<p>L'articolo <a href="https://www.darioriccio.com/come-fare-film-low-budget-con-lintelligenza-artificiale-prime-fasi/">Come fare film low budget con l&#8217;Intelligenza Artificiale &#8211; Prime fasi</a> è apparso primo per <a href="https://www.darioriccio.com">Il Futuro del Cinema - di Dario Riccio</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p>Inizio questo articolo (che dividerò in più parti) il giorno dell&#8217;Immacolata: l&#8217;8 dicembre. Ho voglia di parlare dello stato attuale dell&#8217;intelligenza artificiale per coadiuvare il cinema low budget. Mi richiederà del tempo soprattutto per provare i vari servizi, non volendo fare il solito sterile elenco. Anche perché ci aiuterà a produrre contenuti per il cinema che realizzeremo nei prossimi tempi.</p>



<p>L&#8217;idea me l&#8217;ha involontariamente data <a href="https://www.linkedin.com/in/nicolasperrier/" target="_blank" rel="noreferrer noopener">Nicolas Perrier</a> dell&#8217;Università di Lione, in Francia, con un suo <a href="https://www.linkedin.com/feed/update/urn:li:activity:7006515451774001152/" target="_blank" rel="noreferrer noopener">post su Linkedin</a>. Perrier è un bravo esperto in innovazione nella realtà aumentata e virtuale, e il post in questione riguarda <a href="https://plask.ai" target="_blank" rel="noreferrer noopener">Plask</a>; uno dei tanti tools per realizzare animazioni 3D a partire da un semplice video. In pratica Motion Capture, senza costose e complesse apparecchiature. Tecnologia che può interessarci particolarmente per produrre video animati a una frazione del costo attuale, e persino con attori a distanza.</p>



<figure class="wp-block-video"><video controls src="https://www.darioriccio.com/wp-content/uploads/2022/12/Hero.mp4"></video><figcaption class="wp-element-caption">Video esempio di Plask</figcaption></figure>



<p>Ulteriore aiuto, oltre che dallo stesso Nicolas con i suoi innumerevoli posts, mi viene dal sito <a href="https://www.futurepedia.io" target="_blank" rel="noreferrer noopener">Futurepedia.io</a>. Una &#8220;wiki&#8221; sull&#8217;intelligenza artificiale, con la selezione di molti strumenti ad oggi disponibili per il grande pubblico.</p>



<p>Andiamo quindi ad analizzarne alcuni, nello specifico quelli utili nel cinema. Tanto per la scrittura, quanto per la produzione tecnica dei video e per le voci. Vedremo la qualità dei risultati, faremo esperimenti e ne conosceremo i costi.</p>



<p>Per meglio comprendere come usarli nei nostri film low budget, ho deciso di creare un cortometraggio (di bassissime pretese, solo per fare prove tecniche) usandoli il più possibile.</p>



<h2 class="wp-block-heading">Creare video con l&#8217;intelligenza artificiale</h2>



<p>Dividiamo i servizi in tre macro-categorie: <em>scrittura</em>, <em>video</em> e <em>audio</em>. Iniziando dalla scrittura, dovendo avere prima di tutto l&#8217;idea.</p>



<h2 class="wp-block-heading">Scrittura cinematografica con l&#8217;intelligenza artificiale</h2>



<p>Necessitiamo una storia. Realizzata da un&#8217;AI? Vediamo, gli strumenti di scrittura non mancano. E se non sarete d&#8217;accordo, potrete sempre controbattere nei commenti.</p>



<h2 class="wp-block-heading">Come funziona GPT-3</h2>



<p>La maggior parte dei servizi pubblici per scrittura AI è ad oggi basata su <strong>GPT-3</strong> (con i suoi 175 miliardi&nbsp;di parametri di apprendimento automatico). Le alternative in realtà sarebbero tante: <strong><a href="https://huggingface.co/bigscience/bloom" target="_blank" rel="noreferrer noopener">BigScience Bloom</a></strong>, linguaggio su larga scala che è stato lanciato da poco (<em>con il vantaggio di essere open source</em>), o la tedesca <em>Aleph Alpha</em> con il suo <strong>Luminous</strong> (da 200 miliardi di parametri).</p>



<h3 class="wp-block-heading">Cosa sono i parametri di un&#8217;intelligenza artificiale?</h3>



<p>Immagina di avere un compito che richiede di prevedere se un&#8217;immagine contiene un gatto o no. Un modello di intelligenza artificiale potrebbe essere addestrato su molte immagini etichettate come &#8220;gatto&#8221; o &#8220;non gatto&#8221; per imparare a riconoscere i tratti distintivi dei gatti.</p>



<p>Per fare questo, il modello utilizza una rete neurale, che è un insieme di nodi interconnessi. Ogni nodo rappresenta un calcolo effettuato sui dati di input. <strong>I parametri, o &#8220;pesi&#8221;, sono i valori assegnati a ciascun nodo che influiscono sulla forza della connessione tra i nodi</strong>.</p>



<p>Quando il modello vede un&#8217;immagine nuova, questi pesi vengono utilizzati per effettuare una serie di calcoli che alla fine producono una previsione, ad esempio &#8220;gatto&#8221; o &#8220;non gatto&#8221;. Il numero di pesi che vengono utilizzati nel modello è il numero di parametri.</p>



<p>In sintesi, i parametri sono come dei valori di ajuste (o adattamenti, diciamo la modifica dei valori di un modello di intelligenza artificiale durante l&#8217;allenamento al fine di migliorare la sua performance) che influiscono sul modo in cui il modello elabora i dati per produrre una previsione.</p>



<p>Un modello con molti parametri avrà più opportunità di modificare i suoi calcoli per adattarsi ai dati di allenamento, ma potrebbe anche essere più incline a <em>overfitting</em>, ovvero a un&#8217;eccessiva aderenza ai dati di allenamento e una scarsa capacità di generalizzazione.</p>



<h3 class="wp-block-heading">Altri concorrenti di ChatGPT</h3>



<p>Altri concorrenti sono <strong>Nvidia</strong> con il <em><a href="https://developer.nvidia.com/megatron-turing-natural-language-generation" target="_blank" rel="noreferrer noopener">Megatron NGL</a></em> (immenso, ma non disponibile al pubblico), <em>Google</em> con i suoi <strong><a href="https://ai.googleblog.com/2021/12/more-efficient-in-context-learning-with.html" target="_blank" rel="noreferrer noopener">GLaM</a></strong>, <strong><a href="https://blog.google/technology/ai/lamda/" target="_blank" rel="noreferrer noopener">LaMDA</a></strong> e <strong><a href="https://ai.googleblog.com/2022/04/pathways-language-model-palm-scaling-to.html" target="_blank" rel="noreferrer noopener">PaLM</a></strong> (si, non si fanno mancare nulla), <strong><a href="https://ai.facebook.com/blog/democratizing-access-to-large-scale-language-models-with-opt-175b/" target="_blank" rel="noreferrer noopener">OPT</a></strong> di <em>Meta</em>, <strong><a href="https://github.com/amazon-science/alexa-teacher-models" target="_blank" rel="noreferrer noopener">AlexaTM</a></strong> di <em>Amazon</em> o vari cinesi come <em>Alibaba</em> e il suo <strong><a href="https://dl.acm.org/doi/abs/10.1145/3503221.3508417" target="_blank" rel="noreferrer noopener">BaGuaLu</a></strong>.</p>



<p>Per finire cito <strong><a href="https://6b.eleuther.ai" target="_blank" rel="noreferrer noopener">GPT-J</a></strong>, altra alternativa open source a GPT-3.</p>



<p>Capiamo quindi rapidamente come funziona GPT-3, da una risposta riadattata della stessa AI:</p>



<p><em>GPT-3 (Generative Pretrained Transformer 3) è un modello linguistico all&#8217;avanguardia sviluppato da OpenAI. Utilizza una tecnica di apprendimento profondo chiamata </em>&#8220;<em>transformers</em>&#8220;<em> per generare testo simile a quello umano sulla base di un dato input.</em></p>



<p><em>Ecco come funziona il GPT-3:</em></p>



<ol class="wp-block-list">
<li><em>Il modello viene addestrato su un ampio set di testi generati dall&#8217;uomo, come libri, articoli e siti web. Questo processo di addestramento consente al modello di apprendere gli schemi e le strutture del linguaggio naturale.</em></li>



<li><em>Quando riceve un input, il modello lo elabora utilizzando i suoi strati di reti neurali. Ogni strato svolge un compito diverso, come l&#8217;analisi della sintassi, della semantica e del contesto dell&#8217;input.</em></li>



<li><em>Il modello genera quindi una risposta basata sull&#8217;input e sulla sua comprensione del linguaggio naturale. Lo fa prevedendo le parole successive della frase, utilizzando gli schemi e le strutture apprese durante l&#8217;addestramento.</em></li>



<li><em>Il modello ripete questo processo più volte, generando più risposte all&#8217;input. Queste risposte vengono poi classificate e valutate dal modello e la risposta più alta viene selezionata come output finale.</em></li>
</ol>



<p><em>GPT-3 è noto per la sua capacità di generare testo spesso difficile da distinguere da quello scritto da un essere umano. È utilizzato in diverse applicazioni, come la traduzione linguistica, la sintesi e la generazione di testi.</em></p>



<h3 class="wp-block-heading">ChatGPT racconta storie per la sceneggiatura.</h3>



<p>Cominciamo direttamente dal prodotto di casa Open AI: <strong>ChatGPT</strong>. È forse il tool del momento; il primo ad aver fatto un salto tra il grande pubblico. È quasi preoccupante quanto sia preciso e &#8220;reale&#8221; nelle conversazioni, ma se ne è discusso anche troppo e ovunque nelle ultime settimane.</p>



<p>Mi sono iscritto al sito di Open AI, ho aperto la chat per provare a parlare con GPT-3 (non oso immaginare cosa farà il prossimo GPT-4) chiedendo di scrivermi una storia con alcuni dialoghi per un cortometraggio in grafica digitale. E beh, semplicemente me l&#8217;ha fatta.</p>



<h4 class="wp-block-heading">La storia scritta da ChatGPT</h4>



<p>Questa è la storia senza alcun ritocco, solo tradotta in italiano (potete leggere l&#8217;originale nella versione inglese di questo articolo).</p>


<div class="lightweight-accordion"><details><summary class="lightweight-accordion-title"><span>Titolo: La città perduta (premi qui per aprire)</span></summary><div class="lightweight-accordion-body">

<p>Quando il sole sorse all&#8217;orizzonte, un piccolo gruppo di avventurieri si mise in viaggio per trovare la città perduta dell&#8217;oro. Erano alla ricerca da mesi, seguendo vecchie mappe e antiche leggende nella speranza di fare fortuna.</p>



<p>&#8220;Siete sicuri che questa sia la strada giusta?&#8221; chiese <strong>Maria</strong>, la leader del gruppo. &#8220;Non vedo alcun segno della città all&#8217;orizzonte&#8221;.</p>



<p>&#8220;Fidati di me, Maria&#8221;, rispose <strong>Jake</strong>, l&#8217;esperto di storia antica del gruppo. &#8220;La città è nascosta nelle profondità della giungla e non sarà facile trovarla. Ma se ci atteniamo al piano, la troveremo&#8221;.</p>



<p>Il gruppo si inoltrò nella fitta giungla, frugando tra le liane e il sottobosco con i loro machete. Dopo diverse ore di viaggio estenuante, raggiunsero il bordo di una radura.</p>



<p>&#8220;Guardate!&#8221; gridò <strong>Sarah</strong>, il membro più giovane del gruppo. &#8220;Laggiù! Vedo qualcosa che luccica alla luce del sole!&#8221;.</p>



<p>Il gruppo si precipitò verso il punto in cui Sarah aveva visto il luccichio, e di sicuro trovarono una piccola statua d&#8217;oro sepolta nella terra.</p>



<p>&#8220;Deve essere questa!&#8221; esclamò <strong>Maria</strong>. &#8220;Abbiamo trovato la città perduta dell&#8217;oro!&#8221;.</p>



<p>Il gruppo iniziò a scavare, scoprendo sempre più tesori. Trovarono monete d&#8217;oro, gioielli preziosi e antichi manufatti di grande valore.</p>



<p>&#8220;Siamo ricchi!&#8221; esclamò <strong>Jake</strong>, ridendo per l&#8217;eccitazione. &#8220;Abbiamo trovato un tesoro che va oltre i nostri sogni più sfrenati!&#8221;.</p>



<p>Ma mentre continuavano a scavare, il terreno sotto i loro piedi cominciò a rimbombare e a tremare. All&#8217;improvviso, un&#8217;enorme porta di pietra si aprì, rivelando un ingresso nascosto alla città perduta.</p>



<p>&#8220;Presto, tutti dentro!&#8221; gridò <strong>Maria</strong>, guidando il gruppo nel tunnel buio. &#8220;Dobbiamo trovare la fonte del tesoro prima che sia troppo tardi!&#8221;.</p>



<p>Il gruppo si addentrò nel tunnel, illuminato dalle torce. Raggiunsero una grande camera aperta piena di tesori.</p>



<p>&#8220;Ci siamo!&#8221; gridò <strong>Sarah</strong>. &#8220;La città perduta dell&#8217;oro!&#8221;.</p>



<p>Ma mentre esploravano la camera, sentirono un forte rimbombo. All&#8217;improvviso, il terreno sotto i loro piedi cedette e caddero in una fossa profonda.</p>



<p>&#8220;Aiuto!&#8221; gridò <strong>Maria</strong>, mentre cadevano nell&#8217;oscurità. &#8220;Siamo in trappola!&#8221;.</p>



<p>Ma proprio quando pensavano che tutto fosse perduto, sentirono una voce flebile che li chiamava.</p>



<p>&#8220;Non preoccupatevi, avventurieri&#8221;, disse <strong>la voce</strong>. &#8220;Sono il guardiano della città perduta e vi aiuterò a fuggire&#8221;.</p>



<p>Con l&#8217;aiuto del guardiano, il gruppo riuscì a uscire dalla fossa e a tornare in superficie. Uscirono dalla giungla, trionfanti e ricchi oltre ogni aspettativa.</p>



<p>&#8220;Ce l&#8217;abbiamo fatta!&#8221;, gridò <strong>Jake</strong>, ridendo di gioia. &#8220;Abbiamo trovato la città perduta dell&#8217;oro!&#8221;. </p>

</div></details></div>


<p>Teniamo in considerazione questa prima storia. Certo, non me l&#8217;ha fatta semplice&#8230; Poteva creare una storia in mezzo a una città a caso; al contrario, la giungla sarà più complessa da ricreare. Ma ci devo stare, il gioco è questo.</p>



<h3 class="wp-block-heading">La stessa storia, in versione breve</h3>



<p>Ah, ho anche chiesto una versione più breve. Mi ha fatto una sintesi. Poi ho specificato di volere una versione breve ma con i dialoghi, e semplicemente l&#8217;ha fatta. Ve la riporto per completezza di informazione:</p>


<div class="lightweight-accordion"><details><summary class="lightweight-accordion-title"><span>La città perduta (versione breve)</span></summary><div class="lightweight-accordion-body">

<p>Mentre il gruppo di avventurieri cercava la città perduta dell&#8217;oro, si imbatté in un ingresso nascosto nella giungla.</p>



<p>&#8220;Guardate, laggiù!&#8221; disse <strong>Sarah</strong>, indicando l&#8217;ingresso.</p>



<p>Il gruppo si precipitò verso l&#8217;ingresso ed esplorò la città, trovando un tesoro che andava oltre i loro sogni più sfrenati.</p>



<p>&#8220;Siamo ricchi!&#8221;, gridò <strong>Jake</strong>.</p>



<p>Ma mentre continuavano a cercare, il terreno sotto di loro cedette e caddero in una fossa.</p>



<p>&#8220;Aiuto!&#8221;, gridò <strong>Maria</strong>.</p>



<p>Un guardiano della città li aiutò a fuggire e ne uscirono vittoriosi e ricchi.</p>



<p>&#8220;Ce l&#8217;abbiamo fatta!&#8221;, gridò <strong>Jake</strong>.</p>

</div></details></div>


<h3 class="wp-block-heading">ChatGPT scrive automaticamente la sceneggiatura</h3>



<p>Stavo valutando di raccoglierla in una sceneggiatura, quando ho pensato &#8220;perché non chiederglielo?&#8221;. Detto, fatto. Mi ha riscritto la storia già pronta per il cinema:</p>


<div class="lightweight-accordion"><details><summary class="lightweight-accordion-title"><span>Sceneggiatura di &#8220;La città perduta&#8221;</span></summary><div class="lightweight-accordion-body">

<p>INT. GIUNGLA &#8211; GIORNO</p>



<p>Il sole sorge all&#8217;orizzonte mentre un gruppo di avventurieri, MARIA, JAKE e SARAH, si mette in viaggio per trovare la città d&#8217;oro perduta.</p>



<p>MARIA<br>Siete sicuri che questa sia la strada giusta? Non vedo alcun segno della città all&#8217;orizzonte.</p>



<p>JAKE<br>Fidati di me, Maria. La città è nascosta nel profondo della giungla e non sarà facile trovarla. Ma se ci atteniamo al piano, la troveremo.</p>



<p>Il gruppo si inoltra nella giungla fitta, tagliando le liane e il sottobosco con i loro machete.</p>



<p>SARAH<br>Guardate! Laggiù! Vedo qualcosa che luccica alla luce del sole!</p>



<p>Il gruppo si precipita verso il punto in cui Sarah ha visto il luccichio e trova una piccola statua d&#8217;oro sepolta nella terra.</p>



<p>MARIA<br>Deve essere questa! Abbiamo trovato la città perduta dell&#8217;oro!</p>



<p>Il gruppo inizia a scavare, scoprendo sempre più tesori.</p>



<p>JAKE<br>Siamo ricchi! Abbiamo trovato un tesoro che va oltre i nostri sogni più sfrenati!</p>



<p>Ma mentre continuano a scavare, il terreno sotto i loro piedi inizia a rimbombare e a tremare. All&#8217;improvviso, un&#8217;enorme porta di pietra si apre, rivelando un ingresso nascosto alla città perduta.</p>



<p>MARIA<br>Presto, tutti dentro! Dobbiamo trovare la fonte del tesoro prima che sia troppo tardi!</p>



<p>Il gruppo si addentra nel tunnel, illuminato dalle torce. Raggiungono una grande camera aperta piena di tesori.</p>



<p>SARAH<br>È questa! La città perduta dell&#8217;oro!</p>



<p>Ma mentre esplorano la camera, sentono un forte rimbombo. All&#8217;improvviso, il terreno sotto i loro piedi cede e cadono in una fossa profonda.</p>



<p>MARIA<br>Aiuto! Siamo in trappola!</p>



<p>Ma proprio quando pensano che tutto sia perduto, sentono una voce flebile che li chiama.</p>



<p>GUARDIA (fuori campo)<br>Non preoccupatevi, avventurieri. Sono il guardiano della città perduta e vi aiuterò a fuggire.</p>



<p>Con l&#8217;aiuto del guardiano, il gruppo riesce a uscire dalla fossa e a tornare in superficie. Riemergono dalla giungla, trionfanti e ricchi oltre ogni aspettativa.</p>



<p>JAKE<br>Ce l&#8217;abbiamo fatta! Abbiamo trovato la città perduta dell&#8217;oro!</p>

</div></details></div>


<p>A parte <em>Interno Giungla</em>, per il resto è un&#8217;ottima base di partenza. Ma ad <em>Andrea Rocci</em>, sceneggiatore &#8220;umano&#8221;, seppur senza un&#8217;analisi approfondita (eravamo a fare due chiacchiere davanti una birra) gli sono saltati all&#8217;occhio alcuni errori di forma.</p>



<p>La sceneggiatura parla infatti per immagini, e frasi come &#8220;scoprendo sempre più tesori&#8221;, o &#8220;ricchi oltre ogni aspettativa&#8221; non sono affatto chiare. Quali tesori? Statue, monete, altro? E in che senso ricchi? Sono pieni di oro addosso? Sono vestiti in maniera appariscente? Tutti con l&#8217;ultimo iPhone e le chiavi di una Ferrari?</p>



<p>Per non parlare della mancanza di descrizioni degli ambienti. La giungla stessa è lasciata al più completo immaginario del regista, o degli scenografi (o 3D artist, che dir si voglia).</p>



<p>Però di necessità virtù, lasceremo alla discrezione del regista (esistesse, almeno lui&#8230;) ogni scelta. Proveremo a cercarne uno buono su <a href="https://www.character.ai" target="_blank" rel="noreferrer noopener"><strong>character.ai</strong></a>, forse. Anzi, provatelo e parlate con dei &#8220;personaggi&#8221; artificiali. C&#8217;è persino <em>Albert Einstein</em>!</p>



<h4 class="wp-block-heading">Prezzi</h4>



<p>Qui è semplice: di base <strong>non costa nulla</strong>. Sta iniziando ad essere commercializzata una versione a 20 dollari al mese in alcuni Paesi, che elimina alcuni limiti (soprattutto dovuti alla potenza di calcolo necessaria per gestire le milioni di richieste che arrivano ogni giorno ad OpenAI).</p>



<h2 class="wp-block-heading">Alternative a ChatGPT</h2>



<p>Al momento GPT-3 è difficile da battere&#8230; Nell&#8217;attesa che escano i candidati più blasonati (a breve <em><a href="https://blog.google/technology/ai/bard-google-ai-search-updates/" target="_blank" rel="noreferrer noopener">Google Bard</a></em>), ho chiesto a ChatGPT stesso i suoi concorrenti. Mi ha segnalato per cominciare <em>ScriptBuddy</em>, <em>WriterDuet</em> e <em>AI Screenwriter</em>. Chiedendogliene altri, Plotbot, Amazon Storywriter e InkTip Script Listing. Ok, pensavo fosse sufficiente&#8230; Tranne che la risposta in realtà è una parziale menzogna. Qui si vedono i limiti attuali di questa intelligenza artificiale, in parte (ma non solo) a causa del fatto che i dati di cui dispone sono aggiornati al 2021.</p>



<p>Intanto <em>ScriptBuddy</em>, inizialmente basato su GPT-2, non viene più mantenuto da oltre 3 anni; lo escludiamo. <em>WriterDuet</em> è invece utilissimo nella sistemazione di sceneggiature. Ma lui non scrive nulla da solo&#8230; <em>AI Screenwriter</em> non credo esista neppure, quanto meno il caro vecchio Google non mi da risultati.</p>



<p>Per quel che riguarda Plotbot, o meglio <em><a href="https://github.com/rasbot/plot-bot" target="_blank" rel="noreferrer noopener">Plot-bot</a></em>, genera effettivamente trame di film sfruttando il motore GPT-2. Ma, come ScriptBuddy, sono anni che non viene mantenuto e per ottimizzare i tempi lo escludo. Lo stesso vale per <em><a href="https://en.wikipedia.org/wiki/Amazon_Storywriter" target="_blank" rel="noreferrer noopener">Amazon StoryWriter</a></em>, mentre InkTip Script Listing non serve a generare testi.</p>



<h3 class="wp-block-heading">Dramatron</h3>



<p><a href="https://deepmind.github.io/dramatron/" target="_blank" rel="noreferrer noopener"><strong>Dramatron</strong></a> è una nuova alternativa, marchiata <em>Deepmind</em>, che promette esattamente quello che stiamo cercando: scrivere sceneggiature per cinema e teatro. Purtroppo è stato rilasciato solo un paio di giorni intorno al 9 dicembre, e quando sono arrivato a provarlo era troppo tardi.</p>



<p>Resta un progetto interessante da tenere in considerazione quando sarà aperto. Per il momento, non piace a <em><a href="https://www.youtube.com/@georgemike-com" target="_blank" rel="noreferrer noopener">George Mike</a></em>, autore di questo video su YouTube.</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-4-3 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="DeepMind&#039;s Dramatron is very not good. [Demo]" width="678" height="509" src="https://www.youtube.com/embed/A1qGOfbGQcA?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" allowfullscreen></iframe>
</div><figcaption class="wp-element-caption">Prova di Dramatron</figcaption></figure>



<p>Il suo commento? &#8220;<em>&#8230;in generale mi è sembrato insipido. E non mi ha dato molto di più dei dialoghi che si trovano in tutti i film. Ha chiaramente colto il genere, ma non lo ha approfondito in modo interessante. Non ha fatto progredire la narrazione</em>&#8220;.</p>



<h3 class="wp-block-heading"><strong>Rytr</strong></h3>



<p>Tramite <em>Google</em> e <em>Futurepedia</em> sono poi giunto a <a href="https://rytr.me" target="_blank" rel="noreferrer noopener"><em>Rytr</em></a>. Uno strumento carino. Account e accesso, e mi ritrovo nell&#8217;area di lavoro. Chiede fondamentalmente lingua, stile e caso d&#8217;uso del testo creato, e lui agisce. Non essendoci chiaramente &#8220;film script&#8221;, ho provato intanto con uno strumento chiamato &#8220;bacchetta magica&#8221;.</p>



<p>Stessa richiesta fatta a ChatGPT, la risposta è stata però quasi esilarante:</p>


<div class="lightweight-accordion"><details><summary class="lightweight-accordion-title"><span>Storia per un cotrometraggio</span></summary><div class="lightweight-accordion-body">

<p>Nel nome di Allah, il Compassionevole, il Misericordioso</p>



<p>Io credo</p>



<p>Credo in Allah, l&#8217;Unico Dio</p>



<p>Credo nei profeti e nei messaggeri</p>



<p>Credo negli angeli e nelle scritture</p>



<p>Credo nei libri della rivelazione</p>



<p>Credo nella vita dopo la morte e che nel giorno del giudizio sarà fatta giustizia.</p>



<ul class="wp-block-list">
<li>Scusa, cosa? Stai dicendo &#8220;credo&#8221; a tutto.</li>
</ul>



<p>Non ho tempo per questo.</p>



<ul class="wp-block-list">
<li>Mi dispiace, non ti seguo.</li>



<li>Perché ti stai scusando?</li>



<li>Che cosa?</li>
</ul>

</div></details></div>


<p>Proviamo qualcosa di diverso e più specifico&#8230; Ho chiesto &#8220;Ho bisogno di una sceneggiatura di circa 2000 parole, con dialoghi, per realizzare un cortometraggio in computer grafica. Il titolo è: la città perduta&#8221;, e impostato come come caso d&#8217;uso &#8220;trama di una storia&#8221;. Prompt basato sul precedente output di ChatGPT. Ma ancora siamo lontani, seppur abbiamo una storiella di base:</p>


<div class="lightweight-accordion"><details><summary class="lightweight-accordion-title"><span>La città perduta</span></summary><div class="lightweight-accordion-body">

<p>In un futuro prossimo, un equipaggio di archeologi e scienziati in missione esplorativa su un pianeta sconosciuto viene catturato e imprigionato da un&#8217;antica civiltà aliena.</p>



<p>La squadra è in un certo senso persa, a causa della barriera linguistica e delle interazioni con gli alieni. Vengono tenuti in cattività per decenni, esplorando le rovine e scoprendo tutti i segreti della civiltà.</p>



<p>Alla fine riescono a tornare a casa. Gli scienziati hanno imparato molte cose nuove e le riportano sulla Terra per condividerle con gli umani. Tuttavia, hanno impiegato così tanto tempo che ormai non solo la Terra è cambiata, ma non c&#8217;è più tempo per queste scoperte.</p>

</div></details></div>


<p>Stessa richiesta, ma con il comando magico come caso d&#8217;uso:</p>


<div class="lightweight-accordion"><details><summary class="lightweight-accordion-title"><span>La città perduta</span></summary><div class="lightweight-accordion-body">

<p>INT. SOGGIORNO &#8211; POMERIGGIO</p>



<p>La stanza è ben arredata e sembra molto confortevole. C&#8217;è una porta che conduce a un&#8217;altra stanza.</p>



<p>JOE: Buongiorno, John.</p>



<p>Buongiorno, Joe. Come sta stamattina?</p>



<p>JOE: Sto bene, grazie per averlo chiesto. E tu?</p>



<p>JOHN: Sto benissimo! Cosa c&#8217;è in programma per oggi?</p>



<p>JOE: Vado a recuperare le mie letture e poi probabilmente farò una passeggiata nel quartiere. Hai qualche programma</p>

</div></details></div>


<p>Ok, un tool utile per brevi testi ma è ancora lontano dall&#8217;autonomia totale. Veniamo ai prezzi, anche se nel nostro caso mantengo il testo di ChatGPT.</p>



<h4 class="wp-block-heading">Prezzi</h4>



<p>Rytr ha una versione completamente <strong>gratuita</strong>, limitata a 10000 caratteri al mese. Altrimenti costa <strong>$ 9 al mese</strong> per 100.000 caratteri, o <strong>$ 29 al mese</strong> per uso illimitato.</p>



<h3 class="wp-block-heading">Shortly AI</h3>



<p>Altro strumento è <strong><a href="https://www.shortlyai.com" target="_blank" rel="noreferrer noopener">Shortly AI</a></strong>, principalmente studiato per combattere il &#8220;blocco dello scrittore&#8221;. Scrivi il tuo testo o una frase, e lui continua.</p>



<p>Non potendogli chiedere di fare la storia per me, ho usato la prima frase della storia generata da ChatGPT: <em>As the sun rose over the horizon, a small group of adventurers set out on their journey to find the lost city of gold.</em> Seppur basato sullo stesso modello linguistico, il prosieguo è stato chiaramente differente. </p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="682" src="https://www.darioriccio.com/wp-content/uploads/2022/12/Screenshot-2022-12-10-alle-10.00.55-1024x682.jpg" alt="" class="wp-image-789" srcset="https://www.darioriccio.com/wp-content/uploads/2022/12/Screenshot-2022-12-10-alle-10.00.55-1024x682.jpg 1024w, https://www.darioriccio.com/wp-content/uploads/2022/12/Screenshot-2022-12-10-alle-10.00.55-300x200.jpg 300w, https://www.darioriccio.com/wp-content/uploads/2022/12/Screenshot-2022-12-10-alle-10.00.55-768x512.jpg 768w, https://www.darioriccio.com/wp-content/uploads/2022/12/Screenshot-2022-12-10-alle-10.00.55-1536x1023.jpg 1536w, https://www.darioriccio.com/wp-content/uploads/2022/12/Screenshot-2022-12-10-alle-10.00.55-2048x1364.jpg 2048w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure>



<p>Questo è il testo finale:</p>


<div class="lightweight-accordion"><details><summary class="lightweight-accordion-title"><span>La città perduta</span></summary><div class="lightweight-accordion-body">

<p>Quando il sole sorse all&#8217;orizzonte, un piccolo gruppo di avventurieri si mise in viaggio per trovare la città perduta dell&#8217;oro. Si diceva che nella città perduta ci fossero più di mille tonnellate d&#8217;oro, ma come tutte le leggende, la storia del tesoro viene raccontata solo a chi ne è degno.</p>



<p>Erano in viaggio da due settimane e speravano di poter raggiungere la loro destinazione entro la fine della settimana. Finora la strada era stata scorrevole, ma quando si avvicinavano a una collina, c&#8217;era una piccola costruzione sulla strada, che faceva rallentare i carri. La carovana aveva due grandi carri che trasportavano l&#8217;oro, mentre il resto era a cavallo. Il resto del gruppo non era molto preoccupato per il ritardo, a parte il leader. Per contenere grandi quantità di oro, argento e gioielli risalenti agli antichi Aztechi. Una città perduta che era protetta da un numero incalcolabile di demoni e spettri. Si diceva che non un uomo o una bestia che fosse entrato nella città maledetta fosse tornato.</p>



<p>Il piccolo convoglio si diresse verso il luogo indicato dal datore di lavoro. Ripassarono un&#8217;ultima volta i dettagli del contratto. I sei avventurieri si erano divisi in tre gruppi da due. Ogni gruppo si era posizionato in un luogo. La città era nascosta nelle profondità di una catena montuosa al centro della quale si trovava una fortezza ben protetta lasciata dall&#8217;impero azteco. Si diceva che il pozzo fosse una porta d&#8217;accesso alla città perduta. All&#8217;interno della fortezza doveva trovarsi la statua di un angelo. Si trattava di una speciale tavoletta di pietra con un incantesimo che avrebbe concentrato il potere del gioiello sull&#8217;ottavo figlio di un re azteco.</p>



<p>Alla notizia della strana fortezza, il capo azteco fece marciare il suo esercito per attaccarla, ma misteriosamente uno dei generali e il suo esercito furono portati via in un altro regno e sono scomparsi. Il re ordinò quindi la ritirata. Questo fu l&#8217;inizio dei problemi. Mentre se ne stavano andando, furono attaccati da grandi mostri che si pensava fossero stati uccisi, ma poi furono visti in cima alla fortezza. Le battaglie continuarono per tutta la settimana successiva, con la sconfitta degli Aztechi.</p>



<p>Alla fine, il re ordinò alle truppe rimaste di tornare in città, dicendo che le battaglie della settimana precedente avevano risvegliato alcuni antichi demoni, responsabili della scomparsa non solo di suo figlio, ma anche di alcuni dei suoi generali e delle truppe rimaste. Il re aveva messo al bando ogni tipo di magia e di incantesimo nella sua città e tutti dovevano essere giustiziati. Un giovane è stato aiutato dalla madre, anch&#8217;essa maga, una volta scoperta.</p>

</div></details></div>


<p>In definitiva, una bella storia ma con poco senso. L&#8217;AI ha preso pezzi di testo di qua e di là, ma senza collegarli in maniera &#8220;intelligente&#8221;.</p>



<h4 class="wp-block-heading">Prezzi</h4>



<p>Shortly AI è sicuramente utile per aggiungere una frase o due e sormontare il blocco dello scrittore, ma per lasciarlo far da solo non sembra il tool migliore.</p>



<p>Il suo costo non è neppure trascurabile. Parliamo di <strong>$ 79 al mese</strong>, o <strong>$ 780 all&#8217;anno</strong>. Io ho comunque utilizzato la prova gratuita, per cui è richiesto solo di registrare un account.</p>



<h3 class="wp-block-heading">WriterX</h3>



<p>Vediamo <a href="https://writerx.co" target="_blank" rel="noreferrer noopener"><strong>WriterX</strong></a>. Ha templates per creare articoli, post sui social, conclusioni di testi e tanti altri. Mi aspetto risultati simili a Shortly, non essendo progettato per intere storie.</p>



<p>Purtroppo però la versione di prova gratuita non permette di accedere a tutte le funzionalità, e non mi andava di pagare per un servizio (anche abbastanza caro) senza prima averlo provato; avendo persino un&#8217;alternativa gratuita di cui sono parzialmente soddisfatto.</p>



<p>Seppur lo stia valutando per le sue utili funzionalità di marketing&#8230; Come la bio dei miei canali social, o eventuali futuri aiuti nella scrittura degli articoli del blog. L&#8217;ho anche usato per scrivere la descrizione meta di questo stesso articolo.</p>



<h4 class="wp-block-heading">Prezzi</h4>



<p>WriterX costa <strong>$ 29 al mese</strong> nella versione standard (praticamente la trial che avevo), o <strong>$ 59</strong> <strong>al mese</strong> per avere testi e funzioni illimitati. È disponibile in 25 lingue.</p>



<h3 class="wp-block-heading">Jasper AI</h3>



<p>Volevo provare anche <strong><a href="https://www.jasper.ai" target="_blank" rel="noreferrer noopener">Jasper AI</a></strong>, che alla fine è un&#8217;interfaccia grafica per la stessa GPT-3. È forse il più pubblicizzato, si trova ovunque. Ma, semplicemente, non ho neppure cominciato ad usarlo: obbliga ad inserire la carta di credito anche per la versione gratuita, e per verificarla non prende pochi centesimi ma l&#8217;intero <strong>primo mese: 29 dollari</strong>. Atteggiamento poco professionale, non voglio quindi averci a che fare e volevo i miei soldi immediatamente indietro.</p>



<h3 class="wp-block-heading">GPT-J e Writey AI</h3>



<p>Per uscire dall&#8217;universo GPT-3, volevo provare l&#8217;open source <strong>GPT-J</strong> tramite il sito web <a href="https://6b.eleuther.ai" target="_blank" rel="noreferrer noopener">6b.eleuther.ai</a>;  però si bloccava sempre con il messaggio: &#8220;Unable to connect to the model. Please try again&#8221;. E <strong><a href="https://writey.ai" target="_blank" rel="noreferrer noopener">Writey AI</a></strong>, anch&#8217;esso ben funzionante ma troppo specializzato nella stesura di articoli per blog. Cosa per la quale vi consiglio di dargli un&#8217;occhiata, non foss&#8217;altro per 5 articoli al mese totalmente gratuiti.</p>



<p>In definitiva, sono stanco e ogni altra ricerca mi pare inutile. Dopotutto il testo di ChatGPT è valido (se così si può definire un testo &#8220;automatico&#8221;), quindi direi di passare alla realizzazione tecnica del cortometraggio.</p>



<h2 class="wp-block-heading">Creazione dei personaggi 3D</h2>



<h3 class="wp-block-heading">Può un&#8217;intelligenza artificiale generare personaggi 3D?</h3>



<p>Abbiamo bisogno quindi dei personaggi per la nostra storia, ma è davvero possibile generarli con l&#8217;A.I.? <strong>Spoiler: oggi, non bene</strong>. Ci sono tante promesse e alcune soluzioni che si avvicinano al risultato, ma non è ancora possibile. Vediamole in breve, poiché saranno utili nel prossimo futuro. Ma poi andremo a capire come avere i personaggi della nostra storia, ora, con pochi soldi.</p>



<h3 class="wp-block-heading">PIFuHD</h3>



<p>Per iniziare c&#8217;è <a href="https://colab.research.google.com/drive/11z58bl3meSzo6kFqkahMa35G5jmh2Wgt#scrollTo=1TfPAtL4CyZw" target="_blank" rel="noreferrer noopener">PIFuHD</a>, già disponibile al pubblico e che promette di creare un personaggio 3D a partire da una singola foto. Funziona, ma già dai video di presentazione si rimarca una qualità lontana dall&#8217;accettabile al cinema.</p>



<h3 class="wp-block-heading">Google DreamFusion</h3>



<p><a href="https://dreamfusion3d.github.io" target="_blank" rel="noreferrer noopener"><strong>DreamFusion</strong></a> è una delle prima A.I. in grado di sfruttare i dati 2D di Stable Diffusion (gli stessi usati per la creazione di foto tramite intelligenza artificiale, ormai molto diffusa), per la creazione di modelli 3D.</p>



<p>Stesso problema di prima: qualità insoddisfacente già a prima vista. </p>



<h3 class="wp-block-heading">Microsoft Rodin Diffusion</h3>



<p>Una novità del 2023 in casa Microsoft, <a href="https://3d-avatar-diffusion.microsoft.com" target="_blank" rel="noreferrer noopener">Rodin Diffusion</a> ancora non è disponibile al pubblico. Promette di creare un avatar 3D realistico a partire da una sola foto. Beh, a giudicare dalle foto rilasciate sul loro sito i capelli&#8230; Sempre quelli sono il problema!</p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="275" src="https://www.darioriccio.com/wp-content/uploads/2023/01/3d-avatar-diffusion-1-1024x275.jpg" alt="" class="wp-image-806" srcset="https://www.darioriccio.com/wp-content/uploads/2023/01/3d-avatar-diffusion-1-1024x275.jpg 1024w, https://www.darioriccio.com/wp-content/uploads/2023/01/3d-avatar-diffusion-1-300x80.jpg 300w, https://www.darioriccio.com/wp-content/uploads/2023/01/3d-avatar-diffusion-1-768x206.jpg 768w, https://www.darioriccio.com/wp-content/uploads/2023/01/3d-avatar-diffusion-1-1536x412.jpg 1536w, https://www.darioriccio.com/wp-content/uploads/2023/01/3d-avatar-diffusion-1-2048x549.jpg 2048w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption class="wp-element-caption">Modello generativo di Microsoft 3D Avatar Diffusion</figcaption></figure>



<h3 class="wp-block-heading">Nvidia Get3D</h3>



<p>Non può di certo mancare la regina delle schede grafiche, Nvidia, tra i tool 3D. E in effetti il suo <a href="https://nv-tlabs.github.io/GET3D/" target="_blank" rel="noreferrer noopener"><strong>Get3D</strong></a> è superlativo nella creazione di modelli 3D partendo dalle informazioni apprese da un dataset di modelli 3D.</p>



<p>Il dataset è molto più limitato, e questo è uno svantaggio nella varietà di oggetti 3D realizzabili. È però open-source, punto decisamente a favore, seppur l&#8217;intero training va fatto nel proprio sistema. Questo vuol dire schede video di fascia alta a go-go&#8230; E costano un po&#8217;. Tanto.</p>



<h3 class="wp-block-heading">Nvidia Magic3D</h3>



<p>Come ha risolto Nvidia il problema della &#8220;limitazione&#8221;, in termini di quantità, di oggetti creabili da Get3D? Come ci spiega l&#8217;articolo su <a href="https://the-decoder.com/nvidias-magic3d-turns-text-into-high-resolution-3d-objects/" target="_blank" rel="noreferrer noopener">The Decoder</a>, semplicemente copiando Google&#8230; E tentando di rendere il suo nuovo <strong><a href="https://deepimagination.cc/Magic3D/" target="_blank" rel="noreferrer noopener">Magic3D</a></strong> (<a href="https://arxiv.org/pdf/2211.10440.pdf" target="_blank" rel="noreferrer noopener">qui il paper dei ricercatori</a>) più rapido e definito di DreamFusion. Questo video ne spiega bene il funzionamento:</p>



<figure class="wp-block-video"><video controls src="https://www.darioriccio.com/wp-content/uploads/2022/12/nvidia_magic3d.mp4"></video><figcaption class="wp-element-caption">Processo di creazione dell&#8217;oggetto 3D con Nvidia Magic3D a partire da un testo</figcaption></figure>



<p>In pratica, Get3D ha un dataset basato su altri modelli 3D. Magic3D parte invece dalle immagini, a loro volta generate da un&#8217;A.I., aprendo la strada a combinazioni virtualmente infinite. </p>



<p>Funziona bene? Ciò che è certo è non sia disponibile al pubblico, ma già dal video e dagli esempi presenti in rete si presenta come una tecnologia molto promettente. Seppur ancora non raggiunge la qualità necessaria.</p>



<h3 class="wp-block-heading">StyleGAN-NADA</h3>



<p>Per fare Pokemon o altre cose divertenti c&#8217;è <strong><a href="https://stylegan-nada.github.io" target="_blank" rel="noreferrer noopener">StyleGAN-NADA</a></strong>, addestrato seguendo il modello CLIP (Contrastive Language-Image Pre-Training) di OpenAI. Permette di creare immagini partendo solo da una descrizione testuale, senza bisogno di vedere alcun riferimento e senza la necessità di raccogliere ulteriori dati di addestramento.</p>



<p>È anche possibile modificare immagini esistenti in modo da renderle simili a quelle di altri domini, ad esempio usando un&#8217;immagine di un cane per generare un gatto. Stesso approccio che può essere applicato ad altre architetture generative, aprendo possibilità interessanti per la creazione di immagini in modo veloce e preciso.</p>



<h3 class="wp-block-heading">Pollinations</h3>



<p>Tra i &#8220;next steps&#8221;, <strong><a href="https://pollinations.ai" target="_blank" rel="noreferrer noopener">Pollinations</a></strong> promette di fare ciò che serve a noi. Dal loro sito web: &#8220;a livello di ricerca, il nostro team sta sviluppando una tecnologia che consenta alle persone di generare oggetti e avatar in 3D con il solo aiuto di un testo&#8221;.</p>



<p>Anche qui, c&#8217;è da attendere. Per ora permette di fare comunque cose interessanti in ambito foto / video. Magari provatelo, comunque c&#8217;è poco di utile ai fini di questo articolo.</p>



<h3 class="wp-block-heading">Text2mesh</h3>



<p>Piccolo ma interessante, <strong><a href="https://threedle.github.io/text2mesh/" target="_blank" rel="noreferrer noopener">Text2mesh</a></strong> è meno un esercizio di stile rispetto ai precedenti. Qui il modello già bisogna averlo, ma l&#8217;AI promette di modificarlo autonomamente; aumentando ad esempio il numero di poligoni, cambiandone la forma e il colore finanche creando la texture da zero. Il tutto sulla base di un prompt di testo, una richiesta scritta. </p>



<p>Promemoria da mettere in agenda, in caso ci servirà.</p>


<div class="wp-block-image">
<figure class="alignright size-medium"><img loading="lazy" decoding="async" width="111" height="300" src="https://www.darioriccio.com/wp-content/uploads/2023/02/lumaai-111x300.jpg" alt="" class="wp-image-828" srcset="https://www.darioriccio.com/wp-content/uploads/2023/02/lumaai-111x300.jpg 111w, https://www.darioriccio.com/wp-content/uploads/2023/02/lumaai.jpg 376w" sizes="(max-width: 111px) 100vw, 111px" /><figcaption class="wp-element-caption">Luma AI</figcaption></figure></div>


<h3 class="wp-block-heading">Luma AI</h3>



<p><a href="https://lumalabs.ai" target="_blank" rel="noreferrer noopener"><strong>Luma AI</strong></a> è un interessante progetto per scansionare oggetti reali ricreandoli in 3D. Il funzionamento è interessante, e la qualità degli scan è discretamente buona. Per oggetti di scena o figure in secondo piano lo reputo più che accettabile, anche in produzione.</p>



<p>Da poco permette anche di creare oggetti, e quindi personaggi, in 3D a partire da un prompt di testo. Con il classico comando &#8220;imagine&#8221;, già reso famoso dal generatore di immagini <em><a href="https://midjourney.com/home/?callbackUrl=%2Fapp%2F" target="_blank" rel="noreferrer noopener">MidJourney</a></em>. Ma qui, di nuovo, la qualità non è eccelsa. Buoni esperimenti, ma decisamente non utilizzabile a fini produttivi.  </p>



<h2 class="wp-block-heading">Personaggi e oggetti 3D senza l&#8217;intelligenza artificiale</h2>



<p>Da tutto questo abbiamo capito solo una cosa: l&#8217;A.I. ad oggi, gennaio 2023, ancora non ci permette di avere dei buoni modelli 3D. Dovendo però mantenere il budget basso, otteniamoli con gli strumenti già disponibili.</p>



<h3 class="wp-block-heading">I personaggi 3D del nostro cortometraggio</h3>



<p>Qui non andrò a fare tante ricerche, ma valuto due strumenti per la creazione di personaggi 3D che già conosco: il semplice <a href="https://www.reallusion.com/character-creator/" target="_blank" rel="noreferrer noopener"><em>Reallusion</em> <strong>Character Creator</strong></a>, e il fantastico <a href="https://www.unrealengine.com/en-US/metahuman" target="_blank" rel="noreferrer noopener"><strong>MetaHuman</strong> di <em>Epic</em></a>.</p>



<p>Per la nostra storia ci serviranno 3 personaggi: <em>Maria</em>, <em>Jake</em> e <em>Sarah</em>.</p>



<h3 class="wp-block-heading">MetaHuman Creator</h3>



<p>In realtà nel caso di MetaHuman una novità rispetto al mio passato c&#8217;è: ho usato la beta di <strong>MetaHuman Creator</strong>. É fenomenale, in quanto mi ha dato la possibilità di approfittare della potenza di calcolo dei server Epic, creando i personaggi in una pausa di lavoro direttamente col portatile (che deve solo ricevere uno stream video).</p>



<p>Richiedendo quindi l'&#8221;Early Access&#8221; con il proprio account Epic Games dal sito <a href="https://metahuman.unrealengine.com">metahuman.unrealengine.com</a>, ci ritroviamo una scelta di possibili personaggi. </p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="570" src="https://www.darioriccio.com/wp-content/uploads/2022/12/metahuman-1024x570.jpg" alt="" class="wp-image-800" srcset="https://www.darioriccio.com/wp-content/uploads/2022/12/metahuman-1024x570.jpg 1024w, https://www.darioriccio.com/wp-content/uploads/2022/12/metahuman-300x167.jpg 300w, https://www.darioriccio.com/wp-content/uploads/2022/12/metahuman-768x427.jpg 768w, https://www.darioriccio.com/wp-content/uploads/2022/12/metahuman-1536x855.jpg 1536w, https://www.darioriccio.com/wp-content/uploads/2022/12/metahuman-2048x1139.jpg 2048w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure>



<p>Immaginiamo che tutti e tre abbiano un&#8217;età tra i 20 e i 40 anni, per il resto la sceneggiatura non ci indica molto di loro.</p>



<h4 class="wp-block-heading">Jake</h4>



<p>Scelgo di iniziare selezionando <em>Aoi</em>, nel ruolo di <strong>Jake</strong>. Non so, quella barba mi da l&#8217;idea di &#8220;avventuriero&#8221;.</p>



<p>Il software avvisa che alcuni elementi del personaggio ha elementi ancora in fase di sviluppo (nello specifico i capelli) e che pertanto saranno visualizzati solo il LOD (livello di dettaglio) 0 (automatico) e 1 (massima qualità). Per noi va bene, la destinazione sarà un video pre-renderizzato chiaramente a massima qualità e non un videogame in tempo reale.</p>



<p>Qualche modifica al personaggio (a torso nudo, colore degli occhi, scarpe e pantaloni più &#8220;adatti&#8221;), ed è salvato. Successivamente lo esporteremo con il plugin Quixel Bridge di Unreal Engine 5.</p>



<h4 class="wp-block-heading">Maria</h4>



<p>Passiamo a <strong>Maria</strong>. Ho chiesto a ChatGPT di inventarne le caratteristiche, e la risposta è stata che potrebbe essere una donna intorno ai 30 anni. Capelli castani, lunghi fino alle spalle e raccolti in una coda di cavallo. Occhi marroni, intensi e profondi, e di etnia latina, con una pelle abbronzata dalle sue avventure all&#8217;aperto.</p>



<p>Proviamo a realizzarla. Partiamo da <em>Roux</em>. Facciamo un Blend con Lena, Kendra e Tori che sembrano adatte a modificarne un po&#8217; lineamenti e quindi etnia, diamole la coda di cavallo, occhi marroni, modifichiamo la texture della pelle per darle qualche anno in più, elimino il make-up che difficilmente avrebbe in mezzo alla giungla, modifichiamo l&#8217;abbigliamento ed il gioco è fatto.</p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="576" src="https://www.darioriccio.com/wp-content/uploads/2023/01/Maria-1024x576.jpg" alt="" class="wp-image-808" srcset="https://www.darioriccio.com/wp-content/uploads/2023/01/Maria-1024x576.jpg 1024w, https://www.darioriccio.com/wp-content/uploads/2023/01/Maria-300x169.jpg 300w, https://www.darioriccio.com/wp-content/uploads/2023/01/Maria-768x432.jpg 768w, https://www.darioriccio.com/wp-content/uploads/2023/01/Maria-1536x864.jpg 1536w, https://www.darioriccio.com/wp-content/uploads/2023/01/Maria-2048x1152.jpg 2048w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption class="wp-element-caption">Maria</figcaption></figure>



<h4 class="wp-block-heading">Sarah</h4>



<p>Infine <strong>Sarah</strong>. Per ChatGPT ha circa 25 anni, con capelli biondi, corti e mossi. Occhi azzurri, vivaci e curiosi, intorno a 1,70 metri, snella e muscolosa a indicare una persona attiva e sportiva e di origine nord-europea, con una pelle chiara e delicata.</p>



<p>Ci basiamo su <em>Vivian</em>, modifiche varie fino a renderla qualcosa di simile al richiesto. Chiaramente MetaHuman ha tanti limiti, ancor di più in questa versione online. Ad esempio, sul fisico praticamente non abbiamo possibilità di intervento, quindi &#8220;muscolosa&#8221; è una caratteristica a cui dovremo rinunciare a meno di modellazioni successive. Ma, primo non sono un modellatore 3D e questo è un progetto zero budget solo a fini didattici. Inoltre, per lo stesso motivo non è il caso di perderci più tempo del necessario.</p>



<p>Infine lasciamoli li, creiamo le animazioni con dei manichini e poi faremo un retargeting con i personaggi MetaHuman direttamente in Unreal Engine 5.</p>



<h2 class="wp-block-heading">Conclusioni</h2>



<p>Per oggi limitiamoci qui, in uno dei prossimi articoli parlerò specificatamente di animazione e Motion Capture con l&#8217;intelligenza artificiale (dove ci sarà più utile), e poi proseguiremo con ambienti, voci, musiche e tutto quanto necessario a finalizzare il nostro piccolo progetto.</p>



<p>Mi lascio il tempo di finire con calma, ed eventualmente fare altri articoli prima di continuare questo. Per due motivi: sono operazioni elaborate, e l&#8217;intelligenza artificiale è in fase esplosiva. Un articolo scritto oggi, potrebbe essere vecchio domani. Forse stasera.</p>



<p>Pertanto, visto che queste informazioni ci serviranno molto di più verso la fine dell&#8217;anno in corso per la produzione effettiva di una storia in fulldome, teniamo in conto tutte le novità dei prossimi mesi.</p>



<p>Come sempre grazie per avermi seguito, e un abbraccio.</p>
<p>L'articolo <a href="https://www.darioriccio.com/come-fare-film-low-budget-con-lintelligenza-artificiale-prime-fasi/">Come fare film low budget con l&#8217;Intelligenza Artificiale &#8211; Prime fasi</a> è apparso primo per <a href="https://www.darioriccio.com">Il Futuro del Cinema - di Dario Riccio</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.darioriccio.com/come-fare-film-low-budget-con-lintelligenza-artificiale-prime-fasi/feed/</wfw:commentRss>
			<slash:comments>1</slash:comments>
		
		<enclosure url="https://www.darioriccio.com/wp-content/uploads/2022/12/Hero.mp4" length="0" type="video/mp4" />
<enclosure url="https://www.darioriccio.com/wp-content/uploads/2022/12/nvidia_magic3d.mp4" length="0" type="video/mp4" />

			</item>
	</channel>
</rss>
