<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Tecnologia Archives - Il Futuro del Cinema - di Dario Riccio</title>
	<atom:link href="https://www.darioriccio.com/categoria/tecnologia/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.darioriccio.com/categoria/tecnologia/</link>
	<description>Tecnologia e Business</description>
	<lastBuildDate>Thu, 16 Nov 2023 09:05:35 +0000</lastBuildDate>
	<language>it-IT</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.6.2</generator>

<image>
	<url>https://www.darioriccio.com/wp-content/uploads/2022/02/cropped-android-chrome-512x512-2-32x32.png</url>
	<title>Tecnologia Archives - Il Futuro del Cinema - di Dario Riccio</title>
	<link>https://www.darioriccio.com/categoria/tecnologia/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>AI nella produzione cinematografica: come produrre un film innovativo low budget</title>
		<link>https://www.darioriccio.com/ai-nella-produzione-cinematografica-come-produrre-un-film-innovativo-low-budget/</link>
					<comments>https://www.darioriccio.com/ai-nella-produzione-cinematografica-come-produrre-un-film-innovativo-low-budget/#respond</comments>
		
		<dc:creator><![CDATA[Dario Riccio]]></dc:creator>
		<pubDate>Sun, 12 Nov 2023 12:29:56 +0000</pubDate>
				<category><![CDATA[Cinema]]></category>
		<category><![CDATA[Tecnologia]]></category>
		<category><![CDATA[cinema immersivo]]></category>
		<category><![CDATA[innovazione]]></category>
		<category><![CDATA[intelligenza artificiale]]></category>
		<guid isPermaLink="false">https://www.darioriccio.com/?p=853</guid>

					<description><![CDATA[<p>Nell&#8217;articolo di oggi, voglio iniziare a presentarvi un grande progetto nel quale stiamo lavorando con the usual nExt, unendo intelligenza artificiale e cinema. Usiamo l&#8217;AI per la produzione cinematografica, in un film immersivo, a 360 gradi, inizialmente proiettato in cupole mobili. Sfruttando tutte le ultime tecnologie per essere un&#8217;esperienza memorabile che unirà reale e virtuale. [&#8230;]</p>
<p>L'articolo <a href="https://www.darioriccio.com/ai-nella-produzione-cinematografica-come-produrre-un-film-innovativo-low-budget/">AI nella produzione cinematografica: come produrre un film innovativo low budget</a> è apparso primo per <a href="https://www.darioriccio.com">Il Futuro del Cinema - di Dario Riccio</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p>Nell&#8217;articolo di oggi, voglio iniziare a presentarvi un grande progetto nel quale stiamo lavorando con <strong><em>the usual nExt</em></strong>, unendo intelligenza artificiale e cinema. Usiamo l&#8217;AI per la produzione cinematografica, in un film immersivo, a 360 gradi, inizialmente proiettato in cupole mobili. Sfruttando tutte le ultime tecnologie per essere un&#8217;esperienza memorabile che unirà reale e virtuale. In pratica: <strong>una pietra miliare per quello sarà il cinema del futuro</strong>.</p>


<div class="wp-block-image">
<figure class="alignright size-medium"><img fetchpriority="high" decoding="async" width="300" height="300" src="https://www.darioriccio.com/wp-content/uploads/2023/11/dome-300x300.jpg" alt="Persone in una cupola immaginaria con proiezioni di pesci e pianeti in un grande cielo." class="wp-image-864" srcset="https://www.darioriccio.com/wp-content/uploads/2023/11/dome-300x300.jpg 300w, https://www.darioriccio.com/wp-content/uploads/2023/11/dome-150x150.jpg 150w, https://www.darioriccio.com/wp-content/uploads/2023/11/dome.jpg 512w" sizes="(max-width: 300px) 100vw, 300px" /></figure></div>


<p>Promette di lasciare un segno profondo e di rappresentare una svolta significativa nella storia del cinema. Per un cinema più democratico, più presente tra la gente, che unisce&#8230; Quello che fu il cinema originario, e che da tanto non riesce più ad essere.</p>



<p>In questo articolo voglio parlarvi a grandi linee, tecnicamente, dell&#8217;idea di base. E condividere con voi alcune possibili aree di utilizzo dell&#8217;intelligenza artificiale per ottenere il massimo con un budget, volutamente, ridotto.</p>



<p>Possiamo considerarlo anche un aggiornamento, in fase molto più avanzata, dello scorso articolo scritto a febbraio 2023 dal titolo <em><a href="https://www.darioriccio.com/come-fare-film-low-budget-con-lintelligenza-artificiale-prime-fasi/">Come fare film low budget con l’Intelligenza Artificiale – Prime fasi</a></em>. </p>



<h2 class="wp-block-heading">L&#8217;impatto rivoluzionario dell&#8217;Intelligenza Artificiale nel cinema</h2>



<p>Un tempo, gli effetti speciali e le tecniche narrative erano le bacchette magiche del cinema, ma oggi l&#8217;intelligenza artificiale sta giocando una carta rivoluzionaria. È un aiuto incredibile, un complice che spalanca le porte a un&#8217;innovazione senza precedenti. Stiamo cavalcando questa onda, con l&#8217;IA al nostro fianco che dà una mano nella creazione di storie avvincenti, personaggi digitali che sembrano veri e musiche che ti arrivano dritte al cuore. Ma non dimentichiamo il tocco umano, il vero cuore pulsante di ogni nostra creazione.</p>



<p>&#8220;Intelligenza artificiale e cinema&#8221; non è un motto gettonato, ma l&#8217;inizio di un nuovo capitolo nel raccontare storie. Siamo pronti a dimostrare che il futuro dell&#8217;intrattenimento non è più un sogno lontano: è qui, ed è animato dall&#8217;intelligenza artificiale.</p>



<h2 class="wp-block-heading">Luna Dolph, Kyle e China: dal virtuale alla vita reale</h2>


<div class="wp-block-image">
<figure class="alignright size-medium"><img decoding="async" width="300" height="300" src="https://www.darioriccio.com/wp-content/uploads/2023/11/robot-and-teen-300x300.jpg" alt="Disegno di un robot con un bimbo" class="wp-image-877" srcset="https://www.darioriccio.com/wp-content/uploads/2023/11/robot-and-teen-300x300.jpg 300w, https://www.darioriccio.com/wp-content/uploads/2023/11/robot-and-teen-150x150.jpg 150w, https://www.darioriccio.com/wp-content/uploads/2023/11/robot-and-teen.jpg 512w" sizes="(max-width: 300px) 100vw, 300px" /></figure></div>


<p>Il racconto, sceneggiato da <em><strong><a href="https://www.linkedin.com/in/gbernasconi?originalSubdomain=fr" target="_blank" rel="noreferrer noopener">Gérard Bernasconi</a></strong></em>, parte dalla storia di <em>Luna Dolph</em>, <em>Kyle</em> e <em>China</em>; non semplici personaggi, ma avatar tridimensionali che respirano vita in un mondo virtuale affascinante e complesso. Questi avatar non sono solo protagonisti di una storia, ma <strong>simboli della nostra epoca</strong>. Rappresentazioni vivide della <strong>nostra progressiva immersione nell&#8217;universo virtuale</strong>, conosciuto anche come <em>metaverso</em>. Questo concetto, un tempo relegato alla fantascienza, sta rapidamente prendendo forma e influenzando settori diversi, dai videogiochi alle piattaforme di social networking, trasformando il modo in cui interagiamo, lavoriamo e ci divertiamo.</p>



<h3 class="wp-block-heading">Realtà Virtuale e Identità Digitali</h3>


<div class="wp-block-image">
<figure class="alignleft size-medium"><img decoding="async" width="300" height="300" src="https://www.darioriccio.com/wp-content/uploads/2023/11/artificial-intelligence-and-cinema-300x300.jpg" alt="Una ragazza e un robot insieme in un cinema" class="wp-image-872" srcset="https://www.darioriccio.com/wp-content/uploads/2023/11/artificial-intelligence-and-cinema-300x300.jpg 300w, https://www.darioriccio.com/wp-content/uploads/2023/11/artificial-intelligence-and-cinema-150x150.jpg 150w, https://www.darioriccio.com/wp-content/uploads/2023/11/artificial-intelligence-and-cinema.jpg 512w" sizes="(max-width: 300px) 100vw, 300px" /></figure></div>


<p>Il nostro obiettivo non è solo quello di raccontare una storia avvincente, ma di invitare il pubblico a <strong>riflettere sulla natura della realtà in un&#8217;era digitale</strong>. Questi avatar, con le loro interazioni complesse e i loro mondi intricati, rappresentano la fusione in atto tra la nostra vita fisica e quella digitale. Una convergenza che sta ridefinendo il significato stesso di identità, comunità e appartenenza.</p>



<p>Al fulcro della nostra narrativa troviamo Luna Dolph, Kyle e China. Sono tre avatar tridimensionali le cui vite si svolgono in un mondo virtuale di straordinaria bellezza. Pur esistendo nell&#8217;etere digitale, la loro storia è un ponte verso la realtà, un mezzo per ricordare ai nostri spettatori il valore insostituibile dell&#8217;interazione umana e della vita reale. In un&#8217;epoca in cui la digitalizzazione ha trasformato i nostri modi di connetterci, il nostro racconto mira a usare la tecnologia non come un rifugio, ma come un trampolino per riscoprire e rinvigorire la socialità autentica e tangibile.</p>



<h3 class="wp-block-heading">La tecnologia aiuta a vivere meglio</h3>



<p>Mentre Luna, Kyle e China navigano in un metaverso affascinante, le loro esperienze e sfide risuonano con un messaggio chiaro: <strong>la tecnologia, per quanto avanzata, è uno strumento che, se usato con saggezza, può arricchire ma non sostituire il calore e la complessità delle connessioni umane</strong>. Il nostro obiettivo è far emergere la consapevolezza che, nonostante l&#8217;attrattiva del digitale, la vita vera si svolge fuori dallo schermo. Nelle risate condivise, nelle strette di mano, negli abbracci e nei momenti spontanei che costituiscono il tessuto della nostra esistenza.</p>



<p>Con questa narrazione, aspiriamo a ispirare gli spettatori a sollevare lo sguardo dai loro dispositivi e a immergersi nuovamente nel mondo reale, arricchendo le loro vite con esperienze autentiche. Attraverso l&#8217;esplorazione di mondi virtuali, vogliamo celebrare e promuovere la bellezza e l&#8217;importanza insostituibile della vita reale e della socialità umana.</p>



<p>Il film rappresenterà la prima uscita nel mondo reale per i tre protagonisti.</p>



<h2 class="wp-block-heading">Come usiamo l&#8217;AI nella produzione cinematografica</h2>



<p>Siamo ancora in fase pre-produttiva, quindi dal punto di vista pratico vi terrò aggiornati nei prossimi mesi. Per ora abbiamo un&#8217;idea di massima: abbiamo selezionato un compendio di tecnologie di intelligenza artificiale (AI) di ultima generazione e allo stesso tempo economiche e disponibili a tutti.</p>



<p>Il film sarà in formato <strong>fulldome</strong>, immersivo a 360&#215;180 gradi. Praticamente lo proietteremo in cupole e planetari. E&#8217; un&#8217;innovazione cruciale guardando al futuro, visto che si spinge sempre più verso l&#8217;immersività totale. E abbiamo un budget limitato, diciamo a occhio tra 10 e 20.000 euro. Il film durerà circa 40 minuti, e sarà per circa il 30% nel mondo virtuale di Luna e i suoi amici (interamente ricreato in <em><a href="https://www.unrealengine.com/" target="_blank" rel="noreferrer noopener">Unreal Engine</a></em>), per il restante 70% nel mondo reale.</p>



<h3 class="wp-block-heading">Usare Luma AI per il cinema del futuro</h3>



<p>Per cominciare a parlare di questo arsenale tecnologico cito <strong><em><a href="https://lumalabs.ai">Luma AI</a></em></strong>, una soluzione pionieristica che rivoluziona completamente la generazione di ambienti tridimensionali. <strong>Luma AI ci consente di riprodurre ambienti reali all&#8217;interno di Unreal Engine, in qualità fotorealistica e </strong>persino<strong> con un iPhone</strong>. Impiegando tecnologie avanzate come il <a href="https://www.matthewtancik.com/nerf" target="_blank" rel="noreferrer noopener"><strong>Neural Radiance Fields</strong></a> (NeRF) e il nuovissimo <strong><a href="https://arxiv.org/pdf/2308.04079.pdf" target="_blank" rel="noreferrer noopener">Gaussian Splatting</a></strong> (quest&#8217;ultimo pubblicato appena tre mesi fa dall&#8217;Università della Costa Azzurra, in Francia), possiamo catturare la complessità e la ricchezza del mondo reale in formato digitale, inserirlo in Unreal Engine (compresa la possibilità di muoversi liberamente all&#8217;interno della scena) e dar vita a scene precedentemente relegabili solo a grandi budget.</p>


<div class="wp-block-image">
<figure class="alignright size-medium"><img loading="lazy" decoding="async" width="300" height="181" src="https://www.darioriccio.com/wp-content/uploads/2023/11/lumaai-300x181.jpg" alt="Screenshot del sito web di Luma AI" class="wp-image-885" srcset="https://www.darioriccio.com/wp-content/uploads/2023/11/lumaai-300x181.jpg 300w, https://www.darioriccio.com/wp-content/uploads/2023/11/lumaai-1024x619.jpg 1024w, https://www.darioriccio.com/wp-content/uploads/2023/11/lumaai-768x464.jpg 768w, https://www.darioriccio.com/wp-content/uploads/2023/11/lumaai-1536x928.jpg 1536w, https://www.darioriccio.com/wp-content/uploads/2023/11/lumaai-2048x1237.jpg 2048w" sizes="(max-width: 300px) 100vw, 300px" /></figure></div>


<p>Abbattiamo i costi legati alla creazione di ambientazioni dettagliate e oggetti complessi, oltre a snellire e accelerare il processo produttivo. Luma AI non democratizza soltanto l&#8217;accesso a tecnologie di prim&#8217;ordine, ma ci fornisce anche gli strumenti per sperimentare a una velocità che prima era inimmaginabile. E permette di imprimere un livello di vivacità e profondità senza precedenti nelle nostre scene.</p>



<h3 class="wp-block-heading">Skybox AI per il cinema &#8211; Illuminazione semplificata su Unreal Engine</h3>


<div class="wp-block-image">
<figure class="alignleft size-medium"><img loading="lazy" decoding="async" width="300" height="168" src="https://www.darioriccio.com/wp-content/uploads/2023/11/skyboxAI-300x168.jpg" alt="Interfaccia utente di Skybox AI" class="wp-image-888" srcset="https://www.darioriccio.com/wp-content/uploads/2023/11/skyboxAI-300x168.jpg 300w, https://www.darioriccio.com/wp-content/uploads/2023/11/skyboxAI-1024x575.jpg 1024w, https://www.darioriccio.com/wp-content/uploads/2023/11/skyboxAI-768x431.jpg 768w, https://www.darioriccio.com/wp-content/uploads/2023/11/skyboxAI-1536x862.jpg 1536w, https://www.darioriccio.com/wp-content/uploads/2023/11/skyboxAI-2048x1150.jpg 2048w" sizes="(max-width: 300px) 100vw, 300px" /></figure></div>


<p>Un altro strumento cruciale nel nostro repertorio è <strong><a href="https://skybox.blockadelabs.com" target="_blank" rel="noreferrer noopener">Skybox AI</a></strong> di <em><a href="https://www.blockadelabs.com" target="_blank" rel="noreferrer noopener">Blockade Labs</a></em>, per creare <em>skybox</em> immersive. Arricchendo le scene virtuali con dettagli vitali sull&#8217;illuminazione e l&#8217;ambientazione. </p>



<p>Uno <a href="https://it.wikipedia.org/wiki/Skybox_(videogiochi)" target="_blank" rel="noreferrer noopener">skybox</a> in Unreal Engine non solo fornisce un ambiente circostante visivamente convincente (montagne, cielo, case lontane ecc&#8230;), ma <strong>influisce anche sull&#8217;illuminazione globale degli asset 3D all&#8217;interno della scena</strong>. Questo è quanto più ci interessa in ambito cinematografico: agisce infatti come una fonte di luce ambientale, riflettendo i suoi colori e le sue tonalità sugli oggetti, contribuendo a <strong>creare un&#8217;atmosfera coerente e realistica</strong>. Ad esempio, uno skybox che raffigura un tramonto infonderà calde tonalità arancioni e rosse sulla scena; mentre uno skybox notturno fornirà una luce più fredda e tenue. Questo processo aiuta a integrare gli assets 3D nell&#8217;ambiente circostante, rendendo l&#8217;intera esperienza visiva più immersiva e coerente.</p>



<p>Aspetto che si rivela essenziale nella creazione di ambienti fulldome a 360 gradi. Ogni minimo particolare è fondamentale per sostenere l&#8217;illusione di un mondo completamente immersivo.</p>



<h3 class="wp-block-heading">Usare Kaiber AI per il nostro film</h3>



<p><strong><a href="https://kaiber.ai" target="_blank" rel="noreferrer noopener">Kaiber AI</a> </strong>è utile e di qualità, ma ho un serio dubbio: non so se funziona con i video fulldome. Ancora non ho avuto il tempo di sperimentarlo, ma eventualmente aiuterà a rendere più omogenee le scene in modo da unire ancor meglio gli assets. Lavora tramite l&#8217;AI direttamente sui file video finali.</p>



<h3 class="wp-block-heading">Intelligenza artificiale e cinema: Reverie AI</h3>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="608" src="https://www.darioriccio.com/wp-content/uploads/2023/11/reverieai-1024x608.jpg" alt="Schermata del sito di Reverie AI" class="wp-image-890" srcset="https://www.darioriccio.com/wp-content/uploads/2023/11/reverieai-1024x608.jpg 1024w, https://www.darioriccio.com/wp-content/uploads/2023/11/reverieai-300x178.jpg 300w, https://www.darioriccio.com/wp-content/uploads/2023/11/reverieai-768x456.jpg 768w, https://www.darioriccio.com/wp-content/uploads/2023/11/reverieai-1536x911.jpg 1536w, https://www.darioriccio.com/wp-content/uploads/2023/11/reverieai-2048x1215.jpg 2048w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure>



<p>In attesa del lancio di <a href="https://reverieai.net" target="_blank" rel="noreferrer noopener"><strong>Reverie AI</strong></a>, siamo stimolati dalle sue promesse di creare mondi virtuali per Unreal Engine quasi &#8220;copiando&#8221; una foto preesistente. La sua capacità di generare scenari che imitano fedelmente la realtà, unita alle potenzialità nella color correction delle scene virtuali, ci apre porte verso possibilità illimitate nella narrazione visiva. <em>Reverie AI</em> promette di essere un eccellente complemento al nostro workflow, migliorando la coerenza visiva e garantendo transizioni fluide e convincenti tra il mondo virtuale e quello reale.</p>



<h3 class="wp-block-heading">Move.ai, mocap economica e funzionante</h3>



<p>Un altro tool &#8220;intelligente&#8221; che contiamo di usare per il nostro film sarà <strong>Move.ai</strong>, nello specifico l&#8217;economico servizio <em><a href="https://www.move.ai/single-camera" target="_blank" rel="noreferrer noopener">Move One</a></em> (in offerta lancio a 15 dollari al mese, poi dovrebbe costare 30). Con una semplice <a href="https://apps.apple.com/us/app/move-one/id6448635527" target="_blank" rel="noreferrer noopener">app per iPhone</a>, potremo creare animazioni personalizzate semplici e pronte senza troppe correzioni o clean-up. Ciò riduce tempi e costi, permettendo di non essere limitati dalle animazioni già disponibili in servizi come <em><a href="https://www.mixamo.com" target="_blank" rel="noreferrer noopener">Mixamo</a></em>, <em><a href="https://actorcore.reallusion.com" target="_blank" rel="noreferrer noopener">ActorCore</a></em> o il <a href="https://mocap.market/"><em>MoCap Market</em></a> di Noitom.</p>



<p>Qui un rapidissimo video test:</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="Move.Ai single camera Motion capture Test &quot;MOVE ONE&quot;" width="678" height="381" src="https://www.youtube.com/embed/mJoZURcNiL4?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" allowfullscreen></iframe>
</div></figure>



<p>Chiaramente, hanno anche il più costoso servizio professionale che permette di usare fino a 8 camere. Ma non contiamo di usarlo per questa prima produzione, a meno di concretissima necessità. </p>



<h2 class="wp-block-heading">Speech-to-speech per il doppiaggio cinematografico&#8230; È possibile?</h2>



<p>Nella nostra produzione, l&#8217;innovazione non si ferma alla creazione del mondo digitale; vogliamo infatti approfittare della rivoluzione tecnologica in atto anche per aspetti tradizionali della cinematografia, come il <strong>doppiaggio</strong>.</p>



<figure class="wp-block-image size-full"><img loading="lazy" decoding="async" width="1024" height="1024" src="https://www.darioriccio.com/wp-content/uploads/2023/11/speech-to-speech.jpeg" alt="Immagine generata con MidJourney che mostra un uomo del futuro che parla con un robot." class="wp-image-893" srcset="https://www.darioriccio.com/wp-content/uploads/2023/11/speech-to-speech.jpeg 1024w, https://www.darioriccio.com/wp-content/uploads/2023/11/speech-to-speech-300x300.jpeg 300w, https://www.darioriccio.com/wp-content/uploads/2023/11/speech-to-speech-150x150.jpeg 150w, https://www.darioriccio.com/wp-content/uploads/2023/11/speech-to-speech-768x768.jpeg 768w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure>



<p>La voce di Luna e degli altri avatar 3D, deve essere coerente (per non dire identica) in tutti i media, sia nel mondo virtuale che in quello reale. Affrontiamo una sfida complessa: <strong>mantenere la stessa voce su diverse piattaforme</strong>, compresi i social media e soprattutto lo streaming in tempo reale, <strong>senza legarci a un unico doppiatore</strong>. Questo ci permette di avere flessibilità nella narrazione e di adattarci a vari formati senza dipendere dalla disponibilità di un attore specifico.</p>



<p><strong>L&#8217;idea è replicare le voci di alcuni attori reali e associarle agli avatar</strong> (Luna, Kyle e China per cominciare), poi trasformare la voce di un qualsiasi attore, in tempo reale, in quella di Luna, per usarla sia per il doppiaggio di film e contenuti social (tanto in lingua originale, tanto per le traduzioni), sia per il <em><a href="https://it.wikipedia.org/wiki/Live_streaming" target="_blank" rel="noreferrer noopener">live streaming</a></em> sovrapponendo queste voci all&#8217;avatar animato in <a href="https://docs.unrealengine.com/5.3/en-US/recording-face-animation-on-ios-device-in-unreal-engine/" target="_blank" rel="noreferrer noopener">motion capture</a>.</p>



<h3 class="wp-block-heading">Dall&#8217;ottimo ma costoso Respeecher, all&#8217;ambiguo Voicemod</h3>



<p>Abbiamo esplorato opzioni come <a href="https://www.respeecher.com" target="_blank" rel="noreferrer noopener"><strong>Respeecher</strong></a>, uno strumento avanzato di conversione speech-to-speech, ma i costi per il real-time sono proibitivi. Parliamo di circa 1000 o 2000 euro al mese, per poche ore di utilizzo. <strong><a href="https://www.voicemod.net/ai-voices/" target="_blank" rel="noreferrer noopener">Voicemod</a></strong> si presenta come una soluzione più economica grazie alle sue <em>AI voices</em>, anche se circolano voci contrastanti sulla sua affidabilità (alcuni lo considerano addirittura un malware o un <a href="https://www.kaspersky.it/resource-center/definitions/what-is-cryptojacking" target="_blank" rel="noreferrer noopener">cryptojacking</a>&#8230;). E resta il problema di non avere i diritti sulla voce, di loro proprietà, il che risulterà certamente un problema in futuro. Non so ancora il costo per la conversione in real-time di <em><strong><a href="https://www.resemble.ai" target="_blank" rel="noreferrer noopener">Resemble.ai</a></strong></em>, che ho usato in passato per il molto più economico text-to-speech, e di <a href="https://www.veritonevoice.com" target="_blank" rel="noreferrer noopener"><strong>Veritone Voice</strong></a>.</p>



<p>Un altro strumento che non ho potuto testare è <strong><a href="https://crimsontech.jp/apps/voidol3/?lang=en" target="_blank" rel="noreferrer noopener">Voidol 3</a></strong>, ad un costo di circa 300 dollari. Non ho trovato una versione demo, ma ammetto di non essermi neppure impegnato tanto a richiederla. E&#8217; uno dei vari software orientali, creati per la tipica passione giapponese verso il mondo anime. Ma in realtà adattabile al nostro scopo, come vedremo tra poco con un altro giapponese.</p>



<h3 class="wp-block-heading">MetaVoice Live, Mangio RVC Fork e W-Okada Voice Changer, gratis e open-source</h3>



<p><strong>Le soluzioni finali</strong>, dopo tanta ricerca, sono <strong><a href="https://github.com/metavoicexyz/MetaVoiceLive/releases" target="_blank" rel="noreferrer noopener">MetaVoice Live</a></strong> e il <a href="https://github.com/w-okada/voice-changer" target="_blank" rel="noreferrer noopener"><strong>Voice</strong></a><a href="https://github.com/w-okada/voice-changer"><strong> Changer</strong> di W-Okada</a>. Entrambi <strong>open source</strong>, il che ci rassicura di poter basare la &#8220;vita futura&#8221; dei personaggi su questi servizi, ed entrambi <strong>gratuiti</strong>. Non posso non citare il canale YouTube <a href="https://www.youtube.com/@ai-tools-search" target="_blank" rel="noreferrer noopener"><em>AI Tools Search</em></a> che mi è stato utilissimo. Tra i video più interessanti in questo ambito, sicuramente questo:</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="Make UNLIMITED AI Voice Conversions, Training, &amp; Covers for FREE: RVCv2 Installation &amp; Tutorial" width="678" height="381" src="https://www.youtube.com/embed/ixB9oalT3cQ?start=475&#038;feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" allowfullscreen></iframe>
</div></figure>



<p><em>MetaVoice</em> mi piace particolarmente: è in fase di acceso sviluppo ed ha una versione cloud per le conversioni non in tempo reale che garantisce maggior qualità e flessibilità. Questa non è gratuita, ma il costo tra 10 e 25 dollari al mese si può tutto sommato affrontare.</p>



<p>Al contrario, il <em>Voice Changer</em> di <em>W-Okada</em> ha molti sviluppatori indipendenti che sviluppano soluzioni compatibili con esso, come l&#8217;utente GitHub <a href="https://github.com/Mangio621" target="_blank" rel="noreferrer noopener"><em>Mangio621</em></a> che ha creato il <strong><a href="https://github.com/Mangio621/Mangio-RVC-Fork/releases/tag/v23.7.0">Mangio RVC Fork</a></strong>, un software con interfaccia Web in grado di trasformare la voce di un attore reale in quella del modello vocale scelto. Molti di questi modelli, soprattutto personaggi famosi, sono già disponibili su siti come <a href="http://voice-models.com" target="_blank" rel="noreferrer noopener">Voice-Models.com</a> in formato &#8220;.pth&#8221;. Un classico formato usato nell&#8217;ambito del machine learning), ma la cosa più bella è che con lo stesso <em>Mangio RVC</em> possiamo effettuare l&#8217;addestramento, o training, di una voce personalizzata. Tutto in locale grazie ad una buona scheda video. E pertanto chiaramente sempre disponibile, e gratis.</p>



<p>A breve però farò un articolo specifico su questo. Così mi seguirete mentre faccio qualche prova interessante.</p>



<h2 class="wp-block-heading">Generare video con l&#8217;intelligenza artificiale</h2>



<p>Un uso dell&#8217;AI nella produzione cinematografica può essere il text-to-video, o video-to-video. Ma quanto può essere utile generare video con l&#8217;intelligenza artificiale? Intendo proprio da zero, descrivendo all&#8217;AI in maniera testuale (o con una referenza video molto semplificata) ciò che si desidera ottenere. Un po&#8217; il futuro, ad oggi tools come <a href="https://research.runwayml.com/gen1" target="_blank" rel="noreferrer noopener"><strong>Runway Gen-1</strong></a>, <a href="https://www.genmo.ai" target="_blank" rel="noreferrer noopener"><strong>Genmo AI</strong></a>, o <a href="https://moonvalley.ai"><strong>Moonvalley AI</strong></a> sono poco più che esperimenti. Utili in alcuni frangenti, ma lontani dalla qualità e realismo necessari ad una produzione cinematografica.</p>



<p>Evidentemente, dovremo lavorare ancora per qualche anno per ottenere i nostri film <img src="https://s.w.org/images/core/emoji/15.0.3/72x72/1f642.png" alt="🙂" class="wp-smiley" style="height: 1em; max-height: 1em;" /></p>



<h2 class="wp-block-heading">Canon EOS R5C e obiettivo Dual Fisheye per video fulldome 3D</h2>



<p>E per le riprese live action? Nel nostro viaggio, ci stiamo cimentando con una combinazione di attrezzature davvero entusiasmante. Teniamo sempre a mente l&#8217;obiettivo: <strong>poca spesa tanta resa</strong>. Avevo inizialmente pensato di girare tutto in completo 360 gradi, anche per rendere il tutto già compatibile in caso di futuri porting in realtà virtuale. Ma il costo diventava proibitivo, sia per la camera (una camera professionale come la <em><a href="https://www.insta360.com/it/product/insta360-titan">Insta 360 Titan</a></em>, tra l&#8217;altro non aggiornata da anni, costa oltre 17.000 euro), sia per le difficoltà di iniziare già dal primo momento con un campo così largo. </p>


<div class="wp-block-image">
<figure class="alignright size-medium"><img loading="lazy" decoding="async" width="277" height="300" src="https://www.darioriccio.com/wp-content/uploads/2023/11/canondualfisheye52-277x300.jpg" alt="" class="wp-image-897" srcset="https://www.darioriccio.com/wp-content/uploads/2023/11/canondualfisheye52-277x300.jpg 277w, https://www.darioriccio.com/wp-content/uploads/2023/11/canondualfisheye52-768x831.jpg 768w, https://www.darioriccio.com/wp-content/uploads/2023/11/canondualfisheye52.jpg 906w" sizes="(max-width: 277px) 100vw, 277px" /></figure></div>


<p>L&#8217;idea è quindi di produrre il video giusto per la cupola, in <strong>360&#215;180 gradi</strong> (in pratica metà sfera). E l&#8217;obiettivo <em><a href="https://www.canon.it/lenses/rf-5-2mm-f2-8l-dual-fisheye-lens/" target="_blank" rel="noreferrer noopener">Canon RF 5.2mm F2.8 L Dual Fisheye</a></em>, abbinato alla <em><a href="https://www.canon.it/cameras/eos-r5c/" target="_blank" rel="noreferrer noopener">Canon EOS R5C</a></em>, dovrebbe rivelarsi una scelta vincente. Questo setup non solo offre immagini immersive, ma ci permette anche di sperimentare con riprese stereoscopiche, che aggiungono un livello extra di profondità e realismo.</p>



<p>La cinepresa Canon EOS R5C, con la sua gamma dinamica tra 11 e 12 stop e sensore da 8K, offre un ottimo rapporto qualità-prezzo. È una considerazione importante per noi, poiché stiamo cercando di mantenere un budget equilibrato senza sacrificare la qualità. Valuteremo anche se noleggiarla&#8230; Da <a href="https://www.adcom.it" target="_blank" rel="noreferrer noopener"><em>Adcom</em></a>, obiettivo e camera vengono offerti a circa 200 euro giornalieri.</p>



<p>Ad essere onesti, non possiamo ancora sfruttare appieno le potenzialità della stereoscopia a causa della proiezione, ma è sicuramente qualcosa che ci piacerebbe esplorare in futuro. È una di quelle cose che sembrano davvero cool e potrebbero aggiungere un tocco speciale al nostro progetto. Avete mai proiettato fulldome stereoscopici o avete qualche suggerimento su come potremmo integrarla nel nostro lavoro? Sarei felice di sentire i vostri pensieri e idee.</p>



<p>E se in qualcosa mancherà rispetto a camere più blasonate&#8230; Anche in questo caso, contiamo di sfruttare l&#8217;AI per il miglioramento della qualità dei video. Ma le ricerche, nel campo, dobbiamo ancora farle.</p>



<h2 class="wp-block-heading">Conclusioni</h2>



<p>Alla fine, la nostra scelta di strumenti digitali e attrezzature riflette il desiderio di non scendere a compromessi sulla qualità, pur tenendo d&#8217;occhio il budget.</p>



<p>In breve, stiamo creando qualcosa che va oltre il cinema tradizionale. Grazie all&#8217;intelligenza artificiale e alla tecnologia di punta, il &#8220;cinema del futuro&#8221; non è più un sogno. È reale, vogliamo vederlo accadere. E con il genio di <strong><em><a href="https://www.linkedin.com/in/gbernasconi" target="_blank" rel="noreferrer noopener">Gérard Bernasconi</a></em></strong> alla sceneggiatura (il quale ci ha dato anche un gran contributo tecnico), la precisione di <strong><a href="https://www.linkedin.com/in/michela-sette-613009198/" target="_blank" rel="noreferrer noopener"><em>Michela Sette</em></a></strong> nel ruolo di VFX Supervisor e la creatività di <strong><em><a href="https://www.linkedin.com/in/michele-pelosio-4a455b112/" target="_blank" rel="noreferrer noopener">Michele Pelosio</a></em></strong> alla regia, stiamo forgiando un&#8217;esperienza cinematografica rivoluzionaria. Tenetevi pronti, perché stiamo per portarvi in un mondo dove cinema e realtà si fondono in un&#8217;esperienza trascendentale <img src="https://s.w.org/images/core/emoji/15.0.3/72x72/1f642.png" alt="🙂" class="wp-smiley" style="height: 1em; max-height: 1em;" /></p>
<p>L'articolo <a href="https://www.darioriccio.com/ai-nella-produzione-cinematografica-come-produrre-un-film-innovativo-low-budget/">AI nella produzione cinematografica: come produrre un film innovativo low budget</a> è apparso primo per <a href="https://www.darioriccio.com">Il Futuro del Cinema - di Dario Riccio</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.darioriccio.com/ai-nella-produzione-cinematografica-come-produrre-un-film-innovativo-low-budget/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Come fare film low budget con l&#8217;Intelligenza Artificiale &#8211; Prime fasi</title>
		<link>https://www.darioriccio.com/come-fare-film-low-budget-con-lintelligenza-artificiale-prime-fasi/</link>
					<comments>https://www.darioriccio.com/come-fare-film-low-budget-con-lintelligenza-artificiale-prime-fasi/#comments</comments>
		
		<dc:creator><![CDATA[Dario Riccio]]></dc:creator>
		<pubDate>Thu, 16 Feb 2023 17:13:23 +0000</pubDate>
				<category><![CDATA[Cinema]]></category>
		<category><![CDATA[Tecnologia]]></category>
		<category><![CDATA[cinema]]></category>
		<category><![CDATA[intelligenza artificiale]]></category>
		<guid isPermaLink="false">https://www.darioriccio.com/?p=774</guid>

					<description><![CDATA[<p>Scopri come utilizzare gli ultimi strumenti dell'intelligenza artificiale per scrivere grandi sceneggiature a basso budget. Ottieni consigli, suggerimenti e strategie dagli esperti per rendere il tuo prossimo film un successo.</p>
<p>L'articolo <a href="https://www.darioriccio.com/come-fare-film-low-budget-con-lintelligenza-artificiale-prime-fasi/">Come fare film low budget con l&#8217;Intelligenza Artificiale &#8211; Prime fasi</a> è apparso primo per <a href="https://www.darioriccio.com">Il Futuro del Cinema - di Dario Riccio</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p>Inizio questo articolo (che dividerò in più parti) il giorno dell&#8217;Immacolata: l&#8217;8 dicembre. Ho voglia di parlare dello stato attuale dell&#8217;intelligenza artificiale per coadiuvare il cinema low budget. Mi richiederà del tempo soprattutto per provare i vari servizi, non volendo fare il solito sterile elenco. Anche perché ci aiuterà a produrre contenuti per il cinema che realizzeremo nei prossimi tempi.</p>



<p>L&#8217;idea me l&#8217;ha involontariamente data <a href="https://www.linkedin.com/in/nicolasperrier/" target="_blank" rel="noreferrer noopener">Nicolas Perrier</a> dell&#8217;Università di Lione, in Francia, con un suo <a href="https://www.linkedin.com/feed/update/urn:li:activity:7006515451774001152/" target="_blank" rel="noreferrer noopener">post su Linkedin</a>. Perrier è un bravo esperto in innovazione nella realtà aumentata e virtuale, e il post in questione riguarda <a href="https://plask.ai" target="_blank" rel="noreferrer noopener">Plask</a>; uno dei tanti tools per realizzare animazioni 3D a partire da un semplice video. In pratica Motion Capture, senza costose e complesse apparecchiature. Tecnologia che può interessarci particolarmente per produrre video animati a una frazione del costo attuale, e persino con attori a distanza.</p>



<figure class="wp-block-video"><video controls src="https://www.darioriccio.com/wp-content/uploads/2022/12/Hero.mp4"></video><figcaption class="wp-element-caption">Video esempio di Plask</figcaption></figure>



<p>Ulteriore aiuto, oltre che dallo stesso Nicolas con i suoi innumerevoli posts, mi viene dal sito <a href="https://www.futurepedia.io" target="_blank" rel="noreferrer noopener">Futurepedia.io</a>. Una &#8220;wiki&#8221; sull&#8217;intelligenza artificiale, con la selezione di molti strumenti ad oggi disponibili per il grande pubblico.</p>



<p>Andiamo quindi ad analizzarne alcuni, nello specifico quelli utili nel cinema. Tanto per la scrittura, quanto per la produzione tecnica dei video e per le voci. Vedremo la qualità dei risultati, faremo esperimenti e ne conosceremo i costi.</p>



<p>Per meglio comprendere come usarli nei nostri film low budget, ho deciso di creare un cortometraggio (di bassissime pretese, solo per fare prove tecniche) usandoli il più possibile.</p>



<h2 class="wp-block-heading">Creare video con l&#8217;intelligenza artificiale</h2>



<p>Dividiamo i servizi in tre macro-categorie: <em>scrittura</em>, <em>video</em> e <em>audio</em>. Iniziando dalla scrittura, dovendo avere prima di tutto l&#8217;idea.</p>



<h2 class="wp-block-heading">Scrittura cinematografica con l&#8217;intelligenza artificiale</h2>



<p>Necessitiamo una storia. Realizzata da un&#8217;AI? Vediamo, gli strumenti di scrittura non mancano. E se non sarete d&#8217;accordo, potrete sempre controbattere nei commenti.</p>



<h2 class="wp-block-heading">Come funziona GPT-3</h2>



<p>La maggior parte dei servizi pubblici per scrittura AI è ad oggi basata su <strong>GPT-3</strong> (con i suoi 175 miliardi&nbsp;di parametri di apprendimento automatico). Le alternative in realtà sarebbero tante: <strong><a href="https://huggingface.co/bigscience/bloom" target="_blank" rel="noreferrer noopener">BigScience Bloom</a></strong>, linguaggio su larga scala che è stato lanciato da poco (<em>con il vantaggio di essere open source</em>), o la tedesca <em>Aleph Alpha</em> con il suo <strong>Luminous</strong> (da 200 miliardi di parametri).</p>



<h3 class="wp-block-heading">Cosa sono i parametri di un&#8217;intelligenza artificiale?</h3>



<p>Immagina di avere un compito che richiede di prevedere se un&#8217;immagine contiene un gatto o no. Un modello di intelligenza artificiale potrebbe essere addestrato su molte immagini etichettate come &#8220;gatto&#8221; o &#8220;non gatto&#8221; per imparare a riconoscere i tratti distintivi dei gatti.</p>



<p>Per fare questo, il modello utilizza una rete neurale, che è un insieme di nodi interconnessi. Ogni nodo rappresenta un calcolo effettuato sui dati di input. <strong>I parametri, o &#8220;pesi&#8221;, sono i valori assegnati a ciascun nodo che influiscono sulla forza della connessione tra i nodi</strong>.</p>



<p>Quando il modello vede un&#8217;immagine nuova, questi pesi vengono utilizzati per effettuare una serie di calcoli che alla fine producono una previsione, ad esempio &#8220;gatto&#8221; o &#8220;non gatto&#8221;. Il numero di pesi che vengono utilizzati nel modello è il numero di parametri.</p>



<p>In sintesi, i parametri sono come dei valori di ajuste (o adattamenti, diciamo la modifica dei valori di un modello di intelligenza artificiale durante l&#8217;allenamento al fine di migliorare la sua performance) che influiscono sul modo in cui il modello elabora i dati per produrre una previsione.</p>



<p>Un modello con molti parametri avrà più opportunità di modificare i suoi calcoli per adattarsi ai dati di allenamento, ma potrebbe anche essere più incline a <em>overfitting</em>, ovvero a un&#8217;eccessiva aderenza ai dati di allenamento e una scarsa capacità di generalizzazione.</p>



<h3 class="wp-block-heading">Altri concorrenti di ChatGPT</h3>



<p>Altri concorrenti sono <strong>Nvidia</strong> con il <em><a href="https://developer.nvidia.com/megatron-turing-natural-language-generation" target="_blank" rel="noreferrer noopener">Megatron NGL</a></em> (immenso, ma non disponibile al pubblico), <em>Google</em> con i suoi <strong><a href="https://ai.googleblog.com/2021/12/more-efficient-in-context-learning-with.html" target="_blank" rel="noreferrer noopener">GLaM</a></strong>, <strong><a href="https://blog.google/technology/ai/lamda/" target="_blank" rel="noreferrer noopener">LaMDA</a></strong> e <strong><a href="https://ai.googleblog.com/2022/04/pathways-language-model-palm-scaling-to.html" target="_blank" rel="noreferrer noopener">PaLM</a></strong> (si, non si fanno mancare nulla), <strong><a href="https://ai.facebook.com/blog/democratizing-access-to-large-scale-language-models-with-opt-175b/" target="_blank" rel="noreferrer noopener">OPT</a></strong> di <em>Meta</em>, <strong><a href="https://github.com/amazon-science/alexa-teacher-models" target="_blank" rel="noreferrer noopener">AlexaTM</a></strong> di <em>Amazon</em> o vari cinesi come <em>Alibaba</em> e il suo <strong><a href="https://dl.acm.org/doi/abs/10.1145/3503221.3508417" target="_blank" rel="noreferrer noopener">BaGuaLu</a></strong>.</p>



<p>Per finire cito <strong><a href="https://6b.eleuther.ai" target="_blank" rel="noreferrer noopener">GPT-J</a></strong>, altra alternativa open source a GPT-3.</p>



<p>Capiamo quindi rapidamente come funziona GPT-3, da una risposta riadattata della stessa AI:</p>



<p><em>GPT-3 (Generative Pretrained Transformer 3) è un modello linguistico all&#8217;avanguardia sviluppato da OpenAI. Utilizza una tecnica di apprendimento profondo chiamata </em>&#8220;<em>transformers</em>&#8220;<em> per generare testo simile a quello umano sulla base di un dato input.</em></p>



<p><em>Ecco come funziona il GPT-3:</em></p>



<ol class="wp-block-list">
<li><em>Il modello viene addestrato su un ampio set di testi generati dall&#8217;uomo, come libri, articoli e siti web. Questo processo di addestramento consente al modello di apprendere gli schemi e le strutture del linguaggio naturale.</em></li>



<li><em>Quando riceve un input, il modello lo elabora utilizzando i suoi strati di reti neurali. Ogni strato svolge un compito diverso, come l&#8217;analisi della sintassi, della semantica e del contesto dell&#8217;input.</em></li>



<li><em>Il modello genera quindi una risposta basata sull&#8217;input e sulla sua comprensione del linguaggio naturale. Lo fa prevedendo le parole successive della frase, utilizzando gli schemi e le strutture apprese durante l&#8217;addestramento.</em></li>



<li><em>Il modello ripete questo processo più volte, generando più risposte all&#8217;input. Queste risposte vengono poi classificate e valutate dal modello e la risposta più alta viene selezionata come output finale.</em></li>
</ol>



<p><em>GPT-3 è noto per la sua capacità di generare testo spesso difficile da distinguere da quello scritto da un essere umano. È utilizzato in diverse applicazioni, come la traduzione linguistica, la sintesi e la generazione di testi.</em></p>



<h3 class="wp-block-heading">ChatGPT racconta storie per la sceneggiatura.</h3>



<p>Cominciamo direttamente dal prodotto di casa Open AI: <strong>ChatGPT</strong>. È forse il tool del momento; il primo ad aver fatto un salto tra il grande pubblico. È quasi preoccupante quanto sia preciso e &#8220;reale&#8221; nelle conversazioni, ma se ne è discusso anche troppo e ovunque nelle ultime settimane.</p>



<p>Mi sono iscritto al sito di Open AI, ho aperto la chat per provare a parlare con GPT-3 (non oso immaginare cosa farà il prossimo GPT-4) chiedendo di scrivermi una storia con alcuni dialoghi per un cortometraggio in grafica digitale. E beh, semplicemente me l&#8217;ha fatta.</p>



<h4 class="wp-block-heading">La storia scritta da ChatGPT</h4>



<p>Questa è la storia senza alcun ritocco, solo tradotta in italiano (potete leggere l&#8217;originale nella versione inglese di questo articolo).</p>


<div class="lightweight-accordion"><details><summary class="lightweight-accordion-title"><span>Titolo: La città perduta (premi qui per aprire)</span></summary><div class="lightweight-accordion-body">

<p>Quando il sole sorse all&#8217;orizzonte, un piccolo gruppo di avventurieri si mise in viaggio per trovare la città perduta dell&#8217;oro. Erano alla ricerca da mesi, seguendo vecchie mappe e antiche leggende nella speranza di fare fortuna.</p>



<p>&#8220;Siete sicuri che questa sia la strada giusta?&#8221; chiese <strong>Maria</strong>, la leader del gruppo. &#8220;Non vedo alcun segno della città all&#8217;orizzonte&#8221;.</p>



<p>&#8220;Fidati di me, Maria&#8221;, rispose <strong>Jake</strong>, l&#8217;esperto di storia antica del gruppo. &#8220;La città è nascosta nelle profondità della giungla e non sarà facile trovarla. Ma se ci atteniamo al piano, la troveremo&#8221;.</p>



<p>Il gruppo si inoltrò nella fitta giungla, frugando tra le liane e il sottobosco con i loro machete. Dopo diverse ore di viaggio estenuante, raggiunsero il bordo di una radura.</p>



<p>&#8220;Guardate!&#8221; gridò <strong>Sarah</strong>, il membro più giovane del gruppo. &#8220;Laggiù! Vedo qualcosa che luccica alla luce del sole!&#8221;.</p>



<p>Il gruppo si precipitò verso il punto in cui Sarah aveva visto il luccichio, e di sicuro trovarono una piccola statua d&#8217;oro sepolta nella terra.</p>



<p>&#8220;Deve essere questa!&#8221; esclamò <strong>Maria</strong>. &#8220;Abbiamo trovato la città perduta dell&#8217;oro!&#8221;.</p>



<p>Il gruppo iniziò a scavare, scoprendo sempre più tesori. Trovarono monete d&#8217;oro, gioielli preziosi e antichi manufatti di grande valore.</p>



<p>&#8220;Siamo ricchi!&#8221; esclamò <strong>Jake</strong>, ridendo per l&#8217;eccitazione. &#8220;Abbiamo trovato un tesoro che va oltre i nostri sogni più sfrenati!&#8221;.</p>



<p>Ma mentre continuavano a scavare, il terreno sotto i loro piedi cominciò a rimbombare e a tremare. All&#8217;improvviso, un&#8217;enorme porta di pietra si aprì, rivelando un ingresso nascosto alla città perduta.</p>



<p>&#8220;Presto, tutti dentro!&#8221; gridò <strong>Maria</strong>, guidando il gruppo nel tunnel buio. &#8220;Dobbiamo trovare la fonte del tesoro prima che sia troppo tardi!&#8221;.</p>



<p>Il gruppo si addentrò nel tunnel, illuminato dalle torce. Raggiunsero una grande camera aperta piena di tesori.</p>



<p>&#8220;Ci siamo!&#8221; gridò <strong>Sarah</strong>. &#8220;La città perduta dell&#8217;oro!&#8221;.</p>



<p>Ma mentre esploravano la camera, sentirono un forte rimbombo. All&#8217;improvviso, il terreno sotto i loro piedi cedette e caddero in una fossa profonda.</p>



<p>&#8220;Aiuto!&#8221; gridò <strong>Maria</strong>, mentre cadevano nell&#8217;oscurità. &#8220;Siamo in trappola!&#8221;.</p>



<p>Ma proprio quando pensavano che tutto fosse perduto, sentirono una voce flebile che li chiamava.</p>



<p>&#8220;Non preoccupatevi, avventurieri&#8221;, disse <strong>la voce</strong>. &#8220;Sono il guardiano della città perduta e vi aiuterò a fuggire&#8221;.</p>



<p>Con l&#8217;aiuto del guardiano, il gruppo riuscì a uscire dalla fossa e a tornare in superficie. Uscirono dalla giungla, trionfanti e ricchi oltre ogni aspettativa.</p>



<p>&#8220;Ce l&#8217;abbiamo fatta!&#8221;, gridò <strong>Jake</strong>, ridendo di gioia. &#8220;Abbiamo trovato la città perduta dell&#8217;oro!&#8221;. </p>

</div></details></div>


<p>Teniamo in considerazione questa prima storia. Certo, non me l&#8217;ha fatta semplice&#8230; Poteva creare una storia in mezzo a una città a caso; al contrario, la giungla sarà più complessa da ricreare. Ma ci devo stare, il gioco è questo.</p>



<h3 class="wp-block-heading">La stessa storia, in versione breve</h3>



<p>Ah, ho anche chiesto una versione più breve. Mi ha fatto una sintesi. Poi ho specificato di volere una versione breve ma con i dialoghi, e semplicemente l&#8217;ha fatta. Ve la riporto per completezza di informazione:</p>


<div class="lightweight-accordion"><details><summary class="lightweight-accordion-title"><span>La città perduta (versione breve)</span></summary><div class="lightweight-accordion-body">

<p>Mentre il gruppo di avventurieri cercava la città perduta dell&#8217;oro, si imbatté in un ingresso nascosto nella giungla.</p>



<p>&#8220;Guardate, laggiù!&#8221; disse <strong>Sarah</strong>, indicando l&#8217;ingresso.</p>



<p>Il gruppo si precipitò verso l&#8217;ingresso ed esplorò la città, trovando un tesoro che andava oltre i loro sogni più sfrenati.</p>



<p>&#8220;Siamo ricchi!&#8221;, gridò <strong>Jake</strong>.</p>



<p>Ma mentre continuavano a cercare, il terreno sotto di loro cedette e caddero in una fossa.</p>



<p>&#8220;Aiuto!&#8221;, gridò <strong>Maria</strong>.</p>



<p>Un guardiano della città li aiutò a fuggire e ne uscirono vittoriosi e ricchi.</p>



<p>&#8220;Ce l&#8217;abbiamo fatta!&#8221;, gridò <strong>Jake</strong>.</p>

</div></details></div>


<h3 class="wp-block-heading">ChatGPT scrive automaticamente la sceneggiatura</h3>



<p>Stavo valutando di raccoglierla in una sceneggiatura, quando ho pensato &#8220;perché non chiederglielo?&#8221;. Detto, fatto. Mi ha riscritto la storia già pronta per il cinema:</p>


<div class="lightweight-accordion"><details><summary class="lightweight-accordion-title"><span>Sceneggiatura di &#8220;La città perduta&#8221;</span></summary><div class="lightweight-accordion-body">

<p>INT. GIUNGLA &#8211; GIORNO</p>



<p>Il sole sorge all&#8217;orizzonte mentre un gruppo di avventurieri, MARIA, JAKE e SARAH, si mette in viaggio per trovare la città d&#8217;oro perduta.</p>



<p>MARIA<br>Siete sicuri che questa sia la strada giusta? Non vedo alcun segno della città all&#8217;orizzonte.</p>



<p>JAKE<br>Fidati di me, Maria. La città è nascosta nel profondo della giungla e non sarà facile trovarla. Ma se ci atteniamo al piano, la troveremo.</p>



<p>Il gruppo si inoltra nella giungla fitta, tagliando le liane e il sottobosco con i loro machete.</p>



<p>SARAH<br>Guardate! Laggiù! Vedo qualcosa che luccica alla luce del sole!</p>



<p>Il gruppo si precipita verso il punto in cui Sarah ha visto il luccichio e trova una piccola statua d&#8217;oro sepolta nella terra.</p>



<p>MARIA<br>Deve essere questa! Abbiamo trovato la città perduta dell&#8217;oro!</p>



<p>Il gruppo inizia a scavare, scoprendo sempre più tesori.</p>



<p>JAKE<br>Siamo ricchi! Abbiamo trovato un tesoro che va oltre i nostri sogni più sfrenati!</p>



<p>Ma mentre continuano a scavare, il terreno sotto i loro piedi inizia a rimbombare e a tremare. All&#8217;improvviso, un&#8217;enorme porta di pietra si apre, rivelando un ingresso nascosto alla città perduta.</p>



<p>MARIA<br>Presto, tutti dentro! Dobbiamo trovare la fonte del tesoro prima che sia troppo tardi!</p>



<p>Il gruppo si addentra nel tunnel, illuminato dalle torce. Raggiungono una grande camera aperta piena di tesori.</p>



<p>SARAH<br>È questa! La città perduta dell&#8217;oro!</p>



<p>Ma mentre esplorano la camera, sentono un forte rimbombo. All&#8217;improvviso, il terreno sotto i loro piedi cede e cadono in una fossa profonda.</p>



<p>MARIA<br>Aiuto! Siamo in trappola!</p>



<p>Ma proprio quando pensano che tutto sia perduto, sentono una voce flebile che li chiama.</p>



<p>GUARDIA (fuori campo)<br>Non preoccupatevi, avventurieri. Sono il guardiano della città perduta e vi aiuterò a fuggire.</p>



<p>Con l&#8217;aiuto del guardiano, il gruppo riesce a uscire dalla fossa e a tornare in superficie. Riemergono dalla giungla, trionfanti e ricchi oltre ogni aspettativa.</p>



<p>JAKE<br>Ce l&#8217;abbiamo fatta! Abbiamo trovato la città perduta dell&#8217;oro!</p>

</div></details></div>


<p>A parte <em>Interno Giungla</em>, per il resto è un&#8217;ottima base di partenza. Ma ad <em>Andrea Rocci</em>, sceneggiatore &#8220;umano&#8221;, seppur senza un&#8217;analisi approfondita (eravamo a fare due chiacchiere davanti una birra) gli sono saltati all&#8217;occhio alcuni errori di forma.</p>



<p>La sceneggiatura parla infatti per immagini, e frasi come &#8220;scoprendo sempre più tesori&#8221;, o &#8220;ricchi oltre ogni aspettativa&#8221; non sono affatto chiare. Quali tesori? Statue, monete, altro? E in che senso ricchi? Sono pieni di oro addosso? Sono vestiti in maniera appariscente? Tutti con l&#8217;ultimo iPhone e le chiavi di una Ferrari?</p>



<p>Per non parlare della mancanza di descrizioni degli ambienti. La giungla stessa è lasciata al più completo immaginario del regista, o degli scenografi (o 3D artist, che dir si voglia).</p>



<p>Però di necessità virtù, lasceremo alla discrezione del regista (esistesse, almeno lui&#8230;) ogni scelta. Proveremo a cercarne uno buono su <a href="https://www.character.ai" target="_blank" rel="noreferrer noopener"><strong>character.ai</strong></a>, forse. Anzi, provatelo e parlate con dei &#8220;personaggi&#8221; artificiali. C&#8217;è persino <em>Albert Einstein</em>!</p>



<h4 class="wp-block-heading">Prezzi</h4>



<p>Qui è semplice: di base <strong>non costa nulla</strong>. Sta iniziando ad essere commercializzata una versione a 20 dollari al mese in alcuni Paesi, che elimina alcuni limiti (soprattutto dovuti alla potenza di calcolo necessaria per gestire le milioni di richieste che arrivano ogni giorno ad OpenAI).</p>



<h2 class="wp-block-heading">Alternative a ChatGPT</h2>



<p>Al momento GPT-3 è difficile da battere&#8230; Nell&#8217;attesa che escano i candidati più blasonati (a breve <em><a href="https://blog.google/technology/ai/bard-google-ai-search-updates/" target="_blank" rel="noreferrer noopener">Google Bard</a></em>), ho chiesto a ChatGPT stesso i suoi concorrenti. Mi ha segnalato per cominciare <em>ScriptBuddy</em>, <em>WriterDuet</em> e <em>AI Screenwriter</em>. Chiedendogliene altri, Plotbot, Amazon Storywriter e InkTip Script Listing. Ok, pensavo fosse sufficiente&#8230; Tranne che la risposta in realtà è una parziale menzogna. Qui si vedono i limiti attuali di questa intelligenza artificiale, in parte (ma non solo) a causa del fatto che i dati di cui dispone sono aggiornati al 2021.</p>



<p>Intanto <em>ScriptBuddy</em>, inizialmente basato su GPT-2, non viene più mantenuto da oltre 3 anni; lo escludiamo. <em>WriterDuet</em> è invece utilissimo nella sistemazione di sceneggiature. Ma lui non scrive nulla da solo&#8230; <em>AI Screenwriter</em> non credo esista neppure, quanto meno il caro vecchio Google non mi da risultati.</p>



<p>Per quel che riguarda Plotbot, o meglio <em><a href="https://github.com/rasbot/plot-bot" target="_blank" rel="noreferrer noopener">Plot-bot</a></em>, genera effettivamente trame di film sfruttando il motore GPT-2. Ma, come ScriptBuddy, sono anni che non viene mantenuto e per ottimizzare i tempi lo escludo. Lo stesso vale per <em><a href="https://en.wikipedia.org/wiki/Amazon_Storywriter" target="_blank" rel="noreferrer noopener">Amazon StoryWriter</a></em>, mentre InkTip Script Listing non serve a generare testi.</p>



<h3 class="wp-block-heading">Dramatron</h3>



<p><a href="https://deepmind.github.io/dramatron/" target="_blank" rel="noreferrer noopener"><strong>Dramatron</strong></a> è una nuova alternativa, marchiata <em>Deepmind</em>, che promette esattamente quello che stiamo cercando: scrivere sceneggiature per cinema e teatro. Purtroppo è stato rilasciato solo un paio di giorni intorno al 9 dicembre, e quando sono arrivato a provarlo era troppo tardi.</p>



<p>Resta un progetto interessante da tenere in considerazione quando sarà aperto. Per il momento, non piace a <em><a href="https://www.youtube.com/@georgemike-com" target="_blank" rel="noreferrer noopener">George Mike</a></em>, autore di questo video su YouTube.</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-4-3 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="DeepMind&#039;s Dramatron is very not good. [Demo]" width="678" height="509" src="https://www.youtube.com/embed/A1qGOfbGQcA?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" allowfullscreen></iframe>
</div><figcaption class="wp-element-caption">Prova di Dramatron</figcaption></figure>



<p>Il suo commento? &#8220;<em>&#8230;in generale mi è sembrato insipido. E non mi ha dato molto di più dei dialoghi che si trovano in tutti i film. Ha chiaramente colto il genere, ma non lo ha approfondito in modo interessante. Non ha fatto progredire la narrazione</em>&#8220;.</p>



<h3 class="wp-block-heading"><strong>Rytr</strong></h3>



<p>Tramite <em>Google</em> e <em>Futurepedia</em> sono poi giunto a <a href="https://rytr.me" target="_blank" rel="noreferrer noopener"><em>Rytr</em></a>. Uno strumento carino. Account e accesso, e mi ritrovo nell&#8217;area di lavoro. Chiede fondamentalmente lingua, stile e caso d&#8217;uso del testo creato, e lui agisce. Non essendoci chiaramente &#8220;film script&#8221;, ho provato intanto con uno strumento chiamato &#8220;bacchetta magica&#8221;.</p>



<p>Stessa richiesta fatta a ChatGPT, la risposta è stata però quasi esilarante:</p>


<div class="lightweight-accordion"><details><summary class="lightweight-accordion-title"><span>Storia per un cotrometraggio</span></summary><div class="lightweight-accordion-body">

<p>Nel nome di Allah, il Compassionevole, il Misericordioso</p>



<p>Io credo</p>



<p>Credo in Allah, l&#8217;Unico Dio</p>



<p>Credo nei profeti e nei messaggeri</p>



<p>Credo negli angeli e nelle scritture</p>



<p>Credo nei libri della rivelazione</p>



<p>Credo nella vita dopo la morte e che nel giorno del giudizio sarà fatta giustizia.</p>



<ul class="wp-block-list">
<li>Scusa, cosa? Stai dicendo &#8220;credo&#8221; a tutto.</li>
</ul>



<p>Non ho tempo per questo.</p>



<ul class="wp-block-list">
<li>Mi dispiace, non ti seguo.</li>



<li>Perché ti stai scusando?</li>



<li>Che cosa?</li>
</ul>

</div></details></div>


<p>Proviamo qualcosa di diverso e più specifico&#8230; Ho chiesto &#8220;Ho bisogno di una sceneggiatura di circa 2000 parole, con dialoghi, per realizzare un cortometraggio in computer grafica. Il titolo è: la città perduta&#8221;, e impostato come come caso d&#8217;uso &#8220;trama di una storia&#8221;. Prompt basato sul precedente output di ChatGPT. Ma ancora siamo lontani, seppur abbiamo una storiella di base:</p>


<div class="lightweight-accordion"><details><summary class="lightweight-accordion-title"><span>La città perduta</span></summary><div class="lightweight-accordion-body">

<p>In un futuro prossimo, un equipaggio di archeologi e scienziati in missione esplorativa su un pianeta sconosciuto viene catturato e imprigionato da un&#8217;antica civiltà aliena.</p>



<p>La squadra è in un certo senso persa, a causa della barriera linguistica e delle interazioni con gli alieni. Vengono tenuti in cattività per decenni, esplorando le rovine e scoprendo tutti i segreti della civiltà.</p>



<p>Alla fine riescono a tornare a casa. Gli scienziati hanno imparato molte cose nuove e le riportano sulla Terra per condividerle con gli umani. Tuttavia, hanno impiegato così tanto tempo che ormai non solo la Terra è cambiata, ma non c&#8217;è più tempo per queste scoperte.</p>

</div></details></div>


<p>Stessa richiesta, ma con il comando magico come caso d&#8217;uso:</p>


<div class="lightweight-accordion"><details><summary class="lightweight-accordion-title"><span>La città perduta</span></summary><div class="lightweight-accordion-body">

<p>INT. SOGGIORNO &#8211; POMERIGGIO</p>



<p>La stanza è ben arredata e sembra molto confortevole. C&#8217;è una porta che conduce a un&#8217;altra stanza.</p>



<p>JOE: Buongiorno, John.</p>



<p>Buongiorno, Joe. Come sta stamattina?</p>



<p>JOE: Sto bene, grazie per averlo chiesto. E tu?</p>



<p>JOHN: Sto benissimo! Cosa c&#8217;è in programma per oggi?</p>



<p>JOE: Vado a recuperare le mie letture e poi probabilmente farò una passeggiata nel quartiere. Hai qualche programma</p>

</div></details></div>


<p>Ok, un tool utile per brevi testi ma è ancora lontano dall&#8217;autonomia totale. Veniamo ai prezzi, anche se nel nostro caso mantengo il testo di ChatGPT.</p>



<h4 class="wp-block-heading">Prezzi</h4>



<p>Rytr ha una versione completamente <strong>gratuita</strong>, limitata a 10000 caratteri al mese. Altrimenti costa <strong>$ 9 al mese</strong> per 100.000 caratteri, o <strong>$ 29 al mese</strong> per uso illimitato.</p>



<h3 class="wp-block-heading">Shortly AI</h3>



<p>Altro strumento è <strong><a href="https://www.shortlyai.com" target="_blank" rel="noreferrer noopener">Shortly AI</a></strong>, principalmente studiato per combattere il &#8220;blocco dello scrittore&#8221;. Scrivi il tuo testo o una frase, e lui continua.</p>



<p>Non potendogli chiedere di fare la storia per me, ho usato la prima frase della storia generata da ChatGPT: <em>As the sun rose over the horizon, a small group of adventurers set out on their journey to find the lost city of gold.</em> Seppur basato sullo stesso modello linguistico, il prosieguo è stato chiaramente differente. </p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="682" src="https://www.darioriccio.com/wp-content/uploads/2022/12/Screenshot-2022-12-10-alle-10.00.55-1024x682.jpg" alt="" class="wp-image-789" srcset="https://www.darioriccio.com/wp-content/uploads/2022/12/Screenshot-2022-12-10-alle-10.00.55-1024x682.jpg 1024w, https://www.darioriccio.com/wp-content/uploads/2022/12/Screenshot-2022-12-10-alle-10.00.55-300x200.jpg 300w, https://www.darioriccio.com/wp-content/uploads/2022/12/Screenshot-2022-12-10-alle-10.00.55-768x512.jpg 768w, https://www.darioriccio.com/wp-content/uploads/2022/12/Screenshot-2022-12-10-alle-10.00.55-1536x1023.jpg 1536w, https://www.darioriccio.com/wp-content/uploads/2022/12/Screenshot-2022-12-10-alle-10.00.55-2048x1364.jpg 2048w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure>



<p>Questo è il testo finale:</p>


<div class="lightweight-accordion"><details><summary class="lightweight-accordion-title"><span>La città perduta</span></summary><div class="lightweight-accordion-body">

<p>Quando il sole sorse all&#8217;orizzonte, un piccolo gruppo di avventurieri si mise in viaggio per trovare la città perduta dell&#8217;oro. Si diceva che nella città perduta ci fossero più di mille tonnellate d&#8217;oro, ma come tutte le leggende, la storia del tesoro viene raccontata solo a chi ne è degno.</p>



<p>Erano in viaggio da due settimane e speravano di poter raggiungere la loro destinazione entro la fine della settimana. Finora la strada era stata scorrevole, ma quando si avvicinavano a una collina, c&#8217;era una piccola costruzione sulla strada, che faceva rallentare i carri. La carovana aveva due grandi carri che trasportavano l&#8217;oro, mentre il resto era a cavallo. Il resto del gruppo non era molto preoccupato per il ritardo, a parte il leader. Per contenere grandi quantità di oro, argento e gioielli risalenti agli antichi Aztechi. Una città perduta che era protetta da un numero incalcolabile di demoni e spettri. Si diceva che non un uomo o una bestia che fosse entrato nella città maledetta fosse tornato.</p>



<p>Il piccolo convoglio si diresse verso il luogo indicato dal datore di lavoro. Ripassarono un&#8217;ultima volta i dettagli del contratto. I sei avventurieri si erano divisi in tre gruppi da due. Ogni gruppo si era posizionato in un luogo. La città era nascosta nelle profondità di una catena montuosa al centro della quale si trovava una fortezza ben protetta lasciata dall&#8217;impero azteco. Si diceva che il pozzo fosse una porta d&#8217;accesso alla città perduta. All&#8217;interno della fortezza doveva trovarsi la statua di un angelo. Si trattava di una speciale tavoletta di pietra con un incantesimo che avrebbe concentrato il potere del gioiello sull&#8217;ottavo figlio di un re azteco.</p>



<p>Alla notizia della strana fortezza, il capo azteco fece marciare il suo esercito per attaccarla, ma misteriosamente uno dei generali e il suo esercito furono portati via in un altro regno e sono scomparsi. Il re ordinò quindi la ritirata. Questo fu l&#8217;inizio dei problemi. Mentre se ne stavano andando, furono attaccati da grandi mostri che si pensava fossero stati uccisi, ma poi furono visti in cima alla fortezza. Le battaglie continuarono per tutta la settimana successiva, con la sconfitta degli Aztechi.</p>



<p>Alla fine, il re ordinò alle truppe rimaste di tornare in città, dicendo che le battaglie della settimana precedente avevano risvegliato alcuni antichi demoni, responsabili della scomparsa non solo di suo figlio, ma anche di alcuni dei suoi generali e delle truppe rimaste. Il re aveva messo al bando ogni tipo di magia e di incantesimo nella sua città e tutti dovevano essere giustiziati. Un giovane è stato aiutato dalla madre, anch&#8217;essa maga, una volta scoperta.</p>

</div></details></div>


<p>In definitiva, una bella storia ma con poco senso. L&#8217;AI ha preso pezzi di testo di qua e di là, ma senza collegarli in maniera &#8220;intelligente&#8221;.</p>



<h4 class="wp-block-heading">Prezzi</h4>



<p>Shortly AI è sicuramente utile per aggiungere una frase o due e sormontare il blocco dello scrittore, ma per lasciarlo far da solo non sembra il tool migliore.</p>



<p>Il suo costo non è neppure trascurabile. Parliamo di <strong>$ 79 al mese</strong>, o <strong>$ 780 all&#8217;anno</strong>. Io ho comunque utilizzato la prova gratuita, per cui è richiesto solo di registrare un account.</p>



<h3 class="wp-block-heading">WriterX</h3>



<p>Vediamo <a href="https://writerx.co" target="_blank" rel="noreferrer noopener"><strong>WriterX</strong></a>. Ha templates per creare articoli, post sui social, conclusioni di testi e tanti altri. Mi aspetto risultati simili a Shortly, non essendo progettato per intere storie.</p>



<p>Purtroppo però la versione di prova gratuita non permette di accedere a tutte le funzionalità, e non mi andava di pagare per un servizio (anche abbastanza caro) senza prima averlo provato; avendo persino un&#8217;alternativa gratuita di cui sono parzialmente soddisfatto.</p>



<p>Seppur lo stia valutando per le sue utili funzionalità di marketing&#8230; Come la bio dei miei canali social, o eventuali futuri aiuti nella scrittura degli articoli del blog. L&#8217;ho anche usato per scrivere la descrizione meta di questo stesso articolo.</p>



<h4 class="wp-block-heading">Prezzi</h4>



<p>WriterX costa <strong>$ 29 al mese</strong> nella versione standard (praticamente la trial che avevo), o <strong>$ 59</strong> <strong>al mese</strong> per avere testi e funzioni illimitati. È disponibile in 25 lingue.</p>



<h3 class="wp-block-heading">Jasper AI</h3>



<p>Volevo provare anche <strong><a href="https://www.jasper.ai" target="_blank" rel="noreferrer noopener">Jasper AI</a></strong>, che alla fine è un&#8217;interfaccia grafica per la stessa GPT-3. È forse il più pubblicizzato, si trova ovunque. Ma, semplicemente, non ho neppure cominciato ad usarlo: obbliga ad inserire la carta di credito anche per la versione gratuita, e per verificarla non prende pochi centesimi ma l&#8217;intero <strong>primo mese: 29 dollari</strong>. Atteggiamento poco professionale, non voglio quindi averci a che fare e volevo i miei soldi immediatamente indietro.</p>



<h3 class="wp-block-heading">GPT-J e Writey AI</h3>



<p>Per uscire dall&#8217;universo GPT-3, volevo provare l&#8217;open source <strong>GPT-J</strong> tramite il sito web <a href="https://6b.eleuther.ai" target="_blank" rel="noreferrer noopener">6b.eleuther.ai</a>;  però si bloccava sempre con il messaggio: &#8220;Unable to connect to the model. Please try again&#8221;. E <strong><a href="https://writey.ai" target="_blank" rel="noreferrer noopener">Writey AI</a></strong>, anch&#8217;esso ben funzionante ma troppo specializzato nella stesura di articoli per blog. Cosa per la quale vi consiglio di dargli un&#8217;occhiata, non foss&#8217;altro per 5 articoli al mese totalmente gratuiti.</p>



<p>In definitiva, sono stanco e ogni altra ricerca mi pare inutile. Dopotutto il testo di ChatGPT è valido (se così si può definire un testo &#8220;automatico&#8221;), quindi direi di passare alla realizzazione tecnica del cortometraggio.</p>



<h2 class="wp-block-heading">Creazione dei personaggi 3D</h2>



<h3 class="wp-block-heading">Può un&#8217;intelligenza artificiale generare personaggi 3D?</h3>



<p>Abbiamo bisogno quindi dei personaggi per la nostra storia, ma è davvero possibile generarli con l&#8217;A.I.? <strong>Spoiler: oggi, non bene</strong>. Ci sono tante promesse e alcune soluzioni che si avvicinano al risultato, ma non è ancora possibile. Vediamole in breve, poiché saranno utili nel prossimo futuro. Ma poi andremo a capire come avere i personaggi della nostra storia, ora, con pochi soldi.</p>



<h3 class="wp-block-heading">PIFuHD</h3>



<p>Per iniziare c&#8217;è <a href="https://colab.research.google.com/drive/11z58bl3meSzo6kFqkahMa35G5jmh2Wgt#scrollTo=1TfPAtL4CyZw" target="_blank" rel="noreferrer noopener">PIFuHD</a>, già disponibile al pubblico e che promette di creare un personaggio 3D a partire da una singola foto. Funziona, ma già dai video di presentazione si rimarca una qualità lontana dall&#8217;accettabile al cinema.</p>



<h3 class="wp-block-heading">Google DreamFusion</h3>



<p><a href="https://dreamfusion3d.github.io" target="_blank" rel="noreferrer noopener"><strong>DreamFusion</strong></a> è una delle prima A.I. in grado di sfruttare i dati 2D di Stable Diffusion (gli stessi usati per la creazione di foto tramite intelligenza artificiale, ormai molto diffusa), per la creazione di modelli 3D.</p>



<p>Stesso problema di prima: qualità insoddisfacente già a prima vista. </p>



<h3 class="wp-block-heading">Microsoft Rodin Diffusion</h3>



<p>Una novità del 2023 in casa Microsoft, <a href="https://3d-avatar-diffusion.microsoft.com" target="_blank" rel="noreferrer noopener">Rodin Diffusion</a> ancora non è disponibile al pubblico. Promette di creare un avatar 3D realistico a partire da una sola foto. Beh, a giudicare dalle foto rilasciate sul loro sito i capelli&#8230; Sempre quelli sono il problema!</p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="275" src="https://www.darioriccio.com/wp-content/uploads/2023/01/3d-avatar-diffusion-1-1024x275.jpg" alt="" class="wp-image-806" srcset="https://www.darioriccio.com/wp-content/uploads/2023/01/3d-avatar-diffusion-1-1024x275.jpg 1024w, https://www.darioriccio.com/wp-content/uploads/2023/01/3d-avatar-diffusion-1-300x80.jpg 300w, https://www.darioriccio.com/wp-content/uploads/2023/01/3d-avatar-diffusion-1-768x206.jpg 768w, https://www.darioriccio.com/wp-content/uploads/2023/01/3d-avatar-diffusion-1-1536x412.jpg 1536w, https://www.darioriccio.com/wp-content/uploads/2023/01/3d-avatar-diffusion-1-2048x549.jpg 2048w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption class="wp-element-caption">Modello generativo di Microsoft 3D Avatar Diffusion</figcaption></figure>



<h3 class="wp-block-heading">Nvidia Get3D</h3>



<p>Non può di certo mancare la regina delle schede grafiche, Nvidia, tra i tool 3D. E in effetti il suo <a href="https://nv-tlabs.github.io/GET3D/" target="_blank" rel="noreferrer noopener"><strong>Get3D</strong></a> è superlativo nella creazione di modelli 3D partendo dalle informazioni apprese da un dataset di modelli 3D.</p>



<p>Il dataset è molto più limitato, e questo è uno svantaggio nella varietà di oggetti 3D realizzabili. È però open-source, punto decisamente a favore, seppur l&#8217;intero training va fatto nel proprio sistema. Questo vuol dire schede video di fascia alta a go-go&#8230; E costano un po&#8217;. Tanto.</p>



<h3 class="wp-block-heading">Nvidia Magic3D</h3>



<p>Come ha risolto Nvidia il problema della &#8220;limitazione&#8221;, in termini di quantità, di oggetti creabili da Get3D? Come ci spiega l&#8217;articolo su <a href="https://the-decoder.com/nvidias-magic3d-turns-text-into-high-resolution-3d-objects/" target="_blank" rel="noreferrer noopener">The Decoder</a>, semplicemente copiando Google&#8230; E tentando di rendere il suo nuovo <strong><a href="https://deepimagination.cc/Magic3D/" target="_blank" rel="noreferrer noopener">Magic3D</a></strong> (<a href="https://arxiv.org/pdf/2211.10440.pdf" target="_blank" rel="noreferrer noopener">qui il paper dei ricercatori</a>) più rapido e definito di DreamFusion. Questo video ne spiega bene il funzionamento:</p>



<figure class="wp-block-video"><video controls src="https://www.darioriccio.com/wp-content/uploads/2022/12/nvidia_magic3d.mp4"></video><figcaption class="wp-element-caption">Processo di creazione dell&#8217;oggetto 3D con Nvidia Magic3D a partire da un testo</figcaption></figure>



<p>In pratica, Get3D ha un dataset basato su altri modelli 3D. Magic3D parte invece dalle immagini, a loro volta generate da un&#8217;A.I., aprendo la strada a combinazioni virtualmente infinite. </p>



<p>Funziona bene? Ciò che è certo è non sia disponibile al pubblico, ma già dal video e dagli esempi presenti in rete si presenta come una tecnologia molto promettente. Seppur ancora non raggiunge la qualità necessaria.</p>



<h3 class="wp-block-heading">StyleGAN-NADA</h3>



<p>Per fare Pokemon o altre cose divertenti c&#8217;è <strong><a href="https://stylegan-nada.github.io" target="_blank" rel="noreferrer noopener">StyleGAN-NADA</a></strong>, addestrato seguendo il modello CLIP (Contrastive Language-Image Pre-Training) di OpenAI. Permette di creare immagini partendo solo da una descrizione testuale, senza bisogno di vedere alcun riferimento e senza la necessità di raccogliere ulteriori dati di addestramento.</p>



<p>È anche possibile modificare immagini esistenti in modo da renderle simili a quelle di altri domini, ad esempio usando un&#8217;immagine di un cane per generare un gatto. Stesso approccio che può essere applicato ad altre architetture generative, aprendo possibilità interessanti per la creazione di immagini in modo veloce e preciso.</p>



<h3 class="wp-block-heading">Pollinations</h3>



<p>Tra i &#8220;next steps&#8221;, <strong><a href="https://pollinations.ai" target="_blank" rel="noreferrer noopener">Pollinations</a></strong> promette di fare ciò che serve a noi. Dal loro sito web: &#8220;a livello di ricerca, il nostro team sta sviluppando una tecnologia che consenta alle persone di generare oggetti e avatar in 3D con il solo aiuto di un testo&#8221;.</p>



<p>Anche qui, c&#8217;è da attendere. Per ora permette di fare comunque cose interessanti in ambito foto / video. Magari provatelo, comunque c&#8217;è poco di utile ai fini di questo articolo.</p>



<h3 class="wp-block-heading">Text2mesh</h3>



<p>Piccolo ma interessante, <strong><a href="https://threedle.github.io/text2mesh/" target="_blank" rel="noreferrer noopener">Text2mesh</a></strong> è meno un esercizio di stile rispetto ai precedenti. Qui il modello già bisogna averlo, ma l&#8217;AI promette di modificarlo autonomamente; aumentando ad esempio il numero di poligoni, cambiandone la forma e il colore finanche creando la texture da zero. Il tutto sulla base di un prompt di testo, una richiesta scritta. </p>



<p>Promemoria da mettere in agenda, in caso ci servirà.</p>


<div class="wp-block-image">
<figure class="alignright size-medium"><img loading="lazy" decoding="async" width="111" height="300" src="https://www.darioriccio.com/wp-content/uploads/2023/02/lumaai-111x300.jpg" alt="" class="wp-image-828" srcset="https://www.darioriccio.com/wp-content/uploads/2023/02/lumaai-111x300.jpg 111w, https://www.darioriccio.com/wp-content/uploads/2023/02/lumaai.jpg 376w" sizes="(max-width: 111px) 100vw, 111px" /><figcaption class="wp-element-caption">Luma AI</figcaption></figure></div>


<h3 class="wp-block-heading">Luma AI</h3>



<p><a href="https://lumalabs.ai" target="_blank" rel="noreferrer noopener"><strong>Luma AI</strong></a> è un interessante progetto per scansionare oggetti reali ricreandoli in 3D. Il funzionamento è interessante, e la qualità degli scan è discretamente buona. Per oggetti di scena o figure in secondo piano lo reputo più che accettabile, anche in produzione.</p>



<p>Da poco permette anche di creare oggetti, e quindi personaggi, in 3D a partire da un prompt di testo. Con il classico comando &#8220;imagine&#8221;, già reso famoso dal generatore di immagini <em><a href="https://midjourney.com/home/?callbackUrl=%2Fapp%2F" target="_blank" rel="noreferrer noopener">MidJourney</a></em>. Ma qui, di nuovo, la qualità non è eccelsa. Buoni esperimenti, ma decisamente non utilizzabile a fini produttivi.  </p>



<h2 class="wp-block-heading">Personaggi e oggetti 3D senza l&#8217;intelligenza artificiale</h2>



<p>Da tutto questo abbiamo capito solo una cosa: l&#8217;A.I. ad oggi, gennaio 2023, ancora non ci permette di avere dei buoni modelli 3D. Dovendo però mantenere il budget basso, otteniamoli con gli strumenti già disponibili.</p>



<h3 class="wp-block-heading">I personaggi 3D del nostro cortometraggio</h3>



<p>Qui non andrò a fare tante ricerche, ma valuto due strumenti per la creazione di personaggi 3D che già conosco: il semplice <a href="https://www.reallusion.com/character-creator/" target="_blank" rel="noreferrer noopener"><em>Reallusion</em> <strong>Character Creator</strong></a>, e il fantastico <a href="https://www.unrealengine.com/en-US/metahuman" target="_blank" rel="noreferrer noopener"><strong>MetaHuman</strong> di <em>Epic</em></a>.</p>



<p>Per la nostra storia ci serviranno 3 personaggi: <em>Maria</em>, <em>Jake</em> e <em>Sarah</em>.</p>



<h3 class="wp-block-heading">MetaHuman Creator</h3>



<p>In realtà nel caso di MetaHuman una novità rispetto al mio passato c&#8217;è: ho usato la beta di <strong>MetaHuman Creator</strong>. É fenomenale, in quanto mi ha dato la possibilità di approfittare della potenza di calcolo dei server Epic, creando i personaggi in una pausa di lavoro direttamente col portatile (che deve solo ricevere uno stream video).</p>



<p>Richiedendo quindi l'&#8221;Early Access&#8221; con il proprio account Epic Games dal sito <a href="https://metahuman.unrealengine.com">metahuman.unrealengine.com</a>, ci ritroviamo una scelta di possibili personaggi. </p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="570" src="https://www.darioriccio.com/wp-content/uploads/2022/12/metahuman-1024x570.jpg" alt="" class="wp-image-800" srcset="https://www.darioriccio.com/wp-content/uploads/2022/12/metahuman-1024x570.jpg 1024w, https://www.darioriccio.com/wp-content/uploads/2022/12/metahuman-300x167.jpg 300w, https://www.darioriccio.com/wp-content/uploads/2022/12/metahuman-768x427.jpg 768w, https://www.darioriccio.com/wp-content/uploads/2022/12/metahuman-1536x855.jpg 1536w, https://www.darioriccio.com/wp-content/uploads/2022/12/metahuman-2048x1139.jpg 2048w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure>



<p>Immaginiamo che tutti e tre abbiano un&#8217;età tra i 20 e i 40 anni, per il resto la sceneggiatura non ci indica molto di loro.</p>



<h4 class="wp-block-heading">Jake</h4>



<p>Scelgo di iniziare selezionando <em>Aoi</em>, nel ruolo di <strong>Jake</strong>. Non so, quella barba mi da l&#8217;idea di &#8220;avventuriero&#8221;.</p>



<p>Il software avvisa che alcuni elementi del personaggio ha elementi ancora in fase di sviluppo (nello specifico i capelli) e che pertanto saranno visualizzati solo il LOD (livello di dettaglio) 0 (automatico) e 1 (massima qualità). Per noi va bene, la destinazione sarà un video pre-renderizzato chiaramente a massima qualità e non un videogame in tempo reale.</p>



<p>Qualche modifica al personaggio (a torso nudo, colore degli occhi, scarpe e pantaloni più &#8220;adatti&#8221;), ed è salvato. Successivamente lo esporteremo con il plugin Quixel Bridge di Unreal Engine 5.</p>



<h4 class="wp-block-heading">Maria</h4>



<p>Passiamo a <strong>Maria</strong>. Ho chiesto a ChatGPT di inventarne le caratteristiche, e la risposta è stata che potrebbe essere una donna intorno ai 30 anni. Capelli castani, lunghi fino alle spalle e raccolti in una coda di cavallo. Occhi marroni, intensi e profondi, e di etnia latina, con una pelle abbronzata dalle sue avventure all&#8217;aperto.</p>



<p>Proviamo a realizzarla. Partiamo da <em>Roux</em>. Facciamo un Blend con Lena, Kendra e Tori che sembrano adatte a modificarne un po&#8217; lineamenti e quindi etnia, diamole la coda di cavallo, occhi marroni, modifichiamo la texture della pelle per darle qualche anno in più, elimino il make-up che difficilmente avrebbe in mezzo alla giungla, modifichiamo l&#8217;abbigliamento ed il gioco è fatto.</p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="576" src="https://www.darioriccio.com/wp-content/uploads/2023/01/Maria-1024x576.jpg" alt="" class="wp-image-808" srcset="https://www.darioriccio.com/wp-content/uploads/2023/01/Maria-1024x576.jpg 1024w, https://www.darioriccio.com/wp-content/uploads/2023/01/Maria-300x169.jpg 300w, https://www.darioriccio.com/wp-content/uploads/2023/01/Maria-768x432.jpg 768w, https://www.darioriccio.com/wp-content/uploads/2023/01/Maria-1536x864.jpg 1536w, https://www.darioriccio.com/wp-content/uploads/2023/01/Maria-2048x1152.jpg 2048w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption class="wp-element-caption">Maria</figcaption></figure>



<h4 class="wp-block-heading">Sarah</h4>



<p>Infine <strong>Sarah</strong>. Per ChatGPT ha circa 25 anni, con capelli biondi, corti e mossi. Occhi azzurri, vivaci e curiosi, intorno a 1,70 metri, snella e muscolosa a indicare una persona attiva e sportiva e di origine nord-europea, con una pelle chiara e delicata.</p>



<p>Ci basiamo su <em>Vivian</em>, modifiche varie fino a renderla qualcosa di simile al richiesto. Chiaramente MetaHuman ha tanti limiti, ancor di più in questa versione online. Ad esempio, sul fisico praticamente non abbiamo possibilità di intervento, quindi &#8220;muscolosa&#8221; è una caratteristica a cui dovremo rinunciare a meno di modellazioni successive. Ma, primo non sono un modellatore 3D e questo è un progetto zero budget solo a fini didattici. Inoltre, per lo stesso motivo non è il caso di perderci più tempo del necessario.</p>



<p>Infine lasciamoli li, creiamo le animazioni con dei manichini e poi faremo un retargeting con i personaggi MetaHuman direttamente in Unreal Engine 5.</p>



<h2 class="wp-block-heading">Conclusioni</h2>



<p>Per oggi limitiamoci qui, in uno dei prossimi articoli parlerò specificatamente di animazione e Motion Capture con l&#8217;intelligenza artificiale (dove ci sarà più utile), e poi proseguiremo con ambienti, voci, musiche e tutto quanto necessario a finalizzare il nostro piccolo progetto.</p>



<p>Mi lascio il tempo di finire con calma, ed eventualmente fare altri articoli prima di continuare questo. Per due motivi: sono operazioni elaborate, e l&#8217;intelligenza artificiale è in fase esplosiva. Un articolo scritto oggi, potrebbe essere vecchio domani. Forse stasera.</p>



<p>Pertanto, visto che queste informazioni ci serviranno molto di più verso la fine dell&#8217;anno in corso per la produzione effettiva di una storia in fulldome, teniamo in conto tutte le novità dei prossimi mesi.</p>



<p>Come sempre grazie per avermi seguito, e un abbraccio.</p>
<p>L'articolo <a href="https://www.darioriccio.com/come-fare-film-low-budget-con-lintelligenza-artificiale-prime-fasi/">Come fare film low budget con l&#8217;Intelligenza Artificiale &#8211; Prime fasi</a> è apparso primo per <a href="https://www.darioriccio.com">Il Futuro del Cinema - di Dario Riccio</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.darioriccio.com/come-fare-film-low-budget-con-lintelligenza-artificiale-prime-fasi/feed/</wfw:commentRss>
			<slash:comments>1</slash:comments>
		
		<enclosure url="https://www.darioriccio.com/wp-content/uploads/2022/12/Hero.mp4" length="0" type="video/mp4" />
<enclosure url="https://www.darioriccio.com/wp-content/uploads/2022/12/nvidia_magic3d.mp4" length="0" type="video/mp4" />

			</item>
		<item>
		<title>Che cos&#8217;è il cinema esperienziale</title>
		<link>https://www.darioriccio.com/che-cosa-cinema-esperienziale/</link>
					<comments>https://www.darioriccio.com/che-cosa-cinema-esperienziale/#comments</comments>
		
		<dc:creator><![CDATA[Dario Riccio]]></dc:creator>
		<pubDate>Sat, 10 Sep 2022 11:03:00 +0000</pubDate>
				<category><![CDATA[Cinema]]></category>
		<category><![CDATA[Tecnologia]]></category>
		<category><![CDATA[cinema]]></category>
		<category><![CDATA[cinema esperienziale]]></category>
		<category><![CDATA[innovazione]]></category>
		<category><![CDATA[media esperienziali]]></category>
		<guid isPermaLink="false">https://www.darioriccio.com/?p=385</guid>

					<description><![CDATA[<p>Immersivo, interattivo, non lineare, multi-sensoriale e algoritmico. Vediamo come il cinema del futuro sarà esperienziale e coinvolgente.</p>
<p>L'articolo <a href="https://www.darioriccio.com/che-cosa-cinema-esperienziale/">Che cos&#8217;è il cinema esperienziale</a> è apparso primo per <a href="https://www.darioriccio.com">Il Futuro del Cinema - di Dario Riccio</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p class="wp-block-seriously-simple-podcasting-audio-player"><span>
<audio class="wp-audio-shortcode" id="audio-0-1" style="width:100%" controls><source type="audio/mpeg" src="https://www.darioriccio.com/podcast-player/599/che-cose-il-cinema-esperienziale.mp3?_=1"/>https://www.darioriccio.com/podcast-player/599/che-cose-il-cinema-esperienziale.mp3</audio></span></p>



<p>Come promesso nello scorso articolo, continuiamo ad analizzare il cinema del futuro nella sua forma immersiva. Immersività certamente legata all&#8217;esperienza che può creare nello spettatore. In questo articolo andremo quindi a parlare del <strong>cinema esperienziale</strong> tramite <em>vecchio e nuovo storytelling</em>, <em>prima persona</em>, <em>maggior coinvolgimento dello spettatore e dei cinque sensi</em>, e ancora <em>dati</em> e <em>intelligenza artificiale</em>.</p>



<h2 class="wp-block-heading">Che cos&#8217;è un media, o &#8220;racconto mediato&#8221;</h2>


<div class="wp-block-image">
<figure class="alignleft size-medium"><img loading="lazy" decoding="async" width="300" height="200" src="https://www.darioriccio.com/wp-content/uploads/2022/09/cinema-300x200.jpg" alt="Interno di un cinema" class="wp-image-533" srcset="https://www.darioriccio.com/wp-content/uploads/2022/09/cinema-300x200.jpg 300w, https://www.darioriccio.com/wp-content/uploads/2022/09/cinema.jpg 640w" sizes="(max-width: 300px) 100vw, 300px" /></figure></div>


<p class="wp-embed-aspect-4-3 wp-has-aspect-ratio">Il cinema fa parte della categoria ”media”. Anche definibile ”racconto mediato”, o ”raccontare una storia mediante qualcosa”. Possono essere <strong>un microfono e un altoparlante</strong> (radio), <strong>una cinepresa e un proiettore</strong> (cinema), <strong>una telecamera e un televisore</strong> (TV), <strong>un elaboratore di testi e una pressa tipografica </strong>(giornali). Qualsiasi modo di raccontare una storia non ”diretto”, diverso quindi dalle tradizionali conversazioni, si definisce <em>media</em>.</p>



<p class="wp-embed-aspect-4-3 wp-has-aspect-ratio">Tra questi, ci sono i nuovi <strong>media esperienziali</strong> ad offrire agli utenti risultati potenzialmente positivi e benefici, aumentandone il coinvolgimento e soprattutto l&#8217;empatia. L&#8217;esperienza provata li fa sentire attivi e partecipi nella storia, vedendo, ascoltando, toccando o vivendo situazioni mai vissute prima.</p>



<h2 class="wp-block-heading">Le caratteristiche del cinema tradizionale</h2>



<p>Ogni media ha vantaggi e svantaggi. O, potremmo dire, possibilità e impossibilità. Nel dettaglio, vediamo rapidamente le cinque caratteristiche peculiari del media al centro della nostra attenzione: <em>il cinema</em>.</p>



<ul class="wp-block-list">
<li><strong><a href="#struttura_narrativa_statica_e_lineare">Struttura narrativa statica e lineare</a></strong></li>



<li><strong><a href="#modalita_singola_o_duale">Modalità singola o duale</a></strong></li>



<li><strong><a href="#episodico">Episodico</a></strong></li>



<li><strong><a href="#prospettiva_in_terza_persona">Prospettiva in terza persona</a></strong></li>



<li><strong><a href="#audience_passiva">Audience passiva</a></strong></li>
</ul>



<h3 class="wp-block-heading">Struttura narrativa statica e lineare</h3>



<p>È la base del cinema: una struttura narrativa unidirezionale con <strong>inizio</strong>, <strong>sviluppo</strong>, <strong>climax</strong> e <strong>fine</strong>. Fissa e statica, non può ovviamente essere modificata dallo spettatore. Certo, esistono i <em>Flashback</em> o i <em>Flashforward</em>, ma non modificano sostanzialmente questo approccio alla narrazione.</p>



<p>C&#8217;è solitamente una catena causale: ogni passaggio narrato nella sceneggiatura, porta ad un passaggio successivo che è una conseguenza del precedente.</p>



<p>E <strong>i film</strong>, ovviamente, <strong>non cambiano nel tempo</strong>. Tranne rarissimi casi di errori o problemi accorsi dopo l&#8217;uscita del film (ad esempio <a href="https://it.wikipedia.org/wiki/Stanley_Kubrick" target="_blank" rel="noreferrer noopener"><strong>Kubrick</strong></a> tagliò gli ultimi minuti di <a href="https://it.wikipedia.org/wiki/Shining_(film)" target="_blank" rel="noreferrer noopener"><em>Shining</em></a> dopo l&#8217;uscita nelle sale), questi restano gli stessi dal momento della pubblicazione, e per sempre.</p>



<p>Una buona analisi fu compiuta nel 1992 dal <a href="https://www.scu.edu/cas/religious-studies/faculty--staff/david-pinault/" target="_blank" rel="noreferrer noopener">Prof. David Pinault</a> in <a href="https://books.google.ch/books/about/Story_Telling_Techniques_in_the_Arabian.html?id=guHmLGJMbg4C&amp;redir_esc=y" target="_blank" rel="noreferrer noopener"><strong>Story-Telling Techniques in the Arabian Nights</strong></a>.</p>



<h4 class="wp-block-heading">Struttura non lineare nel cinema tradizionale</h4>


<div class="wp-block-image">
<figure class="alignleft size-medium"><img loading="lazy" decoding="async" width="300" height="300" src="https://www.darioriccio.com/wp-content/uploads/2022/09/1b8ebd33-ad7f-4656-b57d-d9a7adaa5426_progress_image_41-300x300.webp" alt="" class="wp-image-540" srcset="https://www.darioriccio.com/wp-content/uploads/2022/09/1b8ebd33-ad7f-4656-b57d-d9a7adaa5426_progress_image_41-300x300.webp 300w, https://www.darioriccio.com/wp-content/uploads/2022/09/1b8ebd33-ad7f-4656-b57d-d9a7adaa5426_progress_image_41-1024x1024.webp 1024w, https://www.darioriccio.com/wp-content/uploads/2022/09/1b8ebd33-ad7f-4656-b57d-d9a7adaa5426_progress_image_41-150x150.webp 150w, https://www.darioriccio.com/wp-content/uploads/2022/09/1b8ebd33-ad7f-4656-b57d-d9a7adaa5426_progress_image_41-768x768.webp 768w, https://www.darioriccio.com/wp-content/uploads/2022/09/1b8ebd33-ad7f-4656-b57d-d9a7adaa5426_progress_image_41-1536x1536.webp 1536w, https://www.darioriccio.com/wp-content/uploads/2022/09/1b8ebd33-ad7f-4656-b57d-d9a7adaa5426_progress_image_41.webp 1664w" sizes="(max-width: 300px) 100vw, 300px" /><figcaption class="wp-element-caption">Immagine realizzata con AI di Midjourney</figcaption></figure></div>


<p>Nel cinema post-moderno c&#8217;è in realtà un concreto tentativo di modificare questa struttura lineare. Si tenta spesso di &#8220;intrecciare&#8221; la storia, lasciando allo spettatore l&#8217;uso dell&#8217;intuito e dell&#8217;istinto irrazionale per comprendere il film, mentre la logica e il dramma sono dissolti e diluiti.</p>



<p>La struttura lineare spesso si sviluppa in una sinfonia composta di più parti con struttura non lineare. Capiremo meglio nelle successive sezioni come questo si svilupperà ancor di più nel cinema esperienziale / interattivo, formando varie narrazioni personalizzate (cosa che ricorda i videogame).</p>



<h3 class="wp-block-heading">Modalità singola o duale</h3>


<div class="wp-block-image">
<figure class="alignright size-medium is-resized"><img loading="lazy" decoding="async" src="https://www.darioriccio.com/wp-content/uploads/2022/09/occhio-blu-300x180.jpg" alt="Occhio azzurro" class="wp-image-538" width="300" height="180" srcset="https://www.darioriccio.com/wp-content/uploads/2022/09/occhio-blu-300x180.jpg 300w, https://www.darioriccio.com/wp-content/uploads/2022/09/occhio-blu.jpg 640w" sizes="(max-width: 300px) 100vw, 300px" /></figure></div>


<p>Con questo si intende che <strong>il cinema coinvolge massimo uno o due sensi</strong>, <em>vista</em> e <em>udito</em>. Chiaramente il cinema attuale è sempre duale, in quanto nella categoria “a singola modalità” possiamo inserire solo i film muti.</p>



<p>Negli anni sono stati fatti vari tentativi di migliorare il coinvolgimento degli altri sensi. Pensiamo a grandi registi che riescono a trasmettere allo spettatore il senso del <em>gusto</em>, ad esempio in film come <a href="https://it.wikipedia.org/wiki/Mangiare_bere_uomo_donna" target="_blank" rel="noreferrer noopener"><em>Mangiare bere uomo donna</em></a>, <em><a href="https://it.wikipedia.org/wiki/Ratatouille" target="_blank" rel="noreferrer noopener">Ratatouille</a></em> o <em><a href="https://it.wikipedia.org/wiki/Pranzo_di_ferragosto" target="_blank" rel="noreferrer noopener">Pranzo di ferragosto</a></em>. Chiaramente, è un raggiro al nostro cervello. Ma in fin dei conti, il cinema stesso lo è.</p>



<h3 class="wp-block-heading">Episodico</h3>



<p>Secondo il <a href="https://en.wikipedia.org/wiki/Jason_Mittell" target="_blank" rel="noreferrer noopener">Prof. Jason Mittell</a> nel suo libro <a href="https://www.amazon.it/dp/8875217904?ie=UTF8&amp;currency=EUR&amp;language=it_IT&amp;psc=1&amp;tag=illibraio00-21#customerReviews" target="_blank" rel="noreferrer noopener"><strong>Complex TV. Teoria e tecnica dello storytelling delle serie tv</strong></a>, <strong>il cinema e i media attuali</strong> sono in genere episodici; <strong>tendono</strong> cioè <strong>a svilupparsi intorno a un evento</strong> o a una serie di eventi correlati tra loro. Questo è ancora più vero, ovviamente, nel mondo dei media giornalistici. </p>



<p>Si narra una storia basata su fatti e avvenimenti, reali o inventati. Viene raccontata dal punto di vista del narratore, il ché rende più semplice la fruizione per lo spettatore ma al tempo stesso lo allontana empaticamente dalla vicenda.</p>



<h3 class="wp-block-heading">Prospettiva in terza persona</h3>


<div class="wp-block-image">
<figure class="alignright size-medium"><img loading="lazy" decoding="async" width="300" height="185" src="https://www.darioriccio.com/wp-content/uploads/2022/09/sfera-di-cristallo-300x185.jpg" alt="Sfera di cristallo" class="wp-image-542" srcset="https://www.darioriccio.com/wp-content/uploads/2022/09/sfera-di-cristallo-300x185.jpg 300w, https://www.darioriccio.com/wp-content/uploads/2022/09/sfera-di-cristallo.jpg 640w" sizes="(max-width: 300px) 100vw, 300px" /></figure></div>


<p>Questa della prospettiva è una caratteristica importante nella nostra analisi. Infatti, seppur possibili, <strong>nel cinema tradizionale le prospettive in prima e seconda persona sono da sempre poco usate</strong>. Nella storia della comunicazione in generale, se ne fece abbondante uso solo nella radio della prima metà del &#8216;900.</p>



<h4 class="wp-block-heading">Cuore di tenebra, riadattamento radiofonico in prima persona</h4>



<p>Come esempio, pensiamo a <a href="https://it.wikipedia.org/wiki/Cuore_di_tenebra" target="_blank" rel="noreferrer noopener"><em>Cuore di tenebra</em></a> di <a href="https://it.wikipedia.org/wiki/Joseph_Conrad" target="_blank" rel="noreferrer noopener">Joseph Conrad</a>. Fu riadattato nel 1938 per la radio dal regista <a href="https://it.wikipedia.org/wiki/Orson_Welles" target="_blank" rel="noreferrer noopener">Orson Welles</a> (celebre per aver fatto credere agli americani di essere sotto attacco marziano tramite lo spettacolo radiofonico&nbsp;<em><a href="https://it.wikipedia.org/wiki/War_of_the_Worlds_(programma_radiofonico)">La guerra dei mondi</a></em>, nello stesso &#8217;38). L&#8217;obiettivo era far narrare la vicenda in prima persona direttamente dal protagonista. Interessante come lo stesso Welles, all&#8217;epoca nuovo al cinema, tentò di convincere la <a href="https://it.wikipedia.org/wiki/RKO_Pictures" target="_blank" rel="noreferrer noopener">RKO Pictures</a> a realizzarne la versione cinematografica.</p>



<p>Aveva le carte in regola per diventare uno dei più grandi film di tutti i tempi e, magari, sensibilizzare l&#8217;opinione pubblica su temi che invece, mal interpretati, portarono alla <em><a href="https://it.wikipedia.org/wiki/Seconda_guerra_mondiale" target="_blank" rel="noreferrer noopener">Seconda Guerra Mondiale</a></em> l&#8217;anno dopo. Ma furono proprio l&#8217;uso della prima persona, oltre ai temi politici poco amati dalle <em>Major</em>, che probabilmente spinsero Hollywood a non considerarne la fattibilità. Era uno strappo drastico alle regole, e il mondo non ne era ancora pronto.</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="Orson Welles - &#039;Heart of Darkness&#039; and &#039;Life with Father&#039;" width="678" height="381" src="https://www.youtube.com/embed/_QBJopm-GMQ?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>
</div></figure>



<p>Tant&#8217;è, <a href="https://it.wikipedia.org/wiki/Francis_Ford_Coppola" target="_blank" rel="noreferrer noopener">Coppola</a> ha tentato di recuperare nel 1979 con <a href="https://it.wikipedia.org/wiki/Apocalypse_Now" target="_blank" rel="noreferrer noopener"><em>Apocalypse Now</em></a>, solo liberamente inspirato al romanzo &#8220;Cuore di tenebra&#8221; in quanto ambientato in Vietnam e non in Africa. E di certo troppo tardi per coadiuvare la pace in Europa e nel mondo.</p>



<h4 class="wp-block-heading">Prima persona nella storia del cinema</h4>



<p>C&#8217;è il realtà qualche sporadico caso di uso filmico della narrazione in prima persona, soprattutto nei suoi primi anni. Casi a volte poco conosciuti, ma che tentarono in qualche modo di cambiare il modo di vedere le cose. In primis penso a <em><a href="https://it.wikipedia.org/wiki/Il_dottor_Jekyll_(film_1931)" target="_blank" rel="noreferrer noopener">Il dottor Jekyll</a></em> del 1931, in Italia più conosciuto come <em>Dr. Jekyll and Mr. Hyde</em>, di <a href="https://it.wikipedia.org/wiki/Rouben_Mamoulian" target="_blank" rel="noreferrer noopener">Rouben Mamoulian</a>.</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-4-3 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="Dr Jekyll and Mr. Hyde (1931) - YouTube" width="678" height="509" src="https://www.youtube.com/embed/GynMi0E7B5g?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>
</div></figure>



<p>Altri casi furono il film del 1934 <em><a href="https://en.wikipedia.org/wiki/The_Firebird_(1934_film)" target="_blank" rel="noreferrer noopener">The Firebird</a></em>, di <a href="https://it.wikipedia.org/wiki/William_Dieterle" target="_blank" rel="noreferrer noopener">William Dieterle</a>. O ancora <em><a href="https://it.wikipedia.org/wiki/Una_donna_nel_lago" target="_blank" rel="noreferrer noopener">Una donna nel lago</a></em> girato nel 1947 da <a href="https://it.wikipedia.org/wiki/Robert_Montgomery">Robert Montgomery</a>, e <em><a href="https://it.wikipedia.org/wiki/La_fuga_(film_1947)" target="_blank" rel="noreferrer noopener">La fuga</a></em> di <a href="https://it.wikipedia.org/wiki/David_Goodis" target="_blank" rel="noreferrer noopener">David Goodis</a> dello stesso anno.</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-4-3 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="Dark Passage Official Trailer #1 - Humphrey Bogart Movie (1947) HD" width="678" height="509" src="https://www.youtube.com/embed/UFd0xohHqTI?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>
</div></figure>



<p>Altri due esempi, decisamente più moderni, li vedremo tra poco nella sezione sul cinema esperienziale, in quanto più utili per un confronto con il cinema che verrà.</p>



<p>Ho citato solo esempi di opere in prima persona, perché parlare delle opere in terza sarebbe impossibile o inutile&#8230; Sono praticamente quasi tutti i film esistenti. E poi perché, nell&#8217;ottica di realizzare il cinema del futuro maggiormente esperienziale, credo che questi spunti vadano ben tenuti in considerazione.</p>



<p><strong>Poi mi direte cosa ne pensate, mi interessa essendo io più vicino al mondo tecnico che alla critica cinematografica.</strong></p>



<h3 class="wp-block-heading">Audience passiva</h3>


<div class="wp-block-image">
<figure class="alignleft size-medium"><img loading="lazy" decoding="async" width="300" height="200" src="https://www.darioriccio.com/wp-content/uploads/2022/09/bimba-legge-libro-300x200.jpg" alt="Una bambina sta leggendo un libro seduta in un prato" class="wp-image-544" srcset="https://www.darioriccio.com/wp-content/uploads/2022/09/bimba-legge-libro-300x200.jpg 300w, https://www.darioriccio.com/wp-content/uploads/2022/09/bimba-legge-libro.jpg 640w" sizes="(max-width: 300px) 100vw, 300px" /></figure></div>


<p>Come dicevamo, <strong>la storia</strong> nei media attuali, o passati, <strong>è narrata in nome e per conto del narratore</strong>. Che sia lo scrittore o il regista, il giornalista o lo speaker, tutti vi fanno vedere quello che desiderano. Vi è mai capitato di voler guardare qualcosa a lato, o dietro la camera, ma la regia non ve la mostrasse? </p>



<p>Succede particolarmente spesso con lo sport in TV, ed è per questo forse che <strong>la stessa televisione è tra i primi media ad esser &#8220;progredita&#8221; verso una regia decisa dallo spettatore</strong>. In Italia, <a href="https://simonesalvador.it/rubriche_sportinmedia/focus_sport_in_media/evoluzione-riprese-tv-grafiche-statistiche-partite-calcio-in-italia-serie-a-bundesliga-liga" target="_blank" rel="noreferrer noopener">come cita Wenner Gatta</a>, quando venne inserita la &#8220;<a href="https://www.spidercam.tv" target="_blank" rel="noreferrer noopener">Spidercam</a>&#8221; sui campi di calcio il telespettatore poteva scegliere con il telecomando se vedere l’incontro con la classica regia oppure tramite la sola camera spider. E da lì, soprattutto <a href="https://www.sky.it" target="_blank" rel="noreferrer noopener">Sky</a> ha continuato a sviluppare molto la tecnologia sfruttando più canali di trasmissione per lo stesso evento.</p>



<p>Dopo uno studio del cinema che fu, e che ancora è, andiamo però finalmente ad analizzare le caratteristiche del nuovo cinema, proiettato al futuro, per capire anche <strong>come superare i problemi degli ultimi 127 anni</strong>.</p>



<h2 class="wp-block-heading">Le caratteristiche del cinema esperienziale: il futuro</h2>



<p>Le cinque caratteristiche che potremo trovare, tutte o in parte, nel cinema del futuro, secondo ciò che la tecnologia attualmente mette a disposizione, possono essere:</p>



<ul class="wp-block-list">
<li><a href="#cinema_immersivo">Immersività</a></li>



<li><a href="#interattivo_non_lineare_e_sociale">Interattività, non linearità e socialità</a></li>



<li><a href="#presentazione_multi-sensoriale">Presentazione multi-sensoriale</a></li>



<li><a href="#algoritmico_personalizzato_in_tempo_reale_grazie_ai_dati">Algoritmico, personalizzato in tempo reale grazie ai dati</a></li>



<li><a href="#prospettiva_in_prima_persona">Prospettiva in prima persona</a></li>
</ul>



<h3 class="wp-block-heading">Cinema Immersivo</h3>



<p>Già conosciamo alcuni media parzialmente esperienziali. Pensiamo alle <strong>piattaforme immersive di realtà virtuale e realtà aumentata</strong>. Come abbiamo visto <a href="https://www.darioriccio.com/il-cinema-immersivo-e-il-futuro/#perche_la_realta_virtuale_non_e_popolare" target="_blank" rel="noreferrer noopener">nello scorso articolo</a>, queste sono pienamente inserite nella linea di continuità tra mondo reale e virtuale ipotizzata da Paul Milgram.</p>



<p>Immersione significa &#8220;<em>avvolgere l&#8217;utente in uno spazio fisico reale utilizzando la realtà aumentata o mista su un dispositivo portatile o indossabile, includendo anche interfacce aptiche</em>&#8220;.</p>



<p>Uno dei primi esempi pratici l&#8217;ho rintracciato nel paper <em>&#8220;<a href="https://sites.cs.ucsb.edu/~holl/pubs/hollerer-1999-iswc.pdf" target="_blank" rel="noreferrer noopener">Situated Documentaries: Embedding Multimedia Presentations in the Real World</a>&#8220;</em> (&#8220;Documentari Ambientati: Includere Presentazioni Multimediali nel Mondo Reale&#8221;), di <em>Tobias Höllerer</em>, <em>Steven Feiner</em> e <em>John Pavlik</em> e ripreso dall&#8217;<em>International Symposium on Wearable Computers</em> del 1999.</p>


<div class="wp-block-image">
<figure class="alignleft size-medium is-resized"><img loading="lazy" decoding="async" src="https://www.darioriccio.com/wp-content/uploads/2022/08/documentari-situati-1-246x300.jpg" alt="" class="wp-image-450" width="246" height="300" srcset="https://www.darioriccio.com/wp-content/uploads/2022/08/documentari-situati-1-246x300.jpg 246w, https://www.darioriccio.com/wp-content/uploads/2022/08/documentari-situati-1-840x1024.jpg 840w, https://www.darioriccio.com/wp-content/uploads/2022/08/documentari-situati-1-768x936.jpg 768w, https://www.darioriccio.com/wp-content/uploads/2022/08/documentari-situati-1.jpg 878w" sizes="(max-width: 246px) 100vw, 246px" /><figcaption class="wp-element-caption">Ricercatore con indosso il sistema MJW.<br>Immagine da &#8220;<strong><em><a href="https://sites.cs.ucsb.edu/~holl/pubs/hollerer-1999-iswc.pdf" target="_blank" rel="noreferrer noopener">Situated Documentaries: Embedding Multimedia Presentations in the Real World</a>&#8220;</em></strong>.</figcaption></figure></div>


<p>Questi &#8220;documentari ambientati&#8221; erano interamente basati su indossabili digitali (wearables), per <strong>integrare romanzi e documentari in luoghi del mondo reale</strong>. Il sistema ricorda molto gli attuali occhiali AR, ovviamente con la tecnologia disponibile nel 1999. Si trattava di uno <strong>zaino con tracker GPS</strong> e <strong>videocamera a 360°</strong> (sviluppata da <em><a href="http://www.cs.columbia.edu/~nayar/" target="_blank" rel="noreferrer noopener">Shree Nayar</a></em>, della Columbia University), una tipologia di <strong>computer palmare</strong> con grafica, audio e video, e <strong>occhiali in realtà aumentata</strong> in grado di segnalare nell&#8217;ambiente reale i punti di interesse. Era chiamato MJW (<em>Mobile Journalist Workstation</em>).</p>



<p>Gli occhiali potevano anche riprodurre rudimentali video a 360° sovrapposti al reale, e lo sguardo era il principale sistema di puntamento. Fissando per almeno mezzo secondo un oggetto nel mondo reale, questo veniva selezionato producendo info e files multimediali relativi. Si poteva anche viaggiare nel tempo, toccando l&#8217;anno desiderato sul display del palmare.</p>



<p>Un ottimo esempio di quello che sarà, 20 anni dopo, la realtà aumentata. L&#8217;AR si sta infatti sviluppando rapidamente, divenendo di uso comune dal 2018 a seguito dell&#8217;implementazione negli iPhone delle api native <a href="https://developer.apple.com/augmented-reality/" target="_blank" rel="noreferrer noopener">ARKit</a> (che, tra parentesi, credo sia ad oggi l&#8217;ultima innovazione degna di nota in ambito smartphone).</p>



<p>Punto primo del nostro cinema sarà, quindi, l&#8217;immersività. Ma certamente un&#8217;immersività diversa da quella vista finora. La base sarà infatti la storia narrata, il cinema. Non ci si immergerà nel mondo, non ci si immergerà in solitaria o in <a href="https://www.oculus.com/horizon-worlds/" target="_blank" rel="noreferrer noopener">ambienti comuni virtuali</a>. <strong>L&#8217;immersività sarà prodotta dallo schermo a 360°, dalla stereoscopia, e dalla &#8220;sala&#8221;, o cupola, con all&#8217;interno elementi legati direttamente alla storia narrata</strong>.</p>



<p>Gli sceneggiatori dovranno essere davvero bravi, per sviluppare trame che facciano sentire lo spettatore &#8220;partecipe&#8221;, senza però essere scontati. Come è scontata la prima cosa che mi salta in mente: far restare costantemente seduto il protagonista della storia, che deve impersonare noi spettatori. È al massimo un punto di partenza da non sottovalutare, ma soprattutto i primi tempi i brain storming saranno davvero interessanti. </p>



<h3 class="wp-block-heading">Interattivo, non lineare e sociale</h3>



<p><em>Parola allo spettatore</em>; <em>scelta</em>. Queste possono essere le parole chiave per la struttura non lineare del cinema esperienziale; che è pertanto più complessa.</p>



<p>Seppur senza particolari regole, mantiene una sua logica basata su <strong>sequenza</strong> (o <strong>ordine</strong>), <strong>durata</strong> e <strong>frequenza temporali</strong>, che sono il concetto di divisione proposto dal saggista francese <a href="https://literariness.org/2016/12/03/gerard-genette-and-structural-narratology/" target="_blank" rel="noreferrer noopener">Gérard Gennette nel campo della narrativa letteraria</a>, poi introdotti nel campo della critica cinematografica da <a href="https://histart.umontreal.ca/repertoire-departement/professeurs/professeur/in/in13591/sg/André%20Gaudreault/" target="_blank" rel="noreferrer noopener">Andre Gaudreault</a> e <a href="http://www.davidbordwell.net" target="_blank" rel="noreferrer noopener">David Bordwell</a>.</p>



<h4 class="wp-block-heading">L&#8217;ordine degli eventi nei racconti</h4>


<div class="wp-block-image">
<figure class="alignright size-medium"><img loading="lazy" decoding="async" width="225" height="300" src="https://www.darioriccio.com/wp-content/uploads/2022/09/foto-ricordo-225x300.jpg" alt="Tante foto polaroid stese sul pavimento con il piede di una ragazza vicino." class="wp-image-547" srcset="https://www.darioriccio.com/wp-content/uploads/2022/09/foto-ricordo-225x300.jpg 225w, https://www.darioriccio.com/wp-content/uploads/2022/09/foto-ricordo.jpg 640w" sizes="(max-width: 225px) 100vw, 225px" /></figure></div>


<p>Apriamo in questa sezione una parentesi generale sui racconti; ci sono infatti caratteristiche in comune con il futuro cinema immersivo. Gennette chiariva che l&#8217;evento potrebbe essere avvenuto:</p>



<ul class="wp-block-list">
<li><em>prima della narrazione</em> (<strong>analessi</strong> o flashback)</li>
</ul>



<ul class="wp-block-list">
<li><em>in futuro</em> (quindi solo annunciato o previsto, la <strong>prolessi</strong>).</li>
</ul>



<ul class="wp-block-list">
<li>Ancora, si possono narrare gli <em>eventi in ordine diverso da come sono accaduti</em> (<strong>anacronia</strong>), usato per rendere il racconto più avvincente.</li>
</ul>



<ul class="wp-block-list">
<li>Più raramente può esserci <em>un movimento tra un livello narrativo e l&#8217;altro</em> (<strong>metalessi</strong>).</li>
</ul>



<p>Un esempio è la &#8220;metalessi dell&#8217;autore&#8221;, una sorta di passaggio dell&#8217;autore da esterno a interno alla storia, o al contrario se un personaggio diventa narratore.</p>



<p>Altro esempio letterario è del poeta <em><a href="https://it.wikipedia.org/wiki/Publio_Virgilio_Marone" target="_blank" rel="noreferrer noopener">Virgilio</a></em>, il quale &#8220;fa morire&#8221; Didone nel canto IV dell&#8217;<em><em><a href="https://it.wikipedia.org/wiki/Eneide" target="_blank" rel="noreferrer noopener">Eneide</a></em></em>, o <a href="https://it.wikipedia.org/wiki/Denis_Diderot" target="_blank" rel="noreferrer noopener"><em>Diderot</em></a> che scrive in <a href="https://it.wikipedia.org/wiki/Jacques_il_fatalista_e_il_suo_padrone" target="_blank" rel="noreferrer noopener"><em>Jacques le Fataliste</em></a>: &#8220;Chi mi potrebbe impedire di <em>far sposare</em> il Padrone e <em>di renderlo becco</em>?&#8221;. Entrambi esempi tratti dalla <a href="http://dspace.unive.it/bitstream/handle/10579/15024/815358-1208192.pdf?sequence=2" target="_blank" rel="noreferrer noopener">Tesi di dottorato di <em><strong>Armando Mollica Bonivento</strong></em> all&#8217;Università Ca&#8217;Foscari</a>, che vi invito a leggere per maggiore comprensione.</p>



<h4 class="wp-block-heading">La durata degli eventi nei racconti</h4>



<p>Quindi, dopo l&#8217;ordine (evento accaduto prima, evento futuro, narrazione in ordine diverso dal reale o passaggio tra livelli di narrazione diversi), abbiamo la <strong>durata</strong>. Anche definibile come il &#8220;ritmo&#8221;, la &#8220;velocità&#8221;, al quale gli eventi vengono raccontati.</p>



<p>Possiamo dividerla principalmente in quattro tipologia:</p>



<ul class="wp-block-list">
<li>ellissi (ritmo molto accelerato), con frequenti salti cronologici;</li>



<li>sintesi (ritmo relativamente rapido), in cui una storia è sintetizzata nei suoi punti principali. Possono essere di lunghezza variabile.</li>



<li>scena: relativamente lenta, è la classica narrazione quasi in tempo reale. Un esempio sono i dialoghi;</li>



<li>descrittivo: nessun progresso nella storia, ci si ferma a descrivere un determinato momento.</li>
</ul>



<p>Chiaramente, queste tipologie possono essere combinate. Possiamo avere, ad esempio, una sintesi inserita all&#8217;interno di un dialogo.</p>



<h4 class="wp-block-heading">La frequenza degli eventi nei racconti</h4>



<p>La frequenza non è altro che il rapporto tra quante volte che un determinato evento avviene nella realtà (anche inventata), e quante viene raccontato. Se, in pratica, viene narrato più volte lo stesso evento (o ripetuta la stessa affermazione di un personaggio).</p>



<p>Vi lascio il <a href="http://www.signosemio.com/genette/narratology.asp" target="_blank" rel="noreferrer noopener">link ad un&#8217;interessante articolo sulla questione</a>, da cui è tratta l&#8217;immagine seguente.</p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="642" src="https://www.darioriccio.com/wp-content/uploads/2022/08/summury-genette-narrative-typology-1024x642.jpg" alt="Sintesi della tipologia narrativa di Genette." class="wp-image-456" srcset="https://www.darioriccio.com/wp-content/uploads/2022/08/summury-genette-narrative-typology-1024x642.jpg 1024w, https://www.darioriccio.com/wp-content/uploads/2022/08/summury-genette-narrative-typology-300x188.jpg 300w, https://www.darioriccio.com/wp-content/uploads/2022/08/summury-genette-narrative-typology-768x481.jpg 768w, https://www.darioriccio.com/wp-content/uploads/2022/08/summury-genette-narrative-typology-1536x963.jpg 1536w, https://www.darioriccio.com/wp-content/uploads/2022/08/summury-genette-narrative-typology.jpg 1945w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption class="wp-element-caption">Lucie Guillemette and Cynthia Lévesque (2016), «&nbsp;Narratology&nbsp;», in Louis Hébert (dir.),&nbsp;<em>Signo</em>&nbsp;[online], Rimouski (Quebec),&nbsp;<a href="http://www.signosemio.com/genette/narratology.asp" target="_blank" rel="noreferrer noopener">http://www.signosemio.com/genette/narratology.asp</a>.</figcaption></figure>



<h3 class="wp-block-heading">Il cinema del futuro ha una <em>struttura non lineare intersoggettiva</em></h3>


<div class="wp-block-image">
<figure class="alignleft size-medium"><img loading="lazy" decoding="async" width="300" height="300" src="https://www.darioriccio.com/wp-content/uploads/2022/09/Dario__the_usual_neXt_The_cinema_of_the_future_has_an_intersubj_b484604e-bbc6-4ffc-b2ac-34982a7f1a95-300x300.png" alt="Immagine astratta rappresentante l'interno di un cinema futuristico." class="wp-image-551" srcset="https://www.darioriccio.com/wp-content/uploads/2022/09/Dario__the_usual_neXt_The_cinema_of_the_future_has_an_intersubj_b484604e-bbc6-4ffc-b2ac-34982a7f1a95-300x300.png 300w, https://www.darioriccio.com/wp-content/uploads/2022/09/Dario__the_usual_neXt_The_cinema_of_the_future_has_an_intersubj_b484604e-bbc6-4ffc-b2ac-34982a7f1a95-150x150.png 150w, https://www.darioriccio.com/wp-content/uploads/2022/09/Dario__the_usual_neXt_The_cinema_of_the_future_has_an_intersubj_b484604e-bbc6-4ffc-b2ac-34982a7f1a95.png 400w" sizes="(max-width: 300px) 100vw, 300px" /></figure></div>


<p>Dopo questa lunga parentesi, cerchiamo di capire perché il racconto, o la sceneggiatura, per il cinema del futuro è decisamente più complesso. Infatti tutti questi elementi devono essere inseriti all&#8217;interno di una <strong>struttura non lineare intersoggettiva</strong>. Cioè il racconto può andare avanti e indietro nel tempo, in un ambiente comune ad altri spettatori che potrebbero voler fare scelte differenti dalle nostre.</p>



<p><strong>L&#8217;intersoggettività è il più grande problema da risolvere nella scrittura delle nuove sceneggiature</strong>. Se infatti l&#8217;interattività è un concetto già molto conosciuto grazie ai videogiochi, un&#8217;interattività in comune tra più persone, con necessariamente uno schermo che mostri a tutti le stesse immagini, presume che si crei una piccola democrazia all&#8217;interno della sala.</p>



<p>La struttura non lineare intersoggettiva ha un grande vantaggio: <strong>rispetta lo spettatore</strong>. Concede il diritto a scegliere la propria storia, a giudicare la moralità di alcune scene. Lo spettatore diviene il centro del film, nonché una parte di esso. Il cinema attuale è decisamente troppo a senso unico, e <strong>se ha vissuto invariato per tanti anni è solo per la semplicità </strong>(insita nelle caratteristiche)<strong> di usarlo come mezzo di propaganda politica e commerciale</strong>.</p>



<p>Ragionando sull&#8217;utilizzo medio del cinema, che è anche e soprattutto un momento di relax e svago poco attivo, non dobbiamo però cadere nella tentazione di inserire eccessiva &#8220;gamification&#8221;, trasformandolo in un videogioco. Voglio dire, al giorno d&#8217;oggi si va al cinema per rilassarsi con gli amici o con la famiglia, per passare del tempo senza pensare troppo. E scegliere implica pensare&#8230; È per questo che l&#8217;interattività deve essere limitata e neppure obbligatoria, e probabilmente non sarà la priorità assoluta nella creazione del cinema del futuro.</p>



<p>Vedremo in qualche futuro articolo perché il cinema interattivo non ha avuto successo nelle, seppur poche, esperienze passate. Ma è collegato a questo.</p>



<h3 class="wp-block-heading">Presentazione multi-sensoriale</h3>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="The Piano (1993) Official Trailer - Holly Hunter, Anna Paquin Movie HD" width="678" height="381" src="https://www.youtube.com/embed/cyTn4XIYH8M?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>
</div><figcaption class="wp-element-caption">Trailer del film &#8220;The Piano&#8221; (in italiano &#8220;Lezioni di piano&#8221;)</figcaption></figure>



<p>Il media esperienziale può sembrare una novità degli ultimi anni, ma non è del tutto vero. Da secoli l&#8217;umanità ne sviluppa le caratteristiche peculiari, migliorando la tecnologia disponibile a piccoli passi ma costanti.</p>



<h4 class="wp-block-heading">Dispositivi indossabili per coinvolgere i sensi</h4>


<div class="wp-block-image">
<figure class="alignleft size-medium"><img loading="lazy" decoding="async" width="300" height="167" src="https://www.darioriccio.com/wp-content/uploads/2022/08/abacus-ring-300x167.jpg" alt="Anello abaco cinese." class="wp-image-460" srcset="https://www.darioriccio.com/wp-content/uploads/2022/08/abacus-ring-300x167.jpg 300w, https://www.darioriccio.com/wp-content/uploads/2022/08/abacus-ring.jpg 498w" sizes="(max-width: 300px) 100vw, 300px" /><figcaption class="wp-element-caption">Immagine da <a href="http://en.chinaculture.org/classics/2010-04/20/content_383263_4.htm" target="_blank" rel="noreferrer noopener">chinaculture.org</a>.</figcaption></figure></div>


<p>Secondo quando riportato dal <a href="https://comminfo.rutgers.edu/pavlik-john-v" target="_blank" rel="noreferrer noopener">Prof. John V. Pavlik</a> nel libro &#8220;<em><a href="http://cup.columbia.edu/book/journalism-in-the-age-of-virtual-reality/9780231184496" target="_blank" rel="noreferrer noopener">Journalism in the Age of Virtual Reality</a></em>&#8221; (Giornalismo al tempo della realtà virtuale, 2019, Columbia University Press), la prima esperienza di dispositivi &#8220;indossabili&#8221; (wearables) può riassumersi nell&#8217;<strong><a href="http://il-trafiletto.blogspot.com/2014/03/e-questa-la-prima-tecnologia.html" target="_blank" rel="noreferrer noopener">invenzione cinese dell&#8217;anello / abaco</a></strong>, strumento di misurazione indossabile risalente alla <a href="https://museocineseparma.org/it/scuole/le-dinastie-della-cina/57-1644-1911-dinastia-qing" target="_blank" rel="noreferrer noopener">dinastia <em>Qing</em></a> del diciassettesimo secolo.</p>



<p>A seguire in Europa, nel 1780 venne sviluppato il &#8220;pedometro&#8221;, un conta passi, per arrivare al 1965 con il tentativo americano (non riuscito) di realizzare il primo esoscheletro (<em><a href="https://en.wikipedia.org/wiki/Hardiman" target="_blank" rel="noreferrer noopener">Hardiman</a></em>) per permettere agli esseri umani di alzare fino a 650 Kg.</p>



<p>Negli ultimi anni sicuramente gli sviluppi sono molto più rapidi, anche grazie alla scala logaritmica della tecnologia che difficilmente si arresta una volta partita. Per capire, sapevate che nel 2004, solo 18 anni fa, uscì la videocamera indossabile GoPro&#8230; E che usava addirittura la pellicola 35mm?</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="GoPro 35mm Film Camera!" width="678" height="381" src="https://www.youtube.com/embed/48I7avgMcU0?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>
</div></figure>



<h4 class="wp-block-heading">Il cinema ci stimola fisiologicamente e sensualmente</h4>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p>Il mio corpo non è solo un oggetto tra tutti gli oggetti, ma un oggetto sensibile a tutti gli altri, che riverbera a tutti i suoni, vibra a tutti i colori e fornisce alle parole il loro significato primordiale attraverso il modo in cui le riceve.</p>
<cite><a href="https://it.wikipedia.org/wiki/Maurice_Merleau-Ponty" target="_blank" rel="noreferrer noopener">Maurice Merleau-Ponty</a>&nbsp;in <em>Fenomenologia della percezione</em></cite></blockquote>



<p>All&#8217;inizio di questo paragrafo ho inserito il trailer del film <em>Lezioni di Piano</em>, capolavoro di <a href="https://it.wikipedia.org/wiki/Jane_Campion" target="_blank" rel="noreferrer noopener"><strong>Jane Campion</strong></a> del 1993. L&#8217;ho scelto in quanto ottimo esempio di come il cinema attuale tenti, in modi più o meno ortodossi, di ingannare il cervello al fine di coinvolgere sensi non direttamente implicati (il tatto in questo caso). Vi invito anche a rivedere lo scorso articolo in cui si parlava di <a href="https://www.darioriccio.com/il-cinema-immersivo-e-il-futuro/#matthew_shifrin_i_lego_e_il_cinema_del_futuro" target="_blank" rel="noreferrer noopener"><em>Matthew Shifrin</em></a> e i suoi Lego per i non vedenti.</p>



<p>Questa è la magia del cinema. L&#8217;arte in questo settore ha raggiunto vette inimmaginabili, seppur si provi a pensare a come andare oltre. A come stimolare materialmente gli altri sensi. Anche se già negli anni &#8217;40, il filosofo <em><a href="https://it.wikipedia.org/wiki/Siegfried_Kracauer" target="_blank" rel="noreferrer noopener">Siegfried Kracauer</a></em> scriveva:</p>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p>Gli elementi materiali che si presentano nei film stimolano direttamente gli strati materiali dell&#8217;essere umano: i suoi nervi, i suoi sensi, la sua intera sostanza fisiologica.</p>
<cite>Siegfried Kracauer</cite></blockquote>



<h4 class="wp-block-heading">Come coinvolgere i cinque sensi al cinema</h4>



<p><strong>Come coinvolgere quindi i cinque sensi, o almeno più di due, nel cinema?</strong> Bisognerà procedere per tappe, man mano che la tecnologia lo consentirà. Prendiamo quindi in considerazione gli esperimenti fatti in passato, per capire in seguito come possiamo NOI coinvolgere i cinque sensi per i nostri spettatori.</p>



<h5 class="wp-block-heading">Tatto</h5>


<div class="wp-block-image">
<figure class="alignleft size-medium"><img loading="lazy" decoding="async" width="300" height="290" src="https://www.darioriccio.com/wp-content/uploads/2022/09/William-Castle-1946-300x290.jpg" alt="" class="wp-image-556" srcset="https://www.darioriccio.com/wp-content/uploads/2022/09/William-Castle-1946-300x290.jpg 300w, https://www.darioriccio.com/wp-content/uploads/2022/09/William-Castle-1946.jpg 496w" sizes="(max-width: 300px) 100vw, 300px" /><figcaption class="wp-element-caption">William Castle nel 1946</figcaption></figure></div>


<p>Intanto il <strong>tatto</strong>: <em><a href="https://it.wikipedia.org/wiki/William_Castle" target="_blank" rel="noreferrer noopener">William Castle</a></em>, nel 1959 girò l&#8217;horror <strong><a href="https://it.wikipedia.org/wiki/Il_mostro_di_sangue_(film_1959)" target="_blank" rel="noreferrer noopener">Il Mostro di Sangue</a></strong>. Inserì nelle sedie di alcuni cinema un dispositivo vibrante chiamato &#8220;Percepto!&#8221;, che era sincronizzato con l&#8217;azione. Lo stesso Castle era un genio del male&#8230; Prima della proiezione di <strong>Macabro</strong>, del 1958, fece consegnare a tutti una polizza assicurativa di 1000 dollari in caso di morte, di paura, durante il film. Poi durante il film <strong>La casa dei fantasmi</strong> del 1959, faceva entrare uno scheletro fosforescente sopra la platea. Basato su un sistema di carrucole chiamato &#8220;<strong>Emergo</strong>&#8220;.</p>



<p>E infine c&#8217;è &#8220;<strong>Illusion-O</strong>&#8220;, lanciato col film <strong>I&nbsp;tredici fantasmi</strong>: tutti gli elementi nell&#8217;inquadratura, ad eccezione dei fantasmi, erano sottoposti ad un filtro blu. I fantasmi avevano invece un filtro rosso, ed erano sovrapposti al fotogramma. Il pubblico riceveva dei cartoncini con filtri rossi e blu: guardando attraverso il filtro blu non si vedevano quindi i fantasmi. Attraverso il filtro rosso, invece si vedevano.</p>


<div class="wp-block-image">
<figure class="aligncenter size-full"><img loading="lazy" decoding="async" width="500" height="284" src="https://www.darioriccio.com/wp-content/uploads/2022/09/Illusiono.jpeg" alt="" class="wp-image-558" srcset="https://www.darioriccio.com/wp-content/uploads/2022/09/Illusiono.jpeg 500w, https://www.darioriccio.com/wp-content/uploads/2022/09/Illusiono-300x170.jpeg 300w" sizes="(max-width: 500px) 100vw, 500px" /></figure></div>


<p>Ancora sul tatto, ovviamente i moderni <strong>cinema 4D</strong> che tutti conosciamo hanno le intere sedie vibranti, oltre a corde che toccano le gambe, ventole per l&#8217;effetto vento (caldo o freddo) e spruzzini d&#8217;acqua per l&#8217;umidità.</p>



<h5 class="wp-block-heading">Olfatto</h5>



<p>L&#8217;<strong>olfatto</strong>: una strategia fu adottata da <em><a href="https://en.wikipedia.org/wiki/John_Waters" target="_blank" rel="noreferrer noopener">John Waters</a></em> per il film <strong>Polyester</strong>, del 1981. Si tratta del sistema &#8220;Odorama&#8221;, in pratica delle card con numeri da grattare. Ogni numero ha un odore (rosa, pizza ecc&#8230;), che si può annusare al momento richiesto (un piccolo numero appariva sullo schermo).</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-4-3 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="Inside the Odorama Process" width="678" height="509" src="https://www.youtube.com/embed/k3WPpbEIYSs?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>
</div><figcaption class="wp-element-caption">Realizzazione delle card per il sistema Odorama</figcaption></figure>



<p>Altro tentativo del 1960 fu <strong><a href="https://www.wired.com/2006/12/a-brief-history-2-2/" target="_blank" rel="noreferrer noopener">Smell-O-Vision</a></strong>, usato solo in <strong>Scent of Mystery</strong> prodotto da <em><a href="https://en.wikipedia.org/wiki/Mike_Todd_Jr." target="_blank" rel="noreferrer noopener">Mike Todd Jr</a></em> (figlio del famoso Mike Todd Senior, autore de <strong>Il giro del mondo in 80 giorni</strong>). Smell-O-Vision prevedeva l&#8217;immissione di fino a 30 odori evocativi nella platea attraverso tubi che portavano ai singoli posti in sala, con bottiglie di profumo tenute su un tamburo rotante.</p>



<p>Oggi un&#8217;azienda ha ripreso il concetto in una moderna produzione industriale, chiamata <a href="https://www.olorama.com" target="_blank" rel="noreferrer noopener"><strong>Olorama</strong></a>. Con cui sarebbe bello collaborare; obiettivamente il sistema pare molto più funzionale di card da odorare (poi effettivamente riutilizzate solo in un paio di film per bambini).</p>



<p>Sono interessanti le <strong>critiche</strong> che ebbe. Secondo il <a href="https://entertainment.time.com/2012/12/10/fantasound-to-odorama-10-unusual-movie-technologies/slide/smell-o-vision/" target="_blank" rel="noreferrer noopener">Time</a>, alcuni spettatori hanno lamentato ritardi tra l&#8217;odore e la scena, altri hanno trovato che i profumi si mescolavano in modo sgradevole, <em>Henny Youngman</em> disse che non capiva il film perché aveva il raffreddore.</p>



<p>Altri inconvenienti a cui fare parecchia attenzione sono nausea e malditesta causati da profumazioni troppo forti e persistenti, possibili fastidi, distrazioni e aria pesante.</p>



<p>Cito, per completezza di informazione, l&#8217;<strong><a href="https://www.nytimes.com/1959/12/10/archives/smells-of-china-behind-great-wall-uses-aromarama.html" target="_blank" rel="noreferrer noopener">AromaRama</a></strong> di <em><a href="https://en.wikipedia.org/wiki/Walter_Reade" target="_blank" rel="noreferrer noopener">Walter Reade Jr.</a></em>. Differenza fondamentale con lo Smell-O-Vision? Semplicemente, l&#8217;AromaRama usava l&#8217;impianto di climatizzazione per la diffusione degli aromi. Furbo.</p>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p>Mangiare con un altro è un modo per dire: &#8220;Sono con te, mi piaci, formiamo una comunità insieme&#8221;.</p>
<cite>Thomas C. Foster</cite></blockquote>



<h5 class="wp-block-heading">Gusto</h5>



<p>Abbiamo visto tatto ed olfatto, manca evidentemente il <strong>gusto</strong>. Seppur siano stati fatti passi avanti verso sistemi di &#8220;trasmissione&#8221; del gusto (mediante oggetti da leccare), non credo siano ancora abbastanza sviluppati e, soprattutto, non siamo ancora pronti ad accoglierli. E non so se mai lo saremo&#8230;</p>



<p>Però durante alcune proiezioni de <strong><em>La fabbrica di cioccolato</em></strong>, <strong>sono stati forniti cioccolatini Wonka agli spettatori</strong>. E da questo mi è nata l&#8217;idea di fornire direttamente il cibo proiettato, realmente agli spettatori. Un vantaggio doppio: per l&#8217;immedesimazione nel film, e per l&#8217;economia del cinema e i clienti che rispettivamente venderebbe e acquisterebbe cibo migliore di pop corn e Coca Cola.</p>


<div class="wp-block-image">
<figure class="alignleft size-full"><img loading="lazy" decoding="async" width="250" height="250" src="https://www.darioriccio.com/wp-content/uploads/2022/09/edible-cinema2.jpeg" alt="Menu dell'Edible Cinema." class="wp-image-574" srcset="https://www.darioriccio.com/wp-content/uploads/2022/09/edible-cinema2.jpeg 250w, https://www.darioriccio.com/wp-content/uploads/2022/09/edible-cinema2-150x150.jpeg 150w" sizes="(max-width: 250px) 100vw, 250px" /></figure></div>


<p>Ho presto scoperto come quest&#8217;idea non è proprio originale: nel 2012 a Londra, più precisamente a Notting Hill, si svolse <strong><a href="http://www.ginmonkey.co.uk/2012/05/14/edible-cinema/" target="_blank" rel="noreferrer noopener">Edible Cinema</a></strong>. Fu una collaborazione tra il team di Soho House, l&#8217;organizzatrice <em>Polly Betton</em> e il designer di cibo sperimentale <em>Andrew Stellitano</em>. Basicamente, ogni presente aveva dei sacchetti e bicchieri numerati contenenti cibo e bevande, sulle poltrone c&#8217;era anche un menu che spiegava i pasti, e una donna appariva sul lato dello schermo durante il film per indicare il momento di mangiare o bere ciascun numero. </p>



<h3 class="wp-block-heading">Algoritmico, personalizzato in tempo reale grazie ai dati</h3>



<p>In una società dati-centrica, il cinema non può restare a guardare. Certo, nel rispetto della privacy e possibilmente senza usare questi dati per scopi poco nobili.</p>



<p>Una grande utilità potrà venire dalla geolocalizzazione all&#8217;interno della cupola, per inviare eventualmente segnali diversi ai differenti spettatori. Ma, soprattutto, si potrà tener conto della direzione dello sguardo di questi ultimi per comprendere cosa è più interessante, e per avere un &#8220;dispositivo di input&#8221; più passivo, e quindi meno stancante, per l&#8217;interattività di cui abbiamo appena parlato.</p>



<p>Altri dati anonimizzati, come le risposte fisiologiche attimo per attimo, potranno esser utili per lo sviluppo dei successivi film e valutare le reazioni del pubblico. Che, in un successivo sviluppo del cinema esperienziale, potranno anche essere sfruttati all&#8217;interno della stessa storia (ad esempio, gestire interattivamente i volumi per aumentare o diminuire le reazioni umane).</p>



<h4 class="wp-block-heading">Women&#8217;s Aid, un primo esempio di pubblicità interattiva algoritmica</h4>



<p>Alla Giornata Mondiale delle Donne del 2015, nel centro direzionale <a href="https://it.wikipedia.org/wiki/Canary_Wharf" target="_blank" rel="noreferrer noopener">Canary Wharf</a> di Londra, venne installata una gigantografia interattiva rappresentante il volto di una donna vittima di violenza. Venne usata una videocamera provvista di <a href="https://it.wikipedia.org/wiki/Riconoscimento_facciale" target="_blank" rel="noreferrer noopener">riconoscimento facciale</a> per aggiornare un contatore e modificare l&#8217;immagine ogni volta che un passante prestava attenzione alla pubblicità. Fu un tipico esempio, seppur nel settore della pubblicità progresso, di utilizzo dei dati per modificare il risultato ottenuto.</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="Look At Me: Women&#039;s Aid interactive billboard" width="678" height="381" src="https://www.youtube.com/embed/wEybVOerb9Q?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>
</div><figcaption class="wp-element-caption">Look At Me: Tabellone per le affissioni interattivo <strong>Women&#8217;s Aid</strong></figcaption></figure>



<h4 class="wp-block-heading">Intelligenza artificiale per lo storytelling</h4>



<p>Già oggi molte storie vengono create con l&#8217;intelligenza artificiale, come fa ad esempio l&#8217;<a href="https://www.ap.org/discover/artificial-intelligence" target="_blank" rel="noreferrer noopener">Associated Press</a> americana. Il <em>Times</em> ha creato anche un robot algoritmico, il <a href="https://www.latimes.com/people/quakebot" target="_blank" rel="noreferrer noopener">QuakeBot</a>, che acquisisce automaticamente i dati dell&#8217;<a href="https://www.usgs.gov" target="_blank" rel="noreferrer noopener">U.S. Geological Survey</a>, ente statunitense di analisi dei terremoti, per scrivere automaticamente l&#8217;articolo completo di magnitudo, epicentro e orario. All&#8217;editore umano non resta che verificarne la correttezza e pubblicare.</p>


<div class="wp-block-image">
<figure class="alignright size-medium"><img loading="lazy" decoding="async" width="300" height="45" src="https://www.darioriccio.com/wp-content/uploads/2022/09/lo-times-300x45.jpg" alt="Testata del Los Angeles Times." class="wp-image-576" srcset="https://www.darioriccio.com/wp-content/uploads/2022/09/lo-times-300x45.jpg 300w, https://www.darioriccio.com/wp-content/uploads/2022/09/lo-times.jpg 660w" sizes="(max-width: 300px) 100vw, 300px" /></figure></div>


<p>Questi robot, queste intelligenze artificiali, sono portati allo sviluppo di storie sempre più coinvolgenti, interattive e multisensoriali. Ciò che sarà fondamentale per il cinema del futuro, per coadiuvare gli sceneggiatori umani nello scritture di storie sempre più complesse e ingestibili autonomamente.</p>



<p>Inoltre, questi saranno in grado di sfruttare i dati presenti nel mondo, e nei cinema stessi. Per creare storie &#8220;su misura&#8221; del pubblico di riferimento. </p>



<p>La stessa intelligenza artificiale è, e sarà sempre più, usata nella produzione tecnica dei video. Google, ad esempio, ha il compilatore <strong><em>Jump</em></strong> (ben descritto <a href="https://storage.googleapis.com/pub-tools-public-publication-data/pdf/45617.pdf" target="_blank" rel="noreferrer noopener">nel loro stesso paper</a>), che si occupa dell&#8217;unione, stitching, di 16 stream video ad altissima qualità per ottenere un completo video VR a 360°. Il principale risultato ottenuto è stata l&#8217;eliminazione di gran parte della <em>latenza</em>, per aumentare quindi il senso di realtà dell&#8217;immagine mostrata.</p>



<p>In definitiva, l&#8217;AI sarà di certo al centro dell&#8217;attenzione. E, per evitare polemiche, dovrà essere usata anche con i guanti di piombo, mettendo al centro la privacy e l&#8217;importanza dell&#8217;essere umano.</p>



<h3 class="wp-block-heading">Prospettiva in prima persona</h3>



<p>Già conosciamo alcuni media parzialmente esperienziali. Pensiamo alle piattaforme immersive di realtà virtuale e realtà aumentata. Come abbiamo visto <a href="https://www.darioriccio.com/il-cinema-immersivo-e-il-futuro/#perche_la_realta_virtuale_non_e_popolare" target="_blank" rel="noreferrer noopener">nello scorso articolo</a>, queste sono pienamente inserite nella linea di continuità tra mondo reale e virtuale ipotizzata da <em><a href="https://www.mie.utoronto.ca/faculty_staff/milgram/" target="_blank" rel="noreferrer noopener">Paul Milgram</a></em>.</p>



<p>Queste sono chiaramente in prima persona, in quanto il vero protagonista della storia siamo noi stessi. L&#8217;esperienza è data dal contatto (benché ancora virtuale), e dall&#8217;osservazione diretta di oggetti ed eventi nelle modalità che più ci aggradano. </p>



<p>Il cinema esperienziale dovrà spesso essere in prima persona. Questo a differenza della maggior parte dei film presenti e passati, che invece puntano a raccontarci storie con occhi esterni alla vicenda. Ma la nostra sarà una prima persona differente: saremo noi spettatori, il personaggio principale. Di recente, nel 2016, ha avuto un buon successo il film <em>Hardcore</em>, diretto dal musicista russo <em><a href="https://twitter.com/naishuller" target="_blank" rel="noreferrer noopener">Il&#8217;ja Najšuller</a></em>. Evidentemente produrre cinema venendo da un background culturale esterno ad esso, aiuta a rischiare e ad innovarlo.</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="HARDCORE! - Trailer Ufficiale Italiano | HD" width="678" height="381" src="https://www.youtube.com/embed/HEQB_rl87JI?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>
</div><figcaption class="wp-element-caption">Trailer italiano del film &#8220;Hardcore&#8221;</figcaption></figure>



<p>L&#8217;intero <em>Hardcore</em> è girato in prima persona. Il successo reputo sia meritato, ed è un buon punto di riferimento per il cinema che verrà. Un modo di narrare proprio dei videogiochi, che ci invita nella vita di qualcun altro, guardando il mondo attraverso i suoi occhi. Ecco, la sola differenza credo sia che dovrà essere la nostra vita, inserita nel nuovo cinema. Lo so, fa paura, ma gli sceneggiatori non dovrebbero narrarci neppure quella&#8230;</p>



<p>Voglio citare anche un altro film, non interamente in prima persona (il protagonista si vede in varie scene, allontanando l&#8217;effetto di immedesimazione totale) ma che ha dalla sua una trama decisamente più costruita e coinvolgente di Hardcore: <em><a href="https://it.wikipedia.org/wiki/Enter_the_Void" target="_blank" rel="noreferrer noopener">Enter the Void</a></em>, del 2009, diretto dal regista argentino <a href="https://www.instagram.com/gasparnoeofficial/?hl=it" target="_blank" rel="noreferrer noopener"><strong>Gaspar Noé</strong></a>.</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-4-3 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="Enter the Void: trailer italiano" width="678" height="509" src="https://www.youtube.com/embed/LkBBWLIncZM?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>
</div><figcaption class="wp-element-caption">Trailer italiano di Enter the Void</figcaption></figure>



<p>Due film che vi consiglio di vedere, primo perché sarà un&#8217;esperienza particolare e diversa dal solito. Secondo, per avere un assaggio (seppur ridotto) di quello che sarà il cinema di qui a qualche anno.</p>



<h4 class="wp-block-heading">Immedesimare tutti nella storia del cinema esperienziale</h4>



<p><strong>Come si può costruire un film per molti, che possa rappresentare realisticamente la vita di ognuno di loro?</strong> Ancora una volta, gli sceneggiatori dovranno fare un ottimo lavoro di introspezione plurima. Creando storie coinvolgenti ma generaliste, inserendo personaggi che anche nella storia saranno novità per il protagonista. Nessun parente conosciuto, forse un cugino lontano che non sapevamo di avere. Nulla di più.</p>


<div class="wp-block-image">
<figure class="alignleft size-medium"><img loading="lazy" decoding="async" width="273" height="300" src="https://www.darioriccio.com/wp-content/uploads/2022/09/DUXU-273x300.jpg" alt="Logo del DUXU di Los Angeles." class="wp-image-578" srcset="https://www.darioriccio.com/wp-content/uploads/2022/09/DUXU-273x300.jpg 273w, https://www.darioriccio.com/wp-content/uploads/2022/09/DUXU.jpg 652w" sizes="(max-width: 273px) 100vw, 273px" /></figure></div>


<p>Nel 2015, in occasione della quarta conferenza internazionale su <strong>Design</strong>, <strong>Esperienza Utente</strong> e <strong>Usabilità</strong> a Los Angeles, <a href="https://en.wikipedia.org/wiki/Aaron_Marcus" target="_blank" rel="noreferrer noopener"><em>Aaron Marcus</em></a> ha raccolto in <a href="https://books.google.ch/books?id=fLU0CgAAQBAJ&amp;printsec=frontcover&amp;hl=it#v=onepage&amp;q&amp;f=false" target="_blank" rel="noreferrer noopener">un utilissimo libro</a> una serie di informazioni sull&#8217;attuale rapporto tra informatica, mondo virtuale e esseri umani. Basandosi sull&#8217;assunto che ognuno di noi ha la propria cultura e la propria conoscenza, <strong>il design</strong> (e quindi chi lo crea) deve lasciarci la libertà di sperimentare, di avere dubbi e pensieri, <strong>deve costruire un mondo accettato da tutte le culture personali degli spettatori</strong> e, allo stesso tempo, proporre la propria idea di universo.</p>



<p>Abbiamo voglia e necessità di riflettere, di capire. E questo porta per assurdo all&#8217;<a href="https://www.garzantilinguistica.it/ricerca/?q=iperrealismo" target="_blank" rel="noreferrer noopener">iperreale</a>, cioè ad una costruzione del mondo virtuale fedelissima al mondo reale, in cui sperimentare e presenziare in prima persona.</p>



<h2 class="wp-block-heading">L&#8217;importanza della socialità nel cinema del futuro</h2>



<p>Abbiamo visto, parlando della prospettiva in prima persona, che la tecnologia ci permette ormai di decidere un luogo, in un determinato momento storico, e vivere virtualmente in esso. Ma una cosa sarà importante: <strong>dovremo viverlo con gli altri</strong>.</p>


<div class="wp-block-image">
<figure class="alignright size-medium"><img loading="lazy" decoding="async" width="300" height="200" src="https://www.darioriccio.com/wp-content/uploads/2022/09/sociality-300x200.jpg" alt="Gruppo di ragazzi seduti su un divano." class="wp-image-580" srcset="https://www.darioriccio.com/wp-content/uploads/2022/09/sociality-300x200.jpg 300w, https://www.darioriccio.com/wp-content/uploads/2022/09/sociality.jpg 640w" sizes="(max-width: 300px) 100vw, 300px" /></figure></div>


<p>La socialità è un tema da non sottovalutare: <strong>non esiste una vita da soli</strong>. Per ricostruire il reale nel virtuale, devono quindi essere necessariamente presenti altri esseri umani (e viventi in generale). E una concreta interazione con essi.</p>



<p>Fondamentalmente, la realtà è un concetto insito nella nostra mente. Molte cose sono reali per me e per te, mentre altre lo sono solo per uno di noi due. La realtà &#8220;mediata&#8221; ha una complessità insita in questo, principalmente perché deve poter riprodurre una sintesi delle nostre realtà personali.</p>



<p>Mi spiego meglio con un esempio: <em>Aurora</em> ha l&#8217;abitudine di chiamare sua madre in caso di problemi. Nella sua realtà, la mamma è sempre presente. Le dà consigli, la abbraccia, le offre il suo sostegno costante. <em>Marco</em>, invece, ha un brutto rapporto con sua mamma. Ha sempre avuto problemi, ha provato per anni ad aiutarla ma senza alcun risultato.</p>



<p>La realtà di Aurora richiede una mamma amorevole e molto presente, al contrario quella di Marco la rigetta. <strong>Gli sceneggiatori del nuovo cinema dovranno quindi essere in grado di cadere nell&#8217;iperrealismo, senza causare incidenti morali con alcuno degli spettatori.</strong> Come si risolve questo? I personaggi importanti potranno, o forse dovranno, essere ambigui. Un carattere ambiguo che permetta a ognuno di &#8220;accettarlo&#8221; mischiando la propria realtà interiore con quella riprodotta e quindi &#8220;mediata&#8221;. Vederli, insomma, un po&#8217; come si vuole.</p>



<p>In definitiva, la parte &#8220;statica&#8221; del mondo reale, come alberi e case, è sempre presente. E facilmente riproducibile. Di contro, la parte umana, la parte sociale, rappresenta una scelta definitivamente più complessa seppur non insuperabile.</p>
<p>L'articolo <a href="https://www.darioriccio.com/che-cosa-cinema-esperienziale/">Che cos&#8217;è il cinema esperienziale</a> è apparso primo per <a href="https://www.darioriccio.com">Il Futuro del Cinema - di Dario Riccio</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.darioriccio.com/che-cosa-cinema-esperienziale/feed/</wfw:commentRss>
			<slash:comments>1</slash:comments>
		
		<enclosure url="https://www.darioriccio.com/podcast-player/599/che-cose-il-cinema-esperienziale.mp3?_=1" length="0" type="audio/mpeg" />

			</item>
		<item>
		<title>Il cinema immersivo è il futuro</title>
		<link>https://www.darioriccio.com/il-cinema-immersivo-e-il-futuro/</link>
					<comments>https://www.darioriccio.com/il-cinema-immersivo-e-il-futuro/#comments</comments>
		
		<dc:creator><![CDATA[Dario Riccio]]></dc:creator>
		<pubDate>Fri, 15 Jul 2022 11:27:00 +0000</pubDate>
				<category><![CDATA[Cinema]]></category>
		<category><![CDATA[Tecnologia]]></category>
		<category><![CDATA[cinema]]></category>
		<category><![CDATA[cinema immersivo]]></category>
		<category><![CDATA[immersività]]></category>
		<category><![CDATA[innovazione]]></category>
		<category><![CDATA[tatto]]></category>
		<category><![CDATA[udito]]></category>
		<guid isPermaLink="false">https://www.darioriccio.com/?p=345</guid>

					<description><![CDATA[<p>Cos'hanno in comune Douglas Trumbull, Matthew Shifrin e tanti altri? Vogliono rendere il cinema più immersivo. Per salvare la sala dalla lenta agonia che sta vivendo.</p>
<p>L'articolo <a href="https://www.darioriccio.com/il-cinema-immersivo-e-il-futuro/">Il cinema immersivo è il futuro</a> è apparso primo per <a href="https://www.darioriccio.com">Il Futuro del Cinema - di Dario Riccio</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p class="wp-block-seriously-simple-podcasting-audio-player"><span>
<audio class="wp-audio-shortcode" id="audio-0-1" style="width:100%" controls><source type="audio/mpeg" src="https://www.darioriccio.com/podcast-player/435/il-cinema-immersivo-e-il-futuro.mp3?_=1"/>https://www.darioriccio.com/podcast-player/435/il-cinema-immersivo-e-il-futuro.mp3</audio></span></p>



<p>Il cinema attuale, derivazione moderna dell&#8217;antico analogico, ha cinque caratteristiche: <em>struttura statica</em> e <em>lineare</em>, <em>modalità duale</em>, <em>episodico</em>, prevalentemente in <em>terza persona</em> e <em>non interattivo</em>. Vedremo più avanti cosa vuol dire ognuna di queste voci, mentre continuo a pensare a <strong>quello che sarà il cinema del futuro</strong>, al cinema immersivo, e a come realizzarne un buon prototipo.</p>



<p>Ho iniziato questo articolo in un treno svizzero, e l&#8217;ho terminato dell&#8217;affascinante <a href="https://www.google.com/url?sa=t&amp;rct=j&amp;q=&amp;esrc=s&amp;source=web&amp;cd=&amp;cad=rja&amp;uact=8&amp;ved=2ahUKEwjy5aWB1_r4AhXd7rsIHWstCiwQFnoECAsQAQ&amp;url=https%3A%2F%2Fwww.instagram.com%2Fespaijoliu%2F&amp;usg=AOvVaw0H7Z4m6TmIklGbELvZOLC-" target="_blank" rel="noreferrer noopener">Espai Joliu</a> di Barcellona. Amo i treni, il fatto di poter lavorare o rilassarsi mentre ci si sposta tra due località. Tra i miei benefit aziendali c’è l’abbonamento generale a tutti i mezzi di trasporto in Svizzera: la mia fortuna. Alcuni giorni di congedo lavorativo, approfitto per raggiungere Domodossola (la prima località italiana oltre confine), o girare in lungo e in largo per il Paese degli Elvezi, che riserba sorprese e angoli magici un po&#8217; ovunque.</p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="755" src="https://www.darioriccio.com/wp-content/uploads/2022/07/switzerland-ge24d15d39_1920-1024x755.jpg" alt="Treni alla stazione di Spiez, in Svizzera." class="wp-image-411" srcset="https://www.darioriccio.com/wp-content/uploads/2022/07/switzerland-ge24d15d39_1920-1024x755.jpg 1024w, https://www.darioriccio.com/wp-content/uploads/2022/07/switzerland-ge24d15d39_1920-300x221.jpg 300w, https://www.darioriccio.com/wp-content/uploads/2022/07/switzerland-ge24d15d39_1920-768x566.jpg 768w, https://www.darioriccio.com/wp-content/uploads/2022/07/switzerland-ge24d15d39_1920-1536x1132.jpg 1536w, https://www.darioriccio.com/wp-content/uploads/2022/07/switzerland-ge24d15d39_1920.jpg 1920w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption class="wp-element-caption">Treni a Spiez, Svizzera</figcaption></figure>



<h2 class="wp-block-heading">Quanto conta l&#8217;immersività nel cinema del futuro</h2>



<p>Faccio parte del filone di pensiero, ormai sempre più in voga, che immagina per il cinema un&#8217;unica evoluzione: il <strong><em>cinema immersivo</em></strong>. Secondo i puristi, o &#8220;tradizionalisti&#8221;, il cinema deve essere lasciato così com&#8217;è. Ma abbiamo <a href="https://www.darioriccio.com/2022/02/02/innoviamo-il-cinema-moderno/" target="_blank" rel="noreferrer noopener">già visto</a> che, in fondo, non per forza hanno ragione.</p>



<p>Come avrete notato, non sono affatto cadenzato nella pubblicazione di articoli sul mio blog. Non amo i piani editoriali online, preferisco la qualità alla quantità, evitando articoli poco approfonditi solo per uscire &#8220;venerdì alle 7&#8221;. Questo articolo mi ha richiesto giorni di ricerche, forse di più, e chiaramente il blog non è la mia attività primaria, ma ne è venuta fuori una carrellata di idee e di personaggi che spero sia una risposta definitiva alla domanda: <em>come sarà il cinema del futuro?</em></p>



<p>In pochi hanno provato ad innovarlo seriamente, e in questo articolo ne conosceremo alcuni. Di certo non per mancanza di mercato. Piuttosto per mancanza di risorse, ultimamente sempre più proiettate al lucroso, e più gestibile, mondo virtuale.</p>



<p><em>Questo articolo segue da: </em><a href="https://www.darioriccio.com/2022/02/02/innoviamo-il-cinema-moderno/">Innovare il cinema moderno</a></p>



<h2 class="wp-block-heading" id="vantaggi-e-svantaggi-del-cinema-moderno">Vantaggi e svantaggi del cinema moderno</h2>


<div class="wp-block-image">
<figure class="alignright size-medium"><img loading="lazy" decoding="async" width="300" height="214" src="https://www.darioriccio.com/wp-content/uploads/2022/07/mobile-phone-g260c3d7f7_640-300x214.jpg" alt="Ragazza che sta guardando un film con lo smartphone." class="wp-image-415" srcset="https://www.darioriccio.com/wp-content/uploads/2022/07/mobile-phone-g260c3d7f7_640-300x214.jpg 300w, https://www.darioriccio.com/wp-content/uploads/2022/07/mobile-phone-g260c3d7f7_640-210x150.jpg 210w, https://www.darioriccio.com/wp-content/uploads/2022/07/mobile-phone-g260c3d7f7_640.jpg 640w" sizes="(max-width: 300px) 100vw, 300px" /></figure></div>


<p>Riflettevo sui vantaggi del cinema per com’è concepito oggi:</p>



<ul class="wp-block-list">
<li>Se ne può usufruire in mobilità, anche qui sul treno.</li>



<li>Si possono compiere altre azioni, delegando all’audiovisivo il mero ruolo di compagno.</li>



<li>Se ne può usufruire in compagnia.</li>
</ul>



<p><strong>Altri vantaggi li chiedo a voi</strong>, vi prego davvero di commentare. <strong>Passando agli svantaggi:</strong></p>



<ul class="wp-block-list">
<li>Le modalità di fruizione si aggiornano poco da decenni.</li>



<li>Non è in grado di “riempire” tutti i sensi dello spettatore.</li>
</ul>



<p>Andiamo quindi a creare un sistema, usando tecnologia già esistente, in grado di ridurre al minimo questi svantaggi.</p>



<h2 class="wp-block-heading" id="analisi-dei-vantaggi-e-svantaggi-del-cinema-moderno">Analisi dei vantaggi e svantaggi del cinema moderno</h2>



<h3 class="wp-block-heading" id="1-si-puo-usufruire-del-cinema-in-mobilita">1) Si può usufruire del cinema in mobilità</h3>



<p>Chiaramente, il cinema “old style” per definizione è destinato alla sala. Una produzione, per rientrare dei costi, deve però essere fruibile dal maggior numero di persone possibili. Un buon sostituto al piccolo schermo sono i visori per la realtà virtuale, che permettono di visualizzare video stereoscopici a 360°.</p>



<h3 class="wp-block-heading" id="2-si-puo-fare-altro-mentre-si-guarda-un-film">2) Si può fare altro mentre si guarda un film</h3>



<p>Qui la realtà virtuale, allo stato attuale, mostra tutti i suoi limiti a causa dell&#8217;isolamento completo che crea. Bypassare questo limite è forse possibile con la realtà aumentata, o con un serio aggiornamento della tecnologia di virtual reality esistente.</p>



<h3 class="wp-block-heading" id="3-si-puo-guardare-un-film-in-gruppo">3) Si può guardare un film in compagnia</h3>



<p>Progettando un aggiornamento del sistema cinema inteso come &#8220;sala cinematografica&#8221;, da decenni esiste una tecnologia usata soprattutto nella divulgazione scientifica: il <strong>fulldome</strong>, cioè proiezioni in una cupola. Lo stesso sistema non è nuovo però alla sperimentazione filmica, anche da parte di grandi Maestri del passato.</p>



<h3 class="wp-block-heading" id="4-le-modalita-di-fruizione-si-aggiornano-poco-da-decenni">4) Le modalità di fruizione si aggiornano poco da decenni</h3>



<p>Il primo svantaggio del cinema è piuttosto una constatazione. Se, da una parte, grandi registi o aziende hanno portato innovazioni immense nelle modalità di ripresa (pensiamo all&#8217;<strong><a href="https://www.mymovies.it/film/2009/avatar/news/tutteleinnovazionidelfilm/" target="_blank" rel="noreferrer noopener">Avatar</a></strong> di <em><a href="https://it.wikipedia.org/wiki/James_Cameron" target="_blank" rel="noreferrer noopener">Cameron</a></em> con una <a href="https://www.mo-sys.com/what-is-motion-capture-and-how-does-it-work/" target="_blank" rel="noreferrer noopener">Motion Capture</a> all&#8217;ennesima potenza, o alla <a href="https://www.ilm.com/stagecraft/" target="_blank" rel="noreferrer noopener"><strong>Industrial Light &amp; Magic</strong></a> che insieme ad <strong><a href="https://www.unrealengine.com/en-US/virtual-production" target="_blank" rel="noreferrer noopener">Epic</a></strong> ha dato il là ad una seria Virtual Production), poco si è fatto per le sale.</p>



<p><strong>Il passaggio dalla pellicola al digitale</strong>, senza volerlo sminuire, <strong>è equiparabile al cambio della nostra TV di casa</strong>. Miglior qualità, minori costi di distribuzione, al massimo <a href="https://it.wikipedia.org/wiki/Cinema_tridimensionale" target="_blank" rel="noreferrer noopener">stereoscopia</a> ma per il resto tutto come prima.</p>



<h3 class="wp-block-heading" id="5-non-e-in-grado-di-riempire-il-maggior-numero-di-sensi-dello-spettatore-un-secolo-fa-grande-innovatore-il-cinema-di-oggi-non-riesce-ad-offrire-quel-qualcosa-in-piu-rispetto-ad-altri-strumenti-piu-moderni-un-esempio-guardando-un-ipad-o-la-tv-il-campo-visivo-coperto-dall-immagine-e-di-circa-25-lo-schermo-cinematografico-in-media-copre-un-campo-visivo-di-50-su-360-dipende-molto-dalla-posizione-in-sala-e-necessario-incrementarlo-se-davvero-si-vuole-offrire-ancora-quell-effetto-wow-che-vale-il-prezzo-del-biglietto-se-davvero-vogliamo-far-sentire-gli-spettatori-immersi-nella-proiezione-nell-ambiente-rappresentato-l-acustica-e-sempre-stata-molto-buona-i-sistemi-dolby-digital-attuali-gia-permettono-un-ottima-immersivita-cio-che-manca-e-ancora-il-tatto-l-olfatto-e-perche-no-anche-il-gusto">5) Non è in grado di “riempire” tutti i sensi dello spettatore.</h3>



<p id="5-non-e-in-grado-di-riempire-il-maggior-numero-di-sensi-dello-spettatore-un-secolo-fa-grande-innovatore-il-cinema-di-oggi-non-riesce-ad-offrire-quel-qualcosa-in-piu-rispetto-ad-altri-strumenti-piu-moderni-un-esempio-guardando-un-ipad-o-la-tv-il-campo-visivo-coperto-dall-immagine-e-di-circa-25-lo-schermo-cinematografico-in-media-copre-un-campo-visivo-di-50-su-360-dipende-molto-dalla-posizione-in-sala-e-necessario-incrementarlo-se-davvero-si-vuole-offrire-ancora-quell-effetto-wow-che-vale-il-prezzo-del-biglietto-se-davvero-vogliamo-far-sentire-gli-spettatori-immersi-nella-proiezione-nell-ambiente-rappresentato-l-acustica-e-sempre-stata-molto-buona-i-sistemi-dolby-digital-attuali-gia-permettono-un-ottima-immersivita-cio-che-manca-e-ancora-il-tatto-l-olfatto-e-perche-no-anche-il-gusto">Un secolo fa grande innovatore, il cinema di oggi non riesce ad offrire quel &#8220;qualcosa in più&#8221; rispetto ad altri strumenti più moderni.</p>



<p id="5-non-e-in-grado-di-riempire-il-maggior-numero-di-sensi-dello-spettatore-un-secolo-fa-grande-innovatore-il-cinema-di-oggi-non-riesce-ad-offrire-quel-qualcosa-in-piu-rispetto-ad-altri-strumenti-piu-moderni-un-esempio-guardando-un-ipad-o-la-tv-il-campo-visivo-coperto-dall-immagine-e-di-circa-25-lo-schermo-cinematografico-in-media-copre-un-campo-visivo-di-50-su-360-dipende-molto-dalla-posizione-in-sala-e-necessario-incrementarlo-se-davvero-si-vuole-offrire-ancora-quell-effetto-wow-che-vale-il-prezzo-del-biglietto-se-davvero-vogliamo-far-sentire-gli-spettatori-immersi-nella-proiezione-nell-ambiente-rappresentato-l-acustica-e-sempre-stata-molto-buona-i-sistemi-dolby-digital-attuali-gia-permettono-un-ottima-immersivita-cio-che-manca-e-ancora-il-tatto-l-olfatto-e-perche-no-anche-il-gusto">Guardando un iPad o una TV moderna, il campo visivo coperto dall&#8217;immagine è di circa 25°. Lo schermo cinematografico, in media, copre un campo visivo di 50° sui 360 della sfera (dipende molto dalla posizione in sala). È necessario incrementarlo, se davvero si vuole tornare ad offrire quell&#8217;effetto &#8220;wow&#8221;, dovuto all&#8217;immersione, che vale il viaggio e il biglietto.</p>



<p id="5-non-e-in-grado-di-riempire-il-maggior-numero-di-sensi-dello-spettatore-un-secolo-fa-grande-innovatore-il-cinema-di-oggi-non-riesce-ad-offrire-quel-qualcosa-in-piu-rispetto-ad-altri-strumenti-piu-moderni-un-esempio-guardando-un-ipad-o-la-tv-il-campo-visivo-coperto-dall-immagine-e-di-circa-25-lo-schermo-cinematografico-in-media-copre-un-campo-visivo-di-50-su-360-dipende-molto-dalla-posizione-in-sala-e-necessario-incrementarlo-se-davvero-si-vuole-offrire-ancora-quell-effetto-wow-che-vale-il-prezzo-del-biglietto-se-davvero-vogliamo-far-sentire-gli-spettatori-immersi-nella-proiezione-nell-ambiente-rappresentato-l-acustica-e-sempre-stata-molto-buona-i-sistemi-dolby-digital-attuali-gia-permettono-un-ottima-immersivita-cio-che-manca-e-ancora-il-tatto-l-olfatto-e-perche-no-anche-il-gusto">L&#8217;acustica è già molto buona; i sistemi Dolby Digital permettono un&#8217;ottima immersività. Ciò che manca, è ancora il <strong>tatto</strong>, l&#8217;<strong>olfatto</strong> e, perché no, anche il <strong>gusto</strong>.</p>



<h2 class="wp-block-heading" id="perche-la-realta-virtuale-non-funziona">Perché la realtà virtuale non è popolare</h2>



<p>Ho cercato di capire il perché non si abbia mai voglia di mettere il casco in testa, e mi ha certamente aiutato un <a href="http://eprints.gla.ac.uk/271016/1/271016.pdf" target="_blank" rel="noreferrer noopener">recente paper / sondaggio</a> della University of Glasgow firmato da <a href="https://it.linkedin.com/in/laurabajor" target="_blank" rel="noreferrer noopener">Laura Bajorunaite</a>, <a href="http://www.dcs.gla.ac.uk/~stephen/aboutme.shtml" target="_blank" rel="noreferrer noopener">Stephen Brewster</a> e <a href="https://www.gla.ac.uk/schools/computing/staff/juliewilliamson/#researchinterests,publications,articles" target="_blank" rel="noreferrer noopener">Julie R. Williamson</a>.</p>



<p>Il paper tratta nello specifico l&#8217;uso dei visori VR nei trasporti pubblici, di per sé un luogo di frequente fruizione cinematografica. Ma il discorso è allargabile, con i dovuti adattamenti, un po&#8217; più in generale.</p>



<p>Alla base ci sono chiaramente motivazioni di <strong>sicurezza</strong> personale, ma anche di <strong>confort</strong>. L&#8217;accettazione sociale è inoltre ancora lontana, rendendo &#8220;stupidi&#8221; gli utenti VR agli occhi degli altri passeggeri. Si fanno, ancora, passi avanti per rendere il proprio mondo virtuale più integrato con il reale.</p>



<p>Ad esempio, gettare un occhio di tanto in tanto al mondo reale con le videocamere installate sul visore, o avere indicazioni sul posizionamento degli altri esseri umani nello spazio reale, può tranquillizzarci. Bisogna evitare una Virtual Reality completa a favore dell&#8217;<strong>Augmented Virtuality</strong>; così definita già nel 1999 dal Prof. <em><a href="https://www.mie.utoronto.ca/faculty_staff/milgram/" target="_blank" rel="noreferrer noopener">Paul Milgram</a></em> nella sua linea di continuità da mondo reale a mondo virtuale.</p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="296" src="https://www.darioriccio.com/wp-content/uploads/2022/07/Virtual-Reality-Continuum-1024x296.jpg" alt="" class="wp-image-374" srcset="https://www.darioriccio.com/wp-content/uploads/2022/07/Virtual-Reality-Continuum-1024x296.jpg 1024w, https://www.darioriccio.com/wp-content/uploads/2022/07/Virtual-Reality-Continuum-300x87.jpg 300w, https://www.darioriccio.com/wp-content/uploads/2022/07/Virtual-Reality-Continuum-768x222.jpg 768w, https://www.darioriccio.com/wp-content/uploads/2022/07/Virtual-Reality-Continuum-1536x445.jpg 1536w, https://www.darioriccio.com/wp-content/uploads/2022/07/Virtual-Reality-Continuum.jpg 1624w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption class="wp-element-caption">Virtual Reality Continuum, di Paul Milgram</figcaption></figure>



<p>Vi invito a leggere il paper per approfondire, ma il concetto di cui dobbiamo tener considerazione è che l&#8217;immersività totale è un problema.</p>



<h2 class="wp-block-heading">Il cinema immersivo</h2>


<div class="wp-block-image">
<figure class="alignleft size-medium"><img loading="lazy" decoding="async" width="300" height="276" src="https://www.darioriccio.com/wp-content/uploads/2022/07/Transportation__Travel_Pavilion-300x276.jpg" alt="New York World's Fair del 1964" class="wp-image-378" srcset="https://www.darioriccio.com/wp-content/uploads/2022/07/Transportation__Travel_Pavilion-300x276.jpg 300w, https://www.darioriccio.com/wp-content/uploads/2022/07/Transportation__Travel_Pavilion.jpg 640w" sizes="(max-width: 300px) 100vw, 300px" /><figcaption class="wp-element-caption">New York World&#8217;s Fair del 1964, con il &#8220;Moon Dome&#8221; di&nbsp;<em>To The Moon and Beyond</em>&nbsp;in primo piano. Foto di Doug Coldwell da Wikipedia.</figcaption></figure></div>


<p>Abbiamo già percorso dettagliatamente la storia del cinema fulldome (articolo <a href="https://www.darioriccio.com/2022/03/05/video-fulldome-il-cinema-del-futuro/" target="_blank" rel="noreferrer noopener">disponibile qui</a>), ma <em><a href="https://en.wikipedia.org/wiki/To_the_Moon_and_Beyond" target="_blank" rel="noreferrer noopener">To the Moon and Beyond</a></em> (Verso la Luna e oltre), è da molti considerato come il primo film immersivo della storia. Il primo a coprire un campo visivo di 360°, filmato con la tecnica <a href="https://it.wikipedia.org/wiki/Cinerama" target="_blank" rel="noreferrer noopener">Cinerama</a> usando una singola lente fish-eye, su pellicola 70mm a 18 fps, e proiettato nel tetto di una grande cupola alta circa 30 metri.</p>



<p>Se il suo utilizzo era ancora in qualche modo &#8220;didattico&#8221;, ci si allontanava dai canoni astronomici per portare invece un maggior coinvolgimento verso le tematiche del trasporto. Il film influenzò anche Stanley Kubrick, tanto da assumere i suoi creatori come consulenti VFX per il leggendario <em>2001: Odissea nello spazio</em>. <a href="https://en.wikipedia.org/wiki/Lester_Novros" target="_blank" rel="noreferrer noopener">Lester Novros</a> e il nostro prossimo protagonista: <a href="https://it.wikipedia.org/wiki/Douglas_Trumbull"><em>Douglas Trumbull</em></a>.</p>



<h2 class="wp-block-heading">Douglas Trumbull, una missione: salvare il cinema</h2>


<div class="wp-block-image">
<figure class="alignright size-medium"><img loading="lazy" decoding="async" width="200" height="300" src="https://www.darioriccio.com/wp-content/uploads/2022/07/Douglas_Trumbull_2007-200x300.jpg" alt="Douglas Trumbull" class="wp-image-391" srcset="https://www.darioriccio.com/wp-content/uploads/2022/07/Douglas_Trumbull_2007-200x300.jpg 200w, https://www.darioriccio.com/wp-content/uploads/2022/07/Douglas_Trumbull_2007.jpg 681w" sizes="(max-width: 200px) 100vw, 200px" /><figcaption class="wp-element-caption">Douglas Trumbull. Immagine di <a href="https://www.flickr.com/people/64636204@N00" target="_blank" rel="noreferrer noopener">Jorge Ferrer</a> da Wikipedia.</figcaption></figure></div>


<p><em>Douglas Trumbull</em> è stato un uomo con una grande idea: <strong>i film possono essere più realistici e più coinvolgenti di quanto già siano</strong>.</p>



<p>Mi sarebbe piaciuto conoscerlo di persona, era un mito per me. Tentai di scrivergli un paio di volte offrendomi di andarlo a trovare nei suoi <em>Trumbull Studios </em>nelle <a href="https://www.google.ch/maps/place/83+New+Marlboro-Southfield+Rd,+Great+Barrington,+MA+01230,+Stati+Uniti/@42.1079709,-73.2421418,17z/data=!3m1!4b1!4m5!3m4!1s0x89e76fc86b4078e5:0x9f728c507853d409!8m2!3d42.1079669!4d-73.2399531" target="_blank" rel="noreferrer noopener">campagne del Massachusetts</a>, ma non ottenni purtroppo risposta. Forse gli indirizzi che avevo non erano più attuali, forse era troppo impegnato oltre che anziano. Non so, fatto sta che ormai non è più tra noi se non tramite i suoi studi che ancora hanno il tempo per cambiare la storia del cinema.</p>



<p>Fu uno dei più grandi esperti al mondo di effetti speciali, prima analogici e poi digitali. Creatore di strabilianti capolavori grafici nel top della produzione hollywoodiana dello scorso secolo (<a href="https://www.imdb.com/title/tt0062622/" target="_blank" rel="noreferrer noopener">2001: Odissea nello spazio</a>, <a href="https://www.imdb.com/title/tt0075860/" target="_blank" rel="noreferrer noopener">Incontri ravvicinati del terzo tipo</a>, <a href="https://www.imdb.com/title/tt0079945/" target="_blank" rel="noreferrer noopener">Star Trek</a>&#8230;). Dopo aver iniziato a fiutare il decadimento delle sale cinematografiche tradizionali, ha dedicato la sua intera esistenza nella ricerca di una soluzione. Che anche lui trovò nel <strong>cinema immersivo</strong>, come vero pioniere.</p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="463" src="https://www.darioriccio.com/wp-content/uploads/2022/07/1280px-2001_-_Odissea_nello_spazio-1024x463.jpg" alt="Una scena di 2001: Odissea nello spazio." class="wp-image-420" srcset="https://www.darioriccio.com/wp-content/uploads/2022/07/1280px-2001_-_Odissea_nello_spazio-1024x463.jpg 1024w, https://www.darioriccio.com/wp-content/uploads/2022/07/1280px-2001_-_Odissea_nello_spazio-300x136.jpg 300w, https://www.darioriccio.com/wp-content/uploads/2022/07/1280px-2001_-_Odissea_nello_spazio-768x347.jpg 768w, https://www.darioriccio.com/wp-content/uploads/2022/07/1280px-2001_-_Odissea_nello_spazio.jpg 1280w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption class="wp-element-caption">Una scena di 2001: Odissea nello spazio</figcaption></figure>



<p>Forse per la sua abitudine all&#8217;analogico, a trovare sempre idee fisiche e reali piuttosto che creare una nuova app o un nuovo sistema per monetizzare il tempo degli utenti mentre sono soli o a casa, Douglas era un artigiano multinazionale. Di certo aveva l&#8217;arte nel DNA: suo padre, Donald (Pappy Trumbull per gli amici) si occupò di VFX sin dagli anni ’30. Non accreditato ufficialmente, lavorò ne “Il Mago di Oz” del 1939.</p>



<p>Fu proprio durante le riprese di 2001: Odissea nello Spazio che, solo venticinquenne, Doug creò il leggendario flusso di colori psichedelico &#8220;Slit Scan&#8221; sulla base della tecnica sviluppata poco prima da <a href="https://en.wikipedia.org/wiki/John_Whitney_(animator)"><em>John Whitney</em></a> per <em>Vertigo</em>.</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="Stanley Kubrick - 2001: A Space Odyssey, 1968 - Slit Scan Effect" width="678" height="381" src="https://www.youtube.com/embed/NaK4z3Fjpkk?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>
</div><figcaption class="wp-element-caption">Effetto Slit Scan in 2001: Odissea nello spazio</figcaption></figure>



<h3 class="wp-block-heading">L&#8217;immersività è il futuro del cinema</h3>



<p>Riporto una parte di un&#8217;intervista fatta da <a href="https://filmmakermagazine.com/102741-interview-douglas-trumbull-2017/#.Ys1w7S8QOLc" target="_blank" rel="noreferrer noopener">Filmmakermagazine.com</a> allo stesso Trumbull.</p>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p>Se guardi al settore, si sta muovendo sempre di più verso esperienze immersive. Prendi la realtà virtuale, per esempio; il problema è che le persone non vogliono indossare il visore. L&#8217;immersività è ciò che la TV non può offrire; quando il 3D è decollato, tutti hanno iniziato a realizzare televisori 3D. Ma ora nessuno li fa più.</p>



<p>Penso che il problema fosse la miniaturizzazione. Quando guardi un&#8217;immagine 3D sul grande schermo, hai una figura di 6 piedi (1,82 metri) in piedi di fronte a te, mentre quando la metti su uno schermo TV hai come una figura di 6 pollici (15 cm). Quando ho preso i progetti su cui stavamo lavorando e gli ho riprodotti sullo schermo televisivo per vedere che aspetto avessero, l&#8217;effetto si è perso completamente.</p>
<cite>Douglas Trumbull</cite></blockquote>



<h3 class="wp-block-heading">Magi Pod: innovare la sala cinematografica </h3>



<p>Douglas Trumbull nei suoi ultimi anni di vita ha sviluppato con i Trumbull Studios un sistema che univa molti dei punti chiave per il rinnovamento delle sale cinematografiche. Una riprogettazione tanto dei sistemi di ripresa, quanto di proiezione. Alla base, la proiezione 4K a 120 fps risolve un problema già denunciato da Kubrick oltre 50 anni fa: <strong>il blur dei 24 fps è antipatico e irrealistico</strong>. Per questo già <em>2001: Odissea nello spazio</em> venne girato ad elevato framerate, seppur quasi nessuna sala si attrezzò per la riproduzione.</p>



<p>Trumbull desiderava riproporre la magia che lui stesso provava nel visitare gli schermi curvi del <a href="https://it.wikipedia.org/wiki/Cinerama" target="_blank" rel="noreferrer noopener">Cinerama</a> durante l&#8217;infanzia. Ma tecnicamente erano tanti i problemi da risolvere.</p>



<h3 class="wp-block-heading">Risolvere i problemi della proiezione 3D</h3>



<p>Per cominciare, <strong>proiettare in stereoscopia richiede di dimezzare il framerate</strong> (o raddoppiare i proiettori, che risulterebbe antieconomico). Ciò vuol dire proiezione a 60 fps per occhio.</p>



<p>C’è poi un altro problema, più concreto: <strong>nei film 3D vengono registrate entrambe le immagini</strong> (destra e sinistra) <strong>in contemporanea</strong>. Ma <strong>vengono poi proiettate una dopo l’altra</strong>, alternativamente (occhio destro, sinistro, destro, sinistro ecc…). C’è quindi una piccola differenza non percettibile visivamente, ma non trascurabile dal nostro inconscio. Soluzione? <strong>Registrare le due immagini con una distanza di 180 gradi / otturatore</strong>, quindi alternativamente, come verranno poi proiettate. Il che risolve un secondo problema, che riguarda il &#8220;cinematic look&#8221;.</p>



<p><strong>L’elevato framerate</strong> non è infatti usato nel cinema perché <strong>rende il prodotto troppo simile al video e alla TV</strong>. Trumbull ha concluso quindi di aumentare l&#8217;effetto flicker originariamente dato dai 24 fps cinematografici grazie dalla registrazione dei fotogrammi destro e sinistro della stereoscopia con 180 gradi / otturatore di distanza. Oltre a ridurre la luminanza dello schermo (nel Magi pari a 14 FtL, meno di 50 lux), ma non riducendo il gain dello schermo stesso.</p>



<p>L&#8217;intero brevetto Magi ha come scopo aumentare il coinvolgimento del pubblico: si traduce nella proiezione nel <em><strong>Magi Pod</strong></em>.</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="Douglas Trumbull MAGI POD" width="678" height="381" src="https://www.youtube.com/embed/pX_nqcVgkJw?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>
</div></figure>



<p>Un piccolo cinema, <strong>70 posti</strong> tutti in zona di miglior visione; <strong>schermo argentato toroidale</strong> (curvato sia orizzontalmente che verticalmente) con gain di 3x per aumentare contrasto e quindi immersività; <strong>32 speakers</strong> per effetto surround aumentato; <strong><a href="http://www.rotarywoofer.com/" target="_blank" rel="noreferrer noopener">subwoofer rotativi</a></strong> in grado di raggiungere 1 Hertz, che creano un effetto &#8220;4D&#8221; con le assurde vibrazioni.</p>



<p>Anni di esperienza di Trumbull alla guida dei comparti tecnici dei più grandi blockbusters, in un unico, magico, cinema immersivo. Se la conoscenza deve andare sempre avanti, non si può non tenerne conto nella progettazione del cinema del futuro.</p>



<h3 class="wp-block-heading">I riflessi incrociati nel cinema fulldome</h3>



<p>Progettando un cinema fulldome, le differenze con il <em>Magi Pod</em> sono tante e fondamentali. Il Magi non riempie infatti una cupola, ma solo una parte di essa. E non si può semplicemente &#8220;allargare&#8221; il campo visivo sino a comporre i 360 gradi. C&#8217;è un primo grande problema: i <strong>riflessi incrociati</strong>.</p>



<p>Chiunque abbia lavorato con schermi per proiezione ad alto guadagno si sarà infatti reso conto che uno schermo argentato e amplificato 3X è una specie di specchio. Riflettendo tanto la luce che arriva dall&#8217;esterno, quanto la stessa immagine proiettata da una parte all&#8217;altra nel caso di uno schermo convesso. Problema che sperimentò anche la produzione di Steven Spielberg, del 1991, <em><a href="https://en.wikipedia.org/wiki/Back_to_the_Future:_The_Ride" target="_blank" rel="noreferrer noopener">Back to the Future: The Ride</a></em>; riproposizione fulldome dell&#8217;originale <em>Ritorno al Futuro</em>.</p>



<p>Limitandone il raggio, e mantenendo gli spettatori entro un angolo ottimale di visualizzazione (quindi in posizioni centrali) il problema si riduce sin quasi ad azzerarsi. Ma una sfera completa deve necessariamente essere uno schermo bianco con rapporto di riflessione inferiore a 1, oppure la soluzione è tutta da studiare. E in questo caso dovremo sicuramente fare esperimenti pratici prossimamente. </p>



<h2 class="wp-block-heading">Immersività nel cinema del futuro</h2>



<p>Difatti, quasi ogni studio pregresso di cui parliamo in questo articolo è in qualche modo legato al mondo digitale. Ma, come forse saprete, <strong>sono un convinto fautore della socialità e del ritorno alla vita reale</strong>.</p>



<p><strong>La sala dovrà somigliare ad una macchina dello spazio e del tempo</strong>, dove si entrerà in una dimensione totalmente nuova per tutta la durata della proiezione, e da cui se ne uscirà con un&#8217;esperienza completa. Soprattutto, in compagnia.</p>



<p>Il mondo si avvia verso la conquista dello spazio, che sarà inizialmente nelle possibilità di pochi eletti. Gli altri vorranno provare esperienze nuove, e dovranno farlo stando necessariamente a terra.</p>



<h2 class="wp-block-heading">Cinque sensi per un cinema immersivo</h2>



<p>Lo spettatore dovrà essere protagonista, pertanto <strong>anche la narrativa dovrà cambiare</strong>. Ricordiamo bene: senza scomodare l&#8217;intuito, il sesto, ci restano comunque altri <strong>cinque sensi</strong>.</p>


<div class="wp-block-image">
<figure class="alignleft size-medium"><img loading="lazy" decoding="async" width="225" height="300" src="https://www.darioriccio.com/wp-content/uploads/2022/07/Henry-Jenkins-225x300.jpg" alt="Henry Jenkins" class="wp-image-402" srcset="https://www.darioriccio.com/wp-content/uploads/2022/07/Henry-Jenkins-225x300.jpg 225w, https://www.darioriccio.com/wp-content/uploads/2022/07/Henry-Jenkins.jpg 750w" sizes="(max-width: 225px) 100vw, 225px" /><figcaption class="wp-element-caption">Henry Jenkins, da <a href="http://henryjenkins.org" target="_blank" rel="noreferrer noopener">http://henryjenkins.org</a></figcaption></figure></div>


<p>Il cinema attuale, duale, riesce a coprirne solo due: la <em>vista</em> e l&#8217;<em>udito</em>. E, soprattutto per la vista, possiamo fare molto per migliorare la situazione. Leggendo il numero di <a href="https://www.wired.it/article/wired-99-edicola-buon-divertimento/" target="_blank" rel="noreferrer noopener">Wired Italia</a> di dicembre 2021 (rivista che è sempre piena di spunti interessanti) ho trovato questo paragrafo in un articolo di <a href="http://henryjenkins.org/" target="_blank" rel="noreferrer noopener"><strong>Henry Jenkins</strong></a> (docente alla <a href="https://cinema.usc.edu/mediastudies/index.cfm" target="_blank" rel="noreferrer noopener">University of Southern California</a>, per più di 10 anni direttore del programma di studi comparati sui media al Mit di Boston; non l’ultimo degli arrivati):</p>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p>Sono convinto che il metaverso non sarà il futuro sia perché apparecchi come i visori Oculus sono tremendi (soprattutto per chi, come me, porta gli occhiali), sia perché non è l’esperienza visiva a garantire il livello di immersione più alto, ma quella audio e aptica, come dimostrano decenni di studi e pionieri come Metthew Shifrin e Nonny de la Peña.</p>
<cite><strong>Henry Jenkins</strong></cite></blockquote>



<p>L’idea di Jenkins, in molti aspetti simile alla mia, mi ha incuriosito a conoscere il musicista <em><a href="https://www.linkedin.com/in/matthew-shifrin-243361ba/" target="_blank" rel="noreferrer noopener">Matthew Shifrin</a></em>.</p>



<h2 class="wp-block-heading">Matthew Shifrin: i Lego e il cinema del futuro</h2>



<p><strong><em>Matthew Shifrin</em></strong> è un giovane musicista, cieco dalla nascita. Sin da piccolo appassionato di <strong><a href="http://lego.it" target="_blank" rel="noreferrer noopener">Lego</a></strong>, questi gli permettono di sperimentare, toccare, &#8220;vedere&#8221; senza occhi. Grazie al tatto, e quindi anche ai Lego, può capire come funziona il mondo; com&#8217;è fatto. Secondo il suo eloquente esempio, <strong>non potrà mai sapere che forma ha la Statua della Libertà senza arrampicarvisi</strong>. E arrampicarsi sulla Statua della Libertà può essere problematico&#8230; Pertanto, una piccola Statua di Lego svolge perfettamente la sua funzione.</p>



<p>È il suo tredicesimo anno di vita. Alla porta suona <em>Lilya</em>, amica di famiglia. Si avvicina a Matthew a passi leggeri, lo guarda e gli dice allegramente: ”Ho qualcosa per te!”. Matthew, confuso, le sorride mentre la donna gli pone un pacchetto tra le mani. Il bambino lo apre, toccando un foglio interamente scritto in <a href="https://it.wikipedia.org/wiki/Braille" target="_blank" rel="noreferrer noopener">braille</a>: <strong>sono le istruzioni per costruire, da solo, le strutture Lego</strong>. Gli brillano gli occhi, tanto è felice. E vuole subito mettersi al lavoro.</p>



<h3 class="wp-block-heading">Lego for the blind</h3>



<p>La vicenda lo porta a fondare, anni dopo, &#8220;<a href="http://legofortheblind.com" target="_blank" rel="noreferrer noopener">Lego for the blind</a>&#8220;. Un&#8217;associazione, con relativo sito web, dove scaricare istruzioni come queste per una trentina di prodotti Lego. E convince la stessa azienda a inserirle nei nuovi prodotti. Ha realizzato anche un sistema per aiutare i non vedenti a scalare le rocce, davvero geniale.</p>



<p>Sicuramente un personaggio interessante; ma vi starete chiedendo perché parliamo di lui in un articolo sul cinema del futuro. Vi capisco, ero talmente preso dalla sua storia che per un attimo l&#8217;ho fatto anch&#8217;io. Poi ho ricordato dove volevo arrivare.</p>



<p>Nel suo <a href="https://sites.suffolk.edu/suffolktedx/" target="_blank" rel="noreferrer noopener"><strong>TEDx Talk</strong> alla <strong>Suffolk University</strong></a>, a partire dal minuto sei, lo spiega bene e in forma molto divertente (purtroppo è solo in inglese, ma potete usare i sottotitoli).</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="Lego for the Blind | Matthew Shifrin | TEDxSuffolkUniversity" width="678" height="381" src="https://www.youtube.com/embed/Ls6JdUdogLQ?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>
</div></figure>



<h3 class="wp-block-heading">Non vedenti al cinema del futuro</h3>



<p>Il punto è questo: <strong>se il mondo riesce ad essere immersivo per un non vedente, il cinema non potrà mai essere immersivo in maniera simile o uguale al mondo reale se non lo sarà per un non vedente</strong>. Il fatto che il cinema del futuro possa essere usufruito in maniera migliore anche da persone con disabilità, non potrà che essere un ottimo e stimolante effetto collaterale.</p>



<p>Mentre studia canto e fisarmonica al <a href="https://necmusic.edu" target="_blank" rel="noreferrer noopener">New England Conservatory</a> di Boston, continua a cercare soluzioni per rendere la vita moderna più adatta a persone come lui.</p>



<p>Nell’episodio 3 del suo podcast <a href="https://radiotopiapresents.fm/blind-guy-travels" target="_blank" rel="noreferrer noopener">Blind Guy Travels</a>, Matthew descrive le uscite al cinema con il suo amico Ben. La necessità di avere Ben per descrivergli la parte visiva di ogni singola scena, e persino così non avere un’idea completa del tutto, lo porta a creare con la sua Università un apparecchio tattile per il cinema.</p>



<p>Con il supporto dell’<em>Entrepreneurial Musicianship Department</em> del New England Conservatory, Matt e il suo socio in affari hanno sviluppato un <strong>giubbotto vibrante programmabile</strong> integrato con una tecnologia che imita le sensazioni di ribaltamento, volo e caduta. Ciò consente a un nuovo pubblico di seguire efficacemente la saga Marvel <em>Daredevil</em>, un avvocato cieco che di notte diventa supereroe.</p>



<p>Ho scritto da alcuni giorni un’email al conservatorio chiedendo maggiori dettagli su questo sistema, senza purtroppo ricevere risposta. Mi riprometto di commentare questo articolo se avrò novità in futuro, la cosa è interessante.</p>



<h2 class="wp-block-heading">Parleremo del cinema esperienziale</h2>


<div class="wp-block-image">
<figure class="alignleft size-medium"><img loading="lazy" decoding="async" width="200" height="300" src="https://www.darioriccio.com/wp-content/uploads/2022/07/pexels-cottonbro-8261572-2-200x300.jpg" alt="Ragazza al cinema con gli occhialini 3D." class="wp-image-422" srcset="https://www.darioriccio.com/wp-content/uploads/2022/07/pexels-cottonbro-8261572-2-200x300.jpg 200w, https://www.darioriccio.com/wp-content/uploads/2022/07/pexels-cottonbro-8261572-2.jpg 640w" sizes="(max-width: 200px) 100vw, 200px" /></figure></div>


<p>Ho pronta un&#8217;analisi delle caratteristiche del cinema attuale, e di come si evolvono nel cinema esperienziale. Di come quest&#8217;ultimo sia interattivo, immersivo, algoritmico e altri studi importanti ai fini della creazione del nostro cinema del futuro.</p>



<p>Ho deciso però di terminare l&#8217;articolo qui, stava diventando troppo lungo e dispersivo. Ho già copiato il testo in un nuovo post WordPress, che completerò al più presto e pubblicherò.</p>



<p>Vi rinnovo l&#8217;invito a commentare, a farmi partecipe di dubbi e critiche, e soprattutto a partecipare in questa innovazione nel caso sia di vostro gradimento. Potete anche scrivermi, il mio indirizzo è <a href="mailto:dario.riccio@gmail.com">dario.riccio@gmail.com</a>. A presto!</p>
<p>L'articolo <a href="https://www.darioriccio.com/il-cinema-immersivo-e-il-futuro/">Il cinema immersivo è il futuro</a> è apparso primo per <a href="https://www.darioriccio.com">Il Futuro del Cinema - di Dario Riccio</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.darioriccio.com/il-cinema-immersivo-e-il-futuro/feed/</wfw:commentRss>
			<slash:comments>1</slash:comments>
		
		<enclosure url="https://www.darioriccio.com/podcast-player/435/il-cinema-immersivo-e-il-futuro.mp3?_=1" length="0" type="audio/mpeg" />

			</item>
		<item>
		<title>Il futuro della tecnologia nell&#8217;arte</title>
		<link>https://www.darioriccio.com/il-futuro-della-tecnologia-nellarte/</link>
					<comments>https://www.darioriccio.com/il-futuro-della-tecnologia-nellarte/#respond</comments>
		
		<dc:creator><![CDATA[Dario Riccio]]></dc:creator>
		<pubDate>Wed, 09 Feb 2022 19:36:58 +0000</pubDate>
				<category><![CDATA[Tecnologia]]></category>
		<category><![CDATA[3d]]></category>
		<category><![CDATA[arti visive]]></category>
		<category><![CDATA[innovazione]]></category>
		<guid isPermaLink="false">https://www.darioriccio.com/?p=69</guid>

					<description><![CDATA[<p>Vengo da una mostra interattiva sul Deep Fake in ambito artistico, ospitata nei padiglioni del Politecnico di Losanna (EPFL). Questa istituzione svizzera, che nel 2019 sviluppò la tecnologia per il riconoscimento dei deepfake &#8220;umani&#8221;, è un’eccellenza a livello mondiale nel campo della scienza e tecnologia. Vuole aiutarci a comprendere il futuro della tecnologia nell&#8217;arte. Il [&#8230;]</p>
<p>L'articolo <a href="https://www.darioriccio.com/il-futuro-della-tecnologia-nellarte/">Il futuro della tecnologia nell&#8217;arte</a> è apparso primo per <a href="https://www.darioriccio.com">Il Futuro del Cinema - di Dario Riccio</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p class="wp-block-seriously-simple-podcasting-audio-player"><span>
<audio class="wp-audio-shortcode" id="audio-0-1" style="width:100%" controls><source type="audio/mpeg" src="https://www.darioriccio.com/podcast-player/207/il-futuro-della-tecnologia-nellarte.mp3?_=1"/>https://www.darioriccio.com/podcast-player/207/il-futuro-della-tecnologia-nellarte.mp3</audio></span></p>



<p>Vengo da una mostra interattiva sul Deep Fake in ambito artistico, ospitata nei <a href="https://epfl-pavilions.ch/" target="_blank" rel="noreferrer noopener">padiglioni del Politecnico di Losanna (EPFL)</a>. Questa istituzione svizzera, che <a href="https://actu.epfl.ch/news/epfl-develops-solution-for-detecting-deepfakes/" target="_blank" rel="noreferrer noopener">nel 2019 sviluppò la tecnologia per il riconoscimento dei deepfake</a> &#8220;umani&#8221;, è un’eccellenza a livello mondiale nel campo della scienza e tecnologia. Vuole aiutarci a comprendere il futuro della tecnologia nell&#8217;arte.</p>



<p>Il tema è attualissimo; il digitale permette di creare falsi artistici quasi indistinguibili dall&#8217;originale. Ma permette anche <strong>la fruizione delle opere lontano dai luoghi d’origine</strong>, per aggirare problemi politici o di sicurezza. Ed è su questo che si sono concentrati gli organizzatori, per valutare la capacità di una copia di provocare emozioni durevoli nel tempo.</p>



<h2 class="wp-block-heading" id="gli-strumenti-della-tecnologia-nell-arte">Gli strumenti della tecnologia nell&#8217;arte</h2>



<p><strong>In un’esposizione moderna l’interattività è tutto</strong>. Da anni sostengo il ”museo”, inteso come grandi stanze/parcheggio di oggetti, morto nella maggior parte dei casi. Fanno eccezione alcuni capolavori che ancora oggi attirano per la loro fama migliaia se non milioni di esperti e curiosi, ma non è la norma. In Svizzera oltre il 75% dei musei non raggiunge le 5000 presenze l’anno. Ma anche in Italia la frequentazione negli ultimi anni è aumentata (escludendo il periodo pandemia). Questo lascia immaginare che ci si sta muovendo nella giusta direzione per rimodernare il servizio offerto.</p>



<p>Gli strumenti usati per aggiungere la tecnologia nel mondo dell&#8217;arte sono soprattutto <strong>schermi touch</strong>, <strong>ologrammi</strong>, le <strong>realtà mista,</strong> <strong>aumentata </strong>e <strong>virtuale</strong>.</p>



<h3 class="wp-block-heading" id="proiezione-3d-multi-view-o-multi-spettatore">Proiezione 3D multi-view, o multi-spettatore</h3>



<div class="wp-block-image"><figure class="alignleft size-large is-resized"><img loading="lazy" decoding="async" src="https://www.darioriccio.com/wp-content/uploads/2022/02/multi-view-projection-768x1024.jpeg" alt="" class="wp-image-70" width="384" height="512" srcset="https://www.darioriccio.com/wp-content/uploads/2022/02/multi-view-projection-768x1024.jpeg 768w, https://www.darioriccio.com/wp-content/uploads/2022/02/multi-view-projection-225x300.jpeg 225w, https://www.darioriccio.com/wp-content/uploads/2022/02/multi-view-projection.jpeg 900w" sizes="(max-width: 384px) 100vw, 384px" /><figcaption>Schermo multi-view con occhiali 3D e tracking 6 DOF</figcaption></figure></div>



<p>Mea culpa, non ero a conoscenza di una tecnologia bellissima: la proiezione 3D multi-view, o multi-spettatore. Il funzionamento è semplice sulla carta, seppur tecnicamente complesso a causa dell&#8217;enorme quantità di dati da trattare. Un videoproiettore, nello specifico l’<em><a href="https://www.digitalprojection.com/emea/dp-projectors/insight-4k-hfr-360/" target="_blank" rel="noreferrer noopener">Insight 4K HFR 360</a></em> (giocattolo da oltre 300.000 dollari), proietta ben 360 fotogrammi al secondo in risoluzione 4K. Questo framerate eccezionale, abbinato ad occhiali 3D attivi (ovviamente sincronizzati con quel framerate), permette di avere la riproduzione contemporanea di 3 diversi video stereoscopici, regalando 60 fps ad ogni singolo occhio.</p>



<p>L’ho provato e, a parte <strong>la scomodità intrinseca nell’uso di occhiali attivi per un utilizzatore di occhiali “normali”</strong> come me, la visione è perfetta.</p>



<p>A migliorare ancora la situazione, il tracking <a href="https://it.wikipedia.org/wiki/6dof" target="_blank" rel="noreferrer noopener">6DOF</a> (con sei gradi di libertà, capisce dove guardiamo e dove siamo nella stanza). Sistema simile, se non uguale, a quelli usati per i visori VR HTC Vive (o i vecchi Oculus). In parole semplici, il video 3D cambia di prospettiva mentre ci muoviamo all&#8217;interno della stanza, per ottenere l&#8217;effetto di &#8220;vedere dietro&#8221; gli oggetti proiettati. Un cambio di parallasse, copiato dalla realtà virtuale. E anche qui, un bel modo di aggiungere la tecnologia nell&#8217;arte.</p>



<p>Una nota sul protagonista: la digitalizzazione con tecnica laser e scanner, dell&#8217;<a href="https://it.wikipedia.org/wiki/Abbazia_di_Monte_San_Michele" target="_blank" rel="noreferrer noopener">Abbazia di Monte San Michele</a> a <a href="https://it.wikipedia.org/wiki/Bamberga" target="_blank" rel="noreferrer noopener">Bamberga</a> (Germania). Chiusa nel 2012 per essere ristrutturata a seguito di importanti danni strutturali, è così virtualmente visitabile.</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="INSIGHT 4K HFR 360 Highlights" width="678" height="381" src="https://www.youtube.com/embed/O3X95xzFs4o?start=5&#038;feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>
</div><figcaption>Video dal sito ufficiale del produttore</figcaption></figure>



<h3 class="wp-block-heading" id="fotogrammetria-3d-automatica-con-il-cultarm3d">Fotogrammetria 3D automatica con il CultArm3D</h3>



<figure class="wp-block-video alignleft"><video controls muted src="https://www.darioriccio.com/wp-content/uploads/2022/02/cultarm3d-2.mp4"></video></figure>



<p>In un mondo sempre più automatizzato, dove degli umani si ha sempre meno bisogno (vi sembra un problema questo?), non fa neanche più effetto vedere un braccio robotico che si fotografa in lungo e in largo una maschera per ricrearla in 3D. È il <a href="https://www.cultarm3d.de/" target="_blank" rel="noreferrer noopener">CultArm3D</a>.</p>



<p>Si tratta nello specifico di una riproduzione 3D della maschera Samurai del periodo Edo. E questo è il primo scanner al mondo in grado di produrre una copia perfetta in 3D sfruttando la fotogrammetria 3D automatica. Prodotto dalla ricerca del <a href="https://www.igd.fraunhofer.de/en" target="_blank" rel="noreferrer noopener">Fraunhofer Institute for Computer Graphics</a>, di <em>Darmstadt </em>(Germania), riesce a calcolare le dimensioni dell&#8217;oggetto, a scansionarlo (persino in caso di materiali riflettenti), a ricrearlo in tempo reale a colori in 3D per poi essere usato in realtà virtuale o aumentata, o stampato.</p>



<p>La stampa 3D realistica è possibile grazie allo sviluppo della stampa 3D adattiva a colori. In questo caso specifico, sono usate le tecnologie della israeliana <a href="https://www.stratasys.com/" target="_blank" rel="noreferrer noopener">Stratasys</a>. Il tutto con un obiettivo dichiarato: mostrare opere antiche senza il rischio di rovinare gli originali.</p>



<p>Per come la vedo io, bene ma non benissimo&#8230; Manca la poesia in un oggetto del genere, e non so in quanti lo sostituirebbero al vero originale. Ciò non toglie che in casi diversi dalla stampa, una macchina del genere permette risparmi di tempo notevoli per la digitalizzazione del patrimonio culturale mondiale (e in Italia, da fare ce n&#8217;è parecchio).</p>



<h3 class="wp-block-heading" id="l-intelligenza-artificiale-ci-pone-all-erta">L&#8217;intelligenza artificiale ci pone all&#8217;erta</h3>



<figure class="wp-block-video alignright"><video controls src="https://www.darioriccio.com/wp-content/uploads/2022/02/trust_ai-1.mp4"></video></figure>



<p>Questo è ciò che per primo si immagina pensando al futuro della tecnologia nell&#8217;arte. Simpatica, e al contempo un po&#8217; terrificante, <a href="https://zkm.de/en/trust" target="_blank" rel="noreferrer noopener">Trust AI</a> ci invita a sederci dinanzi a lei, toglierci la mascherina perché possa vederci meglio e rispondere alle sue domande.</p>



<p>Il suo viso è un ologramma, ci informa dei nostri dati personali (età, sesso, colore dei capelli) e pirata progressivamente il nostro volto fino ad assumere le nostre sembianze. Nel suo discorso, dopo averci &#8220;rubato&#8221; la personalità, ci tiene a metterci all&#8217;erta riguardo i dati che condividiamo online; come questi possano essere usati per scopi poco nobili da malintenzionati.</p>



<p>L&#8217;intelligenza artificiale causa pericoli? Sicuramente si, ma non più di tante altre innovazioni tecnologiche. E installazioni artistiche come questa aiutano il pubblico a comprenderne il funzionamento, per potersene difendere meglio.</p>



<p>L&#8217;opera è stata prodotta da <a href="https://www.bernd-lintermann.de/" target="_blank" rel="noreferrer noopener">Bernd Lintermann</a> e <a href="https://www.studio-hertweck.com/" target="_blank" rel="noreferrer noopener">Florian Hertweck</a> al <a href="https://zkm.de/en/about-the-zkm/organization/hertz-lab" target="_blank" rel="noreferrer noopener">ZKM | Hertz-Lab</a>, in risposta proprio all&#8217;inquietante diffusione dei <a href="https://it.wikipedia.org/wiki/Deepfake" target="_blank" rel="noreferrer noopener">deepfakes</a>. Vi invito a leggere il <a href="https://zkm.de/en/trust" target="_blank" rel="noreferrer noopener">lungo articolo</a> (purtroppo in inglese) in cui descrivono il progetto; è decisamente interessante.</p>



<h3 class="wp-block-heading" id="la-realta-aumentata-per-visitare-monumenti-storici">La realtà aumentata per visitare monumenti storici</h3>



<div class="wp-block-image"><figure class="alignleft size-full is-resized"><img loading="lazy" decoding="async" src="https://www.darioriccio.com/wp-content/uploads/2022/02/grotta-ar1.jpg" alt="" class="wp-image-89" width="375" height="500" srcset="https://www.darioriccio.com/wp-content/uploads/2022/02/grotta-ar1.jpg 500w, https://www.darioriccio.com/wp-content/uploads/2022/02/grotta-ar1-225x300.jpg 225w" sizes="(max-width: 375px) 100vw, 375px" /></figure></div>



<p>Bello, divertente per i bambini, ma a parte questo <strong>la visita di una grotta riprodotta in 3D</strong>, visualizzata in realtà aumentata con un iPad in mano, <strong>non la reputo il miglior modo per usare la tecnologia nell&#8217;arte</strong>. Trovo sia qualcosa di inutile, un puro esercizio di stile; non me ne vogliano i creatori che anzi sono stati eccezionali.</p>



<p>Intendiamoci, stiamo parlando di una delle <a href="https://it.wikipedia.org/wiki/Grotte_di_Mogao" target="_blank" rel="noreferrer noopener">grotte di Mogao</a>, vicino la città di <a href="https://it.wikipedia.org/wiki/Dunhuang" target="_blank" rel="noreferrer noopener">Dunhaung </a>(Cina) risalente alla <a href="https://it.wikipedia.org/wiki/Dinastia_Tang" target="_blank" rel="noreferrer noopener">dinastia Tang</a>. Pertanto, qualcosa di molto antico messo in pericolo dall&#8217;eccesso di turismo. Ben vengano le rappresentazioni digitali, ma questo è al 100% il campo della realtà virtuale: uno sconfinamento dell&#8217;AR, non produce gli stessi risultati.</p>



<div class="wp-block-image"><figure class="alignright size-full is-resized"><img loading="lazy" decoding="async" src="https://www.darioriccio.com/wp-content/uploads/2022/02/grotta-ar2.jpg" alt="" class="wp-image-90" width="250" height="334" srcset="https://www.darioriccio.com/wp-content/uploads/2022/02/grotta-ar2.jpg 500w, https://www.darioriccio.com/wp-content/uploads/2022/02/grotta-ar2-225x300.jpg 225w" sizes="(max-width: 250px) 100vw, 250px" /></figure></div>



<p>Tenere il grosso tablet in mano è scomodo, per iniziare. E dal momento che è tutto ricostruito in 3D, perché non approfittare della VR per sembrare di ritrovarsi davvero lì, e non a camminare in un cubo nero con delle trame bianche disegnate sul muro?</p>



<p>La realtà aumentata può davvero fare tanto per migliorare la qualità di una visita turistica, ma nel vero luogo. Ci si può far aiutare da un iPad per riprodurre scene di vita del passato, leggende, video descrittivi di un particolare punto&#8230; Ma <strong>una mera visita virtuale, facciamola nel modo giusto</strong>.</p>



<h3 class="wp-block-heading" id="realta-aumentata-che-ci-fa-riflettere">Realtà aumentata che ci fa riflettere</h3>



<p>Appena entrati nell&#8217;esibizione, due opere destano curiosità. Il &#8220;Reclining Pan&#8221; di cui parleremo tra poco, e un piedistallo bianco isolato. Questo è la base per &#8220;<a href="https://www.jeffreyshawcompendium.com/portfolio/golden-calf/" target="_blank" rel="noreferrer noopener">The Golden Calf</a>&#8220;, il <em>vitello d&#8217;oro</em>, di <strong>Jeffrey Shaw</strong>. Un vitello che prende forma solo puntando l&#8217;oggetto con un iPad che, grazie alla realtà aumentata, lo riproduce.</p>



<div class="wp-block-image"><figure class="alignright size-large is-resized"><img loading="lazy" decoding="async" src="https://www.darioriccio.com/wp-content/uploads/2022/02/golden-calf-1024x768.jpg" alt="" class="wp-image-101" width="384" height="288" srcset="https://www.darioriccio.com/wp-content/uploads/2022/02/golden-calf-1024x768.jpg 1024w, https://www.darioriccio.com/wp-content/uploads/2022/02/golden-calf-300x225.jpg 300w, https://www.darioriccio.com/wp-content/uploads/2022/02/golden-calf-768x576.jpg 768w, https://www.darioriccio.com/wp-content/uploads/2022/02/golden-calf.jpg 1200w" sizes="(max-width: 384px) 100vw, 384px" /><figcaption>Immagine dal sito dell&#8217;EPFL</figcaption></figure></div>



<p>L&#8217;importanza di The Golden Calf è ben chiara pensando all&#8217;anno di produzione: 1994. Shaw è stato un vero pioniere nel mondo della realtà aumentata, e ovviamente nella sua forma originale non c&#8217;era un iPad ma uno schermo dotato di motion tracking magnetico <em><a href="https://polhemus.com/" target="_blank" rel="noreferrer noopener">Polhemus</a></em>, tra le pochissime aziende ad offrire questa tecnologia sul finire dello scorso secolo.</p>



<p>L&#8217;effetto più interessante sono le riflessioni sul vitello. Quattro telecamere poste ai lati del piedistallo, riproducono la nostra immagine sul soggetto a dargli quel tocco di realismo in più. E a rendere l&#8217;opera sempre diversa, a voler rendere lo spettatore stesso un co-autore. E il vitello, sfuggente, è oggetto dei nostri desideri.</p>



<h3 class="wp-block-heading" id="stampa-3d-per-la-salvaguardia-della-scultura">Stampa 3D per la salvaguardia della scultura</h3>



<div class="wp-block-image"><figure class="alignleft size-full is-resized"><img loading="lazy" decoding="async" src="https://www.darioriccio.com/wp-content/uploads/2022/02/reclining-pan.jpg" alt="" class="wp-image-102" width="350" height="272" srcset="https://www.darioriccio.com/wp-content/uploads/2022/02/reclining-pan.jpg 700w, https://www.darioriccio.com/wp-content/uploads/2022/02/reclining-pan-300x233.jpg 300w" sizes="(max-width: 350px) 100vw, 350px" /><figcaption>Immagine dal sito dell&#8217;artista</figcaption></figure></div>



<p>Il &#8220;Reclining Pan&#8221; (Pan sdraiato), è la copia moderna di una copia antica. L&#8217;opera originale è attribuita allo scultore fiorentino Francesco Da Sangallo, realizzata intorno al 1535. A sua volta, si trattò di una copia di cui però l&#8217;originale è andato perduto.</p>



<p>L&#8217;artista contemporaneo <a href="http://oliverlaric.com/" target="_blank" rel="noreferrer noopener"><strong>Oliver Laric</strong></a> ne ha realizzato una scansione in 3D (che potete scaricare gratis da <a href="https://threedscans.com/saint-louis-art-museum/reclining-pan/" target="_blank" rel="noreferrer noopener">Three D Scans</a>), stampandola poi in tanti materiali diversi. Ne viene un&#8217;opera nuova, moderna, e provocatoria. Rimette in discussione la veridicità del post-originale nell&#8217;era moderna, rifiutando il postulato della singolarità dell&#8217;arte e della sua proprietà privata.</p>



<p><em>Laric</em>, per la sua opera divulgativa, ha messo molte opere scansionate in 3D a disposizione, gratuitamente, di chiunque voglia scaricarle dal sito <a href="https://threedscans.com/" target="_blank" rel="noreferrer noopener">Three D Scans</a>.</p>



<h2 class="wp-block-heading" id="nuove-strade-per-il-futuro-della-tecnologia-nell-arte">Nuove strade per il futuro della tecnologia nell&#8217;arte</h2>



<p>Non ho descritto qui tutte le opere, che erano oltre 20. Ho voluto parlare di quelle che più di tutte fanno riflettere sui cambiamenti che la tecnologia sta portando nel mondo dell&#8217;arte. Oltre a queste, è da citare anche la blockchain che in questa sede era rappresentata dall&#8217;opera multimediale &#8220;<a href="http://www.ricegallery.org/eve-sussman" target="_blank" rel="noreferrer noopener">89 secondi a Alcázar</a>&#8220;, di <a href="https://it.frwiki.wiki/wiki/Eve_Sussman" target="_blank" rel="noreferrer noopener">Eve Sussman</a>. Video i cui diritti sono stati divisi in 2.304 &#8220;atomi&#8221; di 20&#215;20 pixel, e venduti tramite blockchain. E la cui riproduzione all&#8217;EPFL era piena di buchi, in quanto alcuni proprietari di atomi non hanno acconsentito alla pubblica visualizzazione gratuita.</p>



<p>Un futuro luminoso, in cui il pubblico dominio sarà sempre più importante. Ma allo stesso tempo, un futuro in cui gli artisti avranno sempre più modi per vivere delle loro creazioni, per diffonderle al mondo intero.</p>



<p>In cui sarà più semplice realizzare mostre d&#8217;arte tematiche, anche in piccole realtà, senza gli enormi costi per il trasporto di opere di grande valore.</p>



<p>In cui gli spettatori, potranno ammirare e studiare le opere d&#8217;arte di tutto il mondo, e di tutte le epoche, senza la necessità di fare migliaia di chilometri. Che, per carità, è bello. Ma a volte, e per alcuni, impossibile.</p>
<p>L'articolo <a href="https://www.darioriccio.com/il-futuro-della-tecnologia-nellarte/">Il futuro della tecnologia nell&#8217;arte</a> è apparso primo per <a href="https://www.darioriccio.com">Il Futuro del Cinema - di Dario Riccio</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.darioriccio.com/il-futuro-della-tecnologia-nellarte/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		<enclosure url="https://www.darioriccio.com/wp-content/uploads/2022/02/cultarm3d-2.mp4" length="0" type="video/mp4" />
<enclosure url="https://www.darioriccio.com/wp-content/uploads/2022/02/trust_ai-1.mp4" length="0" type="video/mp4" />
<enclosure url="https://www.darioriccio.com/podcast-player/207/il-futuro-della-tecnologia-nellarte.mp3?_=1" length="0" type="audio/mpeg" />

			</item>
	</channel>
</rss>
