Postproduzione ed intelligenza artificiale, cosa ci riserva il futuro?

La post produzione digitale, elemento essenziale nella vita di ogni fotografo evoluto, spesso può riservare processi noiosi o ripetitivi, fondamentali per il corretto sviluppo dello scatto, ma non sempre accolti con entusiasmo, cosa che spiega la maggior parte delle volte in cui sentiamo, da noi stessi o dai nostri amici fotografi, frasi del tipo “devo ancora postprodurre le foto delle vacanze dell’anno scorso“.

Grazie ai progressi dell’intelligenza artificiale, che renderà i compiti precedentemente noiosi molto più efficienti, questo problema potrebbe essere superato in un prossimo futuro. Ma c’è di più: gli stessi strumenti di intelligenza artificiale che appianano le asperità del flusso di lavoro e aggiungono nuove capacità innovative agli strumenti di editing, potenzialmente, ridurranno anche il divario tra fotografi e redattori esperti e non esperti, e creeranno strumenti che i clienti commerciali potrebbero utilizzare per aggirare completamente i fotografi umani e i ritoccatori.

Adobe, azienda che utilizza l’apprendimento automatico e le reti neurali per affrontare i punti critici della post-produzione, come l’etichettatura delle foto in Lightroom o la selezione dettagliata degli oggetti in Photoshop, sostiene che l’idea non è quella di usare la tecnologia per cannibalizzare il processo decisionale creativo, ma di abbassare la curva di apprendimento in programmi come Photoshop e rendere i suoi strumenti più potenti.

Ad esempio prendiamo “Best Photo” – una funzione che Adobe sta testando come “Anteprima Tecnica” per Lightroom CC. Best Photo sfoglia le immagini per selezionare le migliori, in modo da non dover passare del tempo a interpretare o classificare in altro modo le foto, ed è stata addestrata per identificare le immagini utilizzando una combinazione di “variabili intrinseche e soggettive”. Le proprietà intrinseche possono includere se un’immagine è a fuoco o meno, se è esposta correttamente e se una foto è di una persona. I criteri soggettivi si concentrano sul fatto che un essere umano possa trovare l’immagine esteticamente piacevole, cosa che Adobe ha imparato addestrando il suo algoritmo su enormi database di immagini.

Ci sono molte altre aree di editing delle immagini che sono particolarmente mature per le correzioni basate sull’IA. La riduzione del rumore, l’ingrandimento delle immagini a bassa risoluzione e la rimozione della nebbia atmosferica sono solo alcuni esempi. Nessuno di questi strumenti è nuovo, ma hanno tutti una cosa in comune: prendono i pixel “cattivi”  e li sostituiscono con altri migliori. E le reti neurali usate per costruire modelli di software si sono dimostrate particolarmente abili in questa sfida.

La riduzione del rumore è un buon esempio dell’uso delle reti neurali. Le tecniche tradizionali di riduzione del rumore sono costruite su una serie di presupposti, codificati in complesse formule matematiche, che guidano le decisioni di un programma su quali pixel rimuovere e cosa mettere al loro posto. Come i ricercatori hanno iniziato a sperimentare con le reti neurali, queste hanno scoperto nuove ipotesi che i ricercatori umani non avevano trovato. Le reti neurali imparano ciò che può essere stato nascosto e si sono dimostrate particolarmente forti in aree che implicano l’aggiunta di informazioni nelle immagini in modo realistico.

L’upscaling delle foto a bassa risoluzione è un’altra promettente area di fotoritocco, con software che possono prendere un’immagine e aumentare la sua risoluzione del 3600 per cento. Una foto 10 x 15 cm a 300 DPI diventa ora una foto 30 x 45 cm a 300 DPI. Le immagini potenzialmente non stampabili possono improvvisamente essere stampate in grandi formati.

Oltre a facilitare l’eliminazione più rapida delle immagini, l’immediato futuro potrebbe vedere strumenti di selezione ancora più sofisticati, quelle che vengono chiamate “selezioni contestuali di oggetti”. Un software più intelligente saprà se un dato oggetto in una foto è una persona o meno e presenterà gli strumenti appropriati per manipolare l’oggetto nella foto. Si può interagire con le cose a livello di oggetto piuttosto che a livello di strumento. Anche le correzioni con un solo clic, come il tono automatico di Lightroom, sono in crescita.

Un’altra area promettente è l’utilizzo di algoritmi per aggiungere alle immagini oggetti che non c’erano originariamente. NVIDIA, produttore di unità di elaborazione grafica, ha dimostrato che le reti neurali possono essere utilizzate per trasferire diversi stili di pittura alle foto – e una società di software ha già prodotto un editor video in grado di applicare gli stili visivi di diversi artisti al video. In futuro, il software addestrato sia sugli stili pittorici che fotografici sarà in grado di applicare istantaneamente questi stili alle immagini con la stessa facilità di qualsiasi altro filtro fotografico o preset.

La maggior parte delle innovazioni dei software abilitati per l’IA stanno semplicemente aumentando ciò che gli esseri umani già fanno. Nel lungo termine, si prevede che il futuro vedrà probabilmente un software che aggira del tutto il lavoro umano, l’IA sarà in grado di generare immagini foto-realistiche basate su descrizioni delle strutture, quando questo succederà, cambierà l’intera industria fotografica.

La sfida per i fotografi che navigano in un mondo di software più potente è quella di mantenere l’elemento umano della creatività e della novità. Dopo tutto, le reti neurali sono costruite a partire da immagini esistenti. “Può essere possibile, alla fine, realizzare software veramente creativo, ma non oggi e non nel prossimo futuro”, afferma Alex Savsunenko di Skylum. “Queste reti neurali stanno fingendo la creatività. La vera creatività viene dalle esperienze di vita e le nostre attuali reti neurali sono piccole rispetto ai cervelli umani”.

 

Rispondi

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.