login LOGIN
CHIUDI chiudi
Il mio profilo

mostra
Hai dimenticato la password?
Inserisci l'indirizzo email di registrazione per reimpostare la password.
Segui le istruzioni che ti abbiamo inviato per posta elettronica.

Fotografia computazionale: cos’è e come funziona

Se hai scattato dallo smartphone almeno una foto di notte o in modalità HDR, hai utilizzato la fotografia computazionale senza saperlo: ecco cos’è e come funziona

fotografia computazionale

Negli ultimi anni la fotografia computazionale ha abbandonato gli studi di post-produzione dei fotografi per arrivare direttamente negli smartphone che si utilizzano ogni giorno. Chiunque abbia scattato una foto di notte, utilizzato la modalità HDR, il filtro Bokeh o lo stabilizzatore, ha sfruttato la fotografia computazionale anche senza saperlo. Ciò che la contraddistingue da quella “tradizionale”, dunque, è il ricorso a un software di elaborazione grafica digitale che supera i limiti della macchina fotografica. Le potenzialità di questo tipo di tecnica sono note da tempo, ma solo con l’intensificazione dell’uso delle fotocamere degli smartphone, piuttosto che di macchine fotografiche professionali, il suo utilizzo si è diffuso anche nella quotidianità: dai semplici selfie agli scatti panoramici mozzafiato. Conoscerne il funzionamento diventa quindi fondamentale per ottenere i migliori scatti possibili dal proprio telefono.

Cos’è la fotografia computazionale

fotografia computazionaleLa definizione più generica di fotografia computazionale indica gli scatti che si ottengono quando una macchina fotografica utilizza dei software di elaborazionegrafica per superare i limiti del proprio hardware. In passato, questa espressione indicava la post-produzione della foto, cioè l’utilizzo di uno specifico software e un computer per elaborare lo scatto e ottenere il risultato desiderato.

L’hardware da superare nel caso dei telefoni è quello di sensore e obiettivo, mentre l’intelligenza artificiale applicata alle fotocamere permette di ottenere foto stupende grazie alla potenza dell’elaborazione grafica dei sofisticati software. Nel caso delle fotocamere degli smartphone, la promessa della fotografia computazionale risiede tutta nella possibilità di eseguire l’editing dello scatto istantaneamente. L’intelligenza artificiale associata alla fotocamera del telefono riduce il rumore, sfrutta al meglio la luce e restituisce in tempo reale uno scatto dove l’editing automatico è stato già applicato per ottenere il miglior risultato possibile.

Ad esempio, alcuni produttori come Apple e Google continuano a migliorare le qualità delle foto scattate dai loro dispositivi senza cambiare in modo drastico i sensori, ma solo affinando i programmi di elaborazione grafica ad essi associati. Può accadere così che foto realizzare con un sensore principale di 48 megapixel siano più luminose e nitide di quelle realizzate con un sensore da 64 megapixel: la differenza sarà proprio nel programma di elaborazione utilizzato.

Come funziona la fotografia computazionale

fotografia computazionaleLe fasi dello scatto di una foto digitale sono sostanzialmente due: l’acquisizione dell’immagine, che è una componente fisica che dipende dall’hardware usato, e l’elaborazione grafica, che dipenderà dal tipo di software a disposizione. Durante la fase fisica, il sensore e l’obiettivo della fotocamera raccolgono la luce, registrando l’immagine grezza la cui qualità dipende da fattori come le dimensioni del sensore, la velocità dell’otturatore e ancora la lunghezza focale.

La seconda fase, invece, è quella che riguarda l’elaborazione grafica istantanea da parte del software associato all’hardware. Si tratta di programmi che sfruttano diverse tecniche che cambiano da produttore a produttore, ma soprattutto oggi si basano sempre più sull’utilizzo di una intelligenza artificiale, che consente di creare scatti suggestivi. Questa seconda fase è particolarmente importante per gli smartphone, dove i limiti della fotocamera sono evidenti e collegati all’impossibilità di inserire all’interno della scocca del telefono i sensori o gli obiettivi più grandi e performanti.

Fotografia computazionale: le principali tecniche

fotografia computazionaleLe tecniche utilizzate per ottenere le foto migliori sono molte, diverse e differenti tra loro. Nel caso dei telefoni, una di quelle più comunemente utilizzata è lo stacking: un processo in cui la fotocamera scatta più foto una dopo l’altra con diverse condizioni di esposizione o messa a fuoco per poi combinarle grazie a un software e conservare i migliori dettagli di tutta la pila di scatti eseguiti. Proprio su questa tecnica, ad esempio, si basa la modalità HDR, acronimo per High Dynamic Range, che data una sequenza di scatti, seleziona automaticamente le ombre più scure e le zone più luminose per creare una foto che sia più nitida e luminosa.

L’altra tecnica principale, usata soprattutto per sensori degli smartphone con un alto valore di megapixel, è il pixel binning. A differenza dell’HDR, che si basa sulla combinazione non delle luci e ombre, questa tecnica sfrutta i singoli pixel adiacenti nell’immagine, consentendo così di ottenere uno scatto ad altissima risoluzione. L’impiego di reti neurali e intelligenze artificiali rende queste tecniche ancora più raffinate, con avanzati software in grado non solo di aggiustare la luce ma anche di “capire” quale sia l’immagine più piacevole all’occhio umano.

Fotografia computazionale: le modalità

fotografia computazionaleA questo punto è abbastanza chiaro che chiunque negli ultimi tempi abbia scattato una foto con il proprio telefono si sia avvalso della fotografia computazionale. In particolare, questa viene applicata quando si utilizzano alcune modalità della fotocamera che consentono di impostare alcune condizioni particolari. Tra queste la modalità notturna, che consente di scattare foto luminose e nitide anche in condizioni di scarsa illuminazione proprio sfruttando la tecnica dell’HDR. In questo modo, le foto di notte saranno il frutto della combinazione di tutti gli scatti fino a ottenere quello con la migliore esposizione. Una variazione della modalità notturna è l’astrofotografia, che permette di ottenere immagini dettagliate del cielo notturno, con stelle e corpi celesti.

La modalità ritratto invece è caratterizzata da un effetto che sfoca lo sfondo dietro al soggetto. La modalità Panorama, invece, consente di comporre le immagini una accanto all’altra. La Deep Fusion invece è una funzione introdotta da Apple con il suo iPhone 11 Pro, che sfrutta la rete neurale per ridurre il rumore e migliorarne la nitidezza. La funzione modalità di colore consente di impostare automaticamente il tono di colore di qualsiasi foto scattata.

Se le tecniche da utilizzare sono piuttosto comuni a tutti gli smartphone, le modalità appena descritte possono cambiare a seconda del produttore del dispositivo. Ad esempio, i Google Pixel hanno delle ottime fotocamere, con sensori discreti in termini di megapixel, ma possono contare su un raffinato software per avere scatti perfetti, così come anche gli iPhone di Apple. Conoscendo però le caratteristiche delle fotocamere e la potenza dei software di elaborazioni a esse associate, l’utente potrà orientare al meglio la scelta nel dispositivo da acquistare o utilizzare.

A cura di Cultur-e
Addestramento IA non consentito: É assolutamente vietato l’utilizzo del contenuto di questa pubblicazione, in qualsiasi forma o modalità, per addestrare sistemi e piattaforme di intelligenza artificiale generativa. I contenuti sono coperti da copyright.
Fda
Prompt engineering
Immagine principale del blocco
Prompt engineering
Fda gratis svg
Come interrogare le intelligenze artificiali
Iscriviti al corso gratuito

Iscriviti
all'area personale

Per ricevere Newsletter, scaricare eBook, creare playlist vocali e accedere ai corsi della Fastweb Digital Academy a te dedicati.