Xiaomi annuncia l’algoritmo DeepExposure AI per migliorare l’esposizione nelle foto

Da Lorenzo Spada

Se in passato la maggior parte del merito per dei comparti fotografici di qualità elevata veniva data ai sensori e agli obiettivi, da qualche tempo sta assumendo sempre più importanza il chip ISP (Image Signal Processor) e gli algoritmi AI di elaborazione. Questo ha fatto nascere il termine “fotografia computazionale“. A questo proposito, vi segnaliamo che Xiaomi ha appena annunciato il nuovo algoritmo DeepExposure AI.

La maggior parte delle fotocamere sugli smartphone ha il problema di scartare le foto se la luce è più luminosa o è troppo scura. Difficilmente, tranne alcuni produttori, riescono a utilizzare anche tali foto per creare dei “collage” prendendo il meglio da ogni scatto e combinandolo in una sola foto.

Xiaomi e il suo nuovo algoritmo DeepExposure AI aiuta a bilanciare le foto con luci e dettagli accurati. Xiaomi ha utilizzato l’intelligenza artificiale per risolvere questo problema con foto sovraesposte o sottoesposte. La DeepExposure bilancia l’esposizione dividendo la foto in sottoframe e quindi il valore di esposizione di ciascun frammento viene regolato separatamente. Infine, diverse parti vengono unite per formare l’immagine finale.

Dal punto di vista tecnico, Xiaomi ha utilizzato il framework TensorFlow sviluppato da Google (ma reso open source), una serie di GPU Nvidia P40 Tesla e un set di immagini MIT-Adobe FiveK per la creazione dell’algoritmo.

Potete dare un’occhiata al processo generale nell’immagine qui sotto.

L’esposizione accurata è la chiave per catturare foto di alta qualità nella fotografia computazionale, in particolare per i telefoni cellulari che sono limitati dalle dimensioni dei moduli della fotocamera“, hanno scritto i ricercatori. “Ispirato alle maschere di luminosità solitamente applicate dai fotografi professionisti, abbiamo sviluppato un nuovo algoritmo per l’apprendimento delle esposizioni locali con un sistema adversariale di rinforzo profondo.”

Il nuovo algoritmo divide l’intero processo in una segmentazione dell’immagine e in una fase di “generazione di azioni”. Dopo la segmentazione, la seconda parte inizia con input sub-immagini a bassa risoluzione e infine avviene la fusione diretta dell’immagine. Tutte le foto vengono elaborate con le esposizioni locali e globali.

TAG:
Condividi questo articolo
Lascia un commento

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Exit mobile version