Apple ha spiegato com’è nata e come funziona la modalità cinematografica degli iPhone 13
Gli iPhone 13 presentati settimana scorsa all'Apple Park di Cupertino (e nei negozi a partire da domani) sono esteticamente e funzionalmente molto simili ai predecessori, ma per quel che riguarda il comparto fotografico portano in dote novità significative. L'aspetto più interessante è rappresentato da quella che Apple ha battezzato modalità cinematografica, una sorta di modalità ritratto applicata ai video in modo intelligente, che può mantenere a fuoco personaggi in primo piano o sullo sfondo applicando invece un effetto bokeh all'area circostante. Il tutto funziona grazie a sofisticati algoritmi di intelligenza artificiale e sortisce un effetto che alcuni recensori stanno trovando molto interessante. La genesi e il funzionamento della nuova funzionalità li hanno spiegati il responsabile marketing Kaiann Drance e il designer Johnnie Manzari durante a una intervista a TechCrunch.
Le difficoltà degli sviluppatori
Nonostante le somiglianze, la modalità cinematografica di iPhone 13 non è stata semplice da realizzare come la modalità Ritratto presente sugli altri dispositivi per le fotografie. "A differenza delle foto, i video sono fatti per rappresentare un punto di vista in movimento, e questo può comprendere anche movimenti della mano involontari", ha raccontato Drance. "Questi aspetti ci hanno costretto a lavorare per catturare informazioni ancora più dettagliate sulla profondità della scena, e far sì che funzionasse con esseri umani, animali e oggetti. Non solo: tutto questo deve avvenire per ogni fotogramma di ciò che viene catturato: applicare questo effetto in tempo reale è un carico di lavoro molto pesante".
A occuparsi del lavoro è il processore A15 Bionic, uno di quegli avanzamenti tecnologici che nel normale utilizzo di uno smartphone nel 2021 possono sembrare ormai superflui ma che in casi come questo fanno la differenza. Nella modalità cinematografica il processore si occupa di riconoscere gli oggetti e seguirli nella scena, di mantenerli a fuoco, di spostare la messa a fuoco da un soggetto a un altro in modo fluido e coerente, di stabilizzare l'immagine ripresa, di applicare l'effetto sfocato e di mantenere a disposizione opzioni per la modifica del girato dopo l'interruzione della registrazione.
Com'è nata la modalità cinematografica di iPhone 13
La nascita della nuova funzione è dipesa invece da un lavoro di ricerca di tipo diverso. Gli sviluppatori si sono chiesti quale fosse un aspetto chiave del linguaggio cinematografico ancora sottoesplorato, e come risposta si sono concentrati sulla profondità di campo, sulla messa a fuoco degli elementi nella scena. Manzari ha raccontato di come gli sviluppatori abbiano parlato con registi ed esperti del settore sull'utilizzo che fanno della profondità di campo – di quale sia il ruolo di questo elemento nel racconto di una storia: "Ne siamo usciti con una indicazione di massima che è anche una nozione chiave nel settore, ovvero che occorre direzionare l'attenzione dello spettatore".
"Il problema – ha aggiunto Manzari – è che ancora oggi si tratta di qualcosa che solo i professionisti sono in grado di fare. Un solo errore di pochi centimetri nella messa a fuoco, restituisce un risultato da buttare; senza contare le riprese in cui il soggetto o la videocamera sono in movimento, o in cui il punto di messa a fuoco va cambiato progressivamente. È qui che Apple ha visto un'opportunità: automatizzare il processo per rendere semplice qualcosa di naturalmente complesso".
I giudizi sulla nuova modalità di ripresa stanno emergendo in queste ore, dal momento che il telefono per il momento è solo nelle mani dei recensori. La platea per il momento è divisa sul fatto che possa rivelarsi un valido aiuto per i professionisti del settore, ma una cosa è sicura: con la sua semplicità può rappresetare uno strumento capace di liberare la creatività di chi realizza video in formato amatoriale o semi-professionale.