In iOS 13 , Apple introduce il supporto multi-cam che consente alle app di acquisire contemporaneamente foto, video, audio, metadati e profondità da più microfoni e videocamere su un singolo iPhone o iPad.
Apple ha da tempo supportato l'acquisizione di più telecamere su macOS da OS X Lion, ma fino ad ora, le limitazioni dell'hardware impedivano di implementare API per iPhone e iPad.
La nuova funzionalità e le nuove API di iOS 13 consentiranno agli sviluppatori di offrire app che trasmettono video, foto o audio, ad esempio, dalla fotocamera frontale e dalle fotocamere posteriori contemporaneamente.
Supporto iOS 13 multi-cam con AVCapture
Durante la presentazione della nuova funzione durante il WWDC, Apple ha presentato un'app per la registrazione di immagini picture-in-picture che registrava l'utente dalla fotocamera frontale mentre registrava simultaneamente dalla fotocamera principale.
L'app demo ha anche abilitato la registrazione del video e la possibilità di scambiare le due videocamere al volo durante la riproduzione nell'app Foto. La funzione consentirà inoltre agli sviluppatori di controllare le doppie videocamere TrueDepth, inclusi i flussi separati delle fotocamere Back Wide o Back Telephoto, se lo desiderano.
La nuova funzione multi-cam sarà supportata in iOS 13 per hardware più recente, inclusi solo l'iPhone XS, XS Max, XR e iPad Pro.
Apple ha elencato una serie di formati supportati per la cattura multi-cam (nella foto sopra), che gli sviluppatori noteranno impone alcune limitazioni artificiali rispetto alle normali capacità della fotocamera.
A causa dei limiti di alimentazione dei dispositivi mobili, diversamente da Mac, iPhone e iPad saranno limitati a una singola sessione di multi-cam, il che significa che non è possibile eseguire più sessioni contemporaneamente con più telecamere o più telecamere in più app. Ci saranno anche varie combinazioni di dispositivi supportati che stabiliscono quale combinazione di acquisizione da quali telecamere sono supportate su determinati dispositivi.
Non sembra che Apple stessa stia utilizzando nuove funzionalità multi-cam nell'app Fotocamera per iOS 13, ma immaginiamo che sia qualcosa all'orizzonte ora che stia ufficialmente distribuendo il supporto in AVCapture.
Segmentazione semantica
Anche nuovo per l'acquisizione della videocamera su iOS 13 è Semantic Segmentation Mattes. In iOS 12, Apple ha utilizzato qualcosa che chiama Portrait Effects Matte internamente per le foto in modalità verticale per separare il soggetto dallo sfondo. In iOS 13, Apple sta introducendo ciò che chiama Semantic Segmentation Mattes per identificare pelle, capelli e denti e migliorare ulteriormente queste mappe con un'API da cui gli sviluppatori possono attingere.
Nella sua sessione WWDC, Apple ha mostrato la nuova tecnologia con un'app demo che ha permesso di separare il soggetto nella foto dallo sfondo e i capelli, la pelle ei denti da aggiungere per aggiungere facilmente effetti come la vernice del viso e i cambiamenti dei colori dei capelli ( nella foto sopra).
Gli sviluppatori possono apprendere di più sul supporto multi-cam e sulle mascherine di segmentazione semantica sul sito Web di Apple, dove ha anche un codice di esempio per le app demo.