Firma Apple udostępniła w publicznej wersji beta iOS 13.2 technologię przetwarzania obrazu Deep Fusion, która wykorzystuje algorytmy sztucznej inteligencji w celu poprawy jakości zrobionych zdjęć. Nowa funkcja jest dostępna do testowania na iPhone 11 i 11 Pro.

Deep Fusion wykorzystuje zaawansowaną technologię uczenia maszynowego do obróbki zrobionego zdjęcia, aby zoptymalizować tekstury, szczegółowość i poziom szumu na zdjęciu. Telefon z tą funkcją robi dziewięć zdjęć z różnymi opóźnieniami, wybiera najlepsze fragmenty i łączy je w jeden obraz z udziałem algorytmów uczenia maszynowego.

Deep Fusion działa w oparciu o system Neural Engine procesora A13 Bionic. Jak wcześniej powiedział szef marketingu Apple Phil Schiller – „nowy procesor obrazu iPhone 11 i działające z nim oprogramowanie dają niesamowite efekty w dziedzinie fotografii cyfrowej„.

Deep Fusion jest domyślnie włączony  w wersji beta iOS 13.2. Jednak wskazówek że jest ona aktywna, nie można znaleźć ani w ustawieniach aparatu, ani w danych w EXIF obrazu. Różnice można dostrzec później — na podstawie porównania zdjęć wykonanych z aktywnym Deep Fusion i bez udziału zaawansowanej technologii.