Goodnews.ua


Как искусственный интеллект изменил мобильную фотографию

Февраль 03
10:03 2019

Можно смотреть на развитие технологий как со стороны «железок», так и со стороны софта. Думаем, что «железо» важнее ПО? Но это заблуждение. Без качественного софта аппаратное обеспечение становится бесполезным. Это касается не только процессоров, но и камер. Хороший модуль — это не залог качественных фотографий. Технически смартфоны ограничены в размерах, поэтому сегодня важен именно софт, отвечающий за обработку фотографий, а под софтом стоит понимать в том числе искусственный интеллект.

Идеально, когда софт улучшают совместно железом. Примером такого взаимодействия является технология компании Light. С помощью софта и множества камер, которые расположены под разным углом и имеют различное фокусное расстояние и другие характеристики, происходит магия. За этим определенно будущее, но пока мы остановимся лишь на софте.

Google Фото — это хороший пример работы AI. Google в 2013 году купила компанию DNNresearch, совместно с которой ей удалось натренировать нейросеть на основе изображении, вручную проанализированных обычными людьми. Например, перед нами фото озера, человек отмечает, что на фото озеро. В дальнейшем это фото пропускают через нейросеть, которая понимает, что перед ней озеро с помощью маркера и запоминает, как выглядит фотография.

Таким образом ребята обучили нейросеть, которая в облаке анализирует фотографии Google Фото и разбивает их на категории. Кроме того, за счёт постоянного распознавания нейросеть становится умнее, увеличивается точность, поэтому со временем стало возможной разбивка не по конкретным животным, например, а по типам объектов: «животные», «обед» и так далее.

Спустя год Apple выпустила аналогичное решение, но так как компания беспокоится о приватности, все фотографии анализирует не облачный сервис, а сам смартфон пользователя, который в течение дня производит разбивку на категории. И это лишь часть применения нейросети. Например, её применяют при создании эффекта размытия. Сначала нейросеть определяет объект в кадре, затем вторая камера создаёт карту глубины. Интересно это потому, что процесс распознавания человека в кадре происходит в реальном времени.

Но главным примером работы нейросети можно назвать различные режимы HDR. В случае с Google речь идёт об HDR+. Например, вот так фотографирует уже старый Google Pixel 2 XL благодаря нейросети (исходники):

1googlepixel2.@750.jpg (89 KB)

2googlepixel0.@750.jpg (95 KB)

3piixel3.@750.jpg (95 KB)

4piixel4.@750.jpg (83 KB)

Но еще более показательным является режим Night Sight на основе ИИ. Он анализирует фото и изменяет баланс белого и цвета, чтобы на выходе получился отличный результат. В последнее время компании стали использовать специальные процессоры, адаптированные под ИИ. В Apple A12 Bionic ИИ чип на 8 ядер! Неплохой рывок в этой области получился у Snapdragon 855, процессор в синтетических ИИ тестах сумел значительно обойти Snapdragon 845 и Kirin 980.

Вывод

Роль софта и ИИ растёт, а качество модуля камеры больше не так важно. Благодаря постоянному улучшению алгоритмов режимы на основе ИИ фотографируют всё лучше и лучше, поэтому в дальнейшем влияние софта в области камер будет лишь увеличиваться.

Источник: androidinsider.ru

Share

Статьи по теме







0 Комментариев

Хотите быть первым?

Еще никто не комментировал данный материал.

Написать комментарий

Комментировать

Залишаючи свій коментар, пам'ятайте, що зміст та тональність вашого повідомлення можуть зачіпати почуття реальних людей, що безпосередньо чи опосередковано пов'язані із цією новиною. Виявляйте повагу та толерантність до своїх співрозмовників. Користувачі, які систематично порушують це правило, будуть заблоковані.

Website Protected by Spam Master


Останні новини

Ливерпуль спокойно разгромил Тоттенхэм, став вторым финалистом Кубка Лиги

Читать всю статью

Ми у соцмережах




Наші партнёри

UA.TODAY - Украина Сегодня UA.TODAY
Goodnews.ua