Года три назад баловался подобными программами на телефоне, но получалось всё так себе. Надо будет опять попробовать, и сразу же вопрос - какими программами нынче это модно делать?
там модель получается из огромного числа мусорных точек, текстура как панорама - генерится и накладывается на нее. Получается такой неудобоваримый кал что некуда деть потом
В том то и прикол. Если оно "Было в 2018 году еще", то где оно сейчас? Нынче мало изобрести, надо грамотно подать и представить "юз кейсы". Плюс сопутствующие технологии.
Я разраб, ща все объясню. Вообщем на айфонах нет полноценного лидара. Лидар это сокращение от "лазерный радар". Главное отличнее лидера от камеры - это наличие излучателя и приемника который смотрит на отраженные волны.
В айфонах и айпадах такого нет. Есть двойные фронтальные камеры с инфракрасной подсветкой (монробровь на айфонах), а с обратной стороны просто двойные камеры (на некоторых моделях еще и третья есть).
Вся суть фишки из поста в железе и ПО которое это железо использует. Сам фраемворк называется ARKit и сделан Apple. Он использует стереоскопическое зрение + нейросети + быстрые расчеты на GPU для построения 3D модели мира по видео с камеры. Вот эти точки на гифке - это именно ARKit рассчитывает. А разрабочики программы по массиву точек и картинки с камеры строят 3D модель и натягивают текстуры.
Но основная работа в ARKit идет. Именно по этому расплодилось так много подобных программ под айфоны.
В принципе подобное возможно и под андроид, в теории, но на данный момент, проблема в аппаратном ускорении. Из за большого зоопарка моделей сложно сделать производительный фремворк который бы везде работал, а главное это очень дорого в плане разработки
Да по фото можно, но это геморно с косяками ( у тебя шнурок пропал ). Я думаю в тут использовался лидар и потому оно так быстро подготовилось и думаю там может качество лучше из-за этого.
Для получения относительно дешёвых и качественных фотореалистичных 3д моделей объектов окружения, которые скульптить/моделить руками долго, дорого и муторно. Если о фотограмметрии в целом и зачем она нужна, гугли библиотеку Quixel Megascans и видосы с ютуба с демонстрацией её использования, вот как это.
Можно было бы ходить по лесу, фотографировать съедобные/несъедобные растения, добавлять себе в телефон. Или учиться рисовать по 3д моделям людей, женщин, объекты, чтобы понять глубину в рисунке.
Потому что она использует лидар конкретно. Вопрос в том, что лидар в андроиде, навскидку, есть только в самсунгах - конкретно у меня в Ноут 10+ он есть, как и штатная программа для таких моделей.
(духота) Фотограмметрия и сканирование норм подходят только для каких-нибудь природных объектов или поезженных природой. Для объектов, сделанных человеком и требующих точности эти способы подходят не очень хорошо. Простые модели вообще быстрее в редакторах сделать, чем сканить.
это 100% золотая жила, но без согласия, тебя утопят в судах и дадут 25 лет расстрела. Но скоро окошко норм сместится и кто-нибудь сделает 1й шаг. Но с другой стороны, технологии продвинуться и любители склепают модели по утекшим фоткам и сценам из фильмов. И будет тебе тройничок с Эммой Уотсон наконец-то. Пока можешь порадовать себя замещением лиц с нейросеткой.
Как я понимаю, тут используется тот же механизм как и для FaceID. Т.е. вопрос не столько в софте, сколько в железе(в плане в Ифонах есть "проектор точек"(что бы это не значило, сори не профи), который позволяет и сразу замерить "глубину" рельефа на обьекте и т.д.)
Это называется лидар - лазер, позволяющий замерить дистанцию до точки. В результате чего, при съемке объекта, строится карта высот. Ну а дальше уже дело техники - задать точки привязки и сверху накинуть изображение.
Лидар - не обязательно лазер. FaceID использует структурированный свет для построения карты глубины. Вероятно для основной камеры используется ToF сенсор, но это под вопросом, так как эпл не раскрывает подробностей реализации.
Отличный комментарий!