Высокоскоростные фото- и видеокамеры пользуются особой популярностью не только у любителей активного образа жизни и документалистов живой природы, но также у ученых, исследующих те или иные события, явления или научные аспекты. Возможность регистрировать доли секунды даже самого краткого по времени действия делает такие камеры действительно полезными – и действительно дорогими. Однако сегодня талантливая объединенная команда из Гарвардского Университета и Высшей Политехнической Школы Лозанны, Швейцария, представила свой новый концепт особой техники под названием техника виртуальной рамки, при помощи которой любая камера может перенять такие способности.
По крайней мере, так о своем изобретении отзываются специалисты по механическому инжинирингу – в основе новой техники раскадровки и полнокадрового анализа изображения лежит новая техника визуализации изображения, где во время съемок на объект накладывается много света, позиционированного особым образом. Кроме того, в кадре также учитываются и некоторые другие детали, такие как замыленное окружение основного объекта и второстепенные объекты. Техника уже была воплощена в качестве полноценного физического модуля кадровой съемки, который может быть применен к практически любому типу цифровой камеры.
Стоит отметить, что успехи специалистов в этой области станут наиболее важными и заметными прежде всего для мира науки, где при помощи таких высокоскоростных камер удается запечатлевать действительно важные краткие моменты для их последующего изучения. Говоря о своей разработке, гарвардские и швейцарские ученые отмечают, что свет, падая на основной объект съемки, затем оцифровывается и градуируется при помощи специального программного обеспечения.
Однако уже совсем скоро специалисты представят более компактный и подходящий вариант такой техники, воплощенной в отдельный камерный модуль, который может производить такое градуирование самостоятельно, без применения стороннего программного обеспечения. Как бы там ни было, становится понятно, что представленная техника будет полезной и доступной прежде всего для самих ученых, так что нам остается лишь гадать, когда она появится на пользовательском рынке.