Что такое виртуальная камера
Перейти к содержимому

Что такое виртуальная камера

  • автор:

Что такое плагин OBS VirtualCam, установка и инструкция

Применение OBS VirtualCam считается отличным методом проявления творческого потенциала в применении веб-камеры с целью совершения видеовстреч разностороннего формата. Если вы до сегодня еще ни разу не слышали про OBS VirtualCam, данное руководство поможет вам справиться со всеми трудностями последующей установки плагина.

Что такое плагин OBS VirtualCam

OBS VirtualCam является дополнительной функцией, которая внедряется непосредственно внутрь вашего плагина OBS. Программа устанавливается с целью создания виртуальной камеры, которая идеально подходит для вашей работы на любом сайте. Таким образом отпадает потребность в скачивании дополнительного софта наподобие Logitech capture или сплиттеров, которые будут нагружать устройство.

Софт OBS VirtualCam отличается от встроенной виртуальной WEB-камеры стандартного образца несколькими дополнительными возможностями:

  • Способность вывода определенной сцены или источника как виртуальной WEB камеры;
  • Способность вывода четырех виртуальных WEB камер.

Пользователь сможет выводить основную WEB камеру из OBS Studio 27.2.4 в любое нужно для вас приложение по типу Skype, Discord или Zoom. С этой возможностью раскрывается возможность параллельного применения множества дополнительных функций. Стоит отметить, что VirtualCam способен бесперебойно совмещать свою деятельность с неограниченным количеством сайтов.

Установка плагина OBS VirtualCam

Полную установку плагина OBS VirtualCam трудно назвать затруднительной процедурой. Давайте более детально рассмотрим порядок ваших действий:

Скачать

  • Изначально потребуется установить последнюю версию программы OBS Studio.
  • Далее устанавливаем специальный модуль для использования WEB камеры, поскольку функция виртуальной камеры до сих пор не встроена программное обеспечения.
  • Производим настройку источников и различных сцены, которые вы планируете использовать для дальнейших звонков в Zoom или для подобных собраний на любой другой платформе.
  • После завершения настроек остается только активировать виртуальную камеру. Для этого перейдите в раздел «Управление» в правом нижнем углу окна OBS и нажмите «Запустить виртуальную камеру».

После выполнения данного руководства уже можно приступить к непосредственной работе. Программа позволяет вашему компьютеру использовать OBS в качестве видео источника в другом приложении. Просто выберите OBS в качестве веб-камеры в настройках видео программного обеспечения.

Инструкция по применению OBS VirtualCam

Поскольку все больше людей предпочитают работать у себя дома, можно наблюдать как стремительно увеличивается количество вопросов относительно инструкции по применению OBS Studio в качестве виртуальной камеры.

Чтобы настроить параметры виртуальной камеры, щелкните значок шестеренки на панели управления. Далее следуем строго в соответствии с инструкцией:

• Установите плагин OBS VirtualCam.
• Перезагрузите ваш компьютер.
• Настройте OBS с применением дополнительного цветного ключа.
• В OBS Studio выберите вкладку «Инструменты», расположенную в верхнем меню, затем перейдите во вкладку «VirtualCam».
• Нажмите кнопку «Пуск». При желании можно установить флажок «Автозапуск», если вы желаете, чтобы VirtualCam запускался всякий раз, когда вы работаете с OBS Studio.

Настройка завершена. Теперь вы можете наблюдать «OBS-Camera» в качестве опции веб-камеры.

В настоящие время в жизни людей складывается тенденция учащенного использования удаленной коммуникации через сторонние методы связи. Улучшите воспроизведение онлайн медиаконтента, транслируемого через OBS Studio. Интегрируйте плагин и наслаждайтесь результатом.

Как устроены виртуальные камеры

И как их применяют в играх и кино. Наше восприятие игр во много зависит от того, под каким углом мы на них смотрим. Равно как и в кино, камера в играх — важный инструмент визуального повествования. Разбираемся, как работа с виртуальными камерами сближает две индустрии, какую роль в этом играют современные движки и почему виртуальный продакшен окончательно размыл границу между производством игр и кино. Автор: Николай Кубрак

По законам кино

Глобально игровые камеры делят на три типа: с видом от первого лица, с видом от третьего лица с фиксированные углом съёмки, и с видом от третьего лица с динамичным углом съёмки. Все остальные классификации вытекают из этой: камера с видом от третьего лица может располагаться сбоку (как в платформерах и файтингах), сверху (как в некоторых RPG и стратегиях) или динамично перемещаться, сменяя ракурсы. К моменту зарождения видеоигр базовые законы визуального повествования уже оформились в кинематографе. Логично, что игры унаследовали основные приёмы работы с камерой и остановились на уже знакомых зрителям ракурсах и приёмах.
Разработчики регулярно ориентируются на традиционные приёмы кино: широкоугольный кадр показывает, насколько ваш персонаж мал и незначителен в окружающем его мире, а близкое к герою расположение камеры вызывает ощущение клаустрофобии. С помощью ракурсов легко заставить игрока сопереживать персонажу — это безотказно работает в играх от первого лица или в тех, где камера располагается как можно плотнее к спине героя. Именно этот приём делает сражения с зомби в The Last Of Us и ремейках Resident Evil такими пугающими. Чем камера ближе, тем вы сильнее ассоциируете себя с персонажем.
Shadow of the Colossus тоже управляет чувствами игрока при помощи сугубо киношных трюков: чтобы показать масштаб монстров камера снимает общие планы снизу и всегда захватывает несколько персонажей или объектов. Зритель всегда может соотносить гигантов с размерами зданий и совсем уж крохотными относительно всего протагонистами. Этот приём регулярно используют при съёмках фильмов франшиз «Годзилла» и «Кинг-Конг».
Когда игрок выполняет некое действие, камера часто перемещается относительно стандартного положения, меняет ракурс или фокусируется на объекте. Обычно это случается, когда в игровом процессе происходит изменение — например, протагонист пересаживается на транспорт или вступает в бой. В этом случае ракурс меняется так, чтобы захватить больше пространств вокруг и не нарушить при этом правило третей, на которое всегда ориентируются разработчики. Например, в LA Noir ракурсы меняются в зависимости от повествования, явно наследуя приёмы Мартина Скорсезе и других классиков криминального кино. Особенный акцент здесь на монтаже, где в экшн-сценах общие планы часто сменяются крупными.
Перспектива бывает разной в зависимости от целей: например, сражениям на реакцию из игр From Software подойдут крупные планы, тогда как битвам с большим количеством врагов лучше подойдёт широкий кадр, — как в Devil May Cry или Assassin’s Creed. В то же время общие планы и плавное перемещение камеры всегда идёт на пользу «симуляторам ходьбы», в которых нужно исследовать мир — например, Journey.
Динамическая камера со сменой расстояний и ракурсов подстраивается под геймплей и помогает ему раскрыться. Например, в серии игр о Бэтмене от Rocksteady: в узких пространствах камера располагается ближе к герою, в эпизодах на крышах зданий открывается широкий общий план, а в Arkham Asylum есть даже есть сцены в двухмерном пространстве.
В последней God Of War камера тоже динамична и максимально приближена к Кратосу. В экшен-сценах камера перемещается резко и порой по неожиданным траекториям.
Максимально разнообразно как динамичную, так и статичную камеру от третьего лица используют разработчики Quantic Dream. Выпуская своего рода интерактивное кино, они охотнее остальных берут на вооружение традиционные приёмы кинематографа.
Совсем иначе, в отличие от динамичных игр, широкоугольный кадр работает в стратегиях и RPG. В них, как правило, применяется ракурс с видом сверху — мы будто бы смотрим на мир с точки зрения «бога» и управляем всем, что происходит внизу. Такое положение камеры позволяет игроку следить за множеством событий сразу.

Как современные движки упростили работу с камерами

Работа с камерой в играх во многом сложнее, чем в кино. В отличие от режиссёра, разработчик не может предсказать, где герой окажется в следующую секунду. Во многом поэтому камеры в играх почти всегда будто бы привязаны к протагонисту — так проще управлять геймплеем и плавно сменять ракурсы. У камеры есть семь степеней свободы: тангаж (угловые движения относительно горизонтальной оси), рыскание (угловые движения относительно вертикальной оси), крен, расстояние от персонажа, смещение по двум осям и угол обзора. Левел-дизайнер должен постоянно учитывать эти условия и продумывать все тонкости взаимодействия камеры с окружающим миром.
Особенная сложность — препятствия. Они не должны заслонять персонажа от камеры, окружающие вещи не должна мешать обзору, а попадание камеры внутрь препятствия — это едва ли ни самая стыдная ошибка для современных разработчиков. Сегодня избежать таких проблем стало чуть проще, — благодаря современным движкам Unity и Unreal Engine 4. В них взаимодействие пользователя с камерой предельно автоматизировано, поэтому больше нет необходимости в написании сложных скриптов и расчётов с предсказанием расположения камеры. Например, в Unity есть специальный набор инструментов под названием Cinemachine, который используется для управления игровыми камерами, синематики и создания кат-сцен. С его помощью можно создавать виртуальную камеру — по сути это не камера, а некий инструмент, выполняющий функцию оператора. Благодаря Cinemachine пользователь Unity может без единой строчки кода выполнять сложные манипуляции с камерой: «привязывать» её к объекту, вращать вокруг своей оси или передвигать по заданной траектории.
Источник Cinemachine позволяет создавать несколько таких виртуальных камер. В любой момент можно перенести главную камеру в одну из виртуальных с помощью компонента Cinemachine Brain. Это очень удобно: можно заранее расставить несколько камер по пути движения главного героя и постепенно менять ракурсы парой кликов. Спасает Unity и от попадания камеры внутрь предметов или за пределы карты — расширение Cinemachine Confiner ограничивает движение камеры в заданной пользователем области. Похожим образом это работает и в Unreal Engine 4. С помощью его компонента Camera можно создавать виртуальные камеры, настраивать на них перспективу и соотношение сторон. Камеры можно прикреплять к любым «пешкам» (pawn — будущим игровым персонажам) и переключаться между ними. Ещё одна важная особенность — наличие компонента Spring Arm Component, который заставляет камеру следовать за движениями тела персонажа, — то есть опускаться и вставать вместе с ним, отдаляться и приближаться, когда это необходимо. Управлять камерой и корректировать её настройки можно на всех этапах производства. А процесс моделирования упрощает CineTracer — в этом симуляторе есть все необходимые кинематографические инструменты и элементы, с помощью которых можно схематично собрать сцену.
Источник

Виртуальный продакшн

Возможность управлять камерой фактически вручную значительно упростило производство и двинуло его в новую сторону — виртуальный продакшн. Благодаря инструментам Unity и Unreal Engine 4 и специализированной технике, сейчас работать с виртуальной камерой может даже человек без специальных навыков. Сегодня в реальном времени можно отслеживать виртуальную камеру с помощью реальной камеры, которой вы можете управлять. По большому счёту, процесс превращается в традиционные киносъёмки, только внутри смешанной реальности. Подобная технология уже применялась при создании некоторых голливудских блокбастеров и сериала «Мандалорец», о чём мы уже подробно рассказывали в отдельном материале.
Источник С играми всё происходит аналогично — та же God of War создавалась при помощи смешанной реальности, — виртуальную камеру приводило в движение оборудование в руках оператора. Простой и относительно дешёвый способ — соединить контроллер Vive с гиростабилизатором или стедикамом, и с помощью него менять движения виртуальной камеры внутри готовой сцены. Более дорогой и профессиональный вариант — адаптировать съёмочное пространство для работы в виртуальной реальности и собрать реальный аналог виртуальной камеры с контроллером, стабилизатором и монитором. Как именно это сделать, подробно объясняет оператор и разработчик программного обеспечения Мэтт Уоркман в нескольких видео на своём YouTube-канале.
Итоговый результат выглядит впечатляюще — Мэтт работает как обычный кинооператор, «снимая» пустоту внутри хромакея. Но за столь удобным способом настройки камер в игре стоит длительная подготовка, а также умение обращаться со специализированной техникой и программным обеспечением.
В недавнем тексте для 80.lv Уоркман вкратце объяснил, как начать работу с камерой в смешанном пространстве. Для управления виртуальной камерой можно использовать Virtual Camera Plugin в UE4, установленный на iPad, или пользоваться контроллером HTC Vive, подключённым к реальной камере. Из UE4 можно взять любую созданную сцену и, настроив на инструменте отслеживание, записать необходимый материал с любых ракурсов. При должном мастерстве можно сразу же получить конечный продукт без дополнительного редактирования. Очевидное преимущество виртуального продакшна — реалистичность движений камеры и возможность снимать с таких ракурсов, которые непросто настроить классическими методами. Управление мышкой ограничивает движение камеры, поэтому оператор использует контроллер Vive, полностью передающий все малейшие движения. С его же помощью можно настроить зум и фокус.
Во время съёмки необязательно использовать контроллер Vive, можно поэкспериментировать с другой аппаратурой. Например, в одном из видео Уоркман управлял виртуальной камерой с помощью контроллера Xbox.
Важно правильно расположить датчики, подготовить сцену и разобраться заранее со всеми настройками CineTracer. Сразу снять человека внутри готового виртуального пространства вряд ли получится — для начала стоит хорошо научиться работать в UE4 и изучить Motion Capture. Помимо реалистичного фона (3D-рендер в реальном времени), нужно настроить освещение и разобраться в композитинге. После экспериментов с виртуальными камерами Мэтт Уоркман тоже заразился идеей создать нечто подобное «Мандалорцу» или God of War, при создании которых активно использовался виртуальный продакшн. Он мечтает снять короткометражку в духе сериала «Любовь, смерть и роботы», только с живыми людьми внутри CG-локаций.
В сочетании с Motion Capture виртуальная камера делает производство игр максимально приближенным к съёмкам кино: всё тот же хромакей, тот же виртуальный продакшн и те же взаимодействия между съёмочной группой. В работе с камерой игры много почерпнули из кино, но в итоге привнесли в процесс столько новшеств, что теперь сам кинематограф обращается к опыту игровой индустрии.

317 0 850 3

Николай, в этой статье, кроме монолога об очевидном, есть много неточностей и не соответствий действительности. Вот некоторые самые яркие на мой взгляд.

«По законам кино»
Думаю правильнее будет сказать по законам драматургии, а не кино.

«Например, в LA Noir ракурсы меняются в зависимости от повествования, явно наследуя приёмы Мартина Скорсезе и других классиков криминального кино. Особенный акцент здесь на монтаже, где в экшн-сценах общие планы часто сменяются крупными.»
Приемы Мартина Скорсезе! Нет никаких приемов Скорсезе в природе. Есть Сергей Михайлович Эйзенштейн и есть законы монтажа. Их не так много, но они основопологающие. И с тех пор не придумали ничего нового. Это скорее Мартин Скорсезе наследовал приемы Эйзенштейна и хорошо учился монтажу у своих учителей.

«С помощью ракурсов легко заставить игрока сопереживать персонажу — это безотказно работает в играх от первого лица или в тех, где камера располагается как можно плотнее к спине героя.»
Николай, сопереживание. это не ракурсы камеры. И заставить зрителя сопереживать не «легко», как вы упоминаете.
Вот что пишет о сопереживании знаменитый режиссер: «Более глубокий уровень эмоциональной вовлеченности в драматическую историю -сопереживание. Оно вырастает из любопытства.
Оно возникает у аудитории, когда персонажи близки и понятны ей, когда зрители имеют общие моральные ценности с персонажами. Сопереживание порождает идентификацию. Мы как бы живем и действуем вместе с героем, переживаем вместе с ним, его проблемы становятся нам близки и понятны, мы желаем ему победы над противником.»

И гугль в помощь.

Основное правило для написания статей, курсов, лекций: «не знаю — не пишу». Если вы рассказываете свою личную точку зрения, основанную на поверхностных знаниях — скажите об этом вначале. Это будет честно по отношению к читателям.

Виртуальная камера для WebRTC

Едва ли кто-то избежал использования видеоконференций. К назначенному времени проверяем свой skype look, усаживаемся поудобнее и общаемся с коллегами.

Строго говоря, при всем многообразии платформ, вариантов немного: либо вебкамера, либо коллеги целый час наблюдают на экране ваши инициалы. Использовать камеру бывает не всегда удобно, да и конфузы случаются. Второй вариант смотрится несколько недружелюбно..

А еще варианты? да пожалуйста!

  • если есть возможность пропатчить фронтенд, запускаем легковесную модельку, чтобы замылить или заменить фон. Правда, от невыспавшейся физиономии это не спасает
  • можно подойти к задаче по-взрослому: под linux, например, запускаем v4l2loopback и рисуем в виртуальную вебкамеру что душе угодно, в зависимости от фантазий и возможностей железа. Если GPU позволяет, можно пропатчить, например, rad-nerf и вложить свою речь в уста Обамы, или даже тайком записать начальника на видео и по нему, за несколько часов, обучить модель. При рендеринге, правда, появится изрядная задержка, и придется либо мириться с липсинком, либо использовать в виртуальные аудиоустройства, либо ухудшать фонемную анимацию за счет использования мел-спектрограмм. И хорошо бы, чтобы ваша ноутбучная GTX 4060 не перегрелась за время разговора
  • а если в ноуте GPU слабенькая? Тоже не беда, зацикливаем свой ролик, и wav2lip дорисует на нем движения губ, густо замазывая погрешности. Красота!

Правда, с масштабируемостью у подобных подходов беда. Да и, вообще, как-то тупиково все это.

И мы пойдем другим путем!

Итак, есть желание рассказать про нашу собственную технологию виртуальной ( * ) персонифицированной ( * ) камеры для WebRTC ( * ).

Начнем с последнего слова (*). Если вы не используете совсем уж динозавров типа skype, то с вероятностью, стремящейся к единице, вы еженедельно сталкиваетесь с WebRTC.

Строго говоря, WebRTC — это целый сонм технологий. Тут и работа с локальными устройствами, и проковыривание всяких там nat-ов, и контроль соединения, и разнообразные заморочки с кодированием аудио-видео, и шифрование..
Но, в контексте данной задачи, нам важно, чтобы

  1. JS код в браузере захватил аудиоустройство пользователя (getUserMedia).
  2. В peerconnection должны уйти аудио и видео треки, синхронные между собой

А посередине вся магия. О ней мы и поговорим.

Наша камера (*) виртуальная, потому что видеокамеру вашего девайса мы не используем, но видео выдаем. Откуда же возьмется видеодорожка? Странный вопрос. Из канваса, конечно! Ибо для WebRTC, по большому счету, безразлично, откуда появился видеотрек: из камеры ли, из канваса или с экрана. Таким образом, нам надо анимировать 3D модель и отрендерить кадры в канвас.

Пара слов про анимацию

Грубо говоря, анимацию можно условно разделить на 2 части: “фоновая”, не связанная с произносимыми звуками (микродвижения и моргание глаз, повороты головы, движение на лбу и переносице, кадык и тп), и фонемная, соответствующая произносимому звуку. Очевидно, для первой части анимации можно использовать предзаготовленные паттерны, для второй необходимо в реальном времени (или близко к тому) вычислять некоторые параметры, что мы и делаем посредством легковесных моделей.

Итак, частотой кадров мы должны синтезировать картинки на основе 3D модели и входных векторов, описывающих состояние анимационных паттернов в данный момент времени.

Оставив в стороне сетки, есть два основных способа рендеринга 3D модели:

  1. на основе параметрической модели (рига)
  2. морфинг с весовыми коэффициентами, определяемыми параметрами выше. Именно так мы и делаем:
  • идентифицируем юзера (вы же не хотите, чтобы под вашим образом скрывался какой-нибудь тролль?)
  • скачиваем с облака Флексатар — условно говоря, файл с набором данных для image based rendering. Можно себе это условно представить как набор изображений 3D модели с разных ракурсов (на всякий случай, нет в английском такого слова) и с разными снапшотами мимики. Да, автокоррекция все еще пытается исправить слово Флексатар, но мы сделаем все возможное, чтобы оно, вместе с нашей технологией, стало массовым
  • Отправляем аудио с микрофона на обработку, добавляем к полученному вектору анимационный, “смешиваем” картинки и отрисовываем с WebGL.
  • Аудиодорожку, задержанную на часть скользящего окна для вычислений, отправляем вместе с видео из канваса.

После этого ничего не подозревающий SFU сервер, раздающий треки участникам внутри комнаты, отправит ваше медиа коллегам, и они увидят, как вашим голосом говорит Крош или Нюша из Смешариков.

А как же задержка? Не страшно, коллеги ничего не заметят. Мы же можем разговаривать по телефону с людьми с другой стороны планеты, хотя задержка при этом выше, особенно с использованием спутниковых каналов и кодеков.

Задержка — это же эхо? Тоже нет: эхо — отражение от “дальнего конца”, то есть акустическая петля вашего голоса из динамиков коллег в их же микрофоны, и WebRTC борется с этим штатным образом.

Что касается задержки на время обработки, это всегда компромисс. Одна крайность — обрабатывается фраза целиком, происходит распознавание текста с коррекцией на основе языковой модели. Далее используется forced alignment для привязки правильных фонем ко времени, и качество анимации лимитируется только профессионализмом разработчика алгоритма. Например, чтобы губы не шлепали, они должны “склеиваться” и тянуться при разлипании. Но мы же не про кино, и задачей является создание комфортной иллюзии живого собеседника в реалтайме, и мы не можем себе позволить коррекцию. Качество несколько ухудшается, и это плата за время: “- Нет в мире совершенства! — вздохнул Лис”

Создание 3D моделей

Мы не всегда хотим разговаривать с коллегами в образе жизнерадостного Копатыча. Переходим к самому интересному: (*) персонифицированная. За 5 лет выработали свой алгоритм создания 3D модели, на основе которой создается Флексатар. Да, если есть потребность, мы умеем экспортировать 3D объект в виде меша требуемой полиномиальности и текстур, но для задач реалтайм общения этого не надо.

Для расчетов требуется GPU, но на 3080 это занимает порядка 15 секунд при смешной загрузке. Для создания флексатара потребуются 5 фото: одно фронтальное и 4 с небольшим (что важно) поворотом головы. И это можно сделать прямо из браузера, а в конце статьи есть ссылка на гит, как заставить модель говорить.

Для лучшего качества, в нашем тестфлайте на iOS есть еще возможность создать модель челюстей и вписать их в нужное место головы, что значительно улучшает визуальное восприятие. Но с веба тоже вполне разумно, на наш взгляд, получается.

Поскольку это 3D, мы можем не просто создавать флексатары, но и смешивать их, добавляя неуловимые ассоциации. Но это уже другая история.

Гиты и приглашения

Помимо этого, у нас запущен тестовый сервер, https://flexatar.com с серверной версией рендеринга, где SFU на библиотеке PION (GOLANG) декодирует OPUS аудио для обработки и собирает свежеотрендеренные кадры в H264 видеодорожку. На этом сервере можно создать свой флексатар, пообщаться с другими людьми (если они онлайн), а также получить представление о качестве изображения виртуальной вебкамеры, посмотрев браузерную анимацию наших флексатаров на WebGL https://flexatar.com/webgl Естественно, когда сервер жив и не используется для экспериментов

Вся работа производилась на протяжении 5 лет очень небольшой командой, без финансирования и, в общем случае, в свободное от основной работы время (успешно избегая конфликта интересов).

В настоящий момент, помимо улучшения качества, мы занимаемся
портированием серверной части на AWS и, частично, Яндекс облако.
Планируем интеграции с различными SFU, для начала, Janus и Livekit.

Как использовать виртуальную камеру mimoLive, чтобы ваша веб-камера выглядела лучше

Чтобы ваша веб-камера выглядела лучше, сначала проведите ее через mimoLive®.

Вы смотрели потоковое шоу и удивлялись, как можно так круто редактировать живое видео? Или вы когда-нибудь хотели сделать лучшее видео для своих скучных конференций?

Решение проблемы достигается за счет использования виртуальной камеры

Виртуальная камера может использоваться любым программным обеспечением, которое обычно использует вашу веб-камеру в качестве источника видеосигнала. Например, видеоконференции или потоковые веб-сайты или программное обеспечение. Виртуальная камера — это что-то вроде диспетчерской для вашего исходящего видеосигнала.

mimoLive — видеостудия и видеоредактор — получит видео с вашей веб-камеры и позволит вам обогатить видеосигнал всем, что вам нравится. Наложение видео, второй видеосигнал, что-либо из Интернета, захват экрана из окна другой программы или наложение текста для создания нижних третей. С помощью mimoLive вы можете редактировать видео с веб-камеры в режиме реального времени и создавать шедевры.

Виртуальная камера может использоваться практически любым видеопрограммным обеспечением

Помимо записи или прямой трансляции, mimoLive может выводить обработанное живое видео в виде виртуальной камеры. Это позволяет macOS работать с вашим видео как с веб-камерой. Любая другая программа на вашем Mac может использовать эту виртуальную веб-камеру в качестве источника видео.

Покажите видео в стиле «картинка в картинке», когда вы не являетесь администратором звонка zoom®, или сделайте красивую нижнюю треть, чтобы представить участникам видеоконференции свое имя, должность и адрес электронной почты.

Подключите DSLR-камеру с USB-приводом через mimoLive к вашим звонкам Skype®. Создайте черно-белый видеопоток или покажите веб-сайт и проведите презентацию в режиме онлайн. Используя виртуальную камеру, вы можете создавать все, что угодно в скучных видеоприложениях с веб-камерой. А это значит, что вы можете проявить настоящий творческий подход.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *