SmartEyeglasses и Субтитры - Доступность

Я работаю в институте исполнительских искусств, и меня попросили изучить возможность использования носимых технологий в доступе для наших клиентов. Я заинтересован в том, чтобы узнать больше информации об использовании SmartEyeglasses для субтитров (или субтитров) в живом или предварительно записанном исполнении. Можно ли запрограммировать несколько очков, чтобы одновременно показывать пользователям одинаковые титры? Как работает этот процесс программирования? Могут ли несколько пар SmartEyeglasses соединяться с одним и тем же хост-устройством?

Любая информация очень ценится. С нетерпением жду Вашего ответа!

2 ответа

Каждый телефон может содержать только 1 SmartEyeglass. Таким образом, вам понадобятся отдельные телефоны для каждого SmartEyeglass.

Ваш вопрос слишком широк и может быть закрыт как таковой, но я укушу:

Документация для SDK доступна здесь: https://developer.sony.com/develop/wearables/smarteyeglass-sdk/api-overview/ - он описывает себя как основанный на Android. Содержание носимого дисплея определяется "картой" (концепция пользовательского интерфейса Android: https://developer.android.com/training/material/lists-cards.html), и программное обеспечение работает на очках локально.

Такие вещи, как субтитры для предварительно записанных и предварительно записанных сценариев живых выступлений, могут быть сохранены с использованием файловых форматов, таких как .srt ( http://www.matroska.org/technical/specs/subtitles/srt.html), с которыми легко работать и которые уже имеют большую экосистему, такую ​​как свободно доступные инструменты для их создания и библиотеки программного обеспечения для их чтения,

Построение такой системы кажется простым: каждое исполнение имеет .srt файл хранится где-то на веб-сервере. Пользователь как-то выбирает производительность, а вы пишете программное обеспечение, которое читает .srt файл и отображает текст на Card на основе текущего временного кода до конца скрипта.

... этот подход имеет преимущество, заключающееся в сведении к минимуму требований на стороне сервера (подойдет только статический веб-сервер).

Если у вас есть более сложные требования, такие как живая транскрипция, поддержка прерываний и незашифрованных событий, то вам придется написать собственный сервер, который отправляет "живые" субтитры на очки, предположительно через TCP, это приведет к уменьшению времени автономной работы устройства, так как радио Wi-Fi будет активным гораздо дольше. Альтернативой может быть использование Bluetooth, но я не знаю, как бы вы построили систему, способную обрабатывать более 100 одновременных подключений Bluetooth на большие расстояния.

Компромисс заключается в использовании .srt файлы, но очки опрашивают сервер каждые 30 секунд или около того, чтобы проверить наличие незашифрованных событий. Как вы справляетесь с этим, зависит от вас.

(Кроме того, это выглядит как забавный проект - пожалуйста, свяжитесь со мной, если вы хотите нанять кого-то, чтобы построить его:D)

Другие вопросы по тегам