Описание тега event-stream-processing

3 ответа

Расширение не существует для esbAnalytics: распаковать

Я пытаюсь распаковать входящие события с помощью приложения siddhi на потоковом процессоре WSO2. В более ранней версии (например, DAS) было расширение siddhi esbAnalytics: декомпрессия, но если я использую это расширение в SP, возникает ошибка "Расш…
08 фев '18 в 11:57
1 ответ

Подходы при приеме данных IoT с облачного шлюза

Я хотел бы услышать ваше мнение о случае приема данных IoT. В концентраторе AWS IoT тени вещей являются виртуальным представлением физических. Из приведенного ниже рисунка я понял, что всякий раз, когда объект отправляет данные на платформу через по…
3 ответа

Вы используете продукты для потоковой передачи событий?

Может быть, вы знакомы с концепцией потоковой обработки событий (ESP) ... если вы, я хотел бы услышать, что вы используете и на каких платформах вы их используете. Я активный участник проекта Esper ( http://esper.codehaus.org/), но мне было бы интер…
15 окт '08 в 00:02
0 ответов

Как запустить Apache Storm SQL Stream из IDE, например, intellij

Мне нужно написать потоковое приложение для потоковой передачи Java и запустить его из intellij. Я просмотрел примеры в документации и обнаружил, что нужно установить storm, zookeeper и kafka и отправить файл sql в качестве задания. Тем не менее, мн…
2 ответа

Генерация "фальшивых" потоковых данных. Кафка - Флинк

Я пытаюсь сгенерировать потоковые данные, чтобы смоделировать ситуацию, когда я получаю два значения, типа Integer, в другом временном диапазоне с временными метками и Kafka в качестве соединителя. Я использую среду Flink как потребитель, но я не зн…
2 ответа

Архитектура потоковой обработки

Я нахожусь в процессе разработки системы, в которой есть основной поток объектов, и есть несколько рабочих, которые производят некоторый результат из этого объекта. Наконец, есть некоторый специальный / уникальный работник (своего рода "сток", с точ…
1 ответ

Flink sql Query on DataStream (Apache Flink Java)

Я совершенно нуб к Apache Flink. Просто пытаюсь испачкать руки. У меня есть следующий сценарий. Datastream для событий Datastream для событий Поток данных для правил Объединили эти два потока данных на основе ruleID Теперь у меня есть поток данных t…
3 ответа

Поток событий в буфере nginx в образе Docker

У меня есть бэкэнд API REST с python / flask и я хочу передать ответ в потоке событий. Все работает внутри док-контейнера с помощью nginx / uwsgi ( https://hub.docker.com/r/tiangolo/uwsgi-nginx-flask/). API работает нормально, пока не доходит до пот…
1 ответ

Обработка ошибок Apache Flink и условная обработка

Я новичок во Флинке и прошел сайт (ы)/ примеры / блоги, чтобы начать. Я борюсь с правильным использованием операторов. В основном у меня есть 2 вопроса Вопрос 1: Поддерживает ли Flink декларативную обработку исключений, мне нужно обрабатывать ошибки…
2 ответа

Реализация доменных данных / справочных данных?

Довольно простой вопрос, но я не смог найти способ сделать это через документы. Меня интересует базовый набор справочных данных, с которыми можно сравнивать все события. В простом примере есть контексты сегментации, которые говорят об ID узла, но по…
11 июл '17 в 12:55
1 ответ

Как создать скользящие окна с Apache Beam? Не скользящее и не фиксированное, а подвижное окно

Скажем, я хочу вычислить среднее значение определенного показателя за последние 10 минут после каждой минуты и сравнить его со средним значением того же показателя за последние 20 минут после каждой минуты. Мне нужно 2 окна (не 10 раздвижных окон пр…
1 ответ

Использовать Kinesis Analytics для анализа событий и связанных с ними пропущенных событий, разделенных по времени?

У меня есть поток событий для различных устройств, которые могут быть "подключены" или "отключены". Т.е. событие имеет следующую структуру: отметка времени идентификатор устройства событие ("подключено" или "отключено") Я хочу немедленно запустить д…
1 ответ

Как мне обработать входящее событие и, основываясь на поле в событии, записать в разные потоки, используя wso2?

Я пытаюсь использовать один поток, обрабатывать входящий формат JSON и записывать в разные потоки на основе атрибута в событии. Например, если входной поток состоит из чего-то вроде этого: { "event_type" : "temperature", "json" : { "type": "Temperat…
2 ответа

Apache Flink - обработка исключений в "keyBy"

Может случиться, что данные, поступающие в задание Flink, вызывают исключение либо из-за ошибки в коде, либо из-за отсутствия проверки. Моя цель состоит в том, чтобы обеспечить последовательный способ обработки исключений, который наша команда могла…
1 ответ

Ошибка "Нет расширения для streamingml" в WSO2 SP

Когда я пытаюсь использовать #streamingml расширение в WSO2 SP, я получаю ошибку, что расширение не доступно.Однако я убедился, что siddhi-execution-streamingml-1.0.15 загружается и помещается в /lib каталог. Я запускаю это на Ubuntu 16.04 в качеств…
16 апр '19 в 07:51
1 ответ

При попытке выполнить приложение Siddhi с использованием потока событий, сгенерированного JMeter, использование оперативной памяти выходит из-под контроля

При попытке смоделировать поток событий с помощью JMeter и использовать его в качестве источника в siddhi, он работает некоторое время, но заканчивается чрезмерным использованием ОЗУ и выполнение программы останавливается. Я попытался выполнить код …
0 ответов

Как кодировать генератор асинхронного потока в JavaScript без буфера

Мы хотим использовать события потоковых данных из генератора в конвейер преобразования / преобразования. Одна из форм генераторов заключается в следующем var generator = async function* () { var value while(true){ value = await new Promise((resolve)…
1 ответ

Заказ мероприятия с Esper Java

Я разрабатываю IoT Platform, и мне нужно сохранить порядок событий. Например, иногда медленная сеть может вызвать проблему, что предыдущие события достигли после более новых событий. В этом случае мне нужно переупорядочить события с отметкой времени…
29 июл '19 в 11:19
1 ответ

Обработка потоков событий в haskell

Я хочу обработать поток событий, полученных через MQTT. Библиотека, которую я использую, использует обратный вызов для предоставления результатов. Обработка, которую я делаю, зависит от предыдущего состояния, а не только от последнего события. Также…
1 ответ

Слияние атрибутов из двух потоков в сиддхи

Я намерен объединить атрибуты из двух потоков в сиддхи. Я использую "соединение" с атрибутом окна, чтобы объединить два потока в моем запросе сиддхи и ввести результат соединения в другой поток, чтобы обогатить его. Атрибуты окна (window.time(1 сек)…