Описание тега core-video

Core Video - это модель конвейера для цифрового видео в MacOS X 10.4, iOS 4.0 и выше.
0 ответов

Манипуляции с видеокадрами, снятыми Skype/FaceTime на OS X

Можно ли получить доступ и изменить буферы живого потока / пикселя / видеокадры в MAC OS X, чтобы к измененному кадру (т.е. изменить ориентацию, резкость и т. Д.) Могли обращаться такие приложения, как FaceTime/Skype? Если да, то как? Какие фреймвор…
07 окт '14 в 12:04
1 ответ

Примените Core Image Filter к видео на OS X, используя Swift

Я планирую создать NSOpenGLView для приложения OS X, используя SWIFT, который можно использовать для применения Core Image Filter и эффектов к видео, поэтому я работал над кодом для контроллера видео, чтобы добавить воспроизведение видео, но я не ув…
29 май '15 в 00:58
0 ответов

Утечка памяти при загрузке изображения в текстуру с помощью CVOpenGLESTextureCacheCreateTextureFromImage

Я отладил с помощью инструментов, но я не могу найти его: CVPixelBufferRef pixelBuffer; CVReturn err = CVPixelBufferCreateWithBytes(kCFAllocatorDefault, IMAGE_WIDTH, IMAGE_HEIGHT, kCVPixelFormatType_32BGRA, _outputFrame.data, 4 * IMAGE_WIDTH, dataRe…
0 ответов

Утечка памяти в CVPixelBufferPoolCreatePixelBuffer

На данный момент я отлаживаю некоторый код. Для этого он читает файл фильма в массив кадров, применяет некоторые преобразования к кадрам и компилирует все обратно в видеофайл. Я исправил все утечки памяти, которые я сам назвал, оставшиеся довольно с…
2 ответа

iPhone: информация о цвете видео в реальном времени, фокусное расстояние, диафрагма?

Есть ли способ использовать AVFoundation и CoreVideo для получения информации о цвете, диафрагмы и значений фокусного расстояния в режиме реального времени? Позволь мне объяснить. Скажем, когда я снимаю видео, я хочу сэмплировать цвет в небольшой ча…
22 сен '10 в 18:22
2 ответа

Сохранение видео скриншота из приложения iPhone

Есть ли способ захвата видео экрана из вашего собственного приложения? Насколько я понимаю, нет никакого способа сделать это с UIImagePickerController (только камеры), но, может быть, есть способ сделать это с помощью iOS 4 AV Foundation или Core Vi…
0 ответов

AVFoundation: чтение видео из файла - обработка кадров + аудио и повторный вывод

Я бился головой об это некоторое время, но не могу понять, что я делаю не так. Я хочу прочитать видеофайл - обработать кадры... затем снова вывести его: Проблема, с которой я сталкиваюсь, заключается в том, что по какой-то причине вызов [self.audioO…
24 дек '11 в 09:39
1 ответ

Как мне нарисовать на CVPixelBufferRef, который является плоским /ycbcr/420f/yuv/NV12/ не rgb?

Я получил CMSampleBufferRef из системного API, который содержит CVPixelBufferRefс которые не RGBA (линейные пиксели). Буфер содержит плоские пиксели (такие как 420f ака kCVPixelFormatType_420YpCbCr8BiPlanarVideoRange ака yCbCr ака YUV). Я хотел бы и…
02 окт '17 в 11:44
0 ответов

Swift 2.0 и CVDisplayLinkSetOutputCallback через @convention(c)

Кому-нибудь удалось использовать таймер CVDisplayLink, не соединяя код Objective-C? с добавлением @convention (c) это должно быть возможно, но я все еще получаю ошибку сегментации: 11 при попытке использовать CVDisplayLinkSetOutputCallback required …
1 ответ

Утечка памяти в CoreImage/CoreVideo

Я создаю приложение для iOS, которое выполняет базовое обнаружение. Я получаю необработанные кадры из AVCaptureVideoDataOutput, преобразую CMSampleBufferRef в UIImage, изменяю размер UIImage, а затем преобразую его в CVPixelBufferRef. Насколько я мо…
26 июн '12 в 09:51
0 ответов

Скопировать CVPixelBufferRef

Код в copyPixelBufferNow слишком долго:-( @property (nonatomic,assign)CVPixelBufferRef pixelBufferNowRef; - (CVPixelBufferRef)copyPixelBufferNow { if (_pixelBufferNowRef == NULL) { return nil; } CVPixelBufferRef pixelBufferOut = NULL; CVReturn ret =…
15 июл '16 в 21:54
1 ответ

Почему AVAssetWriter раздувает видеофайл?

Странная проблема. Я беру кадры из видеофайла (.mov) и записываю их с помощью AVAssetWriter в другой файл без какой-либо явной обработки. На самом деле я просто копирую кадр из одного буфера памяти в другой, и они сбрасывают их через PixelbufferAdap…
26 май '12 в 16:20
2 ответа

Преобразование необработанных данных в отображаемое видео для iOS

У меня есть интересная проблема, которую мне нужно исследовать, связанная с потоковой передачей видео очень низкого уровня. Кто-нибудь имел опыт преобразования необработанного потока байтов (разделенных на пиксельную информацию, но не стандартного ф…
30 мар '13 в 18:15
0 ответов

Забота о бесшумных обрамляющих кадрах, конвертирующих mp4 в ts?

videoOutputSettings = [ AVVideoCodecKey: AVVideoCodecH264, AVVideoWidthKey: width, AVVideoHeightKey: height, AVVideoCompressionPropertiesKey: [ AVVideoAverageBitRateKey: avgBitRate, AVVideoExpectedSourceFrameRateKey: fps, AVVideoProfileLevelKey: AVV…
13 фев '19 в 16:47
1 ответ

Когда CVMetalTextureRef должен быть выпущен?

Я создаю id<MTLTexture> объект из CVPixelBufferRef следующим образом: id<MTLTexture> CreateMTLTexrure(CVMetalTextureCacheRef texture_cache, CVPixelBufferRef pixel_buffer, MTLPixelFormat metal_pixel_format, size_t plane, int height, int w…
1 ответ

NSOpenGLContext + YUV в RGB-шейдер + неверный рендер

Я рендерил кадры YUV, используя NSOpenGLContext, OpenGL и шейдер, чтобы выполнить преобразование YUV в RGB на графическом процессоре. Выход не то, что ожидается. С картинки ниже, в чем может быть проблема?
18 апр '12 в 05:58
1 ответ

Понимание основных видео Семантика CVPixelBufferPool и CVOpenGLESTextureCache

Я занимаюсь рефакторингом своего конвейера рендеринга на базе iOS OpenGL. Мой конвейер состоит из множества шагов рендеринга, поэтому мне нужно много промежуточных текстур для рендеринга и чтения. Эти текстуры бывают разных типов (беззнаковый байт и…
17 окт '14 в 16:39
2 ответа

Как получить байты из CMSampleBufferRef, чтобы отправить по сети

Снимаю видео с помощью фрейма AVFoundation. С помощью документации Apple http://developer.apple.com/library/ios/#documentation/AudioVideo/Conceptual/AVFoundationPG/Articles/03_MediaCapture.html%23//apple_ref/doc/ UID /TP40010188-СН5-SW2 Теперь я сде…
4 ответа

Рендеринг динамического текста на CVPixelBufferRef во время записи видео

Я записываю видео и аудио, используя AVCaptureVideoDataOutput а также AVCaptureAudioDataOutput и в captureOutput:didOutputSampleBuffer:fromConnection: Метод делегата, я хочу нарисовать текст в каждом отдельном буфере сэмплов, который я получаю из ви…
0 ответов

Swift CoreImage Сохранение памяти

Я использую ReactiveCocoa и CoreImage/Video для обработки видео, CoreImage для преобразования и фильтрации каждого CMSampleBuffer из видео и ReactiveCocoa для последовательной обработки буферов. Моя функция фильтрации довольно проста; все, что я дел…
27 мар '16 в 00:34