Одноранговое видео в iOS
Я пытаюсь передавать в реальном времени видеобуферы с одного iPhone на другой iPhone (называемый клиентским iPhone) для предварительного просмотра, а также принимать команды от клиентского iPhone. Я думаю о стандартном способе достижения этого. Самое близкое, что я нашел, это AVCaptureMultipeerVideoDataOutput
на Github.
Тем не менее, он по-прежнему использует платформу подключения Multipeer, и я думаю, что он все еще требует некоторой настройки на обоих iPhone. Я хочу, чтобы в идеале на обоих iPhone не требовалось никаких настроек, если на обоих iPhone включен Wi-Fi (или, если возможно, bluetooth), одноранговые узлы должны распознавать друг друга в приложении и запрашивать у пользователя обнаружение устройства. Каковы стандартные способы достижения этого и любые ссылки на пример кода?
РЕДАКТИРОВАТЬ: я получил это работает через подключение Multipeer после написания кода с нуля. На данный момент я отправляю пиксельные буферы на одноранговое устройство, уменьшая и сжимая данные в формате jpeg. На удаленном устройстве у меня есть настройка UIImage, где я отображаю данные каждый кадр. Однако я думаю, что UIKit может быть не лучшим способом отображения данных, даже если изображения маленькие. Как я могу отобразить эти данные, используя OpenGLES? Возможно ли прямое декодирование jpeg в Opengles?
1 ответ
Комментарии:
На данный момент я отправляю пиксельные буферы на одноранговое устройство, уменьшая и сжимая данные в формате jpeg. На удаленном устройстве у меня есть настройка UIImage, где я отображаю данные каждый кадр. Однако я думаю, что UIKit может быть не лучшим способом отображения данных, даже если изображения маленькие.
Оказывается, это лучший способ передачи изображения через платформу Multipeer Connectivity. Я перепробовал все альтернативы:
- Я сжал кадры с помощью VideoToolbox. Слишком медленно.
- Я сжал кадры с помощью сжатия. Слишком медленно, но лучше.
Позвольте мне предоставить код для #2:
На устройстве iOS, передающем данные изображения:
- (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection
{
CVImageBufferRef imageBuffer = CMSampleBufferGetImageBuffer(sampleBuffer);
CVPixelBufferLockBaseAddress(imageBuffer,0);
__block uint8_t *baseAddress = (uint8_t *)CVPixelBufferGetBaseAddress(imageBuffer);
dispatch_async(self.compressionQueue, ^{
uint8_t *compressed = malloc(sizeof(uint8_t) * 1228808);
size_t compressedSize = compression_encode_buffer(compressed, 1228808, baseAddress, 1228808, NULL, COMPRESSION_ZLIB);
NSData *data = [NSData dataWithBytes:compressed length:compressedSize];
NSLog(@"Sending size: %lu", [data length]);
dispatch_async(dispatch_get_main_queue(), ^{
__autoreleasing NSError *err;
[((ViewController *)self.parentViewController).session sendData:data toPeers:((ViewController *)self.parentViewController).session.connectedPeers withMode:MCSessionSendDataReliable error:&err];
});
});
CVPixelBufferUnlockBaseAddress(imageBuffer, 0);
}
На устройстве iOS, отображающем данные изображения:
typedef struct {
size_t length;
void *data;
} ImageCacheDataStruct;
- (void)session:(nonnull MCSession *)session didReceiveData:(nonnull NSData *)data fromPeer:(nonnull MCPeerID *)peerID
{
NSLog(@"Receiving size: %lu", [data length]);
uint8_t *original = malloc(sizeof(uint8_t) * 1228808);
size_t originalSize = compression_decode_buffer(original, 1228808, [data bytes], [data length], NULL, COMPRESSION_ZLIB);
CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();
CGContextRef newContext = CGBitmapContextCreate(original, 640, 480, 8, 2560, colorSpace, kCGBitmapByteOrder32Little | kCGImageAlphaPremultipliedFirst);
CGImageRef newImage = CGBitmapContextCreateImage(newContext);
UIImage *image = [[UIImage alloc] initWithCGImage:newImage scale:1 orientation:UIImageOrientationUp];
CGContextRelease(newContext);
CGColorSpaceRelease(colorSpace);
CGImageRelease(newImage);
if (image) {
dispatch_async(dispatch_get_main_queue(), ^{
[((ViewerViewController *)self.childViewControllers.lastObject).view.layer setContents:(__bridge id)image.CGImage];
});
}
}
Хотя этот код производит изображения оригинального качества на принимающей стороне, вы обнаружите, что это слишком медленно для воспроизведения в реальном времени.
Вот лучший способ сделать это:
На устройстве iOS, отправляющем данные изображения:
- (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection
{
CVImageBufferRef imageBuffer = CMSampleBufferGetImageBuffer(sampleBuffer);
CVPixelBufferLockBaseAddress(imageBuffer,0);
uint8_t *baseAddress = (uint8_t *)CVPixelBufferGetBaseAddress(imageBuffer);
size_t bytesPerRow = CVPixelBufferGetBytesPerRow(imageBuffer);
size_t width = CVPixelBufferGetWidth(imageBuffer);
size_t height = CVPixelBufferGetHeight(imageBuffer);
CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();
CGContextRef newContext = CGBitmapContextCreate(baseAddress, width, height, 8, bytesPerRow, colorSpace, kCGBitmapByteOrder32Little | kCGImageAlphaPremultipliedFirst);
CGImageRef newImage = CGBitmapContextCreateImage(newContext);
UIImage *image = [[UIImage alloc] initWithCGImage:newImage scale:1 orientation:UIImageOrientationUp];
CGImageRelease(newImage);
CGContextRelease(newContext);
CGColorSpaceRelease(colorSpace);
CVPixelBufferUnlockBaseAddress(imageBuffer, 0);
if (image) {
NSData *data = UIImageJPEGRepresentation(image, 0.7);
NSError *err;
[((ViewController *)self.parentViewController).session sendData:data toPeers:((ViewController *)self.parentViewController).session.connectedPeers withMode:MCSessionSendDataReliable error:&err];
}
}
На устройстве iOS, получающем данные изображения:
- (void)session:(nonnull MCSession *)session didReceiveData:(nonnull NSData *)data fromPeer:(nonnull MCPeerID *)peerID
{
dispatch_async(self.imageCacheDataQueue, ^{
dispatch_semaphore_wait(self.semaphore, DISPATCH_TIME_FOREVER);
const void *dataBuffer = [data bytes];
size_t dataLength = [data length];
ImageCacheDataStruct *imageCacheDataStruct = calloc(1, sizeof(imageCacheDataStruct));
imageCacheDataStruct->data = (void*)dataBuffer;
imageCacheDataStruct->length = dataLength;
__block const void * kMyKey;
dispatch_queue_set_specific(self.imageDisplayQueue, &kMyKey, (void *)imageCacheDataStruct, NULL);
dispatch_sync(self.imageDisplayQueue, ^{
ImageCacheDataStruct *imageCacheDataStruct = calloc(1, sizeof(imageCacheDataStruct));
imageCacheDataStruct = dispatch_queue_get_specific(self.imageDisplayQueue, &kMyKey);
const void *dataBytes = imageCacheDataStruct->data;
size_t length = imageCacheDataStruct->length;
NSData *imageData = [NSData dataWithBytes:dataBytes length:length];
UIImage *image = [UIImage imageWithData:imageData];
if (image) {
dispatch_async(dispatch_get_main_queue(), ^{
[((ViewerViewController *)self.childViewControllers.lastObject).view.layer setContents:(__bridge id)image.CGImage];
dispatch_semaphore_signal(self.semaphore);
});
}
});
});
}
Причина семафоров и отдельных очередей GCD проста: вы хотите, чтобы кадры отображались через равные промежутки времени. В противном случае видео будет сначала сначала замедляться, прямо перед тем, как ускориться до нормы, чтобы наверстать упущенное. Моя схема гарантирует, что каждый кадр воспроизводится один за другим с одинаковой скоростью, независимо от узких мест пропускной способности сети.