Воспроизведение Gstreamer с использованием typefind
Начнем с того, что я только начинающий в gstreamer, и я нахожусь в процессе разработки приложения, которое отправляет видеоданные слушателю, а слушатель декодирует их для воспроизведения. Для этого я использую gstreamer. Но до этого я пытаюсь понять gstreamer.
У меня есть автономный код, который генерирует добавленный в пэд сигнал, и происходит обратный вызов. Я использую плату I.MX6 для воспроизведения.
Я использовал gst-launch для воспроизведения "файла ts и файла mp4", используя приведенную ниже команду, и она работает.
gst-launch-0.10 filesrc location=/opt/zu/test/stream2.ts typefind=true ! aiurdemux name=demux demux. ! queue ! beepdec ! audioconvert ! autoaudiosink demux. ! queue ! vpudec! mfw_v4lsink
Затем я ввел его в код с использованием демультиплексора и необходимых элементов.
Здесь я нахожу, что "typefind=true" установлен, и я не уверен, как привести его в код. Насколько я понял, typefind устанавливает пэды src после нахождения CAP. Это то, что я получил, используя автономный для typefind.
<?xml version="1.0"?>
<Capabilities>
<Caps1>video/mpegts, systemstream=(boolean)true, packetsize=(int)188</Caps1>
</Capabilities>
Cap = видео / мегапикселей
При запуске моего gstreamer автономно для воспроизведения файла TS, я получаю сообщение ниже
Msgstr "Состояние конвейера изменено с NULL на READY:", и оно не воспроизводится. Это просто продолжает работать. Ниже мой автономный код
data.source = gst_element_factory_make ("filesrc", "source");
g_object_set (data.source, "location", argv[1], NULL);
data.typefind = gst_element_factory_make ("typefind", "typefinder");
data.demuxer = gst_element_factory_make ("aiurdemux", "demuxer");
data.audioqueue = gst_element_factory_make("queue","audioqueue");
data.videoqueue = gst_element_factory_make("queue","videoqueue");
data.audio_decoder = gst_element_factory_make ("beepdec", "audio_decoder");
data.audio_convert = gst_element_factory_make ("audioconvert", "audio_convert");
data.audio_sink = gst_element_factory_make ("autoaudiosink", "audio_sink");
data.video_decoder = gst_element_factory_make("vpudec","video_decoder");
data.video_sink = gst_element_factory_make("mfw_v4lsink","video_sink");
if (!gst_element_link(data.source,data.demuxer)) {
g_printerr ("Elements could not be linked.\n");
gst_object_unref (data.pipeline);
return -1;
}
if (!gst_element_link_many (data.audioqueue,data.audio_decoder,data.audio_convert, data.audio_sink,NULL)) {
g_printerr (" audio Elements could not be linked.\n");
gst_object_unref (data.pipeline);
return -1;
}
if (!gst_element_link_many(data.videoqueue,data.video_decoder, data.video_sink,NULL)) {
g_printerr("video Elements could not be linked.\n");
gst_object_unref(data.pipeline);
return -1;
}
//g_object_set (data.source, "location", argv[1], NULL);
g_signal_connect (data.demuxer, "pad-added", G_CALLBACK (pad_added_handler), &data);
/* Start playing */
// CALLBACK FUNCTION
static void pad_added_handler (GstElement *src, GstPad *new_pad, CustomData *data) {
g_print("Inside the pad_added_handler method \n");
printf("Inside the pad_added_handler method \n");
GstPad *sink_pad_audio = gst_element_get_static_pad (data->audioqueue, "sink");
GstPad *sink_pad_video = gst_element_get_static_pad (data->videoqueue, "sink");
GstPadLinkReturn ret;
GstCaps *new_pad_caps = NULL;
GstStructure *new_pad_struct = NULL;
const gchar *new_pad_type = NULL;
g_print ("Received new pad '%s' from '%s':\n", GST_PAD_NAME (new_pad), GST_ELEMENT_NAME (src));
new_pad_caps = gst_pad_get_caps (new_pad);
new_pad_struct = gst_caps_get_structure (new_pad_caps, 0);
new_pad_type = gst_structure_get_name (new_pad_struct);
if (g_str_has_prefix (new_pad_type,/*"audio/x-vorbis"*/ "audio/mpeg"))
{
ret = gst_pad_link (new_pad, sink_pad_audio);
if (GST_PAD_LINK_FAILED (ret))
{
g_print (" Type is '%s' but link failed.\n", new_pad_type);
}
else
{
g_print (" Link succeeded (type '%s').\n", new_pad_type);
}
}
//else if (g_str_has_prefix (new_pad_type, /*"video/x-theora"*/"video/x-h264"))
else if (g_str_has_prefix (new_pad_type, /*"video/x-theora"*/"video/mpegts"))
{
ret = gst_pad_link (new_pad, sink_pad_video);
if (GST_PAD_LINK_FAILED (ret))
{
g_print (" Type is '%s' but link failed.\n", new_pad_type);
}
else
{
g_print (" Link succeeded (type '%s').\n", new_pad_type);
}
}
else {
g_print (" It has type '%s' which is not raw audio. Ignoring.\n", new_pad_type);
goto exit;
}
exit:
if (new_pad_caps != NULL)
gst_caps_unref (new_pad_caps);
gst_object_unref (sink_pad_audio);
gst_object_unref (sink_pad_video);
}
Я сократил часть кода. Подскажите, пожалуйста, что здесь пропущено в Iam?.. Я не уверен, как ввести в код тип find.
Спасибо
1 ответ
Я наконец решил это, не используя typefind.
Если кто-нибудь сталкивается с этим постом, надеюсь, что это будет полезно для них.
Похоже, typefind не является необходимым, я использовал следующий код.
GstCaps *caps;
/* for mp4 playback use "video/quicktime", if it is ts file use "video/mpegts" , likewise corresponding to other files. You can find what to use as caps using gst-discoverer command for the file*/
caps = gst_caps_new_simple("video/quicktime",NULL);
//After creating caps link using link_filtered to the demuxer
if (!gst_element_link_filtered(data.source,data.demuxer,caps))
g_printerr ("Elements could not be linked.\n");
gst_object_unref (data.pipeline);
return -1;
}
gst_caps_unref(caps); //unref after use, then the normal code continues with generating //pad-added signal.
Вместо того, чтобы находить заглавные буквы, используя truefind, код выше устанавливает заглавные буквы вручную. Надеюсь, это кому-нибудь поможет.