现有环境,ios是通过tcp和服务器连接,视频数据主动对送过来。然后有一套编解码库。
请问假设收到的视频流数据,应该如何讲视频流数据显示出来?
求思路,关键类。
我查阅了相关资料,苹果自带的HLS 是要从服务器上来完全来改,不适用。
http://www.cnblogs.com/haibindev/archive/2013/01/30/2880764.html
还有中就是只说明本地摄像头抓取输出,我的需求是仅需要显示网络视频流
http://www.cnblogs.com/cocoajin/p/3494300.html多谢!!!!!
请问假设收到的视频流数据,应该如何讲视频流数据显示出来?
求思路,关键类。
我查阅了相关资料,苹果自带的HLS 是要从服务器上来完全来改,不适用。
http://www.cnblogs.com/haibindev/archive/2013/01/30/2880764.html
还有中就是只说明本地摄像头抓取输出,我的需求是仅需要显示网络视频流
http://www.cnblogs.com/cocoajin/p/3494300.html多谢!!!!!
研究了一段时间没有思路。 实际环境是通过socket 连接到服务器 收到 视频数据之后 播放出来。问题卡在。。收到了视频流 之后如何把 视频帧流 之后播放出来。求思路
苹果官网也是通过 播放本地的视频文件。