现有环境,ios是通过tcp和服务器连接,视频数据主动对送过来。然后有一套编解码库。
请问假设收到的视频流数据,应该如何讲视频流数据显示出来?
求思路,关键类。
我查阅了相关资料,苹果自带的HLS 是要从服务器上来完全来改,不适用。
http://www.cnblogs.com/haibindev/archive/2013/01/30/2880764.html
还有中就是只说明本地摄像头抓取输出,我的需求是仅需要显示网络视频流
http://www.cnblogs.com/cocoajin/p/3494300.html多谢!!!!!

解决方案 »

  1.   

    摄像头raw Data 应该是YUV的吧?查看参数,确定视频长宽大小,解析YUV为点阵格式,回显到UIImageView上即可
      

  2.   

    YUV是视频格式...
    研究了一段时间没有思路。 实际环境是通过socket 连接到服务器 收到 视频数据之后 播放出来。问题卡在。。收到了视频流 之后如何把  视频帧流 之后播放出来。求思路
    苹果官网也是通过 播放本地的视频文件。
      

  3.   

    或许可以研究一下 ffmpeg
      

  4.   

    https://github.com/kolyvan/kxmovie
      

  5.   

    楼上的demo很实用,用ffmpeg。