android不可以用SDL开发。除非给你root权限或让你改手机固件,即便这样还有很多底层的工作要做。

解决方案 »

  1.   

    那对于实时的音视频流数据,在android下怎么播放出来呢,使用什么方法呢?
      

  2.   

    raw data直接通过audioTrack写出去就行了,否则要实现一个解码器,解码成pcm后再通过audioTrack写出去就可以了。
      

  3.   

    多谢楼上的方法,但是对于实时视频流数据用什么方法播放的,我是在JNI层获取到了实时的视频流数据,怎么去实现播放呢?
      

  4.   

    解码,通过surfaceView或者在2.2之后的bitmap接口输出
      

  5.   

    楼上能给个例子不,我在JNI层能够接收到yuv数据了,怎么在JNI层处理显示呢?谢谢!
      

  6.   

    2.2下例子在ndk的bitmap-plaza
    surfaceView的例子官方没有,也不推荐使用,因为2.2之后可能不好用了。
    不过你可以参考opencore中显示的例子,不过他也是用了surface这个私有接口,版本兼容也有问题。