我已经看到了很多关于如何将视频从服务器流到android设备的信息,但关于另一种方式(ala Qik)的信息却不多。谁能给我指点一下方向,或者给我一些建议?
我也在研究这个问题,虽然我没有一个很好的解决方案,但我确实设法挖出了SIPDroid的视频代码:
http://code.google.com/p/sipdroid/source/browse/trunk/src/org/sipdroid/sipua/ui/VideoCamera.java
我主持了一个开源项目,使Android手机IP摄像头:
http://code.google.com/p/ipcamera-for-android
原始视频数据从LocalSocket获取,在流媒体之前首先检查MP4的MDAT MOOV。现场视频包装在FLV格式,并可以通过Flash视频播放器与内置的web服务器播放:)
我花了一些时间,但我终于设法做了一个应用程序,这样做。如果您感兴趣,请查看谷歌代码页:http://code.google.com/p/spydroid-ipcamera/ 我在我的代码中添加了大量的注释(主要是,看看camerastreer .java),所以它应该是不言自明的。 困难的部分实际上是理解RFC 3984并为分组过程实现一个合适的算法。(这个算法实际上把mpeg4/h。264流由MediaRecorder产生成一个漂亮的rtp流,根据rfc)
再见
根据你的预算,你可以使用可以将图像发送到服务器的树莓派相机。我在这里添加了两个教程,你可以找到更多的细节:
本教程向你展示如何使用树莓派相机和在Android设备上显示图像
这是你可以找到关于摄像头和安卓设备之间的实时视频流系列教程的第二个教程
我能够将实时摄像机视频从手机发送到我的服务器。使用此链接 参见链接 < / p > 参考上面的链接。该链接中有一个示例应用程序。你只需要在RecordActivity.class中设置你的服务url。
我能够将实时摄像机视频从手机发送到我的服务器。使用此链接 参见链接 < / p >
参考上面的链接。该链接中有一个示例应用程序。你只需要在RecordActivity.class中设置你的服务url。
我们可以使用该链接发送H263和H264类型的视频。
我已经构建了一个名为Kickflip的开源SDK,使来自Android的流媒体视频成为一种无痛的体验。
SDK演示了如何使用Android 4.3的MediaCodec API将设备硬件编码器的数据包直接导向FFmpeg,用于H.264 / AAC的RTMP(使用librtmp)或HLS流。它还演示了实时OpenGL效果(标题,色度键,淡出)和背景记录。
谢谢,所以,特别是费。
这是完整的文章关于流媒体android摄像头视频到一个网页。
Android Streaming Live Camera Video to Web Page
检查Yasea库
Yasea是一个Android流媒体客户端。它对YUV和PCM数据进行编码 H.264/AAC,封装在FLV中进行传输 RTMP。< / p >
特点:
Mux(我的公司)有一个开源android应用程序,它将RTMP流到服务器,包括设置摄像头和用户交互。它被构建为流到Mux的实时流API,但可以轻松地流到任何RTMP入口点。