J'ai vu beaucoup d'informations sur la façon de diffuser des vidéos du serveur vers un appareil Android, mais pas grand-chose d'autre, ala Qik. Quelqu'un pourrait-il m'orienter dans la bonne direction ici, ou me donner des conseils sur la façon d'aborder cela?
286
Réponses:
J'ai hébergé un projet open-source pour activer le téléphone Android sur la caméra IP:
http://code.google.com/p/ipcamera-for-android
Les données vidéo brutes sont récupérées à partir de LocalSocket et le MDAT MOOV de MP4 a été vérifié avant le streaming. La vidéo en direct est emballée au format FLV et peut être lue via un lecteur vidéo Flash avec un serveur Web intégré :)
la source
ndk-build
. Pour plus d'informations, lisez la documentation NDK .Cela m'a pris un peu de temps, mais j'ai finalement réussi à créer une application qui fait exactement cela. Consultez la page de codes Google si vous êtes intéressé: http://code.google.com/p/spydroid-ipcamera/ J'ai ajouté des tas de commentaires dans mon code (principalement, regardez CameraStreamer.java), donc ça devrait être assez explicite. La partie difficile était en fait de comprendre le RFC 3984 et de mettre en œuvre un algorithme approprié pour le processus de mise en paquets. (Cet algorithme transforme en fait le flux mpeg4 / h.264 produit par le MediaRecorder en un joli flux rtp, selon le rfc)
Au revoir
la source
J'examine également cela, et même si je n'ai pas de bonne solution pour vous, j'ai réussi à trouver le code vidéo de SIPDroid:
http://code.google.com/p/sipdroid/source/browse/trunk/src/org/sipdroid/sipua/ui/VideoCamera.java
la source
J'ai construit un SDK open source appelé Kickflip pour faire du streaming vidéo depuis Android une expérience indolore.
Le SDK montre l'utilisation de l' API MediaCodec d'Android 4.3 pour diriger les paquets de l'encodeur matériel de l'appareil directement vers FFmpeg pour RTMP (avec librtmp) ou le streaming HLS de H.264 / AAC. Il montre également les effets OpenGL en temps réel (titrage, incrustation en chrominance, fondus) et l'enregistrement en arrière-plan.
Merci donc, et surtout, fadden .
la source
Voici un article complet sur le streaming de vidéos de caméras Android sur une page Web.
Android Streaming Live Camera Video to Web Page
la source
Exemple: ffmpeg_link = "rtmp: // yourserveripaddress: 1935 / live / venkat";
nous pouvons envoyer des vidéos de type H263 et H264 en utilisant ce lien.
la source
Ce n'est pas une réponse complète, mais webRTC est peut-être ce que vous recherchez. Voici quelques exemples rapides de webRTC en action: http://www.webrtc.org/reference-apps
Si vous voulez du code spécifique Android, il existe! http://www.webrtc.org/native-code/android
la source
Consultez la bibliothèque Yasea
Fonctionnalité:
la source
Mux (mon entreprise) a une application Android open source qui diffuse RTMP sur un serveur, y compris la configuration de la caméra et les interactions utilisateur. Il est conçu pour diffuser vers l'API de streaming en direct de Mux, mais peut facilement diffuser vers n'importe quel point d'entrée RTMP.
la source
Selon votre budget, vous pouvez utiliser un appareil photo Raspberry Pi qui peut envoyer des images à un serveur. J'ajoute ici deux tutoriels où vous pouvez trouver beaucoup plus de détails:
Ce tutoriel vous montre comment utiliser un appareil photo Raspberry Pi et afficher des images sur un appareil Android
Ceci est le deuxième tutoriel où vous pouvez trouver une série de tutoriels sur le streaming vidéo en temps réel entre la caméra et l'appareil Android
la source