J’ai dans le projet d’une association de faire une caméra pour visualiser en direct(soit sur youtube ou autre plate-forme) mais aussi envoyer en ftp une image à intervalle régulier sur un site internet.
J’ai essayé avec Motioneye(pour le ftp) et OBS studio(pour le côté rtsp) sur le même Raspberry, mais la compatibilité entre les deux est difficile à cause d’une librairie à se que j’ai compris.
Est-ce que quelqu’un serait plus à l’aise ou aurait une piste pour pouvoir jumelé les deux sans conflit ?
Mes caractéristiques: Raspberry Pi 5 avec module caméra V3
As-tu avancé sur le sujet ?
Un simple script te permettrait d’afficher une image actualisée sur un site
ça déclenche la prise d’une photo puis ça la transmet en FTP sur un site.
Dans le script, tu peux même personnaliser la photo avec date/heure, informations diverses avec ImageMagick.
Et avec une tache cron, tu peux expédier la photo chaque minute si tu veux.
Je viens de le faire sur un RpiZero avec BookWorm en Lite et une WebCam.
Installation de lftp pour passer en sftp chez un hébergeur
Installation de fswebcam car j’utilise une webcam
Créarion d’un script bash pour prendre une photo et l’horodatée puis la copier sous le nom « last.jpg » pour transférer uniquement « last.jpg » sur le serveur distant.
J’ai mis une tache cron toutes les minutes
C’est bon, j’ai 1 photo de l’extérieur de chez moi chaque minute sur un site.
C’est donc faisable aisément et pour pas cher.
++
Edit :
Pour que cela fonctionne mieux, modification (amélioration) du script ce midi :
RpiZero prend une photo nommée par date_heure (une variable)
Génération d’une page html simple avec cette image (récupère la variable)
Transfert de l’image et de l’index.html via sFTP
Refresh auto de la page toutes les 60 secondes (dans le code html)
Ça semble fonctionner parfaitement sur mon PC Linux avec Firefox et Chromium.
Faudrait que je ressorte un Pi4 et un module Camléra V3 mais je pense que ma solution ci-dessus pourrait fonctionner avec fswebcam et une WebCam pour la photo toutes les X minutes sur site Web et, en parallèle, utiliser ffmpeg avec le module caméra
Un truc du genre
J’ai fait tourner la carte SD de mon Rpi Zero sur un Rpi4.
J’ai bien la photo qui est prise de manière séquentielle avec la caméra.
En parallèle, je lance, à la main pour le moment, la commande raspivid -o video.h264 -w 640 -h 480 -t 10000
Et j’ai bien une vidéo de 10 secondes.
J’ai lancé une prise de vidéo à 22h09 et 55 secondes avec une vidéo de 10 secondes soit pile lors de la prise de la photo.
J’ai bien ET une photo webcam ET une vidéo avec le module RaspiCam v3.
Il suffit de trouver comment diffuser en live et c’est good (je n’ai pas de compte youtube et refuse d’en avoir un).
Genre : rpicam-vid --width 640 --height 480 -t 0 -o - | \ ffmpeg -re -ar 44100 -ac 2 -acodec pcm_s16le -f s16le -ac 2 -i /dev/zero \ -f h264 -i - -vcodec copy -acodec aac -ab 128k -g 50 -strict experimental \ -f flv rtmp://a.rtmp.youtube.com/live2/<YOUR_STREAM_KEY>
Ça devrait permettre d’utiliser raspi-vid et donc de forcer l’usage du module RaspiCam mais aussi d’utiliser ffmpeg afin de transcoder en flux RTMP.
++
Photo :
Vidéo (juste une capture) :
On voit que la photo et la vidéo sont concomitantes :