L’objectif général du projet de recherche est d’évaluer les performances de récents algorithmes et techniques de Deep Learning (apprentissage profond) pour la détection et le comptage de troupeaux de grands mammifères dans des paysages arides et semi-arides d’Afrique, sur base de différents types d’imagerie de télédétection.
Pour répondre à cet objectif général, trois sous-objectifs spécifiques ont été établis et correspondent aux trois niveaux d’échelle, d’imagerie et de résolution envisagés :

  • Échelle locale – Ultra haute résolution (1 à 10 cm/pixel) : Étudier l’utilisation d’images à ultra haute résolution, acquises par caméras aéroportées, pour la détection, l’identification et le comptage automatique d’espèces de grands mammifères africains.
  • Échelle paysagère – Très haute résolution (0,30 à 1 m/pixel) : Étudier l’utilisation de l’imagerie satellite optique à très haute résolution pour la détection et le comptage de troupeaux de grands mammifères africains domestiques.
  • Échelle régionale – Haute résolution (1 à 10m/pixel) : Évaluer le potentiel de l’imagerie satellite radar à synthèse d’ouverture pour la macro-détection de grands troupeaux de grands mammifères domestiques.

La zone d’étude principale est la Réserve Naturelle et Culturelle de l’Ennedi (RNCE), située dans le nord-est du Tchad et gérée par l’ONG African Parks (www.africanparks.org). L’étude sera ensuite étendue à d’autres aires protégées, gérées par cet organisme, pour valider le protocole d’acquisition d’images aériennes mis au point et les modèles développés.

Cette recherche aura pour but, in fine, d’améliorer et préciser les méthodes traditionnelles d’inventaires aériens d’une part, et d’apporter de nouvelles méthodes de monitoring en utilisant l’imagerie satellitaire (optique et radar) d’autre part.
Ce projet de recherche est en étroite collaboration avec l’Université de Sherbrooke (Canada), le Centre de Recherche en Informatique de Montréal (CRIM, Canada) et la Réserve Naturelle et Culturelle de l’Ennedi (RNCE, Tchad).

Personne de contact : Alexandre Delplanque (PhD Student)