Le développement exponentiel de l’activité humaine au cours des deux derniers siècles a profondément modifié l’environnement dans lequel nous vivons. En particulier le changement d’utilisation des sols, l’utilisation intensive de biocides combinés au réchauffement climatique jouent un rôle majeur dans le déclin de la biodiversité observé mondialement. Les insectes pollinisateurs, espèces auxiliaires nécessaires pour la pollinisation de nombreuses cultures, sont particulièrement touchées, avec des déclins enregistrés à plus de 60% en l’espace de quelques décennies selon les régions du monde (Sánchez-Bayo and Wyckhuys, 2019).
Pour mieux comprendre et enrayer ce déclin massif, il est crucial d’augmenter la fréquence spatiale et temporelle des inventaires d’espèces et des suivis d’abondance (nombre d’individus d’une même espèce par unité de temps ou d’espace), ainsi que leur précision. Pouvoir échantillonner régulièrement la biodiversité dans une multitude d’environnements plus ou moins affectés par les changements globaux est nécessaire pour identifier précisément les causes des déclins observés et évaluer l’efficacité des politiques de conservation.
Or les inventaires et suivis d’abondance réalisés par des spécialistes (naturalistes ou écologues) sont extrêmement coûteux en main d’œuvre et en temps et donc limitent nos capacités à mener des suivis exhaustifs de biodiversité sur de grands territoires. De plus, pour de nombreuses espèces de pollinisateurs et notamment pour les abeilles sauvages, ils nécessitent systématiquement une mise à mort des individus pour une identification taxonomique au niveau de l’espèce par l’étude des traits morphologiques sous loupe binoculaire.
L’avènement des sciences participatives a permis de contourner partiellement cette difficulté en fournissant des quantités impressionnantes de données, notamment grâce à la photographie de pollinisateurs (Programme SPIPOLL). Néanmoins les protocoles de sciences participatives trouvent leurs limites dans la précision des identifications lorsqu’il s’agit de faire reconnaître des espèces morphologiquement proches par des citoyens non experts, un problème récurrent en entomologie. L’utilisation d’outils issus de l’intelligence artificielle, notamment grâce aux techniques dites d’apprentissage profond (deep learning), appliqués sur des photographies collectées par des citoyens, peut permettre de dépasser ces limites. L’apprentissage profond basé sur des réseaux de neurones convolutifs (CNN) a révolutionné le champ de la vision par ordinateur en affichant des performances de reconnaissance d’objets complexes dans des scènes naturelles proches ou supérieures à celles des humains (LeCun et al., 2015; Serre, 2019).
Le projet deepABIS a très récemment montré qu’une telle approche pourrait être utilisée pour identifier certaines abeilles sauvages avec une précision proche de 98% à partir de clichés d’ailes (Buschbacher et al., 2020). Néanmoins cette étude se base sur seulement 124 espèces d’abeilles collectées en Allemagne, Brésil, Etats Unis et Chine et utilise des photographies prises en condition standardisées sur des animaux mis en collections. Réaliser un système équivalent sur des photographies d’individus éveillés en milieu naturel et donc utilisable de manière non invasive dans le cadre de programmes de sciences participatives ou à travers l’utilisation de pièges photographiques représente encore un véritable défi.
En effet, les CNNs requièrent des centaines d’images par classe d’objets à identifier pour une détection et reconnaissance automatique fiable en conditions naturelles (non-standardisées). Le principal écueil à la réalisation d’une telle banque d’images est la difficulté d’obtenir à la fois les clichés d’un spécimen en milieu naturel et son identification. Même pour des experts entomologistes, identifier de manière fiable une espèce sur la simple base d’un cliché photographique isolé est souvent impossible. L’entomologie classique se trouve donc confrontée au dilemme de devoir prélever et mettre en collection les insectes pour mieux les connaître et les protéger.
Pour pouvoir étudier de manière fine les abeilles sauvages sans mise à mort, les objectifs de ce stage sont:
Compiler les photographies disponibles avec une identification à l’espèce fiable pour constituer une base d’entraînement pour les algorithmes d’apprentissages profonds
Développer un protocole non invasif pour l’acquisition de nouvelles données (photo, vidéo et son) optimisé pour l’identification fiable sans mise à mort et l’entraînement des CNNs
A partir de ces deux bases de données complémentaires, développer et évaluer un algorithmes de détection et reconnaissance pour l’identification des espèces d’abeilles sauvages les plus abondantes dans le jeux de données
Dans un premier temps (Janvier-Février), le stagiaire compilera l’ensemble des photographies d’abeilles sauvages prises sur le terrain qui ont été suivies d’une capture de l’individu et d’une identification dans les règles de l’art sous loupe binoculaire par un expert reconnu. Si un tel couple de données (photo + identification taxonomique) était jusqu’à présent assez rare, il devient de plus en plus courant grâce à la monté en compétence des naturalistes amateurs d’entomologie, la baisse des prix du matériel photographique de qualité et l’existence de plateforme web permettant de partager ses clichés photographiques (ex: Flickr, Instagram, INaturalist). Pour vérifier la disponibilité des images et les méthodes d’identification, le stagiaire identifiera les plus gros contributeurs de données sur ces plateformes puis les contactera. Il/elle aura également accès à la base de données constituée par un des experts français des abeilles sauvages. En parallèle, le/la stagiaire développera une liste des abeilles identifiables de manière certaine sur simple clichés photographiques et des critères morphologiques associés. Cette liste sera utilisée pour compléter la base de données avec des images issus du programme SPIPOLL dont l’identification sera validée par un expert. Pour chaque photographie, des boîtes englobantes seront dessinées autour des individus afin d’augmenter la précision d’identification et de pouvoir compter et traquer les individus dans de futurs applications.
Dans un second temps (Mars-Mai), le/la stagiaire développera un nouveau protocole d’inventaire non invasif permettant l’identification fiable de certaines espèces sans mise à mort en combinant la prise de photos selon différents angles de vue avec du matériel optique à haute résolution et l’enregistrement des bourdonnements Les inventaires seront réalisés sur les sites d’études du projet ECONECT en Occitanie (https://econect.cnrs.fr/) et permettront donc d’évaluer l’efficacité du protocole dans des milieux contrastés en altitude, pratiques agricoles et urbanisations. Hors cadre du stage proposé, ces inventaires seront également utilisés pour évaluer l’effet des pressions anthropiques (contaminant organiques et ETM, structure paysagère) sur les communautés d’abeilles et les interactions entre dynamique des colonies d’abeilles mellifères et diversités des communautés d’abeilles sauvages.
Enfin (Mai-Juin), le/la stagiaire utilisera un modèle CNN pour la détection d’objets (ex: Moblinet SSD) pour classifier à l’espèce les abeilles sauvages les plus abondantes dans la base de données.
Le/la candidat(e) idéal(e) aura une expérience en entomologie (en particulier chez les hyménoptères), de bonnes notions de taxonomie et de morphologie et une pratique de la macrophotographie. Il/elle aura également un intérêt pour la vision par ordinateur et des connaissances en Python.
Le/la stagiaire sera basé à la station d’écologie théorique et expérimentale (Moulis, Ariège) avec la possibilité de louer une chambre sur la station pour 150€/mois. Il sera directement encadré par M. Cauchoix avec des réunions régulières avec A. Perrard et pourra collaborer et covoiturer avec les membres de l’équipe ECONECT. Il sera aidé par des experts en abeilles sauvages pour l’identification des spécimens, la constitution de la liste des abeilles identifiables sur photographies et le développement du protocole. Pour l’utilisation de l’apprentissage profond, il/elle bénéficiera des méthodes développées sur des jeux de données similaires par M. Cauchoix et de collaborations avec des spécialistes en vision par ordinateurs. Enfin, selon sa motivation le/la candidat(e) pourra participer aux analyses de communautés et d’interactions abeilles sauvages/domestiques dans le cadre du projet ECONECT ainsi qu’aux tests d’une nouvelle caméra intelligente pour le suivi automatisé des pollinisateurs en milieu naturel.

Références
Bibliography
Bonnet, P., Joly, A., Goëau, H., Champ, J., Vignau, C., Molino, J.-F., Barthélémy, D., and Boujemaa, N. (2016). Plant identification: man vs. machine. Multimed. Tools Appl. 75, 1647–1665. doi:10.1007/s11042-015-2607-4.
Buschbacher, K., Ahrens, D., Espeland, M., and Steinhage, V. (2020). Image-based species identification of wild bees using convolutional neural networks. Ecol. Inform. 55, 101017. doi:10.1016/j.ecoinf.2019.101017.
Horn, G. V., Aodha, O. M., Song, Y., Cui, Y., Sun, C., Shepard, A., Adam, H., Perona, P., and Belongie, S. (2018). The iNaturalist Species Classification and Detection Dataset. in 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition (IEEE), 8769–8778. doi:10.1109/CVPR.2018.00914.
LeCun, Y., Bengio, Y., and Hinton, G. (2015). Deep learning. Nature 521, 436–444. doi:10.1038/nature14539.
Sánchez-Bayo, F., and Wyckhuys, K. A. G. (2019). Worldwide decline of the entomofauna: A review of its drivers. Biol. Conserv. 232, 8–27. doi:10.1016/j.biocon.2019.01.020.
Serre, T. (2019). Deep learning: the good, the bad, and the ugly. Annu. Rev. Vis. Sci. 5, 399–426. doi:10.1146/annurev-vision-091718-014951.

Le contenu de cette offre est la responsabilité de ses auteurs. Pour toute question relative à cette offre en particulier (date, lieu, mode de candidature, etc.), merci de les contacter directement. Un email de contact est disponible: mcauchoixxx@gmail.com

Pout toute autre question, vous pouvez contacter sfecodiff@sfecologie.org.