Visual learning in Apis mellifera under virtual reality conditions - Inserm - Institut national de la santé et de la recherche médicale Accéder directement au contenu
Thèse Année : 2022

Visual learning in Apis mellifera under virtual reality conditions

Apprentissage visuel en réalité virtuelle chez Apis mellifera

Résumé

Equipped with a brain smaller than one cubic millimeter and containing ~950,000 neurons, honeybees display a rich behavioral repertoire, among which appetitive learning and memory play a fundamental role in the context of foraging activities. Besides elemental forms of learning, where bees learn specific association between environmental features, bees also master different forms of non-elemental learning, including categorization, contextual learning and rule abstraction. These characteristics make them an ideal model for the study of visual learning and its underlying neural mechanisms. In order to access the working brain of a bee during visual learning the insect needs to be immobilized. To do so, virtual reality (VR) setups have been developed to allow bees to behave within a virtual world, while remaining stationary within the real world. During my PhD, I developed a flexible and open source 3D VR software to study visual learning, and used it to improve existing conditioning protocols and to investigate the neural mechanism of visual learning. By developing a true 3D environment, we opened the possibility to add frontal background cues, which were also subjected to 3D updating based on the bee movements. We thus studied if and how the presence of such motion cues affected visual discrimination in our VR landscape. Our results showed that the presence of frontal background motion cues impaired the bees' performance. Whenever these cues were suppressed, color discrimination learning became possible. Our results point towards deficits in attentional processes underlying color discrimination whenever motion cues from the background were frontally available in our VR setup. VR allows to present insects with a tightly controlled visual experience during visual learning. We took advantage of this feature to perform ex-vivo analysis of immediate early gene (IEG) expression in specific brain area, comparing learner and non-learner bees. Using both 3D VR and a lore restrictive 2D version of the same task we tackled two questions, first what are the brain region involved in visual learning? And second, is the pattern of activation of the brain dependent on the modality of learning? Learner bees that solved the task in 3D showed an increased activity of the Mushroom Bodies (MB), which is coherent with the role of the MB in sensory integration and learning. Surprisingly we also found a completely different pattern of IEGs expression in the bees that solved the task in 2D conditions. We observed a neural signature that spanned the optic lobes and MB calyces and was characterized by IEG downregulation, consistent with an inhibitory trace. The study of visual learning's neural mechanisms requires invasive approach to access the brain of the insects, which induces stress in the animals and can thus impair behaviors in itself. To potentially mitigate this effect, bumble bees Bombus terrestris could constitute a good alternative to Apis mellifera as bumble bees are more robust. That's why in the last part of this work we explored the performances of bumblebees in a differential learning task in VR and compared them to those of honey bees. We found that, not only bumble bees are able to solve the task as well as honey bees, but they also engage more with the virtual environment, leading to a lower ratio of discarded individuals. We also found no correlation between the size of bumble bees and their learning performances. This is surprising as larger bumble bees, that assume the role of foragers in the colony, have been shown to be better at learning visual tasks in the literature.
Dotées d'un cerveau de moins d'un millimètre cube et contenant environ 950 000 neurones, les abeilles présentent un riche répertoire comportemental, parmi lesquels l'apprentissage appétitif et la mémoire jouent un rôle fondamental dans le contexte des activités de recherche de nourriture. Outre les formes élémentaires d'apprentissage, où les abeilles apprennent une association spécifique entre des événements de leur environnement, les abeilles maîtrisent également différentes formes d'apprentissage non-élémentaire, à la fois dans le domaine visuel et olfactif, y compris la catégorisation, l'apprentissage contextuel et l'abstraction de règles. Ces caractéristiques en font un modèle idéal pour l'étude de l'apprentissage visuel et pour explorer les mécanismes neuronaux qui sous-tendent leurs capacités d'apprentissage. Afin d'accéder au cerveau d'une abeille lors d'une tâche d'apprentissage visuel, l'insecte doit être immobilisé. Par conséquent, des systèmes de réalité virtuelle (VR) ont été développés pour permettre aux abeilles d'agir dans un monde virtuel, tout en restant stationnaires dans le monde réel. Au cours de mon doctorat, j'ai développé un logiciel de réalité virtuelle 3D flexible et open source pour étudier l'apprentissage visuel, et je l'ai utilisé pour améliorer les protocoles de conditionnement existants en VR et pour étudier le mécanisme neuronal de l'apprentissage visuel. En étudiant l'influence du flux optique sur l'apprentissage associatif des couleurs, j'ai découvert que l'augmentation des signaux de mouvement de l'arrière-plan nuisait aux performances des abeilles. Ce qui m'a amené à identifier des problèmes pouvant affecter la prise de décision dans les paysages virtuels, qui nécessitent un contrôle spécifique par les expérimentateurs. Au moyen de la VR, j'ai induit l'apprentissage visuel chez des abeilles et quantifié l'expression immédiate des gènes précoces (IEG) dans des zones spécifiques de leur cerveau pour détecter les régions impliquées dans l'apprentissage visuel. En particulier, je me suis concentré sur kakusei, Hr38 et Egr1, trois IEG liés à la recherche de nourriture et à l'orientation des abeilles et qui peuvent donc également être pertinents pour la formation d'association visuelle appétitive. Cette analyse suggère que les corps pédonculés sont impliqués dans l'apprentissage associatif des couleurs. Enfin, j'ai exploré la possibilité d'utiliser la VR sur d'autres modèles d'insectes et effectué un conditionnement différentiel sur des bourdons. Cette étude a montré que non seulement les bourdons sont capables de résoudre cette tâche cognitive aussi bien que les abeilles, mais aussi qu'ils interagissent davantage avec la réalité virtuelle, ce qui entraîne un ratio plus faible d'individus rejetés de l'expérience par manque de mouvement. Ces résultats indiquent que les protocoles VR que j'ai établis au cours de cette thèse peuvent être appliqués à d'autres insectes, et que le bourdon est un bon candidat pour l'étude de l'apprentissage visuel en VR.
Fichier principal
Vignette du fichier
2022TOU30016a.pdf (8.56 Mo) Télécharger le fichier
Origine : Version validée par le jury (STAR)

Dates et versions

tel-03714699 , version 1 (05-07-2022)

Identifiants

  • HAL Id : tel-03714699 , version 1

Citer

Gregory Lafon. Visual learning in Apis mellifera under virtual reality conditions. Neuroscience. Université Paul Sabatier - Toulouse III, 2022. English. ⟨NNT : 2022TOU30016⟩. ⟨tel-03714699⟩
186 Consultations
106 Téléchargements

Partager

Gmail Facebook X LinkedIn More