BIOINFO

BIOINFORMATIQUE

 
phylogeneticTreeweb.png

Les objectifs de la plateforme sont de proposer des solutions bioinformatiques pour répondre aux besoins des utilisateurs et collaborateurs mais aussi de développer de nouveaux outils et environnements pour l’analyse informatisée des données de la biologie et particulièrement pour l’étude des génomes et de la diversité des espèces.

ACTIVITÉS

Notre expertise la plus ancienne porte sur l’annotation des génomes. Nous avons ainsi contribué au développement des logiciels EuGène, FrameD/FrameDP (collaboration Thomas Schiex, MIAT) pour l’annotation structurale des génomes. Ces dernières années, nous avons formé de nombreux collègues bioinformaticiens à leur utilisation.

 

Suite à l’assemblage, l’annotation structurale et fonctionnelle des génomes, nous maintenons sur le long terme plusieurs portails génomes, aussi bien pour des symbiotes, des pathogènes que des plantes (la légumineuse modèle Medicago truncatula, Tournesol, Rose, etc.).

 

Au niveau post-génomique, nous développons des environnements d’analyses intégratifs et des bases de connaissances (Legoo, EffectorK, etc.) pour intégrer des données hétérogènes haut-débit et/ou des connaissances. Un autre axe d’intégration porte sur la modélisation des réseaux métaboliques et de régulation, en particulier à travers le projet MetExplore (collaboration Fabien Jourdan, TOXALIM).

 

Nous développons actuellement un environnement pour l’étude de la diversité des espèces cultivés à travers la construction et l’exploitation des catalogues d’allèles (Atlas).

 

Au-delà de nos développements nous proposons des protocoles d’analyses pour les études épigénétiques chez les plantes et les bactéries, les analyses transcriptomiques, les analyses de diversités SNP, l’annotation fonctionnelle des protéines, etc.

 

Notre plan de gestion des données de séquence exploite l’environnement Archive que nous développons depuis une décennie. Archive nous permet de collecter données et metadonnées au plus près de la production afin de gérer le cycle de vie de la données, de l’acquisition jusqu’à la publication (dans les bases de données publiques ou en générant un doi Archive).

 

Au niveau technologique, nos projets de développement récents sont basés sur l’architecture ‘Big data’ Apache Spark qui unifie de nombreuses méthodes d’analyses des données, le calcul distribué et le couplage à des données organisées dans des lacs de données. Notre cluster de calcul Spark de 1152 HT est également utilisable en mode SGE.

Nos publications/contributions

Nos développements et financements