• Aucun résultat trouvé

Classification des pixels

Lors de l’étape de segmentation, TWS transforme le problème en une classification de pixels selon les dimensions définies lors de l’étape précédente. L’utilisateur sélectionne alors le nombre de classes et la méthode de classification avant de procéder à l’étape d’étiquetage. Après entraînement du classificateur, on pourra l’appliquer aux différents jeux de données où à chaque pixel sera attribuée une probabilité d’appartenance à une classe.

Afin de normaliser nos stratégies d’analyse, Dave Trinel (ingénieur d’étude CNRS du pla- teau TISBio) a alors testé les différents classifieurs disponibles et comparé à un classifieur de référence en apprentissage supervisé : le Naïve Bayésien (Rish, 2001) choisit pour ses caractéris- tiques de classifieur à forte indépendance (dite naïve) des hypothèses et qui peut être entraîné efficacement dans un contexte d’apprentissage supervisé. Dans un premier temps, nous avons alors choisi le classificateur « Random Forest » (Breiman, 2001) qui présente le meilleur compro- mis entre rapidité de calcul, temps d’apprentissage et précision des résultats.

Application

Nous avons tout d’abord réalisé une étape de labellisation manuelle des pixels de quelques dizaines d’images de nos différents échantillons de feuilles d’Arabidopsis. Après différents tests, la configuration optimale consiste à définir 4 classes : le grain d’amidon, le plaste, les membranes et le fond. Une partie des pixels de l’image est alors utilisée pour l’apprentissage alors que le reste des pixels sera soumis à l’algorithme afin de valider la qualité de ce dernier. Comme nous le voyons dans la figure 43, ces premiers résultats sont particulièrement encourageants, en particu- lier pour la détection des grains d’amidon qui peuvent alors facilement être segmentés sur leurs cartes de probabilité par des méthodes de segmentation traditionnelles.

Figure 42 : profils d’intensité, extraits sur les transformations d’images présentées en 41, au niveau des

trois grains d’amidon représentés par les étoiles blanches figure 40 (panneau haut) et de nos 4 catégories à classifier (panneau bas).

Figure 43 : labellisation et cartes de probabilités. L’image initiale (1) est labellisée manuellement en

4 classes (2) qui sont utilisées pour l’apprentissage (rouge, amidon; vert, stroma des plastes; bleu/violet, membranes; jaune/blanc, autre). L’ensemble des pixels est alors classé en fonction des paramètres déter-

miné par notre classificateur (3).

Afin de valider notre méthode pour l’étude des phénotypes des grains d’amidon, nous l‘avons appliquée à deux lignées parfaitement caractérisées : Col0 et ss4. Comme l’illustre la

figure 44, notre méthode permet bien de différencier les phénotypes « gros et petits grains » de ces deux lignées.

Figure 44 : détermination automatique de la taille des grains d’amidon dans les feuilles d’Arabidopsis

des lignées Col0 (sauvage) et ss4 (phénotype à gros grains).

Cette méthode est en cours de validation dans les différentes lignées mutantes disponibles au laboratoire. Elle semble particulièrement efficace pour l’analyse des grains d’amidon. Cepen- dant, elle semble un peu plus limitée quant à la classification précise des autres classes et néces- siterais une phase de labellisation beaucoup plus longue.

• Perspectives: Deep learning

L’utilisation du machine learning pour la classification d’objets en imagerie biologique nous a permis de fournir un premier niveau de réponse rapide pour l’étude des grains d’amidons

in situ. Cependant, notre objectif est de travailler sur des images avec des dimensions (x, y, z,

temps…) plus grandes, des types cellulaires variés (feuilles, tubercules...), et des objets à seg- menter plus complexes et variés, dans leurs formes et leurs textures (dans cet exemple : amidon, plastes et cellules végétales).

De plus, la solution basée sur le ML nécessité différentes étapes de pré- et de post-traite- ment puis de segmentation et sera donc plus difficile à mettre à disposition d’une communauté de non-spécialistes.

Le ML qui n’est composé que d’une seule méthode (un seul classifieur linéaire) n’est pas dimensionné pour lever l’ensemble de ces verrous technologiques. C’est à ce niveau que le «Deep Learning» (DL) (Huang et al., 2016), ou apprentissage profond, intervient. Par des ré- seaux à couches multiples, l’accumulation de méthodes que l’on peut comparer à l’accumulation de machines learning en couches profondes apporte une puissance de calcul et une souplesse d’apprentissage permettant le traitement de données aussi complexes (une centaine de carac- téristiques par image) que nombreuses (des milliers d’images). Aussi, les réseaux qui pourront être utilisés doivent être généralistes, leur permettant non seulement de s’adapter à notre pro- blématique de recherche, mais plus largement à n’importe quel sujet en imagerie du vivant.

L’approche du traitement de l’image par réseaux de neurones dans les trois dimensions et dans un environnement biologique végétal est en lui-même novateur et impliquera un dévelop- pement algorithmique.

Faisabilité

Les temps d’apprentissage en DL demande énormément de ressources, un ordinateur dédié a été acquis en septembre 2017 et son installation à l’UMR 8576 UGSF est finalisée. Il comprend :

-Une carte dédiée deep learning NVIDIA quadro P6000, 3800coeurs, 24Go de Ram.

-Un langage de programmation CUDA pour le parallélisme et la programmation de la carte NVI- DIA.

-La bibliothèque TensorFlow (Google’s machine intelligence research organization) pour la réali- sation de réseaux de neurones interfacée en python 3.0.

Nous avons tous d’abord sélectionné 2 environnements de développement complémen- taire pour déployer les solutions de DL i) tensorflow, développé par google est un des systèmes les plus complets et ii) Keras une interface de programmation qui permet de faire du prototy- page rapide et donne accès à différents environnements de développement, dont tensorflow.

Le déploiement d’un système de DL nécessite la validation de la mise en place du réseau sur des jeux de données de référence. Pour cette étape, nous avons utilisé le jeu de données CI- FAR-10, composé de 60.000 images reparties de façon mutuellement exclusive dans 10 classes. Le jeu de données est alors divisé en 5 jeux de 10.000 images et d’un jeu d’images de test ce qui permet de valider de façon robuste la mise en place des différentes étapes du DL: entraînement/ validation/application.

Le monde du DL et des réseaux de neurones est assez complexe et parfois peu intuitif. Pour situer les ordres de grandeur, notre premier réseau de test comporte plus d’un million de paramètres et réalise 20 millions d’opérations par images. Afin d’obtenir une compréhension optimale du réseau et de ces paramètres clefs, nous avons choisi d’utiliser le module Tensor- board qui permet de visualiser les réseaux et d’obtenir des données quantitatives sur les diffé- rentes étapes de nos réseaux, comme l’illustrent les figures 44 et 45.

Figure 44: Entraînement d’un réseau basé sur la bibliothèque TensorFlow pour classifier le jeux de données de réfé-

rence CIFAR-10 classiquement utilisé pour valider l’utilisation de réseaux de neurones pour la classification de données.

TensorBoard a également été utilisé pour visualiser les différentes étapes ainsi que leurs entrée/sorties. Une série d’images

extraite du CIFAR-10 (bleu) est introduite dans le réseau puis est déformée afin d’augmenter la taille du jeux d’image initial

(data augmentation, vert). Ces données passent alors au travers de différents réseaux de convolution (conv 1-2, rose).

Lors de ces étapes, différents filtres sont appliqués aux images (ou à certaines de ses régions). Afin d’augmenter la non- linéarité des résultats de chaque filtre, chaque pixel négatif est remplacé par des zéros (ReLU ou Rectified Linear Unit). Les cartes de textures obtenues pour chacun de ces filtres sont alors regroupées lors de la phase de «pooling» en bleu. Les

noyaux de convolutions associés aux étapes de regroupement de données peuvent être considérés comme des extracteurs de textures. Ces données sont alors traitées dans la dernière partie du réseau, appelée couches entièrement connectées (noir), qui va utiliser ces différentes textures pour classer les données en fonction du jeux d’entraînement. En sortie (Soft- max, orange), on obtient alors un vecteur nous donnant la probabilité pour notre image d’appartenir a chacune des 10

classes. (On peut noter que lors de la première itération, les paramètres étant aléatoire, le vecteur de probabilité obtenu est également aléatoire.) On calcule alors l’erreur d’estimation en comparant ce vecteur au vecteur attendu (dans cette

exemple, une probabilité de 1 pour la catégorie voiture, et de 0 pour toutes les autres). On va alors calculer un gradient d’erreur pour les différentes couches, et ajuster leurs paramètres en ajustant leur poids en fonction de leurs contribution

à l’erreur totale (cond 1-x, jaune) avant de poursuivre a l’itération suivante. Dans un réseau opérationnel, on aura alors

une diminution de l’entropie croisée à chaque itération jusqu’à convergence vers un apprentissage optimal. Dans notre

Perspectives

La suite de ce projet est mise en oeuvre par Dave Trinel sous ma direction, et co-enca- drée par deux experts reconnus dans le traitement d’image et le DL: Emmanuel Faure (équipe VORTEX, IRIT) et Marc Chaumont (équipe ICAR, LIRMM) et ce, en collaboration avec Fabrice Wattebled (équipe Glycobiologie végétale, UGSF).

À l’heure actuelle une étape de tests est réalisée afin de déterminer quels seraient les réseaux les plus adaptés pour segmenter de façon autonome les grains d’amidon et plastes asso- ciés. Outre les paramètres intrinsèques de précision et de robustesse du réseau, une attention particulière sera apportée à i) la simplicité de l’étiquetage ii) la possibilité de réaliser un système intégré, de l’image à la segmentation d’objets et simple d’utilisation.

Plusieurs méthodes sont explorées :

• Le weakly superviside pour une labellisation (étiquetage d’images) à la volée (Górriz, 2017)

• L’active deep learning pour une base de données non labellisée (Goodfellow et al., 2014) • Le generative adverserial network pour l’apprentissage par compétition (Goodfellow et al., 2014)

Figure 45: Validation du réseau. Une fois le

réseau entraîné, il faut valider sa capacité à classifier les objets dans les différentes catégo- ries. Pour cela, nous allons utiliser des images CIFAR-10 différentes de celles utilisées lors de la phase d’entraînement. Chaque image suivra le même «pipeline» que lors de l’étapes d’entraî- nement jusqu’à l’étape de «softmax» ou la vali- dité de l’estimation sera testée. Notre réseau atteint les 87% de précision, ce qui valide notre

• Les réseaux CNN (plus classique) de détection et de segmentation (ResNet, DensNet, LeNet, Unet…) (Huang et al., 2016).

• L’instance segmentation: conversion de caractéristiques physiques d’un objet à une classe sémantique (Bai and Urtasun, 2016).

• Le transfert learning pour l’apprentissage à « l’aveugle » (Sawada et al., 2017).

L’objectif de ce projet consistera alors à développer :

• Solution logiciel pour la labellisation des images biologiques par des experts biologistes. • Segmentation par réseaux de neurones pour l’image biologique 2D (pixel) in vivo. • Segmentation par réseaux de neurones pour l’image biologique 3D (voxel) in vivo. • Études morphologiques 3D des grains d’amidon par apprentissage automatique.

• Mise en production des réseaux sur serveur dédié hébergé à l’université de Lille et acces- sible à la communauté scientifique en biologie santé.

Lors de ces différentes étapes, nous utiliserons différents jeux de tests de complexités variables choisies pour être segmentés par les méthodes classiques, par le machine learning ou ne pouvant pas être segmenté de façon robuste par les approches traditionnelles. Ainsi, nous pourrons valider l’efficacité de nos solutions en termes de précision, de robustesse et de vitesse. Nous appréhenderons ainsi les différentes problématiques biologiques pouvant bénéfi- cier de ces nouvelles technologies notamment dans le cadre d’un partenariat avec la société HCS Pharma que nous avons initié fin 2017.

bibLiographie

Allen, M.D., and Zhang, J. (2006). Subcellular dynamics of protein kinase A activity visualized by FRET-based reporters. Biochem. Biophys. Res. Commun. 348, 716–721.

Arganda-Carreras, I., Kaynig, V., Rueden, C., Eliceiri, K.W., Schindelin, J., Cardona, A., and Sebas- tian Seung, H. (2017). Trainable Weka Segmentation: a machine learning tool for microscopy pixel classification. Bioinforma. Oxf. Engl. 33, 2424–2426.

Bai, M., and Urtasun, R. (2016). Deep Watershed Transform for Instance Segmentation. ArXiv161108303 Cs.

Ball, S.G., and Morell, M.K. (2003). From Bacterial Glycogen to Starch: Understanding the Bioge- nesis of the Plant Starch Granule. Annu. Rev. Plant Biol. 54, 207–233.

Becker, W., Bergmann, A., Hink, M.A., König, K., Benndorf, K., and Biskup, C. (2004). Fluorescence lifetime imaging by time-correlated single-photon counting. Microsc. Res. Tech. 63, 58–66. Bertoft, E. (2017). Understanding Starch Structure: Recent Progress. Agronomy 7, 56.

Bouvier, M. (2001). Oligomerization of G-protein-coupled transmitter receptors. Nat. Rev. Neu- rosci. 2, 274–286.

Breiman, L. (2001). Random Forests. Mach. Learn. 45, 5–32.

Burotto, M., Chiou, V.L., Lee, J.-M., and Kohn, E.C. (2014). The MAPK pathway across different malignancies: A new perspective. Cancer 120, 3446–3456.

Camuzeaux, B., Spriet, C., Héliot, L., Coll, J., and Duterque-Coquillaud, M. (2005). Imaging Erg and Jun transcription factor interaction in living cells using fluorescence resonance energy trans- fer analyses. Biochem. Biophys. Res. Commun. 332, 1107–1114.

Couve, A., Filippov, A.K., Connolly, C.N., Bettler, B., Brown, D.A., and Moss, S.J. (1998). Intracellu- lar retention of recombinant GABAB receptors. J. Biol. Chem. 273, 26361–26367.

Couve, A., Moss, S.J., and Pangalos, M.N. (2000). GABAB receptors: a new paradigm in G protein signaling. Mol. Cell. Neurosci. 16, 296–312.

Couve, A., Kittler, J.T., Uren, J.M., Calver, A.R., Pangalos, M.N., Walsh, F.S., and Moss, S.J. (2001). Association of GABA(B) receptors and members of the 14-3-3 family of signaling proteins. Mol. Cell. Neurosci. 17, 317–328.

Dehghani, M., Zamani, H., Severyn, A., Kamps, J., and Croft, W.B. (2017). Neural Ranking Models with Weak Supervision. ArXiv170408803 Cs.

Depry, C., and Zhang, J. (2011). Using FRET-based reporters to visualize subcellular dynamics of protein kinase A activity. Methods Mol. Biol. Clifton NJ 756, 285–294.

Derjean, D., Bertrand, S., Le Masson, G., Landry, M., Morisset, V., and Nagy, F. (2003). Dynamic balance of metabotropic inputs causes dorsal horn neurons to switch functional states. Nat. Neurosci. 6, 274–281.

Dittrich, P., Malvezzi-Campeggi, F., Jahnz, M., and Schwille, P. (2001). Accessing molecular dyna- mics in cells by fluorescence correlation spectroscopy. Biol. Chem. 382, 491–494.

Dross, N., Spriet, C., Zwerger, M., Müller, G., Waldeck, W., and Langowski, J. (2009). Mapping eGFP Oligomer Mobility in Living Cell Nuclei. PLOS ONE 4, e5041.

Fardini, Y., Dehennaut, V., Lefebvre, T., and Issad, T. (2013). O-GlcNAcylation: A New Cancer Hall- mark? Front. Endocrinol. 4.

Findinier, J., Tunçay, H., Schulz-Raffelt, M., Deschamps, P., Spriet, C., Lacroix, J.-M., Duchêne, T., Szydlowski, N., Li-Beisson, Y., Peltier, G., et al. (2017). The Chlamydomonas mex1 mutant shows impaired starch mobilization without maltose accumulation. J. Exp. Bot. 68, 5177–5189.

Goldman, R.D., Gruenbaum, Y., Moir, R.D., Shumaker, D.K., and Spann, T.P. (2002). Nuclear la- mins: building blocks of nuclear architecture. Genes Dev. 16, 533–547.

Goodfellow, I.J., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., Courville, A., and Bengio, Y. (2014). Generative Adversarial Networks. ArXiv14062661 Cs Stat.

Górriz, M. (2017). Active Deep Learning for Medical Imaging Segmentation.

Grace, K., Salvatier, J., Dafoe, A., Zhang, B., and Evans, O. (2017). When Will AI Exceed Human Performance? Evidence from AI Experts. ArXiv170508807 Cs.

Guldbrand, S., Kirejev, V., Simonsson, C., Goksör, M., Smedh, M., and Ericson, M.B. (2013). Two- photon fluorescence correlation spectroscopy as a tool for measuring molecular diffusion within human skin. Eur. J. Pharm. Biopharm. 84, 430–436.

Hall, M., Frank, E., Holmes, G., Pfahringer, B., Reutemann, P., and Witten, I. (2008). The WEKA data mining software: An update.

Herschel, J.F.W. (1845). IV. ’Aμóρϕω⋎a, no. I.— on a case of superficial colour presented by a homogeneous liquid internally colourless. Philos. Trans. R. Soc. Lond. 135, 143–145.

Huang, G., Liu, Z., van der Maaten, L., and Weinberger, K.Q. (2016). Densely Connected Convo- lutional Networks. ArXiv160806993 Cs.

Jenkins, P.J., and Donald, A.M. (1995). The influence of amylose on starch granule structure. Int. J. Biol. Macromol. 17, 315–321.

Jones, K.A., Borowsky, B., Tamm, J.A., Craig, D.A., Durkin, M.M., Dai, M., Yao, W.J., Johnson, M., Gunwaldsen, C., Huang, L.Y., et al. (1998). GABA(B) receptors function as a heteromeric assembly of the subunits GABA(B)R1 and GABA(B)R2. Nature 396, 674–679.

Karpova, T.S., Kim, M.J., Spriet, C., Nalley, K., Stasevich, T.J., Kherrouche, Z., Heliot, L., and McNal- ly, J.G. (2008). Concurrent Fast and Slow Cycling of a Transcriptional Activator at an Endogenous Promoter. Science 319, 466–469.

Kaupmann, K., Malitschek, B., Schuler, V., Heid, J., Froestl, W., Beck, P., Mosbacher, J., Bischoff, S., Kulik, A., Shigemoto, R., et al. (1998). GABA(B)-receptor subtypes assemble into functional heteromeric complexes. Nature 396, 683–687.

Komatsu, N., Aoki, K., Yamada, M., Yukinaga, H., Fujita, Y., Kamioka, Y., and Matsuda, M. (2011). Development of an optimized backbone of FRET biosensors for kinases and GTPases. Mol. Biol. Cell 22, 4647–4656.

Laffray, S., Bouali-Benazzouz, R., Papon, M.-A., Favereaux, A., Jiang, Y., Holm, T., Spriet, C., Desba- rats, P., Fossat, P., Le Feuvre, Y., et al. (2012). Impairment of GABAB receptor dimer by endoge- nous 14-3-3ζ in chronic pain conditions. EMBO J. 31, 3239–3251.

Legrand, A.J., Choul-Li, S., Spriet, C., Idziorek, T., Vicogne, D., Drobecq, H., Dantzer, F., Villeret, V., and Aumercier, M. (2013). The level of Ets-1 protein is regulated by poly(ADP-ribose) polyme- rase-1 (PARP-1) in cancer cells to prevent DNA damage. PloS One 8, e55883.

Liu, S., Zhang, J., and Xiang, Y.K. (2011). FRET-based direct detection of dynamic protein kinase A activity on the sarcoplasmic reticulum in cardiomyocytes. Biochem. Biophys. Res. Commun. 404, 581–586.

Loubser, P.G., and Akman, N.M. (1996). Effects of intrathecal baclofen on chronic spinal cord injury pain. J. Pain Symptom Manage. 12, 241–247.

Mies, F., Spriet, C., Héliot, L., and Sariban-Sohraby, S. (2007). Epithelial Na + Channel Stimulation by n-3 Fatty Acids Requires Proximity to a Membrane-bound A-kinase-anchoring Protein Com- plexed with Protein Kinase A and Phosphodiesterase. J. Biol. Chem. 282, 18339–18347.

Módos, K., Galántai, R., Bárdos-Nagy, I., Wachsmuth, M., Tóth, K., Fidy, J., and Langowski, J. (2004). Maximum-entropy decomposition of fluorescence correlation spectroscopy data: appli- cation to liposome-human serum albumin association. Eur. Biophys. J. EBJ 33, 59–67.

Nagai, Y., Miyazaki, M., Aoki, R., Zama, T., Inouye, S., Hirose, K., Iino, M., and Hagiwara, M. (2000). A fluorescent indicator for visualizing cAMP-induced phosphorylation in vivo. Nat. Biotechnol. 18, 313–316.

Olivier-Van Stichelen, S., Dehennaut, V., Buzy, A., Zachayus, J.-L., Guinez, C., Mir, A.-M., El Yazi- di-Belkoura, I., Copin, M.-C., Boureme, D., Loyaux, D., et al. (2014). O-GlcNAcylation stabilizes β-catenin through direct competition with phosphorylation at threonine 41. FASEB J. 28, 3325– 3338.

Otsu, N. (1979). A Threshold Selection Method from Gray-Level Histograms. IEEE Trans. Syst. Man Cybern. 9, 62–66.

Pavlopoulos, J., Malakasiotis, P., and Androutsopoulos, I. (2017). Deep Learning for User Com- ment Moderation. ArXiv170509993 Cs.

Potelle, S., Morelle, W., Dulary, E., Duvet, S., Vicogne, D., Spriet, C., Krzewinski-Recchi, M.-A., Morsomme, P., Jaeken, J., Matthijs, G., et al. (2016). Glycosylation abnormalities in Gdt1p/ TMEM165 deficient cells result from a defect in Golgi manganese homeostasis. Hum. Mol. Genet. 25, 1489–1500.

Potelle, S., Dulary, E., Climer, L., Duvet, S., Morelle, W., Vicogne, D., Lebredonchel, E., Houdou, M., Spriet, C., Krzewinski-Recchi, M.-A., et al. (2017). Manganese-induced turnover of TMEM165. Biochem. J. 474, 1481–1493.

Rish, I. (2001). An Empirical Study of the Naïve Bayes Classifier.

parallelization strategies. Fundam. Informaticae 41, 187–228.

Roshchina, V.V. (2012). Vital Autofluorescence: Application to the Study of Plant Living Cells. Santos, S.D.M., Verveer, P.J., and Bastiaens, P.I.H. (2007). Growth factor-induced MAPK network topology shapes Erk response determining PC-12 cell fate. Nat. Cell Biol. 9, 324–330.

Sawada, Y., Sato, Y., Nakada, T., Ujimoto, K., and Hayashi, N. (2017). All-Transfer Learning for Deep Neural Networks and its Application to Sepsis Classification. ArXiv171104450 Cs.

Schindelin, J., Rueden, C.T., Hiner, M.C., and Eliceiri, K.W. (2015). The ImageJ ecosystem: an open platform for biomedical image analysis. Mol. Reprod. Dev. 82, 518–529.

Schuler, V., Lüscher, C., Blanchet, C., Klix, N., Sansig, G., Klebs, K., Schmutz, M., Heid, J., Gentry, C., Urban, L., et al. (2001). Epilepsy, hyperalgesia, impaired memory, and loss of pre- and postsy- naptic GABA(B) responses in mice lacking GABA(B(1)). Neuron 31, 47–58.

Sipieter, F., Vandame, P., Spriet, C., Leray, A., Vincent, P., Trinel, D., Bodart, J.-F., Riquet, F.B., and Héliot, L. (2013). From FRET imaging to practical methodology for kinase activity sensing in living cells. Prog. Mol. Biol. Transl. Sci. 113, 145–216.

Sommer, C., and Gerlich, D.W. (2013). Machine learning in cell biology - teaching computers to recognize phenotypes. J. Cell Sci. 126, 5529–5539.

Spiering, D., Bravo-Cordero, J.J., Moshfegh, Y., Miskolci, V., and Hodgson, L. (2013). Quantitative Ratiometric Imaging of FRET-Biosensors in Living Cells. Methods Cell Biol. 114, 593–609.

Spriet, C., and Bodart, J.-F. (2015). FRET-Based Sensors for Kinase Activity: An Increasing Attrac- tiveness. Austin J Biosens Bioelectron 1, 1007.

Spriet, C., Trinel, D., Laffray, S., Landry, M., Vandenbunder, B., Heliot, L., and Barbillat, J. (2006). Setup of a fluorescence lifetime and spectral correlated acquisition system for two-photon mi- croscopy. Rev. Sci. Instrum. 77, 123702.

Spriet, C., Trinel, D., Waharte, F., Deslee, D., Vandenbunder, B., Barbillat, J., and Héliot, L. (2007). Correlated fluorescence lifetime and spectral measurements in living cells. Microsc. Res. Tech. 70, 85–94.

Steenackers, A., Olivier-Van Stichelen, S., Baldini, S.F., Dehennaut, V., Toillon, R.-A., Le Bourhis, X., El Yazidi-Belkoura, I., and Lefebvre, T. (2016). Silencing the Nucleocytoplasmic O-GlcNAc Transferase Reduces Proliferation, Adhesion, and Migration of Cancer and Fetal Human Colon Cell Lines. Front. Endocrinol. 7.

Tsien, R.Y. (1998). The green fluorescent protein. Annu. Rev. Biochem. 67, 509–544.

Tsien, R.Y. (2005). Building and breeding molecules to spy on cells and tumors. FEBS Lett. 579, 927–932.

Turner, A.P.F. (2013). Biosensors: sense and sensibility. Chem. Soc. Rev. 42, 3184–3196.

Valeur, B. (2002). Wiley: Molecular Fluorescence: Principles and Applications, 2nd Edition - Ber- nard Valeur, Mário Nuno Berberan-Santos (Wiley-VCH).

Vandame, P., Spriet, C., Trinel, D., Gelaude, A., Caillau, K., Bompard, C., Biondi, E., and Bodart, J.-F. (2014a). The spatio-temporal dynamics of PKA activity profile during mitosis and its correla-

tion to chromosome segregation. Cell Cycle 13, 3232–3240.

Vandame, P., Spriet, C., Riquet, F., Trinel, D., Cailliau-Maggio, K., and Bodart, J.-F. (2014b). Opti- mization of ERK activity biosensors for both ratiometric and lifetime FRET measurements. Sen- sors 14, 1140–1154.

Vondrick, C., Pirsiavash, H., and Torralba, A. (2016). Anticipating visual representations from unlabeled video. In Proceedings of the IEEE Conference on Computer Vision and Pattern Reco- gnition, pp. 98–106.

Wachsmuth, M., Waldeck, W., and Langowski, J. (2000). Anomalous diffusion of fluorescent probes inside living cell nuclei investigated by spatially-resolved fluorescence correlation spec- troscopy. J. Mol. Biol. 298, 677–689.

Waharte, F., Spriet, C., and Héliot, L. (2006). Setup and characterization of a multiphoton FLIM instrument for protein–protein interaction measurements in living cells. Cytometry A 69A, 299– 306.

Wollatz, L., Johnston, S., Lackie, P., and Cox, S. (2016). LungJ v0.5.1.