• Aucun résultat trouvé

Procédure d’analyse d’image

4.2 Obtention de la profondeur en fonction du temps

4.2.3 Procédure d’analyse d’image

Une fois les étapes précédentes réalisées, il faut segmenter les images prises entre le moment où la cavité est visible et celui pour lequel l’analyse ne peut plus être menée, c’est-à-dire séparer l’image en deux régions, l’intérieur et l’extérieur de la cavité produite

Figure 4.27 – Exemple de déroulement de la procédure d’analyse d’image pour le test référencé 621 – Re = 13 000, Tj = 48 oC et Dj = 4, 9 mm. Un seuil fixe de 30 a été utilisé et la limite de taille pour les éléments retirés était de 512 pixels. Sur la première image, l’axe d’analyse est représenté par une ligne verticale rouge, les lignes horizontales représentent dans l’ordre vertical descendant : la position de la surface, la position de la profondeur de cavité minimale détectable et la profondeur maximale de recherche de la cavité.

par l’ablation. Ces images sont alors analysées en utilisant Python 3 et Scikit-Image [87] en suivant la succession d’opérations suivante :

1. On soustrait le fond ;

2. On binarise l’image en lui appliquant un seuil – seuillage ; 3. On retire les petits objets ;

4. On localise ensuite l’interface en détectant un passage de la valeur FAUX à la valeur VRAI des pixels selon la verticale correspondant à l’axe du jet.

La figure 4.27 présente les différentes étapes de l’analyse pour un test relativement difficile à analyser du fait de la présence de ruissellement, l’essai 621. Nous allons main-tenant détailler les opérations d’analyse.

Lors de l’analyse, nous cherchons à interpréter les variations d’intensité des pixels en termes d’appartenance ou non à la cavité. Il faut donc écarter les variations qui ne sont pas générées par la présence de la cavité. La première source de variation est la variation propre à la scène observée, c’est le fond. Elle peut être constante au cours du temps et provenir d’une inhomogénéité de l’éclairage ou de la présence d’éléments tiers dans le champ de vision de la caméra, ou alors varier au cours du temps du fait, par exemple, d’un éclairage d’intensité variant avec le temps. Dans notre cas, nous n’avons pas constaté de variation du fond au cours du temps, sauf dans les cas pour lesquels de la buée était présente. Nous avons décidé de gérer ce problème dans l’opération de seuillage, présentée plus loin, plutôt qu’au niveau de la gestion du fond de la collection

d’images. Donc, la première image enregistrée par la caméra est prise comme image de fond. Plusieurs techniques existent pour s’affranchir de l’influence du fond. On peut soustraire pixel par pixel, à l’image analysée, l’image de fond ce qui donne une variation d’intensité absolue, ou alors diviser, pixel par pixel, l’image analysée par l’image de fond. Nous avons opté pour la première méthode dans le but d’éviter l’amplification du bruit dans les zones de basse intensité de l’image de fond.

Le problème de segmentation par seuillage consiste à déterminer une intensité telle que tous les pixels ayant une intensité supérieure au seuil soient considérés comme ap-partenant à une région, et le reste des pixels soient considérés comme apap-partenant à la seconde région. La première méthode qui peut être utilisée consiste à déterminer une valeur fixe et l’appliquer à l’ensemble des images analysées. Cette approche revient à considérer que la zone d’intérêt se manifeste par une variation absolue d’intensité égale à la valeur du seuil. C’est celle que nous avons privilégiée. Pour déterminer la valeur du seuil à appliquer, des essais ont été réalisés en utilisant le logiciel Fiji [86]. Les seuils utilisés ont été sélectionnés de manière à ce que l’interface soit toujours détectable au niveau de l’axe du jet, et ce, sur l’ ensemble des images, après avoir retiré le fond, tout en essayant d’éviter d’avoir trop de parasites. Pour tous les essais réalisés, un seuil de 30 sur 256 niveaux de gris a été utilisé, sauf pour l’essai 631 pour lequel un seuil de 20 a été utilisé. Pour les essais 1011, 1012, 1021, 1022, 1031 et 1032 un seuil de 10 a été utilisé.

La seconde méthode employée pour le reste des expériences consiste à utiliser l’algo-rithme de Li et al. [88], disponible dans la librairie Scikit-Image [87], pour déterminer un seuil pour chaque image de la collection d’images correspondant à un essai. L’utilisation de cette méthode s’est avérée nécessaire lorsque de la buée était présente, car sa présence faisait varier l’intensité dans les zones où la cavité ne se trouvait pas. Ainsi, elle a été utilisée pour les essais référencés : 1013, 1014, 1015 et 1023. Cet algorithme repose sur la minimisation de l’entropie-croisée entre les deux zones obtenues après seuillage. Plus précisément, Li et al. [88] proposent de considérer l’image comme étant une fonction

f : N1 × N2 [0, 255] qui, à chaque pixel de coordonnées (x, y) ∈ [N1, N2], fait cor-respondre une valeur de l’intensité. Pour trouver le seuil on détermine une fonction g approximant f et dont la forme est donnée par l’équation (4.6). s est un seuil. µ1 et

µ2 sont des constantes représentant l’intensité dans chacune des deux régions, dont les valeurs dépendent de celle du seuil s. Elles sont déterminées en même temps que le seuil.

g(x, y) =

(

µ1, f(x, y) < s

µ2, f(x, y) > s (4.6)

Ensuite, on exprime l’entropie croisée – η – selon l’équation (4.7) dans laquelle les pixels sont considérés comme une collection 1D, c’est la raison pour laquelle ils sont adressés à l’aide d’un seul indice, i.

η(s) = X fi<s filog  fi µ1(s)  +X fi>s filog  fi µ2(s)  (4.7)

Figure 4.28 – Positions de l’interface – ligne rouge discontinue – déterminées avec 3 seuils différents pour deux t sur les images provenant de l’essai référencé 623 – Re = 55 000, Tj = 50oC et Dj = 5, 9 mm.

Enfin, le seuil optimal est obtenu en minimisant l’entropie-croisée η sous les contraintes suivantes :

— En chaque pixel g ∈ {µ1, µ2};

— f et g donnent la même intensité totale dans chacune des régions, ce qui se traduit par les égalités ci-après. µ1 correspond alors à la moyenne des intensités inférieures au seuil s, et µ2 correspond à la moyenne des intensités supérieures au seuil s. X fi<s fi= X fi<s µ1 et X fi>s fi = X fi>s µ2

Lors de nos traitements, nous n’avons pas remarqué de réelle influence de la valeur du seuil sur la détection de l’interface dans l’axe du jet. Pour illustrer notre propos la figure 4.28 montre, pour l’essai référencé 623 et t = 0, 5 et t = 1, 5, la position de l’interface détectée dans l’axe pour des seuils fixes de 20, 30 et 40. On ne constate aucune différence sur la valeur trouvée pour la profondeur de l’interface.

Néanmoins, on ne peut pas dire que la valeur du seuil n’a aucun effet sur la détection de l’interface, mais cette influence n’est pas de nature à faire changer l’évolution de la profondeur en fonction du temps. Elle aura pour effet de générer plus de points parasites. Ces points sont visiblement différents des autres et peuvent aisément être écartés. En « pool-effect », une variabilité plus grande de la position de l’interface, comparée au régime d’ablation en film, est parfois constatée. Changer le seuil n’influe pas sur cette

variabilité de la position de l’interface. Ainsi, comme de plus elle n’est pas rencontrée à chaque essai, nous avons fait le choix de traiter ce problème lors de la phase d’analyse de la profondeur en fonction du temps.

Malgré le soin apporté au dégagement de l’axe de visualisation, quelques éclaboussures venaient parfois perturber les mesures en provoquant des pics de variation d’intensité qui peuvent être détectés par la procédure d’analyse. Pour pallier ce problème, tous les éléments de l’image dont la surface, en nombre de pixels, est inférieure à une limite, sont supprimés. Plusieurs limites ont été utilisées : 64, 128 ou 512 suivant les cas.

Une fois l’ensemble de ces opérations réalisées, la position de l’interface est déterminée. Pour ce faire, on parcourt la colonne de l’image traitée correspondant à l’axe du jet entre une profondeur maximale et minimale7, et l’on détecte un changement de valeur d’intensité8.

Ensuite, les éventuels points aberrants sont retirés de l’ensemble des points qui seront analysés. Ce sont des points isolés ou des groupements se trouvant très éloignés des autres points, et dont la position n’est pas physique. Enfin, la position en pixels, et le numéro de l’image sont convertis en profondeur, en centimètres, et en temps grâce aux données récoltées lors de la phase de synchronisation.