• Aucun résultat trouvé

Procédures de mesure des performances et outils utilisés

cHAPITRE 3 : Méthodologie

3.4 Procédures de mesure des performances et outils utilisés

Un protocole fondé sur l’observation en différé des données de performance des athlètes a été utilisé. Ce protocole consiste à analyser rigoureusement les différents enregistrements vidéo de matchs et des entrainements. Aucune intervention directe ou indirecte n’a été effectuée auprès des joueurs ou des entraineurs pendant la période d’observation. Les équipes ont été observées en conditions réelles et l’analyse des matchs sur vidéo s’est faite à partir de l’ordinateur personnel du chercheur.

L'identification de chaque joueur pendant les matchs a été faite à partir du numéro de chandail. Ces numéros ont été vérifiés à l’aide des feuilles de match avant et pendant la partie dans le but d’éviter les erreurs d’identification. À chaque changement de joueurs pendant le match ou lors des demies, un zoom de caméra était effectué rapidement sur les sujets qui entraient ou sortaient du terrain suivi d’un gros plan sur le temps affiché au tableau indicateur.

69

L’ensemble du recueil et de l’analyse des données s’est basé sur différentes étapes qui seront décrites ici.

Rencontres préparatoires et appréciations des entraineurs.

Une première rencontre avec le personnel technique des deux équipes s’est déroulée avant le début de la saison universitaire de soccer 2013. Cette rencontre avait deux objectifs principaux. Le premier consistait à présenter le projet et informer les entraineurs des objectifs et du but de l’étude. Cette discussion a également permis de connaitre leur avis sur les objectifs de l’étude et de préciser leur implication dans le projet. Le deuxième objectif de la première rencontre était de valider un outil d’appréciation de performance qui serait utilisé régulièrement par les entraineurs afin de juger les performances de leurs joueurs, autant lors des périodes d’entrainement que lors des matchs.

La validation du processus de jugement des performances fut réalisée par consensus entre les entraineurs. Cette étape était nécessaire afin de s’assurer que les entraineurs observent et jugent les mêmes critères de la performance des athlètes. Les mesures issues de ces appréciations visaient à vérifier l’adéquation entre les performances mesurées grâce au TSAP et leur perception de la qualité des prestations des joueurs. Comme indiqué auparavant, cette forme de comparaison a été fréquemment utilisée comme analyse de validité concomitante pour plusieurs études visant à adapter le TSAP pour le hockey sur glace (Georget, 2013 ; Nadeau et al., 2008a).

Les appréciations des performances furent réalisées plusieurs fois au cours de la saison en fonction des performances compétitives observées et afin de tenir compte de la variabilité du niveau de performance des joueurs de match en match. Ces données seront comparées avec les résultats des mesures effectuées grâce au TSAP pour les mêmes périodes d’observation.

Les entraineurs ont rempli la grille d’observation le lendemain de chaque match disputé (Annexe C). Les athlètes ont été classés en fonction de trois niveaux de performance comme ce que Nadeau a réalisé pour la validation au hockey sur

70

glace (Nadeau, 2001). Chaque joueur reçoit de son ou ses entraineurs une des trois cotes de classement qui représente son niveau de jeu à savoir : (a) joueur peu performant, (b) joueur performant et (c) joueur très performant.

La confidentialité des données a été respectée vis-à-vis les joueurs. Les informations recueillies auprès des entraineurs sont restées secrètes et utilisées seulement par le chercheur. Sur le terrain, les discussions entre les entraineurs à propos des performances des joueurs se sont déroulées loin des joueurs afin de ne pas les influencer.

Pour classer les joueurs selon les trois niveaux, il fallait analyser la totalité des appréciations des entraineurs pour chaque athlète afin d’avoir une catégorisation finale selon toutes les performances de la saison. Ainsi, pour chaque appréciation par match, des points ont été attribués à chaque joueur comme suit : (a) un point pour le joueur jugé peu performant, (b) deux points pour le joueur jugé performant, et (c) trois points pour le joueur jugé très performant. La classification a été établie en faisant la somme des points accumulés pour chaque joueur et en tenant compte de la fréquence d’apparition de chaque appréciation au fil des matchs.

Il était également important de vérifier si le jugement des performances de chaque joueur variait d’une façon considérable d’un match à un autre, car il est normal que les prestations des joueurs fluctuent selon plusieurs paramètres (fatigue, blessure, stratégies de jeu, etc.). On cherche donc à savoir si les trois groupes de performance qui sont attribués par jugement d’experts par les entraineurs (peu performant, performant, très performant) sont habituellement constitués par les mêmes joueurs après chaque évaluation. Cette vérification de la stabilité des appréciations des entraineurs devrait permettre de confirmer si « le jugement moyen » des performances individuelles est représentatif de l’ensemble des appréciations réalisées par les coaches pour chaque joueur. Le fait que ces appréciations ne présentent pas des variations significatives au cours de la saison peut confirmer que les athlètes appartiennent au même groupe de performance au fil des matchs. Il serait ainsi envisageable de leur accorder une classification

71

générale qui permettra ensuite d’être comparée aux résultats obtenus grâce au TSAP. Pour ce faire, une analyse du nombre de fois que l’appréciation de l’entraineur a présenté un changement entre les matchs a été effectuée pour chaque joueur (Annexe D). On prend l’exemple d’un joueur qui a été jugé « performant » par son entraineur au premier match de la saison et « très performant » pour les 10 matchs restants. Pour ce joueur, le nombre de changements d’appréciation est négligeable par rapport au nombre total des jugements émis par l’entraineur. Il serait ainsi considéré dans le groupe de joueurs « très performants » sur l’ensemble de la saison.

Trois normes de variation ont été établies dans le but de déterminer si le changement des jugements des entraineurs est significatif :

 De 0 à 2 changements = variation d’appréciation nulle ou faible;  De 3 à 4 changements = variation d’appréciation assez élevée;  5 changements et plus = variation d’appréciation élevée.

Le calcul de la moyenne de ces changements pour tous les joueurs a permis d’obtenir une valeur globale illustrant la stabilité de l’appréciation des entraineurs et de la performance du joueur comme telle.

Mesure de la performance avec le TSAP.

3.4.2.1 Les variables d’observation du TSAP.

Les principales variables du TSAP qui ont été utilisées pour cette étude tiennent compte de toutes les possibilités d’actions qu’un joueur de soccer pourrait réaliser avec le ballon en situation de match, à savoir comment il peut en prendre possession et comment il peut s’en départir. Les adaptations effectuées du TSAP original ont permis de subdiviser les variables principales en des actions plus spécifiques afin de discriminer plus précisément les éléments qui expliquent la performance des joueurs compétitifs de haut niveau (Tableau 5) (Georget, 2013, Fortier, 2014). Par exemple, les passes offensives du modèle original ont été détaillées en fonction de la zone du terrain où elles sont issues (exemple : passes réalisées dans la zone offensive, milieu, zone défensive), ou encore les pertes

72

directes ont tenu compte des différentes causes de la perte du ballon (perte à partir d’une passe manquée, d’un mauvais contrôle, etc.). Ce niveau de précision s’avère nécessaire pour les équipes compétitives de haut niveau car ces micro-détails peuvent faire la différence au résultat final.

La définition de chaque variable du TSAP est une étape nécessaire à la validation de l’outil et pour éviter toute ambiguïté au niveau de l’observation des actions des joueurs (Tableau 5).

73 Tableau 5

Définitions des variables d’observation du TSAP (adapté pour le soccer compétitif)

Variables d’observation Abréviation Définition

A c ti o ns du j o ue ur po ur pre nd re po s s es s ion d u b al lon

Ballon conquis BC Un ballon est conquis lorsqu’un joueur réussit à avoir la possession du ballon soit sur une prise directe de l’adversaire ou sur une interception du ballon. Ballon reçu BR Un ballon est considéré reçu lorsqu’un

joueur le reçoit de la part de son coéquipier et réussit à le contrôler ou le rediriger vers un autre joueur de son équipe.

Hors contexte HC Actions réalisées avec le ballon à la suite d’un arrêt de jeu. Par exemple, une touche, un corner ou un coup franc.

A c ti o ns ef fec tué es pa r l e j o ue ur p ou r s ’e n d ép art ir

Passe offensive en zone offensive

POZO Passe effectuée entre les joueurs dans le tiers avant (entre la ligne de but et la fin de la surface de réparation offensive) qui fait progresser l’action vers l’avant ou qui permet de garder la possession du ballon en soutien.

Passe offensive en zone centrale

POZC Passe effectuée entre les joueurs dans le tiers central (entre les deux surfaces de réparation) qui fait progresser l’action vers l’avant ou qui permet de garder la possession du ballon en soutien.

Passe offensive en zone défensive

POZD Passe effectuée entre les joueurs dans le tiers arrière (entre la ligne du début de la surface de réparation défensive jusqu’à la ligne de but) qui fait progresser l’action vers l’avant ou qui permet de garder la possession du ballon en soutien.

Tir au but réussi TBR Un tir au but est considéré réussi lorsqu’un joueur arrive à cadrer un tir, résultant en un but ou non. Le cadrage comprend les poteaux et la barre transversal.

Tir au but manqué TBM Un tir au but est manqué lorsqu’il est non cadré.

Perte directe sur contrôle PDC Lorsqu’un joueur perd la possession du ballon lors d’un duel ou lorsqu’il reçoit une passe et touche seulement au ballon sans pouvoir le contrôler.

Perte directe sur passe tentée

PDP Lorsqu’un ballon est perdu à la suite d’une tentative de passe à un coéquipier.

74

Dans ce cas, le ballon est intercepté par l’adversaire ou sorti du terrain.

Pertes directes autres PDA Perte de la possession du ballon en sortant le ballon volontairement.

Les formules de calcul des indices de performance du TSAP adapté à notre étude sont inspirées des travaux qui ont impliqué le TSAP dans la mesure de performance dans différents sports collectifs (Georget, 2013 ; Nadeau, 2001 ; Nadeau et al, 2008a ; Gréhaigne et al., 1997 ; Richard et al., 2000) et également du FUT-SAT (Costa et al., 2011). Toutefois, contrairement aux études de Nadeau et collaborateurs (2008a) et de Georget (2013), où l’indice IE représente essentiellement le rapport « actions positives/actions négatives », le contexte de cette étude nous amène à nous inspirer de l’étude de Costa et collaborateurs (2011) pour le calcul de cet indice. Comme précisé auparavant, le FUT-SAT utilise un « pourcentage d’erreurs » qui met le lien entre les erreurs des joueurs avec le nombre total d’actions comptabilisées. Ainsi, l’indice IE qui est utilisé pour la présente étude met en rapport les actions positives exécutées par les joueurs avec le total des actions répertoriées par match. Cela permet mathématiquement d’éviter d’avoir une division par zéro dans le cas d’une valeur nulle au dénominateur lorsque le joueur n’a pas eu d’actions négatives. Par ailleurs, le rapport des actions positives sur les actions totales se traduit en un indice variant de 0 à 1 (1 étant la note parfaite) et devient très facile à interpréter par l’entraineur et les joueurs.

Traditionnellement, le calcul du score de performance devait tenir compte de la proportion entre le VJ et l’IE pour que la valeur obtenue soit représentative de la performance des joueurs. En effet, si les valeurs moyennes des deux indices étaient très différentes, cela donnait trop ou pas assez d’importance à l’un des deux indices dans la représentation de la performance totale (Nadeau, 2001). Toutefois, il n’est plus nécessaire de tenir compte de cette proportion en utilisant le calcul de l’IE (actions positives/actions totales). En multipliant la fréquence d’apparition (VJ) par la fraction de la qualité d’exécution (IE), les valeurs obtenues deviennent

75

mathématiquement analogues et peuvent permettre de comparer les joueurs qui n’ont pas nécessairement le même temps de jeu.

Ainsi, les calculs des indices de performance du TSAP sont les suivants :

 Volume de jeu par minute (VJ/min) = Somme de ballons touchés par le joueur par minute jouée = (BC +BR+HC) /min

 Indice d’efficacité (IE) = ∑ actions positives / ∑ actions totales = (BC+BR+HC+POZO+POZC+POZD+TBR) /

(BC+BR+HC+POZO+POZC+POZD+TBR+TBM+PDC+PDP+PDA)  Score de performance (SP) = (VJ/min) x (IE)

Une autre donnée intéressante que le TSAP peut fournir est le pourcentage de passes réussies (PPR) qui représente le ratio de la somme des passes réalisées par rapport à la somme totale des passes incluant les pertes directes du ballon sur passes tentées. Le calcul du (PPR) se fait comme suit :

Pourcentage de passes réussies (PPR) =

(POZD+POZC+POZO) / (POZD+POZC+POZO+PDP) x 100

3.4.2.2 Démarches et traitement des données.

Les actions spécifiques de chaque joueur ont été notées et catégorisées de manière cumulative dans une grille d’observation d’un fichier MS Excel (Annexe E). Pour chaque action où un joueur est en contrôle du ballon, l’observateur identifiait l’équipe concernée, le numéro de chandail, la zone, le pointage et la manière dont le joueur a pris possession du ballon dans les colonnes correspondantes. L’observateur avançait ensuite la vidéo jusqu’à ce que le joueur réalise une action pour s’en départir et notait le type et l’endroit de cette action. La vidéo du match était mise en pause à chaque fois que l’observateur procédait à l’identification des joueurs

76

et à la notation des actions dans le but de s’assurer qu’il y a le moins de fautes d’observation possible.

Le calcul de la somme des actions correspondant à chaque joueur a été réalisé dans un tableau croisé une fois que toutes les actions de tous les joueurs au cours du match ont été compilées (Annexe F). L’utilisation systématique du TSAP a permis d'établir un bilan complet et détaillé de la performance de chaque joueur au cours de chaque match (Annexe G). Ce bilan a permis également de distinguer les niveaux de performance des joueurs selon le genre et les appréciations des entraineurs, etc. De même, le bilan affichait les mesures de performance en fonction des postes de jeu des joueurs.

Les mesures de performance des joueurs pouvaient également être considérées selon le moment du match. En effet, le match était divisé en unités (périodes de cinq minutes) et l’analyse pouvait être effectuée pour chacune de ces «mini» périodes. Cette procédure a non seulement permis de distinguer l’évolution de la performance des joueurs au cours du match, mais aussi de vérifier leur performance en fonction du statut du match qui est un facteur de performance important. Cette procédure a permis d’illustrer comment se comportent les joueurs ou l’équipe en cas de victoire, perte, ou égalité de score.

Le TSAP à l’entrainement.

Les variables relatives au TSAP utilisées pour évaluer les performances à l’entrainement ont été les mêmes que celles utilisées pour mesurer la performance en situation de match. Toutefois, une des particularités du TSAP à l'entrainement concerne le temps de jeu qui est significativement différent par rapport aux compétitions (tous les joueurs d’une équipe jouent habituellement la durée totale du match d’application alors que plusieurs joueurs réservistes peuvent ne pas jouer du tout un match donné). Les matchs d'application à l'entrainement étaient habituellement d'une durée de quarante-cinq minutes au maximum autant chez les garçons que les filles.

77

Pendant les matchs d’application, l’entraineur agissait habituellement comme un arbitre ou arrêtait parfois le jeu pour réunir les joueurs pour leur donner ses rétroactions et commentaires. De manière générale, outre les arrêts de jeu de l’entraineur, le match d’application se déroulait de la même façon que les parties régulières.

3.4.3.1 Analyse vidéo des séances d’entrainement.

L’identification des joueurs lors de l'analyse des enregistrements des séances d'entrainement a été un aspect plus difficile, surtout pour les premières séances, car les joueurs ne portaient pas leur chandail de match habituel. Toutefois, au fur et à mesure des séances d'entrainement, il devenait plus facile de reconnaitre les joueurs (même sans chandail numéroté) grâce à des caractéristiques physiques (visage, physionomie, couleur de cheveux, gabarit, etc.) et même à partir de leur silhouette et technique de course. Les premières séances observées ont demandé beaucoup plus de temps d’analyse et d’observation que les dernières séances analysées. Les observations les plus difficiles ont été celles effectuées lorsque l’entraineur effectuait des changements d’un ou plusieurs joueurs à la fois pendant le match d’application sans forcément arrêter le jeu.

Évaluation de la qualité d’opposition.

Un des objectifs de cette étude est de vérifier les résultats de mesure de performance avec les TSAP en fonction du niveau de jeu des adversaires. Le classement des équipes adverses en fin de saison a été utilisé à titre de comparatif pour juger de la force d’une équipe par rapport à celles du Rouge et Or. Ce classement est réalisé par la ligue universitaire et est basé sur le nombre de points que les équipes ont eu après chaque rencontre et accumulés à la fin de saison (http://www.sportetudiant-stats.com). Ainsi, une équipe qui a eu une victoire gagne trois points, celle qui a fait match nul gagne un point et celle qui a perdu le match ne gagne aucun point. Ainsi, les équipes adverses ont été divisées en trois groupes selon leur classement final : (a) équipes fortes (les deux premières du classement),

78

(b) équipes moyennes (deux ou trois équipes du milieu du classement), (c) équipes faibles (les deux dernières du classement).

Analyse de fidélité.

En dépit que le TSAP est réputé être un instrument fidèle (Georget, 2013; Nadeau, 2001; Richard et al., 2000), il s’avère essentiel de vérifier la justesse des données recueillies dans notre étude. Dans cette optique, des analyses de fidélité inter-observateurs et intra-observateurs ont été réalisées.

Pour la fidélité inter-observateurs, un observateur externe a été formé à l’utilisation du TSAP adapté par l’auteur et chercheur principal de cette étude. Cet observateur fait partie du conseil d’administration d’un club civil de soccer de la région de Québec et agit en tant qu’entraineur/accompagnateur pour les équipes des catégories d’âge juvénile. Le chercheur principal a d’abord expliqué la procédure et défini les différentes variables d’observation du TSAP. Il a ensuite démontré à l’observateur la procédure pour la notation des actions observées à partir de séquences vidéo d’un match choisi au hasard jusqu’à ce que celui-ci mentionne qu’il a bien compris la procédure de même que les définitions des variables. Par la suite, l’observateur a eu comme tâche d’analyser seul une séquence de dix minutes d’un match qui a été préalablement analysée par le chercheur.

Le deuxième type de mesure de fidélité réalisé est la fidélité intra- observateurs (la méthode test, re-test) (Godbout, 1988). Cette mesure consiste à vérifier la stabilité des mesures effectuées dans le temps par un même observateur. Une séquence de jeu de 10 minutes a donc été analysée une première fois en début d’année et une seconde fois deux semaines après avoir fini toutes les mesures de performance de tous les matchs et des entrainements.

79 Analyses statistiques.

Les données issues de tous les bilans des matchs ont été regroupées dans une seule base de données (IBM SPSS statistics 20.0) afin de réaliser les différents tests statistiques des variables du TSAP. Des analyses de variance ont été réalisées pour vérifier si des différences significatives existaient entre les moyennes des joueurs en fonction des appréciations des entraineurs, des postes de jeu, etc. Des tests d’homogénéité de variance ont été effectués au préalable pour examiner si les variances entre les groupes étaient similaires ou non, ce qui autorisait le chercheur à utiliser les ANOVA.

Plus spécifiquement et à l’image des études similaires réalisées pour adapter le TSAP, l’auteur a utilisé des tests « post hoc » de type LSD (Least Significant Difference) et Bonferroni pour vérifier la source exacte des différences constatées entre les groupes des joueurs lorsque le nombre de catégories était de trois et plus. Par ailleurs, des tests de corrélation de « Spearman » ont été utilisés afin de vérifier