• Aucun résultat trouvé

CHAPITRE 3 DONNÉES, HYPOTHÈSES ET MÉTHODOLOGIE

3.1 Hypothèses

3.4.7 Méthodologie Statistique Comparative

Dans la première partie du projet, nous menons des comparaisons statistiques qui permettent de valider les hypothèses 1 à 4, i.e. d‟identifier des différences significatives entre les domaines de la nanotechnologie, de la biotechnologie. Étant donnée la gamme des indicateurs étudiés et la diversité du type de données (e.g. dichotomiques, continues, etc.) nous ne pouvons nous limiter à un seul test, car les hypothèses ou conditions d‟applications ne se trouvent pas toujours à être remplies. Voici un survol des tests employés et de la démarche empruntée pour les appliquer.

ANOVA

Le test de choix est celui de l‟ANOVA ou ANalysis Of VAriance. Il permet de déterminer s‟il y a une différence significative entre les groupes à l‟étude, i.e. il révèle si les groupes proviennent de la même population. Le test consiste à valider l‟hypothèse H0 contre l‟hypothèse H1 :

H0 : Les moyennes des différents groupes sont égales.

H1 : Au moins une moyenne des groupes à l‟étude n‟est pas égale aux autres.

Deux conditions doivent exister avant de pouvoir employer cette méthode. Premièrement, il doit y avoir normalité des distributions. Cette normalité est vérifiée à l‟aide du test de Skewness- Kurtosis. Ceci est fait par l‟intermédiaire de la procédure « sktest {nom de variable}, noadjust » dans Stata. L‟option « ,noadjust » permet de supprimer l‟ajustement de Royston (1991) effectué

sur le χ2 global et sa significativité (Stata, 2009). Ainsi si les données ne présentent pas de tendance normale, il faut soit considérer un ajustement pour ramener les skewness et kurtosis près de 0 et 3 respectivement en prenant le logarithme naturel ou la racine carrée de la variable par exemple, ou mettre de côté le test ANOVA en le remplaçant par un test non-paramétrique.

La deuxième condition est celle d‟homoscédasticité, c‟est-à-dire d‟égalité des variances sk. Cette

égalité peut être vérifiée de plusieurs manières, selon la normalité des données. S‟il a été démontré qu‟il y a normalité des données avec le test de Skewness-Kurtosis alors nous pouvons procéder avec le test de Bartlett27. Ce dernier propose l‟hypothèse nulle qu‟il y a égalité des variances et l‟hypothèse alternative qu‟elles sont différentes. Avec des variances et des degrés de liberté et , le test de Bartlett possède la statistique suivante (Green & Margerison, 1978):

2.∑ / 3 * ( )+

Où ∑

Un des avantages de ce test est qu‟il est généré automatiquement à l‟exécution de la procédure ANOVA dans Stata. Si nous nous trouvons dans une situation où le test ANOVA n‟est pas de mise, soit par une non-normalité extrême28, soit par une hétérogénéité des variances, nous procédons avec des tests non-paramétriques pour déterminer l‟égalité des moyennes.

27 Le test de Bartlett‟s requiert cette normalité qui est en fait un aspect primordial de sa validité (Green &

Margerison, 1978)

Kruskal-Wallis

Le premier test non-paramétrique est celui de Kruskal-Wallis. Il est une généralisation du test de Wilcoxon-Mann-Whitney et permet de comparer K échantillons supérieurs ou égaux à 2 entre eux pour déterminer s‟ils sont de la même population (Haccoun & Cousineau, 2010). L‟hypothèse nulle H0 à tester contre son alternative H1 est la suivante :

H0 : Tous les groupes proviennent de la même population. H1 : Au moins un groupe ne provient pas de la même population. Régle de décision : Rejeter H0 si g >gcritique

Avec SRi étant la somme des rangs du groupe i, Ni la taille du groupe i, N la taille de tous les

groupes confondus et k le nombre de groupes, l‟équation du test de Kruskal-wallis est la suivante (Haccoun & Cousineau, 2010):

( ) ( )

Il est important de mentionner que certains (Ruxton & Beauchamp, 2008) proposent que le test de Kruskal-Wallis ne soit pas un équivalent non-paramétrique du test ANOVA car il testerait l‟homogénéité stochastique, i.e. la distribution de la population, plutôt que de comparer une mesure univariée. Cependant, à toutes fins pratiques, nous l‟utilisons en vérifiant la similarité des distributions.

Mann-Whitney (Wilcoxon-Mann-Whitney ou rank-sum)

Le deuxième test non-paramétrique est celui de Mann-Whitney. Il est applicable si et seulement si le nombre de groupes à comparer est de deux et permet de décider si les échantillons de ces deux groupes sont issus de la même population. Il est approprié lorsque la normalité des données est douteuse et lorsqu‟il est possible d‟ordonner les données de chaque groupe dans un rang précis (Haccoun & Cousineau, 2010). L‟hypothèse nulle H0 à tester contre son alternative H1 est donc :

H1 : La somme des rangs d‟un groupe est supérieure à celle de l‟autre. Le test de Mann Whitney s‟écrit ainsi (Haccoun & Cousineau, 2010) :

| ( ) | √ ( )

Où SR1 la somme des rangs du groupe 1, Ni la taille du groupe i, N la taille totale des groupes.

En tenant compte des informations ci-dessus, nous avons créé un arbre décisionnel permettant de choisir la méthode de comparaison appropriée.

Cette procédure (Figure 3-6) a été appliquée pour répondre au premier objectif de recherche, celle de l‟analyse des similarités entre la nanotechnologie et la biotechnologie. Elle regroupe la comparaison du nombre de revendications associées aux brevets, celle du nombre de citations et du degré d‟application. Les comparaisons subséquentes portent sur le nombre de revendications des brevets et des citations en boucles d‟innovation versus celles à l‟extérieur des boucles. L‟effet de l‟intervalle de temps entre le financement et le brevetage est ensuite analysé pour déterminer si cela a un effet sur le degré d‟application. Nous n‟incluons pas tous les sous-domaines de la nanotechnologie et de la biotechnologie à ce stade de la recherche, car elles sont trop nombreuses et la comparaison une à une serait non-pertinente. Il est à noter que les sous-domaines complets sont intégrés aux modèles économétriques plus loin lorsque le domaine comme tel se trouve à avoir un effet significatif sur la variable dépendante. La liste complète des comparaisons menées et le détail des comparaisons comme tel se trouvent à l‟annexe 6.

« Summarize <variable>, detail » pour sortir skewness & kurtosis

« sktest <variable> (, noadjust) » pour évaluer normalité des

données

Normalité? (si «prob>chi2» >0.05, on accepte normalité)

ANOVA & Test de Bartlett’s

« sdtest <variable>, by <category> » pour vérifier égalité

des variances (« Robvar » si nb de catégories >2)

Oui Non

Test de Bartlett’s significatif? (si « prob>chi2 » >0.05, on peut se

fier à F)

ANOVA (oneway ou twoway) e.g.: « twoway <var1> <var2>

<var1>*<var2> »

Égalité des variances? (si sdtest > 0.05 on accepte égalité) « kwallis <variable>, by(<category>) » pour détecter différence Oui « prob>chi2 » >0.05? Oui Non « prob>F » >0.05? Oui Non Différence statistiquement significative entre les deux

catégories Différence non-significative

entre les deux catégories

« ranksum <variable>, by(<category>) » pour détecter différence si nb de catégories=2 Nb de catégories >2 ? Non Oui Non Non Oui

Documents relatifs