• Aucun résultat trouvé

La Mesure de l’Inefficience

0.3 Méthodes d’Estimation de l’Efficience des Institutions Financières

0.3.3 La Mesure de l’Inefficience

Le principal problème dans la mesure de l’inefficience consiste à séparer de façon adé- quate le comportement inefficient des autres facteurs aléatoires qui affectent les coûts. Dans le cas du secteur bancaire, les quatre approches les plus communément utilisées différent toutes par les hypothèses qu’elles posent et peuvent être regroupées dans deux grandes familles de méthodes : les méthodes de frontières non paramétriques et les méthodes de frontières paramétriques.

Les Méthodes de Frontières Non Paramétriques

On dénote deux grandes méthodes qui ont été les plus utilisées dans la littérature : DEA et FDH.

La Méthode DEA (Data Envelopment Analysis)

Dans leur article original, Charnes, Cooper, et Rhodes (1978) ont décrit la méthode DEA comme un modèle de programmation mathématique appliqué aux données obser- vables qui fournit un nouveau moyen d’obtenir des estimations empiriques de relations telles que les fonctions de production et les surfaces de possibilités de production efficientes et qui représente la pierre angulaire de l’économie moderne.

La méthode DEA est généralement utilisée pour évaluer l’efficience d’un certain nombre d’unités de prises de décisions comme les banques. A la différence des approches statistiques classiques qui consistaient à évaluer les banques relativement à une banque moyenne, DEA est une méthode de points extrêmes qui compare chaque banque uniquement aux meilleures de l’échantillon.

Les méthodes de points extrêmes ne sont pas toujours le bon outil pour résoudre les pro- blèmes dans certaines situations particulières. Une hypothèse fondamentale des méthodes de points extrêmes est que si une banque donnée A, est capable de produire Y (A) unités d’output avec des inputs X(A), alors d’autres banques devraient également pouvoir faire la même chose si elles opèrent de façon efficiente. De même, si la banque B est capable de produire Y (B) unités d’output avec des inputs X(B), alors les autres banques devraient également être capables d’avoir le même programme de production. Les banques A, B, et les autres peuvent alors être combinées pour former une banque composée avec des inputs

et des outputs. Puisque cette banque composée n’existe pas nécessairement dans la réalité, elle est parfois nommée banque virtuelle. C’est ce qu’on appelle l’hypothèse de convexité.

L’analyse DEA consiste donc à trouver la meilleure banque virtuelle pour chaque banque réelle. Si la banque virtuelle est meilleure que la banque originale en produisant plus d’output avec les mêmes inputs ou en produisant le même output avec moins d’inputs alors la banque originale est inefficiente.

Le procédé pour trouver la meilleure banque virtuelle peut être formulé comme un programme linéaire. L’analyse de l’efficience de n banques est alors un ensemble de n pro- blèmes de programmation linéaires. La formulation suivante est l’un des formats standards pour DEA.

λ est un vecteur de pondération qui décrit quel pourcentage des autres banques est uti- lisé pour construire la banque virtuelle. λX et λY sont les vecteurs d’inputs et d’outputs pour la banque analysée. Par conséquent X et Y décrivent respectivement les inputs et outputs virtuels. La valeur de θ représente l’efficience de la banque.

minθ

sc. Y λ ≥ Y0

θX0− Xλ ≥ 0

λ ≥ 0

La méthode DEA peut être un outil puissant en ce sens qu’il peut manipuler les mo- dèles à inputs et outputs multiples. Qui plus est, elle n’exige pas de faire une hypothèse sur la forme fonctionnelle reliant les inputs et les outputs. Les banques peuvent être di- rectement comparées à une paire ou une combinaison de paires. Les inputs et les outputs peuvent avoir différents types de mesure. Par exemple, X1 pourrait être exprimé en unités

de vies sauvées et X2 pourrait être en unités de dollars sans exiger un arbitrage a priori

entre les deux.

Cependant, l’inconvénient de DEA vient du fait que c’est une méthode de points ex- trêmes, par conséquent le bruit comme l’erreur de mesure peuvent poser des problèmes. En effet, cette méthode est efficace pour estimer l’efficience relative d’une banque mais elle converge très lentement vers l’efficience absolue. En d’autres termes, elle peut indiquer

à quel point une banque est performante comparée à ses pairs mais non comparé à un maximum théorique.

La Méthode FDH (Free Disposal Hull)

La deuxième méthode de ce groupe est appelée FDH (Free Disposal Hull) qui est en réalité un cas particulier de DEA. L’approche DEA se fonde sur des hypothèses très restrictives sur la structure de l’ensemble de production, telles que la convexité. La convexité assure que quand une combinaison d’inputs et d’outputs est réalisable, toute moyenne pondérée d’un paquet d’inputs peut produire de façon similaire une moyenne pondérée du paquet d’outputs correspondant.

Deprins, Simar et Tulkens (1984) ont proposé des hypothèses moins contraignantes qui établissent que la frontière de l’ensemble de production est simplement la frontière de l’enveloppe libre de résolution (Free Disposal Hull) de l’ensemble de données. L’hypo- thèse de résolution forte des inputs et des outputs est maintenue aussi bien que celle des retournements de variables à l’échelle. Aucune hypothèse de convexité n’est donc exigée.

Dans cette méthode, la frontière est obtenue en comparant les inputs et les outputs afin d’établir les points dominants. Une observation est déclarée inefficiente si elle est dominée par au moins une autre observation, la domination signifiant la capacité de produire plus d’outputs avec moins d’inputs. Par conséquent, si une observation n’est dominée par aucune autre, elle est une observation FDH efficiente.

Le Calcul de l’Inefficience

Les premiers travaux sur le concept d’efficience sont attribués à Koopmans (1951) et Debreu (1951). Koopmans fut le premier à proposer une mesure du concept d’efficience et Debreu le premier à le mesurer empiriquement. Debreu proposa le coefficient d’utilisation des ressources qui portait essentiellement sur des mesures de ratio extrant-intrant. Farrell (1957) fut le premier à définir clairement le concept d’efficience économique et à distinguer les concepts d’efficience technique et d’efficience allocative.

L’inefficience allocative est due à la combinaison des inputs dans des proportions sous- optimales par rapport aux prix relatifs. La figure 1 illustre cette distinction, dans le cas de deux inputs (X1, X2). L’isoquante SS′ représente l’ensemble des vecteurs qui sont techni-

quement efficients pour un niveau d’output donné. Tout point à l’intérieur de l’isoquante est techniquement inefficient pour ce niveau de production. Par exemple, au point P l’in- efficience technique est représentée par le segment QP . Il est possible de produire le même niveau d’output avec une diminution de tous les inputs dans la proportion QP/OP .

Fig.1 – Efficience Technique et Allocative

Ainsi, Farrell (1957) a proposé de mesurer le degré d’efficience technique par le rapport OQ/OP , qui varie entre 0 et 1. Bien qu’ils soient techniquement efficients, tous les points sur l’isoquante ne le sont pas allocativement. Une combinaison de facteurs est dite allocati- vement efficiente si le taux marginal de substitution technique est égal au rapport des prix des facteurs. Donc, le point Q′

, déterminé par la tangente de l’isocoût AA′

à l’isoquante SS′, est allocativement efficient. L’efficience allocative des points P ou Q est mesurée par le rapport OR/OQ. Le produit des efficiences technique et allocative (OQ/OP ∗ OR/OQ) désigne l’efficience économique (OR/OP ). Elle atteint l’unité à Q′, qui représente le point de production au coût minimum.

Ces méthodes non paramétriques ont l’inconvénient de ne pas permettre à l’efficience de varier dans le temps. En effet, une des principales hypothèses des méthodes non para- métriques repose sur l’absence d’erreurs aléatoires et celle-ci entraîne trois conséquences. D’abord, cela suppose qu’il n’y a pas d’erreur de mesure dans la construction de la fron-

tière et qu’il n’existe pas de facteurs aléatoires qui permettraient à une unité d’avoir une meilleure mesure de performance pour une année spécifique. Ensuite, cela implique qu’il y a absence d’erreurs liées à l’utilisation de données comptables. Par conséquent, la présence d’erreurs pour une seule unité de la frontière peut biaiser la mesure d’efficience pour toutes les unités qui sont comparées à cette unité ou encore les combinaisons linéaires qui incluent cette unité. Les méthodes de frontières paramétriques quant à elles prennent en compte l’existence d’erreurs aléatoires même si elles imposent la forme fonctionnelle.