Risque opérationnel (établissement financier)Le risque opérationnel pour les établissements financiers (banque et assurance) est le risque de pertes directes ou indirectes dues à une inadéquation ou à une défaillance des procédures de l'établissement (analyse ou contrôle absent ou incomplet, procédure non sécurisée), de son personnel (erreur, malveillance et fraude), des systèmes internes (panne de l'informatique…), des risques externes (inondation, incendie…) ou émergents. Dans le cadre du dispositif Bâle II, la définition du risque opérationnel, les procédures à mettre en place pour le limiter et les méthodes de quantification ont été normalisées. L'objectif de ce dispositif, mis en place dans les banques européennes en 2008, est d'éviter le risque systémique. Les risques opérationnels ont pris une importance considérable dans le contexte bancaire né de la dérégulation, de l'imbrication croissante des acteurs du monde financier, de l'augmentation des capitaux manipulés et de la sophistication des produits comme l'ont montré les affaires Barings et Société Générale. Dans le cadre du dispositif Bâle II ont été définies les bonnes pratiques à mettre en place par chaque établissement financier. Le régulateur financier national est chargé de les évaluer et de les contrôler. Les établissements financiers peuvent opter pour un dispositif d'évaluation de ces risques plus ou moins sophistiqué. Depuis la réforme Bâle II, le risque opérationnel entre dans le calcul des fonds propres réglementaires de l'établissement bancaire avec une incidence proportionnelle à la qualité de ses procédures et de son dispositif de suivi et d'évaluation. Des mesures similaires à celles mises en œuvre dans le cadre de Bâle II sont en cours de définition pour les compagnies d'assurance dans le cadre de la réglementation Solvabilité II. Définition du risque opérationnelLe régulateur du dispositif Bâle II définit le risque opérationnel comme celui de pertes directes ou indirectes dues à une inadéquation ou à une défaillance des procédures, du personnel et des systèmes internes. Cette définition inclut le risque juridique; toutefois, le risque de réputation (risque de perte résultant d'une atteinte à la réputation de l'institution bancaire) et le risque stratégique (risque de perte résultant d'une mauvaise décision stratégique) n'y sont pas inclus. Cette définition recouvre notamment les erreurs humaines, les fraudes et malveillances, les défaillances des systèmes d'information, les problèmes liés à la gestion du personnel, les litiges commerciaux, les accidents, incendies, inondations. Le Comité de Bâle a retenu une classification qui institue sept catégories d'évènements[1] liés à ce risque :
Enjeux des risques opérationnelsDepuis le milieu de la dernière décennie, les connaissances en matière de risques de crédit et de risques de marché ont alimenté un large débat et ont fait l'objet de très nombreux travaux de recherche. Normalement, ces travaux auraient dû contribuer à des progrès significatifs dans l'identification, la mesure et la gestion des risques au sein du système bancaire. Néanmoins, on ne peut éviter de s'interroger sur l'impact effectif de ces contributions, au vu d'événements récents qui ont exercé une influence déterminante sur la crise financière de 2008 : d'une part, la crise des subprimes, d'autre part, les pratiques des agences de notation financière dont l'intervention est déterminante dans le processus de maîtrise des risques de crédit. Cela étant, au cours de la même période, l'évolution des marchés financiers, caractérisée notamment par la globalisation des activités bancaires et par leur dérégulation, a rendu ces activités — et donc les profils de risque correspondants — de plus en plus complexes. Les régulateurs financiers se sont également rendu compte que les risques devenaient de plus en plus difficiles à identifier du fait qu'ils étaient présents à tous les niveaux d'une organisation, de plus en plus difficiles à mesurer de par la conjonction de pertes directes et de pertes indirectes beaucoup plus délicates à quantifier, et de plus en plus difficiles à gérer de par l'organisation de plus en plus transverse des métiers de la banque et de par les difficultés à bien maitriser les limites de leurs périmètres. C'est en partie pour ces raisons que tant les régulateurs que les institutions bancaires ont mis en place des moyens pour identifier, mesurer et contrôler les risques opérationnels : des événements comme ceux qui se sont produits à New York en septembre 2001, ou encore la série de fraudes survenues dans des institutions bancaires (Société Générale, Barings, pour ne citer que les plus médiatisées), démontrent bien que la gestion des risques bancaires va bien au-delà des domaines des risques de crédit ou des risques de marché, et nécessite la prise en compte des risques opérationnels. Contexte de la régulation des risques opérationnels propre au dispositif Bâle IIPour la détermination des fonds propres réglementaires, qui constitue un des éléments clés de tout système de régulation bancaire, le dispositif Bâle II établit de nouvelles règles qui prennent mieux en compte la réalité économique, en affinant l'évaluation du profil de risque des institutions bancaires et en y intégrant des systèmes de mitigation des risques. Cette nouvelle régulation permet aux banques qui répondent à certaines conditions de réduire leurs exigences de fonds propres réglementaires, sous réserve d'être capables de démontrer une organisation interne efficiente dans la gestion de leurs risques. Pour affiner la gestion et la maîtrise des risques, le ratio McDonough, remplaçant le précédent ratio Cooke, impose aux banques d'affecter une partie de leurs fonds propres à la couverture de leurs risques de crédit, de leurs risques de marché et − nouveauté du ratio McDonough − de leurs risques opérationnels. Pour évaluer l'exposition d'un établissement bancaire aux risques opérationnels, le Comité de Bâle propose trois approches par ordre croissant de complexité et de sensibilité au risque :
Même si le calcul des exigences de capitaux réglementaires est relativement simple dans les deux premières approches (approche de base et approche standard), le coefficient de pondération étant fixé par l'autorité de contrôle, l'utilisation de l'approche standard ou à fortiori celle de l'approche avancée est soumise à une acceptation de l'autorité de contrôle, elle-même conditionnée par le respect de certains critères d'éligibilité : « Comme pour le risque de crédit, plus les outils de gestion sont performants, donc plus l'approche est sophistiquée, moins grande sera l'exigence de fonds propres. Lorsque les conditions requises pour l'usage d'une méthode sont réunies, la banque est encouragée à l'utiliser. Une banque internationale active, et les banques ayant des risques opérationnels significatifs, sont supposées utiliser une approche plus sophistiquée que l'approche de base. Une combinaison des trois méthodes [approche de base, approche standard et approche avancée] est même possible en fonction des activités, sous certaines conditions[2]. » L'une des nouveautés du dispositif Bâle II en matière de risques opérationnels est donc d'inciter les institutions bancaires à améliorer la gestion de leurs risques opérationnels, cette dernière étant encadrée par des exigences organisationnelles spécifiques à chacune des trois approches : plus l'organisation de la banque est complexe et sophistiquée, à travers des systèmes et des pratiques plus sensibles aux risques, plus l'approche proposée par le régulateur permet d'espérer une réduction du capital réglementaire. Les bonnes pratiques en matière de risques opérationnelsL’ensemble du dispositif Bâle II a été conçu pour inciter à évoluer progressivement vers la méthode avancée, celle-ci étant en principe moins consommatrice en fonds propres réglementaires. Cette économie de fonds propres trouve sa contrepartie dans la mise en œuvre d’une organisation spécifique visant à un meilleur contrôle des risques opérationnels et, en définitive, à la réduction des pertes. C’est probablement la raison pour laquelle le régulateur a lui-même défini un code de saines pratiques à utiliser par les banques et leurs superviseurs. Les principes de bonnes pratiquesPartant du principe fixé par le régulateur selon lequel un risque est correctement maîtrisé s’il est identifié, mesuré, évalué et géré, les trois approches ont pour objet de quantifier le risque opérationnel avec une sensibilité variable et donc, pour le couple superviseur / banquier, de contribuer à une meilleure surveillance prudentielle de ce dernier. Parallèlement à ces outils de mesure, le régulateur a développé dix principes de bonnes pratiques[3] nécessaires à la maîtrise des risques opérationnels, rappelant par là l’importance tant de l’implication de l’organe exécutif dans la mise en place d’un tel système, que de l’identification des risques opérationnels, notamment au travers d’une cartographie de ces derniers. Élaboration d’un environnement adéquat pour la gestion du risque [opérationnel]
Gestion du risque : identification, évaluation, suivi et maîtrise/atténuation du risque [opérationnel]
Rôle des superviseurs
Rôle de la communication financière
Les enjeux organisationnels de mise en œuvre des principes de bonnes pratiquesLa mise en œuvre de la méthode de base ne requiert aucune exigence organisationnelle particulière. Si les structures des deux autres approches (standard et AMA) sont assez différentes, en raison principalement de la présence ou non d’une entité destinée spécifiquement à la gestion des risques opérationnels, leurs modalités de mise en œuvre devraient théoriquement être assez proches dans la mesure où, quelle que soit l’approche, ces modalités s’appuient d’une part sur un modèle de traitement, d’autre part sur des fonctionnalités relativement standardisées pour l’ensemble des banques : Le modèle de traitement des risques opérationnelsLe modèle de traitement des risques opérationnels comporte quatre sous-processus clés nécessaires à l’élaboration d’un système de gestion adéquat :
IdentificationL’identification des risques opérationnels requiert de la banque qu’elle définisse quels sont les facteurs inhérents aux risques opérationnels et leurs dimensions multiples (codification, aspect interne / externe, fréquence, appartenance, gravité, type de perte, activité(s) concernée(s), processus / fonctions concernées, données et systèmes impliqués, etc.). La mise en œuvre de ce premier sous-processus d’identification, dans le cadre du dispositif Bâle II, se heurte tout d’abord au problème d’une définition interne des risques opérationnels qui soit cohérente et compatible avec celle retenue par le dispositif lui-même, et ensuite à celui de leur identification : en effet, si les pertes opérationnelles, qui matérialisent l’occurrence des risques opérationnels, étaient jusqu’à présent identifiées et contrôlées par les départements de contrôle interne ou d’audit interne, elles deviennent dans le nouveau dispositif la responsabilité des responsables opérationnels dans tous les secteurs de la banque. La mise en œuvre de ce premier sous-processus d’identification risque d’être influencée par le contexte dans lequel fonctionne la banque (« principles based » versus « rules based »), d’autant que certains vont jusqu’à identifier le risque opérationnel comme tout risque financier autre que risque de crédit ou risque de marché. Deuxième difficulté : une perte étant intrinsèquement mesurée en faisant usage de règles comptables, en raison de son impact sur la situation financière de la banque, l’application de ces règles comptables peut donner lieu à des interprétations divergentes. Particulièrement difficile s’avère l’évaluation de certains impacts (perte de marge brute, pertes de clientèle, par exemple). ÉvaluationJusqu’à présent, pour évaluer les montants des risques, les experts en matière de gestion des risques ont principalement développé leur savoir-faire dans le domaine des risques de crédit et des risques de marché, en mettant l’accent sur l’application de méthodes quantitatives et statistiques de modélisation et de simulation. Il était donc naturel que ces mêmes experts, tant au sein des banques que chez les autorités de contrôle, aient eu tendance à appliquer ces techniques éprouvées pour l’évaluation des risques opérationnels. Ainsi pourrait s’expliquer en partie la présence dans l’approche AMA de critères comparables à ceux de l’approche IRB utilisée pour les risques de crédit. Plus fondamentalement, l’application de méthodes statistiques de modélisation pour l’évaluation des risques opérationnels a fait l’objet de sévères critiques, notamment dans le monde académique. Ainsi a-t-on fait valoir que certaines caractéristiques des données des pertes opérationnelles (distributions atypiques des montants de pertes extrêmes, événements de pertes irréguliers, fréquence et sévérité des pertes non stationnaires, existence ou non de pertes répétitives) n’étaient pas cohérentes avec les postulats de modélisation. À cette première objection s’ajouterait celle d’un manque certain de données, et surtout de données cohérentes. Enfin nombreux sont ceux à souligner les difficultés à modéliser les événements à fréquence faible et à fort impact : trois types de modèles sont préconisés dans le cadre de l’approche AMA (méthode Internal Measurement Approach (IMA), méthode Loss Distribution Approach (LDA), méthode Scorecard). Certains considèrent que l’IMA a été conçue comme une version simplifiée, praticable et standardisée d’une approche actuarielle de type LDA, plus complète et plus satisfaisante, mais plus compliquée à mettre en œuvre[4]. Ce serait sous la pression de certaines banques, notamment anglo-saxonnes, de l’IIF[5] que la méthode Scorecard aurait été intégrée au dispositif Bâle II. C’est en raison de ces critiques que se sont développées d’autres méthodes plus dynamiques visant à gérer les risques opérationnels à travers un contrôle plus global des processus dans lesquels ces risques sont potentiellement présents. Cela implique une simulation du fonctionnement de toute la chaîne des processus, basée à la fois sur des scénarios réels et une réalité virtuelle, permettant théoriquement d’anticiper tous les éléments relatifs à un processus spécifique, mais également toutes les implications et interrelations. Cette méthode des scénarios est de plus en plus utilisée (¾ des banques sondées dans l’enquête PRMIA[6] 2006 contre 50 % dans la même enquête 2005) : elle part du principe que les risques opérationnels associés à un processus ne peuvent être évalués séparément de l’organisation dans laquelle ce processus fonctionne ; c’est dans l’interaction d’un processus avec son environnement que se trouvent les éléments clés d’appréciation des risques opérationnels. Pour bien identifier les corrélations entre les processus et les événements de pertes, la difficulté est de bien isoler ces processus les uns des autres afin d’évaluer correctement leur part de contribution dans une perte en particulier. Cela étant, cette méthode comporte encore des domaines d’incertitude, par exemple le choix des hypothèses sous-jacentes aux scénarios majeurs (hypothèses de place), l’évaluation de certains scénarios extrêmes (grippe aviaire, par exemple), ou encore les traitements concernant les assurances. SuiviLe suivi des risques opérationnels au moyen d’indicateurs adéquats (indicateurs d’alerte, indicateurs de risque avéré et indicateurs de pertes) est le troisième processus-clé d’un système de gestion de cette catégorie de risques. À ce stade se pose le problème de la consolidation des indicateurs, que l’on peut aborder au moyen de deux approches : bottom-up ou top-down. Dans l’approche bottom-up, les indicateurs clés des risques opérationnels sont définis et mesurés aux niveaux inférieurs, là où l’appréciation individuelle des managers exercera un levier maximum sur le suivi des risques opérationnels, pour être ensuite consolidés progressivement jusqu’à un niveau central. Dans l’approche top-down, c’est en fonction de la vision stratégique globale, de la rentabilité globale des opérations que l’allocation de capital réglementaire aux différentes activités sera décidée par les organes exécutifs en fonction de leurs risques opérationnels. Dans ce contexte, les décisions prises aux niveaux supérieurs de la hiérarchie seront répercutées et traduites en plans d’actions suivis et maîtrisés par les managers au moyen d’indicateurs adéquats. Maîtrise et atténuationLa maîtrise et l’atténuation du risque constituent probablement le sous-processus le plus complexe de cet ensemble, car de lui va dépendre la capacité de la banque à se doter de moyens de prévenir les risques en identifiant les leviers d’action adéquats pour anticiper certains événements ou minimiser leur impact en cas de survenance. Ce sous-processus est particulièrement complexe à gérer car il s’appuie simultanément sur deux fonctions qui interagissent l’une sur l’autre :
Des fonctionnalités relativement standardiséesLes deux principales fonctionnalités applicatives à mettre en œuvre pour maitriser un système de gestion des risques opérationnels sont d’une part la détermination du profil des risques opérationnels de la banque, d’autre part la mise en place d’un dispositif de collecte d’événements de risque.
Cela étant, pour assurer la couverture de leurs risques opérationnels, les banques font habituellement appel à des modèles d’allocation, les deux approches les plus utilisées étant l’approche bottom-up et l’approche top-down, ou encore une combinaison des deux. Le principe de l’approche bottom-up est de calculer le besoin en capital réglementaire au niveau le plus fin, par exemple au niveau d’une catégorie d’opérations, et de consolider ensuite ces besoins à des niveaux de plus en plus centralisés jusqu’à l’ensemble de la ligne métier à laquelle seront alloués les fonds propres correspondants. À l’inverse, le principe de l’approche top-down consiste à désagréger une information mesurée sur la totalité des risques opérationnels de la banque et d’allouer ensuite ces fonds propres à des niveaux de plus en plus décentralisés. La complexité des problèmes de mise en œuvreMalgré la simplicité de ces deux enjeux (modèle de processement et fonctionnalités d’application), il s’avère que, dans la pratique, la mise en œuvre des différentes approches a soulevé et soulève encore de nombreuses divergences dont la complexité est progressivement apparue à l’occasion des nombreuses missions d’enquête menées tant en France par la Commission Bancaire qu’à l’étranger par les autorités ou organismes compétents.
Enfin la mise en œuvre d’un dispositif efficace de mesure et de gestion du risque opérationnel, quelles que soient les modalités d’analyse des données, requiert un système d’information adéquat. C’est là probablement un des domaines où les banques ont encore d’importants progrès à accomplir, ce qui n’est probablement pas étranger au fait que la direction des systèmes d’information n’est pas souvent représentée au sein des banques dans les comités de gestion des risques opérationnels. L’adaptation des systèmes d’information aux exigences spécifiques du processement des risques opérationnels a donc amené les banques à faire le choix entre le lancement d’un projet entièrement nouveau ou à la réalisation d’extensions destinées à collecter les données nécessaires. Dans le premier cas, il s’est agi de mettre en œuvre une procédure entièrement nouvelle de collecte systématique des pertes et, à cet effet, de conduire des missions de sensibilisation à tous les échelons de la banque. Dans le second cas, il s’est plutôt agi de reprendre et de retraiter au niveau des métiers des historiques de pertes existants. Dans un environnement aussi complexe, il est clair que la définition du véritable profil de risque d’un grand groupe bancaire et la mise en place d’une politique efficace de réduction des pertes opérationnelles dans chaque entité relève d’un projet global, nécessitant un déploiement à grande échelle, et partant, une réelle gestion du changement. Les enjeux de conduite du changement associés à Bâle II concernent notamment la diffusion d’une nouvelle culture de vigilance à propos des risques opérationnels, et la pérennisation de ce système. Le premier enjeu consiste à diffuser une culture de vigilance à l’égard de ces risques dans chaque business unit de la banque. À ce titre, on peut parler de véritable acculturation des collaborateurs présente dans toutes les modalités de la mise en œuvre (cartographie des risques opérationnels, dispositif de collecte des incidents), le principal attribut de cet enjeu étant l’implication de chaque collaborateur de la banque. Le second enjeu est d’éviter que le système de gestion des risques opérationnels ne devienne figé, et donc de faire en sorte qu’il puisse évoluer sous l’effet des actions correctives, des risques qui disparaissent, et des nouveaux risques qui apparaissent. Globalement, l’enjeu du processement régulatoire des risques opérationnels n’est pas d’obtenir une certification du superviseur pour que la banque puisse utiliser telle ou telle approche proposée par le régulateur : il est de favoriser une amélioration durable de la maîtrise des risques opérationnels par la banque, en responsabilisant chacune des parties prenantes (régulateur, superviseur, collaborateur de la banque). C’est bien là où le dispositif acquiert un degré supplémentaire de complexité puisqu’en définitive, la réussite de la mise en œuvre du dispositif est tributaire non seulement des bonnes pratiques de la banque mais aussi de la flexibilité de la surveillance prudentielle exercée par le superviseur et de l’adaptabilité introduite dans le dispositif par le régulateur. La surveillance prudentielle des superviseursC’est principalement dans l’application de l’approche AMA que va s’exercer l’influence des superviseurs. Pour ce qui concerne la France, la Commission Bancaire a opté pour une position « flexible » au cas par cas, c'est-à-dire banque par banque. Pour cela, la Commission Bancaire prendra d’abord en compte la manière dont chaque banque aura proportionné son approche AMA avec son profil de risques opérationnels. Cette autorité ne privilégiera aucune méthode plutôt qu’une autre, se réservant seulement d’apprécier la pertinence d’ensemble des méthodologies retenues par rapport au profil de risque. La Commission Bancaire se voudrait étrangère à toute approche trop normative et figée, incompatible avec la dimension évolutive des techniques et méthodologies développées par les banques dans le domaine des risques opérationnels. Pour ses démarches de validation, la Commission Bancaire exprime d’abord un souci de cohérence avec la surveillance prudentielle exercée par d’autres autorités de contrôle, en reprenant à son compte les principes de home-host supervision et les principes d’une approche hybride entre filiales significatives et autres filiales, tels qu’ils sont proposés dans le dispositif Bâle II. Elle précise ensuite les grandes lignes du contenu de sa démarche, en parfaite conformité avec le contenu du dispositif :
Finalement, c’est plus par sa logique d’intervention que par sa flexibilité que la surveillance prudentielle va subir un changement significatif : la vérification exhaustive des critères d’éligibilité, tant qualitatifs que quantitatifs, à l’AMA, ne s’inscrit donc pas dans une simple logique d’appréciation de la conformité réglementaire d’un modèle. Elle repose surtout sur une évaluation de la capacité des établissements à identifier, analyser, maîtriser et réduire (tant la fréquence que la sévérité des pertes) leurs risques opérationnels[11]. Notes et références
Bibliographie et Autres Sources
Voir aussiLiens internesLiens externes |
Portal di Ensiklopedia Dunia