• Suivez-nous

  • L’apport des outils de BPM à l’optimisation de la performance

     

    Evacuons d’entrée une objection classique : ce n’est pas un outil qui vous optimisera votre processus – et heureusement serait-on tenter de rajouter dès lors qu’une société pilotée par l’intelligence artificielle n’est pas votre modèle de référence.

    En revanche, il est indéniable qu’il existe désormais des outils informatiques qui permettent de traduire la réalité de processus complexes et d’en suivre ou d’en simuler la performance dans le temps. Et ainsi faire des choix d’amélioration en connaissance de cause.

    Dans le projet d’optimisation, ces outils logiciels viennent compléter des outils méthodologiques classiques utilisés dans les démarches Qualité (diagrammes de Pareto, d’Ishikawa, matrices de compatibilité…) qui permettent notamment de cibler le périmètre du projet ou de rechercher les causes possibles de dysfonctionnement.

    On peut regrouper ces logiciels en trois familles : modélisation, simulation et contrôle de la performance.
    La modélisation, première étape de l’optimisation

    Les méthodes classiques de re-engineering se sont souvent appuyées sur une représentation graphique des processus à réorganiser.

    Cette représentation avait pour but de mettre en évidence les ruptures organisationnelles, les traitements redondants ou les flux d’information empruntant des circuits tortueux.

    Nombre de projets d’optimisation se contentaient d’ailleurs de proposer un schéma simplifié. Les processus étaient en général internes à l’entreprise et relativement délimités. Si ce n’était le cas, la méthode démontrait rapidement ses limites.

    Désormais, les processus à optimiser peuvent déborder du périmètre de l’entreprise, du fait d’une intégration croissante en amont (côté fournisseur) ou en aval (côté client ou utilisateur). Les points d’entrée et de sortie se sont multipliés, la pression sur les coûts et les délais est plus forte que jamais. Bref la réalité est plus complexe et la simple représentation graphique ne suffit plus à la traduire.

    En complétant la représentation graphique par des informations structurées sous la forme d’une base de données, les outils de modélisation permettent de traduire des processus complexes. Ceux-ci peuvent être découpés en sous-processus mettant ainsi en évidence les interfaces, et modélisés suivant plusieurs vues (les prismes) qui se superposent : l’organisation, le système d’information, la gestion des connaissances… sont autant d’angles d’analyse d’une même réalité.

    En fonction de ses besoins, un utilisateur pourra choisir de ne visualiser que les informations qui l’intéressent.

    Une fois réalisé la modélisation des processus à optimiser, il est possible de se servir de la structuration des données de la base pour procéder à des analyses telles que la liste des tâches par employé ou poste de travail, le nombre d’intervenants ou d’étapes par processus,…

    Il est également possible à ce stade de compléter les données par des informations de délais ou de durée de traitement moyens.
    Ceci permet de mettre en évidence des goulots d’étranglement et de définir des mesures d’optimisation de premier niveau.

    Les outils de simulation, pour analyser la performance de processus complexes.

    On l’a dit, les processus sont de plus en plus complexes.
    Les optimiser signifie améliorer leur performance, donc être capable de qualifier cette performance (définir des critères objectifs) et de la mesurer – au minimum de l’évaluer – afin d’imaginer des processus alternatifs plus performants (mesurés à l’aulne des mêmes critères).

    Ce n’est pourtant pas suffisant : dans la plupart des cas, la performance du processus évolue dans le temps, en fonction des volumétries traitées qui ne sont pas réparties de manière homogène et de la disponibilité des ressources matérielles et humaines.

    De plus, la performance optimale du processus ne correspond pas forcément à la performance optimale de chacune de ses parties.

    Les outils de simulation permettent d’appréhender cette performance fluctuante en modélisant :
    - la volumétrie à traiter (sur une période de référence susceptible d’être représentative comme la semaine par exemple) ;
    - la disponibilité des ressources matérielles (informatiques, logistiques, opérationnelles) ;
    - la disponibilité des ressources humaines (horaires décalés, temps partiels, …).

    Il s’agit là essentiellement de traiter des causes récurrentes de non performance, le caractère exceptionnel ou aléatoire d’un événement étant plus difficile à modéliser. En particulier, ces outils chercheront à minimiser le temps perdu à attendre qu’une ressource indisponible se libère (« temps d’attente dynamique »).

    Par rapport à la première étape, le modèle sera enrichi d’informations de délai et de volumétrie. Il sera également plus rigoureux (certaines règles de syntaxe deviennent impératives) et souvent plus détaillé : quand un seul événement global pouvait suffire pour décrire la réalité (réception d’une commande client), la simulation va s’intéresser aux typologies d’événement (les types de commande) dès lors que le délai ou le coût de traitement en dépend.

    Une fois le modèle enrichi de toutes ces données, la performance du processus de départ sera simulée afin de disposer du point de référence qui permettra de quantifier l’optimisation visée.

    Il s’agira alors d’analyser les composantes de cette photographie pour dégager les gisements d’amélioration : pour cela, l’outil de simulation ne se contente pas de mesurer la performance globale du processus mais il détaille cette performance pour chacune des occurrences traitées et enregistre le détail des informations de temps et de coût.

    On pourra donc identifier quelles sont les fonctions ou les postes de travail qui concourent le plus aux indicateurs considérés, analyser les goulots et, à organisation identique, jouer sur l’affectation des ressources pour chercher le meilleur compromis.
    Ces recherches de solutions alternatives pourront également intégrer des modifications organisationnelles afin d’en mesurer l’impact sur le niveau de performance.

    Développés pour des besoins industriels, ces outils sont souvent puissants et adaptés à des situations complexes. Appliqués à des contextes de processus administratifs ou de services (banques, assurance, logistique, …), où les études de productivité sont encore souvent sommaires, ils peuvent révéler des gisements d’amélioration significatifs.

    Ce qui laisse une marge de sécurité pour absorber les inévitables distorsions entre la performance du modèle de processus simulé et celle constaté à la mise en œuvre.

    Les outils de simulation de la performance permettent d’effectuer un « tuning » fin d’un processus, dès lors que l’on dispose des données suffisantes pour coller au plus près de la réalité. Là est leur limite : quand la simulation repose sur trop d’hypothèses de travail (notamment concernant les durées de traitement ou la répartition des volumes traités dans le temps), l’interprétation des données devient hasardeuse.

    C’est là que les outils de contrôle continu de la performance peuvent intervenir afin d’alimenter par des données réelles l’outil de simulation.

    Les outils de contrôle de la performance en appui

    Dans un processus d’amélioration continue, il ne suffit pas de mettre en œuvre un processus optimisé dont on a quantifié l’apport, il s’agit de le mettre sous surveillance et de s’assurer que sa performance ne se dégrade pas.

    C’est le rôle des outils de B.A.M. (Business Activity Monitoring) que de rechercher dans le système d’information de l’entreprise les éléments factuels permettant de mesurer cette performance.

    Si ces outils peuvent servir, en fin de cycle de re-engineering, à contrôler le nouveau processus, ils peuvent aussi être utilisés en amont pour mesurer la performance du processus actuel et alimenter le moteur de simulation en données réelles.

    Dans certains cas, l’outil de B.A.M. ira jusqu’à modéliser le processus tel qu’il le voit dans le système, fournissant une alternative à la démarche classique commençant par la modélisation du processus métier « théorique ».

    Le choix entre les deux approches dépendra des objectifs du projet (incluant ou non un outil de B.A.M.), de la complexité du processus (qui sous-tend le niveau des données nécessaires à sa simulation), et… du budget consacré.