AIDE A LA DECISION ET STRATEGIE

TECHNIQUE ET STRATEGIE

 

 

Le précédent numéro de Stratégique nous a présenté, par l’intermédiaire d’un article de Jean-Philippe Debleds, un développement sur l’automatisation du raisonnement tactique, développement dans lequel l’auteur mettait en évidence l’importance croissante d’outils comme les systèmes d’aide à la décision1. Or, si ces outils peuvent représenter une aide au cours des phases tactico-opérationnelles, ils ne trouvent que difficilement leur place dans des processus de décision liés à des problématiques plus stratégiques.

Une telle constatation ne signifie cependant pas que le champ d’action de l’aide à la décision s’arrête là où commence la stratégie. Bien au contraire, c’est dans ces occasions que le mot aide prend toute sa signification et que la notion d’aide à la décision se rapproche le plus de la définition qu’en a donnée Bernard Roy : "L’aide à la décision est l’activité de celui qui, prenant appui sur des modèles clairement explicités mais non nécessairement formalisés, aide à obtenir des réponses aux questions que se pose un intervenant dans un processus de décision, éléments concourant à éclairer la décision et normalement à prescrire, ou simplement favoriser, un comportement de nature à accroître la cohérence entre l’évolution du processus d’une part, les objectifs et le système de valeurs au service desquels cet intervenant se trouve placé d’autre part"2.

Toutefois, c’est aussi dans ce type de mise en œuvre que les outils d’aide à la décision sont les plus discutables et les plus discutés, sans doute parce que l’outil, de plus en plus souvent informatisé et s’appuyant sur une modélisation mathématique de plus en plus sophistiquée, provoque justement un oubli du sens de l’aide à la décision que l’on confond trop souvent, même si l’on s’en défend, avec automatisation.

une difficile symbiose

Dès les années cinquante, la stratégie a tenté de se nourrir de l’apport potentiel de techniques d’aide à la décision comme celles que proposait la recherche opérationnelle. Ce courant aboutit aux Etats-Unis à ce que l’on a nommé l’ère Mac Namara. Dans son autobiographie3, Lee Iacocca, le "sauveur" de Chrysler et dont le "boss" chez Ford fut précisément le secrétaire d’Etat à la Défense des présidents Kennedy et Johnson, dépeint un tableau, à la fois cruel et rempli d’admiration, tout à fait révélateur de cette époque. Mac Namara, réputé comme étant a human robot, selon l’expression reprise par Iacocca, voulait régler tous les problèmes de manière sinon scientifique du moins systématique, en s’appuyant sur les technologies les plus développées et une rationalité totale.

Si le recours à une telle approche de la prise de décision lors de la crise des missiles de Cuba a montré l’efficacité que l’on pouvait en obtenir, la guerre du Viet Nam a mis en lumière ses limites, y compris dans ses applications en stratégie opérationnelle. En particulier, les experts, quarante-sept scientifiques au total, consultés par la division Jason de l’Institute for Defense Analyses pour trouver une solution "scientifique" au conflit vietnamien, préconiseront "un programme de 800 millions de dollars, qui sera effectivement réalisé, et qui ne servira à rien"4. Ici, la recherche d’une solution rationnelle s’est soldée par le lancement d’un programme qui dépassait le raisonnable, distinction que précise Ralf Dahrendorf : "Agir "rationnellement" revient à faire appel à des scientifiques pour résoudre les problèmes,... être raisonnable signifie discuter, convaincre, faire confiance à la force du raisonnement et au bon sens"5.

En parallèle, de nombreuses tentatives, pourtant prometteuses, de formalisation des problèmes stratégiques ne se sont montrées que d’une utilité relative. L’exemple le plus frappant concerne la théorie des jeux. C’est ainsi que, dans la préface à l’édition de 1980 de son ouvrage sur la stratégie du conflit6, Thomas Schelling reconnaît qu’il s’est trompé en pensant que "la théorie des jeux pourrait y trouver un champ d’application intéressant". Reprenant cette critique, Lévine et Pomerol insistent sur le fait que la théorie des jeux s’est révélée, à l’usage, d’une pertinence plus que discutable : "le niveau de connaissance nécessaire pour mettre en œuvre ces modèles est complètement irréaliste"7.

Toutefois, Thomas Schelling, anecdote à l’appui, insiste sur l’intérêt, parfois mal compris, que représente cette recherche de formalisation : "Il y a quelques années, dans la rédaction d’un texte relatif aux attitudes possibles des Soviétiques et des Américains à l’égard de certains types d’armements, j’avais eu recours à quelques matrices 2 x 2 dans le but d’aider le lecteur à suivre plus facilement le raisonnement...  : le rédacteur en chef du journal fit pression sur moi pour que je supprime ces matrices afin de ne pas rebuter le lecteur dont la compréhension s’accommoderait mieux, à son avis, d’un exposé sans formalisme bien que ce dernier fût incontestablement moins clair".

Un des concepts les plus importants de l’aide à la décision est précisément celui de modélisation. Le modèle est la représentation simplifiée d’un processus. "Dans son sens le plus large, la notion de modèle recouvre toute représentation d’un système réel, qu’elle soit mentale ou physique, exprimée sous forme verbale, graphique ou mathématique"8. En reprenant l’analogie énoncée par le mathématicien Alfred Korzybski, on peut dire que le modèle est une carte reflétant de façon plus ou moins précise un territoire donné. A partir de cette image, on imagine aisément les dangers pouvant découler de la modélisation. L’attention de l’utilisateur doit ainsi porter sur la pertinence de la correspondance, à défaut d’isomorphisme, entre la carte et le territoire car, comme le fait remarquer l’aphorisme de Korzybski, "la carte n’est pas le territoire"9. En effet, bien des causes peuvent venir altérer une carte : de la valeur des données qui la composent à la manière même de la réaliser.

Or, les modèles que réclame la stratégie cumulent toutes les difficultés que l’on peut rencontrer en modélisation : hétérogénéité des variables étudiées, évolutivité importante des systèmes, mélange de critères quantitatifs et qualitatifs, manipulation d’objets non pas concrets mais abstraits, matérialisés par des finalités plus ou moins claires... En outre, en stratégie, le "capteur" de base est l’expert humain, ce qui est source de nombreux problèmes notamment quand il s’agit de tenter de formaliser les connaissances, le plus souvent peu structurées, de celui-ci. En revanche, plus on évolue vers des sujets d’étude de nature tactique, moins les capteurs utilisés sont d’origine humaine et plus l’ordinateur est susceptible de prendre une place importante dans le processus de décision.

La dichotomie tactique-stratégique

L’utilisation à des fins militaires du concept d’aide à la décision nous conduit donc à effectuer une distinction entre son rôle tactique et son rôle stratégique. Ainsi, si l’on prend comme exemple le déroulement de la guerre du Golfe, les outils d’aide à la décision conviennent tout à fait dès lors qu’il s’agit de programmer (et le mot est ici particulièrement bienvenu) les différentes opérations aéro-terrestres, alors que leur utilité ne devient que secondaire quand la décision devient plus stratégique, voire politique, comme l’a été celle d’arrêter l’avancée des forces coalisées à l’intérieur du territoire irakien.

En fait, la dichotomie que nous esquissons ici entre le stratégique et le tactique ne constitue qu’une variante de celle présentée par le prix Nobel d’Economie Herbert Simon10 en ce qui concerne la prise de décision quand il distingue les décisions programmées des décisions non programmées. S’il définit les premières comme étant des "décisions routinières et répétitives", pour lesquelles l’organisation a élaboré des procédures précises et souvent standardisées permettant la résolution du problème posé, il insiste sur le fait que pour les secondes, "il n’existe pas de méthode toute faite pour régler le problème". Les décisions non programmées représentent d’ailleurs, le plus souvent, même si cette règle n’est pas absolue, des problèmes de faible occurrence : la prise ou l’attaque d’un objectif désigné est plus fréquente que la décision d’envoyer des missiles sur Cuba, de contracter des alliances ou de conclure un armistice. Ici, point de statistiques, ni de probabilités, et si l’histoire tend parfois à se répéter, c’est souvent avec d’infimes variations proches de points de bifurcation qui rendent nécessaire une remise en cause des modèles que l’histoire avait suggérés.

Cette dichotomie se rapproche également du processus décrit par Bruno Lussato dans la dernière partie de son Introduction critique aux théories des organisations11. Pour lui, les entreprises fonctionnent suivant trois phases : la phase physique, la phase abstraite et la phase psychologique. A la phase physique appartiennent l’ensemble des objets concrets : énergie, main-d’œuvre, immobilisations, marchandises, produits et matières premières, ainsi que les liquidités. La transposition aux choses militaires nous semble suffisamment évidente pour que nous laissions le lecteur l’effectuer de lui-même.

La phase abstraite est une phase de traitements de données, entités n’ayant pas de signification propre, mais étant liées à des objets concrets ou psychologiques : c’est ici le théâtre d’opération des différents systèmes informatisés, qui soit commandent directement des actions à effectuer en phase physique, soit préparent des données pour la phase psychologique.

"Les éléments de la phase abstraite ne sont effectivement nommés information que lorsqu’ils aboutissent au champ de représentation de l’homme". Ils entrent alors dans la phase psychologique : le moteur y est l’homme (le processeur humain ?), celui-ci traitant les informations qu’il reçoit et prenant les décisions qui s’y rapportent.

A partir de ces différents concepts, nous pouvons définir un continuum, allant du programmé vers le non programmé, du fortement structuré vers le peu structuré, continuum se superposant à celui que nous a présenté Eric Jacquet-Lagrèze à propos de la place des systèmes interactifs d’aide à la décision (SIAD). Ce continuum part d’un processus totalement automatisé vers le traitement du problème par un processeur humain en passant par le SIAD, outil intermédiaire faisant intervenir un processus interactif homme-machine.

 

Gestion automatique  < -> SIAD    <->  Processeur humain

Le continuum programmé / non programmé

Ainsi, au cours des quatre phases du processus de décision, à savoir le renseignement, la conception, la sélection et la constatation, pour reprendre la terminologie d’Herbert Simon12, l’outil est amené à jouer un rôle plus ou moins grand, antisymétrique par rapport à celui du processeur humain, ce qui nous invite à suivre le principe de rationalité limitée énoncé par le même Simon, principe qu’explicite Bernard Roy quand il fait remarquer que la pratique conduit à remettre en cause des postulats comme ceux de l’existence d’une solution optimale et d’un décideur clairement identifié13. De fait, à une recherche systématique et algorithmique on substitue une recherche heuristique dont l’objectif est l’atteinte de critères minimaux de satisfaction.

Le paradigme de complexité

Les problèmes difficilement structurables sont par essence ceux que l’on peut qualifier de complexes, qu’il nous faut distinguer des problèmes compliqués, notions que l’on a tendance à confondre. En effet, bien que leur description soit souvent délicate, les problèmes compliqués peuvent faire l’objet d’une modélisation presque complète, pour peu que l’on y mette le prix. Ainsi, Henri Atlan parle de complication "pour les situations où tout est connu, mais dont la description s’avère particulièrement longue" (et la qualifie d’algorithmique). En revanche, il définit la "complexité comme la mesure de notre ignorance"14. Cependant, si, comme le souligne Henri Atlan, "le constat de complexité permettait, et permet encore d’ailleurs de justifier le manque de théorie et de suppléer, bien que de façon illusoire, l’insuffisance des explications", il sert aujourd’hui à bâtir des outils mieux adaptés aux situations qui l’exigent.

Ici, il nous faut distinguer, dans cette étude du compliqué, du complexe, de l’inconnu, les notions d’imprécision, d’incomplétude, d’aléatoire et d’incertitude. Si des données imprécises ou incomplètes peuvent générer des comportements aléatoires, la caractéristique principale des systèmes complexes est l’incertitude. Or, alors que les probabilités sont parfaitement adaptées quand il s’agit de gérer des phénomènes stochastiques, la théorie des possibilités et celle de l’évidence, qui s’en rapprochent, ne sont que d’un faible secours pour ce qui est des phénomènes incertains.

Les deux maître-mots des systèmes complexes sont la variété et la variabilité : la variété traduit l’hétérogénéité et le nombre, toujours croissant, de variables à prendre en compte pour étudier les systèmes complexes15, quant à la variabilité, elle naît des multiples formes et valeurs que peuvent prendre ces variables, ainsi que du caractère évolutif des multiples interactions et, par transitivité, des réactions en chaîne et rétroactions.

Quand, dans la conclusion de son article sur "la crise des fondements"16, le général Poirier insiste sur l’expérimentation, à laquelle nous nous livrons depuis quelques années, de "l’une de ces transitions de phase entre du connu et de l’inconnu", c’est bien de gestion de l’incertitude dont il parle, car ne l’oublions pas, la caractéristique du concept de transition de phase, image particulièrement appropriée, tel que les chimistes l’ont défini, est de qualifier des situations où les éléments se comportent de manière, sinon incertaine, au moins aléatoire.

Les modèles que l’on avait pu bâtir depuis la seconde guerre mondiale, et qui permettaient de traiter quasiment tous les cas de figures qui pouvaient se présenter, se révèlent aujourd’hui, en raison de la chute du bloc communiste, sans objet : "les opérations de l’entendement et du jugement politico-stratégiques, l’outillage intellectuel, les concepts, les critères de la pratique... qui permettaient, hier, de déchiffrer et de dire le sens de notre action, d’appliquer la grammaire et la logique spécifiques de la stratégique à des stratégies concrètes ne sont plus pertinents"17. La nécessité de bâtir de nouveaux modèles, adaptés à la situation actuelle, se fait d’autant plus sentir que les situations, c’est devenu un lieu commun de le proclamer, deviennent de plus en plus complexes.

Cette transition de phase ressemble fort à un changement de paradigme, au sens que Thomas Kuhn donne à ce concept dans la Structure des révolutions scientifiques18. Les bases, hier acceptées par tous, sont aujourd’hui, par la force des choses, remises en question. Toutefois, on ne voit que difficilement émerger les nouvelles fondations, les nouveaux fondements pour reprendre l’expression du général Poirier, qui permettront de construire le nouveau paradigme.

De fait, le seul concurrent actuellement en lice est celui qu’Edgar Morin19 a baptisé le "paradigme de complexité", paradigme qu’il a d’ailleurs invoqué dans un article publié dans Le Monde au cours de la guerre du Golfe. De même, la crise yougoslave avec ses nombreux acteurs, leurs objectifs non moins nombreux, qui plus est divergeants et pourtant interconnectés, et leurs moyens d’actions incertains, représente l’archétype de cette complexité qui défie les modèles existants et exige des outils appropriés.

DES OUTILS OPÉRATIONNELS

L’étude des systèmes complexes a fait l’objet de maintes études. Ainsi, le lecteur intéressé se plongera, entre autres, avec profit dans les différents ouvrages de Jean-Louis Le Moigne20. Toutefois, en dépit de l’intense activité autour du paradigme de complexité, les outils d’analyse réellement opérationnels sont fort peu nombreux. Issus de la recherche opérationnelle, nourris de théorie des systèmes et portés par un esprit d’ouverture, les outils dont se servent les prospectivistes ont, par essence, cet objectif qu’est la réduction de l’incertitude et constituent de véritables générateurs de modèles.

Deux de ces outils, le tablier des pouvoirs et Mactor, ont déjà fait l’objet d’une présentation méthodologique dans Stratégique21.

Inspiré du Djambi (l’échiquier de Machiavel), le tablier des pouvoirs est un outil de représentation qui allie un indéniable caractère ludique à une grande richesse d’analyse, à la fois synchronique et diachronique. S’appuyant sur un outil bien connu des prospectivistes pour son aptitude à traiter, qualitativement, des systèmes hétérogènes et évolutifs, l’analyse structurelle, le tablier des pouvoirs utilise des pièces qui permettent de décrire et d’animer des situations conflictuelles. Ainsi, le prince (pouvoir de l’autorité), le juge (pouvoir des valeurs), les enjeux (pouvoir des hommes et des territoires) et de nombreuses autres pièces sont associés à des stratégies d’action qui leur permettent de faire évoluer le tablier, stratégies que deux exemples, stratégiques bien sûr, viennent expliciter : comment faire sortir Achille de sa tente ? et comment ramener le calme dans une île lointaine ?

Très proche dans son esprit de l’analyse structurelle, Mactor (Méthode ACTeurs, Objectifs et Rapports de force) se propose d’étudier les relations entre acteurs, en fonction des objectifs du jeu au cours duquel ils se trouvent confrontés et de les visualiser sur un graphe valué et orienté. Cette visualisation des relations entre acteurs, via leurs objectifs, devrait rendre Mactor particulièrement utile dans l’étude des conflits limités. En effet, les rapports de forces et les alliances potentielles, directs ou indirects, que Mactor synthétise, sont susceptibles d’aider à déterminer les fameux seuils liés aux objectifs que chaque acteur s’est fixé. En outre, ainsi que le démontre le cas du transport aérien, avec ses 6 acteurs et ses 5 enjeux et objectifs associés, ce qui est pourtant loin de constituer un maximum en la matière, Mactor est tout à fait adapté à l’étude de situations complexes.

Plus anciennes, les méthodes de consultation d’experts ont pour objet de transformer le "modèle mental", c’est-à-dire l’opinion, le jugement, des experts en information. Elles permettent notamment d’associer à divers scénarios des probabilités subjectives, simples ou conditionnelles, qui reflètent l’opinion du ou des groupes d’experts. A la méthode Delphi, née en 1953 aux Etats-Unis dans le but de résoudre des problèmes militaires, ont succédé des outils plus sophistiqués. L’un d’entre eux, SMIC, a récemment servi de support à une étude sur la sécurité en Europe22. Cependant, si la valeur et la pertinence des informations ainsi obtenues sont parfois discutables et discutées, ces méthodes se révèlent très utiles pour savoir "qui pense quoi" et reconstituer les jeux des différents acteurs.

L’Informatique de la décision : heurs et malheurs

L’informatique a toujours constitué, depuis les premiers balbutiements des ordinateurs jusqu’à nos jours un espoir pour ceux qui cherchent des outils susceptibles d’améliorer la décision, voire de décider en lieu et place de l’homme. De plus, l’information est considérée comme un moyen de réduire l’incertitude ; d’ailleurs, on remarquera à ce sujet que la formule de mesure de l’entropie, donc de l’incertitude, est, à un signe près (c’est-à-dire inversement proportionnelle), analogue à celle définie par Shannon dans sa théorie mathématique de l’information. Très tôt, un lien a donc été établi entre ces deux notions. Pourtant, pour ce qui est des applications, la liste des échecs et des projets chimériques, des "usines à gaz" dont on ne voit jamais la fin, s’avère, là encore, fort longue.

Ainsi, dès les années cinquante, Newell et Simon étaient persuadés de l’existence d’heuristiques universelles permettant de résoudre toute sorte de problèmes. De ce projet naquit en 1959 le GPS, le General Problem Solver, en français programme général de résolution des problèmes. En fait, GPS permettait uniquement de structurer certains types de problèmes. Son champ d’application fut donc beaucoup moins large que celui initialement visé, ainsi que Simon le reconnaît dans la dernière édition du Nouveau Management. Il y décrit en effet le GPS de la manière suivante : "On l’appelle ainsi non parce qu’il peut résoudre n’importe quel problème - il ne le peut pas -, mais parce qu’il ne fait aucune référence particulière à la nature du problème. Le GPS est un programme capable de raisonner en termes de fins et de moyens à propos de n’importe quel problème dès lors qu’il est exposé sous une certaine forme générale"23.

Dignes héritiers du GPS, les systèmes-experts n’ont d’autre but que celui assigné in fine par Herbert Simon à leur ancêtre. La définition que l’on donne des systèmes-experts repose sur des considérations d’ordre technique : un système-expert est composé de trois éléments ; d’une part, on trouve la base de connaissance, elle-même composée d’une base de règles et d’une base de faits, et, d’autre part, un moteur d’inférence. Contrairement à l’informatique classique, il n’y a pas ici d’algorithme, toutes les connaissances étant formalisées de manière déclarative : "une connaissance déclarative ne contient pas son mode d’emploi ; par contraste, une connaissance procédurale indique explicitement comment elle est utilisée"24. On peut donc enrichir et modifier à loisir la base de connaissance. Les données sont déclarées dans la base de faits et les règles dans la base de règles, règles qui ont la forme générale suivante : Si... Alors... Ensuite, le moteur d’inférences établit les liens et conduit les raisonnements.

Une telle particularité rend immédiat l’intérêt des systèmes-experts dans l’étude des domaines peu structurés, complexes et évolutifs. Pourtant, si les applications tactico-opérationnelles tendent à se multiplier25, les systèmes-experts n’ont pas encore trouvé leur voie dans des domaines plus stratégiques, malgré la base de connaissance que pourrait par exemple constituer l’histoire militaire, qu’elle soit récente ou plus ancienne26.

Quand on étudie aujourd’hui la question des apports de l’informatique en matière d’aide à la décision, on rencontre en outre de nombreux autres types d’outils : systèmes d’information, systèmes interactifs d’aide à la décision (SIAD)... Toutefois, les définitions se révèlent très souvent particulièrement floues et les frontières difficiles à tracer. En conclusion de leur ouvrage consacré aux SIAD27, Lévine et Pomerol nous proposent, à partir d’un diagramme, une typologie des différents systèmes de traitement de l’information.

Importance des interventions du décideur

Systèmes de recherche d’information

 

SIAD

 

Systèmes d’information

Programmes informatiques automatiques

Rapport traitements/données

Les différents types

de systèmes de traitement de l’information

(d’après P. Lévine et J.-C. Pomerol)

Ils distinguent ainsi, en fonction de deux axes, quatre types d’outils. L’axe des abscisses est présenté comme "l’axe de la complexité", appellation à laquelle nous préférons celle de complexité-complication, suivant en cela la nécessaire différenciation effectuée par Henri Atlan. Quant à l’axe des ordonnées, l’axe de l’interactivité, il correspond exactement au continuum que nous avons décrit précédemment et permet ainsi, confronté à l’axe des abscisses, de distinguer le compliqué du complexe.

Véritable magma informationnel, les systèmes d’information, avec les ultimes prolongements que furent, dans les années 1970, les Management Information Systems (MIS), ne représentent le plus souvent que des bases de données brutes, au sein desquelles le décideur perd rapidement pied. Dans le coin inférieur droit du diagramme se situent les applications automatisées, bâties autour de systèmes d’information très structurés. Cependant, dès lors que l’on sort de ces applications, les entités informationnelles qu’elles produisent retournent à un état brut, non structuré. Plus intéressants sont les systèmes de recherche d’information, outils offrant à l’utilisateur de se déplacer à l’intérieur d’un système d’information et de structurer autour d’une recherche précise un ensemble de données. C’est à cette famille qu’appartiennent les EIS, les Executive Information Systems, désormais multimédias, c’est-à-dire gérant sons, images et données. Enfin se détachent, dans le coin supérieur droit, celui de la complexité et de l’interactivité, les SIAD. Issus des travaux de Scott Morton durant la décennie 1970, les SIAD (DSS, Decision Support System, en anglais) ont vu leur importance croître avec l’explosion de la micro-informatique. Ici, l’utilisateur bâtit de manière évolutive et interactive un véritable modèle qui, petit à petit, le rapproche de la solution recherchée.

Avec leur concept de SIAN, Système Interactif d’Aide à la Négociation, Lévine et Pomerol, ont transposé celui de SIAD à la stratégie : "comme les SIAD, ils impliquent, d’une part la recherche heuristique et le contrôle de l’utilisateur et d’autre part la diversité des modèles"28. Flexibles et construits autour de solides bases de connaissance, ces outils sont susceptibles d’apporter des solutions plus réalistes que ceux imaginés jusqu’ici. Toutefois, ils demeurent trop souvent inaccessibles aux véritables décideurs.

Comme le relève Michel Godet à propos de la boîte à outils de la prospective, la diffusion des outils d’aide à la décision "s’explique par la micro-informatique qui permet de (les) rendre accessibles partout et avec des coûts faibles"29. Les logiciels dont il parle ont d’ailleurs été conçus, à partir de ce souci de diffusion, à la demande (et grâce au financement) d’utilisateurs comme les directions de la prospective et de la stratégie d’EDF et de Elf, ainsi que la direction de l’Armement terrestre du ministère de la Défense.

Toutefois nous avons constaté qu’en raison de leur spécificité, la diffusion des outils d’aide à la décision ne peut suivre un classique processus de standardisation30. Véritables générateurs de modèles, "coquilles... à remplir", ils jouent le rôle de catalyseur, de support (comme l’indique l’expression anglo-saxonne decision support) à l’organisation d’une réflexion structurée où la substantifique moelle réside dans l’interaction homme-outil. En raison de cette interactivité, l’appropriation de l’outil par l’utilisateur est impérative. C’est ce caractère essentiel que Michel Godet souligne dans son triangle grec : de l’anticipation à l’action, par l’appropriation, appropriation dont parle aussi Michel Rudnianski à propos de la théorie des jeux quand il invoque le nécessaire "dialogue aussi bien avec les autres disciplines concernées qu’avec les décideurs politiques et militaires"31.

Grâce à cette indispensable appropriation, réalisée par le biais d’outils opérationnels, la difficile symbiose que nous avons évoquée au début de cet article ne doit donc pas freiner le développement d’une discipline hybride où l’homme et l’ordinateur s’unissent dans un harmonieux mélange et dont la finalité est non pas une rationalité pure et parfaite, mais un juste compromis entre le rationnel et le raisonnable, afin d’engendrer des décisions qui, à défaut d’être plus scientifiques, sont au moins plus réfléchies.

Née d’un mariage entre l’empirisme et le rationalisme, l’aide à la décision, telle que nous venons d’en esquisser les contours, se nourrit, tout comme la stratégie, à la fois d’art et de science : ce qui nous apparaît comme des dichotomies ne sont bien souvent que des continuums. En ce sens, elle est parfaitement adaptée aux études stratégiques, à condition qu’on la considère pour ce qu’elle est, et uniquement cela. L’exemple, avec tous les dérapages que l’on connaît, de la composition assistée par ordinateur constitue, par analogie, une intéressante source de réflexion. Bien entendu, tout comme la stratégie assistée par ordinateur, une telle association pourra sembler à certains incongrue. Toutefois, issue d’une recherche de rationalité, ainsi que l’affirmait Iannis Xénakis, l’utilisation de l’ordinateur peut aider, assister le compositeur dans la structuration d’œuvres novatrices. Cependant, in fine, c’est ce dernier qui doit garder le contrôle du processus et demeurer le seul juge de ce qui reste sa création.

 

________

Notes:

1 “L’automatisation du raisonnement tactique”, Stratégique, n° 53, 1992-1, p. 305.

2 Bernard Roy, Méthodologie multicritère d’aide à la décision, Economica, 1985, p. 15.

3 Iacocca : an Autobiography, Bantam books, pp. 40-48 dans un chapitre ironiquement intitulé “the bean counters”.

4 Jean-Jacques Salomon, Le destin technologique, Balland, 1992, p. 48.

5 Cité par Jean-Jacques Salomon, op. cit., p. 46.

6 Thomas C. Schelling, Stratégie du conflit, PUF, 1986.

7 Pierre Lévine et Jean-Charles Pomerol, “La négociation aidée par ordinateur : vue d’ensemble et apports de l’intelligence artificielle”, dans L’aide à la décision dans la crise internationale, sous la direction de Michel Rudnianski, FEDN, dossier 44, 1992.

8 Bernard Walliser, Systèmes et modèles, Seuil, 1977, p. 116.

9 Alfred Korzybski, Science and Sanity. Les amateurs de science-fiction trouveront là la source, bien réelle, de la sémantique générale du cycle du non-A de Van Vogt.

10 Herbert Simon, Le nouveau management : la décision par les ordinateurs, Economica, 1980, pp. 35-75.

11 Bruno Lussato, Introduction critique aux théories d’organisation, Dunod, 1977, pp. 175-208.

12 Op. cit., chapitre 2.

13 Op. cit., p. XIX, avant-propos.

14 Henri Atlan, “L’intuition du complexe et ses théorisations”, Les théories de la complexité, Autour de l’œuvre d’Henri Atlan, Seuil, 1991, pp. 9-42.

15 La loi de la variété requise, énoncée par Ross Ashby, stipule que pour traiter un problème complexe, il faut lui opposer un niveau de complexité au moins équivalent.

16 Stratégique, n° 53, 1992-1, p. 150.

17 Lucien Poirier, art. cit., p. 151.

18 Flammarion, collection Champs, 1983.

19 Cf par exemple cette somme que constitue La méthode.

20 Notamment la Théorie du système général, PUF, 2e ed., 1984 et La modélisation des systèmes complexes, Dunod, 1990.

21 Publiés dans les numéros 30 à 35 de Stratégique, les articles de Pierre-Frédéric Ténière-Buchot sur le tablier des pouvoirs ont été regroupés dans L’ABC du pouvoir, Les éditions d’organisation, 1989.

22 Bernard Gentric et Patrice Leclerc, La sécurité en Europe : Une méthode prospective appliquée à la stratégie, FEDN, dossier 32, 1990.

23 Op. cit., p. 64.

24 Alain Bonnet, L’intelligence artificielle, Promesses et réalités, Interéditions, 1984, p. 171.

25 Voir l’article de Jean-Philippe Debleds précité, ainsi que la partie concernant les systèmes d’information et de communication (SIC) des actes du colloque Science et Défense 1992.

26 Voir à ce sujet Jean-Michel Sandeau, L’histoire militaire comme mémoire des systèmes d’aide à la décision, FEDN, dossier 33, 1990.

27 Pierre Lévine et Jean-Charles Pomerol, Systèmes interactifs d’aide à la décision et systèmes-experts, Hermès, 1990, p. 317.

28 “La négociation aidée par ordinateur ...”, art. cit., p. 202.

29 De l’anticipation..., op. cit., p. 203.

30 Ces problèmes de diffusion sont développés dans mon mémoire de DEA Science technologie et société, soutenu au CNAM sur le thème de La diffusion d’outils informatiques d’aide à la décision : Us et abus, étude de cas, et dont cet article est en partie le fruit.

31 Technologie, société et défense nationale, Actes des journées d’études, FEDN, dossier 15, 1987, p. 87.

 

 Copyright www.stratisc.org - 2005 - Conception - Bertrand Degoy, Alain De Neve, Joseph Henrotin