INTELLIGENCE ARTIFICIELLE : UN ENJEU STRATEGIQUE *

Jean-Philippe DEBLEDS

 

 

L'intelligence artificielle (IA) n'est pas et ne sera probable-ment jamais la réalisation du mythe de l'homme supplanté dans toutes ses facultés par la machine, vulgarisé par de nombreux et par-fois talentueux auteurs de science-fiction. Il est vrai qu'ils ont été aidés en cela par les informaticiens eux-mêmes, qui n'ont jamais hésité à puiser dans le vocabulaire anthropomorphique au gré de leurs besoins : langage, mémoire, dialogue, neurones et intelligence intro-duisent dans le jargon informatique une ambiguïté pour le profane.

Une anecdote, peut-être imaginée mais en tout cas plausible, permet d'éclairer une autre facette de l'IA. L'histoire se passe chez un grand constructeur mondial d'ordinateurs, que nous surnomme-rons "Hal". Chez Hal, l'esprit d'entreprise est très développé et on organise fréquemment des petits déjeuners de cadres. A l'occasion de l'un d'entre eux, un chercheur du laboratoire d'IA devise à table avec ses amis tout en beurrant des toasts. Distrait, il en laisse tomber un. Stupeur, la loi de Murphy1 ne s'applique pas et le toast tombe avec le côté beurré vers le haut. Une discussion passionnée s'ensuit, sur les causes et probabilités du phénomène. De retour dans son laboratoire, notre chercheur soumet le problème à l'ordinateur en lui décrivant l'environnement : le toast, le gravité, la résistance de l'air... Puis, il lui demande : - Comment se fait-il que le toast soit tombé avec le côté beurré vers le haut ? La machine réfléchit pendant plusieurs heures, échafaude des milliards d'hypothèses et rend son verdict : - Le toast était beurré du mauvais côté...

L'IA, c'est parfois cela ! Des réponses inattendues d'une machine pourtant déterministe, qui donnent au programmeur l'illusion fugitive, mais chargée d'une intense émotion, que l'ordinateur a été animé d'une volonté indépendante : il a pensé ! C'est le côté mystérieux et parfois exaltant de l'IA. En fait, l'ordinateur n'a pas pensé du tout, du moins avec le sens que Descartes donne à ce mot. Les données ont simplement provoqué une réponse qui était déjà contenue dans le programme d'une façon ou d'une autre, et que le concepteur n'avait pas imaginée.

Loin de ces deux extrêmes, une définition plus rigoureuse de l'IA serait de l'assimiler à la branche de l'informatique visant à faire résoudre par des ordinateurs des problèmes traités par l'homme, et pour lesquels il n'existe pas d'algorithmes satisfaisants. Elle essaye donc d'imiter les facultés sensorielles de l'homme, ainsi que ses fonctions intellectuelles supérieures.

Avec un peu de recul historique, elle constitue en fait la quatrième révolution informatique. En 1947, le transistor, robinet électronique en silicium, est inventé par Shockley, ce qui lui vaudra le Prix Nobel de physique en 1956. C'est la première révolution informatique, qui permet de passer dès 1955 des énormes ordinateurs expérimentaux à lampes aux gros ordinateurs d'entreprise. S'ouvre l'ère de l'informatique de gestion et du calcul scientifique. En 1964, l'invention de la puce, miniaturisation et concentration de transistors sur une petite surface de silicium, augmente la fiabilité et diminue l'encombrement des ordinateurs. Elle ouvre la voie à la micro-informatique. En 1975, l'idée de la souris (petit boîtier relié à l'ordinateur et qui permet de désigner facilement un point à l'écran) et la réalisation d'interfaces conviviales, mettent la micro-informatique à la portée des non spécialistes par sa simplicité d'emploi. Cette troisième révolution permet au grand public, celui du cercle familial autant que celui de l'entreprise, d'accéder à l'informatique. Cependant, l'homme doit toujours se plier aux normes de la machine, même si celles-ci se sont assouplies. Vers 2010, l'IA sera le moteur de la banalisation de l'informatique : la machine se mettra cette fois aux normes de l'homme qui utilisera son ordinateur de façon transparente. Son usage sera aussi répandu que celui du téléphone ou de la télévision aujourd'hui. D'ailleurs, il remplacera sans doute les deux. Entre autres.

Cette informatique de masse aura des conséquences incalculables, tant sur la transformation des habitudes mentales de l'individu que sur l'organisation de la société : enseignement, économie et défense seront touchés. Aussi apparaît-il opportun de faire le point sur cette technologie devenue stratégique car elle touche au savoir, principale richesse du siècle prochain.

La prochaine partie sera consacrée à deux techniques d'IA, couramment employées parmi d'autres, les systèmes experts et les réseaux connexionnistes. Les deux points suivants concerneront les deux principaux domaines de l'IA : l'imitation des facultés sensorielles de l'homme et celle de ses facultés supérieures. Le modèle humain, qui sert de référence, sera sommairement décrit au fur et à mesure des besoins.

LES SYSTEMES EXPERTS

Les systèmes experts sont une application particulière des systèmes à base de connaissances. Apparus en 1972, ils appartien-nent à l'IA symbolique, c'est-à-dire qu'ils sont capables de raisonne-ments logiques sur des entités qu'ils ne comprennent pas et qui sont représentées par des symboles. Les systèmes experts sont peu utilisés dans les applications imitant les facultés sensorielles de l'homme (quelques-uns en reconnaissance de la parole et en recon-naissance des formes), et servent essentiellement à la reproduction du raisonnement d'experts humains dans un domaine donné, d'où leur nom. Un système expert est un programme informatique articulé en trois parties : un moteur d'inférences, une base de règles et une base de faits. Le moteur d'inférence est la partie logique du programme. Il sert à rechercher les règles dont les prémisses sont vérifiées au moment où il travaille. Puis, après avoir déclenché ces règles, il met la base de faits à jour. Il recommence ensuite un nou-veau cycle d'inférence jusqu'à ce que plus aucune règle ne puisse être déclenchée : le raisonnement est fini. Ce moteur est donc indépen-dant de l'application visée et peut servir à n'importe quel système expert respectant le même formalisme. La base de règles décrit l'en- semble des connaissances des experts du domaine concerné. Une règle se compose d'un ensemble de prémisses et d'un ensemble de conclusions. Elle couvre une étape élémentaire du raisonnement.

Par exemple : si : température > = 40

intérieur-gorge = rouge

alors : maladie = angine

travail = arrêt.

Une base de règles est donc propre à un domaine particulier, mais son état ne change pas au cours d'un raisonnement du système expert. La base de faits est l'ensemble des valeurs affectées aux symboles décrivant les prémisses et les conclusions à un instant t. Elle est mise à jour par le moteur après chaque inférence, par exécution des conclusions des règles déclenchées. Par exemple :

température = 39

intérieur-gorge = rouge

maladie = indéterminée

travail = normal.

La base de faits est donc la partie la plus fugitive du programme car elle est remise à zéro à chaque nouvelle session. Un système expert comprend en général de deux cents à cinq cents règles2, dont certaines peuvent être très complexes : appel à des programmes externes de calcul, lecture de capteurs, voire conclusions d'autres systèmes experts. Cette taille est parfois responsable de la relative lenteur de la réponse : jusqu'à quinze ou trente minutes, parfois beaucoup moins. Ceci suffit en général à rendre les systèmes experts peu aptes à la résolution de problèmes en temps réel, où la rapidité est primordiale. En revanche, ils compensent cette relative faiblesse par la faculté d'expliquer leur raisonnement. En exhibant les règles utilisées, ils peuvent justifier leur réponse. Cette qualité est exploitée pour enseigner à l'utilisateur néophyte les connaissances du domaine.

Trois sortes d'intervenants sont concernés par la réalisation d'un système expert ; les experts, parfois nombreux, souvent contradictoires, jamais experts de leur expertise : ils savent, mais ils ne savent pas comment ils savent ; les cogniticiens, ingénieurs de la connaissance, chargés d'extraire et de modéliser les raisonnements et connaissances des précédents; les informaticiens qui transposent les modèles dans l'ordinateur avec le formalisme de la machine. Un système expert est donc un véritable réservoir à connaissances dans son domaine. Il engrange le savoir de nombreux experts, voire d'ici quelques années, de générations d'experts3.

Un autre point faible des systèmes experts est la difficulté qu'il y a à les valider. Il est impossible d'essayer toutes les valeurs possibles des paramètres d'entrée et de vérifier les réponses correspon-dantes. Donc, on ne peut ni ne doit leur accorder une confiance absolue. C'est pour cette raison que dans la plupart des cas, ils ne constituent qu'un système d'aide à la décision. L'opérateur humain juge en dernier ressort. Cependant, gardons à l'esprit que la machine, si elle ne peut trouver de meilleure solution que celle que les experts ont mise à sa portée, n'est pas non plus soumise à la fatigue, à la faim, au froid ou au stress. Ses solutions seront toujours de qualité moyenne, mais constante.

De nombreuses applications sont déjà en service auprès de tous les publics : aide au diagnostic pour les médecins (pour les malades humains), les maraîchers (pour les tomates), les mécaniciens (pour les automobiles, les locomotives), enseignement aux apprentis mécaniciens chez Renault... Dans le domaine de la défense, les applications de systèmes experts sont nombreuses. Quelques systèmes d'aide au commandement seront disponibles à partir de 1995 : le Système Expert Divisionnaire (ESD) pour la reproduction automatique du raisonnement tactique, ou encore Serpex (Cimsa-Sintra) pour l'évaluation du renseignement sur l'ennemi. D'autres systèmes experts sont utilisés à bord de systèmes d'armes pour l'auto-diagnostic de pannes. Cette technique a d'ores et déjà fait ses preuves et est en plein essor.

 

LES RESEAUX CONNEXIONNISTES

Les réseaux connexionnistes sont une technique d'IA très fidèle au modèle humain. Ils essayent en effet d'imiter l'organisation intime du cerveau, en descendant au niveau du neurone. Appelés aussi réseaux neuronaux, ou réseaux neuromimétiques, ils peuvent alors sous ces noms fallacieux induire le profane en erreur en lui faisant croire à la reproductibilité du vivant. Mais, avant d'aborder ces réseaux, voyons d'abord sommairement le modèle dont ils s'inspirent.

Le cerveau humain est composé d'environ cent milliards de neurones, connectés chacun à dix mille de leurs voisins4. La connectivité du cerveau5 est de 2,8, ce qui est extraordinairement bon. Le cerveau présente donc deux caractéristiques : un très grand nombre de cellules nerveuses, très bien reliées. Avec la technologie d'aujourd'hui, l'équivalent en transistors du cerveau humain représenterait un cylindre de silicium de quinze centimètres de diamètre et de cinq mètres de longueur, pour une puissance de cent kilowatts. Le cerveau, lui, se contente de dix watts.

Un neurone est une cellule spécifique qui ne se divise plus. Orienté par le sens de parcours de l'information, il se compose, de l'amont vers l'aval, de plusieurs dendrites reliées aux neurones en amont ; d'un corps cellulaire, centre d'intégration de l'activité amont ; d'un unique axone, transmettant vers l'aval l'influx du neurone si celui-ci est actif ; de plusieurs synapses (entre mille et dix mille) diffusant l'influx de l'axone vers les neurones en aval. L'influx nerveux, de nature électrochimique, a deux vitesses, selon qu'il concerne des informations motrices (cent à deux cents mètres par seconde) ou la douleur (un mètre par seconde). Le corps de la cellule effectue deux sortes d'intégration de l'activité en amont : la sommation spatiale détecte la simultanéité des influx de l'amont, lorsque plusieurs dendrites envoient leurs influx en même temps ; la sommation temporelle concerne les influx envoyés par une même dendrite plusieurs fois de suite. Dans les deux cas, cette somme d'activités est comparée à un seuil. Supérieure à ce seuil, elle déclenche l'activité du neurone et l'envoi d'un influx dans l'axone. Dans l'autre cas, le neurone reste inactif. Cette organisation complexe est fragile : le neurone a une probabilité de panne de 1/1000. Appliquée aux transistors d'un ordinateur, celui-ci tomberait en panne à chaque seconde ! De plus, l'influx informatique a une vitesse très supérieure à celle du neurone6. Alors, avec ces handi-caps, comment expliquer les extraordinaires performances de notre cerveau ? Par la redondance des neurones et leur taux de connexion.

Pour ce que nous en savons aujourd'hui, dans leur immense majorité, ces cellules participent au fonctionnement de leurs voisines et seule une assemblée de neurones en activité peut former une représentation mentale. Toute pensée est donc le fruit du travail collectif de plusieurs neurones : des pré-représentations se forment, se combinent, s'enchaînent. Leur entrée en résonance produit une mémorisation et une pensée consciente. Les neurobiologistes savent aujourd'hui établir des cartes du cerveau d'une résolution de quelques millimètres, mais pas au neurone près. De plus, ces cartes diffèrent d'un individu à l'autre. Par exemple, faute de connexions adéquates développées et entretenues, les Japonais ne peuvent distinguer les sons "la" et "ra". Le cerveau se développe donc, pour chaque individu, en forte interaction avec l'extérieur, suivant un principe darwinien de foisonnement puis de sélection et de renforcement ou d'affaiblissement des connexions interneuronales. Le cerveau humain présente ainsi une différence fondamentale avec l'ordinateur : le programme est inséparable de l'organisation physique, il est inclus dans les connexions. D'où l'idée de modéliser nos connaissances neurobiologiques et de concevoir un programme imitant ce modèle: les réseaux connexionnistes.

Un réseau connexionniste est un programme informatique7 simulant le fonctionnement d'une assemblée de neurones. Le modèle le plus simple à expliquer est celui du réseau en couches, mais il en existe d'autres. Un tel réseau se compose de plusieurs couches de cellules, en général deux ou trois : une couche d'entrée, une couche cachée (éventuelle) et une couche de sortie. Les cellules d'une même couche ne sont pas connectées entre elles et chaque cellule d'une couche est reliée à toutes les cellules de la couche suivante. Une cellule ne peut avoir que deux états : actif ou inactif. Si elle est active, elle envoie un influx dans chacune des connexions en aval. Ces connexions étant pondérées, elles sont différenciées. Chaque cellule a un seuil d'activité qui lui est propre. Elle effectue une intégration spatiale en sommant les poids des connexions actives en amont, compare cette somme à son seuil, puis transmet ou inhibe l'influx vers les connexions en aval.

Un tel réseau associe donc à une combinaison donnée de cellules actives ou inactives en entrée, une autre combinaison en sortie. Ces réseaux ont ainsi de nombreuses propriétés très intéressantes : les cellules ne peuvent pas être associées à des atomes de sens, sauf celles d'entrée et de sortie, qui représentent le codage du problème à résoudre ; le sens n'apparaît donc qu'au niveau global ; les propriétés fonctionnelles du réseau résultent de la force des connexions, c'est-à-dire de leurs poids respectifs. Modifier poids et seuils revient donc à changer les propriétés : un tel réseau est capable d'apprentissage ! Initialement, poids et seuils du réseau sont aléatoires. Puis une entrée donnée provoque une sortie quelconque. La bonne réponse est alors indiquée au programme, qui va calculer par des modèles mathématiques appropriés les poids et seuils qui conduisent à cette bonne réponse. Ce processus est répété un grand nombre de fois avec des données d'essai et assure la convergence vers des seuils et des poids optimaux. L'apprentissage est alors fini une fois pour toutes. Le réseau peut enfin sortir du laboratoire et être reproduit à autant d'exemplaires que l'on veut, par simple copie informatique.

L'étape suivante est le fonctionnement normal, c'est-à-dire
la reconnaissance ciera la réponse qu'il a apprise et qui s'en rapproche le plus. Le système est donc robuste et capable de généralisation. De plus, son temps de réponse est quasi instantané. Evidemment, le nombre de cellules est fonction de la dimension du problème, du nombre de réponses possibles. Il varie habituellement de quelques unités à plusieurs milliers : nous sommes très loin des cent milliards de neurones... Le domaine de prédilection de tels réseaux est la reconnaissance des formes, au sens large du terme. De très nombreuses applications sont déjà en service.

Par exemple, le réseau Net-Talk associe à un mot écrit sa prononciation. Composé de trois cents cellules, il lui faut douze heures pour apprendre à prononcer mille mots. A l'issue de cet apprentissage, il obtient 95 % de réussite sur le corpus initial. Puis, en généralisation, il peut prononcer correctement 90 % des mots nouveaux qui lui sont présentés, chaque mot ne lui demandant qu'un dixième de seconde de délai de réflexion. Il a appris à parler... Les réseaux sont aussi utilisés pour le guidage des véhicules militaires autonomes. Associés à plusieurs capteurs (caméras, radars, altimètres...), ils permettent au véhicule de percevoir son environnement et de s'y mouvoir en reconnaissant les obstacles. D'une façon générale, ils servent à l'interface homme-machine ou à l'interface robot-environnement, décrites au paragraphe suivant.

Les réseaux connexionnistes et les systèmes experts représentent donc, chacun à des degrés différents, une véritable innovation en informatique. Ils ne ressemblent à aucun autre programme connu jusqu'alors. IA symbolique ou connexionniste, raisonnant sur des symboles ou des chiffres, les résultats sont surpre-nants autant que prometteurs. Ces automates ont déjà commencé à envahir notre vie quotidienne, le plus souvent à notre insu.

 

L'IMITATION DES FACULTES SENSORIELLES DE L'HOMME

Les facultés essentielles qu'une machine doit posséder pour communiquer avec l'homme sont au nombre de trois : la vision, la reconnaissance de la parole et la synthèse vocale. Chacun de ces domaines est l'objet d'enjeux économiques parfois énormes. Les difficultés ne sont pas toutes du même ordre et certaines recherches ont déjà abouti.

La vision est le sens le plus développé chez l'homme : 70% des informations reçues par le cerveau viennent des yeux. Deux sortes de cellules alimentent la chaîne de traitement de l'information visuelle. Tapissant le fond de la rétine, les cônes sont au centre tandis que les bâtonnets sont à la périphérie. Les cônes (dix millions environ) servent à la perception des couleurs et sont connectés à 95 % des fibres du nerf optique. Les bâtonnets (cent vingt millions) servent quant à eux, à la vision globale en noir et blanc, et ne sont reliés qu'aux 5 % de fibres restantes. Cette organisation est donc celle d'un double banc de filtres, correspondant au principe de dualité bien connu en physique : bien connaître, mais lentement, ou mal connaître, mais vite. En fait, l'oeil réalise les deux simultanément. Après un premier traitement au niveau de la rétine8, les informations aboutissent dans l'aire corticovisuelle où elles sont traitées par des neurones individuellement spécialisés, ce qui est suffisamment rare en l'état actuel de nos connaissances pour être signalé. Ce n'est qu'à l'issue de ce traitement que l'image est mentalement construite ; en fait, seul le cerveau "voit", ce qui explique le phénomène hallucinatoire (image mentale sans stimulus visuel). De plus, le cerveau est capable de comparer des formes incomplètes ou déformées, à celles qui sont déjà mémorisées. Bébé sourit alors que la moitié seulement du visage de Maman est apparue par dessus le bord du berceau.

Imiter un système aussi performant est un défi, soutenu il est vrai, par de puissantes motivations économiques. En effet, les applications industrielles sont nombreuses : le déplacement des robots, le guidage des armes intelligentes, le passage automatique de l'écriture manuscrite à l'écriture dactylographiée (tri automatique du courrier, saisie de documents manuscrits), la recherche d'empreintes digitales dans un fichier, l'identification des visages, l'exploitation des photographies aériennes... La plupart de ces applications sont en passe d'aboutir. Le guidage de robots mobiles par vision stéréoscopique, à l'aide de trois caméras en général, se fait déjà en laboratoire. L'image ainsi obtenue est numérisée et ensuite traitée par des algorithmes appropriés. Seule une puissance de calcul encore insuffisante9 empêchent les programmes de s'adapter à un univers totalement inconnu. Ce sera possible dans quatre ou cinq ans.

Le guidage des armes intelligentes se fait par reconnaissance automatique de la cible. Dans le cas d'un missile anti-char de type "tire et oublie" par exemple, on peut très bien imaginer un auto-directeur intelligent programmé pour se diriger sur des chars et seulement des chars. Un réseau connexionniste, couplé à une caméra, peut avoir appris en laboratoire à reconnaître des photos de chars, de face, de profil, de trois quarts... Puis en vol, il saura , grâce à ses facultés de généralisation, réagir à un char réel (camouflé, en mouvement, poussiéreux, le canon dans une direction quelconque) découvert dans le paysage, le tout dans un délai compatible avec la vitesse du missile. Les autres applications utilisent pour la plupart des réseaux connexionnistes dont les possibilités correspondent bien à cette classe de problèmes. En général, seul un manque de fiabilité inacceptable pour le domaine, ou non rentable, empêche encore ces produits d'être mis en place. Par exemple, pour le tri du courrier, la lecture automatique d'adresses manuscrites est fiable à 95 %. Or, les 5 % d'erreurs de routage coûteraient plus cher à rectifier que de faire trier tout le courrier par des humains. Mais, comme dans d'autres techniques, les 5 % qui manquent coûtent beaucoup plus cher que tout ce qui a déjà été acquis.

L'organisation de l'audition a une ressemblance étonnante avec celle de la vision. La pression de l'onde sonore excite les cellules ciliées situées dans la cochlée, après son passage par différents intermédiaires. Ces cellules, trois mille internes et douze mille externes, présentent la même répartition de connexions aux fibres du nerf auditif que les capteurs rétiniens au nerf optique. Chacune d'elles ne réagit qu'à une fréquence et une intensité précises. L'oreille fonctionne donc comme un analyseur spectral à double banc de filtres très performant. L'information est ensuite acheminée dans les aires cortico-auditive puis audito-psychique où, dans le cas du son de langage, le mot est reconnu en tant que tel. La parole étant le mode de communication privilégié pour le langage10, le traitement associé se doit d'être très rapide. Nous y reviendrons plus loin à propos de la compréhension du langage.

L'informatisation de cette reconnaissance a démarré dès 1950. En 1960, les chercheurs ont identifié les difficultés du problème : la reconnaissance de mots enchaînés est beaucoup plus difficile que celle des mots isolés (séparés par quelques dixièmes de seconde). De plus, un même locuteur a une variabilité personnelle importante pour prononcer le même mot, selon l'heure, le jour, sa santé, son état émotif... Alors que dire des systèmes multilocuteurs ? Le temps de recherche en mémoire des mots du dictionnaire de l'ordinateur dépend fortement de leur nombre. C'est pourquoi la taille du vocabulaire, ainsi que la rigidité de la syntaxe acceptée en entrée influencent beaucoup les performances du système. Enfin, dans bien des cas, le système doit être robuste au bruit de fond et ne pas reconnaître un mot à chaque coup de klaxon ou à chaque toussotement. En 1985, plus de cinquante systèmes étaient disponibles pour le français, à des prix compris entre cinq mille et cinq cent mille francs. En 1986, les Japonais fabriquaient des machines à commandes vocales reconnaissant cent mots enchaînés. Ce beau succès est dû aux particularités de la langue japonaise qui ne compte que cent syllabes, contre cinq mille en français ou en anglais. En 1988, IBM disposait d'un programme de reconnaissance de vingt mille mots isolés, en monolocuteur, avec un taux de réussite de 95 %, mais nécessitant un gros ordinateur. Aujourd'hui, des applications industrielles sont disponibles, les paramètres suivants étant simultanément respectés : mots isolés, petit vocabulaire (moins de cent mots), syntaxe contrainte, monolocuteur, environnement sonore favorable. Une augmentation de la puissance de calcul devrait permettre d'atteindre d'ici quelques années trois cent mille mots en monolocuteur, grâce aux systèmes experts.

Les applications potentielles sont multiples. Elles portent sur les machines à commandes vocales : inspection d'endroits inaccessi-bles, routage de colis ou de bagages, commandes orales d'ordina-teurs, de bras de manipulation, aide aux handicapés, jeux, jouets, interrogation de répondeur par téléphone, machines à écrire sous la dictée, dont six modèles sont déjà disponibles en français. D'autres visent à identifier les langues ou dialectes, ou encore à déceler les pathologies du système vocal. Un système de vérification d'identité vocale existe déjà. Pour un prix d'un million de francs, il accepte 0,7 % des imposteurs qui se présentent et rejette à tort 1 % des personnes autorisées. L'ensemble reste encore malgré tout peu fiable. Les avions de chasse modernes sont équipés d'un répondeur à interrogation orale sur les paramètres de vol, pour alléger la charge de travail du pilote. Ce système est évidemment monolocuteur (une cassette par pilote), à syntaxe contrainte et à vocabulaire réduit. Sa fiabilité est de 98 % jusqu'à 4 G, elle chute fortement au-delà en raison des modifications physiologiques de la voix du pilote. A court terme, la maîtrise du silicium devrait faire chuter les prix, et une amélioration des connaissances fondamentales sur le son de parole devrait augmenter la qualité fiabilité.

Certains médecins pensent que l'homme est construit pour parler. En effet, sur les cinq cents muscles environ que compte le corps humain, 10 % servent à parler. De plus, la bouche partage avec la main le privilège d'être la partie du corps la mieux représentée dans le cerveau. Sens de production, à la différence des deux précédents qui sont tournés vers la réception, la phonation est plus facile à étudier et commence à être bien connue. Mais une bonne connaissance du mécanisme de production des sons ne suffit pas pour réussir une synthèse vocale: il faut lui adjoindre les règles linguistiques propres à chaque langue. Ainsi, par exemple, il existe en français trente six sons phonétiques différents, sur les mille que compte l'alphabet phonétique international, couvrant toutes les langues du monde. Cependant cette connaissance des sons ne permet pas à un ordinateur de prononcer correctement : "les poules du couvent couvent" ou encore "les présidents président". Ces deux exemples appartiennent aux homographes hétérophones, dont cent cinquante cas sont recensés en français11. Ils représentent environ un pour cent du vocabulaire de l'homme cultivé et sont typiques de la langue française. Les accents sont une autre particularité de notre langue. Selon que le texte présenté en entrée du synthétiseur vocal est écrit en majuscules d'imprimerie sans accent (comme au Minitel) ou en minuscules accentuées, la difficulté n'est pas la même12. Selon les linguistes, cinq cents règles suffisent à appréhender 98 % des cas de phrases françaises. Mais il en faut mille cinq cents pour atteindre 99 %. De plus, toutes ces règles ne sont pas standardisées. La prononciation dépend du rang social, de la mode ou de la région, tant il est vrai que la langue est le miroir d'une société. Que l'on songe simplement au problème des liaisons entre les mots... Les réalisations sont donc très dépendantes de la langue visée.

Le système le plus performant à l'heure actuelle est dû à Dennis Klatt, un linguiste américain de grand talent. Il est maintenant commercialisé sous le nom de Dec-Talk après le rachat du brevet par Digital Equipment Corporation. Ce système peut synthétiser sept voix différentes en anglais, des deux sexes, avec des débits variables et un grand naturel, pour environ quatre mille dollars. D'autres systèmes existent pour le français, mais sont moins performants, en intelligibilité, naturel et confort d'écoute. Les applications sont nombreuses, là encore : la télématique vocale13, la composition et la lecture de messages à structure rigide (aéroports et SNCF), les machines à lire pour les aveugles... Tout cela est d'ores et déjà disponible et est utilisé dans le monde industriel. Les recherches se poursuivent pour améliorer encore la qualité et réduire les coûts de fabrication.

L'automatisation des facultés sensorielles de l'homme en est donc arrivée à des stades divers ; la synthèse vocale est presque banalisée, seuls subsistent des problèmes qualitatifs et non plus fondamentaux ; la vision artificielle est résolue au premier degré, l'interprétation des images en particulier incomplètes ou déformées doit encore gagner en fiabilité et en rapidité de traitement ; la recon-naissance de la parole, après quelques succès initiaux encourageants mais parcellaires, bute encore sur des difficultés théoriques.

 

    L'IMITATION DES FACULTES SUPERIEURES DE L'HOMME

     

Il est maintenant temps de descendre encore d'un niveau dans les profondeurs du cerveau pour nous intéresser à l'exploitation des informations d'origine sensorielle.

Les sciences cognitives ont pour objet l'étude des processus de la connaissance, de la pensée, de l'apprentissage et de la raison. Elles constituent une nouvelle approche de l'IA, en regroupant l'informatique, les mathématiques, la neurobiologie, la psychologie, l'ergonomie, la linguistique et la philosophie. Leur développement récent (1985) marque la fin de trois siècles de séparation du corps et de l'esprit, du moins dans la culture occidentale cartésienne, où les deux sont nettement distincts. Différents points focaliseront notre attention : la compréhension du langage, l'intelligence et l'apprentis-sage, la mémoire, le raisonnement et la décision, et enfin l'émotion.

L'objet de la linguistique informatique est de doter l'ordinateur d'une faculté de compréhension du langage, d'une capacité d'accès au sens de la langue naturelle écrite. Elle étudie donc le passage du mot au concept. Vers 1350 avant J.C., voulant faire la part entre l'inné et l'acquis, le pharaon Aménophis IV fit élever des bébés sans aucun contact avec le langage parlé. Tous moururent. Cette expérience cruelle montre à quel point la communication est une fonction vitale pour l'homme, une véritable respiration de l'esprit. Le langage est l'expression d'une culture. Il structure la pensée humaine et, favorisant la communication, il accélère le développement intellectuel de l'espèce, au point de s'intégrer à son patrimoine. Toute personne appartenant à une communauté linguistique est capable de déterminer si un énoncé fait ou ne fait pas partie du système de sa langue. "Le tiquepho de la tionbimaven" est immédiatement rejeté (mots impossibles formés à l'aide de syllabes légales), ainsi que "la pizza a mangé Michel" (interprétation sémantique inacceptable). Ce qui différencie les langages humains des langages informatiques est l'inexistence d'un ensemble de règles produisant toutes les phases accentables. L'homme semble utiliser un langage intérieur, sans doute universel, qui serait une interprétation sémantique du texte lu. Ce serait l'étape intermédiaire et obligée de tout système de traduction, par exemple.

Quatre niveaux de connaissance sont mis en oeuvre pour comprendre le langage :

1) phonologique et morphologique : il s'agit de reconnaître les sons et d'en déduire les mots. Ces deux étapes sont aujourd'hui résolues dans les limites de la reconnaissance de la parole ; elles posent peu de problèmes dans le cas de l'écrit. Le français comporte environ trois cent cinquante mille mots légaux, dont soixante mille mots de base. Victor Hugo en a utilisé six mille différents dans toute son oeuvre. Le français courant se contente de trois mille d'entre eux, contre trois cents pour un journal télévisé de 20 heures. Les mémoires informatiques atteignent aujourd'hui des capacités et une organisation compatibles avec un tel volume. En revanche, et là commencent les difficultés, il existe en français un million de noms propres, dont vingt mille seulement sont norma-lisés dans les applications déjà existantes. Auxquels viennent s'ajouter les abréviations usuelles (SNCF, SVP, SMIC...) et les mots étrangers (skipper, joker...). Ces quantités alourdissent considérablement le système et obligent parfois à restreindre le champ des mots auto-risés, donc à perdre en souplesse d'adaptation au locuteur humain.

2) syntaxique : à partir des mots, reconstruire la phrase. Pour ce faire, il convient d'associer à chaque mot reconnu sa catégorie grammaticale, en vue d'accéder à la structure logique de la phrase. Cette opération est loin d'être facile en français où 54 % des mots ont plus d'une catégorie grammaticale. Cette étape doit préciser la portée des conjonctions14 et être capable de revenir sur son raisonnement au fur et à mesure que la phrase se précise :

"la petite monnaie - effraie le marchand.

- ses charmes."

"Monnaie" est interprété comme un nom dans la première phrase, tandis que dans la deuxième, l'ordinateur doit être capable de changer d'avis et d'en faire un verbe pour comprendre la suite. Actuellement, dix pour cent des phrases posent encore problème à ce stade.

3) sémantique : passer de la phrase à sa signification. Cette étape est particulièrement difficile et encore très mal résolue. Elle doit lever les ambiguïtés lexicales15 ou polysémiques ("voler") ; préciser les attachements prépositionnels :

"je mange du poisson - avec une fourchette

- avec une arête".

Elle doit de plus détecter les néologismes ("zapper"), les expressions imagées ("à couteaux tirés") et les mots d'auteur.

4) pragmatique : préciser les motivations et les limites de la phrase selon le fond culturel, la connaissance du monde. Ce problème est tellement vaste qu'on ne sait quasiment rien faire dans ce domaine. Locuteur et auditeur partagent une connaissance de l'environnement non véhiculée par le signal. A la question "qui est absent ce matin ?", au lieu de répondre "Pierre, Paul et Jean", un ordinateur donnerait tous les noms propres de son dictionnaire : "Napoléon, Beethoven..." "Peux-tu me dire l'heure ?" amènerait un "oui" définitif.

Malgré ces difficultés fondamentales non résolues, la compréhension du langage fait l'objet d'un énorme effort de recherche dans le monde, tant les industries de la langue constituent sans doute l'un des enjeux économiques majeurs des vingt prochaines années.

L'application la plus importante est certainement la TAO (Traduction Assistée par Ordinateur). Au Japon, où les dépenses de TAO sont aussi importantes que dans tout le reste du monde réuni, l'Electronic Dictionary Research Institute a dépensé un milliard et demi de francs en 1986 pour un traducteur à deux cent mille mots anglais et deux cent mille japonais. Plus impressionnant encore, le ministère japonais des télécommunications et des industriels travaillent d'arrache-pied, avec un budget de quatre milliards de francs étalés sur quinze ans, pour mettre au point un téléphone traducteur en temps réel.

Le défi est quadruple :

1) reconnaître, indépendamment du locuteur et du domaine de la conversation, les mots prononcés par un Japonais au téléphone.

2) les comprendre et les traduire en anglais.

3) recommencer dans l'autre sens avec la réponse de l'Américain.

4) effectuer tout cela à la vitesse de la conversation pour que le système soit transparent aux utilisateurs.

L'enjeu est à la hauteur des ambitions : le japonais n'étant parlé qu'au Japon, il est un véritable frein pour l'expansion économique nippone. Plus près de nous, la CEE utilise aujourd'hui neuf langues différentes, ce qui nécessite à chaque réunion... soixante-douze traducteurs (neuf fois huit) !

Des produits de TAO sont déjà disponibles, bien que d'une qualité limitée. Pour les militaires, la TAO est un virage à ne pas manquer. En effet, il apparaît clairement que les interventions militaires se feront de plus en plus dans un cadre international avec obligation de coordination sur le terrain. L'efficacité tactique impose l'échange d'un grand nombre de données entre les unités voisines et nécessite donc des capacités de traduction importantes. Les traducteurs humains, en raison de leur petit nombre et de la nécessite de leur repos, empêchent l'inter-opérabilité de descendre jusqu'aux plus bas échelons. Or, il se trouve que les messages militaires (ordre et compte-rendu) sont pour la plupart à syntaxe rigide et se prêtent bien au traitement informatique, donc à la TAO, étant débarrasses des ambiguïtés de la langue naturelle.

Autre application, le traitement de texte devrait évoluer vers l'aide à la rédaction. 45 % des fautes sont dues à l'orthographe, 40 % à la grammaire, 10 % aux erreurs de frappe et 5 % au style et à la logique. Les traitements de texte actuels ne corrigent que les fautes de frappe et d'orthographe. Demain, grammaire, style et logique seront accessibles. L'armée de terre utilisera bientôt un automate de distribution intelligente des messages au sein de l'état-major de la 1e Armée : AMI, développé par Cimsa-Sintra. Ce système "comprend" le message, décide qui doit le recevoir à l'intérieur de l'état-major et le distribue en conséquence.

Si l'intelligence se définit comme la capacité à apprendre, l'aptitude à utiliser des objets en dehors de leur application initiale, alors indubitablement l'ordinateur est devenu intelligent, car maintenant il est doué de facultés d'apprentissage. L'apprentissage est l'extraction de connaissances de plus en plus profondes de situations typiques rencontrées. On ne peut apprendre un peu que si l'on sait déjà beaucoup. Ayant l'homme pour seul modèle, son automatisation a pour but d'aider l'analyse et la programmation d'une tâche pour un ordinateur. Essentiellement guidé par l'échec, l'apprentissage automatique permet la formation de concepts par découverte d'exemples et de contre-exemples de plus en plus rapprochés. Ceci se laisse assez bien informatiser. Au contraire des systèmes experts qui ont de faibles capacités d'apprentissage, les réseaux connexionnistes en font leur point de départ.

Après chaque passe d'apprentissage, le programme s'est un peu modifié, de telle sorte que les mêmes entrées ne donnent plus les mêmes sorties. On pourrait penser que la machine n'est donc plus déterministe, et que, disposant ainsi d'un libre arbitre, elle est devenue vivante. En fait, il n'en est rien. Certes, un programme d'apprentissage évolue avec le temps, mais deux programmes d'apprentissage identiques évolueront de la même façon avec les mêmes entrées, ce qui a fort peu de chances d'arriver avec des êtres vivants16. L'ordinateur, même intelligent, reste déterministe.

Fondement de l'apprentissage, la mémoire est également indissociable de l'intelligence. Elle comporte deux volets : la mémorisation des informations et la capacité à les retrouver. Etudiée depuis Aristote (300 avant J.C.) jusqu'à Saint Thomas d'Aquin (1200) en pasant par Saint Augustin (400) et Ibn Sina (1000), elle est multiforme selon qu'elle concerne le développement de l'espèce (phylogénèse), de l'individu (ontogénèse) ou de la cellule (microgénèse). Les cogniticiens distinguent habituellement deux mémoires : la mémoire de travail et la mémoire à long terme.

La mémoire du travail, selon une hypothèse actuellement en faveur, se compose de deux mémoires : la mémoire sensorielle (visuelle et auditive en particulier), d'une durée de quelques secondes et qui est vitale

Remonter ] EDITORIAL ] CLEMENT ADER ] CHRONIQUE ] LIRE JOMINI ] SUR UNE PHRASE DE CLAUSEWITZ ] LA DISSUASION ET ] DOUHET OU LE DERNIER IMAGINAIRE ] [ INTELLIGENCE ARTIFICIELLE : UN ENJEU STRATEGIQUE * ] LES GRANDS TRAITS DE LA PENSEE MILITAIRE RUSSE ] ENTRE REVOLUTION ET RESTAURATION : LA PENSEE STRATEGIQUE AMERICAINE ] PENSER STRATEGIQUEMENT ] EVOLUTION DE LA PENSEE MILITAIRE SOVIETIQUE : ] LE PORTUGAL DE CARVALHO : UN AMER EURATLANTIQUE ] LA PROSPECTIVE ] Notules ] L'INTELLIGENCE AU SERVICE DE LA CONCEPTION STRATEGIQUE ][The Navigation Bar feature is not available in this web]

pour la communication ; elle transforme les notes en mélodie et les sons ou les lettres en mots. La mémoire à court terme sert aux activités de langage : phonation, audition, lecture. D'une durée de quelques minutes à quelques heures, elle a un empan (capacité) moyen de sept plus ou moins deux items sans relation entre eux, pour un individu non entraîné. Lors de la découverte d'une liste d'items quelconques, elle retient principalement les premiers et les derniers lus ou entendus. C'est l'effet de primauté et de récence, abondamment exploité en publicité. Enfin, elle oublie par saturation.

 

La mémoire à long terme, quant à elle, a une capacité illimitée (en fait inconnue) et une durée de plusieurs années, voire d'une vie entière. Le passage des informations de la mémoire à court terme à celle à long terme semble se faire soit par répétition, soit par la profondeur du traitement : une idée sur laquelle on a beaucoup réfléchi pour la comprendre sera mieux retenue qu'une idée banale ; mémoire et intelligence sont donc indissociables. Cependant, la mémoire à court terme n'est pas le sas obligatoire de celle à long terme : il existe des cas où les informations vont directement du sensoriel au long terme. L'oubli en mémoire à long terme se fait par manque d'utilisation des informations, ou par interférence avec d'autres informations (confusion). La plupart des neurobiologistes sont aujourd'hui d'accord pour dire que la mémoire n'est pas finement localisée dans le cerveau : il n'existe pas de correspondance entre un neurone et un souvenir. Mais il semble qu'un souvenir soit représenté par une assemblée de neurones, car il est possible d'associer une zone cérébrale à une activité particulière de mémorisation. Par un curieux retour des choses (où le modèle explique la réalité), la mémoire serait représentée par le "poids" des synapses, comme dans les réseaux connexionnistes où c'est un ensemble de poids le long d'une chaîne qui détermine l'information. Cette connaissance de la mémoire n'a pas encore donné lieu à des applications pratiques. Recherche fondamentale, elle n'inspire pour le moment que des réalisations de laboratoire.

Il existe essentiellement deux formes de raisonnement : la déduction et l'induction. La déduction va du général au particulier. C'est un mode sûr, qui constitue l'essentiel de nos activités intellectuelles routinières. A une situation donnée, il suffit d'associer le théorème dont les hypothèses sont vérifiées, puis de l'appliquer pour trouver la solution. Le théorème peut être légué par autrui (norme sociale), personnel (forgé par l'expérience, par essai-erreur), ou encore trouvé par analogie avec des situations ressemblantes et résolues avec succès. L'induction va du particulier au général. Elle est risquée autant que difficile et rare. A des situations ressemblantes résolues avec succès par des méthodes proches, l'homme associera une règle, un théorème, après avoir reconnu la ressemblance bien sûr. L'intuition, qui n'est qu'un raisonnement caché et raccourci, joue un grand rôle dans la reconnaissance de la ressemblance des situations et dans la généralisation des méthodes de résolution. Par la suite, plusieurs raisonnements déductifs préciseront la validité du théorème découvert ainsi que ses hypothèses.

Cette connaissance du raisonnement humain est exploitée en EIAO (Enseignement Intelligemment Assisté par Ordinateur), où le programme, en face d'une erreur formulée par un élève, cherche, par une suite de questions, à lever de manière déductive les différentes hypothèses sur son origine. Ayant ainsi découvert le concept mal assimilé, l'ordinateur peut l'expliquer de nouveau à l'élève. Ces connaissances sur le raisonnement ont donné lieu à des applications informatiques très intéressantes, notamment en matière de décision, grâce à la psychologie mathématique. Plusieurs types de décision sont possibles : la sélection, le choix alternatif, la catégorisation, le classement, l'élimination, la préférence... Les décisions les plus courantes dans la réalité sont multi-attributs: l'objet de décision est évalué suivant plusieurs propriétés, comme l'est par exemple un appartement selon son prix, sa superficie, son exposition, son âge... Dans ce cas, on connaît plus de huit règles permettant chacune d'expliquer les décisions humaines. La plus connue est la règle lexicographique17 qui décrit avec succès 80 % des décisions prises par des hommes dans un domaine donné. Elle consiste à faire un choix dès qu'un attribut a une valeur donnée satisfaisante. Si tel n'est pas le cas, alors on examine l'attribut suivant, les attributs de l'objet étant ordonnés par préférence. C'est la règle utilisée pour trouver un mot dans le dictionnaire : les attributs du mot sont les lettres qui le composent, prises successivement dans l'ordre d'écriture. D'où le nom de cette règle. Des programmes informatiques permettent de découvrir ces règles à partir de cas concrets, puis ensuite de remplacer le décideur humain. Notons que la plupart des modèles de psychologie qui sous-tendent ces règles postulent un principe de parcimonie pour le décideur. Ce principe, connu aussi sous le nom de "rasoir d'Occam"18, stipule qu'en raison de ses capacités de traitement et de mémorisation limitées, l'homme, en présence de plusieurs solutions à un problème donné, choisira celle de moindre énergie. Dans le domaine tactique, cela s'appelle l'économie des moyens...

Certains domaines, comme l'émotion ou la conscience de soi, restent pour le moment et pour encore de longues années, l'apanage de l'homme. L'émotion peut être définie comme la mise en harmonie de la raison et du plaisir. Ayant une culture pour support et utilisant la mémoire, elle correspond, d'un point de vue cognitif, à l'entrée en résonnance de plusieurs représentations mentales : idées, souvenirs, pensées, raisonnements.... L'étendue des connaissances nécessaires, autant que la difficulté à modéliser un sujet aussi subtil, ont pour le moment découragé toutes les tentatives d'imitation informatique. Cependant, des approches partielles sont en cours, concernant par exemple l'humour ou la poésie. Une tournure poétique ou un trait d'esprit ont en commun d'être un détournement du sens habituel des mots : à celui-ci se substitue ou se superpose un sens au deuxième degré. Cette remarque permet de modéliser une sorte de mesure d'étonnement, qui pourrait servir de critère à une production informatique de poèmes ou de jeux de mots. Les chercheurs sont cependant encore loin d'avoir identifié tous les paramètres du problème. L'ordinateur-poète n'est pas pour demain, le compositeur ou le peintre encore moins !

L'imitation des facultés supérieures de l'homme a donc fait récemment des progrès aussi spectaculaires qu'encourageants. De nombreuses applications sont déjà en service dans l'industrie : TAO, systèmes experts, aide à la décision... Cependant, tant que le modèle humain, seule référence possible en la matière, n'aura pas livré la plupart de ses secrets, le robot n'en sera qu'une pâle copie. Pour de longues années encore.

 

CONCLUSION

En 1990, l'informatique représente l'un des secteurs majeurs de l'activité économique mondiale : mille milliards de dollars, l'équivalent du budget annuel des Etats-Unis. La part de l'IA dans ce marche est d'environ dix milliards de dollars, mais son taux annuel de progression se situe aux alentours de 60 %, ce qui est considérable. Parmi les hautes technologies, c'est elle qui connaît la plus forte croissance. De nombreux projets de recherche, tant sur le matériel que sur le logiciel, sont en cours. Eureka ou Esprit en Europe, IDS aux Etats-Unis, ordinateur de cinquième génération et téléphone traducteur au Japon, TAO partout dans le monde, en sont les illustrations marquantes. Alors que cette année l'activité de construction d'ordinateurs marque le pas, voire recule, la production de logiciels est toujours en forte expansion. L'IA amplifie encore ce phénomène.

Incontestablement, les USA occupent la première place pour l'ampleur des recherches et la qualité de leurs résultats en IA, favorisés en cela par leurs structures d'accueil de nombreux chercheurs étrangers, autant que par leur tissu industriel. Si le Japon se distingue par ses efforts sur le matériel (composants et ordinateurs spécifiques à l'IA), la France quant à elle tient une place à peu près équivalente en logiciels et en recherches fondamentales. Langages de programmation d'IA, systèmes experts, réseaux connexionnistes optiques et connaissance du cerveau sont quelques uns de nos points forts. Au troisième rang se trouvent quelques pays comparables dans ce domaine : Suède (réseaux connexionnistes et synthèse du langage), RFA, Grande-Bretagne et Canada (applications diverses). Enfin, l'URSS n'a pas la maîtrise de ce domaine, faute d'une culture informatique suffisante. Cependant, ses recherches fondamentales en mathématiques et en psychologie sont fameuses.

Deux axes majeurs de recherches devraient changer la physionomie de l'IA lorsqu'elles auront abouti. Le premier concerne le matériel, et vise à augmenter la puissance de calcul et la capacité des mémoires d'ordinateur. On peut déjà affirmer avec un bon degré de certitude que la puissance de calcul du cerveau humain sera atteinte par un ordinateur optique en 2010. En effet, depuis 1965 environ, la course à la miniaturisation des transistors a toujours atteint ses objectifs avec une remarquable fiabilité. Cette précision est due au caractère auto-adaptatif des prospectives : le chiffre annoncé en prévision par des experts est obtenu par extrapolation de courbes : en telle année, on saura intégrer tant de transistors par mm2. Puis les chercheurs se fondent sur ces données pour orienter leurs travaux et la concordance entre prévisions et réalité est ainsi obtenue. Cependant, la technologie du silicium est sur le point d'atteindre son ultime limite. Le taux actuel d'intégration est tel que les transistors ont l'épaisseur minimale (quelques couches de molécules) en deçà de laquelle il n'y a plus d'effet transistor. C'est une des raisons qui font de l'ordinateur optique l'objet de recherches intenses depuis quelques années. La deuxième tendance fondamentale est d'ordre cognitif. Elle vise à faire se rejoindre les deux branches de l'IA, le symbolisme et le connexionnisme. Il s'agit d'arriver, dans un réseau connexionniste, à découvrir la fonction cognitive d'une cellule ou d'un sous-groupe de cellules, de façon à disposer d'une méthode, de règles, pour concevoir l'architecture d'un réseau en fonction du problème à résoudre19. Cet objectif a déjà été partiellement atteint sur des problèmes particuliers. Cette recherche passe sans doute par une meilleure connaissance du modèle humain, tant d'un point de vue neurobiologique que cognitif. Le dilemme de l'IA en 2010 sera donc le suivant : l'automate équivalent au cerveau sera disponible. Mais qu'y mettre ?

Enfin, l'IA souffre d'un paradoxe, d'un handicap d'ordre philosophique. Les physiciens savent bien qu'il est vain de vouloir connaître les lois de la matière avec une précision supérieure à celle de l'instrument de mesure. Il est même des cas, en physique des particules notamment, où le simple fait d'observer perturbe l'expérience et donc la biaise. Or l'IA s'est fixé le cerveau humain pour champ d'investigation. Son principal instrument de mesure et d'évaluation est le cerveau du chercheur. Celui-ci peut-il donc espérer obtenir sur l'objet de ses recherches une résolution plus fine que celle de son instrument ? Même les chercheurs les plus avertis ne peuvent éviter d'appuyer leurs raisonnements sur l'introspection et se heurtent ainsi aux limites de l'auto-référence.

Le cerveau est-il apte à réfléchir sur lui-même ?

 

BIBLIOGRAPHIE :

- Bonnet, Haton, Truong-Ngoc, systèmes experts, vers la maîtrise technique, Inter-Editions, 1986.

- Changeux, l'Homme neuronal, Pluriel, 1984.

- Changeux, "révélations sur les origines de la pensée", L'Express, 13.04.1990.

- Chollet, "reconnaissance automatique de la parole : évaluation des techniques et des systèmes", Minis et micros n° 232, mai 1985.

- Coulon, Kayser : "informatique et langage naturel", Technique et science informatiques, février 1986.

- Descout, "le point sur la synthèse de la parole et ses différentes applications", Minis et micros n° 232, mai 1985.

- Haton, "Communication parlée et intelligence artificielle", Minis et micros n° 232, mai 1985.

- Hitch, "The working memory", dans Cognitive Psycholgy, New Directions (ouvrage collectif), Ed. Guy Claxton ed., Londres, Routledge - Kegan Paul, 1980.

- Hofstadter, Goedel, Escher et Bach, les brins d'une guirlande éternelle, Inter-Editions, 1987.

- Launet, "intelligence artificielle : le nouveau visage de la guerre", Sciences et techniques n° 40, septembre 1987.

- Lazorthes, Le cerveau et l'ordinateur, Toulouse, Privat, 1988.

- Mariani, "L'évolution des produits de technologie vocale : état actuel et perspectives prochaines", Minis et micros n° 232, mai 1985.

- Tubach, "Quelques difficultés fondamentales de la parole continue", Minis et micros n° 232, mai 1985.

 

Notes:

1 Appelée aussi en français loi de l'embêtement maximum.

2 Ce n'est évidemment qu'un ordre de grandeur.

3 Un délicat problème juridique se pose alors : à qui appartiennent ces connaissances dont la valeur marchande ne cesse de croître ? A l'expert, au cogniticien ou à l'informaticien ? Ce type de logiciel n'est pour l'instant protégé que par la loi du 3 juillet 1985 sur la propriété des oeuvres d'art et dont l'article 5 concerne les logiciels, qu'il se garde d'ailleurs bien de définir...

4 Ce n'est qu'un ordre de grandeur.

5 Nombre moyen de neurones entre deux neurones quelconques.

6 Bientôt il aura celle de la lumière : trois cent mille km/s.

7 Quoique des recherches soient en cours sur la réalisation de réseaux connexionnistes optiques, à base de lasers et d'hologrammes, et sur celle de réseaux analogiques électroniques.

8 Représentant tout de même 10 milliards d'opérations par seconde, soit la puissance de calcul d'un gros ordinateur actuel.

9 Le temps d'analyse d'une image doit rester compatible avec la vitesse du robot.

10 L'homme, en moyenne, parle à 3 mots/seconde, écrit à la machine à 1 mot/seconde s'il est entraîné et écrit manuellement à 0,4 mot/seconde.

11 Président, couvent, fils, est...

12 ELEVE : élève ou élevé ?

13 La consultation de texte par téléphone, la messagerie vocale.

14 Exemple : les chiens et les chats sans queue.

15 "La petite brise la glace" a deux interprétations ; seul le contexte permet de choisir.

16 On connaît des êtres vivants identiques, des clones, comme les daphnies par exemple, qui possèdent les mêmes gènes, exactement le même nombre de neurones mais dont les synapses diffèrent après apprentissage.

17 Etudiée par Fishburn en 1974.

18 Philosophe anglais du XVe siècle.

19 Actuellement, la seule règle est l'empirisme.

 Copyright www.stratisc.org - 2005 - Conception - Bertrand Degoy, Alain De Neve, Joseph Henrotin