CH620307A5 - - Google Patents

Download PDF

Info

Publication number
CH620307A5
CH620307A5 CH735975A CH735975A CH620307A5 CH 620307 A5 CH620307 A5 CH 620307A5 CH 735975 A CH735975 A CH 735975A CH 735975 A CH735975 A CH 735975A CH 620307 A5 CH620307 A5 CH 620307A5
Authority
CH
Switzerland
Prior art keywords
module
output
installation according
input
signal
Prior art date
Application number
CH735975A
Other languages
English (en)
Inventor
Leon N Cooper
Charles Elbaum
Original Assignee
Nestor Ass
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nestor Ass filed Critical Nestor Ass
Publication of CH620307A5 publication Critical patent/CH620307A5/fr

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/091Active learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F7/00Methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F7/02Comparing digital values
    • G06F7/023Comparing digital values adaptive, e.g. self learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • G06N3/065Analogue means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Neurology (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Image Analysis (AREA)
  • Character Discrimination (AREA)
  • Machine Translation (AREA)
  • Multi Processors (AREA)
  • Image Processing (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

La présente invention se rapporte à des systèmes de traitement de l'information auto-adapteurs, qui sont également connus comme machines intelligentes (qui apprennent), centres nerveux, systèmes éducables, dispositifs auto-gestionnaires, et/ ou systèmes ou dispositifs à mémoire auto-adapteurs.
Les systèmes de traitement de l'information auto-adapteurs ont été intensivement explorés durant ces dernières années. Parmi les systèmes les plus connus, on trouve les systèmes «Adeline et Madaline» du «Standard Electronic Laboratory», le système «Perceptron» du «Cornell Aeronautical Laboratories» et les systèmes «Minos I et II» du «Stanford Research Institute». Parmi les brevets américains qui se rapportent à de tels systèmes on peut citer les brevets américains no 3 287 649 de Rosenblatt, 3 408 627 de Kettler et al., 3 435-422 de Gerhardt et al., 3 533 072 de Clapper, 3 601 811 de Yoshino. Les systèmes connus de traitement de l'information auto-adapteurs, fonctionnent, en général, pour produire une sortie pour un signal d'entrée donné, sortie qui est comparée avec une certaine valeur de sortie prédéterminée. Ces systèmes sont amenés à se modifier eux-mêmes, ou à apprendre, souvent en fonction de la différence entre la sortie réelle et la sortie prédéterminée, jusqu'à ce que ladite sortie prédéterminée soit atteinte. L'objet d'un tel système est d'avoir un système qui trouve lui-même sa voie (par un algorithme (pour arriver à une relation prédéterminée:
signal d'entrée » signal de sortie.
Il est à noter ici, que chaque fois que l'expression «signal d'entrée» est utilisée, on doit inclure la possibilité qu'un jeu de signaux d'entrée séparés est appliqué à un jeu de bornes d'entrée correspondantes d'un système de traitement de l'information. De façon similaire, l'expression «signal de sortie» ou «sortie» peut inclure éventuellement une pluralité de sorties individuelles apparaissant sensiblement simultanément aux bornes de sortie du système.
Une installation de traitement de l'information auto-adaptatrice d'un type connu dans l'art antérieur, dont le schéma bloc est représentée à la figure 1, comprend essentiellement un réseau à N entrées 1, 2, 3 . . ., N, qui sont respectivement reliés à une pluralité d'éléments à pondération variable G,, G2, G3 . .., GN ayant des poids variables qui, par exemple, peuvent être des gains variables dans le cas d'amplificateurs pondérables, ou de résistances variables dans le cas des résistances. Les sorties des éléments pondérables G sont appliquées à un additionneur S qui produit en sortie une seule réponse qui est fonction de la somme des sorties desdits éléments pondérables. La valeur de pondération de chaque élément pondérable G], G2, G-j . . ., Gn est individuellement commandée par des moyens appelés «algorithmes éducables» T qui conditionnent le réseau à répondre à un signal d'entrée particulier avec une réponse ou signal de sortie désiré.
Dans le fonctionnement du réseau, un signal particulier est appliqué de façon répétitive aux entrées 1,2,3, . . ., N du réseau. Après chaque introduction d'un signal d'entrée spécifique, la réponse du réseau de sortie est comparée à une réponse prédéterminée désirée, par exemple par l'utilisation d'un soustracteur D, et la différence, ou erreur, est utilisée dans l'algorithme T pour modifier les poids de chacun des éléments pondérables G,, G2, G3, . . ., Gn.
Chaque introduction d'un signal d'entrée spécifique, avec la modification des éléments pondérables G, est appelée «cycle d'instruction». Après une succession de cycles d'instruction, la réponse du réseau de sortie approche peu à peu la réponse souhaitée, jusqu'à ce que le réseau soit conditionné pour répondre uniquement au signal d'entrée particulier qui doit être associé à la réponse souhaitée.
Dans les systèmes de traitement de l'information auto-adapteurs selon l'art antérieur, l'effort a porté sur les études d'un algorithme convenable qui permette au système d'apprendre ou de s'adapter à des signaux d'entrée appliqués à une fréquence rapide. Aussi, de nombreux algorithmes ingénieux ont été inventés, cependant, dans tous les cas l'algorithme a été rendu dépendant d'une certaine façon de la sortie prédéterminée souhaitée qui doit être produite en réponse à un signal donné.
La présente invention a pour objet une installation de traitement de l'information auto-adaptatrice qui a la possibilité de construire sa propre sortie ou réponse pour tout signal d'entrée donné telle que définie par la revendication 1. En particulier, elle peut elle-même se modifier pour construire une représentation interne «signal d'entrée » signal de sortie ou réponse», et fonctionner comme une mémoire ou un pro5
10
15
20
25
30
35
40
45
50
55
60
65
620 307
4
gramme sans intervention ou choix extérieur, en ce qui concerne la réponse désirée ou l'image d'entrée présentée. Ce type de procédure d'instruction ou d'auto-modification du système de traitement sera par la suite dénommé «intelligence passive» ou «modification passive».
L'importance concernant la possibilité pour l'installation de se modifier elle-même passivement sera appréciée en considérant un simple exemple. Comme il n'est pas nécessaire avec une telle installation de connaître à l'avance, une réponse prédéterminée souhaitée pour un signal d'entrée donné, il est possible d'appliquer des signaux d'entrée inconnus de l'installation et, après une période d'instruction, de déterminer le contenu des signaux d'entrée en considérant les réponses. Par exemple, si des signaux d'entrée inconnus viennent à être des signaux contenant une certaine information dont la structure est inconnue, signaux qui sont noyés dans du bruit, comme la structure des réponses est isomorphique par rapport auxdits signaux d'entrée, la structure inconnue sera rétablie et représentée par les réponses. De cette façon, le contenu des informations de tout signal d'entrée peut être déchiffré par l'installation de traitement de l'information conforme à l'invention.
L'installation selon la présente invention comme celles existant dans l'art antérieur, peut produire une réponse prédéterminée désirée à tout signal d'entrée donné. Cette fonction qui sera dénommée par la suite «intelligence active» ou «modification active» nécessite une connaissance, de la part de l'opérateur humain, de la réponse souhaitée qui doit être associée avec chaque signal d'entrée distinct.
Dans l'installation, objet de la presente invention, la fréquence de croissance de son intelligence, c'est-à-sire, la fréquence à laquelle l'installation s'instruit pour produire une réponse particulière en fonction du nombre de représentations que peut prendre un signal d'entrée, est très rapide. En particulier, l'instruction conforme à l'invention possède une fréquence de croissance d'intelligence ou de rapidité à s'instruire qui est plutôt exponentielle que linéaire.
L'installation conforme à l'invention est capable de fonctionner comme une mémoire répartie et hautement invulnérable au mauvais fonctionnement des composants individuels. Une telle mémoire est une mémoire auto-adaptatrice et auto-ges-tionnaire qui a la possibilité d'acquérir une information seulement comme un résultat d'experience. En plus, la mémoire répartie possède en général une capacité, une sûreté et une exactitude identiques à celles d'une mémoire d'ordinateur classique. Elle est, en outre, capable d'avoir une grande densité de stockage. Il est à noter qu'il est possible, par exemple, de réaliser l'installation avec des circuits intégrés, ne nécessitant pas l'emploi d'éléments discrets tels que noyaux en ferrite.
L'installation conforme à l'invention est capable d'avoir une grande rapidité de fonctionnement: 2n bits d'information peuvent être retrouvés et/ou traités en une seule opération, ou n est le nombre de bornes de sortie de l'installation.
L'installation selon l'invention possède donc les particularités suivantes:
1. Reconnaissance:
C'est-à-dire la possibilité de fournir une réponse à un événement ou signal d'entrée que l'installation a déjà rencontré. Naturellement, initialement ou au départ, l'installation répondra d'une manière diffuse à un signal d'entrée particulier s'il n'a pas emmagasiné ou stocké déjà des résultats. Cependant, après des présentations successives de ce signal d'entrée, l'installation apprendra à reconnaître le signal d'entrée en produisant une réponse caractéristique.
2. Souvenir.
La possibilité de fournir une réponse unique pour chacun d'une pluralité de signaux d'entrée particuliers. Cette caractéristique provient de la fonction mémoire, puisque l'installation est capable de fournir une réponse unique sur ses (n) bornes de sortie (pouvant avoir au moins 2" bits d'information) à la réception d'un signal d'entrée particulier sur ses bornes d'en-5 trée.
3. Généralisation.
C'est-à-dire la possibilité d'extraire un élément commun d'un nombre différent d'événements ou de signaux d'entrée. En particulier, si un nombre de signaux d'entrée différents sont successivement appliqués à l'installation; celle-ci apprendra à reconnaître une caractéristique qui est commune à tous ces signaux d'entrée. Par exemple, si un signal d'information particulier qui est noyé dans le bruit est appliqué de façon répétitive aux bornes d'entrée de l'installation, celle-ci extraira, retiendra ' et reconnaîtra le signal d'information.
4. Association
C'est-à-dire la possibilité de reconnaître un premier signal d'entrée à la réception d'un second signal, après que lesdits 20 signaux d'entrée ont été appliqués à l'installation plus ou moins concurremment. En d'autres termes, lorsque deux signaux d'entrée sont simultanément appliqués, l'installation ne se contentera pas uniquement d'apprendre ces signaux d'entrée, mais les associera l'un avec l'autre. Ainsi, plus tard, l'installation sera 25 capable de retrouver soit l'un soit les deux signaux d'entrée, seulement si un seul desdits signaux est appliqué. Cette particularité d'association est efficace, par exemple, dans le cas de l'analyse de signaux inconnus. Si deux signaux d'entrée inconnus sont appliqués à l'installation, celle-ci pourra déterminer si l'un 30 est fonction de l'autre.
5. Recherche d'entrées fragmentaires:
C'est-à-dire la possibilité de retrouver un signal d'entrée entier à partir seulement d'une partie dudit signal. Cette parti-35 cularité peut être vue comme une «auto-association», c'est-à-dire une association entre deux fractions d'un même signal. Si un signal d'entrée particulier est appliqué à l'installation jusqu'à ce qu'il soit appris, l'installation associera tout fragment du signal avec la totalité du signal, si bien que plus tard, la présence 40 d'une fraction du signal d'entrée produira la reproduction par l'installation du signal entier (généralement avec un rapport signal bruit diminué).
D'autres particularités et détails apparaîtront plus clairement de la description qui va suivre, faite en référence aux 45 dessins annexés donnés à titre d'exemple, et dans lesquels:
- la figure 1 représente sous forme de schéma bloc un réseau de traitement de l'information conforme à l'art antérieur,
- la figure 2 représente sous forme de schéma bloc un réseau du module de l'installation conforme à la présente invention,
5( - la figure 3 représente sous forme d'un schéma bloc un module de l'installation conforme à la présente invention et utilisant de nombreux réseaux du type illustré par la figure 2,
- la figure 4 représente sous forme d'un schéma bloc une installation de traitement de l'information comprenant un
55 module du type représenté sur la figure 3,
- la figure 5 est un diagramme représentant la réponse du module de la figure 3 à des événements extérieurs,
- la figure 6 est un diagramme illustrant le cheminement d'un signal dans le module de la figure 3
60 - la figure 7 est un diagramme illustrant un mode particulier de fonctionnement du module de la figure 3,
- la figure 8 est un diagramme représentatif d'une installation optique-acoustique comprenant une pluralité de modules du type illustré par la figure 3,
65 - la figure 9 représente sous forme de schéma bloc une installation comportant le module de la figure 3.
- la figure 10 représente schématiquement la réponse de deux modules de la figure 3 aux mêmes éléments extérieurs,
5
620 307
- la figure 11 représente schématiquement un dispositif qui peut être employé avec un module de la figure 3 pour concevoir un type spécifique de réponse,
- la figure 12 illustre une partie d'un réseau de la figure 2
- la figure 13 représente un circuit additionneur
- la figure 14 représente le circuit électrique d'une unité de liaison, et
- la figure 15 représente sous forme de schéma bloc un dispositif qui peut être utilisé avec un réseau de la figure 2.
L'expression «fonction de transfert», est utilisé dans son sens large de façon à définir simplement une fonction qui modifie, d'une certaine façon, le transfert de l'information (un signal) entre l'entrée et la sortie d'une unité de liaison. Dans un cas très simple, la fonction de transfert équivaut au gain ou amplification de l'unité de liaison. Cependant, il faut noter qu'un signal qui apparaît à l'entrée d'une unité de liaison peut être modifié d'une façon autre pour fournir un signal approprié à la sortie de l'unité de liaison. Dans tous les cas, on précisera qu'un signal à la sortie d'une unité de liaison correspond au produit de signal à son entrée par sa fonction de transfert, ainsi:
Un module que l'on appellera par la suite module «Nestor», est représenté sur la figure 3. La figure 3 représente un module «Nestor» particulier, dans lequel chacune des N bornes d'entrée ( i . . . j . . . N) est reliée à chacune des n bornes de sortie (1 ... i... n) du module par une seule unité de liaison. Par mesure de clarté, les lignes de contre-réaction des additionneurs (2i ... 2,. .. 2n) ont été supprimées, et seules les unités de liaison reliées à la borne d'entrée j (unités 1 j, 2j ..., ij . .., nj) et à la borne de sortie i (unités il, i2, . . ., ij . .., iN) ont été représentées. Il est clair, cependant, qu'une représentation en tableau de N X n unités de liaison est utilisée dans ce module «Nestor», si bien que la matrice des fonctions de transfert est:
Au A21 . . . A„i A,2 A22 • • • An2
a in A22 . . . AnN
Le module «Nestor» particulier, dans lequel chacune des N bornes d'entrée est réliée à chacune des n bornes de sortie par une seule unité de liaison, montre ce que l'on appelle une connectivité (N, n). Dans la pratique, une ou plusieurs liaisons entre les bornes d'entrée et de sortie peuvent être interrompues sans porter préjudice au fonctionnement du module. En réalité, les liaisons entre les bornes d'entrée et les bornes de sortie par les unités de liaison peuvent être entièrement aléatoires, à condition qu'un nombre suffisant de liaisons existe pour permettre d'un part la transmission d'une information de l'entrée vers la sortie, et d'autre part le stockage d'une information dans les unités de liaison.
Dans un mode préférentiel de réalsation du module «Nestor» la réponse à chaque borne de sortie est une fonction linéaire des entrées appliquées, si bien que:
N
r, = 2 Ajj sj.
j = 1
La relation linéaire, qui est indiquée sur la figure 3 par l'utilisation des additionneurs 2,, 22 .. ., 2j .. ., 2,„ est la relation la plus simple qui donne les résultats désirés. Bien entendu, le module «Nestor» n'est pas limité à ce type de relation linéaire, et des résultats plus efficaces peuvent être obtenus, si la réponse à une o plusieurs bornes de sortie est liée par une fonction d'un autre type aux signaux d'entrée appliqués. Par exemple, le réponse r, peut être proportionnelle au produit des entrées A,j Sj, pour toute entrée.
s Dans le module «Nestor» représenté sur la figure 3, le nombre des bornes d'entrée N et de sortie n, respectivement, peut prendre une quelconque valeur. Le nombre des bornes d'entrée peut être supérieur au nombre des bornes de sortie, ou vice-versa, ou peut-être égal (N = n). Bien entendu, la quantité in d'information qui peut apparaître à tout instant aux bornes de sortie du module «Nestor» est de l'ordre de ou supérieur à 2 bits, et de plus, plus grande est la valeur de n, plus grand est le rapport signal-bruit du module. Par conséquent, il est souhaitable que n ait une grandeur raisonnable, en tenant compte de 15 l'augmentation proportionnelle du nombre des éléments de circuit. Ainsi, par commodité, dans la suite de la description, n sera supposé égal à N.
Le module «Nestor» de la figure 3 peut être considéré comme comprenant une pluralité (n) d'additionneurs 2b chacun 2o ayant associée avec lui, une pluralité (N) de bornes d'entrée et d'unités de liaison, et une seule borne de sortie i, comme illustré sur la figure 2. En comparant la figure 2 avec la figure 3, on peut noter que le module «Nestor» comprend une pluralité (n) de réseaux de la figure 2, que l'on appelera par la suite réseau 25 «nouveron»
Comme représenté sur la figure 2, chaque réseau «nouveron» poroduit une seule réponse ri à une borne de sortie i. Cette réponse est produite par l'additionneur 2, du réseau en fonction des sorties s'i,s'2 . . ., s'j ..., s'N des N unités de liaison il, i2 m . . ., ij . . . , iN, respectivement.
Comme mentionné ci-dissus, il n'est pars nécessaire que les unités de liaison du module «Nestor» relient chaque borne d'entrée aux différentes bornes de sortie du module. Par conséquent, le réseau «nouveron» représenté sur la figure 2 peut 35 comprendre moins de N unités de liaison, si bien que toutes les bornes d'entrée 1, 2 . . ., j . . ., N ne seront pas reliées à l'additionneur 2|.
En outre, comme mentionné précédemment, dans le mode «apprendre» la fonction de transfert Ay d'au moins une (et de 4ii préférence de toutes) des unités de liaison ij module «Nestor» est modifiée en fonction du produit d'au moins un signal d'entrée et d'un signal de sortie du module. Cet algorithme de modification des fonctions de transfert (mise à part une dégradation uniforme indépendante des entrées et des sorties) peut 45 être écrit:
ôAjj = f (sj, s2 . . ., Sj . . ., sN;
r„ r2 . . ., r, . . ., rn),
so où la fonction f peut être dépendante seulement d'un des signaux d'entrée Sj, s2 . . . , Sj. . . , sN et d'une des réponses r„ rb r2 . .., r; . . ., r„. Pour éviter toute complication dans la construction du module «Nestor», on préfère effectuer les modifications de la fonction de tranfert Ay d'une unité de liaison 55 en fonction simplement des signaux d'entrée et de la réponse du réseau «nouveron» dont l'unité de liaison fait partie. Par conséquent, dans un mode préférentiel de réalisation de l'invention, on fait les modifications de la fonction de transfert Ay en fonction du signal Sj et de la reponse r, associées â une unité de ()l, liaison particulière, c'est-à-dire:
ÔA.j = f (Sj, r,),
où il est bien entendu que la fonction de transfert f est toujours ,,5 fonction des deux variables Sj et r,.
La fonction de transfert f (Sj, r,) peut être développée suivant la formule de Taylor pour des fonctions à plusieurs variables. De ce fait, nous avons:
620 307
6
f (Sj> r,) = a,,,, + a,„ s, + a,0 r, + a^s, réalisation préférentiel de la présente invention, ces réponses
+ r 2 s. _|_ ;li r 3 s 2a rm s n sont des variables continues, c'est-à-dire que l'on suppose qu'el-
'21 1 ' 31 ' J mn 1 1 les peuvent varier à partir de 0 positivement ou négativement
Les trois premiers termes du développement de la formule jusqu'à des valeurs maximum qui sont fonction du module de Taylor ne sont pas d'un intérêt immédiat, puisque l'on s «Nestor» utilisé.
demande que les modifications de la fonction de transfert Ay Si on le souhaite, de façon a forcer le module «Nestor» a soient dépendantes du produit d'un signal d'entrées Sj et d'un donner une réponse particulière (ou un jeu de réponses indivi-
signal de sortie r,. II a été prouvé qu'une modification de la duelles rb r2 ..., r, . .., rN) a un signal d entrée particulier (ou
.fonction de transfert Ay qui est une fonction de l'un ou des trois un jeu de signaux d'entrée s,, s2 ..., Sj ..., sN), l'installation de premiers termes du développement ne donne pas un module m traitement de l'information selon un montage particuler peut ayant la propriété d'intelligence qui est recherchée dans le fournir les réponses désirées (par exemple des tensions électri-
module «Nestor». liues) r1A, r2A ..., rlA . . ., rNA à l'une ou à toutes ses sorties 1, 2
Le premier terme du développement qui est intéressant est ..., i .. ., N. De cette façon, le module «Nestor» peut ainsi le quatrième, c'est-à-dire a! j rä Sj. Ce terme (qui peut subir un apprendre dans le mode «actif( et donner une réponse souhaitée traitement analytique rigoureux est traité en détail ci-après) is a toute entrée donnée.
donne une modification de la fonction de transfert Ay: De même, si on le désire, les bornes d entrée 1,2 . .., i .. .,
N du module «Nestor» peuvent être reliées à une pluralité
5A, =T]r;s, d'éléments à seuil Tj, T2 ...,Tj ..., TN, respectivement, tels où i] est une constante de proportionalité. que des bascules de Schmitt ou analogues, qui produisent un
20 signal de sortie, sie le signal d'entrée qu'ils reçoivent dépasse un
Bien entendu, les autres termes du développement de Tay- niveau de seuil réglable 0b 02 .. ., 0j ..., ©N, respectivement,
lor au-delà du troisième terme peuvent également produire des Ces éléments à seuil convertissent la réponse analogique du résultats efficaces lorsqu'on les utilise dans un module «Nestor», module en une réponse numérique qui peut utilisée dans la suite
Les termes de puissance paire des variables Sj ou rb ne donnent du traitement. En outre, ces éléments à seuil servent à assurer pas une distinction du signe dans les modifications de la fonction 25 une fonction de décision pour déterminer si et quand une sortie de transfert. Les termes contenant des puissances impaires de particulière a été produite.
ces variables tels que le dixième terme a3I r* Sj, font cette Ces éléments à seuil Tj, T2 ..., T; . .., TN peuvent être distinction. Ces termes peuvent donner des propriétés interes- également utilisés dans un type de fonctionnement que l'on peut santés pour le module «Nestor». En particulier, comme les appeler «mode de suppression», qui assiste le module «Nestor»
différents termes du développement de Taylor apportent des « dans son instruction. Comme cela est décrit plus en détail par la pondérations différentes dans la modification de la fonction de suite, ce mode de fonctionnement nécessite que la sortie de transfert A, ces pondérations peuvent être utilisées pour obtenir chaque élément à seuil soit réappliquée au module «Nestor»
des propriéeés spécifiques désirées. Pour inhiber tous les additionneurs excepté celui qui fournit la
La figure 4 montre un mode de réalisation du module réponse. De cette façon, toutes les réponses rh r2 ..., rN,
«Nestor» utilisé dans une installation de traitement de l'infor- 35 exceptée la réponse r, appliquée à 1 entrée de l'élément à seuil mation auto-adaptatrice. Le module «Nestor» de cette figure Ti qui produit un signal de sortie, sont supprimées. L'avantage possède une connectivité (N, N), c'est-à-dire que le module réside dans le fait que le module «Nestor» peut ainsi s'instruire comprend N bornes d'entrée et N bornes de sortie chaque borne rapidement lui-même pour fournir une configuration de répon-
d'entrée étant reliée à chacune des bornes de sortie par une ses rh r2 ■ • ri • • •> rN (et par conséquent des réponses a partir unité de liaison comme représenté sur la figure 3 ; J» des éléments à seuil T,, T2 ..., TN) dans laquelle seule une de
Les signaux d'entrée sh s2 ..., Sj ..sN du module cfs réponses n'est pas à 0 à l'arrivée d'un jeu déterminé de
«Nestor» caractérisent un événement extérieur désigné par E. signaux d'entrée s1; s2 ..., Sj ..., sN.
Cette entrée ou événement E peut être optique, tel que la vue Les bornes de sortie du module «Nestor», ou des éléments a d'une image, auditiv, tel que l'audition d'un son, ou tout autre seuil T], T2 . .., TN, si cela est nécessaire, peuvent être reliés a
événement par exemple la réception de signaux de radiation 45 tout système de sortie ou processeur suivant l'utilisation des provenant de l'espace. La seule contrainte pour l'événement est réponses du module. Si le module «Nestor» est utilisé pour qu'il soit traduisible d'une quelconque façon en une pluralité de identifier des images par exemple (des signatures de chèques),
signaux d'entrée s,, s2 ..., Sj ..sN qui contiennent suffisam- les sorties des éléments à seuil peuvent être simplement reliées à
ment de détails sur l'événement proprement dit. Les signaux s,, un système d'alarme qui prévient un opérateur humain lors-
s2 ..., Sj ..., sN sont engendrés par un processeur d'entrée PE so qu'une image particulière a été détectée ou non (par exemple la qui effectue l'analyse de l'événement et produit des signaux validation ou l'imitation d'une signature). Si le module «Nestor»
fonction de cette analyse. Par exemple, si l'entrée ou événement est utilisé comme une simple mémoire, il peut être relié directe-
est un événement optique, le processeur divise ou partage ment à un ordinateur numérique classique (c'est-à-dire sans l'image en une pluralité de grilles élémentaires, et produit des l'utilisation d'une unité de conversion séparée ou des éléments à
signaux s„ s2 . . „Sj . .., sN proportionnels à la densité de ss seuil à la sortie). Un convertisseur numérique-analogique doit,
l'image pour chacune des grilles. Si l'entrée est un événement naturellement, être utilisé à l'interface d'entrée du module pour sonore, le processeur peut effectuer une analyse de Fourier de convertir la sortie numérique de l'ordinateur en signaux d'en-
I'information et produire des signaux s„ s2 .. ., Sj . .., sN trée analogiques s„ s2 . . ., sN, et un convertisseur analogique-
proportionnels à l'amplitude sonore pour chacune des fréquen- numérique doit être utilisé à l'interface de sortie du module ces de Fourier. Il est évident, cependant, que le processeur w> pour quantifier les réponses analogiques r,, r2 ..., rN pour d'entrée utilisé peut être une quelconque unité connue dans l'art ' entrée de l'ordinateur.
antérieur. Par conséquent, comme le processeur d'entrée ne fait Evidemment, le module «Nestor» se prête pratiquement à
pas partie intégrante de la présente invention, il n'est pas une infinité d'applications, et le dispositif de sortie particulier ou nécessaire de le décrire plus en détail. processeur employé peut être déterminé cas pour cas. Comme le f.s système de sortie ou processeur ne fait pas partie intégrante de
Comme noté précédemment, le module «Nestor» produit l'invention, il ne sera pas décrit plus en détail.
une pluralité de réponses rb r2 .. ., r, . .., % en réponse à un L'installation conforme à l'invention, peut comprendre plu-
jeu de signaux d'entrée sb s2 . .., Sj .. ., sN. Selon un mode de sieurs modules reliés ensemble soit en série, soit en parallèle,
7
620 307
soit en série/parallèle. Par exemple, les bornes de sortie de deux modules peuvent être reliées aux entrées d'un troisième module de sorte que le premier des deux modules peut pré-traiter l'information reçue de l'extérieur, et transférer cette information au troisième module pour un traitement ultérieur et sto- 5 ckage. Les liaisons série et parallèle entre les modules peuvent augmenter la puissance d'intelligence de l'installation de traitement de l'information.
Le module «Nestor» peut être construit pour apprendre à une vitesse souhaitée. Dans le mode «apprendre», les modifica- 1(1 tions de la fonction de transfert Ay des unités de liaison peuvent être définies comme précédemment, cependant dans un mode de réalisation préférentiel, ces modifications ont la forme:
15
6A,j = 11 r, Sj.
En réglant la valeur de r] par exemple, il est possible de contrôler la vitesse de modification, ou la vitesse de l'instruction du module. En mettant r] à 0 (ôAjj = 0) ii est également possible , de couper ou d'arrêter ce mode d'instruction pendant lequelle module apprend, si bien que le module fonctionne alors comme une simple mémoire dans laquelle les fonctions de transfert Ay sont prédéterminées et fixée.
Le module «Nestor» peut être également construit de façon à oublier ou perdre le souvenir à une vitesse prédéterminée. Un tel fonctionnement peut être accompli en permettant aux valeurs des fonctions de transfert A,j de décroître, par exemple à une vitesse constante. Si dans le mode «apprendre», une telle perte de l'information stockée est salutaire, comme le module 3II «Nestor» peut oublier des détails de son expérience antérieure, il peut faire une généralisation plus rapidement. Réciproquement, une fois que le module «Nestor» a été éduqué, et qu'il se trouve dans un fonctionnement en mode mémoire, il est souhaitable de réduire toute décroissance vers 0 des fonctions de 35 transfert Ay (c'est-à-dire jusqu'à la valeur inférieure la plus faible avec les composants présents). Ainsi l'information stockée dans le module «Nestor» peut être retenue aussi longtemps que possible sans l'utilisation d'un buffer.
Lorsqu'on utilise une pluralité de modules «Nestor» montés 40 en série ou en parallèle, les différents modules peuvent fonctionner suivant des modes différents pour réaliser différentes fonctions dans l'installation de traitement de l'information. Par exemple, un ou plusieurs modules peuvent fonctionner dans un mode «instruction» (par exemple lorsque T) ainsi que le rythme 45 de décroissance uniforme sont suffisamment grands) alors qu'un ou plusieurs autres modules peuvent fonctionner dans un mode purement mémoire (avec ô Ay et le mode de décroissance à zéro).
La figure 8 montre un exemple d'une telle installation 5„ comprenant trois modules «Nestor». En se référant à cette figure, il est clair que le nombre d'entrées du côté H peut être égal, plus grand ou plus petit que la somme des sorties de R„ et RA, et que chaque sortie de R„ et RA peut être liée à une ou plusieurs entrées de H d'une façon ordonnée ou aléatoire. s5
Finalement, il est important de noter qu'une fois que le module «Nestor» a été éduqué après une période de fonctionnement dans le mode instruction, les valeurs des fonctions de transfert Ay peuvent être stockées ou utilisées pour instantanément éduquer un autre module «Nestor». Cette période d'édu- ft(l cation est obtenue simplement en mettant les valeurs des fonctions de transfert Ay du module «Nestor» aux valeurs initiales Ay'"', avant que le module soit mis en fonctionnement.
Dans un mode de réalisation préférentiel de l'invention, l'installation de traitement de l'information est équipé avec un (,5 dispositif classique de stockage d'informations (soit analogique soit numérique) dans lequel les valeurs des fonctions de transfert Ay peuvent être transférées à partir d'un module éduqué, et peuvent être restituées quand les fonctions de transfert du même ou d'un module différent ont repris leurs valeurs initiales A <">
Ay .
Ayant décrit ainsi la structure de base d'un module «Nestor» que comprend une installation de traitement de l'information conforme à l'invention, il est nécessaire maintenant de considérer la nature et le fonctionnement de cette structure en détail.
L'invention va maintenant être décrite en se référant aux figures 5 à 14. Tout d'abord, on va présenter ci-dessous une discussion théorique de base nécessaire à la compréhension de l'invention, en considérant un mode de réalisation préférentiel de l'invention.
1. Explication théorique
A. Environnement des événements et représentations
La figure 5 montre un module «Nestor» soumis à un envi-Tonnement extérieur composé d'un certain nombre d'événements. La durée et l'étendue d'un événement sont définies en fonction de l'interaction entre l'environnement et le module «Nestor» contenu dans l'installation de traitement de l'information auto-adaptatrice. Pour une meilleure compréhension, on procède initialement comme si un événement est bien défini d'une façon objective, et recouvre un espace d'événements F. constitué par e1, e2, e3 .. ., ek. Ces événements sont traduits par des dispositifs sensitifs et auditifs du système par l'intermédiaire d'une représentation externe P (pour le traitement) en un signal de distribution s', s2, s3 . . ., sk dans l'espace d'entrée S du module «Nestor». La représentation externe P est schématisée par une double flèche sur la figure 5. On suppose que cette représentation externe n'est pas modifiée par l'expérience.
Bien que l'on ne désire pas décrire la représentation P en détail, du fait que le type particulier de conversion de l'environnement en un espace d'entrée n'est pas important pour la discussion, on note alors que la représentation externe est suffisamment riche et déteillée pour qu'une quantité suffisante d'informations soit considérée comme ayant un certain intérêt. En particulier, le jeu d'entrées S reflète le degré de «séparation» entre les éléments, c'est-à-dire le degré de similitude (ou toute autre relation) suivant tout aspect de deux ou plusieurs événements. Ainsi on suppose que la représentation externe P de E à S a la propriété fondamentale de préserver dans un sens, le «lien» ou la «séparation» des événements.
On va définir maintenant un jeu de signaux d'entrée sv qui correspond au v'tmL' événement d'entrée ev, et un jeu de signaux d'entrée s'1 qui correspond au (i*mc événement d'entrée e11. Dans cette notation deux événements ev et e'1 sont représentés par les signaux sv et s'1, dont la séparation est fonction de la séparation des événements initiaux. Dans une représentation par vecteurs, qui sera employée tout au long de cette dissussion, on imagine que duex événements similaires comme un chat blanc et un chat gris peuvent être représentés par deux vecteurs parallèles, alors que deux événements aussi différents que le son d'une cloche et la vision d'une nourriture sont représentés par deux vecteurs orthogonaux.
En donnant la distribution du signal d'entrée dans l'espace S, qui est le résultat d'un événement dans l'espace E, on imagine que la distribution du signal est représentée en un jeu de réponses R suivant une représentation interne A illustrée par une simple flèche sur la figure 5. Ce type de représentation est modifiable de la façon qui va être décrite ci-dessous.
Les liaisons actuelles entre les entrées s et les sorties r du module «Nestor» peuvent être aléatoires et redondantes. Il peut y avoir plusieurs ou aucune liaison entre une entrée particulière et une sortie. Cependant, pour la suite, on idéalisé le reseau en remplaçant toute multiplicité de liaisons entre une entrée et une sortie par une seule unité de liaison qui résume logiquement l'effet toutes les informations transférées entre la borne d'entrée
620 307
8
] du côté S et la borne da sortie i du côté R. Comme représenté sur la figure 6, chacune des N entrées du côté S est reliée à chacune des N sorties du côté R par une seule unité de liaison. Les additionneurs travaillent de façon à ce que la réponse à toute borne de sortie i du côté R, soit représentée à partir des signaux sj sur toutes les bornes d'entrée du côté S par:
N
ri = 2 Ay Sj j=l où Ajj est la fonction de transfert de la ij,cme unité de liaison. Cette relation est une relation fondamentale qui donne l'influence des signaux d'entrée de S sur les réponses dans R. Bien qu'un fonctionnement satisfaisant du module «Nestor» ne nécessite pas une supposition ou hypothèse spécifique, (c'est-à-dire, rj n'est pas forcément une fonction linéaire de toutes les entrées N), la simplicité de cette relation rend plus facile l'affichage des résultats sous une forme analytique explicite.
B. Représentation associative, traitements mémoire et logique
C'est dans des représentations internes modifiables du type décrit dans le paragraphe A que l'expérience et la mémoire du module «Nestor» sont stockées. Par contraste, avec la mémoire des machines actuelles, qui est locale (un événement étant stocké à une place spécifique) et adressable par localisation (nécessitant des équivalences entre les indices et les files) la mémoire du module «Nestor» est répartie et adressable par le contenu ou par association. On va montrer ci-dessous que la représentation illustrée dans le paragraphe A peut avoir les propriétés d'une mémoire non-locale, adressable et dans laquelle la «logique» est un résultat d'une association et une conséquence de la nature de la mémoire elle-même.
La représentation du paragraphe A est plus facilement écrite sous la forme de vecteurs. Dans un algorithme préférentiel, la représentation du paragraphe A que l'on appellera par la suite représentation A peut être définie comme:
A =2c„vr11 X sv,
UV ^
où les signaux de sortie correspondants pour les v'cn,c et n*"" événements e1' et e1' sont rv et r11 respectivement, et le paramètre c,,v le coefficient de couplage entre les v""me signaux d'entrée sv et les signaux de sortie r'1. Comme on peut le voir, le coefficient c croît normalement avec le temps au fur et à mesure que les événements successifs e sont représentés par les signaux s.
Le ij*"" élément de la représentation A donne la puisance de liaison de l'unité de liaison entre le signal d'entrée Sj de l'espace S et la réponse rj de l'espace R. Ainsi, si seulement s; n'est pas à zero:
Comme
Aij = 2 c(n,r"-, sv,
La puissance de la ij'emc unité de liaison est composée de la totalité de l'expérience de l'installation, comme reflétée par les signaux d'entrée et de sortie reliés à cette unité de liaison. Chaque expérience ou association (jiv), est cependant stockée sur la totalité des unités de liaison disposées en un tableau N X N. C'est un caractère essentiel de la mémoire répartie . Chaque événement est stocké sur une grande partie de l'installation, alors qu'en un point particulier plusieurs événements sont présents.
1. Reconnaissance et souvenir:
Le problème fondamental posé par une mémoire répartie est l'adressage et la précision pour retrouver les événements stockés. En considérant tout d'abord la zone «diagonale» de la représentation (A) qui est définie comme suit:
(A) diagonale = % =2Cvv rv x sv
(où "Xh symbolise la reconnaissance et le souvenir).
Un événement arbitraire, e, représenté en signaux d'entrée, produira une réponse dans R:
r = A s
Si on associe la reconnaissance avec l'étendue de cette réponse r, c'est-à-dire la valeur de:
N
(r.r)=ïr|
1 = 1
(le produit interne du vecteur r par lui-même, c'est-à-dire le carré de la longueur de r), alsors la représentation A distinguera parmi ces événements celui qui contient le signal sv (sv, v = 1,2 . .., k) et les autres événements qui sont séparés de ceux-ci.
Le mot «séparé» utilisé dans ce contexte nécessite une définition plus précise. Dans l'argumentation utilisée par J.A. Anderson dans la Revue «Math. Bio-sciences I, 137 (1970)» dans l'analyse d'une mémoire répartie, les vecteurs sv sont supposés être indépendants les uns des autres et satisfaire les relations:
N
2 s,v = 0
i = 1
N
2 (SD2=1-
i = 1
Deux de tels vecteurs ont des composantes qui sont aléatoires en fonction les unes des autres de sorte qu'un nouveau vecteur, s, représenté par la lettre donne une réponse équivalente à du bruit puisque la moyenne (sv, s) est petite. La représentation d'un vecteur vu précédemment, c'est-à-dire s, cependant donne la réponse
& s1 = cur>l + bruit.
Il est alors montré que si le nombre d'événements imprimés, k, est petit comparé à N, les rapports signal-bruit sont raisonnables.
Si on définit des événements séparés comme ceux qui donnent une représentation de vecteurs orthogonaux, alors une matrice de reconnaissance composée de k vecteurs orthogonaux s1, s2 ...,sk
& = 2 cvv rv X s"
v = 1
permettra de distinguer ces vecteurs s1 . . .gk, et tous les vecteurs séparés de ceux-là.
En outre, la réponse de R à un vecteur précédemment enregistré est unique et précise:
& s" = c,., r' .
Dans cette situation spéciale, la mémoire répartie est aussi précise qu'une mémoire localisée.
5
10
15
20
2?
30
35
4(1
45
50
55
60
f>5
9
620 307
De plus, comme cela est mis en avant par H.C. Longuet-Higgins, dans la revue «Proc. R. Soc. Lond. B, 171,327 (1968)», une mémoire répartie peut avoir la propriété intéressante de retrouver en totalité un vecteur réponse r même si seulement une partie de ce signal sx est présente. C'est le cas de la mémoire répartie que l'on discute ici. Posons:
sx = s/ + s2\
Si seulement une partie de sx, appelée s,\ est présente, on obtient:
^ *il = cu (s,\ s,x) r1 + bruit.
Le résultat représente ainsi la totalité de la réponse du signal sx avec un coefficient de bruit réduit.
2. Association:
La présentation d'un événement ev qui produit un vecteur sv permet la reconnaissance et le souvenir si:
J^sv = crv + bruit.
Alors les termes hors diagonale:
( A)hors diagonale ^"uv X sv
[i^V
(où le caractère signifie association) peuvent être interprétés comme l'association d'événements initialement séparés les uns des autres ev j»rv
H r ■
% t
N./
e" ■ - ->s''
où (sv, s") = 0.
Avec de tels termes, la présentation d'un événement ev produit non seulement une réponse rv (qui est équivalente à la reconnaissance de ev) mais également (peut être à un degré moindre) la réponse r" qui peut résulter de la parution de l'événement e1-1. Ainsi, par exemple, si r11 initialise une quelconque réponse (originalement une réponse à l'événement e11) la présentation de l'événement ev lorsque c^v 0 initialisera également cette réponse.
Par conséquent, on peut écrire la matrice d'association:
À = 2 c^v r^ x sv = 7l/+JK.
|IV
Ä=(A)diagonaie =2 cw rv X sv (reconnaissance)
V
(A) hors diagonale)"^ -
M- c^v rv X sv (association)
Les termes sont c^v sont alors les coefficients de reconnaissance et d'association directes.
3. Généralisation
Dans l'expérience actuelle, les événements auxquels l'installation peut être exposé ne sont pas en général hautement séparés ou indépendants au sens statistique. Il n'y a pas de raison par conséquent de s'attendre à ce que tous les vecteurs, sv, imprimés dans la représentation A soient orthogonaux ou éloignés les uns des autres. Sous ces conditions, une mémoire répartie peut devenir confuse et produire des erreurs. Elle reconnaît et associe des événements qui n'ont pas été vus ou associés précédemment.
Pour illustrer cela, on suppose que l'installation a été exposé à une classe d'événements non séparés (e1 . . . ek): (en) qui est représentée en k vecteurs (s1 ... sk) : (sa). La proximité des événements représentés peut être exprimée dans un espace linéaire par le concept de «communauté». On définit la communauté par un jeu de vecteurs, tels que les vecteurs (sn), comme la limite la plus inférieure des produits internes (su, s') de deux vecteurs du jeu précité. De façon spécifique, la communauté du jeu de vecteurs (s") est T, C[sa] = T, si T est la limite la plus inférieure de (su, s') pour tous les su et s'dans (sa).
Si chaque exposition provoque une addition dans la représentation A(ouft) d'un élément de la forme cvv rv X sv, alors la réponse à un événement su de cette classe, c'est-à-dire s" e(sn), est:
fts" = r = 2 cw rv(sv,su) = cuu ru + 2 (sv, su) cvv rv
V V ^ (i où
(sv, s'1) > r.
Si T est assez grand, la réponse à su est, par conséquent, pas clairement distinguée de celle d'un autre s contenu dans (sa).
Si un nouvel événement de ek + ', non apparu avant est présenté au système, ce nouvel événement est rapproché des autres dans la classe oc, (par exemple, supposons que ek+1 soit représenté par sk+1 qui est un membre de la communauté (s")) alors R sk+1 produira une réponse pas très différente de celle produite pour un des vecteurs su e (sa). Par conséquent, l'événement ek+1 sera reconnu bien qu'il ne soit pas apparu avant.
Cela, naturellement, représente une erreur potentielle.
Ainsi une mémoire associative reconnaît et ensuite attribue les propriétés à des événements appartenant à la même classe, comme des événements déjà reconnus. Si, en réalité, les vecteurs dans (s") ont la forme:
sv = s" + nv où nv, le facteur de bruit, varie aléatoirement, et s" sera éventuellement reconnu plus fortement que tout autre vecteur sv présent. De cette façon, par exemple, un signal répété peut être extrait d'un bruit aléatoire.
On a ici une réalisation explicite de ce que l'on peut appeler une «logique» qui naturellement, n'est pas logique partout. Plutôt, ce qui peut apparaître peut être décrit comme un résultat d'une construction dans la direction d'une généralisation. La mémoire associative par sa nature prend l'état:
s° + n1, s° + n2 ... s" + nk > s"
qui peut être décrite par langage par le passage de cas particuliers (par exemple, chat1, chat2, chat3 ...) à un cas général (chat).
La rapidité avec laquelle cet état est pris dépend (comme on le verra par la suite) des paramètres de l'installation. En alternant ces paramètres, il est possible de construire des représentations qui varient de celles qui retiennent tous les cas particuliers auxquels elles sont exposées, dans ce sens qu'elles ne retiennent seulement que des éléments communs, c'est-à-dire le vecteur central de toute classe.
En plus des erreurs de reconnaissance, la mémoire associative peut faire des erreurs d'association. Si, par exemple, tous (ou plusieurs) les vecteurs de la classe (sa) avec une communauté raisonnablement grande associent un quelconque rP particulier de sorte que la représentation A contient des termes de la forme:
5
10
15
20
25
30
35
40
45
50
55
60
65
620 307
10
2 Cjiv rp X sv v = 1
Avec Cpv ¥= 0 pour v = 1,2 .. . k, alors le nouvel événement ek+1 représenté en sk+1 dans l'exemple précédent ne sera pas seulement reconnu
C. Module Modification, Instruction ou Faculté d'apprendre Le if™ élément de la représentation associative A
Ajj = 2 c^ r/1 sjv p.v
(1)
( sk+l,ftsk+1) grand mais associera également rP
A sk+l = c rP + ...
aussi fortement que l'un quelconque des vecteurs de (sa).
Si des erreurs de reconnaissance amènent le processus décrit en langage comme allant du particulier vers le général, des erreurs d'association peuvent être décrites comme allant du particulier vers l'universel: Chat1 miaule chat2 miaule. . . —> tous les chats miaulent.
Il y a naturellement, aucune justification pour ce processus. Il est exécuté comme une conséquence de la nature de l'installation. Quelle que soit son efficacité, il dépend des règles dans lesquelles le système se trouve lui-même.
Par une séquence de représentations de la forme ci-dessus (ou en réappliquant la sortie de A à lui-même) on obtient une fabrication d'évenements et de liaisons est une somme pondérée de toutes les j composantes de tous les signaux représentés, sv, et les i composantes des réponses, r11, sont appropriées pour les opérations de reconnaissance et d'association.
io Une telle représentation peut, naturellement, être obtenue par réglage du poids de chaque unité de liaison, de sorte que sa valeur soit égale au Ay précité correspondant. Ceci est le mode le plus simple dans lequel le module «Nestor» peut fonctionner.
Une caractéristique plus importante du module «Nestor» est 15 sa capacité d'auto-modification. Lorsqu'il fonctionne dans un mode instruction (c'est-à-dire qu'il apprend) le module «Nestor» modifie les poids de ses unités de liaison si bien que (mise à part une décroissance uniforme qui sera décrite plus loin),
ÔA„
(2)
- etc.
qui est aussi riche que suggestive. On voit facilement la possibilité pour un courant d'ordre électrique d'être influencé à la fois par les représentations internes de la forme A et les entrées extérieures. Ce courant est commandé non seulement par l'association directe de coefficients c^ (qui peuvent être explicitement appris comme on le verra par la suite) mais également par des associations indirectes dues au recouvrement d'événements représentés, comme indiqué sur la figure 7. En plus, on peut facilement imaginer des situations dans lesquelles un accès direct à un événement, ou à une classe d'événements, a été perdu (cyX =0 sur la figure 7) alors que l'existence de cet événement ou de cette classe d'événements dans A influence le courant d'ordre électrique.
4. Séparation des vecteurs
Tout état dans une mémoire répartie est généralement une superposition de différents vecteurs. Ainsi, on doit trouver un moyen par lequel des événements (ou des entités dans lesquelles ils sont représentés) sont distingués les uns des autres.
Il y a plusieurs possibilités: il n'est pas difficile d'imaginer des dispositifs non-linéaires ou à seuil, qui permettent de séparer un vecteur d'un autre vecteur. Mais l'occurrence d'un vecteur dans la classe (sa) dans une mémoire répartie donne un jeu de réponses sur un grand nombre de sorties ria chacune étant éloignée du seuil. Un problème de base, par conséquent, est de trouver la façon d'associer le seuil d'une simple réponse avec un tel signal réparti. On verra comment résoudre ce problème par la suite.
En plus, à l'arrivée de telles sorties à seuil, il peut y avoir certaine séparation des signaux représentés du fait de l'actuelle localisation des zones dans lesquelles ces signaux apparaissent. Par exemple, des signaux optiques ou sonores peuvent être soumis à plusieurs traitements avant d'être introduits dans un module «Nestor». Il est possible de permettre l'identification de signaux optiques ou sonores dans un premier temps, les liaisons entre lesdits signaux pouvant apparaître subséquemment dans une seconde phase de traitement, à partir de la réponse du côté R vers une seconde réponse du côté H, comme suggéré sur la figure 8.
Ce ÔAy est proportionnel au produit du signal d'entrée Sj par le signal de sortie r,. Des altérations de la puissance de liaison proportionnelles seulement à s} ou à la réponse instantanée de la 25 jonction s'j- sont également possibles. Cependant, de telles modifications ne donnent pas les différentes propriétés discutées ici. L'addition de tels changements dans A indiquée par la proportionalité (expression 2) ci-dessus pour toutes les associations r11 X sv donne une représentation avec les propriétés 30 discutées précédemment.
Pour faire les modifications de AM
ÔA~r" X sv
(3)
35 par une procédure d'auto-modification du module «Nestor», l'installation doit avoir un signal de distribution sv du côté S et r11 du côté R, où sv est représenté à partir de l'événement ev par P.
Dans ce que l'on appelle «mode d'instruction actif», le module «Nestor» peut être présenté avec une entrée s*- et forcé à 40 produire une réponse correcte, c'est-à-dire rM. Cela peut être fait, par exemple, avec le dispositif du type décrit en référence à la figure 9, dans lequel les valeurs des réponses désirées rIA, r2A • • •> riA • • •> rNA peuvent être appliquées aux sorties 1,2 ..., j... N pour astreindre les signaux de sortie r,, r2..^ . rN à 45 être égaux à ces valeurs désirées. Comme les signaux de sortie sont utilisés dans le module «Nestor» pour la modification des éléments Ay suivant la proportionnalité (2) précédente, c'est-à-dire conformément à
50
Ay = T]^ S/
(où r) est une constante de proportionalité). A l'application répétée du signal s\ le module construit très rapidement une mémoire détaillée et précise de la réponse r™ à l'entrée s\
L'instruction (active) se rapporte également à un type d'ins-55 truction (ou de faculté d'apprendre) dans lequel la réponse d'une installation à un jeu d'entrées est comparée à une réponse désirée, et jugée correcte ou incorrecte. Dans ce cas, si l'installation reçoit des entrées s\ sa réponse r11 peut être comparée à la réponse correcte r"', et les éléments Ay sont incrémentés dans 60 une direction pour produire une réponse qui se rapproche le plus de r0, si les entrées sx sont à nouveau appliquées.
Il est clair que dans ce type d'instruction, un opérateur humain est nécessaire pour connaître la réponse appropriée r à 65 différentes entrées s. Cependant, le module «Nestor» est capable de fonctionner dans un autre mode que nous appellerons «passif» (ou faculté d'apprendre passive), qui ne nécessite pas une intervention d'un facteur humain. En particulier, le module
11
620 307
«Nestor» est capable d'identifier, de reconnaître, de retrouver, de généraliser, ou d'associer les caractéristiques d'un environnement auquel il est exposé même si aucune analyse antérieure ou identification de ces caractéristiques n'a été faite. Dans ce type de mode d'instruction, l'opérateur humain n'a même pas besoin d'être avisé ou informé des caractéristiques de l'environnement qui sont extraites et traitées par le module «Nestor».
Pour arriver à un algorithme qui produit une instruction passive, on fait une distinction entre la réalisation d'une représentation interne des événements du monde extérieur, et la réponse à ces événements qui est comparée à ce qui est souhaité ou attendu dans le monde extérieur.
L'idée simple mais la plus importante est que l'activité électrique interne qui dans un module indique la présence d'un événement extérieur n'est pas nécessairement la même que l'activité électrique qui signale la présence de ce même événement dans un autre module. Rien ne nécessite en effet qu'un même signal externe soit représenté suivant une même distribution dans différents modules. L'événement ev, qui pour un module est représenté par des signaux de distribution rv et sv,
dans un autre module le sera par des signaux r'v et s'v. Ce qui est nécessaire pour la concordance éventuelle entre des modules dans la description d'un monde extérieur n'est pas les signaux électriques représentés soient identiques, mais plutôt que la relation de ces signaux entre eux et les événements du monde extérieur soit la même. La figure 10 illustre ce principe d'une façon graphique.
1. Instruction passive:
Si on appelle la matrice A (c'est-à-dire l'ensemble des w Ajj's) après l'apparition des événements t (temps t), on écrit:
sation. Elle sort les valeurs de y légèrement inférieures ou égales à 1, qui sont les plus intéressantes.
Pour éviter que l'installation se sature, il est souhaitable de faire par exemple r] : 0 quand la sortie r = A s dépasse un s maximum spécifié, c'est-à-dire: (r, r) = (A s, A s) supérieur/ou égal à un maximum spécifié.
Dans ce qui suit, on normalise tous les vecteurs (s, s) = 1, (r, r) = 1, e qui est maintenant pris comme une constante devient sans dimension.
io Si nous posons r' =yA<M) s' + rR' + rA',
nous voyons que la réponse entière y est composée de trois termes: une réponse passive A(t-1) s', un terme mais aléatoire rR\ et une réponse active rA. Pour le mode passif on considère îs seulement le premier terme si bien que:
6A(1) = er' x s' = eyA,M) s'Xs'.
De cette façon les réponses sont justement celles produites 20 par la représentation actuelle, et Alorsque le vecteur s'est dans S, est représenté dans R:
yr' = A(t_l) s'.
25 L'algorithme du mode passif est alors:
A(,) = A"'11 (ey+r)s'X s')
ou:
A(t) = yA«-D + § A(t)
ôA(,) = ri r' X s'-
35
= yA(M) (1 + ss' X s1),
où en général e est de préférence beaucoup plus petit que 1. Avant qu'un événement externe soit présenté, A a la forme A(0) qui peut être aléatoire. L'effet de A((l) sur la représentation interne va être analysé maintenant.
Avec cet algorithme, après k événements, A a la forme:
Dans cette équation, comme mentionné précédemment, r] est une constante de proportionalité, et y une constante de décroissance qui est la mesure d'une décroissance uniforme de l'information à tout endroit (façon d'oublier). Généralement, 4o Osïys: 1.
On introduit également le paramètre e défini comme la valeur de n quand les entrées s1 sont normalisées, e est une mesure de la vitesse à laquelle les modifications de A sont faites (vitesse d'instruction ou pour apprendre qui est utilisée dans les 45 calculs faits pour les entrées normalisées s'). Les valeurs de ces paramètres y, r] et e peuvent être réglées pour obtenir de l'installation les propriétés souhaitées. Par exemple, pendant la période d'acquisition de l'information (instruction, ou écriture de programme) r) ou e peuvent être raisonnablement plus grands 50 que 0 (par exemple, t| sensiblement = e sensiblement = '/m) et y peut être raisonnablement inférieur à l'unité (par exemple, y sensiblement = 9/w ) de sorte que l'installation peut acquérir une information et perdre des détails. Après une période d'acquisition, il est utile de faire n = e = 0ety = lde sorte que 55 l'installation n'apprenne plus, mais retienne pour une période de temps arbitraire toute l'information qu'elle a apprise. Dans le module, ce temps de stockage est déterminé par les caractéristiques des constantes de temps des circuits. Pour des raisons d'économie et de commodité, ces valeurs sont choisies pour 60 permettre un stockage pour des périodes allant de plusieurs minutes à plusieurs heures. Pour un stockage plus long, sous de telles circonstances, on peut transmettre le contenu de la mémoire répartie (par exemple, les valeurs de Ay) à un buffer mémoire, qui permet de réutiliser par la suite les informations. «
En général, une installation dans laquelle y< 1, perd des détails et a une plus grande capacité pour effectuer une générali- ;
A(k> = yk A(0) k n0 (1 + esvX sv),
v= 1
où n„ est un produit ordonné dans lequel les facteurs avec les indices inférieurs sont à gauche:
k n0 s(v) = s(l) s (2) ... s (k).
v = 1
Ce qui peut être écrit également:
A"^A»[I -ti! 1 s" X s"*2\< / X S"(S"S") + ....+ e> s1 X s' s*) fs=, s») (s', s4)... (s", s»)].
L'algorithme du mode passif produit sa propre réponse A(()) sv à l'arrivée du vecteur sv, réponse qui dépend de la configuration initiale du réseau à travers A(n) et du vecteur sv représenté à partir de l'événement ev. Par exemple, si sv est le seul vecteur présenté, A prend éventuellement la forme:
A~rv X sv rv_A(°)sv.
2 .Cas spéciaux pour A:
Nous allons maintenant montrer la forme de A dans différents cas, et pour lesquels e est supposé être constant et petit, (a) Si les k vecteurs sont orthogonaux, A devient
620 307
12
k 3. Structure de l'espace représenté:
A(k) — yk (A(,)) + e A(ll) 2 sv x sv). Les communautés ou les classes séparées d'un signal ou v = 1 d'espaces extérieurs E ou S, sont identiques à celles de l'espace représenté R, si
Laissons A(n) sv ~ rv, le second terme prend la forme d'une s partie de la diagonale de A: rß) = s(îj k ,v v cv v
2 r Xs 011
1
r" = A(0) s".
et servira à reconnaître les vecteurs s1 ... s". (On doit observer cda est ,e cas si ,a matrice Am satjsfait ,a reIation:
que les vecteurs associés rv ne sont pas donnés à l'avance, ils sont produits par le réseau). Si e est petit, cependant, cela peut être (A(n)) ' A(n) = I (matrice d'identité) (4)
inefficace pour la reconnaissance, puisque le terme de recon- 15 naissance est faible. En outre, il est généralement plus facile, si ou la reconnaissance est faite, de la faire survenir seulement après une exposition répétée du même événement. ^ A «o A(0) _ g
(b) L'exemple suivant montre que l'algorithme d'instruction i — l 'k )k'
passif construit les coefficients de reconnaissance a une vitesse 2()
exponentielle pour les entrées répétées du même événement. Si g _ j • _ ^
le même vecteur s" est présenté 1 fois, A devient éventuelle- Jk _ ' •! , ^
ment: '
A") —y1 A(n) (1 + e,F s" X s"). d'où il ressort que
Si 1 est suffisamment grand, c'est-à-dire e'F>> 1, le terme de (r"> r'!) = (A( 1 s", A( ' s^) = (s", s'1).
reconnaissance pourra éventuellement dominer. Quande'F de- Cela peut être facilement construit. Si, par exemple, on vient suffisamment grand il est souhaitable d'ajuster la valeur de e choisit de façon à ce qu'il n'y ait pas d'autre croissance. Ceci peut être réalisé en rendant e fonction de la réponse du vecteur d'entrée, A(oj _ j si bien qu'au-delà d'une certaine valeur maximum il n'y a plus décroissance du coefficient. alors la relation (4) est satisfaite et l'espace S se représente dans
(c) La présentation de m vecteurs orthogonaux lb 12 ... lm lui-même:
fois donne une simple généralisation du second résultat, (b).
Lorsque y = 1 pour simplifier: 35 ra=sa.
m II est intéressant de noter que même un élément aléatoire
A('l + '2 + .. .'m) = A(0) (1+2 elvf sv X sv) A'"' satisfera sur la moyenne la relation (4). On suppose que v = 1 A(0) est une matrice symétrique aléatoire qui satisfait les condi-
qui est seulement une matrice de recherche et de reconnaissance tions:
associative séparée: 40
N
2 Aja) ~0
m i = 1
A = 2 cwrv X sv.
V - 1 45 N
pour tout j,
si
JVE-
2 ( Ay'0')2 = 1 i = 1
e VE= cw » 1. alors
N
(d) Certains des effets de la non-orthogonalité peuvent être 50 2 A;/0' Aik(ll) =0 j ^ k affichés en calculant le résultat d'une entrée comprenant 1 i = 1
vecteurs chargés de bruit distribués aléatoirement autour d'un tandis que signal central s0 avec: ^ ^
sv = so + nv „ 2 Aj/«)Ai/«)= 2 (Ajj'01)2—1 j = k.
s s -r n 55 i = \ i = j
Ici, nv est un vecteur «stochastique» (c'est-à-dire, un vecteur Ainsi, la condition (4) est satisfaite; par conséquent, une qui varie aléatoirement) dont l'amplitude est petite comparée à matrice aléatoire A(0) comme ci-dessus, sera amenée vers un celle de s0. espace représenté avec les mêmes communautés et classes que
60 l'espace du signal original.
A(D= e,En7N (1 +eiE s0 X s0)
4. Termes d'association:
où n est l'amplitude moyenne de nv. On voit que la matrice Les termes associatifs ou hors diagonale peuvent être pro produite A(l), avec le facteur supplémentaire dû au bruit, est duits de la façon suivante. Supposons que A a atteint la forme: justement de la forme permettant la reconnaissance de s0. Ainsi, 65
l'application répétée d'un vecteur ayant du bruit de la forme ci- k k dessus, donne une matrice A qui reconnaît le vecteur central s0. A= 2 A(0) sv X sv = 2 rv X sv.
Cela est une façon de séparer le bruit d'un signal. v = 1 v = 1
13
620 307
On présente maintenant des événements e" et e^ de façon à ce qu'ils soient associés, c'est-à-dire que les vecteurs s" et s^ apparaissent ou soient représentés ensemble. Les conditions précises donnant une représentation simultanée de sn et s^ dépendent de la construction de l'installation: La situation la plus simple à imaginer est que le vecteur (sa + s11) est représenté si e" et e(i sont présentés au système suffisamment liés ou dépendants l'un de l'autre de sorte que l'on a la relation (s", sp) = 0. Dans l'espace S, si le vecteur est normalisé, nous avons alors
1/V2(s" + SP).
Après une telle représentation de e" et e^, A devient: avec par simplification 7 = 1:
k
A<"= 2 rv X sv + 7 (rp X s« + r" X sP).
v = 1
Le second terme donne l'association entre a et ß avec le coefficient
Cu|! — c|iu = t'/2
qui généralement (sauf dans des circonstances spéciales) est très intéressant s'il est petit. Si s" et s^ n'apparaissent pas à nouveau en association, cu(S ou Chu (bien qu'ils croissent séparément à la présentation de s" ou s**) restent petits comparés aux coefficients de reconnaissance respectifs c^j ou cuu. Cependant, si
(s"+sP) est une occurrence fréquente (apparaissant par exemple 1 fois), le coefficient d'association devient:
e,f c«|i Y~
coefficient qui est aussi grand que le coefficient de reconnaissance.
Avec les résultats précédents, on a établi que les espaces relatifs respectivement aux signaux d'entrée et aux réponses, avec la représentation qui les relie, ont une structure qui est similaire à la structure initiale de l'environnement externe ou de l'espace événement E. Cela signifie:
(1 ) Les classes ou les communautés de l'espace de réponse R, sont les mêmes que celles de l'espace externe E ou de l'espace de signaux d'entrée S.
(2) Les classes ou événements qui sont associés dans l'espace externe (ceux qui apparaissent en association pendant une période d'instruction) deviennent associés dans l'espace réponse de sorte que, après une période d'instruction, l'occurrence de l'un des éléments des classes associées ou des événements dans l'espace externe E, et par conséquent dans l'espace des signaux d'entrée S, représentera deux éléments des classes associées ou événements dans l'espace R, même si ce sont des types d'événements très différents.
5. Séparation des événements — Dispositifs à seuil:
On a travaillé jusqu'à maintenant avec des espaces et des représentations linéaires. Il en résulte qu'un état est en général une superposition de plusieurs vecteurs. Pour distinguer les événements (ou les signaux dans lesquels ils sont représentés) les uns des autres, on peut incorporer un dispositif à seuil ou tout autre dispositif non linéaire dans l'installation. Il peut également y avoir une séparation des signaux représentés due à la localisation des zones dans lesquelles ces signaux apparaissent. Par exemple, comme représentés sur la figure 8, des signaux optiques et sonores peuvent être soumis au traitement dans des modules séparés avant d'être regroupés dans un même module. Cependant, l'identification des signaux optiques ou sonores doit s'effectuer à partir du module dans lequel ils ont été initialement représentés. Les associations entre un événement optique et un événement sonore peuvent ensuite avoir lieu dans un module commun.
Un exemple de dispositif à seuil est décrit ci-dessous. Comme un signal dans une mémoire répartie se répand sur un grand nombre d'entrées ou de sorties, même un signal large, ((s", sh) large) peut être décomposé en composantes Sj", chacune d'elles étant très petite. Un problème de base par conséquent, est d'associer maintenant le niveau ou seuil d'un seul dispositif avec un tel signal réparti ou distribué. Cela peut être effectué en incorporant des dispositifs à seuil T,, T2 . . ., T, . . ., TN au module de base comme représenté sur la figure 11. Par exemple, le dispositif à seuil T, donne une sortie si la valeur absolue de son entrée !r,l dépasse une valeur prédéterminée.
Ir,l > 0j,
où 0, est le seuil dudit dispositif Tj. II est important de noter que le signal d'entrée initial s" peut soit être un signal d'entrée initial de l'espace E, ou la sortie d'un module précédent.
Un signal répété d'une configuration d'entrée s" est représenté en une configuration de sortie r" qui, par une répétition du fonctionnement décrit dans le paragraphe précédent, croît expo-nentiellement. Ainsi, un signal d'entrée arbitraire mais répété s" activera éventuellement un dispositif à seuil qui répondra à cette entrée. Il est important de noter:
a) Le signal d'entrée n'est pas forcément connu à l'avance,
b) le signal d'entrée peut être noyé dans du bruit aléatoire,
et c) le dispositif à seuil répond à une configuration s", qui n'est pas forcément connue à l'avance. (Avec l'algorithme précédent, la composante la plus large de la réponse r", détermine celui des dispositifs qui répond ). Par une simple variation, un dispositif à seuil peut être désigné pour répondre à une configuration particulière. Avec l'addition des connexions latérales comme indiqué sur la figure 11, l'activation d'un seul dispositif à seuil en réponse à une configuration d'entrée s" supprimera alors la réponse des autres dispositifs à seuil à cette configuration d'entrée. Si le paramètre y est < 1 pendant la période d'instruction ou d'acquisition, et que s° >T,, alors la réponse à s" est modifiée du fait de l'action combinée de la décroissance ou détérioration (y <1) et des connexions latérales de sorte que seule la i*™1' composante de la réponse r" à l'entrée s" sera maintenue sensiblement supérieure à zéro. Dans l'état final on aura:
s" >rj >Tj > signal de sortie.
Ainsi, un seul (ou plusieurs si cela est désiré) des dispositifs à seuil peut répondre à une seule configuration d'entrée. En outre, il n'est pas souhaitable de modifier davantage (tout en permettant cependant la décroissance) les unités de liaison associéeSfivec le itmo dispositif à seuil (li, 2i,. . . Ni), quand ce ilmc dispositif produit une réponse en excès par rapport à un maximum spécifié. Cela peut être réalisé en abandonnant les modifications dans les unités de liaison pour un nombre fixé d'événements chaque fois que la réponse dépasse un maximum spécifié.
Si un tel système reçoit des signaux séparés ou orthogonaux pendant une période d'instruction, les dispositifs à seuil, avec la rapidité exponentielle montrée précédemment, peuvent être excités par les différentes configurations d'entrée.
Ainsi, par exemple, N signaux d'entrée orthogonaux répétés, après une période d'instruction, produisent une réponse dans N différents dispositifs à seuil.
De cette façon, les dispositifs à seuil peuvent apprendre à
S
10
15
20
25
Mi
35
40
45
50
55
60
'j5
14
620 307
répondre à des caractéristiques répétées d'un environnement même si celles-ci sont inconnues de l'utilisateur.
En outre, l'association de ces dispositifs avec des configurations de sortie d'un module précédent peuvent servir à la séparation des événements ou vecteurs mentionnés ci-dessus.
En conclusion, à partir de l'explication théorique qui vient d'être mise en avant, on peut noter que le module «Nestor» est un outil très puissant pour le traitement de l'information. En particulier, ce module a la possibilité de pouvoir reconnaître, retrouver, généraliser et associer sans nécessiter l'intervention d'un facteur humain, pour prendre une décision ou pour apprendre.
Un mode préférentiel de réalisation spécifique du module «Nestor» va être maintenant décrit, module qui utilise seulement des éléments de circuits classiques tels que des résistances, des condensateurs, des diodes et des transistors, et qui se prête lui-même à la miniaturisation selon des techniques connues.
Il est nécessaire de rappeler qu'un réseau appelé «nouveron» de la figure 2, comprend N entrées 1 ... j... N conduisant respectivement, N signaux S] . .. Sj. . . sN à N unités de liaison il ... ij,..., iN reliées à un additionneur 2, qui produit un signal de sortie (réponse) rj. La ij>me unité de liaison a une fonction de transfert A^, c'est-à-dire que le signal à la sortie de cette unité de liaison est s'j = AySj.
Dans le mode de réalisation préférentiel qui va être décrit on suppose que les signaux Sj, s'j et rj sont dans tous les cas des niveaux de tension électrique. Il est bien évident que ces signaux peuvent être représentés par des fréquences, des largeurs d'impulsions, des courants, des champs magnétiques, etc. et même des combinaisons de ceux-ci.
Cependant, si on suppose que les signaux d'information sont représentés par des tensions, la fonction de transfert Ajj peut être vue en tant que «amplification», c'est-à-dire amplification qui est à modifier en fonction du signal d'entrée Sj de l'unité de liaison, et de la réponse rs du réseau «nouveron» correspondant. Dans un algorithme préférentiel, la fonction qui modifie l'amplification est représentée par l'équation:
ÔAjj = îirjSj (5)
Pour réaliser un amplificateur, dont le gain est commandé par incrémentation, il est nécessaire de disposer d'un stockage de l'information du gain antérieur, et de moyens pour additionner ou soustraire des incréments à partir de l'information stockée. La fonction de stockage est réalisée dans ce mode de réalisation par un seul élément, tel qu'un condensateur, pour stocker une charge électrique Q. La fonction d'incrémentation est par conséquent réalisée par un appareil qui permet de faire varier la charge Q de 0 à + Q0 ou — Q0, limites de l'élément de stockage.
A la figure 12 est représentée la ijbm" unité de liaison 100 du ito; réseau «nouveron» 102 d'un module «Nestor». Une source de tension 104 applique une tension Vy par un conducteur 106 à un amplificateur 108 pour commander son gain Ajj. L'amplificateur 108 par conséquent change ou modifie le signal de tension Sj d'entrée apparaissant sur le conducteur 110, et produit une tension de sortie s'j — AjjSj sur le conducteur de sortie 112.
La tension Vy, qui régule le gain de l'amplificateur, est dérivée de la charge stockée dans la ij'""1 unité de liaison, et par conséquent est proportionnelle à la charge Qy. Les lignes poin-tillées 114 et 116 indiquent respectivement, que cette charge peut varier (augmenter ou diminuer) en fonction du signal d'entrée Sj apparaissant sur le conducteur 110 et de la réponse r; apparaissant sur le conducteur 118. (Le conducteur 116 allant vers la source 104 indique symboliquement l'idée de la contre-réaction apportée par la réponse rj; dans la présente réalisation cette contre-réaction permet de modifier la largeur des impulsions d'entrée s,, s2..sN, voir figure 14).
Pour modifier Qy, et par conséquent Vy et An = s'j/sj en fonction de l'équation (5), ci-dessus, il est nécessaire de modifier la charge Qy par le produit rjSj. Il faut noter que les N charges du ibmc réseau «nouveron», c'est-à-dire Qn, Qj2 ...,
s Qjj • •Qîn doivent être modifiées proportionnellement aux entrées respectives S[, s2 . .. Sj..., sN, et à la réponse commune rj dudit réseau. Pour achever la modification désirée, en utilisant comme signal d'entrée Sj une impulsion de tension 120, on rend la largeur tj de cette impulsion proportionnelle à lr,l. Si rr<0, 1() l'impulsion 120 est inversée. Ainsi,
ÔQjj ~ sjt„
- t, ~ lijl ij_ _ +1 pas d'inversion
Irjl —1 inversion
Les détails des circuits du réseau «nouveron» 102 et de l'unité de liaison 100 (Fig. 12) sont représentés schématique-ment sur les figures 13 et 14. L'additionneur 122 du circuit «nouveron» 102 est représenté comme un additionneur classique utilisant un amplificateur opérationnel 124 recevant les signaux d'entrée s'b s'2 ..., s'j..., s'N par l'intermédiaire de résistances 126,128 .. ., 130 ..., 132 respectivement, de valeurs égales. L'amplificateur opérationnel comprend une résistance 134 montée d'une façon connue en soi, et fournit une *" réponse rj sur le conducteur 136, réponse qui est proportionnelle à la somme des différents signaux s'j, s'2 ..., s'j. .. s'N qui représentent les sorties de chaque unité de liaison du réseau «nouveron» 102.
La réponse ^ est réappliquée par une contre-réaction 138 à chaque unité de liaison du réseau «nouveron».
La ijftme unité de liaison représentée sur la figure 14 reçoit un signal d'entrée Sj sur le conducteur 110 et produit son signal de sortie s'j sur un conducteur 112. La j*™' entrée a la forme d'une 35 impulsion d'une amplitude Sj (qui peut être soit positive soit négative) et une impulsion de largeur standard déterminée par un processeur d'entrée PE (Fig. 4) ou buffer qui relie l'unité de liaison, le réseau «nouveron» et le module «Nestor» au monde extérieur (environnement). Les processeurs d'entrée et de sortie utilisés avec le module «Nestor» ne faisant pas partie intégrante de l'invention, ne sont pas par conséquent décrits en détail. La construction d'un processeur d'entrée dépendra, naturellement, du type d'événements qui doivent être représentés dans le module «Nestor», alors que le processeur de sortie sera cons-45 truit en fonction des objectifs ultérieurs du système, c'est-à-dire, l'action à entreprendre en réponse aux signaux de sortie du module «Nestor».
Il suffit de savoir que le processeur d'entrée applique une pluralité d'impulsions d'entrée aux bornes d'entrée, 1,2..., j..N du module «Nestor». Les impulsions d'entrée, qui sont appliquées simultanément pour chaque événement, ont toutes une largeur standard (plusieurs microsecondes), et ont des amplitudes proportionnelles aux variables sl5 s2 .. ., Sj. .., sN, respectivement, qui doivent être traitées. Les amplitudes des 55 impulsions peuvent être négatives pour indiquer les valeurs négatives des signaux Sj, s2 ..., Sj..., sN.
Sur la figure 14, l'impulsion d'entrée d'amplitude Sj est appliquée à un modulateur de largeur d'impulsion 140 qui simultanément reçoit un signal ^ sur un conducteur 138 prove-m nant de la sortie de l'additionneur 2, (Fig. 2 et 12), c'est-à-dire du dispositif 124 représenté sur la figure 13. Le signal rt est le résultat de la sommation exécutée par l'additionneur 2; sur les signaux de sortie s'j des unités de liaison.
Le modulateur 140 transmet une impulsion sur un conduc-teur 142, impulsion qui a exactement la même amplitude que l'impulsion d'entrée sur le conducteur 110 (mais inversée si r;<0), et une largeur d'impulsion tj proportionnelle à la variable Irjl.
15
620 307
Les impulsions positives et négatives apparaissant sur le conducteur 142 à la sortie du modulateur 140, sont amplifiées et séparées suivant leur polarité par un amplificateur opérationnel 144 associé avec des résistances 146,148,150 et des diodes 152 et 154. Si une impulsion apparaissant sur le conducteur 142 est positive, elle est dirigée vers un conducteur 156 en tant qu'impulsion positive, si elle est négative, elle est acheminée vers un conducteur 158 en tant qu'impulsion négative. Positive ou négative, la surface de l'impulsion est proportionnelle à la valeur absolue du produit Sj par rj.
Les impulsions positives sur le conducteur 156 sont dirigées vers un amplificateur opérationnel inverseur 160, qui comprend des résistances 162,164 et 166 et dont la sortie est reliée à la base d'un transistor PNP 168. Les impulsions arrivant sur la base du transistor 168, ont la polarité appropriée pour mettre en état de conduction ce transistor, et charger ou décharger un condensateur 170 à travers une résistance 172. La quantité de charges stockées ou enlevées du condensateur 170 par chaque impulsion positive est proportionnelle au produit de l'amplitude de l'impulsion, qui détermine l'état de conduction du transistor 168, par la largeur de l'impulsion, qui détermine la durée de charge ou de décharge.
Les impulsions négatives sur le conducteur 158 sont appliquées à l'amplificateur opérationnel inverseur 174, qui comprend des résistances 176,178 et 180. D'une façon analogue, la sortie de l'amplificateur 174 attaque un transistor NPN 182 qui est donc commandé par des impulsions négatives inversées (c'est-à-dire positives). Le condensateur 170 est par conséquent déchargé ou chargé à travers une résistance 184. La quantité de charges enlevées ou ajoutées au condensateur 170 par chaque impulsion négative est proportionnelle au produit de l'amplitude d'impulsion, qui détermine l'état de conduction du transistor 182, par la largeur de l'impulsion, qui détermine la durée de charge ou de décharge.
Ainsi, la charge Qy aux bornes du condensateur 170, et, de ce fait, la tension Vy, est le résultat d'un état de charge initial, qui peut être présent à la borne d'entrée 186 avant que l'unité de liaison soit en fonctionnement, et la somme totale de tous les incréments et décréments qui apparaissent en tant que résultat de l'application répétée d'impulsions sur le conducteur d'entrée 110. On peut noter que la condensateur 170 peut être chargé suivant une polarité positive ou négative, à l'intérieur des limites de tension positive et négative associées à la source de puissance.
De façon à permettre à l'unité de liaison d'oublier l'information stockée sur une période de temps, la tension Vy peut être amenée à décroître à un rythme approprié. Ce rythme de décroissance est fonction de la constante de décroissance y, avec un temps de décroissance infini (circuit ouvert) si y = 1, et un temps de décroissance nul (court-circuit) si y=0. Les valeurs de y voisines de 1 sont d'un grand intérêt dans la pratique, si bien que la constante de décroissance peut être suffisamment grande. A cette fin, les valeurs appropriées du condensateur 170, de la résistance ou de l'impédance de tous les éléments du circuit sont déterminées pour obtenir des constantes de temps désirées.
Finalement, la tension Vy aux bornes du condensateur 170 est appliquée par un conducteur 192 à une entrée de commande d'un amplificateur 194 à gain commandé. Si nécessaire, un étage amplificateur peut être inséré entre le condensateur 170 et l'amplificateur 194. On choisit une impédance d'entrée élévée pour l'amplificateur 194 de façon à obtenir la constante de décroissance souhaitée. L'amplificateur 194 reçoit également les impulsions d'amplitude Sj du conducteur 110, et amplifie ces impulsions, suivant la valeur du gain, de façon à obtenir des impulsions de sortie ayant une amplitude s'j sur le conducteur de sortie 112.
Le traitement des signaux d'entrée Sj par les sorties des additionneurs est représenté sur la figure 15. On peut noter tout d'abord que le signal de sortie ^ peut être positif, négatif, ou nul, qu'il provient de la sortie de l'additionneur 122 de la figure 12, et qu'il se présente sous forme d'impulsions. Bien que cette forme d'onde puisse être satisfaisante pour les processeurs de sortie attachés au conducteur 136 de la figure 13, l'opération de contre-réaction s'effectue, de préférence, dans le mode de réalisation représenté si ^ est un signal quasiment continu. Pour cela, la contre-réaction indiquée sur le conducteur 138 des figures 13 et 14, est reliée à un dispositif 196 de «réglage et de maintien» sur la figure 15. Ce dispositif 196 a pour but d'allonger la durée de chaque impulsion de r, pour une période approximativement égale au temps séparant deux impulsions consécutives, sans pour cela changer l'amplitude de l'impulsion. Comme cela est représenté sur la figure 15, le dispositif 196 est commandé par les signaux d'entrée Sj à travers un trigger 198 qui peut comprendre des circuits d'amplification, de mise en forme, etc.
d'une façon connue en soi). Les signaux de sortie r„ sous forme d'impulsions, sont ainsi convertis en un signal essentiellement continu variant dans le temps, que l'on dénommera r'j. Le signal r'i est à son tour appliqué à un redresseur double alternance 200, puis à un convertisseur 202 «tension-largeur d'impulsion». Ainsi, le signal quasiment continu positif (ou nul) au point 204 est appliqué au convertisseur 202. Ce convertisseur, commandé par le trigger 198, produit des impulsions d'une largeur et d'une hauteur standard, la largeur étant petite comparée à celle des impulsions d'entrée Sj. La fonction du signal r'j est d'élargir ces impulsions étroites (produites par le convertisseur 202) proportionnellement à l'amplitude de r';. Les impulsions d'amplitude constante produites par le convertisseur 202 sont appliquées à un autre dispositif 206 «réglage et maintien», et à une porte 208. Les signaux d'entrée Sj, initialement d'une largeur d'impulsion standard, entrent dans le premier dispositif 206 qui élargit cette largeur d'impulsion à la valeur, proportionnelle à r';, des impulsions produites par le convertisseur 202. Les signaux d'entrée Sj passent alors par la porte 208, qui reste passante pour la même durée, durée déterminée par la largeur d'impulsion définie par le convertisseur 202. Si à cause d'une faible amplitude du signal r^ la largeur de ces dernières impulsions est réduite à une valeur en-dessous de la largeur standard de Sj, la porte 208 reste passante seulement pour la durée réduite des impulsions du convertisseur 202. C'est le temps d'ouverture de la porte 208 qui détermine alors la largeur des signaux d'entrée Sj.
De façon à garder le signe algébrique du produit s^, comme le souhaite la théorie, le signal r'j est amené à partir du point 210 (où apparaissent encore les deux polarités) vers un interrupteur 212. Cet interrupteur inverse le signal d'entrée Sj si r'j est négatif, et permet le passage du signal Sj avec sa polarité si r', est positif. L'interrupteur 212 a été placé sur la figure 15 après la porte 208 de façon à permettre une meilleure description. Cependant, techniquement, il est préférable que cet interrupteur soit placé avant le dispositif 206.
Enfin, une porte ET 214 est montée entre le point 204 et la porte 208 pour supprimer le passage d'un signal d'entrée (et par conséequent du produit s^) si r'j est trop petit pour commander une largeur d'impulsion plus petite que la largeur d'impulsion standard produite par le convertisseur 202. Il est à noter qu'une discontinuité apparaît ainsi dans le produit s^ entre la valeur déterminée par les impulsions les plus étroites produites par le convertisseur 202, et zéro. Une telle caractéristique peut être simplement rattachée d'une façon générale à la notion de bruit, et comme on peut le déduire de la théorie, le module «Nestor» est particulièrement invulnérable au bruit ou au mauvais fonctionnement des composantes. En outre, il est bien connu dans le domaine des circuits électroniques d'apporter des améliorations au rapport signal-bruit en général, et en particulier de réduire la discontinuité indiquée ci-dessus.
5
10
15
20
25
30
35
40
45
50
55
60
65
620 307
16
On peut également noter que du fait que les modifications de la fonction de transfert Ay dépendent seulement des signaux d'entrée et de la réponse du réseau «nouveron» dont l'unité de liaison fait partie, les largeurs d'impulsion et la possibilité d'inversion dues à Irjl et r/lrj appliquées de la même façon à chacun des signaux en forme d'impulsions slf s2 ..sN font partie du réseau «nouveron». Par conséquent, la plupart des circuits électroniques de la figure 15, sont utilisés au même moment par toutes les unités de liaison d'un réseau «nouveron» et une seule fois pour chaque réseau «nouveron».
Bien que le mode de réalisation qui vient d'être décrit fait état de l'utilisation de signaux et de charges électriques supportant le contenu de l'information d'un système de traitement, d'autres techniques de représentation des signaux et du stockage 5 de l'information peuvent être utilisées. En outre, l'algorithme défini pour les modifications de la fonction de transfert des unités de liaison peut ne pas être nécessairement limité au quatrième terme du développement de Taylor, c'est-à-dire le terme de l'équation (5) précédente. On pourrait naturellement Hl prendre d'autres termes du développement tels que le sixième terme, qui donneraient des résultats aussi efficaces.
C
8 feuilles dessins

Claims (41)

620 307
1. Installation de traitement de l'information auto-adaptatrice comprenant au moins un module ayant plusieurs bornes d'entrée (1, 2;..j;..N) destinées à recevoir respectivement, des signaux d'entrée (slt s2, . . . Sj, ... N) et plusieurs bornes de sortie ( 1, 2;... i, .. .n) destinées à fournir des signaux de sortie (rb r2, . • • r;, ... rn), caractérisée en ce que le module comporte des unités de liaison (il, i2;. .. ij; . .. iNl ; 100) reliées chacune entre une borne d'entrée du module et l'entrée d'un élément additionneurs,, 22; ... 2^ . . . Z„; 122, 124)
dont la sortie est reliée à une borne de sortie du module, et délivrant chacune un signal intermédiaire (s' u s' 2, • • •
s'j,.. . s'N) en fonction de sa fonction de transfert (Au, Al2, .. . A,j, ... AlN) et du signal apparaissant à la borne d'entrée à laquelle elle est reliée, des circuits (104,108; 194) étant prévus dans une au moins des unités de liaison pour permettre de modifier sa fonction de transfert en fonction du produit d'au moins un signal d'entrée et un signal de sortie, lorsque l'information traitée est une information d'instruction.
2. Installation selon la revendication 1, caractérisée en ce que lesdits circuits permettant de modifier la fonction de transfert (A,j) comprennent un amplificateur à gain (194).
2
REVENDICATIONS
3
620 307
fournissant, aux circuits de stockage, une impulsion de sortie dont l'amplitude est égale à l'amplitude de l'impulsion d'entrée et dont la largeur (t;) est proportionnelle à la valeur absolue du signal de sortie, la polarité de l'impulsion de sortie étant égale à celle du signal de sortie.
3. Installation selon la revendication 1, caractérisée en ce qu'elle comprend au moins un élément à seuil (T1; T2, ... T., ... T„) dont l'entrée est reliée à au moins une borne de sortie du module afin de ne laisser passer le signal de sortie associé à cette borne que lorsqu'il dépasse le seuil de l'élément.
4. Installation selon la revendication 1, caractérisée en ce qu'elle comprend des circuits dont au moins une sortie est reliée à au moins une borne de sortie (1 ) pour transférer au moins une réponse spécifique déterminée (riA) appliquée à l'entrée des circuits et obtenir cette réponse spécifique à la borne de sortie.
5. Installation selon la revendication 1, caractérisée en ce que les circuits permettent de modifier la fonction de transfert comprennent des circuits permettant de réduire la valeur de la fonction de transfert (Ajj) de l'unité de liaison suivant une décroissance ayant un rythme déterminé.
6. Installation selon la revendication 5, caractérisée en ce que le rythme de décroissance est constant.
7. Installation selon la revendication 1, caractérisée en ce que les signaux d'entrée (S[, s2, .. . Sj,.. . sN) et les signaux de sortie (rb r2, ... r^ . .. rn) sont des niveaux de tension.
8. Installation selon la revendication 1, caractérisée en ce que chaque unité de liaison comprend des circuits de stockage (144,160,168,170,172) de la fonction de transfert associée à ladit unité de liaison.
9. Installation selon la revendication 8, caractérisée en ce que les circuits de stockage comprennent un circuit (170) pouvant emmagasiner des charges électriques.
10. Installation selon la revendication 9, caractérisée en ce que ledit circuit est un condensateur.
11. Installation selon la revendication 1, caractérisée en ce que les circuits permettent de modifier la fonction de transfert comprennent des circuits permettant d'ajouter des incréments (ÔAy) à la fonction de transfert (Ay) associée.
12. Installation selon la revendication 1, caractérisée en ce que le nombre de bornes de sortie est égal au nombre de bornes d'entrée.
13. Installation selon la revendication 1, caractérisée en ce que le nombre de bornes de sortie est inférieur au nombre de bornes d'entrée.
14. Installation selon la revendication 1, caractérisée en ce que le nombre de bornes de sortie est supérieur au nombre de bornes d'entrée.
15 neurs (2b 22,... 2N) excepté celui associé audit élément à seuil (T,), afin de supprimer tous les signaux de sortie (rb r2, ... rn) excepté le signal de sortie (r,) appliqué à l'entrée dudit élément à seuil (Tj).
15. Installation selon la revendication 1, caractérisée en ce que au moins une unité de liaison est reliée à chacune des bornes d'entrée.
16. Installation selon la revendication 1, caractérisée en ce que chacune des bornes de sortie est reliée à au moins une unité de liaison.
17. Installation selon la revendication 1, caractérisée en ce s que au moins une unité de liaison est reliée à chaque borne d'entrée, et en ce que chaque borne de sortie est reliée à au moins une unité de liaison.
18. Installation selon la revendication 1, caractérisée en ce que chacune des bornes d'entrée est reliée à au moins une des i» bornes de sortie par l'intermédiaire d'au moins une unité de liaison.
19. Installation selon la revendication 3, caractérisée en ce qu'elle comprend des circuits permettant de relier la sortie d'un élément à seuil (Tj) à une entrée de tous les éléments addition-
20. Installation selon la revendication 1, caractérisée en ce
2o qu'elle comprend des circuits pour interrompre sélectivement le fonctionnement des circuits permettant de modifier la fonction de transfert, de sorte que l'installation peut fonctionner comme une mémoire pure.
21. Installation selon la revendication 1, caractérisée en ce
22. Installation selon la revendication 1, caractérisée en ce qu'elle comprend des circuits de stockage pour stocker une
3o fonction de transfert d'au moins une unité de liaison, et des circuits dont les entrées sont reliées aux sorties des circuits de stockage et dont les sorties sont reliées aux entrées d'au moins une unité de liaison pour transférer sélectivement une fonction de transfert préalablement stockée dans au moins une unité de
23. Installation selon la revendication 1, comprenent plusieurs modules, caractérisée en ce que au moins deux modules sont montés en série.
24. Installation selon la revendication 1, comprenant plu-
25. Installation selon la revendication 1, comprenant plusieurs modules, caractérisée en ce que les bornes de sortie d'au moins un module sont reliées aux bornes d'entrée d'au moins un
45 autre module de façon aléatoire.
25 qu'elle comprend des moyens pour ajuster la fonction de transfert (Ajj) d'au moins une unité de liaison (ij) à une valeur prédéterminée souhaitée.
26. Installation selon la revendication 1, comprenant plusieurs modules, caractérisée en ce que les bornes de sortie d'au moins deux modules sont reliées aux bornes d'entrée d'au moins un autre module, de sorte qu'au moins deux modules sont reliés so en série à au moins un troisième module.
27. Installation selon la revendication 1, comprenant plusieurs modules, caractérisée en ce que le nombre de bornes de sortie d'au moins un module est plus grand que le nombre total des bornes d'entrée d'au moins un autre module.
55
28. Installation selon la revendication 1, comprenant plusieurs modules, caractérisée en ce que le nombre des bornes de sortie d'au moins un module est égal au nombre des bornes d'entrée d'au moins un autre module.
29. Installation selon la revendication 1, comprenant plu-
60 sieurs modules, caractérisée en ce que le nombre de bornes de sortie d'au moins un module est inférieur au nombre total des bornes d'entrée d'au moins un autre module.
30. Installation selon les revendications 9 et 11, caractérisée en ce que les circuits permettant d'ajouter un incrément (ÔAy) à
65 la fonction de transfert (Ay) comprennent un modulateur (140) recevant une impulsion d'entrée (s;), constituant le signal d'entrée de l'unité de liaison, et le signal de sortie fc) délivré par l'élément additionneur auquel l'unité de liaison est reliée et
31. Installation selon la revendication 1, comprenant plusieurs modules, caractérisée en ce que le nombre des bornes de sortie d'une module est égal au nombre de ses bornes d'entrée.
32. Installation selon la revendication 1, comprenant plusieurs modules, caractérisée en ce que le nombre de sortie d'un module est inférieur au nombre de ses bornes d'entrée.
33. Installation selon la revendication 1, comprenant plusieurs modules, caractérisée en ce que le nombre des bornes de sortie d'un module est suppérieur au nombre de ses bornes d'entrée.
34. Installation selon la revendication 1, comprenant plusieurs modules, caractérisée en ce que au moins une unité de liaison d'au moins un module est reliée à chacune des bornes d'entrée du module.
35. Installation selon la revendication 1, comprenant plusieurs modules, caractérisée en ce que chaque borne de sortie d'au moins un module est reliée à au moins une unité de liaison.
35 liaison.
36. Procédé de mise en action de l'installation selon la revendication 1, caractérisé en ce qu'il consiste à modifier la fonction de transfert (A;j ) d'au moins une unité de liaison au moyen d'un signal de commande formé en multipliant au moins un des signaux d'entrée (sj) par un signal de sortie.
37. Procédé selon la revendication 36, caractérisé en ce que le signal de commande est formé en multipliant le signal d'entrée (sj) de l'unité de liaison par le signal de sortie de l'élément additionneur auquel est reliée cette unité de liaison.
38. Procédé selon la revendication 36, caractérisé en ce qu'il consiste à produire au niveau des bornes de sortie plusieurs signaux de sortie (rj, r2, .. . r;, ... r„), chaque signal (rj) étant déterminé à partir d'au moins un des signaux intermédiaire (s'j).
39. Procédé selon la revendication 36, caractérisé en ce qu'il consiste à produire plusieurs signaux de sortie (rt, r2, ... r„
... rn), chaque signal (r;) étant délivré par un élément additionneur dont les entrées reçoivent plusieurs signaux intermédiaires (S'j)-
40. Procédé selon les revendications 38 et 39, caractérisé en ce qu'il consiste à supprimer tous les signaux de sortie exepté au moins un signal (rj) dont la valeur dépasse une valeur déterminée par des circuits à seuil (Ti) dont les entrées sont reliées aux bornes de sortie.
40 sieurs modules, caractérisée en ce que au moins deux modules sont montés en parallèle.
41. Procédé selon la revendication 36, caractérisé en ce qu'il consiste à transférer au moins une des fonctions de transfert (Ay) dans au moins un dispositif à mémoire.
CH735975A 1974-06-06 1975-06-05 CH620307A5 (fr)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US05/477,080 US3950733A (en) 1974-06-06 1974-06-06 Information processing system

Publications (1)

Publication Number Publication Date
CH620307A5 true CH620307A5 (fr) 1980-11-14

Family

ID=23894450

Family Applications (1)

Application Number Title Priority Date Filing Date
CH735975A CH620307A5 (fr) 1974-06-06 1975-06-05

Country Status (11)

Country Link
US (1) US3950733A (fr)
JP (1) JPS6012671B2 (fr)
CA (1) CA1042109A (fr)
CH (1) CH620307A5 (fr)
DE (1) DE2524734C3 (fr)
ES (3) ES436945A1 (fr)
FR (1) FR2274088A1 (fr)
GB (1) GB1457338A (fr)
IT (1) IT1036906B (fr)
MX (1) MX143269A (fr)
NL (1) NL176313C (fr)

Families Citing this family (132)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5272504A (en) * 1975-12-15 1977-06-17 Fuji Xerox Co Ltd Device for recognizing word audio
US4044243A (en) * 1976-07-23 1977-08-23 Nestor Associates Information processing system
US4218733A (en) * 1978-11-13 1980-08-19 Sybron Corporation Adaptive gain controller
US4308522A (en) * 1979-03-19 1981-12-29 Ncr Corporation Identity verification apparatus and method
US4254474A (en) * 1979-08-02 1981-03-03 Nestor Associates Information processing system using threshold passive modification
US4326259A (en) * 1980-03-27 1982-04-20 Nestor Associates Self organizing general pattern class separator and identifier
JPS5752261A (en) * 1980-09-11 1982-03-27 Canon Inc Character processor
US4450530A (en) * 1981-07-27 1984-05-22 New York University Sensorimotor coordinator
US4479241A (en) * 1981-08-06 1984-10-23 Buckley Bruce S Self-organizing circuits for automatic pattern recognition and the like and systems embodying the same
JPH0658665B2 (ja) * 1982-05-21 1994-08-03 株式会社日立製作所 イメージ信号処理装置
US5297222A (en) * 1982-05-04 1994-03-22 Hitachi, Ltd. Image processing apparatus
US4518866A (en) * 1982-09-28 1985-05-21 Psychologics, Inc. Method of and circuit for simulating neurons
US4599692A (en) * 1984-01-16 1986-07-08 Itt Corporation Probabilistic learning element employing context drive searching
US4593367A (en) * 1984-01-16 1986-06-03 Itt Corporation Probabilistic learning element
US4620286A (en) * 1984-01-16 1986-10-28 Itt Corporation Probabilistic learning element
US4599693A (en) * 1984-01-16 1986-07-08 Itt Corporation Probabilistic learning system
US4648044A (en) * 1984-06-06 1987-03-03 Teknowledge, Inc. Basic expert system tool
US4697242A (en) * 1984-06-11 1987-09-29 Holland John H Adaptive computing system capable of learning and discovery
JPS619729A (ja) * 1984-06-26 1986-01-17 Toshiba Corp 推論システム
US4660166A (en) * 1985-01-22 1987-04-21 Bell Telephone Laboratories, Incorporated Electronic network for collective decision based on large number of connections between signals
US4760604A (en) * 1985-02-15 1988-07-26 Nestor, Inc. Parallel, multi-unit, adaptive, nonlinear pattern class separator and identifier
US4670848A (en) * 1985-04-10 1987-06-02 Standard Systems Corporation Artificial intelligence system
US4967340A (en) * 1985-06-12 1990-10-30 E-Systems, Inc. Adaptive processing system having an array of individually configurable processing components
US5060277A (en) * 1985-10-10 1991-10-22 Palantir Corporation Pattern classification means using feature vector regions preconstructed from reference data
US5077807A (en) * 1985-10-10 1991-12-31 Palantir Corp. Preprocessing means for use in a pattern classification system
JPH0634236B2 (ja) * 1985-11-02 1994-05-02 日本放送協会 階層型情報処理方法
WO1987003399A1 (fr) * 1985-11-27 1987-06-04 The Trustees Of Boston University Systeme de reconnaissance de formes
EP0247163B1 (fr) * 1985-11-27 1992-02-05 Trustees Of Boston University Systeme de codage de formes
US4802103A (en) * 1986-06-03 1989-01-31 Synaptics, Inc. Brain learning and recognition emulation circuitry and method of recognizing events
US4752890A (en) * 1986-07-14 1988-06-21 International Business Machines Corp. Adaptive mechanisms for execution of sequential decisions
GB8619452D0 (en) * 1986-08-08 1986-12-17 Dobson V G Signal generating & processing
US4852018A (en) * 1987-01-07 1989-07-25 Trustees Of Boston University Massively parellel real-time network architectures for robots capable of self-calibrating their operating parameters through associative learning
US5224066A (en) * 1987-03-16 1993-06-29 Jourjine Alexander N Method and apparatus for parallel implementation of neural networks
US5053974A (en) * 1987-03-31 1991-10-01 Texas Instruments Incorporated Closeness code and method
US4881178A (en) * 1987-05-07 1989-11-14 The Regents Of The University Of Michigan Method of controlling a classifier system
US5526298A (en) * 1987-06-10 1996-06-11 Hamamatsu Photonics K.K. Optical associative memory
US4807168A (en) * 1987-06-10 1989-02-21 The United States Of America As Represented By The Administrator, National Aeronautics And Space Administration Hybrid analog-digital associative neural network
US4858147A (en) * 1987-06-15 1989-08-15 Unisys Corporation Special purpose neurocomputer system for solving optimization problems
US4809223A (en) * 1987-06-18 1989-02-28 West Virginia University Apparatus and method for long term storage of analog signals
WO1988010474A1 (fr) * 1987-06-18 1988-12-29 University Of West Virginia Procede et reseau neural analogique d'etats
US4914708A (en) * 1987-06-19 1990-04-03 Boston University System for self-organization of stable category recognition codes for analog input patterns
US5133021A (en) * 1987-06-19 1992-07-21 Boston University System for self-organization of stable category recognition codes for analog input patterns
US5251269A (en) * 1987-07-15 1993-10-05 Research Development Corporation Of Japan Multi-layer neural network modelled after the striate cortex for recognizing visual patterns
US5072452A (en) * 1987-10-30 1991-12-10 International Business Machines Corporation Automatic determination of labels and Markov word models in a speech recognition system
US5285522A (en) * 1987-12-03 1994-02-08 The Trustees Of The University Of Pennsylvania Neural networks for acoustical pattern recognition
EP0327817B1 (fr) * 1988-01-11 1996-08-28 Yozan Inc. Système de conversion de forme associative et méthode d'adaptation de ce système
US4874963A (en) * 1988-02-11 1989-10-17 Bell Communications Research, Inc. Neuromorphic learning networks
US4958375A (en) * 1988-02-17 1990-09-18 Nestor, Inc. Parallel, multi-unit, adaptive pattern classification system using inter-unit correlations and an intra-unit class separator methodology
US4893255A (en) * 1988-05-31 1990-01-09 Analog Intelligence Corp. Spike transmission for neural networks
US5050095A (en) * 1988-05-31 1991-09-17 Honeywell Inc. Neural network auto-associative memory with two rules for varying the weights
US4931868A (en) * 1988-05-31 1990-06-05 Grumman Aerospace Corporation Method and apparatus for detecting innovations in a scene
US4926064A (en) * 1988-07-22 1990-05-15 Syntonic Systems Inc. Sleep refreshed memory for neural network
WO1990002381A1 (fr) * 1988-08-31 1990-03-08 Fujitsu Limited Ordinateur neuronal
US5063601A (en) * 1988-09-02 1991-11-05 John Hayduk Fast-learning neural network system for adaptive pattern recognition apparatus
US4979124A (en) * 1988-10-05 1990-12-18 Cornell Research Foundation Adaptive, neural-based signal processor
US4914604A (en) * 1988-10-07 1990-04-03 Hughes Aircraft Company Processor for analyzing angle-only data
US5093781A (en) * 1988-10-07 1992-03-03 Hughes Aircraft Company Cellular network assignment processor using minimum/maximum convergence technique
US5003490A (en) * 1988-10-07 1991-03-26 Hughes Aircraft Company Neural network signal processor
US5001631A (en) * 1988-10-07 1991-03-19 Hughes Aircraft Company Cellular network assignment processor using randomly triggered adaptive cell thresholds
US4930099A (en) * 1988-10-07 1990-05-29 Hughes Aircraft Company Wavefront vector correlation processor and method
US4920506A (en) * 1988-10-07 1990-04-24 Hughes Aircraft Company Ultra-high speed two-dimensional coordinate transform processor
US4951239A (en) * 1988-10-27 1990-08-21 The United States Of America As Represented By The Secretary Of The Navy Artificial neural network implementation
US4906865A (en) * 1988-12-09 1990-03-06 Intel Corporation Sample and hold circuit for temporal associations in a neural network
US4914603A (en) * 1988-12-14 1990-04-03 Gte Laboratories Incorporated Training neural networks
US4912649A (en) * 1988-12-14 1990-03-27 Gte Government Systems Corporation Accelerating learning in neural networks
US4912652A (en) * 1988-12-14 1990-03-27 Gte Laboratories Incorporated Fast neural network training
US4912653A (en) * 1988-12-14 1990-03-27 Gte Laboratories Incorporated Trainable neural network
US4912651A (en) * 1988-12-14 1990-03-27 Gte Laboratories Incorporated Speeding learning in neural networks
US4912655A (en) * 1988-12-14 1990-03-27 Gte Laboratories Incorporated Adjusting neural networks
US4912647A (en) * 1988-12-14 1990-03-27 Gte Laboratories Incorporated Neural network training tool
US4912654A (en) * 1988-12-14 1990-03-27 Government Systems Corporation Gte Neural networks learning method
JP2676397B2 (ja) * 1989-01-05 1997-11-12 株式会社エイ・ティ・アール視聴覚機構研究所 動的システムの運動軌道生成方法
US4941122A (en) * 1989-01-12 1990-07-10 Recognition Equipment Incorp. Neural network image processing system
US4974169A (en) * 1989-01-18 1990-11-27 Grumman Aerospace Corporation Neural network with memory cycling
US5033020A (en) * 1989-02-08 1991-07-16 Grumman Aerospace Corporation Optically controlled information processing system
US5222195A (en) * 1989-05-17 1993-06-22 United States Of America Dynamically stable associative learning neural system with one fixed weight
US5119469A (en) * 1989-05-17 1992-06-02 United States Of America Neural network with weight adjustment based on prior history of input signals
US5041976A (en) * 1989-05-18 1991-08-20 Ford Motor Company Diagnostic system using pattern recognition for electronic automotive control systems
US4939683A (en) * 1989-05-19 1990-07-03 Heerden Pieter J Van Method and apparatus for identifying that one of a set of past or historical events best correlated with a current or recent event
US5479578A (en) * 1989-06-15 1995-12-26 General Electric Company Weighted summation circuitry with digitally controlled capacitive structures
US5146542A (en) * 1989-06-15 1992-09-08 General Electric Company Neural net using capacitive structures connecting output lines and differentially driven input line pairs
US5274745A (en) * 1989-07-28 1993-12-28 Kabushiki Kaisha Toshiba Method of processing information in artificial neural networks
US5319587A (en) * 1989-08-07 1994-06-07 Rockwell International Corporation Computing element for neural networks
US5361328A (en) * 1989-09-28 1994-11-01 Ezel, Inc. Data processing system using a neural network
JP2724374B2 (ja) * 1989-10-11 1998-03-09 株式会社鷹山 データ処理装置
JPH03167655A (ja) * 1989-11-28 1991-07-19 Toshiba Corp ニューラルネットワーク
US5299284A (en) * 1990-04-09 1994-03-29 Arizona Board Of Regents, Acting On Behalf Of Arizona State University Pattern classification using linear programming
JPH0438587A (ja) * 1990-06-04 1992-02-07 Nec Corp 入力領域適応型ニューラルネットワーク文字認識装置
US5151970A (en) * 1990-07-02 1992-09-29 General Electric Company Method of generating, in the analog regime, weighted summations of digital signals
US5247605A (en) * 1990-07-02 1993-09-21 General Electric Company Neural nets supplied synapse signals obtained by digital-to-analog conversion of plural-bit samples
US5251626A (en) * 1990-07-03 1993-10-12 Telectronics Pacing Systems, Inc. Apparatus and method for the detection and treatment of arrhythmias using a neural network
US5181171A (en) * 1990-09-20 1993-01-19 Atlantic Richfield Company Adaptive network for automated first break picking of seismic refraction events and method of operating the same
US5615305A (en) * 1990-11-08 1997-03-25 Hughes Missile Systems Company Neural processor element
JP3088171B2 (ja) * 1991-02-12 2000-09-18 三菱電機株式会社 自己組織型パタ−ン分類システム及び分類方法
US5239594A (en) * 1991-02-12 1993-08-24 Mitsubishi Denki Kabushiki Kaisha Self-organizing pattern classification neural network system
US5204872A (en) * 1991-04-15 1993-04-20 Milltech-Hoh, Inc. Control system for electric arc furnace
US5263122A (en) * 1991-04-22 1993-11-16 Hughes Missile Systems Company Neural network architecture
US5671335A (en) * 1991-05-23 1997-09-23 Allen-Bradley Company, Inc. Process optimization using a neural network
US5170071A (en) * 1991-06-17 1992-12-08 Trw Inc. Stochastic artifical neuron with multilayer training capability
US5963930A (en) * 1991-06-26 1999-10-05 Ricoh Company Ltd. Apparatus and method for enhancing transfer function non-linearities in pulse frequency encoded neurons
US5226092A (en) * 1991-06-28 1993-07-06 Digital Equipment Corporation Method and apparatus for learning in a neural network
US5337371A (en) * 1991-08-09 1994-08-09 Matsushita Electric Industrial Co., Ltd. Pattern classification system
US10361802B1 (en) 1999-02-01 2019-07-23 Blanding Hovenweep, Llc Adaptive pattern recognition based control system and method
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US5299285A (en) * 1992-01-31 1994-03-29 The United States Of America As Represented By The Administrator, National Aeronautics And Space Administration Neural network with dynamically adaptable neurons
US5438629A (en) * 1992-06-19 1995-08-01 United Parcel Service Of America, Inc. Method and apparatus for input classification using non-spherical neurons
EP0574937B1 (fr) * 1992-06-19 2000-08-16 United Parcel Service Of America, Inc. Méthode et dispositif pour classification d'entrée utilisant un réseau neuronal
GB9214514D0 (en) * 1992-07-08 1992-08-19 Massachusetts Inst Technology Information processing
US5479574A (en) * 1993-04-01 1995-12-26 Nestor, Inc. Method and apparatus for adaptive classification
US6167390A (en) * 1993-12-08 2000-12-26 3M Innovative Properties Company Facet classification neural network
JPH07239938A (ja) * 1994-02-28 1995-09-12 Matsushita Electric Ind Co Ltd 検査方法
US7469237B2 (en) * 1996-05-02 2008-12-23 Cooper David L Method and apparatus for fractal computation
US6041322A (en) * 1997-04-18 2000-03-21 Industrial Technology Research Institute Method and apparatus for processing data in a neural network
US7403922B1 (en) * 1997-07-28 2008-07-22 Cybersource Corporation Method and apparatus for evaluating fraud risk in an electronic commerce transaction
US7096192B1 (en) * 1997-07-28 2006-08-22 Cybersource Corporation Method and system for detecting fraud in a credit card transaction over a computer network
US6052679A (en) * 1997-09-11 2000-04-18 International Business Machines Corporation Artificial neural networks including Boolean-complete compartments
JP4147647B2 (ja) * 1998-11-09 2008-09-10 ソニー株式会社 データ処理装置およびデータ処理方法、並びに記録媒体
JP4517409B2 (ja) * 1998-11-09 2010-08-04 ソニー株式会社 データ処理装置およびデータ処理方法
US7966078B2 (en) 1999-02-01 2011-06-21 Steven Hoffberg Network media appliance system and method
US8364136B2 (en) 1999-02-01 2013-01-29 Steven M Hoffberg Mobile system, a method of operating mobile system and a non-transitory computer readable medium for a programmable control of a mobile system
JP4344964B2 (ja) * 1999-06-01 2009-10-14 ソニー株式会社 画像処理装置および画像処理方法
US7865427B2 (en) 2001-05-30 2011-01-04 Cybersource Corporation Method and apparatus for evaluating fraud risk in an electronic commerce transaction
JP2003010762A (ja) * 2001-06-28 2003-01-14 Konica Corp 塗布装置及び塗布方法
US8019705B2 (en) * 2003-03-24 2011-09-13 Fiske Software, LLC. Register and active element machines: commands, programs, simulators and translators
US8712942B2 (en) * 2003-03-24 2014-04-29 AEMEA Inc. Active element machine computation
US7398260B2 (en) * 2003-03-24 2008-07-08 Fiske Software Llc Effector machine computation
US8010467B2 (en) * 2003-03-24 2011-08-30 Fiske Software Llc Active element machine computation
US20060112056A1 (en) * 2004-09-27 2006-05-25 Accenture Global Services Gmbh Problem solving graphical toolbar
US7904398B1 (en) 2005-10-26 2011-03-08 Dominic John Repici Artificial synapse component using multiple distinct learning means with distinct predetermined learning acquisition times
US9152779B2 (en) 2011-01-16 2015-10-06 Michael Stephen Fiske Protecting codes, keys and user credentials with identity and patterns
US10268843B2 (en) 2011-12-06 2019-04-23 AEMEA Inc. Non-deterministic secure active element machine
CN114862075A (zh) * 2021-02-05 2022-08-05 核工业理化工程研究院 机械系统可靠性分配方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3275986A (en) * 1962-06-14 1966-09-27 Gen Dynamics Corp Pattern recognition systems
US3408627A (en) * 1964-12-28 1968-10-29 Texas Instruments Inc Training adjusted decision system using spatial storage with energy beam scanned read-out

Also Published As

Publication number Publication date
CA1042109A (fr) 1978-11-07
ES453377A1 (es) 1977-11-16
ES453378A1 (es) 1977-12-16
ES436945A1 (es) 1977-04-01
NL176313C (nl) 1985-03-18
NL176313B (nl) 1984-10-16
FR2274088B1 (fr) 1979-05-25
DE2524734B2 (de) 1980-03-20
DE2524734C3 (de) 1981-01-08
GB1457338A (en) 1976-12-01
US3950733A (en) 1976-04-13
JPS6012671B2 (ja) 1985-04-02
NL7506761A (nl) 1975-12-09
JPS5121749A (fr) 1976-02-21
IT1036906B (it) 1979-10-30
MX143269A (es) 1981-04-13
FR2274088A1 (fr) 1976-01-02
DE2524734A1 (de) 1975-12-18

Similar Documents

Publication Publication Date Title
CH620307A5 (fr)
EP3449423B1 (fr) Dispositif et procede de calcul de convolution d&#39;un reseau de neurones convolutionnel
CN109328362B (zh) 渐进式神经网络
EP3449424A1 (fr) Dispositif et procede de distribution de donnees de convolution d&#39;un reseau de neurones convolutionnel
US20200257939A1 (en) Data augmentation for image classification tasks
US5175798A (en) Digital artificial neuron based on a probabilistic ram
EP2965269A1 (fr) Organe à neurone artificiel et memristor
US11562249B2 (en) DNN training with asymmetric RPU devices
FR3058548A1 (fr) Drone comprenant un dispositif de determination d&#39;une representation d&#39;une cible via un reseau de neurones, procede de determination et programme d&#39;ordinateur associes
EP1681647B1 (fr) Optimisation de l&#39;ergonomie lors du déplacement d&#39;un mannequin virtuel
EP3953662A1 (fr) Procede de definition d&#39;un chemin
KR20200066215A (ko) 컨볼루션 신경망 입력 층을 위한 비트 해석
US20180060730A1 (en) Leveraging class information to initialize a neural network langauge model
US10893117B2 (en) Enabling high speed and low power operation of a sensor network
US20200380349A1 (en) Auto Weight Scaling for RPUs
FR3026526A1 (fr) Procede et systeme de detection d&#39;evenements de nature connue
WO2021191148A1 (fr) Procédé de génération d&#39;un flux de fouillis de mer, dispositif programmable et programme d&#39;ordinateur associés
KR20190059033A (ko) 심층 신경망 기반 음성 인식 시스템에서의 특이값 분해를 이용한 입력 벡터 생성 장치 및 방법
WO2020126529A1 (fr) Processeur de traitement de donnees, procede et programme d&#39;ordinateur correspondant.
US20210345039A1 (en) Two-dimensional sound localization with transformation layer
CN109308896A (zh) 语音处理方法及装置、存储介质及处理器
US10884804B2 (en) Information gathering command generator
EP4202770A1 (fr) Reseau de neurones avec generation a la volee des parametres du reseau
EP0622749A1 (fr) Système à réseau neuronal pour le traitement de signaux, notamment pour l&#39;analyse et la synthèse d&#39;images
US20210357540A1 (en) Matrix sketching using analog crossbar architectures

Legal Events

Date Code Title Description
PUE Assignment

Owner name: NESTOR, INC.

PL Patent ceased
PL Patent ceased