Queries, comments, suggestions? Please contact us.



Area Digital technology – Fundamental concepts / Information theory

IEV ref171-07-27

Symbol
T(X,Y)

en
mean transinformation content
average transinformation content
mean value of the transinformation content T(xi,xj) of two events xi and yj, each in one of two finite sets of mutually exclusive and jointly exhaustive events

T( X,Y )= i=1 n j=1 m p( x i , y j )T( x i , y j ) MathType@MTEF@5@5@+= feaagKart1ev2aqatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbbjxAHX garuavP1wzZbItLDhis9wBH5garmWu51MyVXgaruWqVvNCPvMCG4uz 3bqee0evGueE0jxyaibaiGc9aspC0FXdbbc9asFfpec8Eeeu0lXdbb a9frFj0xb9Lqpepeea0xd9s8qiYRWxGi6xij=hbba9q8aq0=yq=He9 q8qiLsFr0=vr0=vr0db8meaabaGacmaadiWaaiWabaabaiaafaaake aacaWGubWaaeWaaeaacaWGybGaaiilaiaadMfaaiaawIcacaGLPaaa cqGH9aqpdaaeWbqaamaaqahabaGaamiCaiaacIcacaWG4bWaaSbaaS qaaiaadMgaaeqaaOGaaiilaiaadMhadaWgaaWcbaGaamOAaaqabaGc caGGPaGaeyyXICTaamivaiaacIcacaWG4bWaaSbaaSqaaiaadMgaae qaaOGaaiilaiaadMhadaWgaaWcbaGaamOAaaqabaGccaGGPaaaleaa caWGQbGaeyypa0tcLboacaaIXaaaleaacaWGTbaaniabggHiLdaale aacaWGPbGaeyypa0tcLboacaaIXaaaleaacaWGUbaaniabggHiLdaa aa@6206@

where

X = {x1, …, xn} is the set of events xi (i = 1, …, n), Y = {y1, …, ym} is the set of events yj (j = 1, …, m) and p(xi,yj) the joint probability that both events occur

Note 1 to entry: The mean transinformation content is symmetric in X and Y. It is also equal to the difference between the entropy of one of the two sets of events and the conditional entropy of this set relative to the other: T( X|Y )=H(X)H(X|Y)=H(Y)H(Y|X)=T(X|Y)MathType@MTEF@5@5@+= feaagKart1ev2aqatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbbjxAHX garuavP1wzZbItLDhis9wBH5garmWu51MyVXgaruWqVvNCPvMCG4uz 3bqee0evGueE0jxyaibaiGc9aspC0FXdbbc9asFfpec8Eeeu0lXdbb a9frFj0xb9Lqpepeea0xd9s8qiYRWxGi6xij=hbba9q8aq0=yq=He9 q8qiLsFr0=vr0=vr0db8meaabaGacmaadiWaaiWabaabaiaafaaake aacaWGubWaaeWaaeaacaWGybGaaiiFaiaadMfaaiaawIcacaGLPaaa cqGH9aqpcaWGibGaaiikaiaadIfacaGGPaGaeyOeI0IaamisaiaacI cacaWGybGaaiiFaiaadMfacaGGPaGaeyypa0JaamisaiaacIcacaWG zbGaaiykaiabgkHiTiaadIeacaGGOaGaamywaiaacYhacaWGybGaai ykaiabg2da9iaadsfacaGGOaGaamiwaiaacYhacaWGzbGaaiykaaaa @5BC6@ .

Note 2 to entry: The mean transinformation content is a quantitative measure of information transmitted through a channel, when X is a specific set of messages at the message source and Y is a specific set of messages at the message sink. It is equal to the difference between the entropy at the message source and the equivocation, or the difference between the entropy at the message sink and the irrelevance.


[SOURCE: IEC 80000-13:2008, 13-36, modified – Addition of information useful for the context of the IEV, and adaptation to the IEV rules]


fr
transinformation moyenne, f
quantité d'information mutuelle moyenne, f
information mutuelle moyenne, f
espérance mathématique de la transinformation T(xi,yj) de deux événements xi et yj, appartenant respectivement à deux ensembles finis et exhaustifs d'événements s'excluant mutuellement

T( X,Y )= i=1 n j=1 m p( x i , y j )T( x i , y j ) MathType@MTEF@5@5@+= feaagKart1ev2aqatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbbjxAHX garuavP1wzZbItLDhis9wBH5garmWu51MyVXgaruWqVvNCPvMCG4uz 3bqee0evGueE0jxyaibaiGc9aspC0FXdbbc9asFfpec8Eeeu0lXdbb a9frFj0xb9Lqpepeea0xd9s8qiYRWxGi6xij=hbba9q8aq0=yq=He9 q8qiLsFr0=vr0=vr0db8meaabaGacmaadiWaaiWabaabaiaafaaake aacaWGubWaaeWaaeaacaWGybGaaiilaiaadMfaaiaawIcacaGLPaaa cqGH9aqpdaaeWbqaamaaqahabaGaamiCaiaacIcacaWG4bWaaSbaaS qaaiaadMgaaeqaaOGaaiilaiaadMhadaWgaaWcbaGaamOAaaqabaGc caGGPaGaeyyXICTaamivaiaacIcacaWG4bWaaSbaaSqaaiaadMgaae qaaOGaaiilaiaadMhadaWgaaWcbaGaamOAaaqabaGccaGGPaaaleaa caWGQbGaeyypa0tcLboacaaIXaaaleaacaWGTbaaniabggHiLdaale aacaWGPbGaeyypa0tcLboacaaIXaaaleaacaWGUbaaniabggHiLdaa aa@6206@

X = {x1, …, xn} est l'ensemble d'événements xi (i = 1, …, n), Y = {y1, …, ym} est l'ensemble d'événements yj (j = 1, …, m) et p(xi,yj) est la probabilité de réalisation simultanée des deux événements

Note 1 à l’article: La transinformation moyenne est symétrique par rapport à X et Y. Elle est aussi égale à l'excès de l'entropie de l'un des ensembles d'événements sur l'entropie conditionnelle de cet ensemble par rapport à l'autre: T( X|Y )=H(X)H(X|Y)=H(Y)H(Y|X)=T(X|Y)MathType@MTEF@5@5@+= feaagKart1ev2aqatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbbjxAHX garuavP1wzZbItLDhis9wBH5garmWu51MyVXgaruWqVvNCPvMCG4uz 3bqee0evGueE0jxyaibaiGc9aspC0FXdbbc9asFfpec8Eeeu0lXdbb a9frFj0xb9Lqpepeea0xd9s8qiYRWxGi6xij=hbba9q8aq0=yq=He9 q8qiLsFr0=vr0=vr0db8meaabaGacmaadiWaaiWabaabaiaafaaake aacaWGubWaaeWaaeaacaWGybGaaiiFaiaadMfaaiaawIcacaGLPaaa cqGH9aqpcaWGibGaaiikaiaadIfacaGGPaGaeyOeI0IaamisaiaacI cacaWGybGaaiiFaiaadMfacaGGPaGaeyypa0JaamisaiaacIcacaWG zbGaaiykaiabgkHiTiaadIeacaGGOaGaamywaiaacYhacaWGybGaai ykaiabg2da9iaadsfacaGGOaGaamiwaiaacYhacaWGzbGaaiykaaaa @5BC6@ .

Note 2 à l’article: La transinformation moyenne est une mesure quantitative de l'information transmise à travers un canal, lorsque X est un ensemble déterminé de messages émis par la source de messages et Y un ensemble déterminé de messages reçus par le collecteur de messages. Elle est égale à l'excès de l'entropie à la source sur l'équivoque ou à l'excès de l'entropie au collecteur sur l'altération.


[SOURCE: IEC 80000-13:2008, 13-36, modifié – Ajout d’informations utiles pour le contexte de l’IEV, et adaptation aux règles de l’IEV]


ar
متوسط المعلومات المتبادلة

de
mittlerer Transinformationsgehalt, m
Synentropie, f
mittlerer wechselseitiger Informationsgehalt, m

fi
keskimääräinen keskinäisinformaatiomäärä

ja
平均伝達情報量

pl
średnia wartość zawartości informacji wzajemnej, f

pt
transinformação média
quantidade de informação mutual média

zh
平均交互内容

Publication date: 2019-03-29
Copyright © IEC 2020. All Rights Reserved.