Area Digital technology – Fundamental concepts / Information theory IEV ref 171-07-27 Symbol T(X,Y) en mean transinformation contentaverage transinformation content mean value of the transinformation content T(xi,xj) of two events xi and yj, each in one of two finite sets of mutually exclusive and jointly exhaustive events $T\left(X,Y\right)=\sum _{i=1}^{n}\sum _{j=1}^{m}p\left({x}_{i},{y}_{j}\right)\cdot T\left({x}_{i},{y}_{j}\right)$ where X = {x1, …, xn} is the set of events xi (i = 1, …, n), Y = {y1, …, ym} is the set of events yj (j = 1, …, m) and p(xi,yj) the joint probability that both events occurNote 1 to entry: The mean transinformation content is symmetric in X and Y. It is also equal to the difference between the entropy of one of the two sets of events and the conditional entropy of this set relative to the other: $T\left(X|Y\right)=H\left(X\right)-H\left(X|Y\right)=H\left(Y\right)-H\left(Y|X\right)=T\left(X|Y\right)$. Note 2 to entry: The mean transinformation content is a quantitative measure of information transmitted through a channel, when X is a specific set of messages at the message source and Y is a specific set of messages at the message sink. It is equal to the difference between the entropy at the message source and the equivocation, or the difference between the entropy at the message sink and the irrelevance. [SOURCE: IEC 80000-13:2008, 13-36, modified – Addition of information useful for the context of the IEV, and adaptation to the IEV rules] fr transinformation moyenne, fquantité d'information mutuelle moyenne, finformation mutuelle moyenne, f espérance mathématique de la transinformation T(xi,yj) de deux événements xi et yj, appartenant respectivement à deux ensembles finis et exhaustifs d'événements s'excluant mutuellement $T\left(X,Y\right)=\sum _{i=1}^{n}\sum _{j=1}^{m}p\left({x}_{i},{y}_{j}\right)\cdot T\left({x}_{i},{y}_{j}\right)$ où X = {x1, …, xn} est l'ensemble d'événements xi (i = 1, …, n), Y = {y1, …, ym} est l'ensemble d'événements yj (j = 1, …, m) et p(xi,yj) est la probabilité de réalisation simultanée des deux événementsNote 1 à l’article: La transinformation moyenne est symétrique par rapport à X et Y. Elle est aussi égale à l'excès de l'entropie de l'un des ensembles d'événements sur l'entropie conditionnelle de cet ensemble par rapport à l'autre: $T\left(X|Y\right)=H\left(X\right)-H\left(X|Y\right)=H\left(Y\right)-H\left(Y|X\right)=T\left(X|Y\right)$. Note 2 à l’article: La transinformation moyenne est une mesure quantitative de l'information transmise à travers un canal, lorsque X est un ensemble déterminé de messages émis par la source de messages et Y un ensemble déterminé de messages reçus par le collecteur de messages. Elle est égale à l'excès de l'entropie à la source sur l'équivoque ou à l'excès de l'entropie au collecteur sur l'altération. [SOURCE: IEC 80000-13:2008, 13-36, modifié – Ajout d’informations utiles pour le contexte de l’IEV, et adaptation aux règles de l’IEV] ar متوسط المعلومات المتبادلة de mittlerer Transinformationsgehalt, mSynentropie, fmittlerer wechselseitiger Informationsgehalt, m fi keskimääräinen keskinäisinformaatiomäärä ja 平均伝達情報量 pl średnia wartość zawartości informacji wzajemnej, f pt transinformação médiaquantidade de informação mutual média zh 平均交互内容