Area Digital technology – Fundamental concepts / Information theory IEV ref 171-07-15 Symbol H(X) en entropy, average information contentDEPRECATED: negentropy mean value of the information content of the events in a finite set of mutually exclusive and jointly exhaustive events $H=\sum _{i=1}^{n}p\left({x}_{i}\right)\cdot I\left({x}_{i}\right)=\sum _{i=1}^{n}p\left({x}_{i}\right)\cdot \mathrm{log}\left(\frac{1}{p\left({x}_{i}\right)}\right)$ where $X=\left\{{x}_{1},\text{\hspace{0.17em}}\dots ,\text{\hspace{0.17em}}{x}_{n}\right\}$ is the set of events ${x}_{i}\text{\hspace{0.17em}}\left(i=1,\text{\hspace{0.17em}}\dots ,\text{\hspace{0.17em}}n\right)$, $I\left({x}_{i}\right)$ are their information contents and $p\left({x}_{i}\right)$ the probabilities of their occurrences, subject to $\sum _{i=1}^{n}p\left({x}_{i}\right)=1$EXAMPLE Let $\left\{a,b,c\right\}$ be a set of three events and let $p\left(a\right)=0,5$, $p\left(b\right)=0,25$ and $p\left(c\right)=0,25$ be the probabilities of their occurrences. The entropy of this set is $H\left(X\right)=p\left(a\right)\cdot I\left(a\right)+p\left(b\right)\cdot I\left(b\right)+p\left(c\right)\cdot I\left(c\right)=1,5\text{\hspace{0.17em}}\mathrm{Sh}$. [SOURCE: IEC 80000-13:2008, 13-25, modified – Addition of information useful for the context of the IEV, and adaptation to the IEV rules] fr entropie, fDÉCONSEILLÉ: néguentropie, f espérance mathématique de la quantité d'information des événements d'un ensemble exhaustif d'événements s'excluant mutuellement $H=\sum _{i=1}^{n}p\left({x}_{i}\right)\cdot I\left({x}_{i}\right)=\sum _{i=1}^{n}p\left({x}_{i}\right)\cdot \mathrm{log}\left(\frac{1}{p\left({x}_{i}\right)}\right)$ où $X=\left\{{x}_{1},\text{\hspace{0.17em}}\dots ,\text{\hspace{0.17em}}{x}_{n}\right\}$ est l'ensemble des événements ${x}_{i}\text{\hspace{0.17em}}\left(i=1,\text{\hspace{0.17em}}\dots ,\text{\hspace{0.17em}}n\right)$, $I\left({x}_{i}\right)$ sont leurs quantités d'information et $p\left({x}_{i}\right)$ leurs probabilités de réalisation, avec $\sum _{i=1}^{n}p\left({x}_{i}\right)=1$EXEMPLE Soit $\left\{a,b,c\right\}$ un jeu de trois événements dont les probabilités de réalisation sont $p\left(a\right)=0,5$, $p\left(b\right)=0,25$ et $p\left(c\right)=0,25$. L'entropie de ce jeu est $H\left(X\right)=p\left(a\right)\cdot I\left(a\right)+p\left(b\right)\cdot I\left(b\right)+p\left(c\right)\cdot I\left(c\right)=1,5\text{\hspace{0.17em}}\mathrm{Sh}$. [SOURCE: IEC 80000-13:2008, 13-25, modifié – Ajout d’informations utiles pour le contexte de l’IEV, et adaptation aux règles de l’IEV] ar الانتروبيا, <في نظرية المعلومات>القيمة المتوسطة للمعلوماتمتوسط محتوى المعلومات de Entropie, f fi entropia, keskimääräinen informaatiomäärä ja エントロピー, <情報理論> pl entropia , fśrednia zawartość informacji, f pt entropia, zh 熵, <信息论中>