Area Digital technology – Fundamental concepts / Information theory IEV ref 171-07-23 Symbol $H\left(X|Y\right)$ en conditional entropymean conditional information contentaverage conditional information content mean value of the conditional information content of the events in a finite set of mutually exclusive and jointly exhaustive events, given the occurrence of the events in another set of mutually exclusive and jointly exhaustive events $H\left(X|Y\right)=\sum _{i=1}^{n}\sum _{j=1}^{m}p\left({x}_{i},{y}_{j}\right)\cdot I\left({x}_{i}|{y}_{j}\right)$ where $X=\left\{{x}_{1},\text{\hspace{0.17em}}\dots ,\text{\hspace{0.17em}}{x}_{n}\right\}$ is the set of events ${x}_{i}\left(i=1,\text{\hspace{0.17em}}\dots ,\text{\hspace{0.17em}}n\right)$, $Y=\left\{{y}_{1},\text{\hspace{0.17em}}\dots ,\text{\hspace{0.17em}}{y}_{m}\right\}$ is the set of events ${y}_{j}\left(j=1,\text{\hspace{0.17em}}\dots ,\text{\hspace{0.17em}}m\right)$, $I\left({x}_{i}|{y}_{j}\right)$ is the conditional information content of ${x}_{i}$ given ${y}_{j}$, and $p\left({x}_{i},{y}_{j}\right)$ the joint probability that both events occur [SOURCE: IEC 80000-13:2008, 13-32, modified – Addition of information useful for the context of the IEV, and adaptation to the IEV rules] fr entropie conditionnelle, fDÉCONSEILLÉ: néguentropie conditionnelle, f espérance mathématique de la quantité d'information conditionnelle des événements d'un ensemble exhaustif d'événements s'excluant mutuellement, lorsque se sont réalisés les événements d'un autre ensemble exhaustif d'événements s'excluant mutuellement $H\left(X|Y\right)=\sum _{i=1}^{n}\sum _{j=1}^{m}p\left({x}_{i},{y}_{j}\right)\cdot I\left({x}_{i}|{y}_{j}\right)$ où $X=\left\{{x}_{1},\text{\hspace{0.17em}}\dots ,\text{\hspace{0.17em}}{x}_{n}\right\}$ est l'ensemble d'événements ${x}_{i}\left(i=1,\text{\hspace{0.17em}}\dots ,\text{\hspace{0.17em}}n\right)$, $Y=\left\{{y}_{1},\text{\hspace{0.17em}}\dots ,\text{\hspace{0.17em}}{y}_{m}\right\}$ est l'ensemble d'événements ${y}_{j}\left(j=1,\text{\hspace{0.17em}}\dots ,\text{\hspace{0.17em}}m\right)$, $I\left({x}_{i}|{y}_{j}\right)$ est la quantité d'information conditionnelle de ${x}_{i}$ lorsque ${y}_{j}$ s'est réalisé, $p\left({x}_{i},{y}_{j}\right)$ est la probabilité de réalisation simultanée des deux événements [SOURCE: IEC 80000-13:2008, 13-32, modifié – Ajout d’informations utiles pour le contexte de l’IEV, et adaptation aux règles de l’IEV] ar الانتروبيا المشروطةالقيمة المتوسطة المشروطة لمحتوى المعلومات de bedingte Entropie, f fi ehdollinen entropiakeskimääräinen ehdollinen informaatiomäärä ja 条件付きエントロピー pl entropia warunkowa, fśrednia względna zawartość informacji, f pt entropia condicional zh 条件熵