Passer au contenu principal

Calculateur d'Entropie de Shannon – Entropie d'Information

Calculez l'entropie d'information et l'incertitude dans les distributions de probabilité

Calculer l'Entropie de Shannon

Comment Utiliser

  1. Entrez les valeurs de probabilité pour chaque événement (doivent totaliser 1)
  2. Ajoutez ou supprimez des champs de probabilité selon vos besoins
  3. Cliquez sur calculer pour obtenir l'entropie de Shannon
  4. Visualisez l'entropie, l'entropie maximale et l'entropie normalisée

Qu'est-ce que l'Entropie de Shannon ?

L'Entropie de Shannon, introduite par Claude Shannon en 1948, est une mesure du contenu moyen d'information ou d'incertitude dans une distribution de probabilité. Elle quantifie combien d'information est nécessaire, en moyenne, pour décrire le résultat d'une variable aléatoire.

La formule de l'Entropie de Shannon est H(X) = -Σ(p(x) × log₂(p(x))), où p(x) est la probabilité de l'événement x. L'entropie est mesurée en bits lorsqu'on utilise le logarithme en base 2.

Interprétation des Valeurs d'Entropie

L'Entropie de Shannon varie de 0 à log₂(n), où n est le nombre d'événements possibles :

  • Entropie minimale (0 bit) : Se produit lorsqu'un événement a une probabilité de 1 et tous les autres ont une probabilité de 0 - certitude complète, pas d'incertitude
  • Entropie maximale (log₂(n) bits) : Se produit lorsque tous les événements sont également probables - incertitude et aléatoire maximaux
  • Valeurs intermédiaires : Indiquent une incertitude partielle dans la distribution

L'entropie normalisée divise l'entropie par l'entropie maximale pour donner une valeur entre 0 et 1, facilitant la comparaison de distributions avec différents nombres d'événements.

Applications de l'Entropie de Shannon

  • Théorie de l'Information : Mesurer le contenu d'information dans la transmission de données
  • Compression de Données : Déterminer les algorithmes de compression optimaux
  • Apprentissage Automatique : Sélection de caractéristiques et construction d'arbres de décision
  • Cryptographie : Évaluer le caractère aléatoire et la sécurité du chiffrement
  • Biologie : Analyser la diversité génétique et les séquences protéiques
  • Économie : Mesurer la diversité du marché et le risque de portefeuille
  • Traitement du Langage Naturel : Analyser les modèles de langage et la prédictibilité

Exemples d'Entropie de Shannon

Considérez ces exemples de distributions de probabilité :

DistributionProbabilitésEntropieInterprétation
Lancer de pièce[0.5, 0.5]1 bitEntropie maximale pour 2 événements
Pièce biaisée[0.9, 0.1]0.47 bitsEntropie plus faible - plus prévisible
Dé équitable[1/6, 1/6, 1/6, 1/6, 1/6, 1/6]2.58 bitsEntropie maximale pour 6 événements
Résultat certain[1.0, 0.0]0 bitEntropie minimale - aucune incertitude

Questions fréquentes

Que mesure l'Entropie de Shannon ?
L'Entropie de Shannon mesure le contenu moyen d'information ou l'incertitude dans une distribution de probabilité. Une entropie plus élevée indique plus d'incertitude et d'aléatoire, tandis qu'une entropie plus faible indique plus de prédictibilité et d'ordre.
Pourquoi est-elle mesurée en bits ?
Lorsqu'on utilise le logarithme en base 2 (log₂), l'entropie est mesurée en bits car elle représente le nombre moyen de questions binaires (oui/non) nécessaires pour déterminer le résultat. L'utilisation du logarithme naturel (ln) donne l'entropie en nats.
Qu'est-ce que l'entropie maximale ?
L'entropie maximale se produit lorsque tous les événements sont également probables. Pour n événements, l'entropie maximale est log₂(n) bits. Cela représente l'incertitude maximale où aucun résultat ne peut être prédit mieux qu'un autre.
Comment l'Entropie de Shannon est-elle utilisée en apprentissage automatique ?
En apprentissage automatique, l'Entropie de Shannon est utilisée pour la sélection de caractéristiques, mesurer le gain d'information dans les arbres de décision et évaluer l'incertitude du modèle. Elle aide à identifier quelles caractéristiques fournissent le plus d'information pour les tâches de classification.
L'entropie peut-elle être négative ?
Non, l'Entropie de Shannon est toujours non négative. La valeur minimale est 0 (certitude complète), et elle augmente avec l'incertitude. Le maximum dépend du nombre d'événements possibles.

Calculatrices Associées

statistics
Calculateur d'Écart Absolu

Calculez l'écart absolu moyen ou médian pour mesurer la dispersion des données

statistics
Calculateur de notes en courbe de Gauss

Convertissez des notes brutes en notes courbées avec z-scores et percentiles.

statistics
Calculateur de distribution binomiale

Calculez probabilités binomiales, espérance et variance pour des essais discrets.