Negentropie

Negentropie

Negentropie ist die Kurzbezeichnung für negative Entropie, ist also genau das Gegenteil von Entropie und ein Spezialfall der Syntropie. Allgemein ist die Negentropie definiert als Entropie mit einem negativen Vorzeichen. Sie kann interpretiert werden als ein Maß für die Abweichung einer Zufallsvariable von der Gleichverteilung. Da die Entropie einer gleichverteilten Zufallsfolge maximal ist, folgt, dass die Negentropie dieser Folge minimal wird. In der informationstheoretischen Interpretation der Entropie ist damit die Negentropie groß, wenn in einer Zeichenfolge viel Information steckt, und klein in einer zufälligen Zeichenfolge.

Definition

Negentropie wird unterschiedlich definiert. Die einfachste Definition (s.o.) lautet: Negentropie ist negative Entropie.

Eine weitere Definition definiert Negentropie für diskrete Zufallsvariable so, dass sie der Redundanz [1] entspricht: Durch geeignete Normierung kann man erreichen, dass die Negentropie J einer gleichverteilten Variable 0 ist, das führt auf folgende Definition:

$ J(y)=H(y_{\mbox{gleich}})-H(y)\, $

wobei $ y_{\mbox{gleich}} $ eine gleichverteilte Zufallsvariable ist, mit der gleichen Korrelations- (und Kovarianz-) matrix wie $ y $, und H die Entropie (Der erste Term in dieser Definition ist nur ein Normierung, entscheidend ist, dass H mit negativen Vorzeichen genommen wird).

Interpretation und Sonstiges

Der Begriff negative Entropie wurde von Erwin Schrödinger in seinem Buch Was ist Leben geprägt. Er definiert Leben als etwas, das negative Entropie aufnimmt und speichert. Das bedeutet, dass Leben etwas sei, das Entropie exportiert und seine eigene Entropie niedrig hält: Negentropie-Import ist Entropie-Export.

Auch wenn Schrödinger mit negativer Entropie freie Energie meinte, wie er in einer Fußnote schrieb, widerspricht das entgegen der oftmals vorgebrachten Auffassung natürlich nicht dem 2. Hauptsatz der Thermodynamik, da dieser Prozess unter Energiezufuhr (bei Pflanzen etwa durch das Sonnenlicht) stattfindet.

Léon Brillouin verkürzte die Bezeichnung später zu Negentropie, um den Sachverhalt auf "positivere" Weise auszudrücken: Ein lebendiges System nimmt Negentropie auf und speichert sie. Organismen verändern sich negentropisch durch Energienutzung. Wegen des Energiebedarfs sind Organismen offene Systeme. [2] [3]

Was die Verwendung in anderen Gebieten betrifft, scheint der Begriff der Negentropie nicht eindeutig definiert zu sein.

Im Lexikon der Biologie wird Negentropie definiert als durchschnittlicher Informationsgehalt des Einzelzeichens innerhalb einer gegebenen Zeichenkette[4], womit ein Bezug zur Informationstheorie hergestellt wird. Dies entspricht auch dem oben genannten Beispiel für die Gleichverteilung, da bei einer „gleichverteilten“ Variable keine zusätzliche Information gegenüber einer „Gleichverteilung“ vorhanden ist.

Etwas anders wird der Begriff von soziologischen Systemtheoretikern definiert, nämlich als „Negation der Entropie“ bzw. als „Zunahme von Komplexität“. Damit ist Negentropie hier gleichbedeutend mit Ordnung oder Information und damit ein Kennzeichen der Entstehung oder Abgrenzung von Systemen. Eine weitere (freie) Übersetzung wäre: „Abwesenheit von (relativ vollständiger) Entropie“ oder auch entsprechend: „Abwesenheit von Chaos“.

Das Gegenteil von Negentropie ist Entropie, also das Maß für die Unordnung oder Zufälligkeit eines Systems.

Negentropie und Ordnung

Ähnlich uneinheitlich wie der Begriff Negentropie wird der Begriff Ordnung verwendet, der mit der Negentropie meistens gleichgesetzt wird.

Quellen

  1. ISO/IEC DIS 2382-16
  2. Brillouin, Leon: (1953) "Negentropy Principle of Information", J. of Applied Physics, v. 24(9), pp. 1152-1163
  3. Léon Brillouin, La science et la théorie de l'information, Masson, 1959
  4. Lexikon der Biologie, Herder Verlag 1988

Literatur

Norbert Wiener, Cybernetics or Control and Communication in the Animal and the Machine, Massachusetts, MIT Press 1948

Siehe auch

  • Kurtosis
  • Entropie (Informationstheorie)
  • Normalverteilung