Az "entrópia" fogalma


Az entrópia az anyagi rendszerek rendezetlenségének, illetve termodinamikai valószínűségének mértéke. Minél stabilabb termodinamikailag egy rendszer, annál nagyobb a belső rendezetlensége, entrópiája. A második főtétel szerint zárt rendszerben csak olyan folyamatok mehetnek végbe, amelyek az entrópiát növelik. Az információ - mint a rendszerek szervezési elve - növeli a világ összetettségét, rendet visz a rendetlenségbe, s az entrópia növekedése ellen hat. Brillouin vezette be a negentrópia fogalmát a rendezettség mértékének jellemzésére. Az információelméletnek megszületése után lelkes követői és ádáz ellenfelei támadtak. Louis Couffignal francia informatikus szerint az információelmélet és a termodinamika entrópiájának analógiája csupán tévedések és véletlenek sajátos halmozódásán alapul. A Hartley képlet csak formailag hasonló az entrópia képletéhez (erre később Shannon is felhívta a figyelmet, hangsúlyozva, hogy ők az üzenet értelmét, jelentését figyelmen kívül hagyják). Ezt a szerencsétlen fogalomhasználatot követte Leon Brillouin könyve, a "Science Information Theory", amelyben az információt a negatív entrópiával azonosította (a helyes reláció ezzel szemben az exponenciális inverz kapcsolat). [mat01]
Fülöp G. (1984) és [irodalom.txt -Fülöp] T. Stonier (1990) nyomán [irodalom.txt -Stonier]