Az "entrópia" fogalma
Az entrópia az anyagi rendszerek rendezetlenségének, illetve termodinamikai
valószínűségének mértéke. Minél stabilabb termodinamikailag egy rendszer,
annál nagyobb a belső rendezetlensége, entrópiája. A második főtétel szerint
zárt rendszerben csak olyan folyamatok mehetnek végbe, amelyek az entrópiát
növelik. Az információ - mint a rendszerek szervezési elve - növeli a világ
összetettségét, rendet visz a rendetlenségbe, s az entrópia növekedése ellen
hat. Brillouin vezette be a negentrópia fogalmát a rendezettség mértékének
jellemzésére.
Az információelméletnek megszületése után lelkes követői és ádáz ellenfelei
támadtak. Louis Couffignal francia informatikus szerint az információelmélet
és a termodinamika entrópiájának analógiája csupán tévedések és véletlenek
sajátos halmozódásán alapul. A Hartley képlet csak formailag hasonló az
entrópia képletéhez (erre később Shannon is felhívta a figyelmet,
hangsúlyozva, hogy ők az üzenet értelmét, jelentését figyelmen kívül
hagyják). Ezt a szerencsétlen fogalomhasználatot követte Leon Brillouin
könyve, a "Science Information Theory", amelyben az információt a negatív
entrópiával azonosította (a helyes reláció ezzel szemben az exponenciális
inverz kapcsolat). [mat01]
Fülöp G. (1984) és [irodalom.txt -Fülöp]
T. Stonier (1990) nyomán [irodalom.txt -Stonier]