Kategorier dette opslag er registreret under:
DatoOpdatering
Indhold
Diskussionsforum
Send
Originalopslag fra pax Leksikon (1978-82)
Læst af: 22.931
: :
Entropi

Entropi er et nøglebegreb inden for varmelæren, statistisk mekanik og informationsteori. I disse tre videnskaber har begrebet noget forskellige, men beslægtede betydninger. I varmelæren er entropi en størrelse som øges, når mængden af tilgængelig energi (dvs. den energi som kan omformes til arbejde) synker. I statistisk mekanik er entropi et mål for sandsynligheden af hastighedsfordelingen af partikler i et system. Disse to betydninger hænger sammen på følgende måde: For at varmeenergi skal kunne omformes til mekanisk arbejde, skal den være ujævnt fordelt inden i et system. Når f.eks. varme og kolde luftmasser kommer i berøring med hinanden, bliver temperaturforskellen omformet til bevægelsesenergi i form af vind; Man kan ikke få mekanisk energi ud af luftmasser, hvor temperaturen er den samme overalt. En ujævn fordeling af temperaturen, kombineret med en tilsvarende ujævn fordeling af hastigheden af partikler er en ikke særlig sandsynlig tilstand sammenlignet med en tilstand, hvor energien er jævnt fordelt over hele systemet.

Den anden termodynamiske lov siger, at i et isoleret system vil entropien øges over tid. Inden for varmelæren betyder det, at temperaturforskellene bliver udvisket. Det indebærer f.eks. at temperaturforskelle ikke kan skabes spontant. Inden for statistisk mekanik betyder loven, at systemets tilstand bliver mere og mere sandsynlig, noget som også ofte udtrykkes ved at sige at systemets uorden er stigende. Et ordnet - det vil sige differentieret - system er usandsynlig, et kaotisk system er mere sandsynlig. Et tilsyneladende modeksempel til loven er udviklingen af liv på jorden, hvor højt ordnede og lidt sandsynlige biologiske systemer har udviklet sig fra et udifferentieret udgangspunkt. Modeksemplet falder bort når man peger på at jorden ikke er et isoleret system, og at lavere entropi på jorden forudsætter en endnu større øgning af entropi andre steder i universet. Det samme gælder for den skabende og ordnende virksomhed mennesket udfører, og som kun er mulig på bekostning af, at entropien øges andre steder i systemet. Tilspidset kunne man sige, at orden et sted kun er mulig på bekostning af (mere) uorden et andet sted. I denne sammenhæng kan det også nævnes, at en økonomi baseret udelukkende på recykling af ressourcer vil få en negativ væktsrate, fordi noget tilgængelig energi går uigenkaldelig tabt i alle processer.

I informationsteorien er entropi et mål på usikkerheden af vores viden. Hvis f.eks. alle mulige udfald af et eksperiment er lige sandsynlige, er vores usikkerhed størst og entropien i denne betydning også. Man må være meget forsigtig med at overføre slutninger om entropibegrebet i informationsteorien, til de andre videnskaber som er nævnt. Endnu mere varsom må man være med at bruge analogier til entropibegrebet inden for samfundsvidenskaberne. Al erfaring viser, at det fører til begrebsforvirring og blindgyder, når samfundsvidenskaberne har forsøgt at låne begreber fra fysikken, som f.eks. gravitation eller entropi.

J.E.


Litteratur

H. F. Blum: Time's Arrow and Evolution, Princeton 1968.
L. L. Gatlin: Information Theory and the Living System, New York 1972.
N. Georgescu-Roegen: The Entropy Law and the Economic Process, Cambridge Massachusetts 1971.