Какво е ентропия? Дефиниция, термодинамика и теория на информацията
Ентропията на даден обект е мярка за количеството енергия, което не е на разположение за извършване на работа. Ентропията също така е мярка за броя на възможните подредби, които могат да имат атомите в една система. В този смисъл ентропията е мярка за неопределеност или случайност. Колкото по-висока е ентропията на даден обект, толкова по-несигурни сме по отношение на състоянията на атомите, изграждащи този обект, тъй като има повече състояния, от които можем да избираме. Един закон на физиката гласи, че е необходима работа, за да стане ентропията на даден обект или система по-малка; без работа ентропията никога не може да стане по-малка - може да се каже, че всичко бавно преминава към безпорядък (по-висока ентропия).
Думата "ентропия" произлиза от изследването на топлината и енергията в периода 1850-1900 г. Някои много полезни математически идеи за изчисляване на вероятности възникват от изучаването на ентропията. Тези идеи сега се използват в теорията на информацията, химията и други области на изследване.
Ентропията е просто количествена мярка за това, което описва вторият закон на термодинамиката: разпръскването на енергията до нейното равномерно разпределение. Значението на ентропията е различно в различните области. Тя може да означава:
Ентропия в термодинамиката (макроскопичен поглед)
В класическата термодинамика ентропията S измерва как изменението на топлината, внесена или отнета при обратим процес, се отразява на системата. За обратим (реваерсивен) процес при температура T елементът на ентропията се дава от формулата:
dS = δQ_rev / T
Оттук, когато топлина δQ преминава в система при температура T по обратим път, ентропията на системата се увеличава с δQ/T. Единицата в SI е джоул на келвин (J/K).
- Експериментален пример: при разтопяване на лед ентропията на водата се увеличава, защото молекулите получават повече възможни подредби.
- Рефрижераторите работят, като преместват ентропия от вътрешността към външната среда, но това изисква извършване на работа — общата ентропия на вселената се увеличава.
Ентропия в статистическата физика (микроскопичен поглед)
Статистическата механика дава по-интуитивно и количествено обяснение чрез броя на микросъстоянията (подредбите) W, които съответстват на едно макросъстояние. Нюймановият видулачен запис на Богмант е:
S = k_B ln W
където k_B е константата на Болцман (k_B ≈ 1.380649×10^−23 J/K). Тази формула показва, че ентропията расте с логаритъма на броя на възможните микросъстояния: ако системата може да бъде подредена по много начини, ентропията е висока.
Ентропия в теорията на информацията
Клод Шанън въведе понятие за информационна ентропия, което количествено измерва средната неопределеност или информация, съдържаща се в случайна променлива. Формулата е:
H = − Σ p_i log_b p_i
където p_i са вероятностите на възможните съобщения, а базата b на логаритъма определя мерната единица (база 2 → бит, база e → нат). Пример: честно хвърляне на монета има H = 1 бит — пълна неопределеност между две равновероятни събития.
Връзката между физическата и информационната ентропия е дълбока: информацията за състоянието на система е обратимо свързана с броя на възможните микросъстояния. Парадоксът на Максуел (Maxwell's demon) и неговото разрешение чрез принципа на Ландауер (Landauer) показват, че изтриването на информация има термодинамичен ценз — изтриването на един бит информация води до минимум k_B T ln 2 генерирана ентропия (и топлина), което запазва втория закон.
Ентропия в химията и термодинамиката на процесите
- В химията се използва промяната на ентропията ΔS заедно с промяната на енталпията ΔH при изчисляване на свободната енергия: ΔG = ΔH − TΔS. От тук следва кога дадена реакция е спонтанна (ΔG < 0).
- При смесване, разтваряне и дифузия ентропията обикновено се увеличава — например течности и газове се смесват „по естествен път”, защото има повече подредби (микросъстояния).
Основни свойства и важни допълнения
- Вторият закон: общата ентропия на изолирана система не намалява; в реални (необратими) процеси ентропията нараства.
- Третият закон: ентропията на идеален кристал при абсолютната нула (0 K) е нула — това дава отправна точка за абсолютни стойности на ентропията.
- Адитивност и екстензивност: за две независими системи общата ентропия е сумата от ентропиите им.
- Вероятностна интерпретация: макросъстоянията с най-много микросъстояния са най-вероятни — затова "типичното" поведение на големи системи е да реализират състояния с висока ентропия.
Практическо значение
- В инженерството познаването на ентропията и нейното производство е ключово за проектиране на двигатели, хладилници и процеси с висока енергийна ефективност.
- В информатиката и телекомуникациите Шанън-ентропията задава граници на компресията и необходимата среда за кодиране на данни.
- В биологията животните и растенията поддържат ниска локална ентропия чрез обмен на енергия и материя с околната среда — общата ентропия на вселената обаче продължава да расте.
Кратки примери за илюстрация
- Кафе с мляко: когато налеете млякото в кафето, то се смесва и ентропията на системата се увеличава — молекулите имат повече възможни подредби.
- Свободно разширение на газ в празен обем: газът заемa повече обем и ентропията нараства, защото броят на микросъстоянията се увеличава.
- Компресия на газ (работа върху системата): ентропията на газа намалява, но за да се извърши това се полага работа и често ентропията на околната среда се увеличава повече.
Ентропията е централно понятие във физиката, химията, информатиката и други науки, защото свързва вероятността, енергията и информацията в един единен количествен език. Разбирането ѝ помага да се обяснят защо някои процеси са спонтанни, как се предава топлина, и какви са фундаменталните ограничения в обработката и съхранението на информация.
Въпроси и отговори
В: Какво представлява ентропията на даден обект?
О: Ентропията на един обект е мярка за количеството енергия, което не е на разположение за извършване на работа, а също и мярка за броя на възможните подредби, които могат да имат атомите в една система.
В: Каква е връзката между ентропията и неопределеността/случайността?
О: Ентропията е мярка за неопределеност или случайност, тъй като колкото по-висока е ентропията на даден обект, толкова по-несигурни сме относно състоянията на атомите, изграждащи този обект, защото има повече състояния, от които да се вземе решение.
Въпрос: Може ли ентропията на даден обект или система да бъде намалена без работа?
О: Не, законът на физиката гласи, че е необходима работа, за да се намали ентропията на даден обект или система; без работа ентропията никога не може да стане по-малка - всичко бавно преминава към безпорядък, което означава по-висока ентропия.
В: Откъде идва думата ентропия?
О: Думата ентропия идва от изследването на топлината и енергията между 1850 и 1900 г. и дава някои много полезни математически идеи за изчисляване на вероятности, които сега се използват в теорията на информацията, статистическата механика, химията и други области на изследване.
Въпрос: Какво измерва ентропията количествено?
О: Ентропията просто измерва това, което описва вторият закон на термодинамиката: разпръскването на енергията до нейното равномерно разпределение.
В: Как се различава значението на ентропията в различните области?
О: Значението на ентропията е различно в различните области и може да означава различни неща, като например информационно съдържание, безпорядък и разпръскване на енергия.
В: Каква е ролята на ентропията при изчисляването на вероятностите?
О: Ентропията представлява математически начин за количествено определяне на степента на безпорядък или несигурност в дадена система, който е полезен при изчисляване на вероятности.