Главная страница > Вопрос
Вопрос
Что такое энтропия?
математика 18.06.07 Автор: Без имени
Ответы
1 из 7
Энтропия (от греч. ἐντροπία — поворот, превращение) — понятие, впервые введенное в термодинамике для определения меры необратимого рассеяния энергии. Энтропия широко применяется и в других областях науки: в статистической физике как мера вероятности осуществления какого-либо макроскопического состояния; в теории информации как мера неопределенности какого-либо опыта (испытания), который может иметь разные исходы.
Термодинамическая энтропия — функция состояния термодинамической системы.
Информационная энтропия — мера хаотичности информации, связана с вероятностью появления тех или иных символов при передаче сообщений.
Номера энтропии используются в математической теории метрических пространств для измерения размеров наборов (и, частично, фракталов).
Энтропия в теории управления — мера неопределенности состояния или поведения системы в данных условиях.
Энтропия (настольная игра) — одна из двух настольных игр, известных под именем Entropy, созданных Эриком Соломоном (Eric Solomon) в 1977 г. или Августином Каррено (Augustine Carreno) в 1994 г.
Энтропия (сеть) — децентрализованная пиринговая сеть, разработанная с целью быть стойкой к цензуре.
Энтропия в биологической экологии — единица измерения биологической вариативности.
Журнал «Энтропия» — международный междисциплинарный журнал на английском языке об исследованиях энтропии и информации.
07.07.07 Автор: capoerista
2 из 7
На бытовом уровне, энтропия - это мера беспорядка или мера неопределенности.

В физике энтропия стоит в ряду таких фундаментальных понятий, как энергия или температура. Энтропия может быть определена как одна из основных термодинамических функций (впервые это сделал Клаузиус).

Одно из основных фундаментальных свойств мира, в котором мы живем, называется вторым началом термодинамики. Существуют три внешне не похожие, но логически эквивалентные формулировки второго начала термодинамики. В формулировке Томсона-Планка он гласит: невозможно построить периодически действующую машину, единственным результатом которой было бы поднятие груза за счет охлаждения теплового резервуара. Существует формулировка Клаузиуса: теплота не может самопроизвольно переходить от тела менее нагретого к телу более нагретому. В третьей формулировке этого фундаментального закона "главным действующим лицом" является энтропия: в адиабатически изолированной системе энтропия не может убывать; она либо возрастает, либо остается постоянной.

Именно из этой формулировки наиболее ясна принципиальная необратимость физических процессов, а также неизбежная деградация любой замкнутой системы (все различные формы энергии переходят в конечном итоге в тепловую, после чего становятся невозможны никакие процессы). Обобщив этот принцип на всю вселенную, Клаузиус сформулировал гипотезу тепловой смерти Вселенной.

Эта необратимость процессов, являющаяся следствием второго начала, находилась в видимом противоречии с обратимым характером механического движения. Размышляя над этим парадоксом Больцман получил совершенно удивительную формулу для энтропии, раскрывающую совершенно новое ее содержание. Применив статистические методы, Больцман показал, что энтропия прямо пропорциональна логарифму термодинамической вероятности. Эта формула высечена на надгробии ученого на Центральном кладбище Вены. Это открытие Больцмана тем значительнее, что с ним понятие вероятности впервые проникло в самые основания физики (за несколько десятилетий до построения новой картины мира на основе квантовой механики).

Таким образом, по Больцману второе начало термодинамики могло бы звучать так: природа стремится к переходу от менее вероятных состояний к более вероятным.

От связи энтропии и вероятности по Больцману можно перейти к определению энтропии в теории информации, что было сделано Шенноном. Энтропия в теории информации выступает как мера неопределенности. Понятие информации является, в известном смысле, противоположным понятию энтропии. Точнее, информация определяется как разность между безусловной и условной энтропиями, но пояснять это без формул не представляется возможным.
08.07.07 Автор: Tirrei D
3 из 7
Мера хаоса. Если какие-то силы, доселе контролировавшие процесс (любой), отпустят его на самотек - его (процесс), рано или поздно разрушит энтропия. Это вселенский закон.
10.11.10 Автор: Без имени
4 из 7
Количество тепла δQ, которое должно быть доставлено системе или отнято у неё при переходе от одного состояния в другое, не определяется однозначно начальным и конечным состояниями, но существенно зависит от способа осуществления этого перехода (δQ не является функцией состояния системы).

Однако, приведенное количество теплоты - отношение теплоты δQ к температуре системы при бесконечно малых изменениях состояния системы - есть функция состояния системы. В любом обратимом круговом процессе: ∫δQ/T=0.

Следовательно, подынтегральное выражение есть полный дифференциал некоторой функции, которая определяется только начальным и конечным состояниями системы и не зависит от пути, каким система пришла в это состояние.

Энтропией S называется функция состояния системы, дифференциалом которой является δQ/T:

dS=δQ/T (66)


Таким образом, первое начало термодинамики δQ=dU+δA можно записать в виде TdS=dU+δA, откуда δA=TdS-dU=d(TS)-SdT-dU=-d(U-TS)-SdT=-dF-SdT.

Функция F=U-TS является функцией состояния системы и называется энергией Гельмгольца или свободной энергией.
28.08.11 Автор: KOMuCCu9
5 из 7
да че вы развели тут. человек встретил задачку на энтропию. ему ваши объяснения "энтропия - мера беспорядка" касательно задачки ни о чем не говорят

да, энтропия это мера беспорядка. если взять стопку книг, а потом рассыпать ее - то энтропия увеличится.
или взять воду и лед - лед упорядочен в кристаллическую решетку - энтропия меньше чем у воды.

dS=δQ/T
- эта хрень говорит о том, что когда нагреваешь систему на δQ - молекулы начинают быстрее двигаться - больше беспорядка - больше энтропия.
Т в знаменателе говорит о том, что если добавлять одно и то же количество теплоты δQ, но при разных температурах системы, то прирост энтропии будет разный.
05.03.12 Автор: Без имени
6 из 7
От греческого entropia -- поворот, превращение. Понятие энтропии впервые было введено в термодинамике для определения меры необратимого рассеяния энергии. Энтропия широко применяется и в других областях науки: в статистической физике как мера вероятности осуществления какого -- либо макроскопического состояния; в теории информации -- мера неопределенности какого-либо опыта (испытания), который может иметь разные исходы. Все эти трактовки энтропии имеют глубокую внутреннюю связь.

Энтропия -- это функция состояния, то есть любому состоянию можно сопоставить вполне определенное (с точность до константы -- эта неопределенность убирается по договоренности, что при абсолютном нуле энтропия тоже равна нулю) значение энтропии.

Для обратимых (равновесных) процессов выполняется следующее математическое равенство (следствие так называемого равенства Клаузиуса)
09.10.12 Автор: барадач радионович
7 из 7
Энтропия - величина измерения беспорядка в системе. Например, чем выше температура воды, тем больше ее энтропия.
В твердых веществах (лед), молекулы выстраиваются между собой  в определенном порядке. Когда вещество переходить в другую фазу (лед - вода - или газ) расположение молекул становиться более беспорядочное, они начинают перемещаться свободно.
Итак,  для любого вещества  энтропия в газовом состоянии больше, чем в энтропия в жидком состоянии.
Изменение энтропии в системе вызвано изменением ее содержания тепла, что означает:
Изменение ЭНТРОПИИ равно изменению ЭНТАЛЬПИИ , деленное на среднюю абсолютную температуру.

Пример:
Нагреваем 1 кг воды от 0 до 100 гр.С  ( от 273 до 373 К) при атмосферном давлении.
Энтальпия при 0 С = 0 кДж/кг
Энтальпия при 100 С = 419 кДж./кг

Изменения энтальпии = (419-0)/((273+373)/2)=419/323=1,297 кДж/кг К
01.02.13 Автор: Дмитрий Мозговенко
Это может быть интересно
Почему нельзя оживить умерших?
что такое Аллейные гены
что такое патетика
что такое геометрический путь
Что такое "не"?
Войти
Просмотреть Вопросы и ответы в версии: для мобильных устройств | для ПК
©2014 Google - Политика конфиденциальности - Справка