entropia

A entropia é uma medida da energia de um sistema não utilizável na realização de trabalho como grandeza física. Num sistema fechado um aumento da entropia é acompanhado por uma diminuição na energia utilizável.
Num sentido mais lato, a entropia pode ser interpretada como uma medida da desordem. Uma entropia elevada implica maior desordem. Como qualquer variação real, um sistema fechado tende para uma entropia mais elevada e, por isso, para maior desordem, assim conclui-se que a entropia do Universo está a aumentar, e a sua energia utilizável a diminuir.
Este aumento na entropia do Universo é um caminho que permite estabelecer a segunda lei da termodinâmica. De acordo com esta lei a entropia não pode diminuir durante as mudanças de estado do sistema. Esta grandeza representa-se pela letra S e foi introduzida em 1865 pelo físico alemão Rudolf Clausius.
O físico austríaco Ludwig Eduard Boltzmann deu também o seu contributo, ao reconhecer que o princípio de aumento da entropia era equivalente ao pressuposto probabilístico de que a energia de movimento distribuída entre as diferentes moléculas de um corpo passa constantemente de um estado menos provável para outro mais provável, não se produzindo o fenómeno contrário.
Quando um sistema sofre uma variação reversível de entropia (S), varia uma quantidade igual de energia (Q), transferida para o sistema na forma de calor, dividida pela temperatura termodinâmica (T) à qual ela se processa, ou seja: DS = DQ /T.
Como referenciar: entropia in Artigos de apoio Infopédia [em linha]. Porto: Porto Editora, 2003-2019. [consult. 2019-11-12 21:10:52]. Disponível na Internet: