Introdução

A palavra ‘entropia’ tem sido muito usada em debates, como no caso da controvérsia Evolucionismo versus Criacionismo. Em tais debates, são utilizados argumentos que chegam, às vezes, a atribuir à entropia propriedades que lhe são estranhas.

Nosso objetivo aqui é o de definir entropia e comentar rapidamente algumas de suas propriedades.

Antes de podermos definir entropia, precisaremos tecer algumas considerações sobre conceitos que serão utilizados na definição. Os dois conceitos mais importantes neste contexto são o de microestado e o de macroestado.

Nesta abordagem (holista), identificamos o estado de um sistema pelos valores de suas variáveis globais (que descrevem o estado do sistema como um todo). Um estado do sistema caracterizado somente por variáveis globais chama-se macroestado

 

Entropia e Desordem

A palavra ‘entropia’ tem sido associada a desordem. É importante lembrar que tal associação só é válida sob certas circunstâncias especiais. Um dos problemas deste tipo de associação é que ela se dá em um contexto em que não se utilizam definições formais e, freqüentemente, utilizam-se extrapolações sem maiores cuidados (mesmo porque nem sempre é possível ter-se cuidado quando se abre mão do raciocínio formal, isto é, matemático).

 

 

Entropia e Probabilidade

Imaginemos que são vendidos cem milhões de bilhetes de uma determinada loteria, sendo que só um deles dá direito ao primeiro prêmio, mil dão direito ao segundo prêmio (de muito menor valor), dez mil dão direito ao terceiro prêmio e os demais não dão direito a prêmios.

Ao comprarmos um bilhete desta loteria, a chance de que ele seja não premiado é de praticamente cem por cento. A chance de conseguirmos o terceiro prêmio é tremendamente menor, mas ainda muito maior do que a chance de obter o segundo prêmio. Podemos calcular a entropia associada a cada uma destas situações.

Chamemos de S1 a entropia associada à situação em que a pessoa obteve o primeiro prêmio, S2 a entropia associada à compra de um bilhete com o segundo prêmio, S3 à compra de um bilhete com o terceiro prêmio e S4 à compra de um bilhete sem prêmio.

Por simplicidade, vamos fazer de conta que

kB = 1 / ln(10)

(o que corresponde a uma certa escolha de unidades de medida). Assim, a fórmula da entropia, em nosso sistema de medição, passa a ser

S = kB ln(n) = ln(n) / ln(10) = log 10 (n) = log (n)

Nestas condições,

 

 

S1 = log(1) = 0,

S2 = log(1000) = 3,

S3 = log(10000) = 4,

S4 = log(99988999) ~ 7,99995222 ~ 8

A entropia cresce com a probabilidade associada a um estado.

Em sistemas físicos mais gerais, também ocorre este fenômeno. Quanto maior o número de microestados correspondentes a um macroestado, maior será a chance de encontrarmos o sistema neste macroestado e maior será a entropia associada a ele.

 

 

Entropia Crescente


Esta tendência que os sistemas físicos possuem de evoluir (mudar de estado com o tempo) em direção aos estados mais prováveis corresponde ao que usualmente se conhece por “segunda lei da Termodinâmica”.

Em termos bem simples, podemos dizer que a segunda lei da Termodinâmica estabelece que a entropia de um sistema isolado não diminui com o tempo. Ela só pode permanecer constante ou aumentar com o tempo.

Pelo estudo da Mecânica Estatística, entretanto, percebemos que o que ocorre é que a probabilidade de redução de entropia em um sistema isolado é extremamente próxima de zero. O valor exato desta probabilidade depende das características intrínsecas e do estado do sistema.

Mesmo assim, tal probabilidade costuma ser tão baixa que podemos considerá-la como sendo da ordem do impossível para a maioria dos casos práticos (senão todos), mesmo se esperarmos para que o improvável aconteça.