Download as pdf or txt
Download as pdf or txt
You are on page 1of 235

Statistical Mechanics:

Lecture Notes

Raimundo Rocha dos Santos


Instituto de Fı́sica
Universidade Federal do Rio de Janeiro
Brazil

Thursday 10th May, 2018 – 19:23


2
Contents

1 Elements of Ensemble Theory 7


1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Macrostates and microstates . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Classical Ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4 Quantum Ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.5 The Approach to Equilibrium . . . . . . . . . . . . . . . . . . . . . . . . . 15

2 Equilibrium Ensembles and Thermodynamics 19


2.1 Equilibrium Solutions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2 The Microcanonical Ensemble . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3 Connection with Thermodynamics . . . . . . . . . . . . . . . . . . . . . . 22
2.4 The Canonical Ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.5 Thermodynamics in the Canonical Ensemble . . . . . . . . . . . . . . . . 30
2.6 Thermodynamic Potentials . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.7 Response Functions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.8 Stability of the Equilibrium State . . . . . . . . . . . . . . . . . . . . . . . 40
2.8.1 Conditions for Local Equilibrium in a PVT System . . . . . . . . . 40
2.8.2 Conditions for Local Stability . . . . . . . . . . . . . . . . . . . . . 41
2.8.3 Consequences of Stability . . . . . . . . . . . . . . . . . . . . . . . 43
2.9 The Grand-Canonical Ensemble . . . . . . . . . . . . . . . . . . . . . . . . 44
2.10 Equivalence between Equilibrium Ensembles . . . . . . . . . . . . . . . . . 48
2.11 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

3 Ideal Systems in Maxwell-Boltzmann Statistics 55


3.1 Definition of Ideal Systems . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.2 The Boltzmann Gas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.3 Paramagnetism of localized spins. . . . . . . . . . . . . . . . . . . . . . . . 57
3.4 Molecular Gas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.4.1 Rotation of Diatomic Molecules . . . . . . . . . . . . . . . . . . . . 66
3.4.2 Molecular Vibration . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.5 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

3
4 CONTENTS

4 Ideal Systems in Bose and Fermi Statistics 73


4.1 Indistinguishability . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.2 Ideal Systems of Bosons or Fermions . . . . . . . . . . . . . . . . . . . . . 75
4.3 Bose-Einstein and Fermi-Dirac distributions . . . . . . . . . . . . . . . . . 81
4.4 Degenerate Fermi gas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.5 Degenerate Bose gas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.6 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95

5 Applications of Ideal Quantum Systems 97


5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
5.2 Density of States for Fermionic Systems . . . . . . . . . . . . . . . . . . . 97
5.3 Magnetic Behaviour of an Ideal Fermi Gas . . . . . . . . . . . . . . . . . . 101
5.3.1 Pauli Paramagnetism . . . . . . . . . . . . . . . . . . . . . . . . . 101
5.3.2 Landau Diamagnetism . . . . . . . . . . . . . . . . . . . . . . . . . 104
5.3.3 The Quantum Hall Effect . . . . . . . . . . . . . . . . . . . . . . . 108
5.4 Thermodynamics of Blackbody Radiation . . . . . . . . . . . . . . . . . . 113
5.5 Phonons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
5.6 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121

6 Approximation Methods 125


6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
6.2 The Virial Expansion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
6.2.1 Deviation of gases from the ideal state . . . . . . . . . . . . . . . . 125
6.2.2 The virial expansion . . . . . . . . . . . . . . . . . . . . . . . . . . 129
6.2.3 The Van der Waals Equation . . . . . . . . . . . . . . . . . . . . . 131
6.3 Dense Fluids: Perturbation Theory . . . . . . . . . . . . . . . . . . . . . . 133
6.4 Monte Carlo Simulations . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
6.4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
6.4.2 Exchange interaction . . . . . . . . . . . . . . . . . . . . . . . . . . 135
6.4.3 The Basic Strategy . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
6.4.4 The Metropolis Algorithm . . . . . . . . . . . . . . . . . . . . . . . 137
6.4.5 Thermalization and Averaging . . . . . . . . . . . . . . . . . . . . 139
6.4.6 An Example: The 2D Ising Model . . . . . . . . . . . . . . . . . . 140
6.5 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141

7 Phase Transitions 143


7.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
7.2 Thermodynamics of Phase Transitions . . . . . . . . . . . . . . . . . . . . 144
7.2.1 Phase Coexistence: Gibbs Phase Rule . . . . . . . . . . . . . . . . 144
7.2.2 Classification of Phase Transitions . . . . . . . . . . . . . . . . . . 145
7.2.3 Pure Fluid Systems . . . . . . . . . . . . . . . . . . . . . . . . . . 147
7.2.4 Magnetic Systems . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
7.2.5 Percolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
7.3 Mean-Field Theories . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
CONTENTS 5

7.3.1 The van der Waals equation . . . . . . . . . . . . . . . . . . . . . . 153


7.3.2 Weiss Theory . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
7.3.3 Landau Theory . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
7.4 Exact Solution for the One-dimensional Ising Model . . . . . . . . . . . . 164
7.5 Critique of Mean-Field Theories . . . . . . . . . . . . . . . . . . . . . . . . 168
7.6 Universality and Scaling . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
7.7 The Position-Space Renormalization Group . . . . . . . . . . . . . . . . . 177
7.8 Examples of PSRG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
7.9 The Momentum-Space Renormalization Group . . . . . . . . . . . . . . . 184
7.9.1 The Gaussian Model . . . . . . . . . . . . . . . . . . . . . . . . . . 186
7.9.2 The S 4 Model . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
7.10 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195

8 Nonequilibrium Statistical Mechanics 203


8.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
8.2 Time-dependent Probability Distributions . . . . . . . . . . . . . . . . . . 203
8.3 The Master Equation and the Fokker-Planck Equation . . . . . . . . . . . 206
8.4 Random Walk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
8.5 Movimento Browniano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
8.5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
8.5.2 Teoria de Langevin para o Movimento Browniano . . . . . . . . . . 210
8.5.3 Influence of the rapidly fluctuating force . . . . . . . . . . . . . . . 212
8.6 Spectral analysis of fluctuations . . . . . . . . . . . . . . . . . . . . . . . . 216
8.7 Boltzmann Equation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
8.7.1 Derivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
8.7.2 The Relaxation Time Approximation . . . . . . . . . . . . . . . . . 228
8.7.3 Boltzmann’s H Theorem . . . . . . . . . . . . . . . . . . . . . . . . 230
8.8 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
6 CONTENTS
Chapter 1

Elements of Ensemble Theory


Refs.: Balescu, Pathria, Huang

1.1 Introduction
Ao investigarmos as propriedades fı́sicas de um corpo macroscópico, em termos de
seus constituintes microscópicos, devemos redirecionar o enfoque utilizado na descrição
dinâmica de um sistema de partı́culas. Com efeito, mesmo que pudéssemos resolver as
equações de movimento (sejam elas clássicas ou quânticas) para um grande número de
partı́culas, isto não nos ajudaria a responder às questões formuladas a respeito do corpo
macroscópico, tais como a dependência da resistividade de um metal com a temperatura.
Desta forma, necessitamos um formalismo capaz de estabelecer uma ponte entre a
descrição microscópica e as leis, já estabelecidas, do mundo macroscópico. Este forma-
lismo é a Mecânica Estatı́stica.
Apesar de ter iniciado como uma teoria cinética de gases, a Mecânica Estatı́stica
é aplicável à matéria em qualquer estado. De fato, graças a este formalismo foram
elucidados muitos aspectos da matéria nas fases sólida, lı́quida ou gasosa, bem como
matéria composta de várias fases e de vários componentes; de matéria em condições
extremas de densidade e temperatura; de matéria em equilı́brio com radiação, como em
estrelas, etc. Mais ainda, o formalismo pode ser utilizado na descrição de estados de
equilı́brio, bem como de não-equilı́brio, o que contribui para a compreensão de como um
dado sistema se aproxima do equilı́brio.

1.2 Macrostates and microstates


The first step to understand the Statistical Mechanics framework is to fully appreciate
the difference between macrostates and microstates of a system. Note that the system
in question may be part of a larger one, but we always have in mind a system with a
large number, N ∼ 1023 , of constituents; the latter is to be understood as particles,
normal modes of vibration, excitations, or quanta. A macroscopic state (macrostate) is
specified by a set of macroscopic variables, the most common examples of which being
the total energy, temperature, number of particles, and several others, depending on
the nature of the system. For a fluid, for instance, one may additionally specify the

7
8 CHAPTER 1. ELEMENTS OF ENSEMBLE THEORY

pressure, while keeping fixed the volume of the container; for a magnet, one may specify
the magnetisation, while keeping fixed an applied magnetic field. The set specifying the
macrostate can be comprised of a single variable or by several ones.
The microscopic state (microstate) is specified in the usual way in the realm of
classical or quantum mechanics. A classical system of N particles in a three-dimensional
space is specified, at a given time, by 3N generalised coordinates q ≡ q1 , q2 , . . . , q3N ,
and by the 3N generalised conjugate momenta p ≡ p1 , p2 , . . . , p3N ; the number, 3N , of
pairs (qi , pi ) is the number of degrees of freedom of the system. For a system described
by a Hamiltonian, H(q, p), its time evolution can in principle be obtained by solving
Hamilton’s equations of motion,
∂H ∂H
q̇i = , ṗi = − , (1.2.1)
∂pi ∂qi
for a given set of initial conditions. One can therefore represent the microstate of this
system, at a given instant of time, by a point

(q, p) ≡ (q1 , q2 , q3 , . . . , q3N , p1 , p2 , . . . , p3N ), (1.2.2)

in a 6N -dimensional space, called the phase space. As time evolves, (q, p) follows a
trajectory in phase space. For instance, the state of a single particle undergoing one-
dimensional harmonic motion with a fixed total energy is represented by a point describ-
ing an ellipse in the two-dimensional phase space, (x, p).
The microstate of a quantum mechanical system of N particles is specified by a
complex wave function, Ψ(x, t) ≡ Ψ(x1 , x2 , . . . , x3N , t), where the xi are the particle
coordinates; when internal degrees of freedom (such as spin states) are relevant, the
wave function depends on additional quantum numbers specifying these variables, e.g.
Ψ{σ} (x, t). We recall that the wave function provides the maximum information available
about the system. One may equivalently think in terms of an abstract state, |Ψ(t)i,
whose projection in the so-called coordinate representation, |x1 x2 . . . x3N i, yields the
wave function, Ψ(x, t). The time evolution of the microstate |Ψ(t)i is governed by the
Schrödinger equation,

i~ |Ψ(t)i = H|Ψ(t)i, (1.2.3)
∂t
whose solution can be expressed in terms of the time evolution operator,

U (t) ≡ e−iHt/~ , if H 6= H(t), (1.2.4)

which is unitary, U † = U −1 , as

|Ψ(t)i = U (t)|Ψ(0)i, (1.2.5)

where |Ψ(0)i represents the initial condition on the state, assigned at t = 0. Therefore,
the microstate evolves in time in a Hilbert space, instead of in a phase space.
Usually many initial microstates (classical or quantum) correspond to the same
macrostate specifications. For instance, there are many ways in which one can mi-
croscopically prepare an isolated system of non-interacting particles with a specified
1.3. CLASSICAL ENSEMBLES 9

PN
macroscopic (total) energy E = i εi , where εi is the energy of the i-th particle.
Therefore, measurements of most (classical or quantum) dynamical quantities at a given
time would be strongly dependent on the microstate under consideration, thus ultimately
being dependent on the initially prepared state. This is totally unsatisfactory, since such
measurements are not reproducible: if one repeats the experiment at a later time, most
certainly the initial microstate would be different, hence leading to a different outcome
of the measurement. By contrast, if we measure, say the resistivity of a pre-heated
metallic wire as a function of time, we see that the outcome is reproducible, provided
the initial conditions (i.e., the temperature distribution) is the same every time the ex-
periment is performed, even though the initial microstate is most likely different. We
must therefore abandon the notion of ‘absolutely precise’ measurements of quantities
related to individual particles, in favour of a statistical framework which incorporates,
at a fundamental level, the multiplicity of acceptable microstates.1 That is, through this
framework we expect to predict an average outcome of a great number of experiments,
carried out under identical conditions, to measure collective properties of a system. The
need for a statistical framework is therefore much more deeply rooted than the common
misconception of attributing this need to our inability to solve the equations of motion
for 1023 particles.
This statistical framework may be introduced by simultaneously considering all pos-
sible initial microstates compatible with the specified macrostate; we call this set our
ensemble of microstates. Our first task is then to mathematically characterise the dis-
tribution of microstates. Since the classical and quantum approaches differ in the way
each microstate is defined, one should now split the discussion into classical and quantum
ensembles.

1.3 Classical Ensembles


For a classical system, we may discretise the phase space by dividing it into cells of
‘volume’ dq dp, where we use the notation dq ≡ d3N q and dp ≡ d3N p, for a three-
dimensional system. We then imagine counting the number, dN (q, p; t), of microstates
in which, at a given instant of time, the particle coordinates and momenta lie within
the volume dq dp centred at (q, p). However, dN (q, p; t) depends on the volume itself,
which is an arbitrary choice. This arbitrariness is removed by working with a density
of representative points (per volume in phase space), denoted by ρ(q, p; t); that is, the
number of points within the said volume is given by

dN (q, p; t) = ρ(q, p; t) dq dp. (1.3.1)


1
Given an arbitrary quantum-mechanical pure state, the maximum amount of information one can
extract about the measurements of an observable in this state are the possible outcomes (the eigenvalues
of the observable) and their relative probabilities, from which we determine an expectation value. If
this pure state happens to be one of the eigenstates of that observable, then the outcome is certainly
the corresponding eigenvalue. However, the multiplicity to which we refer here is relative to the many
different pure states in which the system can be found; more on this below.
10 CHAPTER 1. ELEMENTS OF ENSEMBLE THEORY

At a given instant, a local maximum of ρ [and, of course, of dN ] at (q̃, p̃) means that
one is more likely to find microstates with the particles distributed over (q̃, p̃) than over
nearby values of q and p. Hence, we also refer to ρ(q, p; t) as the probability distribution
function.
Let us now derive an equation of motion for ρ(q, p; t). The differential of ρ(q, p; t) is
3N  
∂ρ X ∂ρ ∂ρ
dρ = dt + dqi + dpi , (1.3.2)
∂t ∂qi ∂pi
i=1

so that with dqi = q̇i dt and dpi = ṗi dt, we arrive at Liouville’s equation,
3N  
dρ ∂ρ X ∂ρ ∂ρ
= + q̇i + ṗi . (1.3.3)
dt ∂t ∂qi ∂pi
i=1

Now,

∂ρ ∂(ρq̇i ) ∂ q̇i
q̇i = −ρ
∂qi ∂qi ∂qi
∂(ρq̇i ) ∂2H
= −ρ , (1.3.4)
∂qi ∂qi ∂pi

where we have used (1.2.1). Similarly,

∂ρ ∂(ρṗi ) ∂ ṗi
ṗi = −ρ
∂pi ∂pi ∂pi
∂(ρṗi ) ∂2H
= +ρ . (1.3.5)
∂pi ∂pi ∂qi

Taking (1.3.4) and (1.3.5) into (1.3.3) leads to


3N  
dρ ∂ρ X ∂ ∂
= + (ρq̇i ) + (ρṗi ) , (1.3.6)
dt ∂t ∂qi ∂pi
i=1

so that defining the velocity vector of the representative points as

v ≡ (q̇1 , q̇2 , . . . , q̇3N , ṗ1 , ṗ1 , . . . , ṗ3N ), (1.3.7)

and introducing the 6N -dimensional analogue of the del operator,


 
∂ ∂ ∂ ∂ ∂ ∂
∇≡ , ,..., , , ,..., , (1.3.8)
∂q1 ∂q2 ∂q3N ∂p1 ∂p2 ∂p3N

we may write Liouville’s equation as


dρ ∂ρ
= + ∇ · ρ v. (1.3.9)
dt ∂t
1.3. CLASSICAL ENSEMBLES 11

Let us now use the fact that the number of members in the ensemble is conserved: if
we consider a volume Γ in phase space, the rate of probability change in Γ results from
a flux of probability current, j ≡ ρv, through the closed surface SΓ bounding Γ. That
is,

Z Z
dq dp ρ(q, p; t) = − j · n dS
∂t Γ SΓ
Z
= − dq dp ∇ · j, (1.3.10)
Γ

where, in the first equality, dS is a surface element of SΓ , and n is the outward unit
vector normal to SΓ at each point; in the second equality we made use of the divergence
theorem. Rearranging terms leads to
 
∂ρ
Z
dq dp + ∇ · ρv = 0. (1.3.11)
Γ ∂t
Since this must hold for any Γ, the integrand must vanish identically, thus establishing
a continuity equation for the probability distribution, in analogy with fluid dynamics.
We have therefore proved Liouville’s theorem:
dρ ∂ρ
= + ∇ · ρv = 0. (1.3.12)
dt ∂t
The continuity equation allows us to view the theorem as a statement that the distribu-
tion of representative points moves in phase space as if it were an incompressible fluid.
Moreover, recall that ∂ρ(q, p; t)/∂t captures changes in ρ at a fixed point in phase space,
while ∇ · ρv picks up contributions due to changes in ρ along the trajectory in phase
space; the dρ/dt = 0 part in Liouville’s theorem therefore implies that the distribution
function remains constant in the neighbourhood of a point moving with this fluid.
At this point it is instructive to seek a formal solution to the continuity equation.
Taking (1.2.1) into (1.3.3) yields
3N  
∂ρ X ∂ρ ∂H ∂ρ ∂H
=− − , (1.3.13)
∂t ∂qi ∂pi ∂pi ∂qi
i=1

where the RHS is recognised as the Poisson bracket between ρ and H, denoted by [ρ, H]P ;
we may use an even more compact notation,
[H]ρ ≡ [ρ, H]P , [H]2 ρ ≡ [[ρ, H]P , H]P , . . . . (1.3.14)
Assuming ρ(q, p; t) can be expanded in a power series in time leads to [we omit here
the arguments (q, p)]
∂ρ 1 ∂2ρ
ρ(t) = ρ(0) + t+ t2 + . . .
∂t t=0 2 ∂t2 t=0
 
1
= 1 − [H] t + [H]2 t2 + . . . ρ(0), (1.3.15)
2
12 CHAPTER 1. ELEMENTS OF ENSEMBLE THEORY

or, schematically,
ρ(q, p; t) = e−t[H] ρ(q, p; 0), (1.3.16)
which is the formal solution we were seeking.
If we now define the Liouvillian operator, L, as

3N  
X ∂H ∂ ∂H ∂
L ≡ −i − , (1.3.17)
∂pj ∂qj ∂qj ∂pj
j=1

then Eq. (1.3.13) may be written as

∂ρ
i = Lρ(q, p; t). (1.3.18)
∂t
In many texts L is defined without the i, but here we adopt this definition in order to
render L Hermitian, and directly exploring the analogy with the Schrödinger equation.
We see that while H determines the evolution of a single point in phase space, L de-
termines the evolution of the distribution function (hence of the ensemble) in the same
space.
Once ρ(q, p; t) is determined, we can normalise it,
Z
dq dp ρ(q, p; t) = 1. (1.3.19)

Since ρ(q, p; t) is a probability density, it can also be used to calculate averages of any
microscopic quantity B(q, p ; x), where x is a point in space (e.g. the height where the
pressure of a gas is being determined), as
Z
hB(x, t)i = dq dp ρ(q, p; t)B(q, p ; x), (1.3.20)

with ρ(q, p; t) evolving in time according to Eq. (1.3.16). We adopt Eqs. (1.3.19) and
(1.3.20) as the basic postulate of classical Statistical Mechanics.

1.4 Quantum Ensembles


Let us first consider a quantum system in a pure state, |Ψ(t)i. Observables, such as
energy, momentum, and so forth, are described by Hermitian operators,2 b̂† = b̂, whose
time evolution is given by the Heisenberg equation of motion [1],
 
d d
i~ b̂H (t) = [b̂, H]H + i~ b̂S (t) , (1.4.1)
dt dt H

2
Here we use a “hat” (e.g., b̂) to distinguish a quantum operator from a number, but later we will
drop this notation, if no confusion is likely to arise.
1.4. QUANTUM ENSEMBLES 13

where [A, B] ≡ AB − BA is the commutator between operators A and B, and the


subscript H stands for an operator in the Heisenberg picture; for instance,

AH (t) = U † (t − t0 )AS (t0 )U (t − t0 ), (1.4.2)

with U (t − t0 ) being the time evolution operator (between instants t0 and t), as given
by Eq. (1.2.4). The subscript S stands for Schrödinger picture [1]. If the observable b̂
does not depend explicitly on time, the equation of motion becomes
d
i~ b̂H = [b̂, Ĥ]H . (1.4.3)
dt
As mentioned before, the outcome of an experiment measuring the observable b̂ in a
pure state |Ψ(t)i is necessarily one of the eigenvalues of b̂. Therefore, the most we can
predict is the expectation value,

b̄(t) = hΨ(t)| b̂ |Ψ(t)i = hΨ| b̂H |Ψi, (1.4.4)

where |Ψi ≡ |Ψ(t = 0)i.


If we now expand |Ψi in terms of an orthonormal basis, |mi,
X
|Ψi = cm |mi, (1.4.5)
m

we have X
b̄ = c∗m cn bmn , (1.4.6)
m,n

where Z
bmn ≡ hm|b̂|ni = dx ϕ∗m (x) B(x) ϕn (x), (1.4.7)

where, as before, x ≡ x1 , x2 , . . . , x3N , ϕm (x) ≡ hx|mi, and B(x) ≡ hx|b̂|xi.


We now consider an ensemble of quantum systems, prepared according to the same
specified macrostate; let |Ψ(i) i denote the initial pure state of the i-th member of the
ensemble. We assume the maximum information one has about this ensemble is that
the probability of finding the system in each state |Ψ(i) i is γi , subject to the conditions,
X
γi ≥ 0 and γi = 1. (1.4.8)
i

The system is then said to be described by a statistical mixture ofPstates. As such, this
cannot be represented by a linear superposition of states, |χi = i α(i) |Ψ(i) i. Indeed,
when one takes hχ|χi in the latter case, interference terms appear which are absent in
the former [1].
In order to obtain an expression for the ensemble average of an observable b̂, it
is convenient to first expand each of the states in the mixture in terms of the same
orthonormal basis, |ri, as X
|Ψ(i) i = c(i)
r |ri. (1.4.9)
r
14 CHAPTER 1. ELEMENTS OF ENSEMBLE THEORY

The expectation value of b̂ in the state |Ψ(i) i is then


X
b̄ (i) = cr(i)∗ c(i)
s brs , (1.4.10)
r,s

where brs is given by Eq. (1.4.7).


We now perform a second average, this time in the ensemble:
X X X
hbi = γi b̄ (i) = γi cr(i)∗ c(i)
s brs . (1.4.11)
i i r,s

These are the results that should be compared with experiments.


We can perform the sum over the members of the ensemble first, thus defining a
matrix ρ, whose elements in the basis {|ri} are
X
ρsr ≡ γi c(i) (i)∗
s cr , (1.4.12)
i

where the order of the indices should be noted. It should also be noted that ρsr is only
concerned with the ensemble (and the chosen basis), not with the observable b̂. In order
to eliminate the reference to the basis, we define the density operator (or density matrix )
as the one whose elements in the {|ri} basis are given by
ρsr = hs|ρ̂|ri. (1.4.13)
The ensemble average (1.4.11) can then be written as
X X X
hbi = brs ρsr = hs|ρ̂|rihr|b̂|si = hr|ρ̂ b̂|ri. (1.4.14)
r,s r,s r

The last sum above is the trace of the operator ρ̂ b̂, which, in turn, is actually independent
of the basis used. Hence,
B = hbi = Tr ρ̂ b̂ = Tr b̂ ρ̂, (1.4.15)
where in the last equality we used the property that the trace is invariant under cyclic
permutations of the operators.
(i)
Note that as time evolves the coefficients acquire a time dependence, cr (t), which
in turn leads to a time dependent ρ̂(t), and to
B(t) = hbi(t) = Tr b̂ ρ̂(t). (1.4.16)
In particular, if b̂ = 1 we check if ρ̂ is normalised,
X X
Tr ρ̂ = γi c(i) (i)∗
r cr = γi = 1, (1.4.17)
i,r i

whereas if it is not, the average values are then defined as


Tr ρ̂ b̂
hbi = . (1.4.18)
Trρ̂
Equations (1.4.16) and (1.4.17) are the respective analogues of (1.3.20) and (1.3.19),
so that the quantum version of the basic postulate becomes
1.5. THE APPROACH TO EQUILIBRIUM 15

• The state of a quantum system in Statistical Mechanics is completely specified in a


given instant of time by the density operator ρ̂, satisfying Eq. (1.4.17). The average
value of a dynamical variable b̂ is given by (1.4.15).

In order to interpret ρ̂, it is convenient to separate the diagonal and non-diagonal


contributions: X X
hbi = brr ρrr + brs ρrs . (1.4.19)
r r6=s

The diagonal elements of ρ̂ can be associated with probabilities, since


X
ρrr = γi |c(i) 2
r | , (1.4.20)
i

has the properties


X
ρrr ≥ 0 e ρrr = 1, (1.4.21)
r

obtained with the aid of Eqs. (1.4.8) e (1.4.17).


Therefore, ρrr may be interpreted as the probability of finding the system in the basis
state ϕr (x) = hx|ri; ρrr then measures the population of |ri. If ρ̂ is diagonal in the chosen
basis, {ϕr }, we would have ρrs = 0 para r 6= s, and the definition of the average value
B would be analogous to the classical case. Certainly this situation would be special,
since it is strongly dependent on the basis chosen, not being an intrinsic property of the
density operator. The off-diagonal terms do not have well-defined signs, so that they
cannot be associated with any probabilistic interpretation; they are, instead, associated
with interference effects without classical analogues, and are called coherences.
As with any quantum-mechanical operator, the time-dependence of ρ̂ is governed by
the Heisenberg equation of motion, Eq. (1.4.1). The probability is a constant of motion,
so that the left-hand side of Eq. (1.4.1) vanishes, and we are left with


i~ ρ̂(t) = [Ĥ, ρ̂(t)], (1.4.22)
∂t
which is known as the von Neumann equation, and plays the role analogous to the
Liouville equation for the classical case.
We may then say that, at least formally, the starting point of Statistical Mechanics
consists in the study of solutions to the Liouville or von Neumann equations.

1.5 The Approach to Equilibrium


Admitindo que as equações de movimento para a distribuição de probabilidades (ou para
a matriz densidade, no caso quântico) tenham sido resolvidas, podemos nos perguntar
se as soluções apresentam a tendência de decair para o equilı́brio.
16 CHAPTER 1. ELEMENTS OF ENSEMBLE THEORY

Figure 1.1: Schematic constant energy surface in phase space for an ergodic system.

Dois aspectos mostram que isto não é verdade. Em primeiro lugar, o fato dos autova-
lores de L serem reais3 indica que as soluções da Equação de Liouville são oscilatórias no
tempo, não tendendo, portanto, a uma solução estacionária quando t → ∞. Em segundo
lugar, a Equação de Liouville é invariante por inversão temporal, o que é incompatı́vel
com fenômenos irreversı́veis como o decaimento para o equilı́brio.
A descrição de irreversibilidade e decaimento para o equilı́brio faz parte de um ramo
da Mecânica Estatı́stica chamado de Teoria Ergódica, cujo objetivo é entender a origem
da irreversibilidade a partir dos fluxos da função de distribuição no espaço de fases. Neste
curso não discutiremos estas questões em detalhe; nos restringiremos a uma abordagem
introdutória a sistemas fora do equilı́brio na parte final. Todavia, podemos mencionar,
rapidamente (veja Ref. [3], Cap. 6, para detalhes), que dois tipos de fluxo no espaço de
fases são importantes para se entender o decaimento para o equilı́brio: fluxo ergódico
e fluxo com mistura. Para se compreender fluxo ergódigo, imagine um sistema isolado,
com energia E. A este sistema, portanto, corresponderá uma superfı́cie de (6N − 1)
dimensões no espaço de fases; à medida em que o tempo evolui, cada ponto representativo
se move nesta superfı́cie. Diz-se que o fluxo destes pontos é ergódico se quase todos
eles passam por qualquer vizinhaça arbitrária finita nesta superfı́cie. A Fig. 1.1 ilustra
esquematicamente esta superfı́cie, e algumas trajetórias.
Um critério para determinar se um sistema é ergódico ou não é dado pelo Teorema
Ergódico. Considere uma função f (q, p), integrável no espaço de fases. Um sistema é
3
This is a consequence of the fact that L is Hermitian; for a detailed discussion of the properties of
L, see, e.g. Ref. [2].
1.5. THE APPROACH TO EQUILIBRIUM 17

ergódico se, para todas as funções f , a média temporal


t0 +T
1
Z
hf iT = lim f (q(t), p(t)) dt (1.5.1)
T →∞ T t0

existe para quase todos (q, p) e, quando existir, fôr igual à média no ensemble

1 1
Z Z
hf iS = P f (q, p) dSE = P dqdp δ(H(q, p) − E) f (q, p), (1.5.2)
(E) SE (E)

onde dSE é um P elemento da superfı́cie de energia E, invariante durante a evolução


do sistema e (E) é a área desta superfı́cie. Assim, fluxo ergódico corresponde ao
conjunto de pontos representativos visitar quase toda a superfı́cie SE , após um tempo
suficientemente longo, permanecendo em áreas iguais por tempos iguais.
Sistemas com fluxo ergódico não atingem equilı́brio a não ser que já tenham partido
de um estado de equilı́brio. Para que o equilı́brio seja atingido, o fluxo deve ter também a
propriedade de mistura. Neste tipo de fluxo, a distribuição de probabilidades se espalha
pelo espaço de fases à medida em que o tempo evolui. Note que sistemas com fluxos de
mistura são ergódicos mas a recı́proca não é verdadeira.
No próximo capı́tulo estudaremos os ensembles de equilı́brio, sem nos preocuparmos
com os mecanismos que levam um determinado sistema a esta situação.
18 CHAPTER 1. ELEMENTS OF ENSEMBLE THEORY
Chapter 2

Equilibrium Ensembles and


Thermodynamics
Refs.: Balescu, Pathria, Huang, Reichl

2.1 Equilibrium Solutions


Discutiremos aqui algumas soluções de equilı́brio – isto é, independentes do tempo – das
equações de Liouville e de von Neumann.
No caso clássico, a equação de Liouville se reduz a

[H, ρ]P = 0. (2.1.1)

Se a dependência de ρ com q e p se dá através deR H – isto é, ρ = ρ(H(q, p)) – então
[H, ρ]P = 0, e ρ é uma solução aceitável, desde que dq dp ρ = 1 e ρ ≥ 0.
Analogamente, no caso quântico, se ρ̂ = R̂(Ĥ) com Tr ρ̂ = 1 e ρrr ≥ 0, então

[Ĥ, ρ̂] = 0, (2.1.2)

representando uma solução de equilı́brio.


Mais ainda, qualquer constante de movimento é solução da respectiva equação (Li-
ouville ou von Neumann), mas discutiremos ρ como função de H apenas. A inclusão
de outras constantes de movimento e o subsequente estudo das trajetórias de sistemas
dinâmicos é discutida em maiores detalhes no contexto da Teoria Ergódica.
Pode-se determinar várias soluções ρ (e ρ̂) que satisfaçam as Eqs. (2.1.1) e (2.1.2). A
mais simples atribui o mesmo peso aos estados compatı́veis com as condições macroscó-
picas e peso zero aos demais; isto é conhecido como o ‘postulado das probabilidades
iguais a priori’.
Nas discussões dos vários ensembles que faremos a seguir, é ilustrativo pensarmos
inicialmente em sistemas fluidos, como um gás, para fixar conceitos. Nestes casos, duas
das variáveis caracterı́sticas são a pressão e o volume, mas na Seção 2.6 discutiremos
outras variáveis relevantes para caracterizar, por exemplo, sistemas magnéticos.

19
20 CHAPTER 2. EQUILIBRIUM ENSEMBLES AND THERMODYNAMICS

2.2 The Microcanonical Ensemble


Nosso objetivo agora é construir uma função de distribuição representando um tipo de
estado de equilı́brio. Começaremos pela descrição quântica, que é mais clara e funda-
mental em muitos aspectos.
O caso mais simples que podemos considerar é o de um sistema isolado: ele não
interage com o mundo exterior, sendo portanto caracterizado por ter energia constante.
Claramente isto é uma idealização, pois é impossı́vel desligar completamente a interação
com o mundo exterior. Por outro lado, o número de estados por intervalo de energia é
muito grande (∼ aN , onde a é um tamanho linear tı́pico do sistema e N é o número de
partı́culas), de modo que uma pequena – mas macroscópica – incerteza na energia total
equivale a incorporar ou retirar da discussão um grande número de estados compatı́veis.
Assim, definiremos um ‘sistema isolado’ como tendo energia entre E e E + ∆E, com
∆E  E. Além disto, suporemos o sistema contido em um volume V muito maior que
volumes tı́picos da escala molecular (i.e., V  10−30 m3 ), e com N (∼ 1023 ) partı́culas.
Para obter a matriz densidade neste caso, usemos uma representação em que a Hamil-
toniana seja diagonal, de modo que ρ̂ também o seja devido à sua dependência com Ĥ:

1
ρmn = am δmn , (2.2.1)

onde m representa um conjunto de números quânticos que caracterizam completamente
um autoestado do sistema, e am e Ω serão definidos abaixo. Os números pm ≡ am /Ω
devem ser positivos pois representam a probabilidade de se encontrar o sistema no estado
m (e não com energia Em ).
De acordo com a discussão anterior, introduzimos agora o postulado das probabili-
dades iguais a priori: (
1 se E ≤ Em ≤ E + ∆E
am = (2.2.2)
0 outros casos.

Já Ω é determinado pela normalização de ρ̂:

1X 1 X0
Tr ρ̂ = am = 1 = 1, (2.2.3)
Ω m Ω m
P0
onde restringe a soma apenas aos estados compatı́veis com energia total entre E e
E + ∆E. Logo,
X
0
Ω= 1 (2.2.4)
m

é o número de estados acessı́veis com energia entre E e E + ∆E.


Devemos notar aqui que Ω é uma função da energia E, do intervalo ∆E, e depende
parametricamente (i.e., via Em ) do volume V e do número de partı́culas N :

Ω ≡ Ω(E; ∆E; N, V ). (2.2.5)


2.2. THE MICROCANONICAL ENSEMBLE 21

A análise do caso clássico segue as mesmas linhas do caso quântico. O postulado das
probabilidades iguais a priori é imposto à função de distribuição clássica para microes-
tados com energia E0 :
(
1/Ω se E ≤ E0 ≤ E + ∆E
ρ(q, p) = (2.2.6)
0 em outros casos.

Analogamente ao caso quântico, a normalização de ρ nos permite interpretar Ω como o


número de pontos acessı́veis no espaço de fase, dado por
Z 0 Z 0
Ω = Ω0 dq dp, (2.2.7)

onde as linhas nas integrais restringem ao volume no espaço de fase correspondente à


energia no intervalo entre E e E + ∆E.
No caso clássico, necessitamos de uma constante Ω0 para que Ω seja adimensional.
Além disto, levando em conta a indistinguibilidade das partı́culas, devemos ter
1
Ω0 = , (2.2.8)
h3N
0 N!

onde h0 é uma constante com dimensão de momento angular (h0 → h na passagem para
a Mecânica Quântica) e N ! é o fator de correção introduzido por Gibbs que leva em
conta, de maneira aproximada, o fato das partı́culas serem indistinguı́veis.
Em muitos casos é mais simples calcular o número de estados com energia menor
que E, Z
Σ(E) = Ω0 dq dp, (2.2.9)
H<E
onde deve ser notado que a integral no espaço de fase passa a incorporar o fator Ω0 dado
por (2.2.8). Usando Σ(E), podemos escrever

Ω(E) = Σ(E + ∆E) − Σ(E) ≈ D(E) ∆E, (2.2.10)

já que ∆E  E, e
∂Σ
D(E) = (2.2.11)
∂E
é a densidade de estados acessı́veis com energia E. Uma discussão análoga se aplica ao
caso quântico.
Para uma partı́cula livre em uma caixa cúbica de volume V , temos (veja Exercı́cios
2.1 e 2.2) Σ1 ∼ E 3/2 V ; para N partı́culas não-interagentes,

ΣN ∼ ΣN
1 ∼E
3N/2 N
V . (2.2.12)

Assim, como N  1, a densidade de estados cresce muito rapidamente com E. Na


Fig. 2.1 ilustramos esquematicamente a dependência de D com E, e identificamos também
Σ(E), e Ω(E) = D(E)dE.
22 CHAPTER 2. EQUILIBRIUM ENSEMBLES AND THERMODYNAMICS

D
( )
( )

E
Figure 2.1: Schematic density of states for N free particles in a cubic box of volume V
as a function of the total energy.

2.3 Connection with Thermodynamics


A Termodinâmica (TD) Clássica parte de algumas poucas observações experimentais
que dão origem, essencialmente, a três leis, que podem ser resumidas como a seguir:

1a Lei (Conservação da Energia): A variação na energia interna de um sistema é


dada por
dE = d−Q − d−W, (2.3.1)
onde d−Q é a quantidade de calor absorvida pelo sistema e d−W é o trabalho executado
pelo sistema, num processo infinitesimal. Estas duas últimas grandezas dependem do
processo, enquanto que a energia é uma função de estado; para discussões e aplicações
da 1a Lei, veja, por exemplo, Ref. [4].

2a Lei (Crescimento da entropia): Em um sistema fechado e fora do equilı́brio, os


processos ocorrem de modo que uma função de estado, denominada entropia (S) cresça
continuamente, até atingir o valor máximo, correspondente ao estado de equilı́brio. A
entropia é definida termodinamicamente pela sua variação,
d−Q
dS ≥ (2.3.2)
T
onde T é a temperatura absoluta do sistema. A igualdade é válida num processo in-
finitesimal quase-estático, i.e., aquele em que o sistema evolui lentamente, numa sucessão
de estados de equilı́brio, sendo, portanto, reversı́vel.
2.3. CONNECTION WITH THERMODYNAMICS 23

Como consequência destas duas leis, temos

T dS ≥ dE + d−W (2.3.3)

onde, novamente, a igualdade se refere a processos reversı́veis.

3a Lei (Limite de entropia): A entropia de um sistema é tal que

lim S = S0 , (2.3.4)
T →0+

onde S0 é uma constante independente de todos os parâmetros do sistema.


Aqui não discutiremos aplicações especı́ficas destas leis, apesar de sua importância,
pois espera-se que tenham sido exaustivamente exploradas durante os cursos de gradua-
ção, tanto de Fı́sica básica, quanto de Fı́sica Estatı́stica ao nı́vel da Ref. [4]. Todavia,
a partir destas leis é possı́vel impor vı́nculos às várias grandezas que caracterizam o
comportamento térmico e mecânico da matéria, como faremos no decorrer deste curso;
da mesma forma, elas servem como teste de validade dos resultados obtidos em diversas
situações fı́sicas.
Apesar do enorme sucesso, a Termodinâmica tem limitações intrı́nsecas. Por exem-
plo, ela fornece relações entre as várias quantidades, mas não nos dá meios para calculá-
las individualmente. Assim, uma relação entre os calores especı́ficos a volume (cV ) e a
pressão (cP ) constantes pode ser deduzida por argumentos puramente termodinâmicos,
de modo que o conhecimento de um deles implica no conhecimento do outro, mas não
sabemos como calcular cP ou cV . Ou seja, a Termodinâmica não é uma teoria mi-
croscópica.
É a Mecânica Estatı́stica que nos permite efetuar esta transição, fazendo contato
com a TD. No ensemble microcanônico isto é feito definindo a entropia estatisticamente
como
S ≡ kB ln Ω(E, V, N ), (2.3.5)
onde kB é a constante de Boltzmann, e a dependência com ∆E foi omitida. Isto porque,
na maioria dos casos de interesse, o número de estados com energia entre E e E + ∆E
cresce tão rapidamente, que a contribuição para Ω devido à vizinhança imediata de E
é muito maior do que a contribuição relativa a todas as energias até E. Assim, para
o cálculo da entropia através da Eq. (2.3.5), é equivalente utilizar Ω(E), o número de
estados com energia entre E e E + ∆E, ou Σ(E), o número de estados com energia
menor que E, ou, ainda, D(E), a densidade de estados na energia E, pois as diferenças
são da ordem de ln N ou menores; veja Ref. [5], Cap. 6, para detalhes.
Fisicamente, a entropia é uma medida do grau de desordem do sistema, no sentido de
que quanto maior fôr o número de estados acessı́veis, maior a aleatoriedade associada ao
macroestado. Assim, a segunda lei da termodinâmica nos diz que o estado de equilı́brio
é o mais aleatório possı́vel, ou o mais provável.
Para verificar que a entropia é uma grandeza extensiva, suponha que o sistema con-
sista de vários subsistemas, cada um dos quais com Ω1 , Ω2 , . . . estados acessı́veis. Então,
o número de estados do sistema é o produto dos Ωi , de modo que a entropia é a soma
24 CHAPTER 2. EQUILIBRIUM ENSEMBLES AND THERMODYNAMICS

S1 S2

( E 1, V1 , N1) ( E 2, V2 , N2)

Figure 2.2: Two subsystems, S1 and S2 separated by a partition.

das entropias dos sub-sistemas. A aditividade de uma grandeza significa que quando a
quantidade de matéria (e, por conseguinte, o número N de partı́culas) é alterada por
um fator, ela é alterada pelo mesmo fator. Em outras palavras, uma grandeza ter-
modinâmica aditiva deve ser uma função homogênea de primeiro grau nas respectivas
variáveis aditivas, isto é,
S = N s(E/N, V /N ), (2.3.6)
onde s é a entropia por partı́cula, que é função somente de duas variáveis intensivas,
E/N e V /N .
Considere agora o sistema S como composto de apenas duas partes, S1 e S2 (Fig. 2.2),
cujos macroestados sejam caracterizados pelos parâmetros (E1 , V1 e N1 ) e (E2 , V2 e N2 ),
respectivamente; a estes parâmetros correspondem Ω1 e Ω2 estados. Suponhamos que
S1 e S2 estejam em contato térmico através de uma parede, permitindo apenas troca de
energia entre eles.
Com a parede imóvel e impenetrável, V1 , V2 , N1 e N2 são mantidos separadamente
fixos, mas as energias E1 e E2 são variáveis e sujeitas à condição

E = E1 + E2 = cte. (2.3.7)

O número de estados acessı́veis a S é, portanto,

Ω(E1 , E2 ) = Ω1 (E1 ) Ω2 (E2 ) = Ω1 (E1 ) Ω2 (E − E1 ) = Ω(E, E1 ). (2.3.8)

Como vimos, o estado de equilı́brio corresponde ao máximo de Ω. Chamando de Ē1


e Ē2 as energias de S1 e S2 na situação de equilı́brio, a condição de máximo de Ω fica
  
∂Ω ∂Ω1 ∂Ω2 ∂E2
= Ω2 (Ē2 ) + Ω1 (Ē1 ) =0 (2.3.9)
∂E1 E1 =Ē1 ∂E1 E1 =Ē1 ∂E2 E2 =Ē2 ∂E1

Devido a (2.3.7), ∂E2 /∂E1 = −1, e a condição de equilı́brio térmico fica


   
∂ ln Ω1 (E1 ) ∂ ln Ω2 (E2 )
= (2.3.10)
∂E1 E1 =Ē1 ∂E2 E2 =Ē2
2.3. CONNECTION WITH THERMODYNAMICS 25

Definindo  
∂ ln Ωi (Ei )
βi = , (2.3.11)
∂Ei Ei =Ē
temos
β1 = β2 , (2.3.12)
ou, identificando βi = 1/kB Ti , com T sendo a temperatura absoluta,

T1 = T2 . (2.3.13)

Suponhamos agora que, além de condutora térmica, a partição da Fig. 2.2 seja móvel
e permeável, de modo que o número de estados é Ω(E, V, N, E1 , V1 , N1 ), já que agora as
somas V1 + V2 = V e N1 + N2 = N são constantes. Impondo que dΩ = 0, para variações
independentes de E1 , V1 , e N1 , somos levados a ∂Ω/∂V1 = ∂Ω/∂N1 = 0, o que fornece
as condições de equilı́brio mecânico,

P1 = P2 (2.3.14)

onde a pressão de cada subsistema é definida como


 
1 ∂ ln Ωi
Pi = , (2.3.15)
βi ∂Vi Ei ,Ni

e de equilı́brio quı́mico,
µ1 = µ2 , (2.3.16)
onde o potencial quı́mico de cada sub-sistema é definido como
 
1 ∂ ln Ωi
µi = − , (2.3.17)
βi ∂Ni Ei ,Vi

cujo significado fı́sico será discutido mais adiante.


Alternativamente, a Eq. (2.3.5) pode ser invertida para expressar a energia como
função de S, V e de N . A extensividade de E, S e V implica em que E(S, V, N ) seja da
forma
E = N e(S/N, V /N ), (2.3.18)
onde a energia interna por partı́cula, e, é função de apenas duas variáveis.
A energia interna é um potencial termodinâmico,1 isto é, todas as grandezas termo-
dinâmicas podem ser calculadas a partir dela por operações algébricas simples ou por
diferenciações; neste último caso, surgem as quantidades termodinamicamente conju-
gadas, como discutido a seguir.
Consideremos um processo quase-estático [i.e., vale a igualdade na Eq. (2.3.3)], no
qual, adicionalmente, o número de partı́culas possa variar (com a consequente con-
tribuição na variação da energia interna). Com E = E(S, V, N ), a conservação da
1
Uma apresentação mais detalhada dos potenciais termodinâmicos será feita da Seção 2.6.
26 CHAPTER 2. EQUILIBRIUM ENSEMBLES AND THERMODYNAMICS

energia [Primeira Lei da Termodinâmica, com d−W = P dV ] pode, então, ser escrita
como
dE = T dS − P dV + µ dN. (2.3.19)
Por outro lado, como a diferencial de E é dada por
     
∂E ∂E ∂E
dE = dS + dV + dN, (2.3.20)
∂S V,N ∂V S,N ∂N S,V

podemos obter as seguintes grandezas:



∂E
Temperatura T = (T conjugada a S) (2.3.21)
∂S V,N
 
∂E
Pressão P = − (−P conjugada a V ) (2.3.22)
∂V S,N
 
∂E
Potencial quı́mico µ = (µ conjugada a N ) (2.3.23)
∂N S,V

No ensemble microcanônico, portanto, as variáveis independentes são (E, V, N ) ou


(S, V, N ), das quais podemos extrair (T, P, µ). Todavia, a escolha das variáveis inde-
pendentes é ditada por diferentes condições experimentais. Em princı́pio, se conhecês-
semos as três funções (2.3.21)-(2.3.23), poderı́amos expressar qualquer conjunto de três
variáveis em termos das restantes. Claramente, esta situação é rara na prática, mas pode
ser remediada usando outros ensembles ou, equivalentemente, fazendo transformações de
Legendre nos diferentes potenciais termodinâmicos (veja a Seção 2.6).

2.4 The Canonical Ensemble


Na seção anterior, supusemos que o sistema estivesse isolado. Esta hipótese, além de
irreal, é restritiva, pois não permite o estudo de sistemas que interajam com suas vizi-
nhanças através de trocas de energia de várias formas. Para estudar estes casos, consi-
deremos primeiramente um sistema muito grande e isolado – chamêmo-lo de ‘universo’,
U – , com energia EU ; este é descrito por um ensemble microcanônico. O sistema S,
objeto de nosso estudo, com NS partı́culas num volume VS , é um subsistema de U , que
interage com o mundo exterior, W , complemento de S, com NW partı́culas num volume
VW ; veja a Fig. 2.3.
Façamos as seguintes hipóteses: (1) 1  NS  NW , de modo que a Mecânica
Estatı́stica seja aplicável a S; (2) U esteja em equilı́brio, de modo que a densidade de
partı́culas e todas as outras propriedades locais sejam uniformes, a menos de flutuações;
(3) S não corresponde a regiões com grandes flutuações, de modo que as densidades em
S e W são aproximadamente iguais:
NS NW
≈ . (2.4.1)
VS VW
2.4. THE CANONICAL ENSEMBLE 27

R0 S

RS W

Figure 2.3: Schematic representation: The system S has typical dimensions RS , and is
a subsystem of the microcanonical Universe, U. The external world, W, is much larger
than its complement S. R0 is the length scale of the interactions between the particles.

Os resultados que deduziremos a seguir serão válidos no chamado limite termodinâ-


mico:

NS , NW → ∞
NW
→∞
NS
VS , VW → ∞,

com
NS NW
= = n. (2.4.2)
VS VW
A energia do Universo pode ser escrita como
0
EU = ES + EW + HSW , (2.4.3)

onde ES é a energia de S que, sendo uma grandeza extensiva (i.e., aditiva), é da ordem
de VS ; EW é a energia de W que, analogamente, é da ordem de VW ; HSW 0 é a energia
de interação entre S e W , que é da ordem de VC , onde VC é o volume da região de
interação entre S e W (VC ∼ RS2 R0 , onde RS é a dimensão tı́pica de S e R0 é o alcance
do potencial de interação entre as partı́culas; veja a Fig. 2.3). Logo, em comparação com
a menor escala de energias (dentre S e W ), tem-se
0
|HSW | R2 R0
VC −1/3
∼ ∼ S 3 ∼ VS . (2.4.4)
|ES | VS RS

Assim, escolhendo S como um sistema de grandes dimensões, podemos desprezar


0
HSW 0
em presença de ES . Note que HSW é fisicamente importante como um mecanismo
de troca de energia entre S e W , porém contribui com uma parcela numericamente
28 CHAPTER 2. EQUILIBRIUM ENSEMBLES AND THERMODYNAMICS

EW EW + EU EU +

Em

Figure 2.4: S is in a state of energy Em , the energy of U lies in the range EU and EU +∆,
and the energy of W lies in the range EW and EW + ∆.

pequena à energia total. Desta forma, S e W podem ser considerados como praticamente
desacoplados:
EU ≈ ES + EW , com ES  EW . (2.4.5)
Chegamos agora à questão crucial no Ensemble Canônico: Sabendo que o Universo
é descrito por um ensemble microcanônico, qual a probabilidade, pm , de encontrar S
num dado estado quântico, caracterizado pelo conjunto de números quânticos m, e pela
energia Em ?
Dado que U tem energia entre EU e EU + ∆E, então W tem energia entre EU − Em
e (EU − Em ) + ∆E, quando S tem energia Em ; veja a Fig. 2.4. O número de estados
de W que satisfazem esta condição é ΩW (EU − Em ; ∆E), que também é o número de
configurações do Universo em que S está num único estado m, com energia Em e, con-
juntamente, W tem energia neste intervalo. Em outras palavras, a cada estado de W ,
com EU − EW = Em , corresponde um estado de S possı́vel, com energia Em .
Devido ao postulado de probabilidades iguais a priori, todas as configurações pos-
sı́veis contadas em ΩW têm mesma probabilidade. Assim, a probabilidade pm de que
S esteja no estado m é dada pela razão entre o número de configurações do Universo
nas quais S está no estado m, ΩW (EU − Em ; ∆E), e o número total de configurações do
Universo, ΩU (EU , ∆E):
ΩW (EU − Em ; ∆E)
pm = . (2.4.6)
ΩU (EU ; ∆E)
Expandindo ln ΩW na vizinhança de EU , obtemos
 
∂ ln ΩW
ln ΩW (EU − Em ) ' ln ΩW (EU ) − Em . (2.4.7)
∂E E=EU

Chamando β ≡ (∂ ln ΩW /∂E)E=EU , e levando (2.4.7) em (2.4.6), vem

1 −βEm
pm = e . (2.4.8)
Z
O parâmetro β será interpretado (a menos de uma constante; veja a Seção 2.5) como o
inverso da temperatura do Universo. Como supusemos o Universo e, por conseguinte, S
e W , em equilı́brio, T ≡ 1/βkB é também a temperatura de S. Note que, desta forma,
a temperatura aparece como um parâmetro, independente de Em .
2.4. THE CANONICAL ENSEMBLE 29

O outro parâmetro, Z, também independe de Em , e pode serPdeterminado em ter-


mos de quantidades dependentes de S através da normalização m pm = 1 (a soma é
entendida como sobre os estados m). Temos, então,
X
Z= e−βEm , (2.4.9)
m

que é a função de partição do sistema. É uma das grandezas mais importantes em


Mecânica Estatı́stica de Equilı́brio porque dela decorrem várias grandezas termodinâmi-
cas. Z depende explicitamente da temperatura e parametricamente (através de Em ) do
número de partı́culas N e do volume V .
Para construir a matriz densidade no ensemble canônico, notemos que ela deve ser
função do operador Hamiltoniano, Ĥ, apenas. Assim, este ensemble será uma solução
estacionária da equação de von Neumann.
Na base de autoestados de Ĥ podemos escrever

ρmn = pm δmn , (2.4.10)

já que os elementos diagonais de ρ̂ representam a probabilidade de se encontrar um


membro do ensemble no estado m. Usando a Eq. (2.4.8), vem
1 −βEm
ρmn = e δmn . (2.4.11)
Z

É conveniente expressarmos ρ̂ em termos de operadores, de modo a independer da


base. Para isto, notemos que
1 X
ρ̂ = |ni e−βEn hn|, (2.4.12)
Z n

onde a soma é sobre todos os estados do sistema, satisfaz a Eq. (2.4.11). Como e−βEn |ni =
e−β Ĥ |ni, se Ĥ|n = En |n , temos

1 −β Ĥ
ρ̂ = e , (2.4.13)
Z
com
Z = Tr e−β Ĥ . (2.4.14)
Como o traço independe da base utilizada para escrever o operador, fica claro que a
definição (2.4.14) permite calcular Z em qualquer base. Este fato é crucial para o
desenvolvimento de aproximações sistemáticas no cálculo de Z.
Uma vez obtida a matriz densidade, o postulado básico da Mecânica Estatı́stica
determina que os valores médios de observáveis são dados por

hAi = Tr ρ̂ Â. (2.4.15)


30 CHAPTER 2. EQUILIBRIUM ENSEMBLES AND THERMODYNAMICS

Ensemble Canônico no Caso Clássico.


Por analogia com o caso quântico [c.f. Eq. (2.4.12)], a função de distribuição no En-
semble Canônico Clássico é definida como
1 −βH(q,p)
ρ(q, p) = e , (2.4.16)
Z
onde a função de partição é

1
Z
Z= dq dp e−βH(q,p) , (2.4.17)
hsN
0 N!

e inclui a ‘regra de contagem’ 1/N ! para evitar o paradoxo de Gibbs (veja, p.ex., Ref. [6]),
e s é o número de graus de liberdade por partı́cula.
Da mesma forma, as médias termodinâmicas de variáveis dinâmicas b(q, p) são dadas
por
1
Z
hbi = sN dq dp ρ(q, p) b(q, p). (2.4.18)
h0 N !

2.5 Connection with Thermodynamics in the Canonical


Ensemble
As grandezas termodinâmicas podem ser divididas essencialmente em três grupos:

(1) Parâmetros externos – são aqueles fixos pelas condições externas, de um modo
preciso, sem referência ao estado interno do sistema. Ex.: Volume, número de
partı́culas, campos externos, etc.

(2) Grandezas Mecânicas – são definidas como médias de grandezas microscópicas. Ex.:
Energia Interna, pressão, etc.

(3) Grandezas Térmicas – são associadas a propriedades coletivas e, portanto, não po-
dem ser definidas como médias de grandezas microscópicas. Ex.: Temperatura,
Entropia, Energia Livre.

Os parâmetros externos são conhecidos de modo preciso; logo, não necessitam de


tratamento estatı́stico. Já as grandezas mecânicas, sendo definidas como médias de
variáveis dinâmicas, podem ser obtidas diretamente [c.f. Eqs. (2.4.15) ou (2.4.18)].
Para definir as grandezas térmicas, imaginemos dois sub-sistemas S1 e S2 do Universo,
que interajam fracamente entre si, trocando energia, como esquematizado na Fig. 2.5. O
mesmo argumento usado para desprezar a energia de interação entre S e W na Seção
2.4 pode ser aplicado aqui para desprezar a energia de interação entre S1 e S2 . Assim,
2.5. THERMODYNAMICS IN THE CANONICAL ENSEMBLE 31

S2
S1
W

Figure 2.5: The system S of Fig. 2.3 is made up of two subsystems S1 and S2 .

a probabilidade conjunta de encontrar S1 no estado n (com energia E1n ) e S2 no estado


m (com energia E2m ) é dada por
  
1 −β1 E1n 1 −β2 E2m
pnm = e e , (2.5.1)
Z1 Z2
com X
Zi = e−βi Eir , i = 1, 2. (2.5.2)
r
Impondo que S1 e S2 estejam em equilı́brio mútuo, a situação é idêntica à de um
sistema S, com energia Enm = E1n + E2m , imersos no mundo exterior W . Neste caso, a
distribuição de probabilidades no ensemble canônico é dada por
1 −β(E1n +E2m )
pnm = e , (2.5.3)
Z
com X
Z= e−β(E1n +E2m ) . (2.5.4)
m,n

A condição de equilı́brio térmico nos permite igualar (2.5.1) e (2.5.3), o que fornece
os resultados, já esperados,
β1 = β2 = β, (2.5.5)
isto é, mesma temperatura, βi = 1/kB Ti , e

Z = Z1 Z2 ⇒ ln Z = ln Z1 + ln Z2 , (2.5.6)

já que S1 e S2 (praticamente) não interagem.


O fato de ln Z ser uma quantidade aditiva sugere que seja extensiva, isto é, propor-
cional ao número de partı́culas do sistema, N . Para melhor explorar esta propriedade,
podemos definir uma grandeza

A(T, V, N ) = −kB T ln Z(T, V, N ), (2.5.7)


32 CHAPTER 2. EQUILIBRIUM ENSEMBLES AND THERMODYNAMICS

tal que, usando a prescrição de cálculo de médias de ensemble, Eqs. (2.4.15) ou (2.4.18),
a energia média pode ser escrita como
 
∂(βA)
hHi = (2.5.8)
∂β N,V
 
∂A
=A−T . (2.5.9)
∂T N,V

A conhecida relação da Termodinâmica (veja, p.ex., Refs. [4], ou [5]),

E = A + T S, (2.5.10)

onde E é a energia interna, e A é a energia livre de Helmholtz, sugere que E = hHi,


e que A(T, V, N ) dado por (2.5.7) seja de fato a energia livre de Helmholtz, e, como
tal, um potencial termodinâmico. Deve-se notar que como V e N são extensivas e T é
intensiva, a energia livre de Helmholtz sendo aditiva deve ser da forma

A = N a(T, V /N ), (2.5.11)

onde a (a energia livre de Helmholtz por partı́cula) é uma função de apenas duas
variáveis.
A partir de (2.5.10) podemos escrever A(T, V, N ) = E − T S, cuja diferencial é

dA = dE − d(T S). (2.5.12)

Usando (2.3.19), e o fato de que d(T S) = S dT + T dS, obtemos

dA = −SdT − P dV + µdN. (2.5.13)

a partir de onde chegamos às identificações

(i) Entropia:  
∂A ∂
S=− = kB (T ln Z); (2.5.14)
∂T N,V ∂T
esta relação justifica a introdução da entropia na comparação da Eq. (2.5.9) com a
(2.5.10).

(ii) Pressão  
∂A ∂
P =− = kB T ln Z; (2.5.15)
∂V T,N ∂V

(iii) Potencial Quı́mico  


∂A ∂
µ= = −kB T ln Z. (2.5.16)
∂N T,V ∂N
2.6. THERMODYNAMIC POTENTIALS 33

Consideremos agora um processo infinitesimal em que, por simplicidade, o número


de partı́culas seja mantido fixo. Então, de (2.5.10) temos

dA = dE − d(T S)
= d−Q − d−W − T dS − SdT , (2.5.17)

onde usamos a 1a lei, Eq. (2.3.1). O trabalho executado pelo sistema é, então,

d−W = (d−Q − T dS) − SdT − dA. (2.5.18)

Num processo isotérmico irreversı́vel, o termo entre parênteses é negativo [2a Lei,
Eq. (2.3.2)], de modo que
(d−W )irrev ≤ −dA , (2.5.19)
mostrando que −dA é o máximo trabalho que pode ser realizado pelo sistema a tempe-
ratura constante. Mais ainda, se o volume for fixo, d−W = 0 e um processo espontâneo
só ocorre se houver uma diminuição na energia livre de Helmholtz. Em outras palavras,

The equilibrium state of a system with fixed T , V and N corresponds to a minimum


of the Helmholtz free energy.

2.6 Thermodynamic Potentials


Em sistemas mecânicos conservativos, como uma mola ou uma massa suspensa em um
campo gravitacional, trabalho pode ser armazenado sob a forma de energia potencial
e posteriormente recuperado. Em algumas circunstâncias (processos reversı́veis) isto
também é verdade para sistemas termodinâmicos. Podemos armazenar energia em um
sistema termodinâmico realizando trabalho sobre ele em um processo reversı́vel e pode-
mos, eventualmente, recuperar esta energia sob a forma de trabalho. A energia que é
armazenada e recuperável sob a forma de trabalho é chamada de energia livre. Existem
tantas formas de energia livre em um sistema termodinâmico quanto o número de dife-
rentes combinações de vı́nculos. Devido ao papel análogo ao da energia potencial em sis-
temas mecânicos, estas grandezas são também chamadas de potenciais termodinâmicos.
Na seção anterior introduzimos a energia livre de Helmholtz A(T, V, N ) que é útil na
descrição de sistemas fechados (N constante), mecanicamente isolados (V constante) e
acoplados termicamente ao mundo exterior; isto é, T, V e N são as variáveis controláveis.
Antes de apresentarmos outros potenciais termodinâmicos, é conveniente generalizar
as variáveis de estado, (V, P ), usadas até aqui para fluidos, de modo a discutir quaisquer
sistemas termodinâmicos.
O estado termodinâmico de um sistema pode ser especificado completamente em
termos de uns poucos parâmetros, chamados de variáveis de estado. Apesar da possi-
bilidade de usarmos muitas destas variáveis, apenas algumas (em geral duas ou três)
são independentes. Na prática escolhe-se aquelas variáveis que são acessı́veis aos expe-
rimentos relativos ao sistema em questão.
34 CHAPTER 2. EQUILIBRIUM ENSEMBLES AND THERMODYNAMICS

Table 2.1: Pares de variáveis de estado conjugadas. As variáveis extensivas, X, corre-


spondem a deslocamentos generalizados e as variáveis intensivas, Y , a forças general-
izadas. Apesar de não corresponderem a um trabalho, a temperatura (T ) e a entropia
(S) são incluı́das na tabela para realçar seus papéis de variáveis conjugadas; idem para
o potencial quı́mico (µ) e o número de partı́culas (N ).

X volume magneti- length area (A) electric particle entropy


(V ) sation (L) polar- number (S)
(M) ization (N )
(P)
Y pressure magnetic tension surface electric chemical tempera-
(−P ) field (B) (−J) tension field (E) potential ture (T )
(−σ) (µ)

As variáveis de estado podem ser extensivas (que mudam de valor quando o ‘tama-
nho’ do sistema é mudado) e intensivas (que não mudam). Frequentemente, variáveis
de estado extensivas e intensivas aparecem aos pares por corresponderem a forças (Y )
e deslocamentos (X) generalizados que entram nas relações de trabalho termodinâmico,
como mostra a Tabela 2.1.
Outras variáveis de estado usadas para descrever o comportamento termodinâmico de
um sistema são as várias funções-resposta, como o calor especı́fico C, a compressibilidade
K, a suscetibilidade magnética χ, etc, que serão discutidas na próxima seção.
Podemos agora discutir outros potenciais termodinâmicos em termos de forças e
deslocamentos generalizados.
(1) Energia Interna: E(S, X, N )
Este potencial é útil quando o controle é feito sobre o número de partı́culas, o
deslocamento generalizado e sobre a entropia (p.ex.: num processo adiabático).
A passagem de A(T, X, N ) para E(S, X, N ) é feita através de uma transformação
de Legendre a partir da Eq. (2.5.13),
dA = −SdT + Y dX + µdN = −d(T S) + T dS + Y dX + µdN. (2.6.1)
onde fizemos a substituição
S dT = d(T S) − T dS. (2.6.2)
Reagrupando termos, vem
dE = d(A + T S) = T dS + Y dX + µdN, (2.6.3)
onde usamos a Eq. (2.5.10), e deve-se notar que T , Y e µ são considerados como
funções de S, X e N .
The right-hand side of Eq. (2.6.3) allows us to obtain T , Y and µ as derivatives of
E with respect to their respective conjugate variables, S, X and N . Therefore,
     
∂E ∂E ∂E
T = , Y = , e µ= . (2.6.4)
∂S X,N ∂X S,N ∂N X,S
2.6. THERMODYNAMIC POTENTIALS 35

One should also have in mind that the internal energy can be obtained directly as
the thermodynamic average of Ĥ, i.e. E = hĤi, as in Eq. (2.5.8).

(2) Energia Livre de Gibbs: G(T, Y, N )


Em processos nos quais se pode controlar a temperatura, a força generalizada e o
número de partı́culas, a energia livre de Gibbs é o potencial termodinâmico mais
adequado, já que nestes processos supõe-se que o sistema esteja acoplado térmica e
mecanicamente ao mundo exterior.
Efetuando uma transformação de Legendre análoga à usada para obter E, temos

G(T, Y, N ) = A − XY = N g(T, Y ), (2.6.5)

onde g(T, Y ) é a energia livre de Gibbs por partı́cula, e

dG = −SdT − XdY + µdN, (2.6.6)

o que nos permite obter S(T, Y, N ), X(T, Y, N ) e µ(T, Y, N ) como


     
∂G ∂G ∂G
S=− , X=− , e µ= = g(T, Y ). (2.6.7)
∂T Y,N ∂Y T,N ∂N T,Y

É interessante notar que a energia livre de Gibbs por partı́cula se distingue dos outros
potenciais termodinâmicos pelo fato de depender apenas de grandezas intensivas;
p.ex., g(T, P ) no caso de fluidos.
Ainda no caso de fluidos, do mesmo modo que a energia livre de Helmholtz, a energia
livre de Gibbs está relacionada a uma função de partição que, no presente caso, é
função de (T, P, N ). Para mostrar isto, consideremos uma situação semelhante à da
Seção 2.4, sendo que o sistema S agora tem volume V indeterminado, e está no estado
com energia EmV , e com pressão P . As energias continuam sendo relacionadas por
(2.4.5), e os volumes por

VU = V + VW = constante. (2.6.8)

Seja ΩW (EU − EmV , VU − V ; ∆E) o número de estados em que W tem energia entre
EU − EmV e EU − EmV + ∆E e volume VU − V . Expandindo ln ΩW até primeira
ordem em torno de (EU , VU ) vem

ln ΩW (EU − EmV , VU − V ) ' ln ΩW (EU , VU ) − β(EmV + P V ), (2.6.9)

onde usamos as identificações (2.3.11) e (2.3.15). Logo, a probabilidade de encontrar


S com volume V e no estado com energia EmV é

1
pmV = e−β(EmV +P V ) , (2.6.10)
Ξ(T, P, N )
36 CHAPTER 2. EQUILIBRIUM ENSEMBLES AND THERMODYNAMICS

onde Ξ(T, P, N ) é a função de partição, determinada pela normalização de pmV sobre


todos os volumes e estados:
Z ∞ X
dV pmV = 1. (2.6.11)
0 m

Therefore,
!
Z ∞ X Z
−βEmV
Ξ= dV e e−βP V = dV Z(T, V, N ) e−βP V , (2.6.12)
0 m

so that Ξ(T, P, N ) can be seen as an average of Z(T, V, N ) over all possible volumes,
weighted by exp(−βP V ); the volume V is therefore integrated out.
Façamos agora uma expansão em torno de V ∗ , o valor de V que maximiza o inte-
grando no lado direito de (2.6.12). O integrando é

f (V ) ≡ Z(V ) e−βP V , (2.6.13)

(apenas a dependência com V foi explicitada) cuja derivada com relação a V fornece
uma equação implı́cita para determinar V ∗

Z0
f 0 (V ) = e−βP V Z 0 − βP Z

= 0 ⇒ βP = . (2.6.14)
V∗ V∗ Z ∗
V

A segunda derivada de f (V ) pode ser escrita como


"  0 2 #
f 00 Z 00 Z ∂ 2 ln Z ∂2A
= − = = −β < 0, (2.6.15)
f ∗ Z Z ∗
∂V 2 ∗
∂V 2 ∗
V V V V

onde o sinal decorre do fato de que A deve ter um mı́nimo em V ∗ . Coletando termos,
vem
Z ∞ ( )
1 f 00
dV f (V ∗ ) 1 + (V − V ∗ )2 + O (V − V ∗ )3 .
 
Ξ= (2.6.16)
0 2 f ∗ V

Lembrando a desigualdade final em (2.6.15), o termo entre colchetes em (2.6.16)


pode ser aproximado por uma função gaussiana,
Z ∞
1 ∂2A
 
−βP V ∗ ∗ ∗ 2
Ξ' dV e Z(T, V , N ) exp − β (V − V ) , (2.6.17)
0 2 ∂V 2 V ∗

enfatizando que as contribuições dominantes à integral vêm da vizinhança imediata


de V ∗ . Tomando ln Ξ e multiplicando por −kB T vem

− kB T ln Ξ = A(T, V ∗ , N ) + P V ∗ , (2.6.18)
2.6. THERMODYNAMIC POTENTIALS 37

onde usamos a Eq. (2.5.7) e o fato de que a contribuição do termo gaussiano é da


ordem de ln N (Por quê?), o qual pode ser desprezado em presença de A e de V ∗ .
De (2.6.12) temos
dV V e−βP V Z(T, V, N )
R
∂  
−kB T ln Ξ(P, T, N ) = R ≡ hV i, (2.6.19)
∂P dV e−βP V Z(T, V, N )
enquanto que a Eq. (2.6.18) nos dá
∂ 
−kB T ln Ξ(P, T, N ) = V ∗ .

(2.6.20)
∂P
Ou seja, obtivemos um resultado que, na realidade, era de se esperar: o volume mais
provável de V é o próprio valor médio na distribuição canônica a uma dada pressão.
Em vista de (2.6.5-2.6.7) e de (2.6.20), podemos identificar

G(T, P, N ) = −kB T ln Ξ(T, P, N ) (2.6.21)

como a energia livre de Gibbs, e a Eq. (2.6.18) se reduz à Eq. (2.6.5).


Note que o máximo do integrando em (2.6.12) representa o mı́nimo de G para T, P
e N fixos. Therefore, similarly to what we have established for the Helmholtz free
energy,

The equilibrium state of a system with fixed T , P (or Y , in general) and N


corresponds to a minimum of the Gibbs free energy.

(3) Entalpia: H(S, Y, N )


É útil no estudo de sistemas cujo controle é feito através da entropia, da força
generalizada e do número de partı́culas. Procedendo de maneira análoga aos casos
anteriores temos,
H(S, Y, N ) = A + T S − Y X = N fH (S/N, Y ), (2.6.22)
onde fH é alguma função de suas duas variáveis. A diferencial de H,
dH = T dS − XdY + µdN, (2.6.23)
fornece
     
∂H ∂H ∂H
T = , X=− , e µ= . (2.6.24)
∂S Y,N ∂Y S,N ∂N S,Y

Existe um outro potencial termodinâmico, de grande utilidade para sistemas aber-


tos (i.e., que o número de partı́culas seja variável, controlado pelo potencial quı́mico)
chamado de gran-potencial, cuja discussão será feita no contexto do ensemble gran-
canônico.
38 CHAPTER 2. EQUILIBRIUM ENSEMBLES AND THERMODYNAMICS

2.7 Response Functions


Funções resposta são as quantidades termodinâmicas mais acessı́veis à experiência. Elas
nos dão informação de como uma variável de estado especı́fica muda à medida em que
outras variáveis de estado independentes são mudadas sob condições controladas. As
funções resposta podem ser dividas em dois grupos: funções térmicas (como capacidades
calorı́ficas) e funções mecânicas (como compressibilidade e suscetibilidade).

(1) Capacidade Calorı́fica


A capacidade calorı́fica, C, é uma medida da quantidade de calor (d−Q) necessária
para efetuar uma dada variação na temperatura (dT ) do sistema; em geral, define-se
C = d−Q/dT , de modo que, para uma dada quantidade de calor, o acréscimo de tem-
peratura é tanto maior quanto menor for a capacidade calorı́fica. Quando se mede
C, tenta-se manter fixas todas as variáveis independentes, exceto a temperatura.
Desta forma, existem tantas capacidades calorı́ficas quantas forem as combinações
de variáveis independentes; cada uma destas capacidades calorı́ficas contém diferen-
tes informações sobre o sistema.
As duas mais usadas são aquelas obtidas a volume (ou, genericamente, a X) con-
stante,    2 
∂S ∂ A
CX = T = −T , (2.7.1)
∂T X ∂T 2 X
onde usamos que d−Q = T dS), e, analogamente, à pressão (ou Y ) constante,
   2 
∂S ∂ G
CY = T = −T . (2.7.2)
∂T Y ∂T 2 Y

Mais tarde veremos que CY > CX ≥ 0. Note também que a capacidade calorı́fica
é uma grandeza extensiva porque a entropia o é. Daı́ ser freqüente a utilização do
calor especı́fico, c, que é dado pela razão entre C e alguma variável extensiva como
o número de moles, o número de partı́culas, ou o volume.

(2) Funções de Resposta Mecânica para Sistemas PVT


Em sistemas fluidos (PVT), freqüentemente queremos saber como o volume varia
com a pressão. Se a mudança ocorre a temperatura e número de partı́culas con-
stantes, a função resposta apropriada é a compressibilidade isotérmica,
1 ∂2G
   
1 ∂V
KT = − =− , (2.7.3)
V ∂P T,N V ∂P 2 T,N

e, para processos adiabáticos, definimos a compressibilidade adiabática


1 ∂2H
   
1 ∂V
KS = − =− . (2.7.4)
V ∂P S,N V ∂P 2 S,N
2.7. RESPONSE FUNCTIONS 39

Vê-se que, para um dado acréscimo na pressão, a variação relativa no volume é tanto
maior quanto maior for a compressibilidade.
A medida da variação do volume com a temperatura é dada pelo coeficiente de
expansão térmica, definido como
 
1 ∂V
αP = . (2.7.5)
V ∂T P,N

Note que tanto a compressibilidade quanto o coeficiente de expansão térmica são


grandezas intensivas.
Pode-se mostrar (veja Exercı́cio 7) que as funções-resposta térmicas e mecânicas
estão relacionadas através de

KT (CP − CV ) = T V αP2 (2.7.6)


CP (KT − KS ) = T V αP2 (2.7.7)
CP KT
= . (2.7.8)
CV KS

(3) Funções de Resposta Mecânica para Sistemas Magnéticos


A variação da magnetização com o campo magnético, h, a temperatura constante,
é dada pela suscetibilidade isotérmica
   2 
∂M ∂ G
χT = =− , (2.7.9)
∂h T,N ∂h2

enquanto que para processos adiabáticos tem-se


   2 
∂M ∂ H
χS = =− . (2.7.10)
∂h S,N ∂h2 S,N

Deve-se notar que, ao contrário da compressibilidade, a suscetibilidade é extensiva,


já que a magnetização o é.
De maneira análoga,  
∂M
αh = , (2.7.11)
∂T h,N

o que fornece as identidades

χT (Ch − CM ) = T αh2 (2.7.12)


Ch (χT − χS ) = T αh2 (2.7.13)
Ch χT
= . (2.7.14)
CM χS
40 CHAPTER 2. EQUILIBRIUM ENSEMBLES AND THERMODYNAMICS

2.8 Stability of the Equilibrium State


The second law of Thermodynamics may be formulated as follows: The change in entropy
of a system and its surroundings is positive, and goes to zero in a process approaching re-
versibility; in other words, the equilibrium state of a system is the one which maximizes
the entropy, therefore being stable with respect to spontaneous changes. The connec-
tion between microscopic and thermodynamic descriptions, which we established in the
previous sections, is an example of the far reaching consequences of the second law of
Thermodynamics.
The conditions determining the stability of the equilibrium state are yet another
consequence of the second law: recall that in Sec. 2.3, we maximised (the logarithm
of) the number of states of a system composed of two parts, 1 and 2, from which we
derived that these sub-systems should have the same temperature, pressure, and chemical
potential.
In Sec. 2.8.1 we will briefly revisit the derivation of equilibrium conditions, and in
Sec. 2.8.2 we discuss the local stability of the equilibrium state and its consequences for
the response functions.

2.8.1 Conditions for Local Equilibrium in a PVT System


Consideremos uma mistura de ` tipos de partı́culas numa caixa isolada de volume VT
dividida em duas partes, A e B, por uma parede porosa (permite troca de partı́culas) e
condutora que possa se mover livremente.2 Suponhamos que não haja reações quı́micas.
Como a caixa é fechada e isolada, a energia interna total é dada por

ET = EA + EB , (2.8.1)

o volume total é
VT = VA + VB , (2.8.2)
e o número total de partı́culas do tipo j é

NT j = NAj + NBj . (2.8.3)

Além disso, a entropia é aditiva, isto é,

ST = SA + SB . (2.8.4)

Suponhamos agora que mudanças espontâneas possam ocorrer na energia, no volume


e no número de partı́culas em cada partição, sujeitas aos vı́nculos

∆ET = ∆VT = ∆NTj = 0, (2.8.5)


2
Esta discussão pode ser trivialmente generalizada para o caso em que A seja um sistema S, em
estudo, e B seja o mundo exterior, W , como na Seção 2.4.
2.8. STABILITY OF THE EQUILIBRIUM STATE 41

já que o sistema composto está isolado e não há reações quı́micas. A mudança de entropia
total para estes processos pode ser escrita como
 
X  ∂Sα    `  
∂Sα X ∂Sα
∆ST =  ∆Eα + ∆Vα + ∆Nαj  ,
∂Eα Vα ,{Nαj } ∂Vα Eα ,{Nαj } ∂Nαj Eα Vα
α=A,B j=1
(2.8.6)
até termos de 1a. ordem.
Como
     
1 ∂S P ∂S µj ∂S
= , = , e − = , (2.8.7)
T ∂E V,{Nj } T ∂V E,{Nj } T ∂Nj E,V,{Ni6=j }

a Eq. (2.8.6) fica


    `  
1 1 PA PB X µBj µAj
∆ST = − ∆EA + − ∆VA + − ∆NAj . (2.8.8)
TA TB TA TB TB TA
j=1

Para um sistema em equilı́brio, a entropia é máxima. Portanto, qualquer mudança


espontânea deve ocasionar um decréscimo na entropia. Como ∆EA , ∆VA e ∆NAj podem
ser positivos ou negativos, para que ∆ST ≥ 0 devemos ter, necessariamente,

TA = TB , PA = PB e µAj = µBj , j = 1, . . . `, (2.8.9)

que são as condições de equilı́brio local para um sistema sem reações quı́micas.
Note que se a partição não for porosa, então ∆NA = ∆NB = 0 e podemos ter
µAj 6= µBj mesmo em equilı́brio. Se, além disto, a parede for fixa, podemos ter também
PA 6= PB e ainda teremos um estado de equilı́brio.

2.8.2 Conditions for Local Stability


A estabilidade do estado de equilı́brio impõe condições aos sinais das funções-resposta.
Para ver como isto ocorre, consideremos o mesmo sistema acima, com apenas um tipo
de partı́culas, por simplicidade.
Devido ao fato do número de partı́culas na caixa ser finito, haverá flutuações es-
pontâneas nas variáveis termodinâmicas de cada partição em torno de seus respectivos
valores de equilı́brio. Estas flutuações devem ser tais que VT , ET e NT sejam fixos,
mas que, de acordo com a 2a Lei, causem um decréscimo na entropia total ST . (Se ST
não decrescesse, o estado de equilı́brio seria instável e flutuações espontâneas levariam o
sistema a um estado de equilı́brio mais estável com entropia maior).
As condições de estabilidade local podem ser deduzidas formalmente através de uma
expansão de ∆ST ≡ ST −ST0 em termos de mudanças nas variáveis de estado; veja, p.ex.,
Reichl. No entanto, adotaremos aqui uma argumentação mais intuitiva, baseada no
princı́pio de Le Châtelier, para deduzir heuristicamente as consequências da estabilidade
para os sinais das funções resposta.
42 CHAPTER 2. EQUILIBRIUM ENSEMBLES AND THERMODYNAMICS

T T’ > T dQ T
T T

inicial final

Figure 2.6: th-stab

P’
V V
V+ V P>P’
inicial final

Figure 2.7: mech-stab.

O princı́pio de Le Châtelier pode ser enunciado da seguinte forma: Se um sistema se


encontra em um estado de equilı́brio estável, então qualquer variação espontânea em seus
parâmetros ocasiona processos que tendem a restaurar o estado de equilı́brio do sistema.
Vejamos como isto se reflete na estabilidade térmica e na estabilidade mecânica.

Estabilidade térmica:
Suponha que a temperatura aumente espontaneamente em uma região R do sistema
(veja a Fig. 2.6). O efeito deste aumento, de acordo com o Princı́pio de Le Châtelier, é
fazer com que a região R ceda calor ao meio externo (d−Q < 0), para abaixar a tempera-
tura de R (dT < 0), restaurando o equilı́brio. Logo,

d−Q
C≡ > 0. (2.8.10)
dT

Estabilidade mecânica:
Suponha que, devido a flutuações, o volume ocupado por uma quantidade de fluido
cresça espontaneamente (veja a Fig. 2.7), o que vem acompanhado de uma diminuição
na pressão. Assim, de acordo com o princı́pio de Le Châtelier, com uma pressão interna
menor que a externa, o volume diminuirá (dV < 0) até restaurar a situação inicial; neste
último estágio, dP > 0. Logo,

1 dV
K=− > 0. (2.8.11)
V dP
2.8. STABILITY OF THE EQUILIBRIUM STATE 43

2.8.3 Consequences of Stability


Em primeiro lugar notemos que as condições (2.8.10) e (2.8.11), quando levadas nas
Eqs. (2.7.6) e (2.7.7), implicam, respectivamente, em

CP ≥ CV > 0, (2.8.12)

e
KT ≥ KS > 0. (2.8.13)
No caso magnético as equações correspondentes são

Ch > CM e χT > χS . (2.8.14)

Em seguida, num processo a volume e número de partı́culas constantes temos dE =


T dS [c.f. Eq. (2.6.3)], e a condição de estabilidade fica
 
∂E
CV = > 0, (2.8.15)
∂T V

indicando que a energia interna cresce monotonicamente com a temperatura, a volume


constante. De modo análogo,  
∂H
CP = > 0, (2.8.16)
∂T P
indicando que a entalpia também cresce monotonicamente com a temperatura, a pressão
constante.
We can also determine some constraints governing the behaviour of the Helmholtz
and Gibbs free energies. Equations (2.7.1), (2.5.15), and (2.7.3) lead to
 2 
∂ A CV
2
=− <0 (2.8.17)
∂T V,N T
 2   
∂ A ∂P 1
2
=− = > 0. (2.8.18)
∂V T,N ∂V T,N V KT

Ou seja, a energia livre de Helmholtz A(T, V, N ) é uma função côncava da temperatura


e convexa do volume. Como a entropia, S = −∂A/∂T, e a pressão, P = −∂A/∂V,
são grandezas positivas, as monotonicidades de A com T e V ficam automaticamente
definidas. Estas inter-relações são ilustradas na Fig. 2.8.
Do mesmo modo, as Eqs. (2.7.2), (2.6.7), (2.8.12) e (2.8.13) nos dão
 2 
∂ G CP,N
=− < 0, (2.8.19)
∂T 2 P,N T
e
∂2G
 
= −V KT < 0. (2.8.20)
∂P 2 T,N
44 CHAPTER 2. EQUILIBRIUM ENSEMBLES AND THERMODYNAMICS

A A S P
(a) (b) (d)

(c)
T V T V

Figure 2.8: The Helmholtz free energy is (a) a concave function of T , and (b) a convex
function of V , whose monotonicity follows from the positivity of the entropy (c) and
pressure (d); see Eqs. (2.5.14) and (2.5.15).
G (a) G (b) V (c) S (d)

P T P T

Figure 2.9: The Gibbs free energy is a concave function both of (a) P , and (b) T ,
whose monotonicity follows from the positivity of the volume (c) and entropy (d); see
Eqs. (2.6.7).

Assim, a energia livre de Gibbs G(T, P, N ) é uma função côncava da temperatura e da


pressão. Como no caso da energia de livre de Helmholtz, as monotonicidades de G com
P e com T ficam definidas pelas positividades de V = ∂G/∂P e de S = −∂G/∂T ; veja
a Fig. 2.9.
Uma demonstração rigorosa para o análogo magnético não é fácil de ser obtida, mas
pode-se mostrar que continuam válidas as conclusões, desde que se faça a substituição
V → M e −P → H.

2.9 The Grand-Canonical Ensemble

Ao deduzirmos o ensemble canônico, consideramos a distribuição de um subsistema


em contato térmico com um grande sistema isolado. Isto permitia que o subsistema S
trocasse energia com a mundo exterior W, mantendo o número de partı́culas constante.
Nesta seção, o subsistema S poderá trocar matéria, além de energia, com o mundo
exterior; daı́, o número de partı́culas não mais será constante.
Podemos generalizar o procedimento da Seção 2.4 para tratar este problema. O
universo agora tendo energia EU e NU partı́culas, podemos perguntar qual é a probabil-
idade de encontrar o subsistema S, contendo N partı́culas, no estado quântico m, tendo
2.9. THE GRAND-CANONICAL ENSEMBLE 45

energia EmN . Um raciocı́nio análogo ao que nos levou às Eqs. (2.3.6) e (2.6.10) fornece

ΩW (EU − EmN , NU − N ; ∆E)


pmN = . (2.9.1)
ΩU (EU , NU ; ∆E)

Se S é pequeno, isto é, EmN  EU e N  NU , podemos expandir


 
∂ ln ΩW
ln ΩW (EU − EmN , NU − N ) ≈ ln ΩW (EU , NU ) − EmN
∂E E=EU ,N =NU
 
∂ ln ΩW
− N, (2.9.2)
∂N E=EU ,N =NU

e fazer as identificações  
1 ∂ ln ΩW
β= = , (2.9.3)
kB T ∂E EU ,NU
e  
1 ∂ ln ΩW
µ=− . (2.9.4)
β ∂N EU ,NU

Lembre-se que o potencial quı́mico, µ, tem dimensões de energia, podendo ser interpre-
tado como um parâmetro que controla o número de partı́culas do sistema.
De um modo análogo ao feito para o ensemble canônico, obtemos
1 −β(EmN −µN )
pmN = e , (2.9.5)
Z
onde Z é a gran-função de partição, determinada pela normalização de pmN ,
∞ X
X
pmN = 1. (2.9.6)
N =0 m

Note que agora devemos somar sobre todos os possı́veis números de partı́culas em S.
Daı́, temos
∞ X
X
Z(T, V, µ) = e−β[EmN −µN ] . (2.9.7)
N =0 m
A gran-função de partição depende dos parâmetros β, µ e, implicitamente, de V ;
ela tem o mesmo papel no ensemble gran-canônico que a função de partição tem no
ensemble canômico.
A Eq. (2.9.5) fornece os elementos diagonais da matriz densidade, numa representação
em que a Hamiltoniana e o operador número total de partı́culas (N̂ ) são diagonais.
Devemos considerar N̂ como um operador cujos autovalores são iguais aos inteiros não-
negativos. Assim, o formalismo da segunda quantização seria bastante apropriado no
tratamento do ensemble gran-canônico. Em termos de operadores, a matriz densidade é
dada por
1 −β(Ĥ−µN̂ )
ρ̂ = e , (2.9.8)
Z
46 CHAPTER 2. EQUILIBRIUM ENSEMBLES AND THERMODYNAMICS

e a gran-função de partição como

Z = Tr e−β[Ĥ−µN̂ ] , (2.9.9)

subentendendo-se a operação Tr como incluindo uma soma sobre os autovalores de N̂ ,


bem como soma sobre todos os estados de Ĥ possı́veis.
O limite clássico é obtido de forma também análoga à da Seção 2.6. A função de
distribuição clássica é
1 1 −β[HN (q,p)−µN ]
ρN (q, p) = e , (2.9.10)
hsN
0 N! Z
onde HN (q, p) é a Hamiltoniana do sistema com N partı́culas, e a gran-função de partição


1
X Z
Z= sN N !
e βµN
dq dp e−βHN (q,p) . (2.9.11)
N =0
h0

Para estudar a conexão do ensemble gran-canônico com a termodinâmica, lembre-


mos que os potenciais termodinâmicos discutidos no ensemble canônico, A, E, G e H,
representavam a descrição do sistema em termos das variáveis (T, V, hN i), (S, V, hN i),
(T, P, hN i) e (S, P, hN i), respectivamente, onde hN i é o número observado de partı́culas,
diferente da variável microscópica N̂ . No ensemble gran-canônico queremos substituir
hN i pelo potencial quı́mico µ. Para isto, podemos construir um novo potencial J(T, V, µ)
através de uma transformação de Legendre:

dA = −SdT − P dV + µdhN i
= −SdT − P dV + µdhN i − hN idµ + hN idµ, (2.9.12)

ou
dJ = SdT + P dV + hN idµ, (2.9.13)
com
J(T, V, µ) = −A + µhN i. (2.9.14)
Assim, uma vez determinado J, obtemos as grandezas
     
∂J ∂J ∂J
S= ; P = ; hN i = , (2.9.15)
∂T V,µ ∂V T,µ ∂µ T,V

onde é interessante notar que hN i é agora uma função de T, V e µ.


Utilizemos agora o fato de que J é uma variável extensiva, dependente de duas
variáveis intensivas (T e µ) e de uma extensiva (V ). Ao mudarmos o volume do sistema
por um fator λ, V → λV , devemos ter, necessariamente, J → λJ:

J(T, λV, µ) = λ J(T, V, µ). (2.9.16)

Para que isto ocorra, J deve ser da forma

J(T, V, µ) = V f (T, µ), (2.9.17)


2.9. THE GRAND-CANONICAL ENSEMBLE 47

onde f é função apenas de T e de µ. Usando o fato de que P = (∂J/∂V )T, µ , podemos


identificar
J(T, V, µ) ≡ V P (T, µ). (2.9.18)
Analogamente às energias livres de Helmholtz e de Gibbs, pode-se mostrar que para
processos reversı́veis a T, V e µ fixos, o estado de equilı́brio corresponde a um máximo
de J(T, V, µ). Note que alguns textos definem o gran-potencial como Ω = −J, de modo
que o estado de equilı́brio corresponde a um mı́nimo de Ω(T, V, µ).
Os outros potenciais termodinâmicos são definidos como

(i) Energia Interna: E(S, V, µ)

E = A + T S = µhN i − J + T S; (2.9.19)

(ii) Energia Livre de Gibbs: G(T, P, µ)

G = A + P V = J + A = µhN i; (2.9.20)

(iii) Entalpia: H(S, P, µ)


H = µhN i + T S. (2.9.21)

As médias no ensemble gran-canônico são definidas por

hOi = Tr ρ̂ Ô. (2.9.22)

Como exemplos, a energia interna (como função de T, V e µ) é



1 XX
E ≡ hĤi = Tr ρ̂ Ĥ = EmN e−β(EmN −µN ) , (2.9.23)
Z m N =0

enquanto que o número de partı́culas é



1 XX
hN i = Tr ρ̂ N̂ = N e−β(EmN −µN ) . (2.9.24)
Z mN =0

Para definir as grandezas térmicas, procedemos como na Seção 2.5: a condição de


equilı́brio entre os subsistemas S1 e S2 agora nos fornece β1 = β2 e µ1 = µ2 ; veja também
a discussão da Seção 2.3. De modo análogo, vemos que ln Z é uma quantidade extensiva.
Daı́, tomando
∂ 1 XX
N e−β(EmN −µN ) = hN i,

kB T ln Z = (2.9.25)
∂µ Z m N

ou, usando a terceira das Eqs. (2.9.15), podemos fazer outra identificação:

J(T, V, µ) ≡ kB T ln Z. (2.9.26)
48 CHAPTER 2. EQUILIBRIUM ENSEMBLES AND THERMODYNAMICS

Assim, uma vez calculada a gran-função de partição, temos, automaticamente, o gran-


potencial termodinâmico e o produto P V .
Finalmente, devemos notar que em alguns casos é conveniente usar uma variável

z ≡ eβµ , (2.9.27)

chamada de fugacidade. Daı́ temos



X
Z(T, V, z) = z N Z(T, V, N ), (2.9.28)
N =0

ou seja, a gran-função de partição é a função geratriz da função de partição canônica;


isto é, N !Z(T, V, N ) é o coeficiente de z N na expansão de Z em série de Taylor em z.

2.10 Equivalence between Equilibrium Ensembles: Fluc-


tuations
Nas seções precedentes construı́mos três ensembles distintos para descrever sistemas em
equilı́brio. Aparentemente eles correspondem a diferentes condições bem especificadas:
dada energia, dada temperatura ou dado potencial quı́mico. Vamos mostrar agora que,
na realidade, podemos ignorar estas especificações porque os resultados obtidos para as
grandezas termodinâmicas praticamente independem do ensemble utilizado. Assim, a
escolha do ensemble é motivada mais por conveniência de cálculos do que por razões
estritamente conceituais.
Qualitativamente, esta equivalência pode ser compreendida da seguinte forma. O
ensemble microcanônico descreve um sistema cuja energia H tem um valor fixo (que,
classicamente, se situa entre limites arbitrariamente estreitos). No ensemble canônico a
energia pode ter qualquer valor, mas é a energia média hHi que é fixa. O que vamos
mostrar é que, para um sistema com muitas partı́culas, a probabilidade de encontrarmos
um membro do ensemble com energia muito diferente de hHi é muito pequena.
Com efeito,
 
∂ ∂ 1 −β Ĥ 1 1  ∂Z
hĤi = Tr e Ĥ = − Tr e−β Ĥ Ĥ2 − 2 Tr e−β Ĥ Ĥ , (2.10.1)
∂β ∂β Z Z Z ∂β
onde
∂Z ∂ h i
= Tr e−β Ĥ = −Tr e−β Ĥ Ĥ = −ZhĤi. (2.10.2)
∂β ∂β
Logo,

hĤi = −hĤ2 i + hĤi2 . (2.10.3)
∂β
Por outro lado, lembrando que as derivadas são tomadas a volume constante,

∂hĤi ∂hĤi ∂T
= = −kB T 2 CV , (2.10.4)
∂β ∂T ∂β
2.10. EQUIVALENCE BETWEEN EQUILIBRIUM ENSEMBLES 49

o que nos fornece


hĤ2 i − hĤi2 ≡ h[Ĥ − hĤi]2 i = kB T 2 CV . (2.10.5)
Este resultado é extremamente importante porque relaciona as flutuações de uma
quantidade microscópica com algo facilmente mensurável, que é a capacidade calorı́fica.
Mais ainda, CV sendo uma grandeza extensiva, isto é, proporcional a N , e T sendo
intensiva, temos
hĤ2 i − hĤi2 ∼ N, (2.10.6)
de modo que a importância relativa das flutuações é dada por

h[Ĥ − hĤi]2 i1/2 N 1/2 1


∼ =√ −→ 0 (2.10.7)
hĤi N N N →∞

Assim, as flutuações de energia no ensemble canônico são muito grandes em valor


absoluto, mas desprezı́veis em comparação com os valores muito maiores da energia.
Isto significa que a probabilidade de encontrarmos um membro do ensemble com energia
E muito diferente de hĤi é, na prática, nula, estabelecendo a equivalência entre os
ensembles microcanônico e canônico.
Podemos agora mostrar a equivalência entre os ensembles gran-canônico e canônico,
dentro do mesmo espı́rito. Isto é, mostrando que as flutuações do número de partı́culas
em torno da média, no ensemble gran-canônico, são desprezı́veis.
Tomemos
 
∂ ∂ 1 −β[Ĥ−µN̂ ]
hN i = Tr e N̂ =
∂µ ∂µ Z
1   1   ∂Z
= β Tr e−β[Ĥ−µN̂ ] N̂ 2 − 2 Tr e−β[Ĥ−µN̂ ] N̂ (2.10.8)
Z Z ∂µ

onde
∂Z ∂ h i
= Tr e−β[Ĥ−µN̂ ] = β Tr e−β[Ĥ−µN̂ ] N̂ = βZhN i. (2.10.9)
∂µ ∂µ
Logo,
∂ h i
hN i = β hN 2 i − hN i2 (2.10.10)
∂µ
Para relacionar ∂hN i/∂µ com grandezas mais familiares, notemos que

∂hN i ∂hN i ∂hN i ∂hN i


         
∂P
= = , (2.10.11)
∂µ V,T ∂P V,T ∂µ V,T ∂P V,T ∂V µ,T

onde na última igualdade utilizamos a relação de Maxwell,

∂hN i
   
∂P
= . (2.10.12)
∂µ V,T ∂V µ,T

(Demonstre esta relação!)


50 CHAPTER 2. EQUILIBRIUM ENSEMBLES AND THERMODYNAMICS

Do mesmo modo como argumentamos para J, é facil ver que a quantidade extensiva
hN i, como função de V, T e µ deve ser da forma
hN i = V Q(T, µ), (2.10.13)
onde Q envolve apenas as variáveis intensivas T e µ. Daı́,
∂hN i hN i
 
= , (2.10.14)
∂V T, µ V
o que nos dá
∂hN i hN i ∂hN i
   
= . (2.10.15)
∂µ V,T V ∂P V,T
Considerando agora hN i como função de P, V e T , devemos ter, analogamente,
hN i = V g(T, P ), (2.10.16)
ou seja, hN i/V independe de hN i e de V . Por outro lado,
∂hN i
     
∂P ∂V
= −1, (2.10.17)
∂P V,T ∂V hN i,T ∂hN i P,T
de modo que, usando as Eqs. (2.7.3) e (2.10.16), temos
∂hN i
 
= hN iKT . (2.10.18)
∂P V,T
Finalmente,
∂hN i hN i2
 
= KT . (2.10.19)
∂µ V,T V
Este importante resultado fornece uma interpretação para sistemas incompressı́veis
(KT → 0) complementar à da não-variação de volume com pressão: são também aqueles
em que a injeção de partı́culas é extremamente difı́cil.
Chegamos então à relação final, análoga à Eq. (2.10.7):
1/2
h[N̂ − hN̂ i]2 i1/2

kB T
= nKT , (2.10.20)
hN i hN i
onde n ≡ hN i/V é a densidade média de partı́culas. Como KT é uma grandeza intensiva,
temos, em geral, KT√∼ 1 de modo que as flutuações relativas no número de partı́culas
são da ordem de 1/ N . Uma exceção a este comportamento de KT ocorre perto de
uma transição de fase, onde podemos ter KT ∼ N . Neste caso, as flutuações (crı́ticas)
ocorrem em grandes regiões, sendo responsáveis pelo fenômeno da opalescência crı́tica
em fluidos (veja o Cap. 7).
Podemos então concluir que o ensemble gran-canônico é equivalente ao canônico, a
não ser na vizinhaça do ponto crı́tico. Ao estudarmos fluidos nesta região, devemos
usar o formalismo gran-canônico, ao invés do canônico, se quisermos descrever estas
flutuações de maneira apropriada.
2.11. EXERCISES 51

2.11 Exercises
1. Considere uma partı́cula de massa m em uma caixa cúbica de lado L.

(a) Calcule o número de estados clássicos com energia menor que E.


(b) Calcule o número de estados quânticos com energia menor que E, e compare com
o caso clássico.
(c) Obtenha a equação de estado para um gás ideal com N destas partı́culas, no
ensemble microcanônico usando os resultados acima. Comente sobre o papel da
dimensão espacial d.

2. Obtenha a densidade de estados quânticos para partı́culas não-interagentes, em uma


caixa d-dimensional de dimensão linear L. A relação energia-momento para cada uma
das partı́culas é dada por ε = aps .

3. Em um cristal uni-dimensional monoatômico a relação energia-momento para fônons


(não-interagentes) é dada por  = 0 | sin ka/2|, com k ∈ (−π/a, π/a], onde a é o
parâmetro de rede. Obtenha a densidade de estados para estes fônons.

4. Consider N practically uncoupled harmonic oscillators in the microcanonical ensem-


ble. The total energy of the system is
1
E = N hν + M hν
2
where ν is the common frequency of all oscillators, and M is an integer.

(a) Show that the number of states with energy E is given by

(M + N − 1)! E 1
Ω(M, N ) = , with M = − N. (2.11.1)
M !(N − 1)! hν 2

(b) Assuming N, M  1, show that the energy is expressed in terms of the temper-
ature as  
1 1
E = N hν + . (2.11.2)
2 ehν/kB T − 1
Sketch E/N hν as a function of kB T /hν, and discuss the limits of high and low
temperatures.
(c) Show that the chemical potential is given by

µ = kB T ln [2 sinh(hν/2kB T )] . (2.11.3)

Sketch µ/kB T as a function of kB T /hν, and discuss the limits of high and low
temperatures.

5. Seja um sistema de N partı́culas independentes, cada uma das quais pode estar em
um de dois nı́veis de energia, ±0 .
52 CHAPTER 2. EQUILIBRIUM ENSEMBLES AND THERMODYNAMICS

(a) Obtenha o número de estados com energia E = M 0 , M = −N, −N + 2, . . . , N


(b) Obtenha a temperatura do sistema como função de E.
(c) Faça um esboço de S(E) e de T (E); discuta também a região E < 0.
(d) Obtenha o calor especı́fico dE/dT .

6. Um sistema de N (  1) osciladores com energia total E está em equilı́brio térmico.


Obtenha a probabilidade de que um oscilador esteja no estado n. Deduza seu resultado
a partir do Prob. 4, ı́tem (a).

7. Demonstre as seguintes relações:

KT (CP − CV ) = T V αP2 e CP (KT − KS ) = T V αP2 ,

onde KX e CY são a compressibilidade (a X constante) e a capacidade térmica (a Y


constante), respectivamente; αP é o coeficiente de expansão térmica
 
1 ∂V
αP = . (2.11.4)
V ∂T P

8. Discuta, para um sistema genérico, o comportamento de E, S, CP , CV , αP , (∂P/∂T )V


e KT quando T → 0.

9. Considere um sistema clássico de N PNpartı́culas independentes, cuja Hamiltoniana


2
pode ser escrita sob a forma H = i=1 Hi , com Hi = pi /2m. Obtenha a função
de partição clássica, e calcule as seguintes grandezas: A, µ, P , S, E, CP , CV . Faça
esboços ilustrando a dependência destas grandezas com a temperatura.

10. (a) Obtenha a seguinte relação de Maxwell para um sistema fluido:


   
∂µ ∂V
= .
∂P T,N ∂N T,P

(b) Mostre que, no caso de um gás ideal a uma dada temperatura T , a diferença de
potenciais quı́micos entre uma pressão arbitrária, P , e uma pressão de referência,
P0 , é dada por
µ(P ) − µ(P0 ) = kB T ln (P/P0 ) .
(c) No caso de um lı́quido incompressı́vel, o volume por partı́cula, v ≡ V /N , inde-
pende da pressão; mostre que, neste caso, tem-se

µ(P ) − µ(P0 ) = v (P − P0 ).

(d) Discuta os aspectos comuns aos resultados de (b) e (c).

11. Uma expressão aproximada (veja o Cap. 6) para a energia livre de Helmholtz de um
gás fracamente interagente é
N 2 kB T
A(T, V, N ) = A(0) (T, V, N ) + b(T ),
V
2.11. EXERCISES 53

onde A(0) = −N kB T ln eV /N Λ3 é a energia livre de Helmholtz para o gás ideal,



1/2
com Λ = h2 /2πmkB T , e b é função apenas da temperatura.

(a) Obtenha a capacidade calorı́fica a volume constante, e compare com a do gás


ideal.
(b) Obtenha a dependência explı́cita com T, P e N da energia livre de Gibbs, G;
compare com o resultado para o gás ideal.
(c) Obtenha a capacidade calorı́fica a pressão constante, e compare com a do gás
ideal.
54 CHAPTER 2. EQUILIBRIUM ENSEMBLES AND THERMODYNAMICS
Chapter 3

Ideal Systems in
Maxwell-Boltzmann Statistics
Refs.: Balescu, Pathria

3.1 Definition of Ideal Systems


A partir de agora discutiremos aplicações da teoria geral, desenvolvida nos dois primeiros
capı́tulos, a sistemas especı́ficos. Entre estes devemos destacar uma classe, chamada de
sistemas ideais, que são definidos por uma Hamiltoniana da forma

N
X
0
H = Hj0 , (3.1.1)
j=1

onde Hj0 é uma função apenas das coordenadas e momentos de um conjunto finito (geral-
mente pequeno) de graus de liberdade; este conjunto é designado por j. Quanticamente,
Hj0 é um operador que atua apenas em um conjunto finito j de coordenadas do espaço de
configurações. Um exemplo tı́pico é o caso em que j envolve os três graus de liberdade
de translação do centro de massa; para moléculas poliatônicas, os graus de liberdade
que descrevem rotação e vibração também devem ser incluı́dos. Logo, para simplificar
a notação, chamaremos o conjunto j de partı́cula, tendo sempre em mente que j pode
envolver tanto graus de liberdade de translação quanto internos. É bom frisar que
Hamiltonianas do tipo (3.1.1) também podem descrever sistemas que não consistem,
necessariamente, de partı́culas materiais; por exemplo, osciladores harmônicos, fônons,
excitons, etc.
A propriedade fundamental da Hamiltoniana (3.1.1) é a aditividade: ela descreve um
conjunto de partı́culas mutuamente independentes. Neste capı́tulo estudaremos sistemas
ideais ‘clássicos’, no sentido de que efeitos quânticos como indistinguibilidade são irrele-
vantes, de modo que o movimento de uma partı́cula não é influenciado pelo de qualquer
outra. Neste caso, o problema de N corpos se reduz a N problemas independentes de
um corpo: estes sistemas são descritos pela Estatı́stica de Maxwell-Boltzmann. Esta
situação corresponde a altas temperaturas e/ou baixas densidades. Os sistemas ideais

55
56 CHAPTER 3. IDEAL SYSTEMS IN MAXWELL-BOLTZMANN STATISTICS

quânticos são divididos em duas Estatı́sticas: Bose-Einstein (partı́culas de spin inteiro)


e Fermi-Dirac (partı́culas de spin semi-inteiro); estes serão discutidos no Cap. 4.
A importância do estudo de sistemas ideais se resume, principalmente, em sua sim-
plicidade: são estes os modelos que podem ser tratados mais profundamente (e até
exatamente, em alguns casos) em Mecânica Estatı́stica. Por outro lado, deve-se ter em
mente que sistemas ideais não existem na natureza. Insistir neste conceito pode levar a
inconsistências graves: pode-se mostrar (Balescu, Cap. 13) que um sistema descrito pela
Hamiltoniana (3.1.1) jamais atingirá o equilı́brio termodinâmico a partir de um estado
arbitrário. A razão disto é que são as interações que provêm o mecanismo crucial para
atingir o equilı́brio. Se as interações são pequenas (em algum sentido), as propriedades
de um sistema em equilı́brio são descritas por uma distribuição (ou matriz densidade)
correspondente à de um sistema ideal com correções.

3.2 The Boltzmann Gas


A dedução das propriedades termodinâmicas de sistemas reais recai, essencialmente, em
um problema de Mecânica Quântica. Veremos posteriormente que em um gás molecular
diluı́do, as propriedades termodinâmicas mais interessantes estão associadas a graus de
liberdade internos, que não envolvem efeitos quânticos associados à indistinguibilidade.
É o caso de um gás ideal a altas temperaturas ou baixas densidades. Outra situação em
que isto ocorre é quando as partı́culas estão localizadas em sı́tios de uma rede, podendo
ser, portanto, distinguı́veis. Como consequência da ausência destes efeitos quânticos, os
cálculos são muito simplificados, como veremos a seguir.
Consideremos um gás com N partı́culas idênticas e independentes; sua energia, numa
dada configuração, é
XN
E= ε(j) , (3.2.1)
j=1

onde ε(j)
é o nı́vel de energia ocupado pela partı́cula j.
Numa primeira tentativa, podemos escrever a função de partição como
XX X P (j)
Z0 = ··· e−β j ε , (3.2.2)
m(1) m(2) m(N )

onde as somas em m(j) são feitas sobre os estados (caracterizados por m(j) ) da partı́cula
j. Tipicamente m(j) são as componentes do momento do centro de massa da molécula,
números quânticos rotacionais e vibracionais, spin, etc.
Já mencionamos anteriormente que esta expressão superestima o número de estados
acessı́veis: uma dada distribuição de partı́culas entre vários estados mk , caracterizados
pelos números de ocupação nk , pode ser obtida de N !/n1 !n2 ! . . . modos distintos. Como
todos estes modos correspondem a uma mesma configuração, a função de partição (3.2.2)
deve ser dividida por este fator. Assim,
X X n1 !n2 ! . . . P (j)
Z= ··· e−β ε . (3.2.3)
(1) (N )
N!
m m
3.3. PARAMAGNETISM OF LOCALIZED SPINS. 57

A baixas temperaturas, os termos dominantes em (3.2.3) vêm dos nı́veis de energia


mais baixos; ou seja, os efeitos quânticos devem ser importantes. A altas temperaturas,
é grande o número de nı́veis de energia que dão contribuição para Z: as N partı́culas
tendem a ocupar diferentes nı́veis de energia. Assim, os números de ocupação serão
predominantemente nk = 0 ou 1; daı́ nk ! = 1 para a maioria das configurações. Da
mesma forma, para gases a baixas densidades (N/V  1) podemos tomar nk ! ' 1.
Nestas condições, podemos escrever
1 X X P (j)
Z= ··· e−β ε , (3.2.4)
N ! (1) (N )
m m

que corresponde ao análogo clássico: as partı́culas são consideradas quase distinguı́veis


(o quase fica por conta do fator 1/N !). No caso de partı́culas presas a sı́tios da rede,
o fator (1/N !) não deve ser considerado já que as partı́culas são, de fato, distinguı́veis
por ocuparem determinados sı́tios da rede. Estas situações serão discutidas nas duas
próximas seções.

3.3 Paramagnetism of localized spins.


Considere um sistema com N dipolos magnéticos, cada um com momento magnético
µ, localizados nos sı́tios de uma rede. Na presença de um campo magnético externo
H, os dipolos vão sofrer um torque que tende a alinhá-los na direção do campo. Este
alinhamento, que deve ser total à temperatura zero, causado pela interação entre os
dipolos, vai diminuindo, devido à agitação térmica, à medida em que T cresce.
Numa primeira aproximação, vamos desprezar a interação entre os dipolos.1 O sis-
tema é, então, descrito pela Hamiltoniana
N
X
H=− µi · H, (3.3.1)
i=1

onde µi deve ser encarado como o operador momento magnético, que é proporcional ao
operador de momento angular Jop ,
 e 
µ= g Jop , (3.3.2)
2mc
onde ge/2mc é a razão giromagnética do dipolo e g é o fator de Landé, dado por
3 1 S(S + 1) − L(L + 1)
g= + . (3.3.3)
2 2 J(J + 1)
2 são
Os autovalores de Jop
1 3 5
J(J + 1) ~2 com J = , , . . . ou 0, 1, 2 . . . . (3.3.4)
2 2 2
1
Se quisermos descrever uma transição de fase magnética, esta interação não pode ser desprezada,
por ser o mecanismo crucial para o aparecimento de uma magnetização espontânea.
58 CHAPTER 3. IDEAL SYSTEMS IN MAXWELL-BOLTZMANN STATISTICS

Tomando H na direção z, a Eq.(3.3.1) fica


X X
H = −H µzi = −gµB H mi , (3.3.5)
i i

onde, na segunda igualdade, introduzimos o magneton de Bohr, µB = e~/2mc, e os mi


são os autovalores de Jop z /~: m = −J, −J + 1, . . . , J.
i
A função de partição para N partı́culas distinguı́veis independentes, fica

ZN = (Z1 )N , (3.3.6)

onde
J
X 1 − e(2J+1)x
Z1 = emx = e−xJ , (3.3.7)
1 − ex
m=−J

com x = gµB H/kB T , ou

sinh J + 21 x
  
Z1 (H, T ) = . (3.3.8)
sinh 21 x
 

O momento magnético médio é a magnetização por spin, e pode ser obtido como
!
1 X 1 X X
M = hµzi i = e−βH µzi = e−βH µzi , (3.3.9)
Z NZ
{m} {m} i

onde supôs-se uma magnetização uniforme, isto é, µi = µ, ∀i. Logo,

1 ∂ 1 ∂
M= ln Z = − G(T, H), (3.3.10)
N β ∂H N ∂H

onde agora identificamos G = −kB T ln Z, já que as variáveis independentes são T e H,


em analogia com a discussão da Seção 2.6, sobre a energia livre para um fluido a pressão
fixa.
Explicitamente, temos

1 ∂
M= ln Z1 = µ BJ (x), (3.3.11)
β ∂H

onde µ ≡ gµB J, e a função de Brillouin de ordem J é


      
1 1 1 1
BJ (x) = 1+ coth 1+ x − coth x , (3.3.12)
2J 2J 2J 2J

e está mostrada na Fig. 3.1.


Examinemos alguns casos limites. Para campos fortes e/ou baixas temperaturas
(x  1), tem-se BJ (x) ≈ 1, para qualquer J; isto corresponde à saturação magnética.
3.3. PARAMAGNETISM OF LOCALIZED SPINS. 59

1.0

BJ (x)

0.5

J=1/2
J=1
J=2
J=20

0.0
0.0 1.0 2.0 3.0 4.0
x
Figure 3.1: The Brillouin function [Eq. (3.3.12)], for different values of J.

Para campos fracos e/ou temperaturas altas (x  1), temos um comportamento linear
com x,
1
BJ (x) ' (1 + 1/J) x. (3.3.13)
3
A suscetibilidade magnética isotérmica (adotamos aqui a definição como grandeza
intensiva),
1 ∂2G
   
∂M
χT = =− , (3.3.14)
∂H T N ∂H 2 T
é, então, dada por
∂M ∂x g 2 µ2B J(J + 1) C
χT = = ≡ , (3.3.15)
∂x ∂H 3kB T T
que é a conhecida lei de Curie: χ ∼ 1/T . O limite de dipolos clássicos é obtido fazendo-se
J → ∞, com g → 0 de modo que µ ≡ gµB J → constante.
Consideremos agora o caso particular J = 1/2. Neste caso, cada dipolo tem duas
orientações, correspondendo às energias ±ε, ε = µH. A função de partição é
ZN (β) = [2 cosh βε]N , (3.3.16)
o que dá para a energia livre
G = −N kB T ln(2 cosh ε/kB T ), (3.3.17)
a partir da qual obtemos
   
∂G ε
S=− = N k ln(2 cosh ε/kB T ) − tanh ε/kB T , (3.3.18)
∂T H kB T
60 CHAPTER 3. IDEAL SYSTEMS IN MAXWELL-BOLTZMANN STATISTICS

1.0

ln 2

0.0
S/NkB
E/N
M/µ
CH/NkB

−1.0
0.0 1.0 2.0 3.0 4.0
kBT/

Figure 3.2: Gráficos das Eqs. (3.3.18)-(3.3.21) como funções da temperatura (em
unidades de ε/kB ). Note que os eixos verticais também estão escalados de modo a
tornar as grandezas intensivas e adimensionais.

 

E≡− ln Z = −N ε tanh ε/kB T, (3.3.19)
∂β
 
1 ∂G
M=− = µ tanh ε/kB T, (3.3.20)
N ∂H T
   2
∂E ε
CH = = N kB sech2 ε/kB T. (3.3.21)
∂T H kB T
Deve-se notar que, nas equações acima, a temperatura aparece sempre na combinação
ε/kB T ; isto significa que a escala de energias é ditada por ε. Assim, a dependência destas
grandezas com a temperatura é mais ilustrativa quando exibidas em termos de kB T /ε,
como na Fig. 3.2. Primeiramente, devemos notar (linha cheia na figura) que S → 0
quando kB T  ε, de acordo com a 3a Lei da Termodinâmica. De fato, quando T → 0
só há um estado fundamental (Ω = 1), correspondendo a todos os spins alinhados com
o campo. A altas temperaturas (kB T  ε), por outro lado, os spins são praticamente
independentes e as 2N configurações possı́veis dão origem a uma entropia S/N kB = ln 2.
O crescimento mais rápido da entropia ocorre quando kB T ∼ ε, já que nesta região
muitos estados se tornam acessı́veis.
A dependência da energia interna com a temperatura também é mostrada na Fig. 3.2.
Como era de se esperar, E/N ε é mı́nima quando T → 0, correspondendo à energia do
estado fundamental: cada spin contribui com energia −ε. À medida em que T aumenta,
a energia interna cresce até atingir o valor de saturação E = 0, quando kB T  ε. Este
3.3. PARAMAGNETISM OF LOCALIZED SPINS. 61

limite superior na energia interna se deve ao número finito de estados por partı́cula, e
uma conseqüência interessante deste fato será explorada adiante. Normalmente a energia
interna cresce indefinidamente com a temperatura.
A magnetização também apresenta dois regimes distintos, dependendo da razão
kB T /ε; veja a Fig. 3.2. Quando kB T  ε, a magnetização apresenta saturação devido à
baixa ocorrência de spins contrários ao campo. Quando kB T  ε, a predominância de
spins alinhados com o campo já não ocorre e a magnetização se aproxima de zero.
Quanto ao calor especı́fico, devemos notar primeiramente que, para kB T  ε,
 2
CH ∆
∼ e−∆/kB T , (3.3.22)
N kB kB T

onde ∆ = 2ε é o gap de energia entre o estado fundamental (E0 = −N ε) e o primeiro


estado excitado (E1 = −(N − 2)ε). Ou seja, sempre que o espectro de energia do sistema
apresentar um gap não nulo, a energia interna e (consequentemente) o calor especı́fico
apresentam um comportamento exponencial a baixas temperaturas. Dado que o calor
especı́fico é uma grandeza diretamente mensurável no laboratório, este resultado é muito
importante. Em segundo lugar, o máximo perto de kB T = ε não indica a ocorrência
de uma transição de fase (veja o Cap. 7), mas é consequência do fato da energia interna
apresentar um limite superior, com o aparecimento de um ponto de inflexão em E(T ); um
máximo deste tipo é frequentemente chamado de ‘anomalia de Schottky’. Finalmente,
quando kB T  ε, CH → 0, também refletindo o regime de saturação de E.

Temperatura Negativa
A Eq. (3.3.19) nos mostra que, enquanto E < 0, o sistema é ‘normal’, isto é, T > 0.
Se E > 0, temos que ter, necessariamente T < 0. Este fato requer uma discussão mais
detalhada. Uma análise no ensemble microcanônico (veja Exercı́cio 2.5) nos fornece a
entropia como função da energia interna; o resultado está mostrado na Fig. 3.3(a).
A partir de S(E, N ) podemos obter a temperatura como
 
1 ∂S
= , (3.3.23)
T ∂E N

[veja a Fig. 3.3(b)], mostrando que, efetivamente, T < 0 para E > 0. Esta região é
anormal, porque corresponde à magnetização em oposição ao campo [c.f. Eq. (3.3.20)].
Mesmo assim, esta situação pode ser realizada experimentalmente num sistema de mo-
mentos nucleares em uma rede, em que o tempo de relaxação t1 de interações mútuas
é muito menor do que o tempo de relaxação t2 da interação dos momentos com a rede;
veja N.F. Ramsey, Phys. Rev. 103, 20 (1956), e referências lá contidas. Isto significa que
ao aplicarmos um campo forte neste cristal e depois revertê-lo rapidamente, os spins não
terão tempo suficiente de acompanhar a reversão. Isto deixa os spins fora de equilı́brio
com a rede, porém em equilı́brio entre si, com uma energia maior do que seria o novo
valor de equilı́brio E. Podemos pensar no subsistema de spins como se estivesse a T < 0,
enquanto que o subsistema da rede está a T > 0, após decorrido t1 . Ao atingirmos t2 ,
62 CHAPTER 3. IDEAL SYSTEMS IN MAXWELL-BOLTZMANN STATISTICS

1.0
(a)

S/NkB
0.5

0.0
10
(b)
kBT/

−10
−1.0 −0.5 0.0 0.5 1.0
E/N

Figure 3.3: ST-E–Spin-hf.

os dois subsistemas estarão em equilı́brio mútuo, a uma temperatura positiva; esta tem-
peratura corresponde à energia sendo cedida pelos spins à rede, já que T < 0 é, na
realidade, mais ‘quente’ do que T > 0.
Para concluir, notemos que temperaturas negativas só ocorrem quando a energia
do sistema tem um limite superior, o que faz com que a entropia (como função de E)
decresça. Isto não ocorre na maioria dos sistemas, já que a energia cinética das partı́culas
faz com que a energia interna não tenha limite superior.

3.4 Molecular Gas


Vejamos agora como a Estatı́stica de Boltzmann se aplica a um sistema ideal com graus
de liberdade de translação e graus de liberdade internos.
A Eq. (3.2.4) nos dá
 
N
1 Y X (j) 1
Z(T, V, N ) =  e−βε  = Z1N , (3.4.1)
N! N !
j=1
(j) m

onde a última igualdade segue da suposição das partı́culas serem idênticas, e


X
Z1 = e−βε , (3.4.2)
m

onde a soma é feita sobre todos os estados de uma partı́cula.


3.4. MOLECULAR GAS 63

The Helmholtz free energy is given by

A(T, V, N ) = kB T ln(N !) − N kB T ln Z1 (T, V ). (3.4.3)

For N  1 we can use Stirling’s formula,

ln N ! ' N ln N − N, (3.4.4)

to write he i
A(T, V, N ) ' −N kB T ln Z1 (T, V ) . (3.4.5)
N
Para moléculas, a energia pode ser escrita como

ε = εtr + εi , (3.4.6)

onde εtr é a energia associada ao movimento de translação do centro de massa, e εi


corresponde aos graus de liberdade internos (rotações, vibrações, excitações eletrônicas,
etc.). Como estes dois termos dependem de variáveis desacopladas (i.e., as Hamiltonianas
correspondentes comutam), a função de partição Z pode ser novamente fatorada

Z1 = Z1tr Zi , (3.4.7)

once Zi é a função de partição para os grau de liberdade internos de uma única molécula.
Na ausência de campos externos,

p2
εtr = , (3.4.8)
2m
onde os valores permitidos de px , py e pz dependem do tamanho e da forma da caixa que
contém as moléculas, bem como das condições de contorno. Antes de explicitar a função
de partição para o gás ideal, ressaltemos que uma grandeza importante é o comprimento
de onda térmico, s
h2
Λ≡ , (3.4.9)
2πmkB T
que cresce à medida em que a massa das patı́culas ou a temperatura diminuem; assim,
esta grandeza fornece uma escala de comprimentos para a predominância de efeitos
quânticos. No caso do gás ideal, a função de partição então assume uma forma simples
[veja Exercı́cios 2.9 e 3.1],
V
Z1tr = 3 . (3.4.10)
Λ
Note que este é o mesmo resultado obtido para o caso clássico, já que no cálculo considera-
se p como variável contı́nua, ignorando a quantização; efeitos quânticos só seriam per-
ceptı́veis caso a caixa fosse do tamanho tı́pico das moléculas. Conclui-se, então, que na
maioria dos casos de interesse, os graus de liberdade translacionais podem ser tratados
classicamente. Uma exceção importante é o gás bosônico ideal a temperaturas muito
baixas; veja a Seção 4.5. Note também que se imaginarmos que o volume seja uma caixa
64 CHAPTER 3. IDEAL SYSTEMS IN MAXWELL-BOLTZMANN STATISTICS

cúbica de lados L, podemos escrever Z1tr = (L/Λ)3 , ressaltando que a função de partição
de uma partı́cula livre é expressa como a razão entre as duas escalas de comprimento
relevantes, elevada à dimensão espacial, no caso 3.
A Eq. (3.4.5) então fica
 
eV
A(T, V, N ) = −N kB T ln Zi , (3.4.11)
N Λ3
com X
Zi = gi e−εi /kB T , (3.4.12)
εi

onde gi é a degenerescência do nı́vel εi .


Neste ponto precisarı́amos conhecer detalhes a respeito da estrutura interna das
partı́culas para descrever o sistema em mais detalhes, o que será feito adiante. Por ora,
ainda podemos extrair informações importantes a partir de (3.4.11).
Primeiramente, notemos que a função de partição interna não pode depender do
volume do sistema, pois a escala relevante de comprimentos é atômica. Assim, Zi é
função apenas da temperatura. Podemos então escrever

A(T, V, N ) = Atr (T, V, N ) + N ai (T ), (3.4.13)

com  
eV
Atr (T, V, N ) = −N kB T ln , (3.4.14)
N Λ3
e
ai (T ) = −kB T ln Zi (T ). (3.4.15)
A partir de (3.4.14) obtemos a pressão como
 
∂A N kB T
P =− = , (3.4.16)
∂V T,N V

que é o resultado conhecido do gás ideal. Isto confirma que a estrutura interna das
moléculas que compõem o gás ideal é irrelevante na determinação da equação de estado.
O potencial quı́mico fica
 
∂A
µ= = µ0 + µi , (3.4.17)
∂N T,V

onde
N Λ3
 
µ0 = kB T ln (3.4.18)
V
é o potencial quı́mico devido ao movimento de translação, e

µi ≡ ai (T ) (3.4.19)

corresponde aos graus de liberdade internos.


3.4. MOLECULAR GAS 65

A entropia do sistema é obtida como


 
∂A
S=− = Str + N si (T ), (3.4.20)
∂T V,N

onde !
e5/2 V
Str = N kB ln (3.4.21)
N Λ3
e si = −dai /dT é a entropia associada aos graus de liberdade internos. A energia interna
é dada por
E = A + T S = Etr + N ei (T ), (3.4.22)
com
3N
Etr = kB T (3.4.23)
2
e
ei = ai (T ) − T a0i (T ). (3.4.24)
A Eq. (3.4.23) reflete o princı́pio da equipartição da energia, válido apenas para sistemas
clássicos: a cada termo quadrático da Hamiltoniana corresponde 12 kB T na energia in-
terna. É interesante notar também que para um gás ideal composto de partı́culas sem
estrutura (tais como elétrons e átomos a temperaturas tais que a excitação eletrônica
possa ser desprezada), tem-se ai (T ) = 0. Ademais, as Eqs. (3.4.22)-(3.4.24) também
recuperam o resultado conhecido de que a energia interna por partı́cula de um gás ideal
é função apenas da temperatura.
A capacidade calorı́fica é obtida como
 
∂E 3
CV = = N kB − T a00i (T ). (3.4.25)
∂T N,V 2

Note que, para partı́culas sem estrutura, CV é constante: toda a dependência com a
temperatura vem da estrutura interna das partı́culas.
Façamos agora um estudo mais detalhado da estrutura interna das partı́culas. Cada
molécula é composta de átomos formando uma estrutura, caracterizada por um certo
número de parâmetros relativos aos diferentes movimentos com relação ao seu centro de
massa. Por exemplo, um momento principal da inércia Ij é associado com cada grau
de liberdade rotacional, uma freqüência caracterı́stica νk é associada com cada grau de
liberdade vibracional, e uma energia de excitação eletrônica ∆ε` é associada com cada
estado eletrônico. Todos estes graus de liberdade contribuem para a Hamiltoniana e, via
função de partição, para as propriedades termodinâmicas. Além destes, existem graus
de liberdade nucleares, que podem ser importantes em alguns casos, mas que não serão
tratados aqui.
Considerando que cada molécula se encontre no estado fundamental eletrônico,2 isto
é, que kB T  ∆ε` , a função de partição Zi envolve apenas os movimentos de rotação e
2
Desprezamos aqui a estrutura fina das moléculas
66 CHAPTER 3. IDEAL SYSTEMS IN MAXWELL-BOLTZMANN STATISTICS

Table 3.1: Temperaturas caracterı́sticas para alguns gases diatômicos.

Θrot (K) Θvib (K)


H2 85.5 6140
CO 2.77 3120
O2 2.09 2260
Cl2 0.347 810
Br2 0.117 470
Na2 0.224 230
K2 0.081 140

vibração. Numa primeira aproximação, estes graus de liberdade podem ser considerados
como desacoplados, o que nos permite escrever

Zi = Zrot Zvib , (3.4.26)

e
ai = arot + avib . (3.4.27)

Note que o espaçamento entre os nı́veis de energia associados aos diferentes processos
dinâmicos depende dos parâmetros caracterı́sticos, mencionados acima. Para tempera-
turas tais que kB T seja muito menor que este espaçamento, a agitação térmica não pode
induzir transições para estados excitados. Neste caso, Zi não depende da temperatura
e a contribuição para o calor especı́fico é nula. Diz-se que nesta temperatura o grau de
liberdade correspondente está congelado. No outro limite, a temperaturas em que kB T
é muito maior que as separações, as energias podem ser consideradas como contı́nuas e
o sistema se comporta classicamente. Podemos definir uma temperatura caracterı́stica,
Θi , associada a este grau de liberdade (veja a Tabela 3.1): ela mede, essencialmente, o
espaçamento tı́pico entre os nı́veis. Esta discussão pode ser resumida na Fig. 3.4, que
representa um processo dinâmico qualquer (rotação ou vibração) com f graus de liber-
dade. Estudemos agora, em detalhes, os movimentos de rotação e vibração moleculares,
em casos simples.

3.4.1 Rotation of Diatomic Molecules


Neste caso, a molécula pode ser pensada como um rotor rı́gido, cujos nı́veis de energia
são dados por
L2 ~2
εrot = = j(j + 1) ; j = 0, 1, 2 . . . (3.4.28)
2I 2I
onde I é o momento de inércia da molécula. Cada nı́vel rotacional tem degenerescência
g = 2j + 1, e a temperatura caracterı́stica é definida como

~2
Θrot = . (3.4.29)
2IkB
3.4. MOLECULAR GAS 67

CV
NkB
f
2

congelado classico

i T

Figure 3.4: Generic behaviour of the specific heat as a function of temperature, for
a system with f quadratic degrees of freedom in the Hamiltonian. These degrees of
freedom crossover from frozen to ‘classic’ at the characteristic temperature Θi ; see text.

Para moléculas heteronucleares, a função de partição é dada por



X
Zrot = (2j + 1) e−j(j+1)Θrot /T , (3.4.30)
j=0

que não pode ser calculada analiticamente no caso geral. Todavia, como indicado na
Tabela 3.1, em geral Θrot é pequeno (menor que ∼ 10 meV ' 102 K; 1eV ' 1.2×104 K), de
modo que para temperaturas T  Θrot , os nı́veis de energia formam um quase-contı́nuo
e podemos fazer a aproximação clássica, que consiste em substituir a soma pela integral
Z ∞
T
Zrot ≈ dj (2j + 1) e−j(j+1)Θrot /T = . (3.4.31)
0 Θrot
Para moléculas homonucleares, duas orientações diferindo de π são idênticas e, por-
tanto, indistinguı́veis. Assim, introduzindo um número de simetria σ (σ = 1, para
heteronucleares e σ = 2 para homonuncleares), temos
T
Zrot ' , T  Θrot , (3.4.32)
σΘrot
o que fornece as seguintes contribuições:
arot = −kB T (ln T /σΘrot ) (3.4.33)
Srot /N = kB ln(T /σΘrot ) + kB (3.4.34)
Erot /N = kB T (2 graus de lib. por moléc., p2θ e p2ϕ ) (3.4.35)
CV, rot /N = kB . (3.4.36)
Uma aproximação melhor pode ser obtida usando a fórmula (veja Balescu para de-
talhes)
∞ Z ∞
X 1 1 0 1 000
f (n) = f (x) dx + f (0) − f (0) + f (0) − · · · , (3.4.37)
0 2 12 720
n=0
68 CHAPTER 3. IDEAL SYSTEMS IN MAXWELL-BOLTZMANN STATISTICS

CV,rot C V,k
NkB NkB
1 1

0.5 1.0 T / rot 0.5 1.0 T/ k

Figure 3.5: Temperature dependence of Figure 3.6: Temperature dependence of


the specific heat associated with molec- the specific heat associated with molec-
ular rotations; see text. ular vibrations; see text.

o que nos dá


 2
T 1 1 Θrot 4 Θrot
Zrot (T ) = + + + + ··· , (3.4.38)
Θrot 3 15 T 315 T

e, para o calor especı́fico,


(  2  3 )
1 Θrot 16 Θrot
CV, rot = N kB 1+ + + ··· , (3.4.39)
45 T 945 T

de modo que as correções ao resultado clássico são positivas; veja a Fig. 3.5.
Para T  Θrot , apenas os primeiros termos em (3.4.30) precisam ser considerados,
o que nos dá
Zrot ' 1 + 3e−2 Θrot /T + 5e−6 Θrot /T + O(e−10 Θrot /T ), (3.4.40)
de modo que o calor especı́fico fica
 2
Θrot
CV,rot ' 12N kB e−2Θrot /T . (3.4.41)
T

Como discutido na seção anterior, o comportamento exponencial do calor especı́fico a


baixas temperaturas sinaliza a presença de um gap no espectro de energia.

3.4.2 Molecular Vibration


Considerando pequenas amplitudes, o movimento vibracional de moléculas poliatômicas
pode sempre ser descrito como uma superposição de f osciladores harmônicos indepen-
dentes (os modos normais de vibração), cada um com frequência caracterı́stica νk . Para
3.4. MOLECULAR GAS 69

c [cal/(mol K)]
7R/2

5R/2

3R/2

10 50 500 1000 5000


T [K]
Figure 3.7: Temperature dependence of the specific heat for a gas of diatomic molecules,
over a range of temperatures wide enough to follow a succession of frozen to classic
crossovers; see text.

moléculas n-atômicas, o número de modos normais é f = 3n − 5 (moléculas lineares) e


f = 3n − 6 (em outros casos); note que moléculas diatômicas só têm um modo normal.
A Tabela 3.1 dá uma idéia da faixa de temperaturas (Θvib ) em que as vibrações são
importantes. Assim, para T ∼ 104 K todos os modos normais estão excitados (região
clássica), enquanto que para T . 102 K os modos vibracionais estão congelados. Note
que as temperaturas não podem ser muito altas ( 104 K) para não excitarmos vibrações
nucleares.
Como os osciladores são independentes, a energia de cada um é dada por
f  
X 1
εvib = vk + ~ ωk ; vk = 0, 1, 2, . . . , (3.4.42)
2
k=1

e a função de partição por


f
Y
Zvib = Zk . (3.4.43)
k=1
O fato da função de partição ser escrita como um produto de funções relativas a cada
modo nos permite analisar a contribuição de cada modo separadamente, como faremos
a seguir.
Definindo a temperatura caracterı́stica do modo k como Θk = hνk /kB , obtemos

X e−Θk /2T
Zk = e−(v+1/2)Θk /T = , (3.4.44)
v=0
1 − e−Θk /T
o que nos dá
1
ak = kB Θk + kB T ln(1 − e−Θk /T ), (3.4.45)
2
70 CHAPTER 3. IDEAL SYSTEMS IN MAXWELL-BOLTZMANN STATISTICS
 
−Θk /T Θk
sk = −kB ln(1 − e ) + kB (eΘk /T − 1)−1 , (3.4.46)
T
1
ek = kB Θk + kB Θk (eΘk /T − 1)−1 , (3.4.47)
2
e 2
eΘk /T
  
Θk Θk
cV,k = kB ≡ kB E ; (3.4.48)
T [eΘk /T − 1]2 T
a Eq. (3.4.48) define a função de Einstein, E(x).
Note que quando T  Θk , cV,k ∼ e−Θk /T , novamente refletindo a presença de um
gap ; para T  Θk , cV,k ∼ kB , representando a excitação de um modo normal clássico
(um modo normal contribui com p2 e q 2 na Hamiltoniana clássica). O calor especı́fico
de cada modo vibracional tem a forma esboçada na Fig. 3.6.
Na Fig. 3.7 fazemos um esboço do calor especı́fico englobando as contribuições rota-
cionais e vibracionais para uma molécula diatômica. Esta discussão mostra como a
Mecânica Estatı́stica pode prever o comportamento observado, mesmo na aproximação
de gases ideais.

3.5 Exercises
1. Considere um sistema quântico dePN partı́culas independentes, cuja Hamiltoniana
pode ser escrita sob a forma H = N 2
i=1 Hi , com Hi = p /2m. Mostre que a função
de partição na Estatı́stica de Maxwell-Boltzmann é igual à do caso clássico, obtida
no Exercı́cio 9 do Capı́tulo 2. Por que isto ocorre?

2. Considere N partı́culas clássicas não-interagentes, cada uma com energia ε = λpn (p é


o momento linear), ocupando uma caixa d-dimensional de volume V = Ld . Obtenha
a pressão do gás e as dependências da energia interna e do calor especı́fico com a
temperatura. Qual a relação entre a pressão e a energia interna?

3. Considere N osciladores harmônicos unidimensionais, distinguı́veis e desacoplados,


no ensemble canônico.

(a) Suponha osciladores clássicos e calcule as seguintes grandezas: µ, P , S, E, CP ,


CV . Faça esboços de suas dependências com a temperatura.
(b) Repita o ı́tem (a) para osciladores quânticos e comente graficamente as diferenças
principais com relação ao caso clássico.
(c) Por que, contrariamente ao gás ideal (Exercı́io 1), os osciladores clássico e quântico
apresentam diferenças tão marcantes?
(d) Suponha agora osciladores quânticos anarmônicos, cujos nı́veis de energia são
dados, aproximadamente, por

1 2
   
1
En = n + ~ω − x n + ~ω, n = 0, 1, 2, . . . ,
2 2
3.5. EXERCISES 71

onde x  1. Mostre que, em primeira ordem em x e quarta ordem em u ≡


~ω/kB T , o calor especı́fico de um sistema com N destes osciladores é
  
1 2 1 4 1 1 3
C = N kB 1 − u + u + 4x + u .
12 240 u 80
4. (a) Obtenha a função de partição Ξ(T, P, N ) para um gás ideal no ensemble canônico
T -P , e deduza a equação de estado.
(b) Mostre que a gran-função de partição para um gás ideal clássico de moléculas
monoatômicas é dada por
Z = ezZ1 ,
onde z é a fugacidade e Z1 = V /Λ3 é a função de partição de uma molécula, com
 1/2
Λ = h2 /2πmkB T .
(c) Mostre que o número médio de moléculas é dado por

hN i = zZ1

(d) Obtenha a equação de estado em termos de hN i.

5. Um gás ideal consiste de moléculas do tipo A, do tipo B, e do tipo AB, em constante


processo de dissociação: A + B AB. Obtenha a lei de ação das massas,
3/2 0
(mA + mB )h2

nAB zAB W0 /kB T
= 0 z0 e ,
nA nB 2πmA mB kB T zA B

onde nX , X = A, B, AB, é a concentração (i.e., número por volume) de moléculas do


0 é a função de partição para os graus de liberdade internos de cada molécula,
tipo X, zX
em que os zeros de energia são tomados como as energias dos estados fundamentais
de cada molécula (excluindo vibrações de ponto zero); assim, W0 ≡ ε0A + ε0B − ε0AB é
a diferença entre os zeros de energia.

6. Uma superfı́cie tem M sı́tios onde moléculas podem ser adsorvidas. Ao ser adsorvida,
uma molécula tem energia −ε0 relativa à energia de uma molécula livre. Suponha
que N moléculas de spin-1/2 sejam adsorvidas nesta superfı́cie, onde, por sua vez,
atua um campo magnético h (em unidades de gµB ). Desprezando interações entre as
moléculas adsorvidas, calcule:

(a) o potencial quı́mico das moléculas como função de T , M , N e h;


(b) a magnetização por partı́cula para o sistema de moléculas adsorvidas.

7. Um gás monoatômico coexiste em equilı́brio com a fase sólida. Suponha que a energia
por átomo necessária para transformar sólido em gás seja φ, e adote o modelo de
Einstein para sólidos – cada átomo pode ser representado por um oscilador harmônico
tri-dimensional de freqüência ω, vibrando independentemente em torno de sua posição
de equilı́brio. Obtenha a pressão de vapor deste sistema, P , como função de T , e faça
um esboço de P (T ).
72 CHAPTER 3. IDEAL SYSTEMS IN MAXWELL-BOLTZMANN STATISTICS

8. Um cristal perfeito é formado por N átomos distribuı́dos regularmente. Se deslocar-


mos n (1  n  N ) destes átomos para posições intersticiais da rede, teremos um
cristal imperfeito, dito do tipo Frenkel. Suponha que o número de sı́tios intersticiais,
N 0 , que podem alocar os átomos deslocados seja da mesma ordem de grandeza de N ,
e seja w a energia necessária para remover um átomo de um sı́tio da rede para uma
posição intersticial.

(a) Calcule a entropia do sistema com n defeitos;


(b) O estado de equilı́brio corresponde a um mı́nimo da energia livre de Helmholtz.
(Por quê?). Imponha esta condição para mostrar que

n ≈ N N 0 e−w/2kB T
Chapter 4

Ideal Systems in Bose and Fermi


Statistics
Refs.: Balescu, Huang, Pathria

4.1 Indistinguishability
Vejamos agora quais as conseqüências do fato de que as partı́culas são indistinguı́veis.
Consideremos, por simplicidade, um sistema de N partı́culas não interagentes, e indis-
tinguı́veis. A Hamiltoniana do sistema é, então, escrita como
N
X
H= Hi0 . (4.1.1)
i=1

Hi0 é função apenas de operadores que atuam na partı́cula i, de modo que todos os Hi0
são formalmente idênticos, e definem o ‘problema de uma-partı́cula’,
H0 φm (r) = εm φm (r). (4.1.2)
O ı́ndice i foi omitido por ser genérico neste caso, e suporemos que as autofunções de
(4.1.2) gerem um espaço de estados de dimensão N , que é, também, o número de valores
distintos de m.1
A equação de Schrödinger independente do tempo fica
H ΨE (r1 , r2 , . . . rN ) = E ΨE (r1 , r2 , . . . rN ), (4.1.3)
na representação das coordenadas; E é o autovalor de H correspondente à energia total
do sistema. Como H é separável, uma possı́vel solução de (4.1.3) pode ser escrita como
N
Y
Ψ0E (r1 , r2 , . . . rN ) = φmi (ri ), (4.1.4)
i=1
1
Note que m, em geral, representa um conjunto de números quânticos que caracterizam o estado de
uma partı́cula, como, por exemplo, {k, σ}, i.e., o momento linear e a projeção de spin; neste caso, N
representaria o número de conjuntos de m distintos. Por outro lado, no que se segue faremos menção a
um conjunto {m} (de N elementos) referente aos possı́veis mi associados a cada uma das N partı́culas:
a confusão entre estes dois conjuntos deve ser evitada.

73
74 CHAPTER 4. IDEAL SYSTEMS IN BOSE AND FERMI STATISTICS

com
N
X
E= εm i . (4.1.5)
i=1

Claramente Ψ0E não reflete o fato de que as partı́culas são indistinguı́veis: ao permu-
tar quaisquer duas, obteremos uma outra função. Para satisfazer a indistinguibilidade,
devemos tomar uma combinação linear de Ψ0E ,
XX X
ΨE (r1 , . . . rN ) = ··· C(m1 , m2 . . . mN ) φm1 (r1 ) φm2 (r2 ) · · · φmN (rN ), (4.1.6)
m1 m2 mN

com os coeficientes, C, sujeitos a certas restrições. A primeira destas requer que os C’s
se anulem cada vez que o conjunto de números quânticos ({m} ≡ {m1 , m2 , . . . , mN })
não coincidir com o previamente determinado pelas Eqs. (4.1.3) a (4.1.5). A segunda re-
presenta a imposição de indistinguibilidade: ao permutarmos duas partı́culas quaisquer,
devemos preservar as propriedades fı́sicas de ΨE . Daı́ segue que

|ΨE (r1 , . . . , rj , . . . , rk , . . . , rN )|2 = |ΨE (r1 , . . . , rk , . . . , rj , . . . , rN )|2 , (4.1.7)

já que as propriedades fı́sicas decorrem de |Ψ|2 e não de Ψ. Desta forma,

ΨE (r1 , . . . , rj , . . . , rk , . . . , rN ) = θ ΨE (r1 , . . . , rk , . . . , rj , . . . , rN ), (4.1.8)

com θ = ±1; ou seja, a função de onda total é simétrica (θ = +1) ou anti-simétrica


(θ = −1) na troca de duas partı́culas.
Todas as partı́culas na natureza são então classificadas como bósons (funções de onda
simétricas) ou férmions (funções de onda anti-simétricas). Os bósons são partı́culas com
spin inteiro, como fótons, fônons, mésons π, grávitons, átomos de 4 He, etc. Férmions
são partı́culas com spin semi-inteiro, como elétrons, prótons, neutrons, muons, neutrinos,
átomos de 3 He, etc.
Tomemos como exemplo N = 2, e suponhamos que as partı́culas estejam em estados
a e b; podemos então escrever a função de onda simétrica e anti-simétrica como
1
ψS = √ [φa (r1 ) φb (r2 ) + φb (r1 ) φa (r2 )] , (4.1.9)
2
e
1
ψA = √ [φa (r1 ) φb (r2 ) − φb (r1 ) φa (r2 )] (4.1.10)
2
Este exemplo ilustra a segunda restrição que deve ser imposta aos coeficientes na
Eq. (4.1.6). De fato, a troca ri ↔ rj é equivalente à troca de números quânticos mi ↔ mj .
Logo, a Eq. (4.1.8) nos dá

C(m1 , . . . , mj , . . . , mk , . . . , mN ) = θ C(m1 ., . . . , mk , . . . , mj , . . . , mN ). (4.1.11)

Em particular, o princı́pio de exclusão de Pauli segue de (4.1.11) já que, para férmions,

C(m1 , . . . , m, . . . , m, . . . mN ) = 0. (4.1.12)
4.2. IDEAL SYSTEMS OF BOSONS OR FERMIONS 75

Deve-se ter em mente que a igualdade mj = mk = m corresponde à igualdade de todos


os números quânticos dos conjuntos mj e mk .
Note que condições do tipo (4.1.11) refletem o fato de que uma descrição do estado
quântico conforme a Eq. (4.1.6) é redundante, de vez que não interessa qual partı́cula
está no estado mk , etc.: a informação relevante é quantas partı́culas estão no estado mk .
Portanto, as variáveis naturais em problemas quânticos de muitos corpos são os números
de ocupação, nmk , dos diversos estados. Assim, a probabilidade de encontrarmos n1
partı́culas no estado m1 , n2 no estado m2 , etc., é dada por
X
|C(n1 , n2 , . . .)|2 = |C(m1 , m2 , . . . mN )|2 , (4.1.13)

onde a soma se estende a todos os estados com n1 partı́culas no estado m1 , n2 no estado


m2 , etc. Usando (4.1.11) e a mesma contagem que antecedeu a Eq. (3.2.3), temos

N! 2
|C(n1 , n2 , . . .)|2 = C(m01 , m02 , . . . , m0N ) , (4.1.14)
n1 !n2 ! . . .

já que para uma dada distribuição de partı́culas pelos estados m01 , m02 , . . . , m0N todos
os |C(m01 , m02 , . . . , m0N )|2 são iguais. Esta relação nos permite passar da representação
em termos de m’s para a representação dos números de ocupação, ou representação
de segunda quantização. Nesta última, nm = 0 ou 1 para férmions, enquanto que
nm = 0, 1, 2, . . . para bósons.
Desta forma, a energia total do sistema é dada por
X0
E= n m εm , (4.1.15)
m
P0
onde significa soma restrita à condição
X
nm = N. (4.1.16)
m

É importante enfatizar a diferença entre as Eqs. (4.1.5) e (4.1.15): na primeira soma-se


sobre as partı́culas, e, na segunda, sobre estados.

4.2 Ideal Systems of Bosons or Fermions


Na seção anterior vimos como os efeitos quânticos de indistinguibilidade se manifestam
na simetria (ou anti-simetria) da função de onda. Estes efeitos são importantes a baixas
temperaturas ou altas densidades, e são objeto de estudo desta seção.
Consideremos então N partı́culas pontuais não-interagentes em um volume V , cada
uma das quais com spin-S. (Não analisaremos aqui graus de liberdade vibracionais
ou rotacionais das partı́culas, porque estes não são afetados pela indistinguibilidade.
Mesmo em gases quânticos o tratamento de rotação e vibração é praticamente igual ao
da Seção 3.4). Cada estado de uma partı́cula é então caracterizado pelo autovalor do
76 CHAPTER 4. IDEAL SYSTEMS IN BOSE AND FERMI STATISTICS

operador momento p e pela componente S z = σ~ do spin. Assim, para cada valor de


p existem 2S + 1 estados distintos, com σ = −S, −S + 1, . . . , S, todos com a mesma
energia
p2
 

εpσ = εp = , pα = ~ nα , nα = 0, ±1, . . . , α = x, y, z; (4.2.1)
2m L
aqui também supusemos que as partı́culas ocupem uma caixa cúbica de dimensão linear
L.
Em segunda quantização, uma base conveniente é composta pelos números de ocu-
pação dos estados de uma partı́cula,
|{np,σ }i ≡ |np1 ↑ , np1 ↓ , np2 ↑ , np2 ↓ , . . .i ≡ |np1 ↑ i|np1 ↓ i|np2 ↑ i|np2 ↓ i . . . , (4.2.2)
tal que para um particular par (P, Σ), tem-se
n̂PΣ |{np,σ }i = nPΣ |{np,σ }i; (4.2.3)
isto é, nesta base, o operador n̂pσ conta quantas partı́culas, npσ , há no estado (p, σ),
fornecendo npσ = 0 ou 1 para férmions, e npσ = 0, 1, 2, . . . , ou ∞, para bósons.
Para um sistema não-interagente, a Hamiltoniana pode então ser escrita como [com-
pare com a Eq. (4.1.15)] XX
H= εp n̂pσ , (4.2.4)
p σ
onde n̂pσ é o operador número de partı́culas com momento p e componente S z igual a
σ~.
A função de partição canônica é então
X0 P P
ZN = Tr e−βH = e−β p σ εp npσ (4.2.5)
{npσ }

onde substituı́mos o operador n̂pσ pelo autovalor npσ , porque a Hamiltoniana H é diago-
nal na representação do número de ocupação. O traço é tomado da seguinte forma: para
cada valor de p e de σ, soma-se sobre todos os valores possı́veis de npσ correspondentes.
É importante notar que a restrição
X
npσ = N (4.2.6)

impede a fatorização da função de partição. Isto ocorre devido à correlação entre as


ocupações dos nı́veis de energia, fenômeno puramente quântico.
Neste ponto devemos enfatizar a influência da indistinguibilidade através da obtenção
da função de partição do gás de Boltzmann. Para isto consideremos S = 0, por simplici-
dade, e notemos que no caso de Q partı́culas distinguı́veis (Boltzmann), cada configuração
{np } pode ser obtida de N !/ p np ! modos distintos. Neste caso, a Eq. (4.2.5) fica
!N
X0 N! Y X
−βε n −βε
ZB = Q e p p
= e p
, (4.2.7)
p np ! p
{np } p
4.2. IDEAL SYSTEMS OF BOSONS OR FERMIONS 77

onde a última igualdade segue do polinômio de Newton. A Eq. (4.2.7) é o já conhecido
resultado clássico, a menos do fator 1/N ! que leva em conta, a posteriori, a indistin-
guibilidade das partı́culas.
A restrição da constância do número de partı́culas, Eq. (4.2.6), pode ser levantada se
utilizarmos o ensemble gran-canônico. Neste caso, temos
∞ X
X 0 β P [µ−ε ] n
Z= e p,σ p pσ
. (4.2.8)
N =0 {npσ }

Para melhor compreender como estas somas são feitas, considere um sistema de apenas
dois nı́veis, com energias ε1 e ε2 , e definamos a = eβ(µ−ε1 ) e b = eβ(µ−ε2 ) . Inicialmente,
suporemos também que cada estado possa ser ocupado por um número arbitrário de
partı́culas; o caso de férmions pode ser recuperado trivialmente ao final. A gran-função
de partição fica sendo
∞ XX ∞ X
N
X 0 0 X
Z= an1 bn2 = aN −n bn . (4.2.9)
N =0 n1 n2 N =0 n=0

já que as somas em n1 e n2 estão sujeitas à restrição n1 + n2 = N .


Assim, para cada N fazemos a soma de n = 0 até N ; depois somamos os resultados
parciais de N = 0 até ∞. Na tabela abaixo, isto representa somar todas as linhas

N =0 1
N =1 a+b
N = 2 a2 + ab + b2
N = 3 a3 + a2 b + ab2 + b3
...

o que é equivalente a somar primeiro as potências de b, desde 0 a ∞, para uma dada


potência de a; depois soma-se sobre todas as potências de a:

Z= (1 + b + b2 + b3 + · · · )+
+ a (1 + b + b2 + b3 + · · · )+
+ a2 (1 + b + b2 + b3 + · · · ) + . . . =

! ∞ !
X X
n1 n2
= a b . (4.2.10)
n1 =0 n2 =0

Este resultado pode ser facilmente estendido para um número arbitrário de estados, de
modo que a Eq. (4.2.8) fica

YYX
Z= eβn(µ−εp ) . (4.2.11)
p σ n=0
78 CHAPTER 4. IDEAL SYSTEMS IN BOSE AND FERMI STATISTICS

Para férmions, os números de ocupação, n, só podem ser 0 ou 1, e a soma em (4.2.11)


fica trivial: YY 
Z= 1 + eβ(µ−εp ) (F). (4.2.12)
p σ

Para bósons, os números de ocupação, n, podem ser quaisquer (positivos), e a soma


em (4.2.11) também fica trivial, desde que o expoente seja negativo, para qualquer εp .
Isto requer
µ ≤ 0 , para bósons, (4.2.13)
onde a igualdade só é admitida nos casos em que εp > 0, ∀p. Assim,
YY −1
β(µ−εp )
Z= 1−e (B). (4.2.14)
p σ

Podemos tratar os casos F e B simultaneamente, através do parâmetro θ [c.f., (4.1.8)]:


YY −θ
Z= 1 − θ eβ(µ−εp ) . (4.2.15)
p σ

O resultado acima é semelhante aos obtidos anteriormente: a função de partição


de um gás ideal é fatorada. No entanto, uma diferença crucial com relação ao gás de
Boltzmann é que aqui os fatores não se referem a partı́culas individuais, mas aos estados
quânticos de uma partı́cula.
O gran-potencial J(T, V, µ) pode ser escrito como
XX  
J(T, V, µ) ≡ V P (T, µ) = −θkB T ln 1 − θ eβ(µ−εp ) , (4.2.16)
p σ

de onde decorrem todas as outras funções termodinâmicas:

hN i
 
∂P
densidade: n = = (4.2.17)
V ∂µ T
 
S ∂P
densidade de entropia: s̃ = = (4.2.18)
V ∂T µ
   
1 ∂V 1 ∂n
compressibilidade: KT = − = 2 (4.2.19)
V ∂P T n ∂µ T
 
1 ∂
densidade de energia interna: ẽ = − βJ (4.2.20)
V ∂β z,V
 
∂ẽ
calor especı́fico (por volume): cV = . (4.2.21)
∂T µ,V

O leitor deve notar (veja o Exercı́cio 4.1) que o cálculo da derivada com relação a
β, no caso da densidade de energia, é feito a fugacidade constante, e não a potencial
quı́mico constante. A segunda igualdade da Eq. (4.2.19), obtida usando a Eq. (2.10.18),
4.2. IDEAL SYSTEMS OF BOSONS OR FERMIONS 79

mostra também que a compressibilidade fornece uma medida do custo energético para
se adicionar partı́culas ao sistema; assim, p.ex., um isolante é incompressı́vel (KT = 0),
enquanto que um metal é compressı́vel (KT > 0).
Vamos agora desenvolver a Eq. (4.2.16) um poucoP mais. Primeiramente, na ausência
de campo magnético externo, εp independe de σ, e a σ nos dá g, a degenerescência do
nı́vel εp . Em segundo lugar, para um sistema de dimensões macroscópicas, os valores
possı́veis de p são pouco espaçados; podemos, portanto, substituir a soma em p em
(4.2.16) por uma integral.2
Temos então, com a substituição
L3
X Z
→ 3 d3 p, (4.2.22)
p
h

V
Z  
2
P V = −θgkB T 3 d3 p ln 1 − θ eβ(µ−p /2m) . (4.2.23)
h
Integrando em coordenadas polares, a parte angular contribui com 4π. Chamando
η = β(p2 /2m), e efetuando a integração em (4.2.23) por partes, obtemos
Z ∞
η 3/2

2 −3 2
P (T, µ) = kB T gΛ √ dη η−µ/k T , (4.2.24)
3 π 0 e B −θ
onde o reaparecimento do comprimento de onda térmico, Eq. (3.4.9), indica que uma
outra escala de comprimentos se torna importante, além do tamanho linear (L) do
sistema; como veremos, se Λ é muito menor que o espaçamento entre as partı́culas (cujo
limite superior é L), os efeitos quânticos não são dominantes.
Obtivemos, então, uma expressão para P em função de T e de µ. Esta última
quantidade não é muito conveniente por não ser diretamente mensurável. Para se chegar
a uma equação de estado [P (T, n)], notemos que a densidade n pode ser obtida como
Z ∞
η 3/2 eη−µ/kB T
 
∂P 2 −3 2
n= = gΛ √ dη η−µ/k T , (4.2.25)
∂µ T 3 π 0 [e B − θ]2
que, após integrada por partes, fica

2 η 1/2
Z
n(T, µ) = g Λ−3 √ dη . (4.2.26)
π 0 eη−µ/kB T − θ
Resolvendo (4.2.26) para µ(n, T ) e levando em (4.2.24) podemos, em princı́pio, obter
P (T, n). Há uma forma de se inverter estas equações, mas que ainda recai em integrais
bastante intrincadas, o que as torna de pouca utilidade prática (veja Ref. [7], Seção 4.5).
Antes de fazer algumas aproximações que tornem (4.2.24) e (4.2.26) mais simples,
notemos que a densidade de energia é obtida a partir de (4.2.20) como
Z ∞
−3 2 η 3/2
ẽ(T, µ) = g kB T Λ √ dη η−µ/k T , (4.2.27)
π 0 e B −θ
2
Como veremos na Seção 4.5, alguns cuidados devem ser tomados ao fazer esta substituição, pela
possibilidade de ocupação macroscópica do estado fundamental de uma partı́cula.
80 CHAPTER 4. IDEAL SYSTEMS IN BOSE AND FERMI STATISTICS

o que nos dá, por comparação direta com (4.2.24), a equação de estado
2
P = ẽ. (4.2.28)
3
O leitor deve se convencer de que a fração 2/3 na Eq. (4.2.28) representa, na realidade,
a razão s/d, onde s é o expoente da relação de dispersão (ε ∝ ps , com s = 2) e d é a
dimensão espacial, (= 3, neste caso).
Deve-se também frisar o aspecto universal desta equação de estado: como θ não
aparece nesta relação, ela é válida para todos os sistemas ideais, independentemente da
estatı́stica (MB, BE, FD). No caso MB, a forma simples

Pcl = n kB T (4.2.29)

é recuperada com o auxı́lio do Teorema da Equipartição da energia.


Vamos estudar agora uma aproximação que seja válida quando os efeitos quânticos
não são importantes, o que, de acordo com o limite de altas temperaturas da Eq. (3.4.18),
ocorre para µ → −∞, ou
 3
µ/kB T Λ
z=e =N  1, (4.2.30)
L
quando fica fácil adicionar partı́culas ao sistema.
Nestas condições, expandindo em z os integrandos de (4.2.24) e (4.2.26), e integrando
termo a termo, obtemos

P = g kB T Λ−3 z(1 + θ 2−5/2 z + 3−5/2 z 2 + · · · ), (4.2.31)


n = g Λ−3 z(1 + θ 2−3/2 z + 3−3/2 z 2 + · · · ). (4.2.32)

A Eq. (4.2.32) pode ser invertida e substituı́da em (4.2.31), o que dá

P = nkB T [1 − 0.1768 θ g −1 Λ3 n − 0.0033 g −2 Λ6 n2 + · · · ]. (4.2.33)

Este último resultado contém informações muito interessantes. Primeiramente, o resul-


tado final aparece como uma expansão em série de potências do chamado parâmetro de
degenerescência
3/2
h2

−1 3 1
δ≡g Λ n= n, (4.2.34)
g 2πmkB T
que pode ser pensado como a fração do volume ocupado pelos pacotes de onda (de
largura Λ) associados às partı́culas; assim, a estatı́stica de Maxwell-Boltzmann equivale
ao limite não-degenerado,
δ1 (MB), (4.2.35)
correspondendo a altas temperaturas (para uma dada densidade) ou baixas densidades
(para uma dada temperatura), evitando efeitos de interferência entre os pacotes. Ade-
mais, o lado direito da Eq. (4.2.33) pode também ser visto como uma expansão em série
de potências da densidade, n; esta forma chama-se expansão do virial e é caracterı́stica
4.3. BOSE-EINSTEIN AND FERMI-DIRAC DISTRIBUTIONS 81

de gases não-ideais [veja a Seção 6.2]. Em segundo lugar, o desvio do resultado do gás
ideal clássico é devido à correlação introduzida ao adotarmos funções de onda simétricas
ou anti-simétricas. Isto é, apesar de não haver interações reais, o movimento de cada
partı́cula é fortemente dependente das demais. É como se férmions estivessem sujeitos
a uma pseudo-força repulsiva, que aumenta a pressão em relação ao gás de Maxwell-
Boltzmann. Da mesma forma, bósons estariam sujeitos a uma pseudo-força atrativa,
que diminui a pressão em relação ao gás de Maxwell-Boltzmann.

4.3 Bose-Einstein and Fermi-Dirac distributions


Para um estudo mais detalhado das propriedades termodinâmicas de sistemas ideais
quânticos, especialmente no regime de alta degenerescência (δ  1), precisamos entender
sua estrutura microscópica. Uma quantidade crucial para isto é o número de ocupação
médio do estado (p, σ), hnpσ i.
Expressões para hnpσ i são obtidas supondo que os nı́veis de uma partı́cula tenham
uma dependência com σ, εpσ [veja o Exercı́cio 4.1(b)], a saber,
 
1 ∂ 1
hnp0 σ0 i = − βP V = β(ε 0 0 −µ) , (4.3.1)
β ∂εp0 σ0 z,T e pσ −θ

fornecendo as conhecidas distribuições (retornando a εpσ = εp ):

(i) de Bose-Einstein,
1
hnpσ i = , e (4.3.2)
eβ(εp −µ) −1
(ii) de Fermi-Dirac
1
hnpσ i = . (4.3.3)
eβ(εp −µ) + 1
P P
Note que hN i = pσ hnpσ i, e que a magnetização, dada por pσ σhnpσ i, se anula
na ausência de campo magnético pois hnpσ i não depende de σ: o estado de equilı́brio
é, portanto, despolarizado. Finalmente, para férmions 1 − hnpσ i é o número médio de
buracos no estado (pσ).
Devido às diferentes propriedades das estatı́sticas de férmions e de bósons, no que
se segue analisaremos separadamente o comportamento dos correspondentes gases no
regime de alta degenerescência,
Λ3 n
δ≡ ≥ 1. (4.3.4)
g

4.4 Degenerate Fermi gas


Nos sistemas de férmions com densidade constante, as partı́culas se distribuem de modo
compatı́vel com o princı́pio de exclusão de Pauli. Consequentemente, não pode haver
acumulação de partı́culas em qualquer estado quântico. A baixas temperaturas, a
82 CHAPTER 4. IDEAL SYSTEMS IN BOSE AND FERMI STATISTICS

np
1

F
p

Figure 4.1: Fermi distribution at T = 0.

distribuição de partı́culas mais favorável consiste na ocupação dos nı́veis de energia


mais baixos, respeitando a degenerescência g, até que todas as partı́culas estejam ‘aco-
modadas’. A energia do estado populado mais alto é a chamada energia de Fermi, εF .
Deste modo a energia de ponto zero de um sistema de férmions é considerável, contrari-
amente ao que ocorre com bósons, como veremos posteriormente.
Assim, a T = 0 devemos ter

hnpσ i = Θ(εF − εp ), (4.4.1)

com (
0 x<0
Θ(x) = (4.4.2)
1 x > 0,
como indica a Fig. 4.1.
Para compatibilizar (4.4.1) com a distribuição (4.3.3), notemos que
(
0 se (ε − µ) < 0
lim eβ(ε−µ) = (4.4.3)
β→∞ ∞ se (ε − µ) > 0,

ou (
1 1 se ε < µ
hnpσ i = β(ε−µ) → (4.4.4)
e +1 0 se ε > µ,
o que significa
µ = εF a T = 0. (4.4.5)
Para obter a energia de Fermi, lembremos que a densidade de partı́culas, dada por
(4.2.26), se reduz, no limite T → 0, a

25/2 π m3/2 g
Z
n= dε ε1/2 Θ(εF − ε), (4.4.6)
h3 0
4.4. DEGENERATE FERMI GAS 83

o que nos dá


2/3 
6π 2 ~2
 
εF = n2/3 . (4.4.7)
g 2m
Podemos também associar um momento de Fermi pF :
1/3
p2 6π 2

εF = F ⇒ pF = ~ n1/3 . (4.4.8)
2m g

A densidade de energia interna é obtida de (4.2.27) como


3
ẽ = n εF (T = 0), (4.4.9)
5
e a pressão é
2/3 
6π 2 ~2
 
2 1
P = n εF = n5/3 (T = 0). (4.4.10)
5 5 g m
O gás de Fermi é um modelo bastante razoável para metais alcalinos, enquanto que
para os demais metais ele pode ser usado como um guia para ordens de grandeza; veja,
p.ex., Ref. [8], Cap. 2. As densidades tı́picas são da ordem de 1021 -1022 elétrons/cm3 , o
que fornece energias de Fermi entre 2 e 10 eV. Assim, devido a esta grande energia de
ponto zero, a pressão de um gás de férmions a T = 0 é considerável, da ordem de 3 GPa
' 104 atm. Este comportamento deve ser contrastado com o de um gás de bósons, cuja
pressão tende a zero quando T → 0, como veremos na próxima seção.
Vejamos agora o comportamento das funções termodinâmicas a temperaturas baixas,
mas não-nulas. Lembremos que
Z ∞
P g 4 η 3/2 g
= 3 √ dη −1 η ≡ 3 f5/2 (z) (4.4.11)
kB T Λ 3 π 0 z e +1 Λ
e

g 2 η 1/2 g
Z
n= √ dη −1
≡ 3 f3/2 (z), (4.4.12)
Λ3 π 0
η
z e +1 Λ
onde a última igualdade em cada uma das Eqs. (4.4.11) e (4.4.12) introduz as integrais
de Fermi, Z ∞
1 xn−1 dx
fn (z) ≡ , (4.4.13)
Γ(n) 0 z −1 ex + 1
com √
Γ(n) = (n − 1)! ⇒ Γ(n + 1) = n Γ(n); Γ(1/2) = π. (4.4.14)
Para fazer expansões sistemáticas utilizaremos um método, devido a Sommerfeld,
para integrais do tipo fn (z); um procedimento mais geral, em termos de densidade
de estados, será discutido na Seção 5.2. A região de interesse agora é a de baixas
temperaturas, T → 0, µ → εF , de modo que z = eµ/kB T  1. Introduzindo a variável

ξ ≡ ln z (= µ/kB T ), (4.4.15)
84 CHAPTER 4. IDEAL SYSTEMS IN BOSE AND FERMI STATISTICS

1
1.0

+ 1]
)
0.5

(x
[e
0.0
x
−1
Figure 4.2: Schematic plot of ex−ξ + 1 as a function of x: the temperature only
causes appreciable changes relative to T = 0 (Fig. 4.1) in the region x ' ξ.

temos

xn−1 dx
Z
Fn (ξ) = Γ(n) fn (ξ) = . (4.4.16)
0 ex−ξ + 1
Note que para x  ξ  1 o fator (ex−ξ + 1)−1 é muito próximo de 0, enquanto que
para x < ξ o mesmo fator é muito pouco diferente de 1; veja a Fig. 4.2. A variação
significativa entre estes limites ocorre perto de x = ξ. Assim, em primeira aproximação
podemos substituir
Z ξ
Fn (ξ) ≈ xn−1 dx = ξ n /n. (4.4.17)
0

Esta aproximação pode ser sistematicamente melhorada através da expansão de Som-


merfeld (veja, p.ex., Refs. [5, 6, 7]):

ξn π2 1 7π 4 1
 
fn (ξ) = 1 + n(n − 1) + n(n − 1)(n − 2)(n − 3) + · · · .
Γ(n + 1) 6 ξ2 360 ξ 4
(4.4.18)
Assim, obtemos o seguinte resultado para a densidade
" #
µ 3/2 4 π 2 kB T 2
   
g
n= 3 √ 1+ + ··· (4.4.19)
Λ kB T 3 π 8 µ

que pode ser invertido, usando as Eqs. (4.4.5) e (4.4.7) para T = 0, dando
" 2 #
π2

kB T
µ = εF 1− + ··· (4.4.20)
12 εF

Esta equação relaciona o potencial quı́mico com a temperatura e a densidade (através


de εF ). Note que para metais à temperatura ambiente (∼ 0.25 eV), o potencial quı́mico
difere de εF por termos da ordem de 10−3 εF , de modo que a temperaturas de interesse
(bem mais baixas que a ambiente) pode-se sempre tomar µ = εF nestes sistemas.
4.4. DEGENERATE FERMI GAS 85

CV
Nk B

3/2

F kBT

Figure 4.3: The temperature dependence of the specific heat of the Fermi gas.

A densidade (volumétrica) de energia interna pode ser obtida de maneira análoga


como " #
5π 2 kB T 2
 
3
ẽ(n, T ) = nεF 1 + + ··· (4.4.21)
5 12 εF
de onde tiramos o calor especı́fico
π 2 kB
2
 
∂ẽ
cV (T, n) = = γ T, γ≡ (4.4.22)
∂T n 2εF
(a dependência de cV com n se dá via εF ). Ou seja, o calor especı́fico de um gás de
férmions é linear com T , a baixas temperaturas. Este comportamento é bem diferente
do gás ideal clássico (cV = 3kB /2), o qual, não obstante, é recuperado a altas tem-
peraturas, como mostra, esquematicamente, a Fig. 4.3. Para metais usuais, γ ∼ 10−3
J/(mol·K2 ), mas, para compostos como UBe13 , CeAl3 , CeCu2 Si2 e outros, γ chega a 103
vezes estes valores. Como γ ∝ m [massa eletrônica; veja Eq. (4.4.7)], estes compostos são
chamados de férmions pesados, cujas propriedades são bastante interessantes, já que al-
guns apresentam ordem magnética coexistindo com supercondutividade, pontos crı́ticos
quânticos, etc..
Uma vez obtido cV (T, n) = T [∂s̃(T, n)/∂T ]n , a entropia por partı́cula pode ser obtida
por uma simples integração:
Z T 2T
cV π 2 kB
s̃ = dT = + ··· , (4.4.23)
0 T 2 εF
de modo que s̃ → 0 quando T → 0. Este comportamento está de acordo com a 3a Lei
da Termodinâmica, ao contrário do obtido para o gás ideal clássico (MB),
"   #
s̃ e5/2 L 3
= n ln −→ −∞, (4.4.24)
kB N Λ T →0

que viola a 3a Lei. Outras grandezas termodinâmicas serão discutidas no Cap. 5.


86 CHAPTER 4. IDEAL SYSTEMS IN BOSE AND FERMI STATISTICS

4.5 Degenerate Bose gas


We start by recalling Eqs. (4.2.24) and (4.2.26), with θ = 1, and noticing that they can
be expressed in terms of the Bose integrals,

1 xn−1 dx
Z
gn (z) = , (4.5.1)
Γ(n) 0 z −1 ex − 1

where the Gamma function, Γ(n), was defined in Eq. (4.4.14), and z ≡ exp(βµ) is the
fugacity. That is, we may write

1
Pn = k B T g (z), (4.5.2)
Λ3 5/2
and
1
Nn = V g (z), (4.5.3)
Λ3 3/2
where the subscript n in both equations stands for “normal”, for reasons which will
become apparent later.
The functions gn (z) have some simple properties. For z ≤ 1, the integrand in
Eq. (4.5.1) can be expanded in a power series in z, and then integrated term by term to
yield

X z`
gn (z) = , (4.5.4)
`n
`=1

whose radius of convergence is z = 1. For n > 1, gn (z) calculated at z = 1 becomes the


Riemann ζ function,
X∞
ζ(n) = `−n . (4.5.5)
`=1

In particular, the following will be very useful to us here:

ζ(3/2) ≈ 2.612 and ζ(5/2) ≈ 1.342; (4.5.6)

note also that ζ(∞) = 1. For n ≤ 1, on the other hand, gn (1) diverges.3 Figure 4.4
shows g3/2 (z) and g5/2 (z), calculated using Eq. (4.5.4): we see that for all values of z of
our concern here, the functions gn (z) increase monotonically, that is,

gn (z) ≤ ζ(n). (4.5.7)

Next, we take a closer look at the Bose-Einstein distribution, Eq. (4.3.2), which we
write in terms of z, as
z
n(ε) = βε , (4.5.8)
e −z
3
See Appendix D of Ref. [6] for a detailed discussion on the properties of gn (z).
4.5. DEGENERATE BOSE GAS 87

2.612
2.5
g 3/2(z)
g 5/2(z)
2.0

gn(z)
1.5
1.341

1.0

0.5

0.0
0.0 0.5 1.0
z

Figure 4.4: The functions g3/2 (z) e g5/2 (z).

keeping in mind that µ ≤ 0 for bosons, so that z ∈ [0, 1]. When taking the zero
temperature limit, we have to distinguish between the occupation of the ground state
(ε = 0) and of any excited state (ε > 0),

 z ,

if ε = 0, (4.5.9a)
n(ε) → 1−z
 −βε
ze , if ε 6= 0. (4.5.9b)

In the absence of a restriction (such as the Pauli principle for fermions), at zero temper-
ature all particles must be in the ground state, that is, the occupation with bosons of
the lowest-energy state, ε = 0, must be macroscopic: n(0) ∼ N → ∞. This can only be
achieved with
lim z = 1, or, equivalently, lim µ → 0− , (4.5.10)
β→∞ T →0

where in the second limit µ is to be regarded as a function of T and of the density N/V .
This establishes the zero temperature limits of µ and z as 0− and 1, respectively.
Now we recall that Eqs. (4.2.24) e (4.2.26) were obtained by replacing the sums by
integrals in p [c.f. Eq. (4.2.22)]; the integration variables were subsequently changed to
η = p2 /(2mkB T ). An equivalent way of expressing average values is in terms of integrals
in the single particle energy, ε, and of the density of states D(ε); see Chapter 2. For
instance, the average number of particles is obtained from
Z
hN i = dε D(ε) n(ε), (4.5.11)

which separates the information about the spectral properties [contained in D(ε)] from
the thermal properties [in n(ε)].
For the present case of quadratic dispersion, ε ∝ p2 , and for a three-dimensional
space, we have

D(ε) = 3 (2m)3/2 V ε1/2 , (4.5.12)
h
88 CHAPTER 4. IDEAL SYSTEMS IN BOSE AND FERMI STATISTICS

according to Problems 2.1 and 2.2, and where we have taken g = 1 for simplicity. This
density of states attributes zero weight to states with ε = 0, so that the ground state
occupation would not contribute to hN i.4 In addition, since n ≈ exp(−βε) the excited
states would also contribute with hN i → 0 at low temperatures. This is certainly nonsen-
sical, since particles cannot disappear as the temperature is lowered. The inconsistency
lies in the fact that the replacement of sums over p by integrals in ε ignores the singular
behaviour of n(ε) expressed in Eqs. (4.5.9a) and (4.5.9b). We must therefore separate
the contributions from the p = 0 states before replacing the sums by integrals. Going
back to Eq. (4.2.16), we write
 
 X h i
P V = −kB T ln(1 − z) + ln 1 − z e−βεp , (4.5.13)
 
p6=0

whose derivative with respect to µ yields


N 1 z 1 X 1
= + . (4.5.14)
V V 1−z V z −1 eβεp − 1
p6=0

The sums in p can now be replaced by integrals, as before, since the p = 0 terms do not
contribute anyway; we then have
P 1 1
= − ln(1 − z) + 3 g5/2 (z), (4.5.15)
kB T V Λ
and
1
n = n0 + g (z), (4.5.16)
Λ3 3/2
where
hN0 i 1 z
n0 ≡ = (4.5.17)
V V 1−z
is the density of particles in the ground state, and the Bose integrals are given by
Eq. (4.5.1).
We recall that at high temperatures, z  1 [see Eq. (4.2.30)], and the new terms
originating from p = 0 are O(1/V ), and the Maxwell-Boltzmann ideal gas equation of
state (4.2.33) follows from P and hN i as before.
Let us examine the relative magnitude of the terms on the right-hand side (RHS) of
Eqs. (4.5.15) and (4.5.16), keeping in mind that for bosons we must have z ∈ [0, 1] since
µ ∈ (−∞, 0]. Given that P/kB T and n are intensive, we only need to keep terms of O(1)
on the RHS of these equations.
At high temperatures, z  1, so that ln(1 − z) ' −z and the new term in (4.5.15)
contributes with z/V . O(1/N ); in this classical limit, the second term must yield n, in
comparison with which the first term can be neglected. The first term in (4.5.16) namely,
4
Note that usually one considers N as large, but finite, and the limit N → ∞ is taken at the end of
the calculations.
4.5. DEGENERATE BOSE GAS 89

ne,max
n

Tc T
Figure 4.5: Densidade total, n, e densidade de partı́culas nos estados excitados, ne , como
funções da temperatura (esquemático).

the density of particles in the ground state, is O(z/N ), so that, again, the second term is
the one providing the sought O(1) contribution. Thus the new terms do not contribute
at high temperatures, and the Maxwell-Boltzmann limit is unaffected.
At very low temperatures, z → 1, the dominant contribution to the density in (4.5.16)
must come from the first term, since the accumulation of particles in the ground state
is allowed. Therefore, n0 = z(1 − z)−1 /V must be O(1), so that z(1 − z)−1 ' N ; hence
z ∼ 1 − 1/N . By contrast, when we take this into the first term on the RHS of (4.5.15),
we see that its contribution to the pressure, −(1/V ) ln(1 − z), is, at most, O[(ln N )/N ].
In summary, the pressure is not significantly [i.e., not O(1)] altered by the contribu-
tions from the ground state neither at high- nor at low temperatures, and the new term
will be neglected from now on; the same does not hold for the density, so that the new
term will be kept. In view of this, Eqs. (4.5.15) and (4.5.16) become
P 1
= 3 g5/2 (z), (4.5.18)
kB T Λ
and
1
n = n0 + g (z), (4.5.19)
Λ3 3/2
which provide us with the equation of state.
We have therefore found two distinct regimes of ground state occupancy: one corre-
sponds to a macroscopic occupation, occurring for z ≈ 1, and the other to a microscopic
occupation, occurring for z  1. The interesting question to answer now is whether
this macroscopic occupation, or condensed state, persists through a finite temperature
interval, or it becomes microscopic as soon as the temperature rises.
Podemos agora examinar o comportamento de ne ≡ n − n0 , que é a densidade de
partı́culas em todos os estados excitados, i.e., naqueles com p 6= 0. Em primeiro lugar
deve ser notado que o número de partı́culas que podem ser acomodadas nos nı́veis exci-
tados é limitado. De fato, usando as Eqs. (4.5.19), (4.5.6), e (4.5.7), podemos escrever,
90 CHAPTER 4. IDEAL SYSTEMS IN BOSE AND FERMI STATISTICS

para uma dada temperatura,


ne ≤ ne,max = 2.612/Λ3 . (4.5.20)
A dependência de ne,max com a temperatura (∝ T 3/2 ) está ilustrada na Fig. 4.5, que
mostra também a densidade total, n, suposta constante, pois admite-se que não haja
criação de partı́culas.
A Fig. 4.5 indica que há dois regimes distintos. Ao contrário do que ocorre com um
gás de Boltzmann, quando, à medida em que a temperatura aumenta, estados excitados
vão sendo ocupados sem restrições, nota-se aqui que para ne,max < n, a ocupação dos
estados excitados é limitada, de modo que as partı́culas excedentes têm que ocupar,
necessariamente, o estado fundamental.5 Em outras palavras, neste caso a ocupação do
estado fundamental é macroscópica. Esta acumulação de partı́culas não-interagentes em
um único estado é chamada de condensação de Bose-Einstein (BEC); é uma condensação
distinta da condensação do vapor em lı́quido porque ocorre no espaço dos momentos e
não no espaço usual de coordenadas. No outro regime, ne,max > n, não há limitação na
população dos estados estados excitados, de modo que o estado fundamental pode ser
exaurido; isto é, é o regime de ocupação microscópica do estado fundamental. Neste caso,
a mudança de regime é induzida variando a temperatura, mantendo fixa a densidade; a
temperatura, Tc , na qual isto ocorre corresponde à condição ne,max = n, ou
h2 n n o2/3
Tc = . (4.5.21)
2πmkB 2.612
Similarly, instead of keeping the density fixed and varying the temperature, one can
go across the two regimes the other way around: we keep the temperature fixed, while
the density can be varied. If n > ne,max (T ) for a given temperature, then the occupation
of the ground state is macroscopic; by contrast, if n < ne,max (T ) the occupation of the
ground state is microscopic. Therefore, for a given temperature ne,max (T ) is the critical
density separating these two regimes of ground state occupation,
nc (T ) ≡ ne,max (T ) = 2.612/Λ3 . (4.5.22)
Since nc ∝ T 3/2 , the higher the temperature, the larger is the critical density needed to
induce Bose-Einstein condensation; conversely, if one can work at very low temperatures,
then the critical density is not that high. At this point, one should note that BEC only
occurs when the occupation of excited states is bounded [see Eq. (4.5.20)].
We now compare the behaviour of the gas in the condensed phase and in the ‘normal’
phase. First, we recall that the fact that the condensate survives for any temperature
below Tc implies that one must have µ ≈ 0 or, equivalently, z ≈ 1 throughout the con-
densed phase. Com efeito, a ocupação do estado fundamental a uma dada temperatura
é dada pela Eq. (4.5.17), que pode ser resolvida para z, fornecendo
1
z '1− . (4.5.23)
hN0 i
5
Deve-se sempre ter em mente, é claro, que as partı́culas são indistinguı́veis, não se podendo dizer
‘quais’ partı́culas estão no estado εp = 0 e ‘quais’ estão nos estados εp 6= 0. Este fato já está incorporado
à função de onda simetrizada, Eq. (4.1.6).
4.5. DEGENERATE BOSE GAS 91

z
o(1/ V)
1

3
0 1 1/n
2.612

Figure 4.6: Fugacity as a function of 1/nΛ3 (schematic).

Ou seja, enquanto houver o condensado, hN0 i ∼ N e z difere de 1 por termos da ordem


de 1/V ; veja a Fig. 4.6. Da mesma forma, µ ∼ −(kB T /hN0 i) → 0− para hN0 i  1.
Assim, no que se segue, ao calcularmos as diversas grandezas para T < Tc , tomaremos
µ = 0 ou z = 1.
A ocupação dos estados excitados, a T < Tc , fica sendo dada por
2πmkB T 3/2
 
V
N − hN0 i = 3 g3/2 (1) = 2.612 V =
Λ h2
 3/2
T
=N , (4.5.24)
Tc
de modo que
hN0 i
= 1 − (T /Tc )3/2 , (4.5.25)
N
como representado na Fig. 4.7. Abaixo de Tc , à medida em que a temperatura diminui,
a ocupação do estado fundamental cresce até atingir o valor de saturação n, num com-
portamento tı́pico de um parâmetro de ordem em uma transição de fase, como veremos
no Cap. 7. Podemos imaginar um modelo de dois fluidos tal que, para T < Tc , o sistema
se encontra em uma mistura de duas fases: um ‘condensado’ com densidade n0 corre-
spondendo às partı́culas no estado com p = 0, e um ‘gás’ com densidade ne ≡ n − n0
correspondendo às partı́culas nos estados excitados.
Vejamos agora como fica a equação de estado, fixando n. Tomando z ' 1 para
T < Tc , temos, de (4.5.18),
kB T
P (T ) = g (1) ∼ T 5/2 , para T < Tc , (4.5.26)
Λ3 5/2
que é independente de v ≡ 1/n e vai a zero quando T → 0.
Para T > Tc podemos desprezar hN0 i; temos então
N 1
= 3 g3/2 (z), para T > Tc , (4.5.27)
V Λ
92 CHAPTER 4. IDEAL SYSTEMS IN BOSE AND FERMI STATISTICS

N0 P
N linha das transicoes
1 v constante

kBT g (1)
3 5/2

T
vc (T) v
Tc T Figure 4.8: Isotermas da equação de es-
tado, P (v), onde v = 1/n. A curva
Figure 4.7: Ocupação do estado funda-
tracejada localiza as transições de fase.
mental vs. T , a v ≡ 1/n constante.

que pode, em princı́pio, ser invertida para se obter z = z(T, n). A Eq. (4.5.18) nos dá,
então,
kB T  
P (T, n) = 3 g5/2 z(T, n) , para T > Tc . (4.5.28)
Λ
Duas isotermas de P (v) estão indicadas na Fig. 4.8, e as Eqs. (4.5.26) e (4.5.28)
indicam que a curva superior corresponde a uma temperatura maior que a inferior.
Como previsto anteriormente [Eq. (4.5.22)], a uma dada temperatura, existe um vc =
Λ3 /g3/2 (1), tal que para v < vc o sistema se encontra na fase condensada. A linha
pontilhada na Fig. 4.8 representa o lugar geométrico das temperaturas de transição,
e é obtida fazendo-se z → 1 e T = Tc em (4.5.27) e (4.5.28). A parte horizontal
das isotermas indica que as partı́culas no estado fundamental não contribuem para
P . Estas isotermas devem ser comparadas com as de um gás ideal clássico, P =
kB T /v. Ainda da Fig. 4.8, deduzimos que a compressibilidade isotérmica, definida pela
Eq. (2.7.3), é infinita para v < vc ; isto é consistente com uma coexistência de fases, como
veremos no Cap. 7.
Para o cálculo da entropia, podemos usar a Eq. (2.9.19), com N = hN i, para escrever
E + P V − µN
S= , (4.5.29)
T
que, junto com a equação de estado, (4.2.28), fornece o resultado geral
5 PV µN
S= − . (4.5.30)
2 T T
Para o gás de bósons a T < Tc , usamos a Eq. (4.5.18), com z ' 1, para substituir P ; de
forma análoga, usamos a Eq. (4.5.19), com ne ≡ n − n0 , para escrever Λ3 em termos de
Ne = ne V e de g3/2 (1). Temos então,

5 g5/2 (1)
S= kB Ne , T < Tc . (4.5.31)
2 g3/2 (1)
4.5. DEGENERATE BOSE GAS 93

Acima de Tc , substituições equivalentes levam a


 
g5/2 z(n, T )
P (T ) = n kB T  , (4.5.32)
g3/2 z(n, T )

de onde se obtém
5 g5/2 (z)
 
S = N kB − ln z , T > Tc . (4.5.33)
2 g3/2 (z)
A proporcionalidade entre S e Ne na fase condensada significa que somente as
partı́culas nos estados excitados ‘carregam’ entropia (vale aqui a mesma observação da
Nota 4). Assim, a interpretação de dois fluidos coexistindo para T < Tc fica mais con-
sistente: um dos fluidos, o ‘condensado’, não carrega entropia e não faz pressão, que são
atribuı́dos somente ao ‘gás’ (i.e., às partı́culas que ocupam os estados excitados). Acima
de Tc , não há condensado e todas as partı́culas contribuem para a entropia, S ∝ N . Um
modelo de dois fluidos semelhante a este é utilizado para descrever alguns aspectos da
superfluidez.
Novamente usando a equação de estado, (4.2.28), o calor especı́fico é dado por
   
CV 1 ∂E 3 ∂P
= = . (4.5.34)
N kB N kB ∂T N,V 2n ∂T N, V
| {z }
n

Abaixo de Tc temos, então,


CV 15 1
= g5/2 (1) ∝ T 3/2 , T < Tc . (4.5.35)
N kB 4 nΛ3
Para obter CV acima de Tc , usamos novamente a Eq. (4.5.32) para escrever

3 g5/2 (z)
  
CV ∂
= T . (4.5.36)
N kB ∂T 2 g3/2 (z) n

Para calcular a derivada acima, necessitamos obter (∂z/∂T )n ; para isto, notemos primei-
ramente que
∂g3/2 ∂g3/2 (z) ∂z
   
= . (4.5.37)
∂T n ∂z ∂T n
Por um lado, a Eq. (4.5.27) nos dá

∂g3/2 3 g3/2 (z)


 
=− , (4.5.38)
∂T n 2 T

enquanto que da expansão (4.5.4) segue que


z gn (z) = gn−1 (z). (4.5.39)
∂z
94 CHAPTER 4. IDEAL SYSTEMS IN BOSE AND FERMI STATISTICS

CV
Nk B

3/2

3/2
~T

Tc
T
Figure 4.9: The specific heat of an ideal Bose gas (schematic).

Levando estes dois últimos resultados em (4.5.37), vem

3 z g3/2 (z)
 
∂z
=− . (4.5.40)
∂T n 2 T g1/2 (z)

Com isto, finalmente, a derivada na Eq. (4.5.36) fica

CV 15 g5/2 (z) 9 g3/2 (z)


= − , (4.5.41)
N kB 4 g3/2 (z) 4 g1/2 (z)

com z(n, T ) sendo obtido a partir de (4.5.27).


A Fig. 4.9 mostra o calor especı́fico como função da temperatura. É interessante notar
que a baixas temperaturas, CV vai a zero (com T 3/2 ), de acordo com a 3a Lei da Ter-
modinâmica; a introdução da estatı́stica quântica elimina, portanto, o comportamento
insatisfatório do calor especı́fico clássico a baixas temperaturas. Já o limite de altas
temperaturas coincide com o do gás ideal clássico, como era de se esperar. Mais ainda,
em Tc o calor especı́fico é singular, comportamento caracterı́stico de uma transição de
fase. A semelhança desta curva com a observada na transição superfluida do 4 He sugere
que esta última tenha uma ligação estreita com a Condensação de Bose-Einstein (CBE).
No entanto, tanto no 4 He superfluido quanto nos supercondutores, as interações entre
as partı́culas não podem ser desprezadas. Daı́ que estes sistemas não são considerados
exemplos emblemáticos da CBE.
Assim, apesar de prevista em 1925, e de incessantes tentativas de realizá-la experi-
mentalmente, somente em 1995 a CBE foi observada de modo conclusivo. As razões
desta demora são fáceis de entender. Não basta resfriar um gás de bósons até que Λ
fique da ordem da distância interatômica: as interações entre os átomos acabam por
localizá-los, formando lı́quidos ou sólidos (uma exceção é o He). Assim, tem-se que tra-
balhar a densidades baixas o suficiente, para minimizar o efeito das interações entre as
partı́culas, mas, ao mesmo tempo, altas o suficiente para que efeitos quânticos sejam
dominantes. A Eq. (4.5.22) nos mostra o caminho: CBE pode ocorrer a baixas densi-
dades, desde que as temperaturas sejam suficientemente baixas. Através de sofisticadas
4.6. EXERCISES 95

técnicas de resfriamento por laser, combinadas com armadilhamento magnético, atingiu-


se temperaturas da ordem de 0.1 µK para átomos de Rb, Na e Li, com densidades da
ordem de 1014 cm−3 , viabilizando a observação de CBE. Mais detalhes sobre os métodos
experimentais utilizados e sobre os avanços teóricos sobre o tema podem ser encontrados
no Physics Today de dezembro de 1999.

4.6 Exercises
1. (a) Mostre que, para gases ideais quânticos, a densidade de energia é obtida a partir
do gran-potencial J, como
 
1 ∂
ẽ = − βJ .
V ∂β z,V

(b) Suponha agora que os nı́veis de uma partı́cula tenham uma depend ência com σ,
εpσ , para mostrar que
 
1 ∂
hnp0 σ0 i = − βJ .
β ∂εp0 σ0 z,T

2. Considere um gás ideal de férmions, com espectro de energia ε(p) = aps , contido
numa caixa hipercubica de “volume” V = Ld , num espaço d-dimensional.

(a) Mostre que a equação de estado é


s
PV = E
d
onde E é a energia interna.
(b) Mostre que o calor especı́fico é dado por
 2
f(d/s)+1 (z) fd/s (z)
 
CV d d d
= +1 − ,
N kB s s fd/s (z) s f(d/s)−1 (z)

onde z é a fugacidade, e

1 xn−1 dx
Z
fn (z) = .
Γ(n) 0 z −1 ex+1

(c) Obtenha o comportamento de CV /N kB a baixas temperaturas. Comente.

3. Em um semicondutor intrı́nseco, que tem um gap de energia EG , as densidades de


elétrons de condução e de buracos são n e p, respectivamente. Mostre que
" #3/2
2π (me mh )1/2 kB T
n=p=2 e−EG /2kB T ,
h2
96 CHAPTER 4. IDEAL SYSTEMS IN BOSE AND FERMI STATISTICS

e que a energia de Fermi do sistema de elétrons é dada por


1 3 mh
µ = EG + kB T ln ,
2 4 me
quando elétrons e buracos são considerados como partı́culas livres de massas me e
mh , respectivamente. Tome a origem das energias no topo da banda cheia e suponha
EG  kB T . Estime o valor de n para EG = 0.7eV, T = 300K, e me = mh .

4. Considere um gás ideal de N bósons, com espectro de energia εp = aps , s > 0,


contido em uma caixa cúbica de volume V .

(a) Haverá condensação de Bose-Einstein para qualquer valor de s? Em caso afirma-


tivo, qual a dependência de Tc com a densidade n ≡ N/V ?
(b) Repita a discussão para um sistema d-dimensional.
(c) Discuta a dependência do calor especı́fico com T , a baixas temperaturas, para s
e d genéricos.

5. Considere um gás ideal de Bose, composto de moléculas com graus de liberdade


internos. Suponha que, além do estado fundamental, ε0 = 0, só haja necessidade
de levarmos em conta o primeiro estado excitado, de energia ε1 , do espectro interno.
Mostre que a temperatura crı́tica para condensação de Bose-Einstein é dada por
   1/2 
Tc(0) 1 2/3 1 + 24/3 πε1 (0)

se ε1  kB Tc

2 3ζ(3/2) k T (0)
Tc ' h B
(0)
ic

Tc(0) 1 − 2

e−ε1 /kB Tc (0)
se ε1  kB Tc ,
3ζ(3/2)

(0)
onde Tc é a temperatura crı́tica usual e ζ(n) é a função ζ de Riemann.

6. Considere um sistema ideal de N partı́culas; os estados acessı́veis a cada partı́cula


têm energias dadas por εp (p ≡ ı́ndice de momentum linear). Suponha que cada
estado possa acomodar até q partı́culas, de modo que q = 1 corresponde a férmions
e q = ∞ a bósons.

(a) Calcule a ocupação média hnp i do estado com energia p ; recupere os limites
q → 1 e q → ∞.
(b) Discuta o comportamento de hnp i a T = 0.
(c) Se 1 < q < ∞ você deve esperar que este sistema apresente comportamento
semelhante a bósons ou férmions? Por quê?

[Para uma discussão recente sobre a chamada estatı́stica de Gentile, ver WS Dai and
M Xie, Ann.Phys. (N.Y.) 309, 295 (2004), e referências lá contidas.]
Chapter 5

Applications of Ideal Quantum


Systems
Refs.: Huang, Landau & Lifshitz, Pathria

5.1 Introduction
Neste capı́tulo estudaremos algumas aplicações simples de sistemas ideais quânticos. Ini-
cialmente discutiremos o cálculo de valores médios para sistemas fermiônicos utilizando
a densidade de estados de uma partı́cula. Em seguida, veremos o comportamento mag-
nético de um gás de Fermi – incluindo tópicos como paramagnetismo de Pauli e diamag-
netismo de Landau –, o gás de fótons e, finalmente, fônons.

5.2 Density of States for Fermionic Systems


Vamos agora generalizar a passagem para o contı́nuo das integrais fermiônicas estudadas
na Seção 4.4. Isto nos permitirá obter resultados bastante gerais em termos da densi-
dade de estados de uma partı́cula, que é uma grandeza utilizada para descrever tanto
sistemas não-interagentes quanto, ao menos de modo aproximado, sistemas interagentes.
É importante frisar que, na maioria dos casos, a presença de interações faz com que se
perca a individualidade das partı́culas; isto é, os autoestados da Hamiltoniana com in-
teração não podem ser escritos como produtos sobre estados de uma partı́cula. Apesar
disto, pode-se obter uma densidade de estados em que as interações sejam introduzidas
através de aproximações sistemáticas.
Seja V o volume espacial (= Ld , para um hipercubo d-dimensional de lado L) ao qual
as partı́culas estão confinadas. No limite termodinâmico, o espaçamento entre os nı́veis
de energia diminui, até formarem praticamente um contı́nuo de estados. O número de
estados com energia entre ε e ε + dε é, então, dado por D(ε)dε, definindo a densidade
de estados de uma partı́cula D(ε). Por exemplo, para uma partı́cula livre com spin-1/2
em três dimensões, com εp = p2 /2m, já vimos que

8πV √ 3 1/2
D(ε) = 2m ε , (5.2.1)
h3

97
98 CHAPTER 5. APPLICATIONS OF IDEAL QUANTUM SYSTEMS

enquanto que em d dimensões, D(ε) ∼ ε(d−2)/2 (mostre!).


Assim, introduzindo o número médio de ocupação do nı́vel de energia ε (veja a
Fig. 4.2),
1
f (ε) = β(ε−µ) (5.2.2)
e +1
[supõe-se que a degenerescência esteja incluı́da em D(ε)], a média termodinâmica de
qualquer função da energia, Q(ε), fica
Z
hQi = dε D(ε)f (ε)Q(ε). (5.2.3)

Em particular, Z
hEi = dε D(ε)f (ε)ε, (5.2.4)

e Z
hN i = dε D(ε)f (ε). (5.2.5)

A partir destes exemplos fica claro que frequentemente encontraremos integrais do tipo
Z ∞
I= dε G(ε)f (ε), (5.2.6)
ε0

onde ε0 é a menor energia dos estados de uma partı́cula, e G é uma função de ε.


De particular interesse é o comportamento destas integrais a baixas temperaturas.
Para obtê-lo, suponhamos inicialmente que G seja uma função contı́nua e infinitamente
diferenciável em ε = µ, e que seja lentamente variável num intervalo da ordem de kB T
em torno deste ponto. Seja ψ(ε) a primitiva de G(ε), isto é, ψ 0 (ε) = G(ε), de modo que
a integração por partes de (5.2.6) fornece
∞ ∞ ∞
dψ df
Z Z
I= dε f (ε) = f (ε)ψ(ε) − dε ψ(ε) , (5.2.7)
ε0 dε ε0 ε0 dε

onde o primeiro termo no lado direito de (5.2.7) se anula porque f (∞) = 0 e porque
também supõe-se que ψ(ε0 ) = 0.1
É fácil ver que, especialmente a baixas temperaturas, a função df /dε assume valores
muito pequenos, a não ser num intervalo da ordem de kB T perto de ε = µ; veja a Fig. 4.2.
Logo, podemos levar a expansão de ψ(ε),

1
ψ(ε) = ψ(µ) + (ε − µ)ψ 0 (µ) + (ε − µ)2 ψ 00 (ε) + . . . , (5.2.8)
2
na Eq. (5.2.7), para ser integrada termo a termo.
1
For most cases of interest, with ε ∼ ps , we have D(ε) ∼ (ε − ε0 )(d−s)/s , and Q(ε) ∼ (ε − ε0 )λ ;
therefore, ψ(ε) ∼ (ε − ε0 )(d+sλ)/s , so that one must have λ > −d/s for the assumption to hold.
5.2. DENSITY OF STATES FOR FERMIONIC SYSTEMS 99

Estendendo o limite inferior das integrais para −∞ (o que não causa alterações sig-
nificativas, pois os integrandos se anulam neste limite), e usando os seguintes resultados
Z ∞
df
dε = −1, (5.2.9)
−∞ dε
Z ∞
df
dε (ε − µ)n = 0 (n impar), (5.2.10)
−∞ dε

∞ ∞
df xn ex
Z Z
dε (ε − µ) n
= − (kB T )n dx =
−∞ dε −∞ (ex + 1)2
= −2 (kB T )n n! 1 − 21−n ζ(n) (n par),

(5.2.11)

obtemos

X
2 1 − 21−2r ζ(2r) (kB T )2r ψ (2r) (µ).

I = ψ(µ) + (5.2.12)
r=1
P∞ −n
Nas equações acima, ζ(n) ≡ l=1 l é a função ζ de Riemann, cuja relação com os
números de Bernoulli, Br , é
π 2r
ζ(2r) = 22r−1 Br , (5.2.13)
(2r)!
com
1 1 1 1 5
B1 = , B 2 = , B 3 = , B 4 = , B 5 = . (5.2.14)
6 30 42 30 66
Substituindo-se ψ 0 (ε) por G(ε) temos
Z ∞ Z µ
π2 7π 4
dε G(ε)f (ε) = dε G(ε) + (kB T )2 G0 (µ) + (kB T )4 G000 (µ) + . . . (5.2.15)
ε0 ε0 6 360

Lembrando que a baixas temperaturas a diferença entre o potencial quimico e a energia


de Fermi é muito pequena, da ordem de (εF /kB T )2 , podemos efetuar a aproximação
Z µ Z εF
dε G(ε) ' dε G(ε) + (µ − εF ) G(εF ). (5.2.16)
ε0 ε0

Com isto, a Eq. (5.2.15) pode finalmente ser escrita de uma forma que separa a con-
tribuição do estado fundamental (como uma integral até εF ) dos efeitos de temperatura
não-nula:
Z ∞ Z εF
π2
I≡ dε G(ε)f (ε) = dε G(ε) + (µ − εF )G(εF ) + (kB T )2 G0 (µ) + . . . (5.2.17)
ε0 ε0 6

A partir daı́ o leitor deve deduzir os seguintes resultados:


 
∂I 1
= π 2 kB 2
T G0 (εF ) + O(T 3 ), (5.2.18)
∂T µ 3
100 CHAPTER 5. APPLICATIONS OF IDEAL QUANTUM SYSTEMS
 
∂I
= G(εF ) + O(T 2 ), (5.2.19)
∂µ T

e
 
∂I 1
= π 2 kB
2
T φ0 (εF )D(εF ) + O(T 3 ), (5.2.20)
∂T N 3

onde φ = G/D.
Em particular, pode-se mostrar (veja o Exercı́cio 5.2) que o potencial quı́mico a
baixas temperaturas é dado por
" 2 #
π2 d ln D(ε)
  
kB T
µ ' εF 1− , (5.2.21)
6 d ln ε ε=εF εF

e que o calor especı́fico (a volume constante) e a entropia são aproximadamente iguais


entre si:
π2 2
CV ' S ' D(εF ) kB T. (5.2.22)
3

É importante notar que o comportamento dominante do calor especı́fico com a


temperatura pode ser obtido a partir de um argumento bem simples, com um pequeno
erro nos pré-fatores numéricos. O princı́pio de exclusão de Pauli impõe que apenas os
férmions com energias próximas à energia de Fermi possam ser excitados termicamente;
são apenas estes, portanto, que contribuem para a variação da energia interna com a
temperatura e daı́ para o calor especı́fico. O número de férmions num intervalo da ordem
de kB T em torno da energia de Fermi é

δN ∼ D(εF ) × kB T, (5.2.23)

pois D fornece o número de estados por intervalo de energia, e já inclui a degenerescência
de spin. A variação na energia interna pode então ser estimada como

δE ∼ δN × kB T = (kB T )2 D(εF ), (5.2.24)

o que nos dá


2
CV ∼ D(εF )kB T; (5.2.25)

este resultado deve ser comparado com (5.2.22). Este argumento também explica porque,
no regime degenerado, o calor especı́fico de um gás de férmions tem um comportamento
linear com a temperatura, para qualquer dimensão espacial e para qualquer dispersão, já
que estas duas grandezas entram apenas na densidade de estados.
O procedimento adotado aqui, em termos da densidade de estados, será utilizado na
próxima seção.
5.3. MAGNETIC BEHAVIOUR OF AN IDEAL FERMI GAS 101

5.3 Magnetic Behaviour of an Ideal Fermi Gas


Metais apresentam um comportamento paramagnético bastante diferente de isolantes
(estes foram discutidos na Seção 3.3). Em particular, veremos que a baixas temperaturas
não há saturação do momento magnético resultante, e que a suscetibilidade não depende
da temperatura. Para isolantes, ao contrário, existe saturação do momento magnético
e a suscetibilidade diverge como 1/T a baixas temperaturas. A sugestão de Pauli, em
1927, de que os elétrons de condução em metais alcalinos deveriam ser tratados como um
gás de férmions degenerado, possibilitou a compreensão deste fenômeno, hoje conhecido
como paramagnetismo de Pauli.
Enquanto o paramagnetismo é proveniente do acoplamento do momento magnético
intrı́nseco dos elétrons com o campo, a quantização de suas órbitas helicoidais, em pre-
sença do mesmo campo, dá origem ao diamagnetismo, fenômeno que não tem análogo
clássico. Este efeito, que foi previsto primeiramente por Landau em 1930, é caracteri-
zado por uma suscetibilidade negativa. A altas temperaturas a suscetibilidade tem um
comportamento do tipo lei de Curie; quando T → 0 ela independe de T , mas depende
da densidade de partı́culas. Mais ainda, para campos fortes, a suscetibilidade a baixas
temperaturas é oscilatória, com perı́odo da ordem de 1/H, onde H é o campo aplicado.
Este comportamento é conhecido como efeito de Haas-van Alphen em homenagem a
quem o observou pela primeira vez, em 1930; sua explicação, todavia, só foi dada por
Peierls em 1933.
Mais recentemente (c. 1980), o confinamento de elétrons a uma região bastante estrei-
ta, numa das interfaces de uma heteroestrutura semicondutora (i.e., uma justaposição
de camadas de materiais semicondutores), possibilitou o estudo de elétrons (quase) bi-
dimensionais em presença de campo magnético. Descobriu-se que a resistividade Hall,
ao invés de ter um comportamento linear com o campo aplicado, como previsto classi-
camente, apresentava platôs correspondentes a sub-múltiplos de um quantum de resis-
tividade. Este fenômeno ficou conhecido como Efeito Hall Quântico (conhecido pela sua
sigla em inglês, QHE). Medidas subsequentes mostraram que, na realidade, havia dois
tipos de QHE: o inteiro (IQHE) e o fracionário (FQHE). O FQHE ainda é, hoje, objeto
de intensa investigação: uma das mais promissoras explicações para sua ocorrência lança
mão de concepções intrigantes como a de partı́culas compostas e de fracionalização da
carga.
A seguir, discutiremos o paramagnetismo e o diamagnetismo de Landau separada-
mente; basicamente, nosso objetivo será calcular a magnetização e a suscetibilidade em
cada caso. Em sequência, faremos uma discussão elementar do QHE, apresentando
algumas das novas ideias.

5.3.1 Pauli Paramagnetism


Consideremos inicialmente N férmions sem carga, com massa m e momento magnético
µ, em presença de um campo externo H. A Hamiltoniana de cada partı́cula é
p2
H= − µ · H, (5.3.1)
2m
102 CHAPTER 5. APPLICATIONS OF IDEAL QUANTUM SYSTEMS

(a) H = 0 (b) H =/ 0

F F

+µB H

D( ) D( ) D( ) µB H D( )

Figure 5.1: Schematic density of states for each spin channel, σ =↑, ↓, for the three-
dimensional Fermi gas: (a) zero field; (b) non-zero field.

representando o acoplamento de seu momento magnético intrı́nseco com o campo. Ana-


lisaremos aqui o caso de spin-1/2, de modo que o momento magnético tem apenas duas
orientações possı́veis com relação a H: µ = ±µB , onde µB é o magneton de Bohr.
Este sistema pode ser imaginado como se fossem dois gases coexistindo em equilı́brio:
um, composto de partı́culas com spin paralelo ao campo, e outro, com spin antiparalelo
ao campo.2 A Fig. 5.1(a) mostra a densidade de estados (no eixo horizontal; a energia
aparece no eixo vertical) para estas duas espécies de partı́culas com H = 0. Quando
o campo é aplicado, todos os nı́veis de energia para as partı́culas com spin paralelo
[antiparalelo] ao campo sofrem o mesmo deslocamento de −µB H [+µB H]. Portanto,
como indicado na Fig. 5.1(b), a densidade de estados associada ao ‘canal’ de spin σ
(σ = ↑ ↔ σ = +1; σ = ↓ ↔ σ = −1) corresponde à densidade de estados sem campo,
transladada de σµB H:
1
Dσ (ε) = D(ε + σµB H), (5.3.2)
2

onde D é dado por (5.2.1) no caso tri-dimensional com dispersão quadrática; o fator 1/2
se deve ao fato de os estados que contribuem para Dσ têm agora degenerescência g = 1.
O nı́vel de Fermi é o mesmo para as duas espécies e é determinado pela posição
em que a soma das áreas das duas curvas é igual ao número total de partı́culas. Fica
também aparente da figura que a maioria das partı́culas tem spin paralelo ao campo,
dando origem a uma magnetização resultante, ao contrário do caso em que H = 0.
Para obter a magnetização e a suscetibilidade devemos calcular N↑ e N↓ , o que é

2
De agora em diante usaremos a expressão ‘spin paralelo ao campo’ como sinônimo de ‘momento
magnético paralelo ao campo’, mas sempre tendo em mente que, para elétrons, µ ∝ −S.
5.3. MAGNETIC BEHAVIOUR OF AN IDEAL FERMI GAS 103

feito adaptando-se as expressões da Seção 5.2. Assim,


Z ∞ Z ∞
1
Nσ = dε Dσ (ε) f (ε) = dε D(ε + σµB H) f (ε). (5.3.3)
−∞ −∞ 2

Consideremos inicialmente T = 0, quando a função de Fermi, f (ε), restringe os


limites superiores das integrais acima:
Z εF Z εF +σµB H
1 1
Nσ = dε D(ε + σµB H) = dε D(ε), (5.3.4)
−σµB H 2 0 2

onde se supôs, como na Fig. 5.1, que a menor energia possı́vel para os férmions é −σµB H.
No caso da densidade de estados (5.2.1), a integração em (5.3.4) é imediata, e obtemos
a magnetização como

4πV (2m)3/2 n 3/2 3/2


o
M = µB (N+ − N− ) = µB (ε F + µ B H) − (ε F − µ B H) . (5.3.5)
3h3
Como µB H  εF , temos

4πV (2m)3/2 1/2 3 N µ2B H


M' µ ε
B F (3µ B H) = , (5.3.6)
3h3 2 εF
onde N é o número total de partı́culas e εF é dado por (4.4.7) com g = 2, de modo que

1 ∂M 3 µ2B
χ0 ≡ = . (5.3.7)
N ∂H 2 εF
Estes últimos resultados são muito importantes, e devem ser comentados. A magne-
tização por partı́cula é pequena – o termo µB vem multiplicado por um fator da ordem
de µB H/εF –, quando comparada com a obtida em isolantes que, a T = 0, atinge a
saturação; isto é M = M/N = µB . Esta ausência de saturação é devido à apreciável
energia de ponto zero que ocorre no gás de Fermi, de modo que flutuações quânticas
perturbam o alinhamento total. Assim, um pequeno campo não é capaz de aumentar a
magnetização significativamente, o que se reflete na suscetibilidade finita a T = 0. No
caso dos isolantes, a suscetibilidade diverge a T = 0 porque um pequeno campo consegue
um alinhamento considerável.
A temperaturas finitas procedemos de modo análogo. A magnetização fica
1
Z
M = µB (N↑ − N↓ ) = µB dε {D(ε + µB H) − D(ε − µB H)} f (ε). (5.3.8)
2
Supondo µB H  εF podemos expandir D, obtendo

M µ2B ∞
Z
χ= = dε D0 (ε)f (ε), (5.3.9)
H N 0

onde D0 (ε) ≡ dD/dε.


104 CHAPTER 5. APPLICATIONS OF IDEAL QUANTUM SYSTEMS

A baixas temperaturas usamos a Eq. (5.2.20), com φ = µ2B D0 /D, para obter

π2 2 2
 2
d ln D
  
∂χ
= µ k T D(εF ) . (5.3.10)
∂T N 3N B B dε2 ε=εF

Integrando com relação à temperatura vem, finalmente,


( )
µ2B D(εF )
 2
D

1 2 d ln
χ= 1 + π (kB T )2 + ... . (5.3.11)
N 6 dε2 ε=εF

É interessante notar que a suscetibilidade a T = 0 traz a assinatura da densidade de


estados no nı́vel de Fermi. Este aspecto se torna particularmente importante porque
muitas vezes a interação entre as partı́culas é incorporada – de modo aproximado, é
claro – como uma modificação na densidade de estados. Logo, medidas experimentais
da suscetibilidade a baixas temperaturas revelam, por exemplo, se a densidade de estados
no nı́vel de Fermi é grande ou pequena.
Especializando para elétrons livres em três dimensões, i.e., com D(ε) dado por (5.2.1),
obtemos "  #
3 µ2B π 2 kB T 2

M' H 1− , (5.3.12)
2 εF 12 εF
e "  #
3 µ2B π 2 kB T 2

χ' 1− . (5.3.13)
2 εF 12 εF

No limite de altas temperaturas, kB T  εF , podemos tomar f (ε) ' e−β(ε−µ) na


Eq. (5.3.9) que, integrada por partes, fornece

µ2B
χ' . (5.3.14)
kB T
Como esperado, este resultado independe da densidade de estados e é semelhante ao
comportamento paramagnético de isolantes, do tipo lei de Curie.

5.3.2 Landau Diamagnetism


Na sub-seção anterior exploramos a interação do momento magnético intrı́nseco de um
férmion com um campo magnético, dando origem ao paramagnetismo. Todavia, uma
partı́cula carregada em presença de um campo magnético, H = H ẑ, tem uma trajetória
helicoidal, com eixo na direção z do campo; isto é, o movimento no plano xy é circular,
e na direção z é o de uma partı́cula livre. Poderı́amos pensar que o movimento circular
dá origem a um outro momento magnético (não intrı́nseco), que tende a se alinhar
antiparalelamente ao campo. Apesar de atraente, esta imagem clássica não é suficiente
para explicar o diamagnetismo, como previsto pelo Teorema de van Leeuwen: o fenômeno
do diamagnetismo não existe na Fı́sica Clássica; a demonstração deste teorema é pedida
no Exercı́cio 5.3.
5.3. MAGNETIC BEHAVIOUR OF AN IDEAL FERMI GAS 105

Consideremos, portanto, o problema sob o ponto de vista quântico, partindo de


um gás de elétrons independentes; não levaremos em conta nesta discussão o spin do
elétron, pois queremos enfatizar as alterações no movimento orbital. O problema de
uma partı́cula carregada em presença de campo uniforme é exatamente solúvel (veja,
p.ex., a Ref. [9]): os movimentos nas direções perpendicular e paralela ao campo são
separáveis, sendo que o primeiro contribui com a energia de um oscilador harmônico
uni-dimensional, e o segundo com a de uma partı́cula livre. Os nı́veis de uma partı́cula
são, portanto, dados por

p2
 
1
ε= j+ ~ω + z , j = 0, 1, 2, . . . , (5.3.15)
2 2m

onde ω é a frequência de revolução

eH
ω= . (5.3.16)
mc

A contribuição tipo oscilador harmônico para este espectro corresponde aos chamados
nı́veis de Landau. Para um gás tri-dimensional, a cada um dos nı́veis de Landau se soma
um espectro contı́nuo devido ao movimento livre ao longo da direção z; é um espectro
sem gaps. Se, por outro lado, o gás está confinado às duas dimensões perpendiculares
ao campo, o espectro corresponde apenas aos nı́veis de Landau, e apresenta gaps.
A Fig. 5.2 mostra esquematicamente os espectros dos movimentos bi-dimensionais,
sem campo magnético e em presença deste. Pode-se imaginar que vários nı́veis do sistema
sem campo colapsam em um único nı́vel quando o campo é ligado. Assim, todos os g
estados do quase-contı́nuo, cujas energias estiverem numa faixa de largura ~ω, estarão
associados ao estado quantizado mais próximo. Quantitativamente, g é dado pela área
do espaço de fase correspondendo à energia naquela faixa:

L2 L2 L2 eH
Z Z Z
g= 2 dpx dpy = 2 2πp dp = . (5.3.17)
h h hc
p2 2
x +py p 2
j~ω< <(j+1)~ω j~ω< 2m <(j+1)~ω
2m

Note que g/L2 representa o número de órbitas, por nı́vel de Landau, que podem ser
acomodadas em cada cm2 ; isto é, fornece uma medida quântica da incerteza na locali-
zação da órbita circular do elétron. Vê-se, portanto, que quanto maior for H, maior é a
degenerescência de cada nı́vel de Landau.
Os bons números quânticos para férmions sem spin em presença de campo magnético
são, portanto, λ ≡ {pz , j, α}, com α = 1, 2, . . . , g. Assim como no caso sem campo, é
mais conveniente trabalhar no ensemble gran-canônico, no qual a função de partição é
fatorada como um produto sobre estados de uma partı́cula:
Y 
Z= 1 + ze−βελ . (5.3.18)
λ
106 CHAPTER 5. APPLICATIONS OF IDEAL QUANTUM SYSTEMS

(a) H = 0 (b) H =/ 0

j= 3
h
j= 2
h
j= 1
h
h j= 0

Figure 5.2: Planar contribution to the single-particle energy levels (schematic): (a)
H = 0, and (b) H 6= 0.

Tomando o logaritmo, vem

X   Xg X
∞ X  
ln Z = ln 1 + ze−βελ = ln 1 + ze−βε(α,j,pz ) =
λ α=1 j=0 pz
1/3 ∞ ∞
gV
Z X  
= dp ln 1 + ze−βελ , (5.3.19)
h −∞ j=0

e, lembrando que
∂ X
hN i = z ln Z = hnλ i, (5.3.20)
∂z
λ
obtemos
∞ ∞
gV 1/3 1
Z X
hN i = dp . (5.3.21)
h −∞ z −1 eβε +1
j=0

Analisemos agora os casos limites. A altas temperaturas devemos ter o comporta-


mento clássico com z  1, e podemos expandir (5.3.19) e (5.3.21) em potências de z,
mantendo apenas o termo em ordem mais baixa,
 
∞ ∞ p2 −1
zgV 1/3

zV eH 1
Z X −β 2m
+~ω(j+1/2) ~ω
ln Z ' dp e = 2 sinh , (5.3.22)
h −∞ hc Λ 2kB T
j=0

e, portanto,
zV x
hN i ' ln Z ' , (5.3.23)
Λ3 sinh x
com
µ0 H
x≡ , (5.3.24)
kB T
5.3. MAGNETIC BEHAVIOUR OF AN IDEAL FERMI GAS 107

onde
eh
µ0 ≡ (5.3.25)
4πmc
é o momento magnético induzido.
A magnetização é obtida da maneira usual, isto é,
   
1 ∂ z 0 1 x cosh x
M = kB T ln Z = 3µ − 2 = −nµ0 L(x), (5.3.26)
V ∂H z,V,T Λ sinh x sinh x

onde n ≡ hN i/V e a função de Langevin é definida por


1
L(x) ≡ coth x − . (5.3.27)
x
O resultado (5.3.26) é muito semelhante ao obtido pela Teoria de Langevin para dipolos
clássicos, sendo que a diferença fundamental está no sinal de M que, sendo negativo (i.e.,
magnetização contrária ao campo), caracteriza o diamagnetismo. Outra observação
importante diz respeito ao aspecto puramente quântico deste efeito: µ0 → 0 quando
h → 0, concordando com a demonstração mais formal do Teorema de van Leeuwen (veja
Exercı́cio 5.3).
Fazendo a hipótese adicional de que µ0 H  kB T , temos que

L(x) ' x/3, (5.3.28)

de modo que
nµ02 H
M'− , (5.3.29)
3kB T
e
nµ02
χ'− , (5.3.30)
3kB T
evidenciando que o caráter diamagnético não depende do sinal da carga da partı́cula.
Ademais, a suscetibilidade total é obtida somando-se as contribuições (5.3.14) e (5.3.30)
onde, nesta última, a massa da partı́cula que aparece na definição de µ0 deve ser entendida
como sua massa efetiva no sistema (p.ex., em um cristal):
 
n 1
χ' µ2B − µ02 ; µ0 H  kB T. (5.3.31)
kB T 3

Se µ0 = µB , note que a contribuição diamagnética para elétrons é 1/3 da paramagnética,


a altas temperaturas.
Vejamos agora o outro extremo, isto é, o comportamento a baixas temperaturas,
kB T  εF . Suponhamos que µ0 H  kB T , de modo que a soma em j na Eq. (5.3.19)
possa ser feita com o auxı́lio da fórmula de Euler,
∞ ∞
1 0
X Z
f (j + 1/2) ' f (x) dx + f (0), (5.3.32)
0 24
j=0
108 CHAPTER 5. APPLICATIONS OF IDEAL QUANTUM SYSTEMS

H V VH
I
w

Figure 5.3: Esquema de medida das tensões longitudinal, V , e transversa (Hall), VH , em


uma amostra de largura w e espessura t, percorrida por uma corrente I, em presença de
um campo magnético perpendicular H.

com o resultado
"Z #
∞ Z ∞   0H Z ∞
eV H 0 p2 1 µ 1
ln Z = 2 dx dp ln 1 + ze−β(2µ Hx+ 2m ) − dp p2
.
h c 0 −∞ 12 kB T −∞ z −1 eβ 2m +1
(5.3.33)
Os cálculos de ambas as integrais são simplificados neste limite (veja Ref. [6], Seção 8.2,
para detalhes), de modo que a correção em ordem mais baixa, devido à quantização das
órbitas, fornece para a suscetibilidade a baixas temperaturas
1 nµ02
χ'− , (5.3.34)
2 εF
que, mais uma vez, traz a assinatura do diamagnetismo, independentemente do sinal
da carga da partı́cula. Note também que, ao contrário da contribuição paramagnética
[Eq. (5.3.7)], a suscetibilidade diamagnética a T = 0 depende da densidade de partı́culas.
Supondo agora que µ0 H ' kB T  εF , pode-se mostrar (veja Ref. [6], Seção 8.2) que
a suscetibilidade contém termos oscilatórios em H:
1/2
3nµ02 kB T εF sin(πεF /µ0 H − π/4)
χ'π . (5.3.35)
2εF (µ0 H)3/2 sinh(π 2 /βµ0 H)
Este efeito, conhecido como ‘de Haas-van Alphen’, permite a determinação experimental
da energia de Fermi do sistema através da medida do perı́odo da suscetibilidade, 2µ0 /εF .

5.3.3 The Quantum Hall Effect


Imagine uma corrente I passando por uma amostra. Ao aplicarmos um campo magné-
tico, H, perpendicular à corrente (veja a Fig. 5.3), as cargas serão defletidas em direção
5.3. MAGNETIC BEHAVIOUR OF AN IDEAL FERMI GAS 109

à extremidade anterior, devido à força de Lorentz. Esta acumulação de cargas gera um


campo elétrico transverso, E⊥ , cujo sentido depende do sinal dos transportadores. Uma
nova situação de equilı́brio ocorre quando a força de Lorentz fôr contrabalançada por
esta força eletrostática; isto é, a corrente volta a fluir quando
v
E⊥ = H (CGS), (5.3.36)
c
onde v é a velocidade dos transportadores, determinada pela corrente I ou, equivalente-
mente, pela densidade de corrente j:
j I
v= = . (5.3.37)
nq n wt q
Nesta equação, n é a densidade de transportadores com carga q, e w e t são, respec-
tivamente, a largura e a espessura da seção reta da amostra; como veremos adiante, é
conveniente definir a densidade superficial de transportadores como ns = n t.
Medindo-se a voltagem, V , ao longo da corrente (veja a Fig. 5.3), obtemos a mag-
netorresistência R = V /I. Podemos também definir a resistência Hall como a razão
entre a voltagem perpendicular, VH , e a corrente: RH = VH /I. Expressando VH em
termos de E⊥ , I em termos de j, e usando (5.3.36) e (5.3.37), obtemos, finalmente, que
a resistência Hall depende linearmente do campo magnético,
1
RH = H, (5.3.38)
ns qc
conforme observado por Edwin Hall, em 1879. Este resultado é notável, já que um único
parâmetro caracterı́stico do material – a densidade eletrônica superficial, ns – define a
proporcionalidade entre RH e H, independentemente da forma da amostra.
O desenvolvimento de técnicas de deposição bastante apuradas, a partir de 1980,
permitiu a fabricação de heteroestruturas semicondutoras com alto grau de pureza, como
MOSFET’s (Metal-oxide-semiconductor field-effect transistors) de Silı́cio, compostos de
uma camada de Si em contato com uma de SiO2 .3 Estes dispositivos são capazes de
confinar elétrons à interface entre as camadas, formando, essencialmente, um gás bi-
dimensional. A restrição a duas dimensões inibe a imersão do espectro da Fig. 5.2(b) em
um contı́nuo de estados associados ao movimento livre na direção z; e, como veremos a
seguir, a presença de gaps é crucial para os efeitos interessantes que surgem.
Quando submetidos a temperaturas de 4K e a campos magnéticos da ordem de
20 T, estes dispositivos entram num regime no qual espera-se que o efeito Hall seja
dominado por efeitos quânticos, já que os gaps no espectro se tornam comparáveis à
energia térmica. Os resultados obtidos4 e mostrados na Fig. 5.4, foram surpreendentes.
Em primeiro lugar, o crescimento de RH com H se dá através de platôs, ao invés do
comportamento linear previsto classicamente; veja a Eq. (5.3.38). Em segundo lugar, da
mesma figura se nota que o valor de RH nestes platôs é quantizado,
1 h
RH = , ν = 1, 2, . . . , (5.3.39)
ν e2
3
Para uma discussão mais detalhada, veja, p.ex., H. L. Stormer, Rev. Mod. Phys. 71, 875 (1999).
4
K. von Klitzing et al., Phys. Rev. Lett. 45, 494 (1980)
110 CHAPTER 5. APPLICATIONS OF IDEAL QUANTUM SYSTEMS

Figure 5.4: Medidas tı́pricas de resistência como função do campo magnético. A curva
com platôs corresponde à resistência Hall, RH , em undidades do quantum de resistência,
h/e2 ; as setas indicam o valor de ν na Eq. (5.3.39). A resistência longitudinal ex-
ibe máximos entre os platôs de RH e se anula nos platôs. [Segundo HL Stormer,
Rev.Mod.Phys.71, 875 (1999)].

definindo o que passou a ser conhecido como o quantum de resistência, h/e2 ' 25.8
kΩ. E, finalmente, a magnetorresistência apresenta valores extremamente baixos nos
intervalos de H correspondentes aos platôs na resistência Hall.
A compreensão destes resultados é obtida por etapas. Em primeiro lugar, para
entender a existência de uma região de magnetorresistência nula, lembremos que a re-
sistividade se deve a algum mecanismo de espalhamento (por vibrações da rede, por
impurezas, ou por outros elétrons), que leva elétrons com energias perto da energia de
Fermi a estados finais com energias também próximas a εF . Imagine agora que algum
efeito coletivo no sistema cause a abertura de um um gap em torno de εF , de modo que
os estados finais possı́veis estão agora separados dos estados iniciais por um limiar de
energia. Nestes processos de espalhamento as energias disponı́veis para os elétrons não
são suficientes para vencer o gap, de modo que a transição entre estados eletrônicos não
ocorre, e o transporte se dá sem resistência. Isto sugere que os gaps entre os nı́veis de
Landau, presentes no movimento bi-dimensional (perpendicular a H) sejam a fonte de
queda na magnetorresistência.
Para ver como isto ocorre, consideremos inicialmente um sistema totalmente puro,
para o qual a densidade de estados corresponde a funções-δ igualmente espaçadas, loca-
lizadas nos nı́veis de Landau; veja a Fig. 5.5(a). A razão entre o número de elétrons, N ,
5.3. MAGNETIC BEHAVIOUR OF AN IDEAL FERMI GAS 111

Figure 5.5: Densidade de estados para um gás de elétrons bi-dimensional em um campo


magnético: (a) na ausência de impurezas, e (b) na presença de impurezas. As impurezas
causam um alargamento dos nı́veis de Landau, que se tornam bandas de estados deslo-
calizados (regiões hachuradas), ao mesmo tempo em que introduz estados localizados
entre sucessivos nı́veis de Landau.

e a degenerescência de cada nı́vel de Landau define o fator de preenchimento,


N ns hc 1
ν= = , (5.3.40)
g e H

cujo inverso mede a ‘disponibilidade’ do nı́vel. É importante notar a dependência de


1/ν com H, para uma densidade de elétrons fixa: se H = H1 ≡ ns hc/e, só o nı́vel de
Landau de mais baixa energia estará (totalmente) preenchido. À medida em que H
diminui a partir deste valor, o nı́vel mais baixo passa a não acomodar todos os elétrons
e inicia-se uma ‘migração’ para o segundo nı́vel. Quando H = H1 /2, os dois nı́veis de
Landau mais baixos estão totalmente preenchidos; uma diminuição maior de H leva a
uma migração em direção ao terceiro nı́vel, e assim por diante. Pode-se se pensar que,
para H diminuindo entre H1 e H1 /2, o nı́vel de Fermi permanece ‘grudado’ no segundo
nı́vel de Landau; quando H < H1 /2, εF salta para o terceiro nı́vel de Landau, ficando
grudado até que H < H1 /3, etc.
Vemos então que valores do campo H = H1 /ν são especiais por representarem
preenchimento completo de ν nı́veis de Landau. Levando estes valores na Eq. (5.3.38),
obtemos a quantização de RH , descrita pela Eq. (5.3.39). Como para estes campos (ou
valores de ν) os gaps de Landau separam estados totalmente ocupados de estados total-
mente desocupados, a resistência é nula.
A discussão acima, no entanto, não explica a presença de platôs nem o fato da mag-
netorresistência não se anular em torno dos ν inteiros. A origem destes efeitos está no
fato de que, por mais cuidadoso que seja o processo de crescimento, o sistema sempre
112 CHAPTER 5. APPLICATIONS OF IDEAL QUANTUM SYSTEMS

apresenta impurezas, as quais causam dois efeitos importantes. Em primeiro lugar, os


nı́veis de Landau se alargam, virando mini-bandas de estados deslocalizados (i.e., elétrons
nestes estados podem conduzir corrente quando submetidos a um campo elétrico), rep-
resentadas na Fig. 5.5(b) pelas regiões hachuradas. Em segundo lugar, as impurezas
aprisionam alguns elétrons, que ficam em estados localizados, não participando, por-
tanto, da condução; estes estados ocupam as regiões entre as bandas de Landau, como
mostra a Fig. 5.5(b). Suponha agora que, para um dado valor de H, o nı́vel de Fermi
esteja no meio de uma das bandas de Landau; neste caso a magnetorresistência não é
nula, e RH não está em um platô. À medida em que H diminui, o nı́vel de Fermi agora
aumenta continuamente, passando pela região de estados localizados, como indicado pela
reta pontilhada na Fig. 5.5(b). Nesta região, os elétrons deslocalizados sentem um gap
efetivo e, como no caso puro, não apresentam resistência; ademais, como as bandas de
Landau permanecem totalmente preenchidas, RH se mantém nos valores quantizados.
Posteriormente, os MOSFET’s de Si foram substituı́dos por heteroestruturas de
GaAs/AlGaAs, com um ganho significativo na mobilidade dos elétrons; isto é, dimi-
nuı́ram significativamente a presença de impurezas e a rugosidade nas interfaces [veja
HL Stormer, op. cit.]. Isto, aliado à disponibilidade de campos magnéticos mais intensos,
permitiu estabelecer a presença de platôs também para valores racionais não-inteiros de
ν, dando origem ao Efeito Hall Quântico Fracionário (FQHE); veja a Fig. 5.6.
A origem do FQHE reside na interação entre os elétrons, sendo, portanto, um efeito
de muitos corpos. Todavia, a análise pode ser reduzida, de modo engenhoso, a um outro
problema de partı́culas não interagentes. Para ver isto, devemos notar inicialmente que
um campo magnético H, cujo fluxo é dado por Φ = HL2 (L2 é a área), aplicado a
uma distribuição uniforme de carga produz vórtices, cada um dos quais associado a
um quantum de fluxo magnético Φ0 = hc/e. A Eq. (5.3.17) nos permite escrever a
degenerescência de cada nı́vel em termos de uma razão entre fluxos como

Φ
g= , (5.3.41)
Φ0

de modo que a Eq. (5.3.40) fornece

N
Φ= Φ0 . (5.3.42)
ν

O efeito das interações entre os elétrons pode ser levada em conta, de modo efetivo,
ao ‘fixarmos’ quanta de fluxo nos elétrons, criando as chamadas partı́culas compostas
(PC’s). Isto leva a uma transmutação estatı́stica, pois ao trocarmos duas PC’s, a função
de onda fica multiplicada por um fator de fase (−1)1+Φ/Φ0 . Assim, elétrons com um
número par de quanta de fluxo são férmions compostos, enquanto que elétrons com
um número ı́mpar de fluxos se tornam bósons compostos. A partir destas idéias pode-se
compreender uma boa parte dos platôs e das correspondentes magnetorresistências nulas
[veja HL Stormer, op. cit., RB Laughlin, Rev. Mod. Phys. 71, 863 (1998), e referências
lá citadas].
5.4. THERMODYNAMICS OF BLACKBODY RADIATION 113

Figure 5.6: FQHE: Resistência Hall (RH ) e Magnetorresistência (R) como funções do
campo magnético aplicado, agora no caso de heteroestruturas de GaAs/AlGaAs. Deve
ser notado o aparecimento de mais platôs em RH e de mais quedas em R do que na
Fig. 5.4. [Segundo HL Stormer, Rev.Mod.Phys.71, 875 (1999)].

5.4 Thermodynamics of Blackbody Radiation

Uma das mais importantes aplicações da estatı́stica de Bose-Einstein é na descrição de


radiação eletromagnética em equilı́brio termodinâmico, chamada de radiação de corpo
negro. Ela pode ser pensada como um ‘gás’ de fótons. A linearidade das equações da
eletrodinâmica implica na ausência de interações entre os fótons, de modo que este gás
é, de fato, um gás ideal.
Para tratar a radiação em um meio material – e não no vácuo – ainda como um
gás ideal, a interação entre os fótons e a matéria deve ser pequena. Para gases, esta
condição é satisfeita para todo o espectro, com exceção de frequências próximas dos
picos de absorção; para meios materiais mais densos, a interação só pode ser considerada
pequena a altas temperaturas. Por outro lado, deve-se ter em mente que a matéria deve
sempre estar presente, pois é ela que fornece o mecanismo – através da emissão e absorção
de fótons – para a radiação atingir o equilı́brio termodinâmico. Por esta razão, o número
de fótons N não é definido, ao contrário do que ocorre em um gás material. Assim, para
radiação em equilı́brio em uma cavidade de volume V , à temperatura T (fixos), N deve
ser determinado a partir das condições de equilı́brio do sistema; a condição de mı́nimo
114 CHAPTER 5. APPLICATIONS OF IDEAL QUANTUM SYSTEMS

da energia livre do gás de fótons fornece


 
∂A
= µ = 0, (5.4.1)
∂N T,V

ou seja, o potencial quı́mico do gás de fótons é zero. É importante notar que esta
condição ocorre sempre que as partı́culas em estudo corresponderem a excitações de
algum sistema como, por exemplo, fônons, mágnons, etc.
Os fótons se distribuem entre os diferentes modos normais, caracterizados por vetores
de onda k, com energias εk = ~ωk e relação de dispersão ω = c|k|; os valores possı́veis
de k dependem das condições de contorno impostas à cavidade. Consideraremos sempre
condições de contorno periódicas em uma caixa cúbica de volume V , que fornecem


kα = nα , nα = 0, ±1, ±2, . . . , (5.4.2)
V 1/3
onde α = x, y, z. O número médio de fótons com vetor de onda k é dado pela Eq. (4.3.2)
com µ = 0,
1
hnk i = β~ω , (5.4.3)
e k −1
que é a conhecida distribuição de Planck.
Supondo o volume grande o suficiente, podemos passar para uma distribuição con-
tı́nua de modos normais. O número de modos com vetores de onda no intervalo dk
centrado em k é (V /(2π)3 )dk, que, devido à isotropia da relação de dispersão, deve ser o
mesmo que o número de modos com módulo do vetor de onda no intervalo dk centrado
em k. Temos então, para a densidade de modos (isto é, o número de modos por intervalo)

V
g(k) = 4πk 2 . (5.4.4)
(2π)3

Para relacionar g(k) com g(ω), usamos a relação de dispersão e notemos que o campo
eletromagnético tem apenas duas direções de polarização (denotadas por ê1 e ê2 , de
modo que a densidade de modos com frequência entre ω e ω + dω fica, finalmente,

V
g(ω) = 2 × ω2. (5.4.5)
2π 2 c2
O número de fótons com frequência neste intervalo é obtido multiplicando-se a
Eq. (5.4.3) por g(ω)dω:
V ω 2 dω
dNω = 2 3 β~ω . (5.4.6)
π c e −1
A energia irradiada nesta faixa do espectro é obtida como ~ω · dNω , ou

V ~ ω 3 dω
dEω = , (5.4.7)
π 2 c3 eβ~ω − 1
5.4. THERMODYNAMICS OF BLACKBODY RADIATION 115

Figure 5.7: Distribuição espectral da energia [u0 ≡ dEω /dω, Eq. (5.4.7)] na radiação de
corpo negro, mostrando os resultados de Planck, Rayleigh-Jeans e Wien; x ≡ ~ω/kB T .

que é conhecida como a fórmula de Planck para a radiação de corpo negro; veja a Fig. 5.7.
A baixas frequências (~ω  kB T ), recupera-se o resultado de Rayleigh-Jeans,

V ω2
dEω = kB T dω, (5.4.8)
π 2 c3
enquanto que a altas frequências obtemos a lei de Wien,
V ~ 3 −β~ω
dEω = ω e dω. (5.4.9)
π 2 c3
Para o cálculo de outras grandezas termodinâmicas necessitamos da função de par-
tição,

X P 1
e−β
YX Y
Z= k,ê ~ωk nk,ê
= e−β~ωk n = , (5.4.10)
1 − e−β~ωk
{nk },ê k,ê n=0 k,ê

cujo logaritmo nos dá


X X
ln Z = − ln(1 − e−β~ωk ) = −2 ln(1 − e−β~ωk ). (5.4.11)
k,ê k

A energia interna é dada por

∂ X 2~ωk e−β~ωk X
E=− ln Z = = 2~ωk hnk i, (5.4.12)
∂β 1 − e−β~ωk
k k
116 CHAPTER 5. APPLICATIONS OF IDEAL QUANTUM SYSTEMS

onde hnk i é dado pela Eq. (5.4.3) e não inclui a degenerescência devida aos dois modos
transversos de polarização. De modo análogo, a pressão fica
1 ∂ 1 X
P = ln Z = 2~ωk hnk i, (5.4.13)
β ∂V 3V
k

onde deve-se lembrar que a dependência em V vem através de ωk = ck, com k dado pela
Eq. (5.4.2). Comparando as Eqs. (5.4.12) e (5.4.13), obtemos a equação de estado,
1
PV = E, (5.4.14)
3
que é um resultado bastante conhecido para a pressão da radiação de corpo negro. Deve-
se notar que o fator 1/3 representa, na realidade, a razão entre o expoente s da relação
de dispersão (εp ∼ ps ) e a dimensão espacial d.
Tomando agora V → ∞, as somas em k podem ser substituı́das por integrais, e
Z ∞
V V~ ω3
Z
2 ~ck
E= dk 4πk = dω , (5.4.15)
(2π)3 eβ~ck − 1 π 2 c3 0 eβ~ω − 1
ou
E π 2 (kB T )4
= . (5.4.16)
V 15 (~c)3
O calor especı́fico do gás de fótons fica sendo
4
4πkB
CV = T 3, (5.4.17)
15(~c)3
Devemos comparar as diferentes contribuições do calor especı́fico a baixas temperat-
uras. Para o gás de bósons materiais a 3 dimensões, temos CV ∼ T 3/2 e para o gás de
fótons também a 3 dimensões, CV ∼ T 3 . Estes resultados podem ser generalizados da
seguinte forma: CV ∼ T d/s para um gás de bósons. Esta dependência com o expoente
da relação de dispersão e com a dimensionalidade do sistema deve ser contrastada com
o comportamento de um gás de férmions, CV ∼ T , para quaisquer s e d.

5.5 Phonons
O problema de modos vibracionais de um sólido pode ser estudado considerando o
sistema tanto como um conjunto de osciladores harmônicos, quanto como um gás de
quanta de som, os chamados fônons. Para ilustrar isto, consideremos a Hamiltoniana
de um sólido clássico de N átomos, cujas posições no espaço são especificadas pelas
coordenadas (x1 , x2 , x3 , . . . x3N ). As vibrações dos átomos em torno de suas posições
de equilı́brio (x̄1 , x̄2 , x̄3 , . . . x̄3N ) são descritas pelos deslocamentos ξi = (xi − x̄i ), onde
i = 1, . . . 3N . A energia cinética do sistema na configuração {xi } é, então, dada por
3N
1 X 2 1 X ˙2
Ec = m ẋi = m ξi , (5.5.1)
2 2
i=1 i
5.5. PHONONS 117

e a energia potencial por


X  ∂Φ  X 1  ∂2Φ 
Φ = Φ(xi ) = Φ(x̄i ) + ξi + ξi ξj + . . . (5.5.2)
∂xi {xi }={x̄i } 2 ∂xi ∂xj {xi }={x̄i }
i i,j

O termo Φ(x̄i ) representa a energia (mı́nima) do sólido, Φ0 , quando todos os N átomos


estão em repouso em suas posições de equilı́brio. O termo seguinte é identicamente
nulo porque Φ deve ter um mı́nimo em (x̄i ). Os termos de segunda ordem represen-
tam, então, a componente harmônica das vibrações atômicas. Trabalharemos aqui na
aproximação harmônica, baseada na hipótese de que as vibrações têm pequenas ampli-
tudes, permitindo-nos desprezar termos de ordem mais alta. Podemos então escrever a
Hamiltoniana como  
X 1 
˙
X
2
H = Φ0 + mξ + αij ξi ξj , (5.5.3)
 2 i 
i i,j

onde  2 
1 ∂ Φ
αij = , (5.5.4)
2 ∂xi ∂xj
inclui também o acoplamento entre vibrações em torno de diferentes sı́tios.
Agora introduzimos uma transformação linear, das coordenadas ξi para as chamadas
coordenadas normais, qi , de modo que a nova expressão para a Hamiltoniana não contém
termos cruzados,
X1
H = Φ0 + m(q̇i2 + ωi2 qi2 ), (5.5.5)
2
i
onde os ωi , i = 1, 2, . . . , 3N são as frequências caracterı́sticas dos chamados modos
normais do sistema. Elas são determinadas, essencialmente, pelos αij , que refletem
detalhes do potencial de interação Φ(xi ). Ademais, a Eq. (5.5.5) sugere que o sólido se
comporta como um conjunto de 3N osciladores harmônicos não-interagentes com um
espectro de frequências naturais, ωi .
Classicamente, então, cada um dos 3N modos normais corresponde a uma distorção
dos pontos da rede; isto é, a uma onda sonora. Quanticamente, estes modos dão origem
a quanta, chamados de fônons, em analogia com os modos do campo eletromagnético
dando origem a fótons. Uma diferença importante entre estes dois casos é que, enquanto
o número de modos normais no caso do campo eletromagnético é indefinido, o número de
modos normais no caso de sólidos é especificado pelo número de sı́tios da rede. Todavia,
o número de fônons, bem como o número de fótons, é também indefinido, resultando num
potencial quı́mico identicamente nulo; veja a Seção 5.4. Estas diferenças se manifestam
apenas nos comportamentos termodinâmicos envolvendo modos de altas frequências,
como pode ser verificado pelos resultados que serão deduzidos nesta seção.
A contribuição dos fônons para a termodinâmica do sólido pode então ser obtida
da maneira usual, lembrando, em primeiro lugar, que os autovalores da Hamiltoniana
quântica são dados por
X 1

E{ni } = Φ0 + ni + ~ωi , (5.5.6)
2
i
118 CHAPTER 5. APPLICATIONS OF IDEAL QUANTUM SYSTEMS

onde os números ni definem o estado de excitação dos diversos osciladores; equivalen-


temente, estes números definem as ocupações dos vários nı́veis dos fônons. A energia
interna do sistema é, então,
( )
X1 X ~ωi
E(T ) = Φ0 + ~ωi + . (5.5.7)
i
2
i
e i BT − 1
~ω /k

A expressão entre colchetes é a energia do sólido no zero absoluto e determina a energia


de ligação da rede. O último termo é que determina o calor especı́fico,

∂E
 X (~ωi /kB T )2 e~ωi /kB T
CV (T ) = = kB (5.5.8)
∂T V
i
(e~ωi /kB T − 1)2

Para prosseguirmos além deste ponto necessitarı́amos de informações sobre o espectro


de frequências, o qual não é simples de ser obtido a partir de primeiros princı́pios. Alter-
nativamente, lança-se mão de espectros obtidos experimentalmente, ou faz-se hipóteses
simplificadoras a seu respeito. No modelo de Einstein (1907), supõe-se que todas as
frequências têm o mesmo valor: ωi = ωE ∀i . O calor especı́fico é, então, dado por

CV (T ) = 3N kB E(x), (5.5.9)

onde a função de Einstein é


x2 ex ~ωE ΘE
E(x) = , com x= ≡ ; (5.5.10)
(ex − 1)2 kB T T
a última expressão define a temperatura de Einstein ΘE . A altas temperaturas, T  ΘE ,
obtemos CV ∼ 3N kB , que é o resultado clássico (c.f., o teorema da equipartição da
energia) como deveria ser. Já a baixas temperaturas, T  ΘE , temos CV ∼ e−x , que
decai muito mais rápido que o previsto experimentalmente (em 3 dimensões) ∼ T 3 .
Como vimos anteriormente, o comportamento exponencial do calor especı́fico sinaliza a
presença de um gap de energia que, neste caso, é atribuı́do à artificialidade do modelo.
No modelo de Debye (1912) considera-se um espectro contı́nuo, até uma determinada
frequência de corte, ωD , a qual é determinada impondo que o número total de modos de
vibração seja igual a 3N ; isto é,
Z ωD
g(ω) dω = 3N, (5.5.11)
0

onde g(ω)dω fornece o número de modos normais entre ω e ω + dω. Para g(ω) podemos
usar a expressão (5.4.5), desde que adaptada para levar em conta os seguintes aspectos:
(1) os modos de vibração podem ser longitudinais e transversais (estes últimos são du-
plamente degenerados); (2) as velocidades de propagação dos modos longitudinais (cL )
e transversais (cT ) podem ser diferentes. Assim,

V ω2 V ω2
g(ω) = + , (5.5.12)
2π 2 c3L π 2 c3T
5.5. PHONONS 119

Figure 5.8: Distribuição de frequências, g(ω), para o Al. A linha cheia é obtida por
espalhamento de raios-X [C B Walker, Phys. Rev. 103 547, (1956)] e a linha tracejada
corresponde à aproximação de Debye.

que, levado em (5.5.11), fornece


 −1
3 N
2 1 2
ωD = 18π 3 + 3 . (5.5.13)
V cL cT
Finalmente, o espectro de frequências de Debye é dado por
(
(9N/ωD3 ) ω 2 , se ω ≤ ω
D
g(ω) = (5.5.14)
0, se ω > ωD .
Neste ponto devemos fazer duas observações. Em primeiro lugar, o espectro de
freqüências de Debye é, claramente, uma idealização, como fica aparente ao ser com-
parado com um espectro real tı́pico; veja a Fig. 5.8. Se para os modos de baixa frequência
– os chamados fônons acústicos – a aproximação de Debye é razoável, para os modos de
alta frequência – fônons óticos – as discrepâncias são aparentes. Felizmente, para quanti-
dades médias como a energia interna e, por conseguinte, para o calor especı́fico, detalhes
finos do espectro não são muito importantes. Em segundo lugar, os modos longitudinais
e transversais têm suas próprias frequências de corte, ωD,L e ωD,T , ao invés de um valor
comum, ωD , simplesmente porque há 2N modos transversos e N longitudinais. Todavia,
ambas as frequências de corte correspondem a um mesmo comprimento de onda mı́nimo,
λmin = (4πV /3N )1/3 , que é da ordem da distância interatômica no sólido.
Retomando os cálculos na aproximação de Debye, e lembrando que na Eq. (5.5.8) a
passagem para o contı́nuo contribui com g(ω) ∝ ω 2 , obtemos
CV (T ) = 3N kB D(x0 ), (5.5.15)
120 CHAPTER 5. APPLICATIONS OF IDEAL QUANTUM SYSTEMS

onde D(x0 ) é a função de Debye,


x0
3 x4 e x
Z
D(x0 ) = 3 dx , (5.5.16)
x0 0 (ex − 1)2
com
~ωD ΘD
x0 = ≡ , (5.5.17)
kB T T
o que define a temperatura de Debye para o sólido. Fazendo a integral em (5.5.16) por
partes, obtemos
3x0 12 x0 x3
Z
D(x0 ) = − x0 + 3 dx x . (5.5.18)
e − 1 x0 0 e −1
Para T  ΘD , a função D(x0 ) pode ser expressa em uma série de potências em x0 :
x20
D(x0 ) ' 1 − , (5.5.19)
20
e o calor especı́fico neste limite fica
CV ' 3N kB , (5.5.20)
que é o resultado clássico. A baixas temperaturas, T  ΘD , podemos estender o limite
superior de integração para ∞ em (5.5.18),
12 ∞ x3
Z
D(x0 ) = 3 dx x + O(e−x0 ), (5.5.21)
x0 0 e −1
recaindo nas conhecidas integrais bosônicas, gn (z); veja Eq. (4.5.1). Logo,

4π 4 T 3
 
12
D(x0 ) ' 3 Γ(4)g4 (1) = , (5.5.22)
x0 5 ΘD
e, portanto,
3
12π 4

T
C V ' N kB , (5.5.23)
5 ΘD
reproduzindo o comportamento conhecido como a Lei-T 3 de Debye, indicando a ausência
de um gap, contrariamente ao previsto pelo modelo de Einstein. Deve-se notar que a
dependência de CV com T a baixas temperaturas pode ser extraı́da sem nos referirmos
às integrais bosônicas: com efeito, a integral em (5.5.21) contribui com um número,
enquanto que a dependência com T já está contida em x−3 0 que, por sua vez, resultou de
uma mudança de variável de integração.
Medidas experimentais do calor especı́fico de sólidos a baixas temperaturas servem de
teste para o modelo de Debye, através de estimativas para ΘD , que devem ser comparadas
com as obtidas a partir de constantes elásticas; o resultado favorece a teoria de Debye.
Valores tı́picos de ΘD cobrem o intervalo de 100 a 1000K.
Finalizando, esta análise indica que se o calor especı́fico a baixas temperaturas de
um dado sistema obedece à lei-T 3 , então suas excitações térmicas são explicadas apenas
por fônons.
5.6. EXERCISES 121

5.6 Exercises
1. Obtenha os resultados (5.2.18), (5.2.19) e (5.2.20).

2. Mostre que, para um gás de férmions a baixas temperaturas temos, de uma maneira
geral,
"  #
π 2 d ln g(ε) kB T 2 π2 2
  
µ ' εF 1 − e CV ' S ' k T g(εF ),
6 d ln ε ε=εF εF 3 B

onde g(ε) é a densidade de estados de uma partı́cula. Discuta estes resultados para
um gás com espectro de energia εp = apn em um espaço d-dimensional.

3. Mostre que o diamagnetismo não existe na Fı́sica Clássica. [Sugestão: A Hamiltoniana


para partı́culas carregadas em presença de um campo magnético B = ∇ × A é uma
função de pj + (ej /c)A(rj ). Deve-se mostrar, então, que a função de partição do
sistema é independente do campo aplicado.]

4. Considere um gás ideal de elétrons bi-dimensional, cuja densidade (número de elétrons


pela área do sistema) é n. Obtenha a contribuição dos momentos magnéticos intrı́n-
secos para a suscetibilidade deste sistema a T = 0.

5. Considere elétrons não interagentes em 3 dimensões, em presença de um campo


magnético uniforme H; a Hamiltoniana de uma partı́cula é dada pela Eq. (5.3.1).

(a) Mostre que a energia de uma dada configuração de spins pode ser escrita como
X
E= Ep (np↑ , np↓ ),
p

onde npσ (= 0 ou 1) é o número de partı́culas com spin σ = ±1 (ou ↑, ↓) e


momento p, e
p2
Ep (np↑ , np↓ ) = np − mp µB H,
2m
com np ≡ np↑ + np↓ e mp ≡ np↑ − np↓ .
(b) Mostre que a gran-função de partição pode ser escrita como

Z = Z0 (µ + µB H) Z0 (µ − µB H),

onde Yh i
2
Z0 (ν) = 1 + eβ(ν−p /2m) .
p

(c) Mostre que o gran-potencial pode ser expresso como


V h i
J = kB T 3 f5/2 (zeβµB H ) + f5/2 (ze−βµB H ) ,
Λ
onde as integrais fermiônicas f5/2 (w) foram definidas na Eq. (4.4.11).
122 CHAPTER 5. APPLICATIONS OF IDEAL QUANTUM SYSTEMS

(d) Denotando por Nσ o número médio de partı́culas com spin σ, mostre que o número
total de elétrons e a magnetização são dados por

V h βµB H −βµB H
i
N = N↑ + N↓ = f (ze ) + f (ze ) ,
Λ3 3/2 3/2

e
V h βµB H −βµB H
i
M = µB (N↑ − N↓ ) = µB f (ze ) − f (ze ) ,
Λ3 3/2 3/2

respectivamente.
(e) Discuta os limites de altas e baixas temperaturas, comparando com os resultados
da Seção 5.3.1.

6. Considere um gás ideal de férmions de massa m e spin-1/2, com um espectro de uma


partı́cula ε(k).

(a) Qual a probabilidade de ocupação, p(n; ε), à temperatura T (ou sua inversa,
β ≡ 1/kB T ) de um estado arbitrário com energia ε, sendo n = 0, 1 a ocupação
do estado? Certifique-se de que esta probabilidade está normalizada.
(b) Mostre que a probabilidade do estado com energia µ+δ (δ é uma energia constante
arbitrária) estar ocupado é igual à probabilidade do estado com energia µ−δ estar
desocupado. Comente.

Suponha, de agora em diante, que o espectro destes férmions admita energias


positivas e negativas, com dispersão
p
ε± (k) = ± m2 c4 + ~2 c2 k 2 ,

onde c é uma constante.


(c) À temperatura nula, todos os estados de energia negativa estão ocupados, en-
quanto que os de energia positiva estão desocupados; logo, µ(T = 0) = 0. Baseado
no resultado do item (b), o que se pode afirmar sobre µ(T > 0)?
(d) Mostre que a energia média de excitação deste sistema, à temperatura T > 0, é
dada por
4V ε+ (k)
Z
E(T ) − E(0) = d3 k βε (k) ,
(2π)3 e + +1
onde V é o volume a três dimensões.
(e) Suponha que estes férmions não tenham massa; obtenha a dependência com a
temperatura da capacidade calorı́fica deste gás. Como este resultado se compara
com o caso em que o espectro é limitado inferiormente? Discuta.
(f) Suponha agora férmions massivos a baixas temperaturas; obtenha a dependência
com a temperatura da capacidade calorı́fica deste gás. Comente.
5.6. EXERCISES 123

Figure 5.9: Problema 6

7. Ondas de spin são perturbações a baixas temperaturas sobre um estado com spins
(clássicos) totalmente alinhados [parte (a) da figura abaixo]. Elas correspondem,
essencialmente, a um desvio transversal sendo compartilhado por todos os spins; veja
a parte (b) da figura abaixo. Mágnons são os quanta destas excitações, que têm
relação de dispersão ω = Ak 2 , onde A é uma constante.
(a) Faça esboços das densidades de estados de mágnons, D(ε), como funções da
energia ε, para dimensões espaciais d = 1, 2 e 3. Coloque no mesmo gráfico o
número médio de mágnons com energia ε.
(b) Obtenha o número médio total de mágnons em um sistema de dimensão d.
(c) Discuta cuidadosamente seus resultados. Comente, em particular, as consequên-
cias para o alinhamento quando d ≤ 2.
(d) Suponha agora que limε→0 g(ε) = ∆, onde ∆ é uma constante positiva. Como
isto alteraria as conclusões do ı́tem anterior?
8. Supondo que a relação de dispersão para vibrações em sólidos seja ω = Ak s , mostre
que a respectiva contribuição para o calor especı́fico a baixas temperaturas é propor-
cional a T 3/s . Generalize este resultado para d dimensões. (Obs.: s = 1 corresponde
a fônons, e s = 2 corresponde a mágnons.)
9. Um gás ideal de bósons se movimenta em bloco com velocidade v em relação a um
referencial inercial.
(a) Mostre que o número médio de ocupação hnp i de um estado com energia εp é
dado por
1
hnp i = β(ε −µ−v·p) ,
e p −1
onde µ é o potencial quı́mico.
(b) Mostre, a partir daı́, que a densidade de ‘massa inercial’ de um gás de fônons,
com relação de dispersão ω = ck, movendo-se em bloco com velocidade v é
16π 5 (kB T )4 1
ρ= .
45h c 3 5
(1 − v 2 /c2 )3
124 CHAPTER 5. APPLICATIONS OF IDEAL QUANTUM SYSTEMS
Chapter 6

Approximation Methods
Refs.: Landau & Lifshitz, Reichl e Koonin

6.1 Introduction
Nos Capı́tulos anteriores, as interações entre as partı́culas foram totalmente desprezadas.
Mesmo assim, pudemos ver exemplos em que esta descrição aproximada fornecia resul-
tados bastante satisfatórios. Por outro lado, há muitos fenômenos, tais como desvios do
gás ideal na dependência da pressão com a densidade de partı́culas, e transições de fase
em sistemas fluidos, magnéticos, supercondutores, etc., nas quais o papel das interações
é crucial para explicar o comportamento observado.
Neste Capı́tulo e no próximo, apresentaremos algumas maneiras aproximadas de se
tratar sistemas interagentes. Não poderı́amos, de forma alguma, fazer uma revisão de
todos os métodos disponı́veis, pois há muitos deles; cada um reflete as peculiaridades
de cada sistema e das diferentes situações fı́sicas. Podemos dividir as aproximações em,
basicamente, duas categorias: métodos perturbativos e não-perturbativos. Na primeira,
explora-se a presença de algum parâmetro que seja pequeno, em certo sentido. Por
exemplo, expansões na densidade de partı́culas (Seção 6.2) ou na parte atrativa do po-
tencial de interação (Seção 6.3); ou, ainda, expansões da suscetibilidade em altas e baixas
temperaturas, que são muito úteis no estudo de transições de fase, mas que não serão
abordadas neste curso. Entre os métodos não-perturbativos podemos incluir simulações
numéricas como Monte Carlo (Seção 6.4) e Dinâmica Molecular; no Capı́tulo 7 discutire-
mos outros, como teorias de Campo Médio e Grupo de Renormalização. Claramente, esta
divisão tem suas imprecisões, já que vários métodos são frequentemente combinados.

6.2 The Virial Expansion


6.2.1 Deviation of gases from the ideal state
A equação de estado de um gás ideal, quando aplicada a gases reais fornece, na maioria
dos casos, resultados bastante precisos. Como mencionado acima, esta aproximação
pode não ser adequada em algumas situações. Veremos agora como surgem os desvios
do comportamento ideal a partir da incorporação das interações entre as moléculas.

125
126 CHAPTER 6. APPROXIMATION METHODS

Façamos, inicialmente, a hipótese de que o gás seja tão rarefeito que colisões múltiplas
– isto é, colisões envolvendo mais do que dois corpos simultaneamente – possam ser
desprezadas. Também por simplicidade, consideraremos um gás monoatômico. O movi-
mento das partı́culas pode ser tratado classicamente, de modo que a energia tem a forma
N
X p2i
H= + U (r1 , r2 , . . . , rN ), (6.2.1)
2m
i=1

onde U (r1 , r2 , . . . , rN ) é a energia de interação mútua que, num gás monoatômico, é


função apenas das distâncias entre os átomos.
A função de partição pode ser escrita como

1
Z
ZN (T, V ) = d3N r d3N p e−βH . (6.2.2)
N !h3N

A integração em p é trivial por ser Gaussiana, e reproduz os resultados obtidos anteri-


ormente,
3N Z ∞ p 3N
2
Y
dp e−βp /2m = 2πmkB T = h3N Λ−3N . (6.2.3)
i=1 −∞

Definindo a integral de configuração,


Z
QN (T, V ) ≡ d3N r e−βU (r1 ,r2 ,...,rN ) , (6.2.4)

podemos escrever
1
ZN (T, V ) = QN (T, V ). (6.2.5)
N !Λ3N
Fazendo U = 0, a integral de configuração se reduz a V N , recuperando a já conhecida
função de partição para o gás ideal,
 N
(0) 1 V
ZN = , (6.2.6)
N! Λ3

bem como a energia livre de Helmholtz,

A(0) = −N kB T ln V /Λ3 + kB T ln N !.

(6.2.7)

É então conveniente escrever a Eq. (6.2.5) como

(0) QN (T, V )
ZN (T, V ) = ZN (T, V ) , (6.2.8)
VN
para que a energia livre tome a forma

A = A(0) − kB T ln QN /V N .

(6.2.9)
6.2. THE VIRIAL EXPANSION 127

d3N r =
R
Somando e subtraindo 1 no integrando da Eq. (6.2.4), e usando o fato de que
V N , temos  
1
Z  
(0) 3N −βU
A = A − kB T ln d r e −1 +1 . (6.2.10)
VN
A interação entre um par de átomos é muito pequena, a não ser quando eles estão
muito próximos; isto é, prestes a colidir. Façamos agora mais uma hipótese simplifi-
cadora:1 além de rarefeito, há tão poucos átomos que, dificilmente, mais de um par
deles esteja colidindo a cada instante. Assim, para N átomos este par pode ser escolhido
de 12 N (N − 1) maneiras, e podemos fazer a seguinte aproximação para a integral em
(6.2.10):
Z h i 1 Z h i
−βU N −2
3N
d r e − 1 ' N (N − 1)V d3 r1 d3 r2 e−βu(r12 ) − 1 , (6.2.11)
2

onde u(r12 ) é a energia de interação entre dois átomos quaisquer, e depende apenas de
suas coordenadas; isto nos permitiu fazer a integração nas outras 3(N − 2) coordenadas,
dando o fator V N −2 . Expandindo o logaritmo e tomando N (N − 1) ∼ N 2 , temos

1 N2
 Z h i
(0) 3 3 −βu(r12 )
A = A − kB T ln 1 + d r1 d r2 e −1 '
2 V2
1 N2
Z h i
' A(0) − kB T 2 d3 r1 d3 r2 e−βu(r12 ) − 1 (6.2.12)
2 V

Lembrando que u é função apenas das coordenadas relativas, r, a integral dupla pode
ser expressa em termos das coordenadas do centro de massa, R, e de r, o que nos permite
fazer a integral em d3 R dando origem a mais um fator V . Assim,

1 N2
Z h i
A ' A(0) − kB T d3 r e−βu(r) − 1 , (6.2.13)
2 V

que pode ser escrita como

N2
A ' A(0) + kB T B2 (T ), (6.2.14)
V
onde
1
Z  
B2 (T ) ≡ d3 r 1 − e−βu(r) (6.2.15)
2
tem dimensão de volume.
A pressão é dada em termos do coeficiente B2 (T ),
   
∂A N kB T N
P =− = 1+ B2 (T ) ; (6.2.16)
∂V T,N V V
1
Esta hipótese será dispensada na próxima sub-seção, onde a expansão do virial será deduzida de
modo mais formal.
128 CHAPTER 6. APPROXIMATION METHODS

r
2r0
u0

Figure 6.1: Energia potencial de interação em função da distância interatômica; r0 é o


‘raio atômico’ e −u0 é o mı́nimo de energia.

ou seja, a primeira correção à equação de estado do gás ideal é proporcional à densidade


de partı́culas.
Algumas observações sobre os resultados acima devem ser feitas. Em primeiro lugar,
eles se aplicam a gases monoatômicos; a extensão para gases poliatômicos é feita levando-
se em conta que a energia de interação entre um par de moléculas depende não apenas
da distância entre seus respectivos centros de massa, mas também da orientação relativa
entre elas. Uma outra extensão possı́vel pode ser feita para incluir a interação entre os
spins das partı́culas; neste caso, além da integração nas coordenadas espaciais, deve-se
incluir também uma soma sobre os números quânticos de spin. Em segundo lugar, os
potenciais devem cair rapidamente com a distância, para que a integral na Eq. (6.2.15)
convirja; ou seja, devemos ter u(r) ∼ r−n , com n > 3. Esta condição é geralmente
satisfeita para gases monoatômicos e moleculares, pois os potenciais de interação entre
átomos e entre moléculas neutras (incluindo dipolos), quando tomados em média sobre
as direções relativas, dão origem a potenciais com u ∼ 1/r6 .
We should now discuss the behaviour of the pressure at high and low temperatures
based on a typical interatomic potential, such as the one displayed in Fig. 6.1. Apart
from specific details, these potentials should display: (1) a ‘hard core’ reflecting the
‘impenetrability’ of the atoms for distances r . 2r0 , where r0 is the atomic radius, so
that this can be considered as the repulsive region of the potential; and (2) a minimum
of the well at r∗ , such that u(r∗ ) = −u0 , corresponding to stable equilibrium, so that
the region r & 2r0 will then be referred to as the attractive region of the potential. We
can then think in terms of three energy scales: the thermal energy, kB T , the attractive
energy, u0 , and the hard core energy, call it uhc , with uhc  u0 . Then, in this context
high temperatures means uhc  kB T  u0 , since the thermal energy is still small to
overcome the nuclear repulsion; and low temperatures means uhc  u0  kB T .
It is therefore illustrative to break the integral in (6.2.15) into separate contributions
from the repulsive, Ir , and the attractive regions, Ia , B2 (T ) = Ir + Ia . The dominant
6.2. THE VIRIAL EXPANSION 129

contribution to the integrand in Ir is


1 − e−βu(r) ' 1 − e−βuhc ≈ 1, (6.2.17)
either at high or low temperatures. For the attractive region, the integrand is typically
1 − e−βu(r) ' 1 − eβu0 . (6.2.18)
At high temperatures,
1 − eβu0 ≈ −βu0 , with |βu0 |  1, (6.2.19)
so that Ir  |Ia |, and B2 ≈ Ir > 0: the pressure is larger than that of the non-
interacting gas. By contrast, at low temperatures,
1 − eβu0 ≈ −eβu0 , with |βu0 |  1, (6.2.20)
so that Ir  |Ia |, so that B2 ≈ Ia < 0: the pressure is smaller than that of the ideal
gas.
Na próxima sub-seção a expansão em densidades será reobtida, desta vez de uma
forma mais sistemática, que permite o cálculo até ordens mais altas.

6.2.2 The virial expansion


Como vimos, a Eq. (6.2.16) corresponde aos dois primeiros termos de uma expansão da
pressão em potências da densidade n ≡ N/V ,
"  2 #
N kB T N N
P = 1+ B2 (T ) + B3 (T ) + · · · , (6.2.21)
V V V
onde os coeficientes Bj (T ) são conhecidos como os coeficientes do virial. Para uma
dedução sistemática desta expansão, é conveniente tratar o problema no ensemble gran-
canônico, no qual a pressão é obtida a partir de

1 µN/kB T
X Z
e P V /kB T
= e dΓN e−βHN (p,q) , (6.2.22)
N!
N =0
onde o volume no espaço de fases é
1 3 3
dΓN = d r1 d r2 . . . d3 pN , (6.2.23)
h3N
e os HN são, por exemplo,
N = 0 ⇒ H0 = 0 (6.2.24)
p2
N = 1 ⇒ H1 = (6.2.25)
2m
2
X p2i
N = 2 ⇒ H2 = + u(r12 ) (6.2.26)
2m
i=1
3
X p2i X
N = 3 ⇒ H3 = + u(rij ), (6.2.27)
2m
i=1 1≤i<j≤3
130 CHAPTER 6. APPROXIMATION METHODS

pois levamos em conta apenas interações a dois corpos.


Como a integral nos momentos pode ser feita independentemente, chamemos

eµ/kB T z
Z
2 /2m
ξ≡ d3 p e−βp = , (6.2.28)
h3 Λ3

com z = exp(µ/kB T ), de modo que a Eq. (6.2.22) fornece

ξ2 ξ3
 
P V = kB T ln 1 + ξV + I2 + I3 + · · · , (6.2.29)
2! 3!
com Z
I2 = d3 r1 d3 r2 e−βu(r12 ) , (6.2.30)
e Z P
I3 = d3 r1 d3 r2 d3 r3 e−β 1≤i<j≤3 u(rij )
. (6.2.31)

Expandindo o logaritmo em potências de ξ, obtemos



X Jn
P = kB T ξn, (6.2.32)
n!
n=1

onde, até 3a ordem,

J1 =1, (6.2.33)
1
I2 − V 2 , e

J2 = (6.2.34)
V
1
I3 − 3V I2 + 2V 3 .

J3 = (6.2.35)
V
As integrais I2 e I3 podem ser simplificadas introduzindo as coordenadas relativas
r = r2 − r1 , r0 = r3 − r2 , r31 = r − r0 , e as coordenadas do centro de massa do sistema,
R = (r1 + r2 + r3 )/3; note que r31 não é independente. Assim,
Z Z
I2 = d3 R d3 r e−βu(r) , (6.2.36)

e Z Z
0 0
I3 = 3
d R d3 r d3 r0 e−βu(r) e−βu(r ) e−βu(|r−r |) . (6.2.37)

As integrais em d3 R contribuem com V , de modo que


Z  
J2 = d3 r e−βu(r) − 1 , (6.2.38)

e Z  
0 0
J3 = d3 r d3 r0 e−βu(r) e−βu(r ) e−βu(|r−r |) − 3e−βu(r) + 2 . (6.2.39)
6.2. THE VIRIAL EXPANSION 131

É interessante notar que os Jn só são apreciavelmente diferentes de zero se os n


átomos estiverem próximos. Por esta razão, expansões deste tipo são também chamadas
de expansões em aglomerados (clusters).
Para eliminar o potencial quı́mico, devemos também calcular o número médio de
partı́culas,
        
∂ ∂P ∂P ∂ξ ∂P ξ
N= PV =V =V =V , (6.2.40)
∂µ T,V ∂µ T,V ∂ξ ∂µ ∂ξ kB T

ou

X Jn
N =V ξn. (6.2.41)
(n − 1)!
n=1

Resolvendo (6.2.41) para ξ(N, V ), e levando em (6.2.32), podemos obter P (T, V, N )


por aproximações sucessivas:

N kB T
1a aprox.: P = kB T ξ, N = V ξ ⇒ P = = P (0) (6.2.42)
  V  
a 1 N kB T 1N
2 aprox.: P = kB T ξ 1 + J2 ξ , N = V ξ(1 + J2 ξ) ⇒ P = 1− J2 ,
2 V 2V
(6.2.43)

que reproduz o resultado (6.2.16), com (6.2.15).

6.2.3 The Van der Waals Equation


Em gases a interação entre as moléculas é muito fraca. À medida em que esta interação
cresce em intensidade, as propriedades do gás se distanciam cada vez mais de um gás
ideal até que o fluido condensa em uma fase lı́quida. Nesta, o fluido é caracterizado por
uma forte interação entre as moléculas, fazendo com que suas propriedades dependam
consideravelmente do lı́quido em estudo. Por esta razão, uma descrição quantitativa de
lı́quidos é muito difı́cil de ser obtida.
Todavia, pode-se obter uma fórmula que descreve qualitativamente a transição entre
lı́quidos e gases, a chamada equação de van der Waals. De fato, no limite de gases
rarefeitos ela se reduz ao resultado conhecido do gás ideal; à medida em que a densidade
aumenta, atingimos um limite de compressibilidade, sinalizando a chegada à fase lı́quida.
Para obter a equação de van der Waals, consideremos interações como as descritas
na Seção 6.2.1 (veja a Fig. 6.1) , e suponhamos que u0  kB T . A integral em (6.2.15)
pode ser dividida nas mesmas regiões (até 2r0 e daı́ até ∞):

1 a
Z
B2 (T ) = d3 r (1 − e−βu(r) ) ≡ b − , (6.2.44)
2 kB T
com Z 2r0  
b = 2π r2 dr 1 − e−βu(r) , (6.2.45)
0
132 CHAPTER 6. APPROXIMATION METHODS

e ∞
a
Z
− = 2π r2 dr (1 − e−βu(r) ). (6.2.46)
kB T 2r0

Note that b and a have dimensions of volume and [energy · volume], respectively. In
the hard core region the exponential is much smaller than 1, and the integral does not
depend on the interaction potential; we therefore obtain,
16 3
b' πr0 = 4v0 , (6.2.47)
3
where v0 is the atomic volume. In the attractive region, the argument in the exponencial
is −βu(r) = β|u(r)|  1, o que fornece 1 − exp β|u(r)| ' β|u(r)|], e
Z ∞
a |u(r)|
− ' 2π dr r2 . (6.2.48)
kB T 2r0 kB T

Taking the definition of B2 (T ) in terms of a and b [(6.2.44)], into (6.2.16), the pressure
can be written as
N N2 N2
P = kB T + 2 kB T b − 2 a, (6.2.49)
V V V
or, rearranging terms, as
−1
N2
 
N N
P+ 2a 1+ b = kB T. (6.2.50)
V V V

Assuming the gas to be sufficiently rarefied, such that we can neglect triple (and higher
order) collisions, the molecules are very far apart, and we may take V  N b; this implies
 −1  
N N
1+ b ' 1− b , (6.2.51)
V V

and we arrive at the usual form of the van der Waals equation of state,

N 2a
 
P + 2 (V − N b) = N kB T, (6.2.52)
V

We see that for rarefied gases, N 2 a/V 2  P and N b  V , we recover the ideal gas
result. Most importantly, we see that as result of the interactions, the gas cannot be
compressed indefinitely, since the second term in brackets would become negative, while
both other terms are positive. There is therefore a minimum volume for the gas, namely
Vmin ≡ N b; this can be interpreted as an indication that below this volume threshold
the gas becomes a liquid, as discussed in Sec. 7.3.1.
Uma outra grandeza que ilustra a diferença com relação ao gás ideal é a entropia,
dada por

N 2 kB b
   
∂A (0) Nb
S=− = S − N kB ln 1 − ' S (0) + ; (6.2.53)
∂T V V V
6.3. DENSE FLUIDS: PERTURBATION THEORY 133

ou seja, a entropia do gás de van der Waals é maior que a do gás ideal. A energia interna
fica, então,
N 2a
E = A + T S = E (0) − , (6.2.54)
V
e o calor especı́fico a volume constante,
!
∂E (0)
 
∂E (0) 3
CV = = = CV = N kB , (6.2.55)
∂T V ∂T 2

é igual ao do gás ideal. Já o calor especı́fico a pressão constante pode ser calculado
usando os resultados do Exercı́cio 2.7, fornecendo
 ∂P
 2 −1
N a(V − N b)2

∂T V
CP − CV = −T ∂P
= N kB 1 − 2 (6.2.56)
kB T V 3

∂V T

(0) (0) (0)


que difere do gás ideal, CP − CV = N kB , pelo fato de que CP > CP .
Em resumo, o gás de van der Waals fornece uma interpolação entre os comporta-
mentos de gás ideal de um fluido. No Capı́tulo 7 utilizaremos este modelo para discutir
alguns aspectos da transição lı́quido-gás em sistemas fluidos.

6.3 Dense Fluids: Perturbation Theory


É possı́vel fazer uma expansão em clusters também para fluidos densos, sendo que a
diferença entre esta e a expansão do virial consiste, basicamente, no modo com que os
termos são somados.
Um método mais preciso consiste em uma teoria de perturbação no potencial de
interação. Este método foi introduzido por Zwanzig [J. Chem. Phys. 22 1420 (1954)] e
parte da constatação de que o comportamento qualitativo de fluidos densos é determi-
nado pela parte repulsiva (‘caroço duro’) do potencial de interação, e que a parte atrativa
do potencial contribui apenas com correções ao comportamento de carôço duro. Deste
modo podemos tratar a atração entre as moléculas perturbativamente.
Para sistemas clássicos a contribuição de energia cinética para a energia livre é fa-
torada da contribuição de interações (configurações). Suponhamos que a energia poten-
cial possa ser escrita como
V = V0 + V 0 , (6.3.1)

onde V0 é o caroço duro e V 0 a contribuição da parte atrativa; ambos envolvem, em


princı́pio, N partı́culas. A energia livre de configuração, Ā, pode, então, ser obtida
através de
QN 1
Z
e−β Ā ≡ = d3 r1 . . . d3 rN e−βV , (6.3.2)
N! N!
onde QN é a integral de configuração definida pela Eq. (6.2.4).
134 CHAPTER 6. APPROXIMATION METHODS

Definamos, de maneira análoga, a contribuição do caroço duro, A0 , através de


(0)
Q 1
Z
−βA0
e ≡ N = d3 r1 . . . d3 rN e−βV0 , (6.3.3)
N! N!
de modo que a densidade de probabilidade de encontrarmos o sistema de caroço duro na
configuração (r1 , r2 , . . . rN ) é

e−βV0
ρN
0 (r1 , r2 , . . . rN ) ≡ (0)
. (6.3.4)
QN

Assim, a energia livre de configurações pode ser calculada como


Z
−β Ā −βA0 0
e =e d3 r1 . . . d3 rN ρ0 (r1 , . . . rN ) e−βV (6.3.5)
0
= e−βA0 he−βV i0 , (6.3.6)

onde h. . .i0 corresponde à média de configurações cuja distribuição é a de caroço duro.


Expandindo h. . .i0 , temos
0 1
he−βV i0 = h1 − βV 0 + (βV 0 )2 + · · · i0 = (6.3.7)
2
1
0
= 1 − βhV i0 + β 2 hV 0 2 i0 + · · · (6.3.8)
2
Tomando o logaritmo, temos, para a energia livre,
 
1 0 1 2 02
Ā = A0 − ln 1 − βhV i0 + β hV i0 ' (6.3.9)
β 2
β
' A0 + hV 0 i0 − [hV 0 2 i0 − hV 0 i20 ], (6.3.10)
2
que é conhecida como expansão em cumulantes.
Esta teoria de perturbação tem sido bastante bem sucedida no tratamento de fluidos
densos, desde que efeitos quânticos sejam desprezı́veis.

6.4 Monte Carlo Simulations


6.4.1 Introduction
Frequentemente métodos perturbativos não são convenientes para calcular funções de
partição e valores médios; por exemplo, a altas densidades, a escolha de um parâmetro
‘pequeno’ é, geralmente, arbitrária, o que compromete o controle das expansões. Uma
alternativa é fazer estes cálculos numericamente.
Considere, por exemplo, a integral de configuração, Eq. (6.2.4). O cálculo desta
integral usando métodos numéricos tradicionais de quadratura (tais como método do
trapézio ou regra de Simpson) é impraticável, a não ser para N pequeno. Para entender
6.4. MONTE CARLO SIMULATIONS 135

isto, suponha que cada um dos 3N ‘eixos coordenados’ seja particionado em 10 divisões
– o que, convenhamos, não é muito! –, de modo que o integrando deve ser calculado
em 103N pontos. Tomando N = 20 em um computador rápido – capaz de calcular o
integrando da ordem de 107 vezes por segundo – obterı́amos uma estimativa para QN
em 1053 s, que é da ordem de 1034 vezes a idade do Universo! Evidentemente, devemos
procurar outros métodos para calcular estas integrais.
O Método de Monte Carlo que discutiremos aqui é um dos modos mais eficientes
para calcular integrais multi-dimensionais, ou, principalmente, somas discretas sobre
configurações. O nome ‘Monte Carlo’ vem do caráter aleatório do método e sua seme-
lhança com o famoso cassino em Mônaco.
A idéia essencial não é calcular o integrando em cada um de um grande número de
pontos da quadratura, mas, ao contrário, apenas numa amostragem representativa das
abscissas. Veremos aqui como selecionar esta amostragem, e suas consequências.

6.4.2 Exchange interaction


It is instructive to consider a system composed of spins-1/2 siting on the N sites of a
lattice. We may adopt the following simplifying assumptions:
(1) Each spin only interacts with their nearest neighbours. This can be justified since
the dominant coupling is due to the exchange interaction, which involves the overlap
between wave functions centred at the lattice sites, and they decay exponentially
with the distance. With i and j being nearest neighbour (nn) sites, this effective
exchange coupling usually takes the form (~ = 1)
(
−J/4, if Si + Sj add to a triplet state
Eij = −J Si · Sj = (6.4.1)
+3J/4, if Si + Sj add to a singlet state,

where Si and Sj are spin-1/2 operators, and J is the exchange constant. This
rotationally invariant coupling involving the three spin components is known as the
Heisenberg interaction. It should be noted that if J < 0 the ground state of these
two coupled spins is the singlet, Stotal = 0.

(2) The interaction only involves the z-component of the spin operator. While this in
fact occurs in crystals with strong uniaxial anisotropy, it may also be used as defining
the simplest non-trivial instance of an interacting system whose partition function
can be calculated exactly in one- (see Sec. 7.4) and two spatial dimensions. Equation
(6.4.1) then simplifies to (~ = 1)
(
z z −J/4, if Siz = Sjz , i.e., parallel, or ferromagnetic
Eij = −J Si Sj =
+J/4, if Siz = −Sjz , i.e., antiparallel, or antiferromagnetic,
(6.4.2)
This coupling involving just one spin component is known as the Ising interaction;
note that the energy is not invariant under an arbitrary rotation; it is only invariant
by a rotation of π on both spins around either the x or y directions, i.e., Siz → −Siz
136 CHAPTER 6. APPROXIMATION METHODS

and Sjz → −Sjz . Further, if J < 0 the ground state of these two coupled spins
corresponds to the antiferromagnetic alignment, ↑↓ or ↓↑.

Generalising these assumptions to a set of N spins-1/2 on a lattice, and including the


coupling to an external magnetic field, B = B ẑ, the Ising Hamiltonian can be written
as X X
H = −J σi σj − B σi , (6.4.3)
hi,ji i

where σi = ±1 are the eigenvalues of the Pauli spin operator σiz , and hiji stand for nearest
neighbour sites on a lattice. Also, we have incorporated all the physical constants (such
as those relating the magnetic moment to the spin, and the ~/2 relating Siz to σiz ) into
J and B, both of which now acquire dimension of energy. A ferromagnetically ordered
state then corresponds to having σi = σ, ∀i .

6.4.3 The Basic Strategy


Since σi = ±1 on each site, the number of possible configurations of this system is
2N . In order to calculate the partition function and averages one would have to sum
the contributions from all these states, which is a formidable task for N  1.2 Let us
assume, for definiteness, we wish to calculate the thermodynamic average of a quantity
A, which depends on the spin configuration S ≡ |σ1 , σ2 , . . . , σN i;3 also, for convenience
we ascribe a label n = 1, 2, . . . , 2N to each configuration, Sn . We may then write,

2 N
X
hAi = w(Sn ) A(Sn ), (6.4.4)
n=1

where
1 −βH(Sn )
w(Sn ) = e (6.4.5)
Z
is the Boltzmann weight for the spin configuration, with H(Sn ) being the energy eigen-
value for the configuration.
Given that the number of configurations is very large, one would like to sample over
a smaller set of configurations, M  2N . However, not all configurations are equally
probable, so we should sample through the most probable ones, for a given choice of
external parameters such as temperature and magnetic field. This importance sampling
is the basic Monte Carlo strategy. In order to implement this strategy, we imagine our
aim is to generate a sequence of configurations, S1 , S2 , S3 , . . . , SM .
Let us then assume for definiteness that S1 corresponds to a completely random
configuration, say S1 = | ↑, ↓, ↓, ↑, ↓, ↓, ↑, . . . , ↑i. Then we generate another configuration,
2
The available exact solutions to the two-dimensional case resort to very specialised mathematical
tools, and so far no exact solutions have been proposed in three dimensions.
3
Note that the use of a single site label in S ≡ {σ1 , σ2 , . . . , σN } implies, for simplicity, that the
lattice has been ‘rectified’: for instance, on a square lattice of L × L sites, the site coordinate (1, 1) → 1,
(1, 2) → 2, . . . , (1, L) → L, (2, 1) → L + 1, . . . , (L, L) → N = L2 .
6.4. MONTE CARLO SIMULATIONS 137

St (t stands for trial or temporary), by, say flipping one spin (e.g., the first spin) relative
to S1 ,
St = | ↓, ↓, ↓, ↑, ↓, ↓, ↑, . . . , ↑i. (6.4.6)
One of the most widely used implementations of the importance sampling is the so-
called Metropolis algorithm, which proceeds as follows: one calculates the ratio between
the probabilities of occurrence of St and S1 , as given by the corresponding Boltzmann
factors,
w(St )
r= = e−β[H(St )−H(S1 )] . (6.4.7)
w(S1 )
Note that if St has an energy smaller than that of S1 , then r > 1, so the new configuration
is more probable than the previous one; St is therefore accepted as the second member of
the sequence, St → S2 . On the other hand, if r < 1 one cannot discard St outright, since
the system must be able to visit less probable configurations as a result of fluctuations,
especially if the difference in energies is small; therefore, if r < 1, St is accepted (St → S2 )
with probability r. One then tries to flip the second spin in S2 , to obtain a new St , from
which we calculate a new r, and so forth. When reaching the last site, one can return
to the first site, and continue attempting to flip spins. By the end of the process, a
sequence of M configurations will have been generated which, as shown in Sec. 6.4.4, is
distributed according to w(S).4

6.4.4 The Metropolis Algorithm


Suponha que se queira gerar um conjunto de pontos num espaço multi-dimensional de
variáveis X, distribuı́dos com uma densidade de probabilidade w(X). O algoritmo de
Metropolis gera uma sequência de pontos X0 , X1 , . . . que define um caminho aleatório
percorrido por um ‘andarilho’ (random walker) naquele espaço. À medida em que o
caminho fica mais longo, ele se aproxima da distribuição desejada.
As regras de geração deste caminho aleatório são as seguintes. Suponha que o andar-
ilho se encontre no ponto Xn da sequência. Para gerar Xn+1 ele tenta ir para um novo
ponto Xt (t significa temporário), que pode ser escolhido, por exemplo, uniformemente
ao acaso dentro de um hipercubo de lado δ (pequeno) centrado em Xn . Definindo a
razão
w(Xt )
r≡ , (6.4.8)
w(Xn )
este passo para Xt é aceito se r > 1; se r < 1 ele é aceito com probabilidade r.
Em aplicações numéricas esta última condição é reproduzida comparando-se r com um
número aleatório ζ distribuı́do uniformemente no intervalo [0,1]: o passo é aceito (re-
jeitado) se ζ < r (ζ > r). Assim Xn+1 = Xt se o passo foi aceito, ou Xn+1 = Xn , se o
passo foi rejeitado. Este procedimento é, então, repetido um número grande de vezes. É
importante frisar que a possibilidade do passo ser aceito, mesmo quando representa uma
configuração menos provável, simula o papel de flutuações térmicas, que torna acessı́veis
4
On a first reading, one can simply accept this statement and skip straight to Sec. 6.4.5 without loss
of continuity.
138 CHAPTER 6. APPROXIMATION METHODS

estados com energias livres diferentes de um mı́nimo global. Deve-se notar também que
qualquer ponto inicial, X0 , pode, em princı́pio, ser escolhido mas, como veremos abaixo,
uma escolha conveniente em geral acelera o processo de convergência.
Para mostrar que este algoritmo efetivamente gera uma sequência de pontos dis-
tribuı́dos de acordo com w, considere um grande número de andarilhos partindo de
diferentes pontos iniciais, e se movendo independentemente no espaço-X. Seja Nn (X) a
densidade de andarilhos no ponto X após n passos; o número resultante de andarilhos
que se movem de X para Y no próximo passo é

∆N (X) = Nn (X) P (X → Y) − Nn (Y) P (Y → X) = (6.4.9)


Nn (X) P (Y → X)
 
= Nn (Y) P (X → Y) − , (6.4.10)
Nn (Y) P (X → Y)

onde P (X → Y) é a probabilidade do andarilho transicionar para Y se ele estiver em


X. A condição de equilı́brio, correspondente a não haver alteração na população de X,
∆N (X) = 0, é
Neq (X) Nn (X) P (Y → X)
≡ = . (6.4.11)
Neq (Y) Nn (Y) P (X → Y)
Quando o sistema não está em equilı́brio, as mudanças em N (X) ocorrem no sen-
tido de levá-lo a esta condição. Por exemplo, se houver excesso de andarilhos em X,
Nn (X)/Nn (Y) é maior que o valor de equilı́brio, e ∆N (X) > 0; ou seja, há uma ‘fuga’
de X para Y. É, portanto, plausı́vel que, após um grande número de passos, a população
de andarilhos se estabilize no valor de equilı́brio Neq (X).
Por outro lado, a probabilidade de efetuar a transição de X para Y pode ser escrita
como
P (X → Y) = T (X → Y) A(X → Y), (6.4.12)
onde T é a probabilidade de dar um passo de X para Y e A a probabilidade do passo
ser aceito. Se X e Y estão separados por apenas um passo, então

T (X → Y) = T (Y → X), (6.4.13)

e a distribuição de equilı́brio para andarilhos de Metropolis satisfaz

Neq (X) A(Y → X)


= . (6.4.14)
Neq (Y) A(X → Y)

Se w(X) > w(Y), o passo de Y para X é aceito (A(Y → X) = 1) e

w(Y)
A(X → Y) = , (6.4.15)
w(X)

de acordo com (6.4.15)(6.4.8); da mesma forma, se w(X) < w(Y), A(X → Y) = 1 e

w(X)
A(Y → X) = , (6.4.16)
w(Y)
6.4. MONTE CARLO SIMULATIONS 139

Em qualquer caso, portanto, a população de equilı́brio satisfaz

Neq (X) w(X)


= , (6.4.17)
Neq (Y) w(Y)

mostrando que os andarilhos são, de fato, distribuı́dos de acordo com w(X).


Sabendo, então, que as tentativas de passo são feitas numa vizinhança de Xn , como
se deve escolher o tamanho do passo δ? Suponha que Xn esteja num máximo de w,
correspondendo ao valor mais provável. Se δ é grande w(Xt ) deve ser muito menor
que w(Xn ) e a maioria dos passos deve ser rejeitada, representando uma amostragem
ineficiente de w. Por outro lado, se δ é muito pequeno a maioria dos passos é aceita,
mas o andarilho nunca irá muito longe, o que também é um processo ineficiente. Logo,
o tamanho adequado do passo é quando aproximadamente a metade dos passos é aceita.

6.4.5 Thermalization and Averaging


Visto como o algoritmo de Metropolis leva o sistema ao equilı́brio, podemos discutir
agora o cálculo de médias no ensemble de X. Seja f (X) uma grandeza qualquer; sua
média é dada por R
dX w(X) f (X)
hf i = R , (6.4.18)
dX w(X)
onde admitimos que w(X) possa ser normalizada a posteriori. Claramente estas integrais
podem ser calculadas pela quadratura de Monte Carlo, mas queremos chamar a atenção
aqui de alguns detalhes técnicos.
Os pontos X0 , X1 , . . . não são independentes entre si devido, simplesmente, ao fato
de que eles foram gerados em vizinhanças sucessivas. Logo, os valores fi ≡ f (Xi )
não são variáveis aleatórias independentes, e o erro dado por (6.4.4) tem sua validade
questionada. Para verificar isto de modo quantitativo, calcula-se a função de auto-
correlação
hfi fi+k i − hfi i2
C(k) ≡ , (6.4.19)
hfi2 i − hfi i2
onde as médias são tomadas no caminho aleatório, isto é,
M
1 X
hfi i = f (Xi ) (6.4.20)
M
i=1

e
M −k
1 X
hfi fi+k i = f (Xi ) f (Xi+k ). (6.4.21)
M −k
i=1

Se as medidas não são independentes C(k) é diferente de zero (excluı́do, é claro, o


caso trivial k = 0). Na prática, o que se faz é calcular estas médias usando pontos do
caminho aleatório separados por um intervalo fixo; este intervalo é tomado de modo a
ter C(k) . 0.1.
140 CHAPTER 6. APPROXIMATION METHODS

Como mencionado anteriormente, o caminho aleatório pode partir de qualquer ponto


do espaço X. Após decorridos um certo número de passos o sistema ‘termaliza’, e perde
a memória de que ponto partiu. Claramente, as médias não devem ser consideradas até
que o sistema termalize.

6.4.6 An Example: The 2D Ising Model


Considere spins-1/2 fixos nos sı́tios de uma rede quadrada, de tamanho N = L × L.
Sob determinadas condições, as propriedades magnéticas deste sistema são descritas,
aproximadamente, pela Hamiltoniana de Ising,
X X
H = −J σi σj − B σi , (6.4.22)
hi,ji i

onde J é a constante de acoplamento, B é o campo magnético aplicado (em unidades


apropriadas), σi = ±1 e hiji corresponde a primeiros vizinhos. O estado ordenado
ferromagnético corresponde a ter todos os σi = σ, ∀i .
Este sistema tem 2N configurações, S, possı́veis, distribuı́das de acordo com o fator
de Boltzmann
1
w(S) = e−βH(S) (6.4.23)
Z
onde X
Z= e−βH(S) . (6.4.24)
S

As grandezas de interesse são a magnetização por sı́tio,

1 ∂ X 1
M =− [−kB T ln Z] = w(S)M = hMi, (6.4.25)
N ∂B N
S

onde X
M≡ σi , (6.4.26)
i

a suscetibilidade magnética,

∂M β 
χ= = hM2 i − hMi2 , (6.4.27)
∂B N
a energia interna
∂ X
E = hHi = − ln Z = w(S) H(S), (6.4.28)
∂β
S

e a capacidade calorı́fica
( )
X
CB = kB β 2 w(S) H2 (S) − E 2 (6.4.29)
S
6.5. EXERCISES 141

Para implementar o algoritmo de Metropolis, um passo de S para St poderia corre-


sponder a mudar todos os spins ao acaso; mas a nova configuração seria muito diferente
da anterior e, portanto, com alta taxa de rejeição. O passo pequeno, neste caso corre-
sponde a virar um spin de cada vez, varrendo sistematicamente toda a rede. O novo
passo é então aceito dependendo da razão
w(St )
r= = e−β[H(St )−H(S)] (6.4.30)
w(S)
como vimos anteriormente.
Como numa rede quadrada cada spin interage com apenas 4 outros, podemos escrever

r = e−2βσxy (Jf +B) , (6.4.31)

ao tentarmos virar o spin localizado no sı́tio de coordenadas (x, y), com

f = σx+1,y + σx−1,y + σx,y+1 + σx,y−1 . (6.4.32)

Logo, como σ = ±1, f só pode assumir 5 valores distintos, f = 0, ±2, ±4, dando
origem a apenas 10 valores distintos de r. Numa simulação longa é conveniente calcular
estes valores e armazená-los, evitando chamadas frequentes da função exponencial, que
ralentariam a execução.
Na ausência de dados disponı́veis para ilustrar este texto, os estudantes devem con-
sultar o site
http://fraden.brandeis.edu/courses/phys39/simulations/Student%20Ising%20Swarthmore.pdf
para ver os resultados de uma simulação e o respectivo programa.

6.5 Exercises
1. Obtenha os termos de correção ao gás ideal, em ordem mais baixa na densidade, para
as seguintes grandezas: energias livres de Helmholtz e de Gibbs, entropia, energia
interna e calor especı́fico a volume constante.

2. As moléculas de um gás interagem de acordo com um potencial de dois corpos u(r).


Obtenha as correções ao gás ideal para as energias livres de Helmholtz e de Gibbs,
para a equação de estado, e para a entropia, a energia interna e os calores especı́ficos
a volume e a pressão constantes, nos seguintes casos:

(a)
u(r) = α/rn , n > 0;
(b) 
∞
 se r < a
u(r) = −u0 se a < r < b

0 se r > b,

onde α, u0 , a e b são constantes.


142 CHAPTER 6. APPROXIMATION METHODS

Discuta seus resultados!

3. Mostre que a equação de van der Waals dá origem à lei dos estados correspondentes,
 
3
p̄ + 2 (3V̄ − 1) = 8T̄ .

Determine p̄, V̄ , T̄ e interprete seus resultados. Explique o que são “estados corre-
spondentes”.

4. Mostre que a curva de pressão de vapor para um gás em equilibrio com um liquido é
dada aproximadamente [explicite suas aproximações] por:

p = p0 e−`/RT

com ` ≡ calor latente de vaporização (por mol); p0 = constante.

5. Calcule a integral
1
dx
Z
I= ,
0 1 + x2
usando simulações de Monte Carlo. Utilize os seguintes pesos: (a) w1 (x) = 1 e
(b) w2 (x) = (4 − 2x)/3. Faça uma tabela que contenha as estimativas de I e do
desvio padrão σI nos dois casos (a) e (b), para amostragens cada vez maiores. O
valor exato de I é 0.78540.
Chapter 7

Phase Transitions
Refs.: Landau & Lifshitz, Reichl e Stanley

7.1 Introduction
Neste Capı́tulo continuaremos estudando sistemas interagentes em equilı́brio, mas enfa-
tizando um aspecto muito importante, que são as transições de fase.
A matéria existe em muitas fases, que podem ser classificadas, por exemplo, em
função de sua estrutura – isto é, do grau de ordenamento atômico – como sólidas,
lı́quidas ou gasosas. Cada uma destas, por sua vez, admite sub-divisões; por exemplo,
um sólido pode sofrer transições de fase estruturais, passando de um arranjo tetragonal
para ortorrômbico. Superposto a isto, outras propriedades macroscópicas podem se
manifestar. Um sistema pode transicionar de paramagnético para ferromagnético, ou de
um metal normal para um supercondutor; 4 He e 3 He se tornam superfluidos a baixas
temperaturas. Novamente, é possı́vel subdividir muitas destas fases, ilustrando a riqueza
deste assunto.
Os exemplos acima sugerem que a noção de ordem desempenha um papel funda-
mental. Assim, as fases gasosa, lı́quida, paramagnética, metal normal e fluido nor-
mal são consideradas desordenadas, em contraposição, respectivamente, às fases lı́quida,
sólida, ferromagnética, supercondutora e superfluida, ditas ordenadas. Note que, em
alguns casos, a classificação em fases ordenada e desordenada é relativa: a fase lı́quida
é mais ordenada que a gasosa, porém mais desordenada que a sólida. Cada uma destas
transições de fase pode ocorrer pela mudança da temperatura e dos parâmetros externos
relevantes em cada caso, como a pressão ou campo magnético. Além destes, muitos
outros parâmetros, como a concentração de impurezas, anisotropias, etc., podem oca-
sionar mudanças de fase. Para fixar idéias, pensaremos, na maioria dos casos, que a
temperatura é o parâmetro que varia, mantendo os demais fixos. É bastante intuitivo
o fato de que quanto mais baixa fôr a temperatura, mais ordenado fica o sistema. Isto
porque as interações entre os constituintes do sistema determinam a natureza do estado
ordenado, que sempre é perturbado pela agitação térmica.
Deve-se notar que a fase ordenada é menos simétrica que a fase desordenada. Por
exemplo, na fase ferromagnética existe uma magnetização macroscópica privilegiando
uma direção espacial, enquanto que na fase paramagnética o sistema é isotrópico. Diz-

143
144 CHAPTER 7. PHASE TRANSITIONS

se, portanto, que uma transição de fase vem acompanhada de uma quebra espontânea de
simetria.
Apesar de muitos sistemas sofrerem diferentes transições de fase, verificou-se experi-
mentalmente ao longo dos anos que diversas grandezas macroscópicas – como as funções-
resposta – apresentavam essencialmente os mesmos comportamentos singulares perto da
transição de fase. Por exemplo, o calor especı́fico perto da transição superfluida em 4 He
é quantitativamente semelhante ao de alguns sistemas magnéticos. (Isto será colocado
de modo mais preciso no decorrer deste Capı́tulo). Este aspecto de universalidade em
transições de fase só foi compreendido em toda sua profundidade com as idéias de scaling
desenvolvidas a partir de 1965 por Widom, Kadanoff, Wilson e Fisher.
Para chegarmos a estas idéias, discutiremos na Seção 7.2 a termodinâmica de tran-
sições de fase. Na Seção 7.3 apresentaremos três versões de teorias de campo médio: de
van der Waals, de Weiss e de Landau. Como ilustração das limitações de teorias deste
tipo, a solução exata do modelo de Ising em uma dimensão será apresentada na Seção
7.4 e confrontada com as previsões da teoria de Weiss na Seção 7.5, que faz então uma
crı́tica às teorias de um corpo. Uma introdução às teorias de escala (scaling) é feita na
Seção 7.6, e o Grupo de Renormalização é discutido nas Seções 7.7 a 7.9.

7.2 Thermodynamics of Phase Transitions


Nesta seção faremos uma descrição puramente termodinâmica, isto é, apenas em termos
de variáveis macroscópicas, deixando a descrição microscópica para as seções seguintes.

7.2.1 Phase Coexistence: Gibbs Phase Rule


O primeiro passo para compreender as mudanças de fase que ocorrem em um sistema é
mapear um diagrama de fases. A Fig. 7.1 mostra um diagrama de fases tı́pico para um
fluido – também chamado de sistema P V T ; as fases sólida (S), lı́quida (L) e gasosa (G)
ocorrem nas regiões assinaladas. Isto significa que se calculássemos a energia livre de
Gibbs admitindo o sistema em cada uma destas fases, GS , GL e GG , elas corresponderiam
a mı́nimos nas regiões S, L e G, respectivamente.
A Figura 7.1 mostra também diversas regiões onde ocorre coexistência de duas fases;
o termo vapor (V) é usado para descrever a fase gasosa quando esta coexiste com a fase
lı́quida ou sólida. Note que as três fases V, L e S coexistem na linha tripla, a qual,
quando projetada num diagrama P T , colapsa em um único ponto, o chamado ponto
triplo; ao projetar, o volume fica indeterminado. Logo, para um dado conjunto das
variáveis independentes, duas ou mais fases podem coexistir. A chamada regra de fases
de Gibbs fornece o número de fases que coexistem, baseada nas condições de equilı́brio.
Para um sistema P V T puro – isto é, composto de apenas um tipo de partı́culas – se
duas fases I e II coexistem, elas estão em equilı́brio térmico (TI = TII = T ), mecânico
(PI = PII = P ) e quı́mico:
µI (P, T ) = µII (P, T ). (7.2.1)
7.2. THERMODYNAMICS OF PHASE TRANSITIONS 145

Figure 7.1: Diagrama de fases tı́pico para um fluido puro, expresso em termos da pressão,
P , do volume, V , e da temperatura, T . As fases sólida, lı́quida e gasosa estão assinaladas,
bem como as regiões de coexistência de cada par destas fases. Note a presença de um
ponto crı́tico e de uma linha tripla, na qual as três fases coexistem em equilı́brio. Estão
também assinaladas as projeções do diagrama nos planos P T (esquerda) e P V (direita).

A Eq. (7.2.1) pode ser resolvida para P , fornecendo a curva de coexistência num diagrama
PT,
P = Pcoex. (T ). (7.2.2)
Se o sistema puro tem 3 fases, então

µI (P, T ) = µII (P, T ) = µIII (P, T ), (7.2.3)

e a coexistência entre elas só é possı́vel em apenas um ponto: o ponto triplo (o ponto
de interseção entre as duas curvas no diagrama projetado PT da Fig. 7.1). Para uma
mistura de ` tipos diferentes de partı́culas, há ` + 1 variáveis independentes para cada
fase, a saber, (P, T, x1 , . . . , x`−1 ), onde xi é a fração molar de partı́culas do tipo i. Uma
argumentação análoga à anterior pode ser usada para mostrar que, neste caso, ` + 2 fases
diferentes podem coexistir para T e P dados.

7.2.2 Classification of Phase Transitions


Considerando ainda um sistema P V T puro, a discussão acima não impõe quaisquer
restrições às derivadas de G com relação a T e a P . Assim, os comportamentos destas
derivadas são usados para classificar as transições de fase. Se S ≡ −(∂G/∂T )P,N ou
V ≡ (∂G/∂P )T,N são descontı́nuas no ponto de transição, esta é dita de primeira ordem.
146 CHAPTER 7. PHASE TRANSITIONS

Figure 7.3: Compor-


Figure 7.2: Comportamento tı́pico da energia livre de tamento tı́pico da en-
Gibbs e de suas derivadas numa transição de primeira ergia livre de Gibbs
ordem. e de suas derivadas
numa transição de se-
gunda ordem.

Já se S e V são contı́nuas na transição, mas suas derivadas de ordem mais alta são
descontı́nuas, a transição é chamada de contı́nua (ou de na. ordem).
A Fig. 7.2 mostra a energia livre de Gibbs, G, e suas derivadas para um sistema P V T ,
perto de uma transição de primeira ordem, isto é, perto de um ponto de coexistência de
fases. Note que, de acordo com a discussão da Sec. 2.8.3, G é uma função côncava de T e
de P . A descontinuidade em (∂G/∂P )T implica no volume ser diferente nas duas fases,
   
∂GII ∂GI
∆V = VII − VI = − ; (7.2.4)
∂P T ∂P T
analogamente, a descontinuidade em (∂G/∂T )P implica na entropia ser diferente nas
duas fases,     
∂GII ∂GI
∆S = SII − SI = − − . (7.2.5)
∂T V ∂T V
As descontinuidades se manifestam, respectivamente, no comportamento singular da
compressibilidade e na presença de calor latente. Este último é definido como a diferença
de entalpia nas duas fases,
∆H = ∆(G + T S) = T ∆S = HII − HI , (7.2.6)
onde a segunda igualdade decorre do fato da energia livre de Gibbs e a temperatura
serem as mesmas na transição.
7.2. THERMODYNAMICS OF PHASE TRANSITIONS 147

Mais ainda, as descontinuidades definem a forma da curva de coexistência. Como a


energia livre de Gibbs deve ser a mesma em fases coexistentes, se nos movermos para
um outro ponto ao longo da curva de coexistência, variando P e T , as energias livres
das duas fases devem variar igualmente, isto é,

dGI = dGII ⇒ VI dP − SI dT = VII dP − SII dT. (7.2.7)

Logo,  
dP ∆S ∆H
= = , (7.2.8)
dT coex ∆V T ∆V
que é a conhecida equação de Clausius-Clapeyron, onde
 ∆H
 é o calor
 absorvido para ir
∂GI ∂GII
da fase I para a fase II. Da Fig. 7.2(d) , vemos que ∂T > ∂T , de modo que

SI < SII ⇒ ∆S ≡ SII − SI > 0 ⇒ ∆H > 0, (7.2.9)

e o sistema absorve calor para ir da fase de baixa temperatura para a fase de alta
temperatura.
A Fig. 7.3(a) mostra a energia livre de Gibbs como função da temperatura na vizi-
nhança de uma transição de segunda ordem. Mesmo sendo contı́nua na transição, isto
é,    
∂G ∂G
SI = − = SII = − , (7.2.10)
∂T I ∂T II
sua derivada com relação à temperatura muda rapidamente, dando origem a um pico
acentuado no calor especı́fico [Fig. 7.3(b) e (c)]. Neste caso não há calor latente.
A situação é análoga para as derivadas com relação à pressão. O volume não é
descontı́nuo,    
∂G ∂G
VI = = VII = , (7.2.11)
∂P I ∂P II
mas a compressibilidade diverge em Tc , sinalizando a transição de fase.
Na próxima sub-seção analisaremos sistemas fluidos com mais detalhes.

7.2.3 Pure Fluid Systems


Quando um fluido (ou sistema P V T ) é composto de um único tipo de moléculas dizemos
que ele é puro. Como já vimos, sistemas deste tipo se apresentam em diversas fases –
sólida, lı́quida e gasosa – como resultado das interações entre as moléculas. As Figs. 7.4
e 7.5 mostram, respectivamente, as projeções do diagrama de fases nos planos P T e P V ,
como indicadas na Fig. 7.1.
O ponto C é um ponto crı́tico, onde termina a curva de pressão de vapor. A presença
de um ponto crı́tico indica que, escolhendo um caminho conveniente, pode-se mudar
continuamente lı́quido em gás (e vice-versa) sem passar por uma transição de fase; isto
é, o gás muito denso fica indistinguı́vel do lı́quido. O mesmo não ocorre na curva de
fusão, indicando que as diferenças entre sólido (S) e lı́quido (L) são muito maiores do que
entre lı́quidos e gases (G). Ao contrário destes, sólidos exibem ordenamento espacial.
148 CHAPTER 7. PHASE TRANSITIONS

Figure 7.4: Curvas de coexistência para


um sistema P V T tı́pico. A é o ponto Figure 7.5: Regiões de coexistência para
triplo e C é o ponto crı́tico. A curva um sistema P V T tı́pico. As transições
tracejada é um exemplo de curva de são todas de primeira ordem. As linhas
fusão com coeficiente angular negativo. tracejadas representam isotermas.

Figure 7.6: Critical opalescence. A laser beam shining through a test tube becomes
more and more scattered and the fluid becomes more and more opaque, as the crit-
ical point is approached from higher temperatures. From https://inspirehep.net/
record/838172/plots. Or from clique aqui

As transições G-L, L-S e G-S são todas de 1a. ordem, e são acompanhadas de calor
latente e mudança de volume. A Fig. 7.5 mostra o diagrama de fases no plano P -V .
Note que os coeficientes angulares das isotermas (linhas tracejadas) são negativos, de
acordo com a condição de estabilidade KT > 0 [c.f. Eq. (2.8.11)]. As linhas cheias
delimitam regiões de coexistência de fases, nas quais as isotermas são sempre horizontais
(KT = ∞) indicando que há mudança de volume para P e T constantes. A divergência
na compressibilidade está associada a flutuações de densidade, fazendo com que luz
visı́vel sofra um forte espalhamento ao passar por um fluido na temperatura crı́tica da
transição G-L; este fenômeno é conhecido como opalescência crı́tica (veja a Figura 7.6
e Stanley, Seções 1.1, 7.2 e 7.3).
Analisemos agora a transição lı́quido-gás com mais detalhes. Ao contrário das dis-
cussões anteriores, usaremos a densidade ρ que, por ser intensiva, é mais apropriada
do que o volume V ∼ ρ−1 . Note, primeiramente, que lı́quido e gás são indistinguı́veis
no ponto crı́tico, caracterizado por Tc e pela densidade crı́tica, ρc . Podemos expressar
7.2. THERMODYNAMICS OF PHASE TRANSITIONS 149

este fato dizendo que as respectivas densidades se igualam neste ponto: ρL = ρG = ρc .


Como os valores de Tc e de ρc dependem da substância em estudo, é mais conveniente
introduzirmos as grandezas reduzidas T /Tc e ρ/ρc , que medem a distância do ponto
crı́tico para cada substância. A Fig. 7.7 mostra os resultados experimentais das curvas
de coexistência obtidos por E. A. Guggenheim (J. Chem. Phys. 13, 253 (1945)) para
diversas substâncias; veja também a Tabela 3.5 do livro do Stanley para os valores dos
parâmetros crı́ticos. Os dados colapsam em uma única curva, satisfazendo a lei dos
estados correspondentes, segundo a qual todos os fluidos clássicos puros satisfazem a
mesma equação de estado, quando expressa em termos de quantidades reduzidas. Em
particular, temos
T β
 
7
ρL − ρG = ρc 1 − , (7.2.12)
2 Tc
onde
β = 1/3 (7.2.13)
é um expoente crı́tico; outros destes expoentes serão introduzidos ao longo da Seção 7.3.
Eles desempenham um papel fundamental no estudo de transições de fase, pois definem
as chamadas classes de universalidade: as transições de fase podem ser agrupadas de
acordo com os valores destes expoentes. A diferença ∆ρ ≡ ρL −ρG , por ser nula acima da
transição e crescer até um valor de saturação à medida em que a temperatura diminui, é
chamada de parâmetro de ordem da transição. Como ∆ρ cresce continuamente de zero,
a transição no ponto C é de segunda ordem.
Outras grandezas, como, por exemplo, o calor especı́fico a volume constante dentro
da região de coexistência, podem ser obtidas através da equação de Clausius-Clapeyron;
veja Reichl, seção 4.D.3. A descontinuidade da entropia na transição se manifesta pelo
calor especı́fico a pressão constante ser infinito na região de coexistência.
Vejamos agora como a discussão sobre fluidos é modificada no caso magnético.

7.2.4 Magnetic Systems


Como vimos anteriormente, a analogia entre fluidos e magnetos é feita a partir da
seguinte associação:
− P → H V → M T → T. (7.2.14)
A Fig. 7.8 mostra o análogo das Figs. 7.4, 7.5, e 7.7 para um magneto simples. As
fases que coexistem correspondem a spins ‘para cima’ e ‘para baixo’ (com relação a uma
certa direção espacial), que são estabilizadas pelo campo H. Ou seja, imaginando-se
uma experiência em que o sistema seja resfriado a campo nulo, ele sofrerá uma transição
em Tc , mas não haverá uma magnetização resultante. Isto porque diferentes regiões
macroscópicas (porém ainda muito menores que o tamanho da amostra) terão magne-
tizações em diferentes sentidos que se cancelam em média. Na Fig. 7.8 (c), a curva da
magnetização com H = 0 só será realizada experimentalmente se o resfriamento fôr feito
em presença de um campo infinitesimal; isto é, a rigor devemos ter H = 0± . Note
também que as transições para a fase sólida, no caso do fluido, não têm correspondente
nos casos magnéticos mais simples.
150 CHAPTER 7. PHASE TRANSITIONS

Figure 7.7: Curva experimental de coexistência lı́quido-vapor para diferentes substâncias.

Sob o ponto de vista microscópico, os sistemas magnéticos são muito mais simples
de serem estudados, já que, em geral, parte-se de uma Hamiltoniana. As Hamiltonianas
magnéticas mais representativas são as seguintes:
X
Ising: H = −J Siz Sjz (7.2.15)
hi,ji

(Six Sjx + Siy Sjy )


X
XY: H = −J (7.2.16)
hi,ji
X
Heisenberg: H = −J Si · Sj (7.2.17)
hi,ji

onde os J representam as integrais de exchange, hiji indica que as somas são sobre sı́tios
primeiros vizinhos em uma rede d-dimensional, e os S são os operadores usuais de spin-S.
Se J > 0, o estado fundamental dos modelos acima é ferromagnético, correspondendo a
spins alinhados paralelamente entre si.
Deve-se notar aqui que o modelo de Ising é invariante por uma rotação de π em
todos os spins; isto é, através da transformação discreta Siz ↔ −Siz , ∀i, a Hamiltoniana
não se altera. Já os modelos de Heisenberg e XY, por conterem produtos escalares, são
invariantes por rotações contı́nuas, ou por qualquer ângulo. Como veremos no decorrer
do capı́tulo, esta diferença se manifesta em diversas propriedades dos modelos.
A partir de uma Hamiltoniana microscópica, diversas aproximações podem ser feitas
7.2. THERMODYNAMICS OF PHASE TRANSITIONS 151

Figure 7.8: Projeções do diagrama de fases para um sistema magnético nos planos H-T
(a), H-M (b), e M -T . A seta tracejada em (a) representa o caminho termodinâmico
que leva continuamente uma fase na outra.

de modo sistemático. No caso de fluidos, as interações são mais difı́ceis de serem incor-
poradas, o que explica o fato dos avanços conseguidos no estudo de transições de fase
nos últimos anos ter sido baseado, em grande parte, em sistemas magnéticos.

7.2.5 Percolation
Let us now discuss a purely geometrical problem: consider a d-dimensional (d > 1)
lattice of linear size L, in which only a fraction, p, of the sites are randomly occupied;
that is, p = Nocc /Ntotal , where Nocc is the number of occupied sites, and Ntotal is the
total number of sites. If p  1, there is no way the lattice can be spanned from one
edge to another1 by a path made up of occupied nearest-neighbour sites. In the opposite
limit, p ≈ 1, one can certainly go from one edge to another, and one says the occupied
sites percolate.2 Therefore, there must exist a critical concentration, pc , separating two
regimes: one, for p < pc , in which an arbitrary number of finite clusters of nearest
neighbour occupied sites are formed; and another, for p > pc , in which there is at least
one ‘infinite cluster’, by which one means a cluster of typical size ∼ L  a, where a
is the nearest-neighbour distance. Figure 7.9 illustrates these two regimes on a square
lattice.
We can then devise several cluster properties which bear the signature of pc . One
important quantity is P (p), the probability that an occupied site belongs to the infinite
spanning cluster [10]: it is zero for p < pc , since there is no spanning cluster, and it grows
from 0 to 1, as p grows from pc to 1; see Fig. 7.10. The similarity with the temperature
behaviour of both the magnetisation in magnetic systems, and the density difference in
the case of fluids should be evident: P (p) therefore plays the role of an order parameter
for this phase transition. The lack of a discontinuity in P (p) indicates that the transition
is of second order, or continuous.
1
This applies to a lattice with free boundaries; for a lattice with periodic boundary conditions, this
is understood as the completion of one ‘turn’ around the lattice.
2
When water is poured onto a heap of ground coffee it wets the grains in such way that holes of
dried regions are hardly formed; the liquid thus obtained is percolated coffee.
152 CHAPTER 7. PHASE TRANSITIONS

Figure 7.9: Site percolation. Computer-generated square lattice with 60×50 sites, for two
different concentrations of occupied sites (denoted by ∗; unoccupied sites are not shown):
p = 0.5 on the left panel, and p = 0.6 on the right panel. Some clusters of occupied
sites are highlighted by lines joining nearest-neighbour sites. The percolation threshold
is pc = 0.5928, and we see that for p < pc the two largest clusters are highlighted, none
of which spans the whole lattice. By contrast, for p > pc a single cluster (the highlighted
one) spans the whole lattice. (Figure taken from Ref. [10].)

In order to complete the analogy with thermal phase transitions, we may introduce
in percolation problems the analogue of the magnetic field and of the pressure. Imagine
a ‘ghost site’, lying outside the lattice, so that each lattice site has a probability h of
being connected to it, and 1 − h of not being connected to it; see Fig. 7.11. Then, if
h 6= 0, the connectivity of the lattice is enhanced since even sites far apart from each
other may become connected; for h ≈ 1 all occupied sites are connected, thus forming
a spanning cluster. This is similar to the effect a magnetic field has in an interacting
spin system: it helps the spins to become ordered. By the same token, applying pressure
to a gas brings the molecules together, favouring the formation of a liquid state. The
analogy between fluids, magnets and percolation can then be read as

− P → H → h, V → M → P, T → T → (1 − p). (7.2.18)

Instead of sites randomly occupying a lattice, one may think of a concentration p


of bonds being randomly attached to nearest-neighbour sites (all of which are assumed
occupied): this is now the bond-percolation problem, to distinguish from the previous
site-percolation problem; the above analogy with fluids and magnets is preserved. Fur-
ther, if these bonds are resistors one may then study the conductance of this random
resistor network as a function of p; see, e.g. Ref. [10]. One may also consider the situation
in which each site is occupied either by a magnetic atom (that is, an atom with a total
angular momentum S 6= 0) or by a non-magnetic atom (S = 0). In this situation, if all
neighbouring magnetic atoms are exchange-coupled, the percolating cluster for p > pc
will be magnetically ordered at temperatures T ≤ Tc (p), such that Tc (1) is the critical
temperature for the clean magnetic system; for reviews, see, e.g. Refs. [11, 12].
7.3. MEAN-FIELD THEORIES 153

Figure 7.10: Schematic plot of P (p), the


probability that a site taken at random Figure 7.11: The ‘ghost-site’ is a site out-
belongs to the percolating cluster. P (p) side the lattice, which has a probability h
plays the role of an order parameter for of being connected to a given site.
the percolation phase transition.

7.3 Mean-Field Theories


Nesta seção veremos uma classe de teorias (ou aproximações) bastante simples, utilizadas
para descrever transições de fase. Apesar de aparentemente diferentes, todas têm em
comum o fato de não tratarem as flutuações de modo adequado; as conseqüências deste
fato serão discutidas na Seção 7.5.

7.3.1 The van der Waals equation


Na Sub-seção 6.2.3, a equação de van der Waals foi deduzida no contexto da expansão do
virial. Alternativamente, ela pode ser obtida da seguinte maneira (veja, p.ex., F. Reif,
Fundamentals of Statistical and Thermal Physics). Suponha que, ao invés de tratar a
interação entre pares de partı́culas, cada uma se movimente independentemente em um
potencial efetivo devido a todas as outras:
(
∞ se r < 2r0
U (r) = (7.3.1)
Ū se r ≥ 2r0 ,

onde Ū < 0 é uma grandeza a ser determinada; deve-se notar que, neste caso, trata-
se de um potencial de alcance infinito. Para estimar Ū notemos, primeiramente, que a
energia potencial total do sistema é N Ū , resultante da interação entre 21 N (N −1) ' 21 N 2
pares, cada um dos quais contribuindo com ū0 . Esta pode ser tomada como uma média
(esférica) da parte atrativa do potencial intermolecular, u(r), sobre o volume do sistema,

R
1 2a
Z
ū0 = 4πr2 dr u(r) ≡ − , (7.3.2)
V 2r0 V
154 CHAPTER 7. PHASE TRANSITIONS

o que define a constante a, e onde supusemos que u(r) decaia a zero rapidamente quando
r → R ∼ V 1/3 . Dado que N Ū = N 2 ū0 , devemos ter, portanto,

1 N
Ū = N ū0 = −a , (7.3.3)
2 V
mostrando que Ū é intensiva.
A função de partição fica, então,

1 V − V0 βaN/V N
 
1 N
ZN = Z = e , (7.3.4)
N! 1 N! Λ3

onde V0 é o volume excluı́do, por molécula, devido ao carôço duro. Como o volume
excluı́do por par é 34 π(2r0 )3 ≡ 2b [veja Eq. (6.2.47)], devemos ter

V0 = bN. (7.3.5)

Finalmente, a pressão é calculada da maneira usual, recuperando a equação de van


der Waals,
N 2a
 
P + 2 (V − N b) = N kB T. (7.3.6)
V
Introduzindo o número de moles ν ≡ N/NA , onde NA é o número de Avogadro, e
a constante dos gases R = kNA , a Eq. (7.3.6) pode ser reescrita, em termos do volume
molar ṽ ≡ V /ν, como  a
P + 2 (ṽ − b) = RT, (7.3.7)

ou, ainda, como uma equação cúbica em ṽ,
 
3 RT a ab
ṽ − b + ṽ 2 + ṽ − = 0. (7.3.8)
P P P

A Fig. 7.12 mostra uma isoterma obtida a partir da equação de van der Waals; veja
também a Fig. 7.5. A temperaturas suficientemente baixas, a equação cúbica admite
três soluções reais para ṽ. À medida em que T cresce, estas três soluções se aproximam
até coincidirem em Tc . Para T > Tc existe apenas uma raiz real que, para T → ∞,
corresponde à solução do gás ideal.
Um aspecto insatisfatório da equação de van der Waals é a previsão de um coefi-
ciente angular, (∂P/∂ṽ)T , positivo no trecho DF da Fig. 7.12, pois isto implica em uma
compressibilidade negativa. De acordo com a discussão da Seção 2.8, os estados corres-
pondentes são termodinâmicamente instáveis por corresponderem a uma energia livre
de Gibbs convexa. Esta região não-fı́sica pode ser removida pela chamada construção de
Maxwell. Para isto, lembremos que, numa isoterma, a variação na energia livre molar
de um sistema quimicamente isolado é dada por

dg̃ = ṽ dP, (7.3.9)


7.3. MEAN-FIELD THEORIES 155

Figure 7.12: Isoterma tı́pica do gás Figure 7.13: Energia livre molar como
de van der Waals. O trecho DF função da pressão para a isoterma com
corresponde a estados mecanicamente T < Tc . Os pontos assinalados aqui co-
instáveis. A área sob a curva ṽ(P ), incidem com os da Fig. 7.12.
entre dois pontos quaisquer, é igual à
diferença entre as energias livres mo-
lares nos respectivos pontos.

de modo que a diferença em energias livres de dois pontos quaisquer 1 e 2 é dada pela
área da curva ṽ(P ) entre eles, ou

Z P2
g̃2 − g̃1 = ṽ(P ) dP. (7.3.10)
P1

Com isto, a energia livre molar ao longo do trecho AI da Fig. 7.12 é apresentada
na Fig. 7.13. Entre D e F os estados são instáveis porque a energia livre aparece como
uma função convexa de P e não é mı́nima; nos outros trechos a concavidade garante a
estabilidade. Todavia, para garantir que a evolução de A até I na Fig. 7.12 se faça por
estados de energia livre mı́nima, devemos descartar os estados que vão de C a G. Isto
é feito impondo que a energia livre permaneça constante entre C e G, o que equivale a
traçar uma reta vertical na Fig. 7.12 unindo C a G. Assim, a variação de energia livre
entre estes dois pontos é nula, de modo que

Z PG
0= dP ṽ(P ) =
PC
Z PD Z PE Z PF Z PG
= dP ṽ(P ) + dP ṽ(P ) + dP ṽ(P ) + dP ṽ(P ), (7.3.11)
PC PD PE PF
156 CHAPTER 7. PHASE TRANSITIONS

ou, rearranjando os limites de integração,


Z PD Z PD Z PE Z PG
dP ṽ(P ) − dP ṽ(P ) = dP ṽ(P ) − dP ṽ(P ). (7.3.12)
PC PE PF PF

Cada lado da equação corresponde a uma das áreas hachuradas na Fig. 7.12, indicando
que a reta vertical é traçada de modo a fazer com que aquelas áreas sejam iguais.
Os estados descartados, para os quais a energia livre ainda é côncava, são ditos
metaestáveis. Note que o trecho vertical corresponde a uma compressibilidade infinita,
o que está de acordo com o comportamento na região de coexistência. A construção
de Maxwell é utilizada em outros contextos, quando alguma aproximação dá origem a
energias livres com convexidade insatisfatória.
Examinemos agora o comportamento da equação de van der Waals perto do ponto
crı́tico, o qual é localizado como sendo o ponto onde o coeficiente angular da isoterma
crı́tica é infinito, e por ser também um ponto de inflexão. Ou seja,

∂2P
   
∂P
=0 e = 0. (7.3.13)
∂ṽ Tc ∂ṽ 2 Tc

Assim,
a 8a
Pc = , ṽc = 3b e Tc = . (7.3.14)
27b2 27bR
Introduzindo as variáveis P̄ ≡ P/Pc , T̄ ≡ T /Tc e V̄ ≡ ṽ/ṽc , a equação de van der Waals
satisfaz uma lei de estados correspondentes,
 
3
P̄ + 2 (3V̄ − 1) = 8T̄ (7.3.15)

cujo significado fı́sico foi discutido em detalhes na Sub-seção 7.2.3.


Na vizinhança do ponto crı́tico de segunda ordem, diversas grandezas apresentam
comportamentos singulares, caracterizados pelos chamados expoentes crı́ticos. Por e-
xemplo, introduzindo as notações ∆ρ ≡ ρL −ρG , de acordo com a discussão da Sub-seção
7.2.3, e ε ≡ (T /Tc ) − 1, temos
∆ρ ∼ (−ε)β . (7.3.16)

A partir da equação de van der Waals, obtém-se (veja o Exercı́cio 2) β = 1/2, que é
diferente do resultado experimental, β ' 1/3, para fluidos reais.
A compressibilidade isotérmica, na vizinhança do ponto crı́tico é dada por
( 0
(−ε)−γ , se T < Tc
KT ∼ (7.3.17)
ε−γ , se T > Tc ,

com γ = γ 0 = 1 pela teoria de van der Waals, enquanto que experimentalmente tem-se
γ ' γ 0 ∼ 1.2.
7.3. MEAN-FIELD THEORIES 157

CV / NkB

3/2

T
Figure 7.14: Calor especı́fico a volume constante como função da temperatura (es-
quemático), conforme previsão da teoria de van der Waals. Note que, para T > Tc ,
o calor especı́fico é igual ao do gás ideal.

Experimentalmente, o calor especı́fico também apresenta um comportamento singu-


lar,
( 0
(−ε)−α se T < Tc
CV ∼ (7.3.18)
ε−α se T > Tc ,

com α ' α0 ∼ 0.1 − 0.3. No entanto, a teoria de van der Waals fornece uma descon-
tinuidade (Fig. 7.14), e não uma divergência. Em termos de expoentes, a descontinuidade
é representada por α0 = α = 0(desc.). O comportamento do calor especı́fico a pressão
constante é semelhante ao da compressibilidade.
O expoente δ descreve a variação da pressão com a densidade ao longo da isoterma
crı́tica:
δ
P − Pc ρ
∼± −1 , (7.3.19)
Pc ρc
onde o sinal ± indica ρ maior ou menor que ρc . Pela equação de van der Waals, δ = 3,
enquanto que, experimentalmente, δ ∼ 4.
Podemos definir outros expoentes associados à função de correlação densidade-densi-
dade, Γ(r). Como a discussão é muito extensa (veja Stanley, Cap. 7), só mencionaremos
aqui que, perto de Tc , as correlações decaem exponencialmente com a distância,

Γ(r) ≡ hn(r)n(r0 )i − hn(r)ihn(r0 )i ∼ e−r/ξ(T ) , (7.3.20)

onde n(r) é a densidade no ponto r. O alcance de Γ define um comprimento caracterı́stico


ξ(T ), tal que
( 0
(−ε)−ν se T < Tc
ξ∼ (7.3.21)
εν se T > Tc .
158 CHAPTER 7. PHASE TRANSITIONS

Exatamente no ponto crı́tico, as correlações decaem algebricamente com a distância,


1
Γ(r) ∼ , (7.3.22)
rd−2+η
definindo o expoente η. O tratamento destas correlações, no espı́rito da teoria de van
der Waals, é conhecido como a teoria de Ornstein-Zernicke, a qual fornece ν 0 = ν = 1/2
e η = 0. Há poucas estimativas experimentais para estes expoentes no caso de fluidos,
ao contrário do caso magnético.
Em resumo, a teoria de van der Waals pode ser pensada como uma teoria de campo
médio, em que a interação entre as partı́culas é substituı́da por uma interação efetiva de
alcance infinito. Apesar de drástica, esta aproximação reproduz satisfatoriamente alguns
aspectos qualitativos da transição lı́quido-gás, como a lei de estados correspondentes, o
comportamento singular de diversas grandezas, e a universalidade dos expoentes.3 A
igualdade entre expoentes acima e abaixo da transição é confirmada tanto pela teoria de
scaling (Seção 7.6), quanto pela maioria dos resultados experimentais, de modo que não
mais faremos distinção entre eles. Quantitativamente, todavia, os valores dos expoentes
obtidos nas teorias de campo médio, não concordam com os resultados experimentais;
as razões serão explicitadas na Seção 7.5.

7.3.2 Weiss Theory


A Teoria de Weiss do campo molecular foi proposta em 1907 para descrever o magnetismo
devido a spins localizados, antes mesmo de Heisenberg propor a interação de exchange
como o mecanismo responsável pelo comportamento cooperativo nestes sistemas.
Comecemos nossa discussão tendo em mente um modelo simplificado, o chamado
modelo de Ising de spin-1/2, definido em (7.2.15) e que já foi objeto de estudo na Seção
6.4.6. A Hamiltoniana é dada por
X X
H = −J σiz szj − H σiz , (7.3.23)
hi,ji i

onde a constante de acoplamento J é suposta homogênea, a primeira soma se estende a


pares de z sı́tios primeiros vizinhos de uma rede d-dimensional, os σ z são as matrizes de
Pauli, e H é um campo externo; note that the physical constants have been incorporated
into J and H, which now Q have dimensions of energy. Claramente H é diagonal numa
base de autoestados de N i σ z , onde N é o número de sı́tios. Logo, podemos substituir
i
os operadores que aparecem em (7.3.23) por autovalores, σ = ±1.
O espı́rito da teoria de Weiss é o mesmo da teoria de van der Waals, discutida na
Sub-seção 7.3.1: substitui-se a interação entre pares por uma interação efetiva. No caso
presente, o alcance é tomado como o mesmo da interação original, restrita a primeiros
vizinhos. Pode-se mostrar, todavia, que se cada spin interagisse com todos os demais –
isto é, se a soma em (7.3.23) se estendesse a todos os pares de spins, a solução de Weiss
3
Note que as constantes de proporcionalidade, omitidas nas definições dos expoentes, não são uni-
versais.
7.3. MEAN-FIELD THEORIES 159

seria exata, e não uma aproximação como no caso de alcance restrito; veja, por exemplo,
Stanley, Seção 6.5.
Assim, a hipótese de Weiss consiste em supor que cada spin sente, além do campo
aplicado H, um campo médio proporcional à magnetização de seus primeiros vizinhos.
H é então substituı́da por X
HW = − Hi σi , (7.3.24)
i

onde o campo efetivo no sı́tio i, dado por


X
Hi = Jhσj i + H, (7.3.25)
j

deve ser determinado autoconsistentemente. Em (7.3.25) a soma sobre os sı́tios j se


restringe aos z primeiros vizinhos de i; z é conhecido como o número de coordenação
da rede. Note que, de acordo com a hipótese de Weiss, todos os spins apresentariam
um comportamento igual ao da média. HW tem agora a forma de uma Hamiltoniana de
spins independentes, e o tratamento é semelhante ao do paramagnetismo, discutido na
Seção 3.3.
Se o sistema é homogêneo, devemos esperar que a magnetização média independa do
sı́tio considerado, ou hσj i = hσi, ∀j, e

1
Hi = zJhσi + H ≡ H.
e (7.3.26)
2
A função de partição fica
e e e N ≡ (Z1 )N ,
ZW = Tr e−βHW = (eβ H + e−β H )N = (2 cosh β H) (7.3.27)

a partir da qual a energia livre de Gibbs é calculada:

G = −N kB T ln Z1 . (7.3.28)

A magnetização espontânea (i.e., H = 0) é dada sob a forma de uma equação auto-


consistente,  
1 ∂G zJhσi
hσi = − = tanh , (7.3.29)
N ∂H 2kB T
que pode ser resolvida graficamente. Chamemos y ≡ hσi e x ≡ tanh(zJhσi/2kB T ). Para
cada T , hσi é determinado como a interseção y = x, como indica a Fig. 7.15. Note que
para temperaturas muito altas, a derivada de x com relação a hσi na origem é menor que
a de y, que é 1. Como resultado, x fica sempre abaixo de y, e a única solução corresponde
a hσi = 0: é a fase paramagnética. À medida em que a temperatura diminui, a derivada
de x na origem aumenta até que se igualem a uma certa temperatura,

zJ
kB Tc = . (7.3.30)
2
160 CHAPTER 7. PHASE TRANSITIONS

1.5
T > Tc
T = Tc
< >
T < Tc

tanh [< >Tc /T]


1.0

0.5

0.0
0.0 0.5 1.0 1.5
< >

Figure 7.15: Solução gráfica da Eq. (7.3.29). O lado direito da equação é mostrado para
diversas temperaturas. Tc é obtida quando as derivadas de ambos os lados da equação
se igualam.

Abaixo de Tc , aparece uma solução com hσi =6 0; é fácil ver graficamente que hσi cresce
à medida em que T decresce. O comportamento de hσi é, então, semelhante ao que
aparece na Fig. 7.8(c), desempenhando o papel de parâmetro de ordem da transição.
Deve-se frisar que para certos sistemas magnéticos (como os chamados vidros de spin)
o parâmetro de ordem não é a magnetização; na Sub-seção 7.3.3 mencionaremos outros
aspectos dos parâmetros de ordem.
A estimativa de Tc obtida na teoria de Weiss merece alguns comentários. Em primeiro
lugar, ela corresponde, essencialmente, à energia térmica necessária para contrabalançar
a energia magnética de um par de spins paralelos. Em segundo lugar, a dimensão da rede
aparece apenas no número de coordenação: a aproximação não distingue, por exemplo,
a rede triangular da rede cúbica simples, ambas com z = 6. Ela também prevê uma
transição de fase a uma temperatura não-nula para o modelo em uma dimensão que,
como veremos na Seção 7.4, é errado. Finalmente, o crescimento da temperatura crı́tica
com o número de coordenação é razoável, já que quanto maior fôr z, mais robusto é
o estado ordenado, necessitando de mais energia térmica para desordenar um estado
alinhado.
Para calcular o expoente β associado à magnetização , notemos que, perto de Tc , hσi
é pequeno; logo,
"  2 #
zJhσi 1 zJ
hσi ' 1− hσi , (7.3.31)
2kB T 3 2kB T

que, usando (7.3.30), nos dá



Tc − T

hσi ' , (7.3.32)
Tc
7.3. MEAN-FIELD THEORIES 161

com
1
β= , (7.3.33)
2
idêntico ao fornecido pela teoria de van der Waals para fluidos.
Outros expoentes crı́ticos podem ser definidos no caso magnético, em analogia aos
da Sub-seção 7.3.1. Abaixo citamos também os resultados para estes expoentes, obtidos
pela teoria de Weiss, cujos cálculos explı́citos são pedidos no Exercı́cio 3. Assim, na
isoterma crı́tica temos
hσ z i ∼ H 1/δ , δ = 3, (7.3.34)
onde H é agora um campo aplicado. Para o calor especı́fico a campo constante,

CH ∼ |T − Tc |−α , α = 0(desc.), (7.3.35)

e para a suscetibilidade,
χ ∼ |T − Tc |−γ γ=1 (7.3.36)
Há outra grandeza que não decorre da energia livre diretamente, mas que é muito
importante: a função de correlação entre as flutuações do parâmetro de ordem,

Γ(r) ≡ h[σ0 − hσ0 i][σr − hσr i]i = hσ0 σr i − hσ0 ihσr i, (7.3.37)

que mede o grau de influência entre spins afastados de uma distância r, e desempenha um
papel análogo à função de correlação densidade-densidade nos sistemas fluidos. Assim,
seu comportamento assintótico (isto é, para distâncias muito maiores que o parâmetro
de rede e perto da temperatura crı́tica) é

Γ(r) ∼ e−r/ξ , (7.3.38)

onde
ξ ∼ |T − Tc |−ν (7.3.39)
é o comprimento de correlação, que mede o alcance das correlações e ν é um outro
expoente crı́tico.
Na transição, o decaimento de Γ(r) é mais lento:
1
Γ(r) ∼ , T = Tc , (7.3.40)
rd−2+η
onde d é a dimensão da rede e η é mais um expoente crı́tico.
Como no limr→∞ Γ(r) = 0, o parâmetro de ordem pode ser calculado como

hσi2 = lim hσ0 σr i, (7.3.41)


r→∞

de modo que se hσi2 6= 0 dizemos que o sistema apresenta ordem de longo alcance.
Por corresponder, essencialmente, a um sistema de spins não-interagentes, a aproxi-
mação de campo médio despreza as correlações; isto é,

hσo σr i = hσ0 ihσr i, (7.3.42)


162 CHAPTER 7. PHASE TRANSITIONS

de modo que não há flutuações entre correlações. Nisto reside uma das falhas da Teoria
de Weiss, cujas conseqüências serão exploradas na Seção 7.5.
Mesmo assim, usando-se o fato de que a teoria de Weiss fornece os mesmos expoentes
que a de van der Waals, podemos invocar a aproximação de Ornstein-Zernicke (veja
Stanley, Cap. 7), para citar os valores de ν e de η:

ν = 1/2 η = 0. (7.3.43)

7.3.3 Landau Theory


Um aspecto de transições de fase que aparece implicitamente nas discussões anteriores
é que, em geral, o aparecimento de um parâmetro de ordem está ligado à quebra de
alguma simetria. Isto é, a fase de baixa temperatura (ordenada) tem uma simetria menor
que a fase de alta temperatura. Por exemplo, um sólido é invariante por translações
discretas, enquanto que um gás ou um lı́quido são invariantes pelo conjunto mais amplo
das translações contı́nuas. Em alguns magnetos a simetria global (contı́nua) de rotação
da fase de altas temperaturas é quebrada pelo aparecimento de uma magnetização que
privilegia uma direção espacial. Em outros magnetos, nos quais a direção está definida,
mas não o sentido, a simetria global (discreta) de inversão dos spins é quebrada pela
escolha de um dos sentidos a baixas temperaturas. Estes dois exemplos magnéticos
ilustram casos em que o parâmetro de ordem é um vetor de três componentes e de uma
componente, respectivamente. Pensaremos num parâmetro de ordem como um vetor de
n componentes; algumas transições são descritas por parâmetros de ordem tensoriais,
mas não serão abordadas aqui.
A teoria de Landau parte desta idéia de quebra de simetria para fazer uma descrição
semi-fenomenológica da transição. Ao contrário da teoria de Weiss, a formulação de
Landau não pressupõe o conhecimento de uma Hamiltoniana, mas enfatiza o papel da
simetria que é quebrada.
Consideremos, por simplicidade, um parâmetro de ordem escalar, φ; este pode ser a
diferença entre densidades em sistemas fluidos ou a magnetização em sistemas magnéticos
do tipo Ising. A hipótese de Landau consiste em supor que, perto da transição, a energia
livre de Helmholtz possa ser expandida da seguinte forma:

A(T, φ) = A0 (T ) + α2 (T ) φ2 + α4 (T ) φ4 + · · · , (7.3.44)

onde supusemos que os coeficientes das potências ı́mpares se anulem por simetria; isto
é óbvio para sistemas magnéticos, pois estados com magnetizações φ e −φ devem ser
equivalentes, possuindo a mesma energia livre. Os coeficientes α2 e α4 são escolhidos
de modo a satisfazer certas condições que dependem de diversos fatores, como a ordem
da transição. Para transições de segunda ordem suporemos, primeiramente, α4 > 0 para
garantir a convexidade de A na região φ ∼ 1; veja a Fig. 7.16. Se α4 pudesse ser negativo,
terı́amos que manter termos até φ6 na expansão (7.3.44), com α6 > 0; veja o Exercı́cio 5.
Em segundo lugar, α2 deve ser tal que, para T > Tc apenas a solução φ ≡ 0 represente
um mı́nimo de A; para T < Tc a solução mais estável deve corresponder a φ 6= 0, e que
7.3. MEAN-FIELD THEORIES 163

Figure 7.16: Energia livre de Helmholtz (ou de Gibbs) como função do parâmetro de
ordem: (a) acima de Tc ; (b) abaixo de Tc .

cresça continuamente quando T decresce a partir de Tc . Assim, a condição de mı́nimo


de A fica
∂A 
= 2α2 (T ) + 4α4 (T )φ2 φ = 0,

(7.3.45)
∂φ
que tem como soluções s
1 α2 (T )
φ=0 ou φ = ± − . (7.3.46)
2 α4 (T )
Se escolhermos α2 > 0 para T > Tc , a segunda solução é imaginária e, portanto,
não-fı́sica. Por outro lado, tomando α2 < 0 para T < Tc , a segunda raiz corresponde às
duas soluções simétricas para o parâmetro de ordem na fase ordenada. Como a transição
é contı́nua, devemos ter α2 (Tc ) = 0. Logo, podemos supor que

α2 (T ) = α0 (T − Tc ), (7.3.47)

onde α0 é uma constante. Supondo ainda que perto de Tc a dependência de α4 com T


seja lenta, e usando (7.3.46) e (7.3.47), podemos escrever

φ(T ) ∼ (Tc − T )β , com β = 1/2. (7.3.48)

Deve-se notar que este resultado para o expoente crı́tico β, associado ao comportamento
do parâmetro de ordem, é idêntico ao das teorias de Weiss e de van der Waals.
Assim, a expansão para a energia livre fica
(
A0 (T ) se T > Tc
A(T, φ) = 2 2
(7.3.49)
A0 (T ) − (α0 /4α4 )(T − Tc ) se T < Tc ,

de onde calculamos o calor especı́fico como C = −T (∂ 2 A/∂T 2 ); este apresenta uma


descontinuidade dada por
α2
∆C = Tc 0 , (7.3.50)
2α4
164 CHAPTER 7. PHASE TRANSITIONS

ou α = 0(desc.), como nas teorias de campo médio anteriores.


Para calcular outros expoentes, pensemos em um sistema magnético. O campo
magnético é dado por uma das relações de Maxwell,
 
∂A
H= , (7.3.51)
∂φ T
ou,
H ' 2α2 (T ) φ + 4α4 (T ) φ3 . (7.3.52)
A suscetibilidade pode ser calculada por
−1
∂2A
  
∂φ
χT = = , (7.3.53)
∂H T ∂φ2 T

que, até ordem mais baixa em φ na Eq. (7.3.52), nos dá


1
χT ' , (7.3.54)
2α2
ou γ = 1, como anteriormente. Se fizermos agora T = Tc , a Eq. (7.3.52) fornece o
expoente δ = 3.
A teoria de Landau nos dá, como esperado, os mesmos expoentes das teorias de van
der Waals e de Weiss. Aqui, também, as flutuações no parâmetro de ordem não são
incorporadas corretamente. Pode-se criticar esta teoria porque sabemos a priori que a
energia livre não é uma função analı́tica do parâmetro de ordem, mas a expectativa é
de que as singularidades se manifestem em termos de ordem mais alta; veja Stanley,
Cap. 10 para uma análise mais detalhada da teoria de Landau.
Veremos agora a solução exata de um modelo uni-dimensional que é bastante ilus-
trativa e evidencia a dificuldade das teorias de campo médio para descrever sistemas de
baixa dimensionalidade. Na Seção 7.5, retornaremos às teorias de campo médio.

7.4 Exact Solution for the One-dimensional Ising Model


Considere uma cadeia linear com condições de contorno periódicas; isto é, σNz z
+1 = σ1 .
O sistema pode então ser pensado como um anel; veja a Fig. 7.17. Admitindo que cada
sı́tio esteja ocupado por um spin- 12 , a Hamiltoniana de Ising em presença de um campo
externo é dada por
XN X
H = −J σiz σi+1
z
−H σiz . (7.4.1)
i=1 i

Para calcular a função de partição tomemos por base o conjunto de autoestados em


que σiz é diagonal, σiz |σi i = σi |σi i. Isto permite substituir os operadores em (7.4.1) por
seus autovalores σi = ±1: XY
Z= eKσi σi+1 +Bσi , (7.4.2)
{σi } i
7.4. EXACT SOLUTION FOR THE ONE-DIMENSIONAL ISING MODEL 165

com K ≡ J/kB T e B ≡ H/kB T .


A função de partição pode então ser escrita como
XX X
Z= ··· f (σ1 , σ2 ) f (σ2 , σ3 ) · · · f (σN , σ1 ), (7.4.3)
σ1 σ2 σN

onde
1
f (σi , σi+1 ) ≡ eKσi σi+1 + 2 B(σi +σi+1 ) , (7.4.4)
devendo-se notar que o mesmo sı́tio i contribui com 12 B em f (σi−1 , σi ) e em f (σi , σi+1 ),
totalizando B, como na Hamiltoniana, Eq. (7.4.1); o objetivo disto é tornar f (σi , σj )
simétrico na troca σi ↔ σj .
Note que podemos identificar f (σi , σi+1 ) como elementos de uma matriz

eK+B e−K
 
T= , (7.4.5)
e−K eK−B

chamada Matriz de Transferência porque relaciona os estados de spin no sı́tio i com os


do sı́tio i + 1. Desta forma,
X
Z= hσ1 |T|σ2 ihσ2 |T|σ3 i · · · hσN |T|σ1 i
{σi }
X
= hσ1 |TN |σ1 i = Tr TN , (7.4.6)
σ1

Como o traço independe da base, podemos usar aquela que diagonaliza T para obter
"  N #
λ<
Z = λN> 1+ , (7.4.7)
λ>

onde
λ > = eK cosh B ± (e2K sinh2 B + e−2K )1/2 , (7.4.8)
<

1 N N 1 N 2
2
3 . .
.
4
.
. .

Figure 7.17: Topologia da rede uni-dimensional com condições de contorno periódicas.


166 CHAPTER 7. PHASE TRANSITIONS

são os dois autovalores de T. Note that (i) when B = 0, one has λ> = 2 cosh K, e
λ< = 2 sinh K, and (ii) λ> /λ< ≤ 1, where the equality only applies asymptotically, for
B = 0 and K → ∞.
Para N grande, podemos desprezar (λ< /λ> )N em (7.4.7), o que nos dá

ZN ' λN
>. (7.4.9)

A energia livre por spin fica

g(T, H) ' −kB T ln λ> , (7.4.10)

de onde obtemos a magnetização por spin,

∂g sinh B
hσi = − =p . (7.4.11)
∂H cosh2 B − 2e−2K sinh K

É importante notar que


lim hσi = 0, (7.4.12)
B→0

de modo que não existe magnetização espontânea em uma dimensão para T 6= 0. Assim,
não há transição de fase a temperatura finita para o modelo de Ising em d = 1, ao
contrário da previsão da teoria de Weiss, Eq. (7.3.30) com z = 2,

(kB Tc )Weiss = J. (7.4.13)

A função de correlação de pares também pode ser calculada exatamente (veja o


Exercı́cio 7), com o resultado
 r
λ<
hσ0 σr i = hσ0 ihσr i + a , (7.4.14)
λ>

onde a é uma constante, o que fornece


 r
λ<
Γ(r) = a = a e−r/ξ , (7.4.15)
λ>
com
1 λ>
= ln . (7.4.16)
ξ λ<
A Fig. 7.18 mostra o comportamento de hσ0 σr i com r nos casos ferro- (J > 0) e anti-
ferromagnético (J < 0); o caráter oscilatório deste último tem origem no alinhamento
alternado dos spins no estado fundamental.
A Eq. (7.4.16) nos mostra que ξ → ∞ quando λ> → λ< , o que ocorre apenas em
T = Tc = 0, H = Hc = 0. Therefore, expanding λ> and λ< for H = 0 and kB T  J
yields
ξ ∼ e2J/kB T , (7.4.17)
7.4. EXACT SOLUTION FOR THE ONE-DIMENSIONAL ISING MODEL 167

Figure 7.18: Função de correlação hσ0 σr i, como função de r, para uma temperatura fixa
e campo nulo, nos casos ferromagnético (J > 0) e antiferromagnético (J < 0). A linha
cheia corresponde ao envelope exponencial.

que, ao contrário da divergência algébrica (i.e., como lei de potência em |T − Tc |) que


ocorre para d > 1, verifica-se aqui uma singularidade essencial; mais sobre isto na Seção
7.5.
É importante enfatizar que a Eq. (7.4.16) é válida para d > 1, desde que λ> e λ<
sejam interpretados como os dois maiores autovalores da matriz de transferência; veja
C. Domb, Adv. Phys. 9, 149 (1960).
Outras grandezas termodinâmicas podem ser calculadas, como a entropia por spin,
∂g
s=− = kB (ln 2 + ln cosh K − K tanh K)
∂T
' 2kB Ke−2K , T → 0, (7.4.18)

com S = N s mostrada na Fig. 7.19(a), e o calor especı́fico [c.f. Eq. (2.7.2)],

CH = kB (K sech K)2 , (7.4.19)

mostrado na Fig. 7.19(b); neste último deve-se notar que a presença do máximo não está
relacionada a alguma transição de fase, mas ao fato de que a cadeia linear se comporta,
efetivamente, como um conjunto de ligações (entre os sı́tios i e i + 1) independentes.
A suscetibilidade é obtida da maneira usual, e é interessante ressaltar que também
apresenta um comportamento exponencial a baixas temperaturas,
1 2J/kB T
χT ∼ e , (7.4.20)
T
mostrado na Fig. 7.19(c). Note que a singularidade é bem mais acentuada do que no
caso de spins não-interagentes, como indicado na Fig. 7.19(c).
168 CHAPTER 7. PHASE TRANSITIONS

Figure 7.19: Modelo de Ising unidimensional: (a) entropia, (b) calor especı́fico, e (c)
inverso da suscetibilidade, como funções da temperatura, a campo nulo. Em (c) a
linha tracejada representa, para efeitos de comparação, a Lei de Curie, para spins não-
interagentes.

Em resumo, o modelo de Ising foi resolvido exatamente numa rede linear. A presença
de condições de contorno periódicas nos permitiu usar a matriz de transferência, que
tem aplicações mais gerais do que esta.4 Vimos que a transição ocorre a T = 0, com as
diversas grandezas termodinâmicas apresentando singularidades essenciais, ao invés de
singularidades algébricas.

7.5 Critique of Mean-Field Theories


Na seção anterior discutimos um modelo exatamente solúvel, cujos resultados estão
em completo desacordo com as previsões de Campo Médio, já que a transição de fase
ocorre apenas em T = 0. Além disto, tanto medidas experimentais em diferentes sis-
temas fı́sicos, quanto a solução de Onsager para o modelo de Ising bi-dimensional – que
apresenta uma transição com Tc 6= 0 – fornecem expoentes crı́ticos diferentes daqueles
previstos pelas Teorias de Campo Médio (TCM’s).
Estas discrepâncias ocorrem porque as TCM’s ignoram correlações entre as flutuações
no parâmetro de ordem. Isto aparece como uma inconsistência nos resultados, como vere-
mos a seguir. O Teorema de Flutuação-Dissipação relaciona as flutuações em um sistema
no equilı́brio com a resposta a um estı́mulo externo (tal como um campo magnético em
sistemas magnéticos ou a pressão em sistemas fluidos; veja o Exercı́cio 10):
1 ∂2G
 
β X
χT = − 2
= h[σi − hσi i][σj − hσj i]i =
N ∂H N
i,j
X
=β Γ(rij ) = β Γ̃(k = 0) (7.5.1)
j

onde rij ≡ ri − rj , e Γ̃(k) é a transformada de Fourier de Γ(rij ), a função de cor-


relação entre as flutuações. Note que na terceira igualdade acima usamos a condição de
4
A cadeia com extremidades livres também pode ser resolvida exatamente; veja, por exemplo, Stan-
ley, Seção 8.2. Os resultados, no limite termodinâmico, são essencialmente os mesmos.
experimentally. The MF prediction for the transition point is too high,
the specific heat shows a finite discontinuity instead of diverging, and is
furthermore characterized by the absence of the characteristic 'high-
temperature tail '. The latter is encountered in all the more sophisticated
models as well as experimentally, and is due to the presence of short-
range interactions above T c t h a t are not taken into account in the MF
theory. Neglect of the short-range order is in fact the reason why the
7.5. CRITIQUE OF MEAN-FIELD THEORIES 169
12 L . J . de Jongh and A. R. Miedema on

4
Fig. 1
Fig. 6
Cm
R 2 3 ME 3 M.F.
Cm
R HEISENBERG
4: 41 47
ISING d=1,2,3
d=1,2,3 S=1/2
S=1/2
7

2
7:

I I I I 0 2
0 r T/O
~- It@
Specific heats of the S = ½ Heisenberg model in 1, 2 and 3 dimensions. The
Theoretical magnetic specific heats Cm of the S = ½ Ising 1-d model
curve isfor
the aresult
1, 2for
and
702 2

the antiferromagnetic chain obtained by Bonner


FigureThe
3-d lattice. 7.20:
chainComparação
curve has beendo obtained
calor especı́co
andbyFisher
Ising(teórico)
(1925),
(1964), em
who
from diversas solutions.
approximate dimensões Theespaciais,
2-d curve applies
incluindocalculations
first performed a aproximação
on the de campo
model thatmédio
tobears (MF),
the ferromagnetic
his name. paraThe os modelos
quadratic lattice de
and Ising (painel
has been es- by
constructed
2-d curve is alsoe an
querdo) exact result,
Heisenberg derived
(painel by Bloembergen
direito).Onsager
θ = (1971for
(1944)
zJ/2k ) fromthe
é athe predictions of spin-wave theory (T~ 0 < O"1),
temperatura de Curie-Weiss.
7

B
from the high-temperature
quadratic lattice. The 3-d curve has been calculated by B16te and series expansion (T/O>I), and from the
[Extraı́do
ttuiskamp de LJ
(1969) and de (1972)
B15te Jonghfor and
theAR Miedema,
simpleexperimental
cubic Adv.
latticedata Phys. the23, 1 (1974)].
on approximants
from of this model (0"1 < T/O < 1), to be
discussed below. The 3-d curve follows from series expansions for the
high and low-temperature series expansions of Cb.c.c, m given by Bakergiven
ferromagnet et al.by Baker et al. (1967 b). Also included is the
(1963) and Sykes et al. (1972). For comparison, the molecular
molecular field
field prediction.
prediction (MF) hastranslacional;
invariância been included. isto R denotes the gas
é, a função de constant
correlação andnão depende de onde se toma ri ,
is the Curie-Weiss temperature (O=~zS(S+ 1)J/k), which is the transi-
apenas daaccording
tion temperature distância, rij , MF
to the entre os sı́tios i e j. Por outro lado, na TCM,
theory.
The enhancement of the importance of the short-range-order effects
also hσ i σj i =
follows hσithe
from ihσjfact
i; t h a t in the case of the Heisenberg
(7.5.2)model a
lowering of the dimensionality to 2 is already sufficient to prevent the
onset of long-range
já que as correlações são desprezadas porque order at a non-zero temperature
a Hamiltoniana efetiva é do(Mermin
tipo and Wagner
não-
1966). The thermodynamics of the 2-d Heisenberg model will therefore
interagente, apesar de efeitos cooperativos estarem incluı́dos via o campo autoconsis-
to a certain extent resemble the behaviour found in the chain models ;
tente. Assim, temos to a certain extent because there is a possible difference following from
Γ(rij the δij Γ(0)of=series
) =analysis δij [hσ 2
expansions 2 the susceptibility (Stanley and Kaplan
i i − hσi i ],
of (7.5.3)
1966), in which indications were found for the existence of non-zero
e a inconsistência está no fato detransition
que o alcancepoints da
at função
which the de correlação é nulo,
ferromagnetic não sendo
susceptibility diverges.
possı́vel obter-se o comportamento Thus,singular
althoughparathe chain
χT , models as well as the 2-d Heisenberg model
cannot sustain a spontaneous magnetization at any finite temperature,
the latter would distinguish itself by possessing a transition to a phase
with χanT infinite Tc |−γ ,
∼ |T −susceptibility. (7.5.4)
We will return to this intriguing problem
later. At this point we merely remark t h a t since the 2-d XY models
como previsto pela própria TCM. have been found to possess similar properties as the 2-d Heisenberg model,
Voltando à Eq. (7.5.1), vemos, anisotropy
the evidently
pelo contrário, quemust be of the Ising form
o comportamento to enabledea χ
singular transition
T
to long-range order to occur in a 2-d lattice.
está associado ao longo alcance da função de correlação: os termos h[σi − hσi i][σj − hσj i]i,
sendo finitos, só poderão acarretar um comportamento singular caso se mantenham
finitos, mesmo a longas distâncias, rij .
Assim, as flutuações no parâmetro de ordem são muito importantes na região crı́tica.
Em primeiro lugar, porque são elas que destróem a fase ordenada, e desprezá-las, como
nas teorias de campo médio, significa superestimar o valor de Tc . Isto é ilustrado na
Fig. 7.20, que mostra o calor especı́fico para os modelos de Ising (painel esquerdo) e
Heisenberg (painel direito) em diversas dimensões espaciais: Tc é sempre menor que a
estimativa de campo médio (Curie-Weiss), θ, e decresce à medida em que d diminui.
170 CHAPTER 7. PHASE TRANSITIONS

(a)

(b)
L
Figure 7.21: Configurações de uma
cadeia de Ising com N spins: (a) Figure 7.22: Uma excitação para spins de
estado fundamental, com todos os Ising em uma rede quadrada: os spins na
spins alinhados; (b) um estado ex- região de tamanho linear L estão opostos aos
citado (kink) de mais baixa energia, demais.
cuja degenerescência é ∼ N .

A solução exata para o modelo de Ising em d = 1 mostra que esta discrepância em Tc


pode ser drástica a ponto de eliminar a existência de fase ordenada a qualquer T > 0. O
painel esquerdo da Fig. 7.20 ilustra isto para o modelo de Ising, através da ausência de
singularidade no calor especı́fico em d = 1; o painel direito também mostra a ausência
de singularidade a temperaturas finitas para o modelo de Heisenberg em d = 1 e 2.
Portanto, devemos esperar de um modo geral que exista sempre uma dimensão crı́tica
inferior, di , tal que Tc = 0 para d ≤ di .
Para sistemas com simetria discreta, do tipo Ising, um argumento devido a Peierls
ilustra muito bem que di = 1. A idéia é calcular a diferença em energia livre entre uma
configuração com todos os spins alinhados e uma com todos os spins virados a partir
de um ponto qualquer da rede, ou com um kink; veja a Fig. 7.21. Como o kink pode
ser formado em qualquer um dos N sı́tios da rede, há N modos de fazê-lo; isto dá uma
contribuição ∆S = kB ln N para a variação de entropia. A baixas temperaturas, temos,
portanto,
∆G = ∆E − T ∆S = 2J − kB T ln N, (7.5.5)

de modo que, para qualquer T > 0 o termo de entropia domina por ser macroscópico, e
teremos sempre ∆G < 0. Isto é, o estado ordenado é instável pela formação de kinks.
Acima de d = 1, excitações tı́picas correspondem a virar os spins dentro de uma
região de dimensão linear L, como ilustra a Fig. 7.22. A diferença de energia é então
proporcional ao número de spins na fronteira ou, equivalentemente, ao perı́metro da
região: ∆E ∼ 2J Ld−1 . A contribuição da entropia não é tão simples de ser calculada
como em uma dimensão, mas é claramente macroscópica. Portanto, o sistema consegue
7.6. UNIVERSALITY AND SCALING 171

manter a ordem (isto é, ter a maioria dos spins apontando num dado sentido), ∆G > 0,
pagando o preço de formar ilhas muito grandes com spins opostos, o que só é favorável
até uma temperatura Tc > 0.
Já para sistemas magnéticos com simetria contı́nua, as excitações de baixa energia
correspondem a ondas de spin que, para d ≤ 2, ocorrem em grande número, também
destruindo a fase ordenada. É o que acontece, por exemplo, nos modelos de Heisenberg
e XY (veja o Exercı́cio 5.6); assim, di = 2 para modelos com simetria contı́nua.
É interessante notar também que na dimensão crı́tica inferior as divergências das
diversas grandezas são exponenciais: isto ocorre para o modelo de Ising unidimensional
(Seção 7.4) e para os modelos de Heisenberg e XY em d = 2. Já para d < di , as
divergências quando T → 0 voltam a ser algébricas, p.ex., ξ ∼ T −ν , como no caso do
modelo de Heisenberg unidimensional.5
Uma segunda conseqüência da ausência de flutuações de longo alcance nas teorias
de campo médio é a previsão de expoentes crı́ticos diferentes dos observados experimen-
talmente ou calculados por outros métodos. Neste sentido, as TCM’s fornecem muito
poucas classes de universalidade.
Por outro lado, para dimensões espaciais suficientemente altas, devemos esperar que
as flutuações desempenhem um papel cada vez menos importante. Deve haver, portanto,
uma dimensão crı́tica superior, ds , tal que os expoentes de campo médio sejam exatos
para d ≥ ds . Veremos na próxima seção que, para os modelos de Ising, Heisenberg e
XY , temos ds = 4. Em outro exemplo, o problema da percolação – uma transição de
fase geométrica, que ocorre quando se varia a concentração de ocupação (aleatória) de
sı́tios ou ligações em uma rede – tem ds = 6.
Visto que identificamos a ausência de flutuações de longo alcance como a falha prin-
cipal das TCM’s, veremos agora como incorporá-las de modo fundamental, explorando
as transformações do sistema sob mudanças de escala.

7.6 Universality and Scaling


Um resultado curioso obtido a partir das TCM’s é que várias propriedades são inde-
pendentes do sistema em estudo. Em particular, notemos que os expoentes crı́ticos são
os mesmos, para todas as Hamiltonianas magnéticas (Ising, Heisenberg e XY ). Além
disto, eles independem do valor do spin e do valor de J. Enquanto a pequena diver-
sidade dos conjuntos de expoentes é uma deficiência das TCM’s, o fato de transições
devidas a mecanismos tão distintos, como, por exemplo, fluidos, magnetos, supercodu-
tores, etc., exibirem, em alguns casos, os mesmos conjuntos de expoentes, permanecem
válidos mesmo abaixo de ds .
O que se verificou, através de experiências e de cálculos teóricos (exatos e expansões
em séries de potência) é que os vários sistemas fı́sicos podem ser associados a classes de
universalidade, determinadas, em sua maioria, pela simetria do parâmetro de ordem (isto
é, por sua dimensionalidade, n) e pela dimensão espacial. Desta forma, o valor de J, do
5
Para os valores dos expoentes, veja, p.ex., JW Lyklema, Phys Rev B 27, 3108 (1983).
172 CHAPTER 7. PHASE TRANSITIONS

a 2a
(a) (b)
Figure 7.23: Exemplo da construção dos blocos de Kadanoff: a cada 4 (= bd , com
b = d = 2) spins do sistema original em (a), associamos 1 spin no sistema escalado (b).
O parâmetro de rede passa de a para ba.

spin S e a topologia da rede (por exemplo, quadrada, triangular, hexagonal etc.) para
uma dada dimensão espacial, são irrelevantes na determinação dos expoentes crı́ticos.
É interessante lembrar que Tc depende de todos estes fatores, por ser uma propriedade
intimamente ligada à conectividade da rede e ao número de graus de liberdade por spin.
A irrelevância destes fatores ocorre devido ao fato de que, na região crı́tica, eles
representam detalhes de curto alcance, contrastando com o longo alcance das correlações.
Isto é, substituindo-se um bloco de spins por um spin médio, estes detalhes ficam diluı́dos.
Esta mudança de escala, obtida quando se associa uma nova variável a um bloco de spins,
é crucial na formulação da Teoria Moderna de Fenômenos Crı́ticos, que teve inı́cio com
os trabalhos de Widom, Kadanoff, Wilson e Fisher. Veremos que os expoentes crı́ticos
são determinados por estas propriedades de scaling.
Considere uma rede hipercúbica e associemos a cada grupo de bd spins Si = ±1
(Ising), distando a entre si, uma nova variável SI como

1 X
SI = Si , (7.6.1)
Λ
i ∈ bloco

onde o parâmetro de rede agora é ba, e Λ pode ser pensado como um fator de normali-
zação que faz SI ter as mesmas propriedades de Si . Por exemplo, se Si = ±1 devemos
ter SI ± 1; assim, Λ ∼ bd . É claro que esta definição de SI é um pouco vaga, mas será
feita de modo mais preciso na próxima seção. A Fig.7.23 mostra um exemplo para a rede
quadrada, em que b = 2.
7.6. UNIVERSALITY AND SCALING 173

Para uma Hamiltoniana inicial


X X
HS = −J Si Sj − H Si , (7.6.2)
hi,ji i

suponhamos que a Hamiltoniana escalada também seja da mesma forma, isto é,
X X
HS 0 = −J 0 SI SJ − H 0 SI , (7.6.3)
hI,Ji I

onde J 0 e H 0 são os novos parâmetros da Hamiltoniana em termos das variáveis de bloco


SI .
At this point, it is worth noticing that in addition to the initial energy scales, J and
H, one has the thermal energy, kB T , and we seek dimensionless ratios between them.
Since in the density operator the Hamiltonian appears in the exponent as exp(−βH), it
is natural to introduce pairs of dimensionless variables such as

K ≡ J/kB T, B ≡ H/kB T, (7.6.4)

at finite temperatures. Moreover, it is convenient to introduce the relative (dimension-


less) distance from the critical temperature as
T − Tc Kc − K Kc − K
ε≡ = ' , (7.6.5)
Tc K Kc
where the last passage follows from the fact that proximity to the critical point is as-
sumed, so that one can set K ' Kc in the denominator.
With these, the critical point is located at (ε = 0, B = 0), and, going back to the
Kadanoff blocks, we may think that the change in scale corresponds to a transformation
in the coupling constants as
(ε, B) → (ε0 , B 0 ). (7.6.6)
Por serem extensivas, as energias livres dos sistemas original e escalado devem ser as
mesmas; daı́ segue que as energias livres por partı́cula devem estar relacionadas por6

g(ε0 , B 0 ) = bd g(ε, B), (7.6.7)

e os comprimentos de correlação, em unidades de a, por


1
ξ(ε0 , B 0 ) = ξ(ε, B). (7.6.8)
b
Deve-se notar que, pelo fato de se supor que lidamos com um sistema no limite ter-
modinâmico, g e ξ são as mesmas funções dos pares de variáveis, (ε, B) e (ε0 , B 0 ), relativas
aos sistemas original e escalado, respectivamente.
6
A rigor, esta relação é satisfeita pela parte singular da energia livre; veja, por exemplo, Th Niemeijer
e JMJ van Leeuwen, em Phase Transitions and Critical Phenomena, editado por C Domb e MS Green,
vol. 6 (1976).
174 CHAPTER 7. PHASE TRANSITIONS

A Eq. (7.6.8) indica que se ε 6= 0, o novo comprimento de correlação é menor que o


original, já que b > 1; isto é, a mudança de escala nos afasta do ponto crı́tico. Devemos
ter, portanto, ε0 > ε, o que sugere a escolha

ε0 = λt ε, (7.6.9)

onde λt independe de ε e de B, e o ı́ndice t significa ‘térmico’. Já que efetuar duas


mudanças de escala sucessivas com fatores b1 e b2 equivale a uma única por um fator
b1 · b2 , λt deve ser da forma
λt = byt , (7.6.10)
com yt a ser determinado. Analogamente,
N N/bd
X XX X
B Si = B Si = BΛ SI , (7.6.11)
i=1 I=1 i∈I I

o que nos leva a supor que


B 0 = ΛB = byh B, (7.6.12)
com yh a ser determinado – o ı́ndice h indica ‘magnético’.
Assim, a transformação da energia livre é

g(byt ε, byh B) = bd g(ε, B), (7.6.13)

refletindo o fato de que ela é uma função homogênea de suas variáveis.


Dado o papel das flutuações, é importante examinarmos como a função de correlação
se comporta sob mudança de escala. Para o sistema de blocos temos

Γ(r0 , ε0 ) = hSI SJ i − hSI ihSJ i


1 X
= 2 {hSi Sj i − hSi ihSj i} (7.6.14)
Λ i,j
∈I,J

Usando o fato de que

hSi0 Sj 0 i − hSi0 ihSj 0 i ' hSi Sj i − hSi ihSj i, (7.6.15)

para todos os Si0 pertencentes ao bloco I e todos os Sj 0 pertencentes ao bloco J, de modo


que a soma fornece (bd )2 termos aproximadamente iguais a Γ(r), podemos escrever
2
bd

0 0
Γ(r , ε ) ' Γ(r, ε), (7.6.16)
Λ
com
r0 = b−1 r, (7.6.17)
também em unidades de a. Com ε0 = byt ε e B0 = byh B, temos, finalmente,

Γ(b−1 r, byt ε) = b2(d−yh ) Γ(r, ε). (7.6.18)


7.6. UNIVERSALITY AND SCALING 175

Com estas transformações para g e Γ, podemos obter relações interessantes. A mag-


netização é obtida diferenciando-se (7.6.13) com relação a B,

byh M (byt ε, byh B) = bd M (ε, B). (7.6.19)

Tomando b = (−ε)−1/yt e fazendo B = 0, vem


d−yh
M (ε, 0) = (−ε) yt M (−1, 0) ∼ (−ε)β , (7.6.20)

já que M não é singular no ponto (-1,0); isto nos dá


d − yh
β= . (7.6.21)
yt

Substituindo b = B −1/yh e ε = 0 em (7.6.19), vem

M (0, B) = B d/yh −1 M (0, 1) ∼ B 1/δ , (7.6.22)

o que nos dá


yh
δ= . (7.6.23)
d − yh
De modo análogo, tomando a segunda derivada da energia livre com relação a B,
vem
b2yh χ(byt ε, byh B) = bd χ(ε, B). (7.6.24)
Fazendo B = 0 e b = ε−1/yt temos
d−2yh
χ(ε, 0) = ε yt χ(1, 0) ∼ ε−γ , (7.6.25)

com
2yh − d
γ= . (7.6.26)
yt
0
Se tomássemos b = (−ε)−1/yt , e definindo χ ∼ (Tc − T )−γ , T < Tc , obterı́amos γ = γ 0 .
Tomando agora a segunda derivada de g com relação a T , temos o calor especı́fico,

b2yt CH (byt ε, byh B) = bd CH (ε, B). (7.6.27)

Fazendo b = ε−1/yt e B = 0, vem


d−2yt
CH (ε, 0) = ε yt CH (1, 0) ∼ ε−α , (7.6.28)

onde
α = 2 − d/yt . (7.6.29)
Da mesma forma, obtém-se que α = α0 .
Voltando agora à função de correlação [Eq. (7.6.18)], façamos b = ε−1/yt ; assim
2(yh −d)
Γ(r, ε) = ε yt Γ(r/ε−1/yt , 1). (7.6.30)
176 CHAPTER 7. PHASE TRANSITIONS

Chamando
f (r/ξ) ≡ Γ(r/ε−1/yt , 1), (7.6.31)
vemos que a dependência de Γ com r aparece apenas na variável r/ξ, com
ξ ' ε−1/yt ∼ ε−ν , (7.6.32)
ou
ν = 1/yt . (7.6.33)
Tomando b = r e ε = 0 em (7.6.18), temos
Γ(r, 0) = r2(yh −d) Γ(1, 0) ∼ r−(d−2+η) , (7.6.34)
ou
η = d + 2(1 − yh ). (7.6.35)
As equações (7.6.21), (7.6.23), (7.6.26), (7.6.29), (7.6.33), e (7.6.35) indicam que
apenas dois expoentes são independentes, e, também, que estas relações independem do
sistema fı́sico em particular. Mais ainda, uma vez que yt e yh são determinados pelas
propriedades de transformação de H sob mudança de escala, seus valores não dependem
de K ou de B.
Eliminando yh e yt nestas equações, obtemos as chamadas leis de escala:
dν = 2 − α (7.6.36a)
γ = ν(2 − η) (7.6.36b)
2β = ν(d − 2 + η) (7.6.36c)
d+2−η
δ= ; (7.6.36d)
d−2+η
elas indicam que apenas dois expoentes são independentes. Deve-se mencionar que estas
leis de escala podem também ser obtidas, como desigualdades, a partir de condições de
estabilidade; veja Stanley, Cap. 4.
É interessante notar que as leis de escala podem ser usadas para calcular a dimensão
crı́tica superior ds . De fato, atribuindo aos expoentes os valores de campo médio obtidos
na Seção 7.3, obtemos ds = 4; atribuindo os valores de campo médio do problema da
percolação, β = γ = 1 e ν = 1/2, temos ds = 6.
Em resumo, a análise do comportamento de um sistema sob mudança de escala nos dá
uma compreensão unificada sobre transições de fase. Em primeiro lugar, as leis de escala
surgem como conseqüência natural da homogeneidade da energia livre. Em segundo
lugar, o ponto crı́tico está associado a um ponto de invariância de escala. E, finalmente, a
simetria do parâmetro de ordem determina as leis de transformação perto do ponto crı́tico
– via yt e yh . Deve-se mencionar que a dedução apresentada foi baseada em diversas
hipóteses que, posteriormente, se mostraram muito simplificadoras; os resultados finais,
todavia, são essencialmente corretos. Sob o ponto de vista operacional, estas idéias
não fornecem um método de cálculo que permita estimar valores para temperaturas e
expoentes crı́ticos; é preciso complementá-las com um formalismo baseado na eliminação
explı́cita de graus de liberdade, que é o grupo de renormalização (GR).
7.7. THE POSITION-SPACE RENORMALIZATION GROUP 177

7.7 The Position-Space Renormalization Group


Na teoria de escala desenvolvida na seção anterior, a definição do spin efetivo do bloco
foi feita de um modo bastante impreciso. De fato, a primeira formalização destas idéias
foi feita por Wilson em 1972: a partir da Hamiltoniana, escrita no espaço dos momenta,
graus de liberdade são eliminados através da integração dos modos de pequenos com-
primentos de onda (ou k grandes); veja a Sec. 7.9. Assim, obtém-se uma relação de
recorrência entre as ‘velhas’ e ‘novas’ variáveis, de maneira análoga às relações ε0 (ε) e
H 0 (H) da Seção 7.6.
De uma maneira geral, podemos pensar na Hamiltoniana do sistema como um ponto
num espaço de parâmetros. Por exemplo, a Hamiltoniana de Ising,
X X X
− βH = K σi σj + L σi σj + H σi , (7.7.1)
hi,ji [i,j] i

onde hi, ji e [i, j] denotam, respectivamente, pares de sı́tios primeiros e segundos vizinhos,
seria representada num espaço tri-dimensional pelo ponto u ≡ (K, L, H). Sob uma mu-
dança de escala, espera-se que o sistema passe a ser descrito pelo ponto u0 ≡ (K 0 , L0 , H 0 ),
onde, em princı́pio,

K 0 = K 0 (K, L, H), (7.7.2a)


0 0
L = L (K, L, H), (7.7.2b)
0 0
H = H (K, L, H). (7.7.2c)

Desta forma, a mudança de escala está associada a uma transformação no espaço


dos parâmetros:
u0 = Rb u, (7.7.3)
onde b é o fator de escala. Estas transformações formam um semi-grupo, já que

Rb1 b2 = Rb1 Rb2 , (7.7.4)

mas a operação inversa não é definida. Apesar da caracterı́stica de semi-grupo, estas


transformações são chamadas de Grupo de Renormalização (GR).
Para simplificar nossa análise, consideremos um espaço de parâmetros uni-dimensio-
nal (K). Sob uma transformação do grupo de renormalização (TGR) o comprimento de
correlação se transforma como
1
ξ(K 0 ) = ξ(K), (7.7.5)
b
onde K 0 = K 0 (K). O ponto crı́tico é associado àquele em que ξ = ∞, definindo um
ponto especial K ∗ = Kc tal que
K ∗ = K 0 (K ∗ ); (7.7.6)
isto é, no caso de um parâmetro apenas, o ponto crı́tico (Kc ) coincide com o ponto fixo
(K ∗ ) da transformação.
178 CHAPTER 7. PHASE TRANSITIONS

1.0

0.8 (a)

(b)
0.6
t’

0.4 FM PM

0 Tc oo T
0.2

0.0
0.0 0.2 0.4 0.6 0.8 1.0
t

Figure 7.24: (a) Um exemplo de transformação do grupo de renormalização (TGR): as


interseções das linhas cheia [representando a Eq. (7.7.7)] e tracejada (t0 = t) definem
os pontos fixos; os atratores aparecem como quadrados e o ponto fixo crı́tico como ∗.
(b) Diagrama de fluxos da TGR: com exceção do ponto fixo, os pontos são levados
aos atratores ferromagnético (FM) ou paramagnético (PM) por sucessivas mudanças de
escala.

Na Seção 7.8 discutiremos como gerar uma TGR mas, para fixar idéias, utilizemos a
seguinte transformação aproximada para a rede quadrada, a ser obtida no Exercı́cio 12,

2t2 (1 + t)
t0 = , (7.7.7)
1 + 2t3 + t4

onde t ≡ tanh K e t0 ≡ tanh K 0 ; veja a Fig. 7.24(a). A interseção de (7.7.7) com a reta
t0 = t fornece os pontos fixos da transformação:

(i) t∗ = 0; (ii) t∗ = 1; (iii) t∗ = tc ≡ (1 + 2)−1 ' 0.414. (7.7.8)

Iterando a TGR sucessivamente, notamos que os pontos t0 > tc são levados a t∗ = 1.


Este ponto corresponde a T = 0 e, portanto, ao estado fundamental ordenado; logo, é
chamado de atrator da fase ordenada. Fisicamente, isto indica que sistemas abaixo da
temperatura crı́tica são equivalentes, por transformações de escala, a sistemas ordenados.
Similarmente, os pontos t0 < tc são levados a t∗ = 0 (T = ∞), que é o atrator da fase
desordenada (paramagnética). Estas trajetórias são ilustradas esquematicamente na
Fig. 7.24(b). Separando estas duas regiões há o chamado ponto fixo crı́tico (ou ponto
fixo não-trivial), tc , que fornece uma estimativa para a temperatura crı́tica do sistema:
J/kB Tc ' 0.441: este é o resultado exato de Onsager.7
7
Esta aproximação reproduz o resultado exato para Kc porque o cluster utilizado compartilha, com
o modelo de Ising na rede quadrada infinita, uma propriedade de simetria topológica, a auto-dualidade;
veja, por exemplo, R Savit, Rev. Mod. Phys. 52, 453 (1980).
7.7. THE POSITION-SPACE RENORMALIZATION GROUP 179

Perto de K ∗ = Kc podemos escrever, a partir de (7.7.5),

1
(K 0 − K ∗ )−ν = (K − K ∗ )−ν , (7.7.9)
b
ou
K 0 = K ∗ + b1/ν (K − K ∗ ), (7.7.10)
que pode ser interpretada como uma expansão de K 0 (K) em torno de K ∗ , com

dK 0
= λb = b1/ν . (7.7.11)
dK K∗

Assim, o expoente ν é calculado como

ln b
ν= . (7.7.12)
ln λb

Usando novamente a TGR (7.7.7) como exemplo, e lembrando que (dt0 /dt)t=t∗ ≡
(dK 0 /dK)K=K ∗ , obtemos (b = 2)
ν ' 1.15, (7.7.13)
valor que deve ser comparado com o resultado exato, ν = 1. Aumentando-se o tamanho
do cluster de modo a sempre preservar a auto-dualidade,8 a estimativa de ν se aproxima
do valor exato. Logo, não obstante a simplicidade do método, obtém-se resultados
bastante satisfatórios.
Para avançarmos um pouco mais, consideremos agora um espaço de parâmetros
com dimensão maior que 1. Concretamente, podemos pensar numa Hamiltoniana de
Heisenberg anisotrópica, em d = 3:
X 1 1

− βH = K (1 − ∆)(Six Sjx + Siy Sjy ) + (1 + ∆) Siz Sjz , (7.7.14)
2 2
hi,ji

de modo que o espaço dos parâmetros é descrito por pontos (K, ∆). A TGR deve ser,
então, da forma

K 0 = K 0 (K, ∆) (7.7.15a)
0 0
∆ = ∆ (K, ∆). (7.7.15b)

As soluções de pontos fixos não triviais devem ser

Ising : ∆∗ = 1, K ∗ = KcI (7.7.16a)


XY : ∆∗ = −1, K ∗ = KcXY (7.7.16b)
∗ ∗
Heisenberg : ∆ = 0, K = KcH , (7.7.16c)
8
veja, p.ex., C Tsallis and ACN de Magalhães, Phys Rep 268, 305 (1996), e referências lá contidas.
180 CHAPTER 7. PHASE TRANSITIONS

T
PM PM
XY I

H
A

FM FM

1 0 1

Figure 7.25: Diagrama de fluxos de GR (esquemático) para o modelo de Heisenberg


anisotrópico a três dimensões no espaço temperatura (∼ 1/K) – anisotropia (∆). Os
pontos fixos crı́ticos estão assinalados por (∗) e os atratores das fases ordenadas por ().
As curvas H-XY e H-I, que conectam os pontos fixos não-triviais, são as curvas crı́ticas.

que estão assinalados com ∗ na Fig. 7.25. Os atratores das fases ordenadas devem ser

Ising : ∆∗ = 1, K∗ = ∞ (7.7.17a)
∗ ∗
XY : ∆ = −1, K =∞ (7.7.17b)
∗ ∗
Heisenberg : ∆ = 0, K = ∞, (7.7.17c)

que, juntamente com os análogos para as fases desordenadas, também estão assinalados
na Fig. 7.25.
Na Fig. 7.25, as setas correspondem às trajetórias dos pontos, obtidas após sucessivas
iterações das TGR. Após um número muito grande destas iterações, um ponto qualquer
deve convergir para um ponto fixo, indicando que certos detalhes da Hamiltoniana vão se
tornando cada vez menos importantes. Por exemplo, começando no ponto A da Fig. 7.25,
um sistema pouco anisotrópico se comporta, em última análise, como um ferromagneto
XY isotrópico em sua fase ordenada, pois é para o atrator (K ∗ = ∞, ∆∗ = −1) que as
trajetórias convergem.
Quando há mais de um parâmetro, o cálculo de expoentes crı́ticos envolve a lin-
earização das TGR perto dos pontos fixos não-triviais. Não discutiremos com detalhes
este ponto, mas mencionaremos apenas os aspectos mais importantes. Primeiro, vemos
que, neste formalismo, expoentes crı́ticos estão associados a pontos fixos. Por exemplo,
a curva HI separa as fases paramagnética e ferromagnética, sendo, portanto, uma curva
crı́tica; isto é, as grandezas termodinâmicas (ξ, CH , χ, etc.) são singulares nesta curva.
7.8. EXAMPLES OF PSRG 181

Apesar disto, os expoentes são aqueles determinados pela linearização em torno de I, já
que é para este ponto fixo que as trajetórias na curva crı́tica convergem. É neste fato
que a noção de classes da universalidade se manifesta. Podemos pensar que cada ponto
das trajetórias do GR representa um sistema fı́sico real, com valores bem definidos de
J e ∆, a uma dada temperatura. Fica claro, então, que eles têm os mesmos expoentes
porque compartilham essencialmente as mesmas trajetórias no espaço de parâmetros;
lembre-se que o parâmetro que importa é K ≡ J/kB T . Por exemplo, todos os sis-
temas anisotrópicos com ∆ > 0 têm o mesmo comportamento do sistema totalmente
anisotrópico (∆ = 1).
Em segundo lugar, o cálculo do expoente η é feito introduzindo um campo magnético
externo. Em geral, tem-se que o ponto crı́tico ocorre em (K = Kc , H = 0) de modo que
a relação de recorrência para H é da forma

∂H 0
H 0 = λh H, com λh = = byh . (7.7.18)
∂H H=0

de onde extraı́mos yh ,
ln b
yh = . (7.7.19)
ln λh
o qual, por sua vez, é inserido na Eq. (7.6.35), para obtermos η. Assim, a partir dos dois
expoentes ν e η [no caso mais simples do espaço de parâmetros (K, H)] podemos obter
todos os outros expoentes.
Em resumo, o formalismo de GR fornece as seguintes informações: 1) diferentes
classes de universalidade são descritas por diferentes pontos fixos crı́ticos; 2) os expoentes
crı́ticos estão associados às propriedades das TGR linearizadas perto dos pontos fixos
não triviais. É claro que, na prática, é tão difı́cil obter uma TGR exata quanto resolver
exatamente o problema. A vantagem do GR é que as aproximações feitas para se obter
as relações de recorrência ficam mais transparentes e, sob certos aspectos, controláveis.
Veremos na próxima seção como obter estas transformações em casos simples.

7.8 Examples of PSRG


Considere um sistema de spins-1/2 descrito por uma Hamiltoniana H{σ} (u), onde os
{σ} representam os graus de liberdade (variáveis de spin) e u denota os parâmetros
pertinentes ao sistema [por exemplo, (K, ∆, H, . . .)]; esta definição já incorpora o fator
multiplicativo −β. Uma mudança de escala é obtida associando-se um novo conjunto de
variáveis, {σ 0 }, às antigas, de acordo com alguma prescrição, P[{σ 0 }|{σ}], dando origem
a uma nova Hamiltoniana, H0 ≡ H{σ0 } (u0 ).
Vejamos agora que as restrições às quais a prescrição deve satisfazer permitem grande
flexibilidade. Primeiramente, a função de partição tem que ser preservada sob uma
mudança de escala,
0
Z = Tr{σ0 } eH = Tr{σ} eH . (7.8.1)
182 CHAPTER 7. PHASE TRANSITIONS

Podemos então usar este fato para definir a transformação de grupo de renormalização
a partir de
0
eH ≡ Tr{σ} P[{σ 0 }|{σ}] eH , (7.8.2)
o que corresponde à eliminação parcial de graus de liberdade. Este procedimento está
sujeito às restrições
P[{σ 0 }|{σ}] ≥ 0 ∀σ, σ 0 , (7.8.3)
para garantir a hermiticidade de H0 , e

Tr{σ0 } P[{σ 0 }|{σ}] = 1 (7.8.4)

para que (7.8.1) seja satisfeita.


É interessante notar que, em princı́pio, estas são as únicas restrições impostas a
P[{σ 0 }|{σ}], o que permite uma grande flexibilidade. Todavia, esta transformação deve
incorporar diversos aspectos do problema de modo a apresentar resultados fisicamente
razoáveis, como discutiremos no final desta Seção.
Há várias prescrições possı́veis, mas citaremos aqui apenas duas:9
• Dizimação. O estado de spin de um bloco é idêntico ao de um dos spins iniciais,
eliminando-se os demais.
• Regra da maioria. O spin de um bloco é definido pelo sinal da maioria dos spins.
Por ser mais simples, vamos agora deduzir uma transformação do GR por meio
de dizimação para o modelo de Ising com spins-1/2 na rede quadrada. A Fig. 7.26(a)
mostra um pedaço de uma rede quadrada, onde imaginamos que haja um spin em cada
vértice. De cada dois spins, um é mantido na rede renormalizada, e o outro é eliminado
tomando-se o traço sobre ele – no espı́rito da Eq. (7.8.2) – de modo a ficarmos com uma
rede isomorfa à original. Este objetivo é atingido eliminando-se todos os spins da sub-
rede assinalados com ×, mantendo os spins na outra sub-rede, assinalados com ◦. Mesmo
assim, isto ainda é difı́cil de ser implementado, levando-nos a fazer alguma aproximação.
A mais imediata consiste em obter uma transformação para um cluster, e supor que a
transformação resultante seja válida para toda a rede. A Fig. 7.26(b) mostra o cluster
mais simples que se pode extrair de uma rede quadrada, e a transformação é gerada
tomando-se o traço sobre os spins σ2 e σ4 . Lembrando que
0
eKσσ = cosh K + σσ 0 sinh K = cosh K(1 + σσ 0 t), (7.8.5)

pois σ, σ 0 = ±1, e onde t ≡ tanh K, podemos escrever


0
eH = Tr σ2 ,σ4 eK(σ1 σ2 +σ2 σ3 +σ3 σ4 +σ4 σ1 ) =
= cosh4 K Tr σ2 σ4 (1 + σ1 σ2 t)(1 + σ2 σ3 t)(1 + σ3 σ4 t)(1 + σ4 σ1 t) =
2t2
 
4 4
= cosh K(1 + t ) 1 + σ1 σ3 , (7.8.6)
1 + t4
9
Para outras prescrições, veja os artigos de revisão no livro Real Space Renormalization, editado por
TW Burkhardt e JMJ. van Leeuwen (1982).
7.8. EXAMPLES OF PSRG 183

1 t 2

t’
t t

4 t 3

(a) (b)
Figure 7.26: (a) Trecho de uma rede quadrada utilizada para obter uma transformação
do grupo de renormalização. Toma-se o traço nos spins dos sı́tios√×, de modo que os
spins remanescentes, ◦, também formam uma rede quadrada; b = 2. As linhas cheias
representam as interações originais entre os spins, enquanto que as linhas tracejadas
representam as interações renormalizadas. (b) Um cluster com 4 sı́tios é ‘extraı́do’
de (a) [linhas cheias mais grossas], para ser renormalizado: as 4 ligações originais de
intensidade t ≡ tanh K dão origem a uma ligação de intensidade t0 ≡ tanh K 0 ; veja o
texto.

onde utilizamos o fato de que Tr σ σ ≡ 0.


Por outro lado,
0 0
eH = eG0 +K σ1 σ3 = eG0 cosh K 0 (1 + σ1 σ3 t0 ), (7.8.7)

onde introduzimos em H0 uma constante, G0 , importante para o cálculo da energia livre


via GR, mas não para nossos propósitos mais imediatos aqui; veja, por exemplo, Th
Niemeijer e JMJ van Leeuwen, em Phase Transitions and Critical Phenomena, editado
por C Domb e MS Green, vol. 6 (1976). As equações (7.8.6) e (7.8.7) têm que ser iguais
para quaisquer σ1 e σ3 , de modo que a transformação do GR para este exemplo é,
finalmente,
2t2
t0 = . (7.8.8)
1 + t4
Esta relação admite os seguintes pontos fixos: t∗ = 0, t∗ = 1, e t∗ = 0.544. A
comparação deste último com o valor exato, t∗exato ' 0.414, pode parecer decepcionante,
mas deve-se levar em conta a simplicidade da transformação. Qualitativamente, o com-
portamento é o mesmo que o mostrado na Fig. 7.24(a). Estas transformações podem,
em geral, ser melhoradas sistematicamente aumentando-se o número de sı́tios nos clus-
ters que, todavia, se não for feito com cuidado, podem gerar acoplamentos de alcance
mais longo que o inicial. O expoente crı́tico obtido a partir da transformação (7.8.8)
é ν ' 0.67, também pior que o anterior [c.f. Eq. (7.7.13)], mas pode ser melhorado de
modo sistemático.
184 CHAPTER 7. PHASE TRANSITIONS

Finalizando, devemos fazer alguns comentários sobre as aproximações de cluster com


dizimação. Em primeiro lugar, elas têm uma inconsistência interna devido ao fato dos
spins não serem escalados; veja a Eq. (7.6.18). Como d = 2, isto equivale a fixar η = 0, o
que é, obviamente, uma limitação do método; os expoentes térmicos, todavia, são bem
descritos, bem como o comportamento qualitativo do sistema. Em segundo lugar, note
que tanto a TGR (7.7.7) quanto a (7.8.8) não admitem t∗ = −1 como ponto atrator,
correspondente a um estado fundamental antiferromagnético. Isto porque em ambos
os casos a estrutura de sub-redes, que define um arranjo antiferromagnético, não foi
preservada na TGR. Este ponto ilustra o fato de que uma boa dose de intuição deve
orientar a escolha da transformação.
Em resumo, as idéias contidas no Grupo de Renormalização, por incorporarem de
modo fundamental a simetria de invariância de escala, contribuı́ram para uma visão
unificadora dos fenômenos crı́ticos, além de fornecerem um arcabouço teórico para efe-
tuar cálculos de diagramas de fase e expoentes crı́ticos. Na próxima seção resumiremos
a formulação do GR de KG Wilson, que foi a primeira implementação efetiva das ideias
de Kadanoff.

7.9 The Momentum-Space Renormalization Group10


Para obter uma transformação do GR no espaço de momentos, vamos primeiro discutir
uma formulação conveniente do modelo de Ising neste espaço, a qual nos permitirá fazer
cálculos de forma mais simples. Lembremos inicialmente que a primeira zona de Brillouin
num espaço d-dimensional corresponde a componentes dos vetores de onda no intervalo
−π π
≤ kµ < , µ = 1, 2, . . . d (redes hipercúbicas), (7.9.1)
a a
onde a é o parâmetro de rede.
Vamos considerar o modelo de Ising nesta rede hipercúbica, para o qual a função de
partição se escreve
!
X XX X
Z(K) = exp K Sn Sn+e ≡ exp(−H[S]), (7.9.2)
{Sn } n e {Sn }

onde os n denotam sı́tios da rede e os e, vetores conectando sı́tios primeiros vizinhos;


H[S] deve, portanto, ser entendido como função de todos os Sn .
A passagem para o contı́nuo pode ser feita introduzindo-se funções-peso W (Sm ), de
modo a substituirmos, na função de partição, as somas em Sm = ±1 por integrais de
−∞ a +∞: " Z #
Y ∞
Z(K) = dSm W (Sm ) exp(−H[S]). (7.9.3)
m −∞

10
Esta seção é baseada em F Ravndal, Scaling & Renormalisation Groups (unpublished lecture notes,
Nordita, Copenhagen, 1975-76), lectures 8 & 9; ver também Reichl Cap. 8, Sec. S8.a.
7.9. THE MOMENTUM-SPACE RENORMALIZATION GROUP 185

Figure 7.27: Funções-peso usadas na passagem para o contı́nuo: (a) Duplo-delta, que
recupera o caso discreto; (b) Distribuição Gaussiana; (c) Distribuição-S 4 .

Nossa formulação original (Sm = ±1) corresponde a tomar, portanto,

2
W (Sm ) = δ(Sm − 1); (7.9.4)

veja a Fig. 7.27(a).


Uma distribuição contı́nua possı́vel, e que, semelhantemente à distribuição discreta,
preserva como nulo o valor médio dos spins é
 c 
2
W (Sm ) ∼ exp − Sm (modelo Gaussiano), (7.9.5)
2

esboçada na Fig. 7.27(b). Porém, uma forma mais próxima do caso discreto por onde
começamos seria
 c 
2 4
W (Sm ) ∼ exp − Sm − u Sm (modelo S 4 ), (7.9.6)
2

com u > 0, para que as integrais correspondentes sejam convergentes; veja a Fig. 7.27(c).
Se c = −4u, obtemos
2
W (Sm ) ∼ exp{−u (Sm − 1)2 }, (7.9.7)

de modo que, para u grande, teremos pesos parecidos com as funções-δ originais. Note
que, de acordo com as ideias de universallidade [KG Wilson (1971)], espera-se que o
estudo do modelo S 4 , para quaisquer valores de c e u, terá as mesmas propriedades
crı́ticas que o caso especial c = −4u, u → ∞.
186 CHAPTER 7. PHASE TRANSITIONS

7.9.1 The Gaussian Model


Comecemos pela análise do modelo Gaussiano, Eq. (7.9.5), que é mais simples. Podemos
escrever
" Z # !
Y ∞ XX cX 2
Z(K) = dSm exp K Sn Sn+e − S , (7.9.8)
m −∞ n e
2 n n

o que define a Hamiltoniana efetiva do modelo Gaussiano,


" #
XX cX 2 KX X 2 2
HG [S] = −K Sn Sn+e + S = (Sn+e − Sn ) + R Sn , (7.9.9)
n e
2 n n 2 n e

com
c
− 2d,R= (7.9.10)
K
e onde a soma em e se dá agora sobre números positivos. Note também que o acopla-
mento R é análogo ao coeficiente α2 (T ) do termo em φ2 da Teoria de Landau; veja a
Eq. (7.3.44). Further, the term (Sn+e − Sn )2 may be interpreted as the finite-difference
version of a (∇S)2 , which, at the most elementary level, takes care of fluctuations in S.
Introduzamos a transformada de Fourier dos spins da rede,
X
S(k) = ad S(xn ) e−ik·xn , (7.9.11)
xn
P P
com as notações S(xn ) ≡ Sn e xn ≡ n, cuja inversa é
Z π/a
S(x) = d−k S(k) eik·x , (7.9.12)
0

com
π/a π/a π/a π/a
dk1 dk2 dkd
Z Z Z Z
d−k ≡ ··· . (7.9.13)
0 −π/a 2π −π/a 2π −π/a 2π
Deve-se notar que, deste modo, o ‘campo’ de spins S(x) [Eq. (7.9.12)] reproduz o spin
S(xn ) nos pontos da rede, mas assume valores não-nulos também entre os sı́tios.
We may then write
Z π/a
Sn = d−k S(k) eik·x , (7.9.14)
0
Z π/a
Sn+e = d−k S(k) eik·(x+e) , (7.9.15)
0

so that Z π/a h i
Sn+e − Sn = d−k S(k) eik·x eik·e − 1 . (7.9.16)
0
7.9. THE MOMENTUM-SPACE RENORMALIZATION GROUP 187

Taking the square and summing yields

XXZ π/aZ π/a


0 0
X 2
(Sn+e − Sn ) = d−kd−k0 S(k) S(k0 ) ei(k+k )·x (eik·e − 1)(eik ·e − 1)
n,e n e 0 0
Z π/a X 2
= d−k S(k) S(−k) eik·e − 1) , (7.9.17)
0 e

where we used the fact that


0
X
ei(k+k )·x = δ(k + k0 ). (7.9.18)
n

Assim, a representação de HG [S] no espaço de momentos toma a forma


Z π/a " #
1 X
HG [S] = Ka−d d−k |eik·e − 1 |2 + R S(k)S(−k). (7.9.19)
2 0 e

Como estaremos interessados principalmente nas flutuações de longo alcance associadas


aos fenômenos crı́ticos (p.ex., transição de fase ferro-paramagnética de segunda ordem),
vamos colocar esta expressão em forma apropriada para longos comprimentos de onda,
k · e  1. Expandindo a exponencial e mantendo apenas o termo de ordem mais baixa,
X
|eik·e − 1 |2 ' k 2 a2 (7.9.20)
e

nos leva a
π/a
1
Z
HG [S] = Ka2−d d−k k 2 + r S(k)S(−k),
 
(7.9.21)
2 0
com
R c 2d
r= 2
= 2
− 2. (7.9.22)
a Ka a
Agora, a analogia com o coeficiente α2 (T ) da teoria de Landau se dá através de r (já
que o termo em k 2 está ligado às flutuações). Assim, espera-se que algum ponto crı́tico
corresponda a r = 0.
Este resultado sugere que se incorpore uma escala natural ao campo de spins, através
da redefinição
S(k) (Ka2−d )1/2 → S(k), (7.9.23)
de modo que
Λ
1
Z
d−k k 2 + r S(k) S(−k),
 
HG [S] = (7.9.24)
2 0

onde introduzimos a nomenclatura para o cutoff, Λ ≡ π/a. These changes remove the
specific length scale a, and, as we will see, only the scale factor b will play a significant
role.
188 CHAPTER 7. PHASE TRANSITIONS

Figure 7.28: As componentes de Fourier das variáveis de spin referentes aos comprimen-
tos de onda curtos, i.e., π/ba < k ≤ π/a (região sombreada na figura), são eliminadas
por integração.

Como vimos na Seção 7.6, a construção dos blocos de Kadanoff corresponde a eliminar
(i.e., tomar o traço parcial sobre) os graus de liberdade numa escala de comprimentos
inferior a ba, onde b é o fator de escala e a, o parâmetro de rede. Para efetuar uma
construção equivalente no espaço de momentos, lembremos inicialmente que distâncias
curtas correspondem a números de onda grandes, de modo que a redução de graus
de liberdade deve se dar pela eliminação (i.e., integração) dos modos com pequenos
comprimentos de onda, ou k’s ‘grandes’.
Vamos então dividir o intervalo de momentos 0 < k < π/a em uma parte de com-
primentos de onda longos, 0 < k < π/ba, e outra de comprimentos de onda curtos,
π/ba < k < π/a (b > 1); veja a Fig. 7.28. As componentes de Fourier do spin também
podem ser separadas em modos de comprimentos de onda longos, Sb0 (k), e curtos, σb (k),
definidos por
π π π
Sb0 (k) = S(k) para 0 < k < ; σb (k) = S(k) para <k< . (7.9.25)
ba ba a
Temos, portanto,
Z π/ba Z π/a
S(x) = d−k Sb0 (k) eik·x + d−k σb (k) eik·x = Sb0 (x) + σb (x), (7.9.26)
0 π/ba

de modo que Sb0 (x) é uma função com variação espacial lenta, essencialmente a média
espacial do campo S(x) sobre o volume V = (ba)d :
1
Z
0
Sb (x) ' hS(x)iV = d d y S(y) , (7.9.27)
V V
enquanto que o campo σb (x) flutua rapidamente sobre o mesmo volume.
A Eq. (7.9.24) mostra que a Hamiltoniana é diagonal quando expressa em termos das
componentes de Fourier; temos então

HG [S] = HG [Sb0 ] + HG [σb ], (7.9.28)

com
Λ/b
1
Z
HG [Sb0 ] d−k k 2 + r Sb0 (k) Sb0 (−k)
 
= (7.9.29)
2 0
7.9. THE MOMENTUM-SPACE RENORMALIZATION GROUP 189

e
Λ
1
Z
d−k k 2 + r σb (k) σb (−k).
 
HG [σb ] = (7.9.30)
2 Λ/b

Assim, podemos escrever para a função de partição Z = Z(r),


Z Z Z
−HG [S] −HG [σb ] 0
Z(r) = DS e = Dσb e × DSb0 e−HG [Sb ] , (7.9.31)

onde usamos a notação abreviada,


Z Z ∞ Z ∞ Z ∞
DS ≡ dS1 dS2 · · · dSN , (7.9.32)
−∞ −∞ −∞

com definições análogas para Dσb e DSb0 .


Estamos agora em condições de escrever a equação do grupo de renormalização para
a variável r. O campo Sb0 corresponde aos spins do bloco de Kadanoff de lado ba,
e σb corresponde aos graus de liberdade de spin internos aos blocos. Para obter a
nova Hamiltoniana de blocos, devemos somar sobre os graus de liberdade internos, i.e.,
fazer a integral sobre σb na Eq. (7.9.31). Esta integral contribuirá com uma constante,
independente dos spins de bloco Sb0 , portanto não nos interessará aqui e será omitida.
Temos então
( )
1 Λ/b −
Z Z
0 0 0
Z(r) = DSb exp − 2
d k (k + r) Sb (k) Sb (−k) . (7.9.33)
2 0

Note que a Eq. (7.9.33) está escrita para um volume contraı́do, e devemos retorná-lo
ao tamanho original, para extrair por completo o efeito da mudança de escala. Com isto
em mente, façamos uma transformação de escala dos momentos,

kb = b k, (7.9.34)

que deve ser acompanhada pela introdução de um campo de spin renormalizado por um
parâmetro C, a ser determinado:

Sb (kb ) = C −1 Sb0 (k). (7.9.35)

Isto fornece
Λ
kb2
   
1
Z Z
Z(r) = DSb (kb ) exp − C 2 b−d −
d kb +r Sb (kb ) Sb (−kb ) . (7.9.36)
2 0 b2

O fator C deve ser ajustado de maneira que o coeficiente de kb2 que aparece na Hamilto-
niana transformada, Eq. (7.9.36), seja o mesmo que na Hamiltoniana original (7.9.24):

C 2 b−d b−2 = 1 ⇒ C = b1+d/2 . (7.9.37)

Finalmente, Z
Z(rb ) = DSb e−HG [Sb ] , (7.9.38)
190 CHAPTER 7. PHASE TRANSITIONS

com
1 Λ−
Z
d kb kb2 + rb Sb (kb ) Sb (−kb ),

HG [Sb ] = (7.9.39)
2 0
onde a constante de acoplamento renormalizada é
rb = b2 r, (7.9.40)
que mostra que um ponto fixo é r = 0. O autovalor desta transformação é, portanto,
λt = b2 ⇒ yt = 2 (7.9.41)
Para obter o autovalor magnético, precisamos aplicar um campo B, o que contribui
com um termo adicional na Hamiltoniana,
X
HB [S] = B Sn = a−d BS(k = 0). (7.9.42)
n

Mas, tomando k = 0 na Eq. (7.9.35), obtemos


HB [Sb ] = a−d B C Sb (k = 0) ≡ a−d Bb Sb (k = 0), (7.9.43)
com
Bb = C B ⇒ λh = C = b1+d/2 ⇒ yh = 1 + d/2 (7.9.44)
Usando as relações entre expoentes crı́ticos e (yt , yh ), obtidas na Seção 7.6, obtemos:

d − yh d−2
β= = , (7.9.45a)
yt 4
yh d+2
δ= = , (7.9.45b)
d − yh d−2
2yh − d
γ= = 1, (7.9.45c)
yt
d d
α=2− =2− , (7.9.45d)
yt 2
1 1
ν= = , (7.9.45e)
yt 2
η = d + 2 (1 − yh ) = 0. (7.9.45f)
Vemos que alguns expoentes apresentam uma dependência explı́cita com a dimensiona-
lidade do espaço, algo ausente das formulações do GR aqui discutidas anteriormente.
No entanto, o fato de que ν = 1/2, η = 0 e γ = 1 para todo d, sendo estes os valores
previstos pelas TCM’s, indica que as leis de escala [Eqs. (7.6.36)] só não serão violadas
se tomarmos d = 4, que é a dimensionalidade crı́tica superior, di . Conclui-se, portanto,
que o modelo Gaussiano corresponde a efetuar uma aproximação de campo médio no
modelo inicial. Na realidade, isto não é surpreendente, já que na aproximação Gaussiana
cada modo flutua independentemente em torno da distribuição mais provável, e isto é a
essência das TCM’s.
Veremos, em seguida, que di desempenha um importante papel no GR no espaço dos
momentos, ao discutir o modelo S 4 .
7.9. THE MOMENTUM-SPACE RENORMALIZATION GROUP 191

7.9.2 The S 4 Model


Vamos agora delinear o que ocorre com o modelo S 4 , ao aplicarmos as mesmas ideias
usadas para a renormalização do modelo Gaussiano. Temos:
Z XX Xc 
Z(K, ũ) = DS e−H[S] , com H[S] = −K Sn Sn+e + Sn2 + ũSn4 ,
n e n
2
(7.9.46)
onde, por conveniência, usamos ũ ao invés de u, como aparece na Eq. (7.9.6). Intro-
duzindo as componentes de Fourier do campo de spins, e fazendo a renormalização tal
como para o modelo Gaussiano, temos (H0 [S] corresponde à parte já obtida para o
modelo Gaussiano):

1 Λ−
Z
H[S] = H0 [S] + V[S] = d k (k 2 + r) S(k) S(−k)
2 0
Z Λ Z Λ Z Λ Z Λ
− − −
+u d k1 d k2 d k3 d−k4 S(k1 ) S(k2 ) S(k3 ) S(k4 ) δ(k1 + k2 + k3 + k4 ),
0 0 0 0
(7.9.47)
onde

u= . (7.9.48)
K 2 a 4−d
O termo de interação V[S] = V[Sb0 , σb ] acopla as componentes de comprimento de onda
longo, Sb0 , e curto, σb ; isto resulta do fato de que, como a δ correspondente agora envolve
4 vetores de onda, nada impede que tenhamos alguns k’s de um tipo, e outros do outro
tipo, ainda assim somando zero. Portanto, teremos de fazer algo similar ao procedimento
adotado para transformações no espaço real: calcular médias em relação ao ensemble
em que as ‘células’ são consideradas desacopladas, só que agora as médias são sobre os
graus de liberdade de curto alcance, com o fator de Boltzmann exp −(H0 [σb ]):
0
Dσb e−H0 [σb ] e−V[Sb ,σb ]
R
−V[Sb0 ]
he i0 = . (7.9.49)
Dσb e−H0 [σb ]
R

Nesta aproximação, escrevemos:


Z
0 0
Z(r, u) = DSb0 e−H0 [Sb ] he−V[Sb ] i0 . (7.9.50)

Como a expansão em cumulantes (ver, e.g., Reichl 4.D.3) fornece


1 2 i −hVi2 ]+...
heV i0 = ehVi0 + 2 [hV 0 0 , (7.9.51)

teremos Z
0 1 2 i −hVi2 ]+...
Z(r, u) = DSb0 e−H0 [Sb ]−hVi0 − 2 [hV 0 0 . (7.9.52)

Começamos como no modelo Gaussiano, fazendo

kb = b k e Sb0 (k) = C Sb (kb ), (7.9.53)


192 CHAPTER 7. PHASE TRANSITIONS

sendo que agora precisamos também de uma expressão para ub , o transformado do termo
u em S 4 .
A partir daı́, desenvolvendo e mantendo os termos de ordem mais baixa possı́vel, e
que ainda assim dão resultado não-trivial, temos:

C = b1+d/2 , (7.9.54)

isto é, nesta ordem C é idêntico ao do caso Gaussiano. Também,

ub = C 4 b−3d u + O(u2 )
 
(7.9.55)

onde deve-se notar que a 4a. potência em C aparece porque este termo envolve 4 spins, e
o fator b−3d surge porque há 4 integrais em d−kb , mas a função δ elimina uma destas.11
Substituindo C dado em (7.9.54), obtemos:

ub = b4−d u + O(u2 ) .
 
(7.9.56)

Definindo ε ≡ 4−d, vemos que para ε < 0 (d > 4), o acoplamento de 4 spins é irrelevante,
i.e., u renormaliza para zero, de modo que o comportamento deve ser o mesmo do modelo
Gaussiano. Por outro lado, se ε > 0 (d < 4), o comportamento deve diferir do modelo
Gaussiano.
A análise do acoplamento de 2 spins mostra que, em ordem mais baixa, temos o
mesmo resultado do modelo Gaussiano:

rb = b2 [r + O(u)] . (7.9.57)

Logo, para obter os valores corretos (mesmo em ordem mais baixa) das posições dos
pontos fixos, e correspondentes autovalores da transformação, é necessário calcular as
correções indicadas nas 2 equações acima. Os cálculos são um tanto extensos (e fogem
dos objetivos deste curso introdutório), mas o resultado final é (ver Ravndal, Reichl)
 
C1 (b)
rb = b2 r + 12u (7.9.58a)
1+r
 
4−d 2 C2 (b)
ub = b u − 36u , (7.9.58b)
(1 + r)2
com
1
1
Z
C` (b) ≡ (1 + r) `
d−k . (7.9.59)
1/b (k 2 + r)`
Os pontos fixos da transformação (7.9.58) são os seguintes:

(r∗ , u∗ ) = (0, 0) → ponto fixo trivial, ou Gaussiano (7.9.60)


 
∗ ∗ ε ε
(r , u ) = − , → ponto fixo não-trivial, só acessı́vel quando ε > 0, (7.9.61)
6 3d0
11
Lembre-se que para o acoplamento de 2 spins tı́nhamos 2 integrais, e 1 função-δ, e, ao final, ficamos
com 1 integral, e a condição dada pela δ aparecia no fato de que os 2 termos de spin correspondiam,
respectivamente, a k e −k.
7.9. THE MOMENTUM-SPACE RENORMALIZATION GROUP 193

r (a) d > 4 r (b) d < 4

* u * u

Figure 7.29: Flow diagrams. The fixed points are denoted by ∗.

onde d0 é uma constante relacionada ao ângulo sólido em d dimensões. Note que para
d > 4 apenas o primeiro ponto fixo é acessı́vel, sendo localizado na origem da Fig. 7.29(a).
Este mesmo ponto fixo (r∗ , u∗ ) = (0, 0) ainda aparece para d < 4, mas surge um novo
ponto fixo; ambos são indicados na Fig. 7.29(b).
Na vizinhança de cada ponto fixo, a transformação linearizada do grupo de renor-
malização (TGR) pode ser expressa sob a forma matricial. Aqui também os cálculos são
longos, chegando-se a (veja Ravndal, Reichl)
∗ − r∗ )
   
M = 2 − 0d0 u dε0−(16d ∗ , na base
r
, (7.9.62)
0u u
até ordem mais baixa em ε. A estabilidade relativa dos pontos fixos é determinada pelos
autovalores da TGR,
λ1 = 2 − d0 u∗ (7.9.63a)

λ2 = ε − 6d0 u , (7.9.63b)
enquanto que as trajetórias do GR são descritas pelos correspondentes autovetores (à
direita, R),
 
R 1
v1 = (7.9.64a)
0
 d 
− 20 1 + 12 (ε + 4r∗ )

R
v2 = (7.9.64b)
1
Assim, v1R aponta na direção de r, enquanto que v2R aponta numa direção inclinada com
relação a r e u; veja a Fig. 7.29.
Quando d > 4 (ε < 0), só há um ponto fixo, a saber (r∗ , u∗ ) = (0, 0), e o comporta-
mento crı́tico é regido por este ponto fixo (Gaussiano), com λ1 desempenhando o papel
de autovalor térmico,
λ1 = λt = 2 (7.9.65a)
λ2 = ε < 0, (7.9.65b)
194 CHAPTER 7. PHASE TRANSITIONS

Table 7.1: Comparação entre diferentes previsões de valores dos expoentes crı́ticos.

mean- ε-
exponent d=3 experiments
field expansion
α 0 ε/2 1/2 0.12
β 1/2 1/2 − ε/6 1/3 0.31
δ 3 3+ε 4 5.2
γ 1 1 + ε/6 7/6 1.25
ν 1/2 1/2 + ε/12 7/12 0.64
η 0 0 0 0.1

Dizemos então que v1R é uma perturbação relevante, por afastar as trajetórias do ponto
fixo (0, 0) (para longe da criticalidade), daı́ que λ1 faz o papel do autovalor térmico,
associado aos expoentes crı́ticos. Por outro lado, v2R é dita uma perturbação irrelevante,
por ‘sugar’ as trajetórias em direção ao ponto fixo (0, 0), i.e., não consegue afastar da
criticalidade. Este comportamento das trajetórias do GR estão ilustrados na Fig. 7.29(a).
Quando d < 4 (ε > 0), as Eqs. (7.9.63) fornecem dois conjuntos de autovalores:
(
λG
1 =2
Gaussiano: (7.9.66)
λG
2 = ε > 0,

e (
λ1 = 2 − 3ε
Não-trivial: (7.9.67)
λ2 = −ε < 0.

Note as seguintes diferenças com relação ao caso d > 4: (1) com a troca de sinal de
λ2 no ponto fixo gaussiano, a direção v2R passa a ser relevante, por levar o comporta-
mento crı́tico para o ponto fixo não-trivial, enquanto que a auto-direção v1R no ponto fixo
Gaussiano não sofreu qualquer mudança. (2) há um segundo ponto fixo, cujo compor-
tamento crı́tico também está associado com a direção v1R , porém com autovalor distinto
do correspondente Gaussiano, em torno do qual a direção v2R é irrelevante (λ2 < 0).
Os diagramas de fluxo resultantes são, portanto, aqueles mostrados na Fig. 7.29. Para
d = 4, a análise é mais complexa, já que aparecem correções logaritmicas.
Embora toda esta análise seja correta, em princı́pio, apenas para ε  1, é ilustrativo
examinar o que ocorre se fizermos ε = 1, ou d = 3. Usando os valores apropriados da
expansão-ε para d < 4, lançamos na Tabela 7.1 os valores correspondentes; a tabela
então compara os expoentes até ordem ε, com os de campo médio (mean-field), bem
como com resultados experimentais para d = 3 (magnetos de Ising, i.e, com anisotropia
uniaxial, ou sistemas P V T próximos ao ponto crı́tico). Note que, com exceção de η,
todos os resultados da expansão-ε representam correções às previsões de campo médio,
e, importante, apontam nas direções corretas de aumento ou diminuição dos valores à
medida em que a dimensionalidade diminui de 4.
7.10. EXERCISES 195

7.10 Exercises
1. A Fig. 7.4 mostra curvas de coexistência para um fluido tı́pico. Ao longo do trecho
AC, denominado de curva de pressão de vapor, as fases gasosa e lı́quida coexistem.
Suponha que, ao longo desta curva, as mudanças de volume do lı́quido sejam de-
sprezı́veis em comparação com as mudanças no volume do gás, e que este último
possa ser tratado como um gás ideal. Suponha também que o calor latente de vapo-
rização por mol, `, seja aproximadamente constante no intervalo de temperaturas de
interesse.

(a) Mostre que a pressão de vapor é dada por

P = P0 e−`/RT ,

onde R é a constante dos gases, e P0 é uma constante.


(b) Mostre que a capacidade calorı́fica ao longo da curva de pressão de vapor é dada
por
ν`
Ccoex = CP − ,
T
para ν moles.

2. Obtenha os expoentes crı́ticos α, β, γ e δ para o gás de van der Waals.

3. O modelo de Heisenberg para spin-S é definido pela Hamiltoniana


X X
H = −J Si · Sj − µ H · Si ,
hiji i

onde µ é o momento magnético, H é um campo externo aplicado, e as somas se


estendem aos sı́tios de uma rede d-dimensional, sendo que hiji restringe a soma a
pares de primeiros vizinhos. Considere a aproximação de Weiss para este modelo.

(a) Mostre que a temperatura crı́tica é dada por

S(S + 1) µzJ
kB Tc = ,
3 2
onde z é o número de coordenação. Compare os resultados com os do modelo de
Ising e comente fisicamente.
(b) Mostre que a magnetização satisfaz uma lei de estados correspondentes, como
função de um campo H̃ e de uma temperatura T̃ reduzidos.
(c) Obtenha os expoentes crı́ticos α, β, γ e δ e comente sua dependência com S e d.

4. Considere um sistema de spins localizados, descrito pela Hamiltoniana


X X
H = −J σiz σjz − Γ σix ,
hi,ji i
196 CHAPTER 7. PHASE TRANSITIONS

z’
zJ < z >
2
R
< z>

< x> x

Figure 7.30: Problema 4 – Teoria de Weiss para o modelo de Ising com campo transverso.

onde os σ são as matrizes de Pauli e a primeira soma se estende aos pares de sı́tios
primeiros vizinhos de uma rede d-dimensional com número de coordenação z. Pode-
mos definir uma Hamiltoniana efetiva (Weiss) como
X
HW = − γ · σ i,
i

onde o campo médio que atua em cada spin é dado por


zJ z
γ = Γx̂ + hσ i ẑ;
2
veja a Figura 7.30.
(a) Tome a direção ẑ0 , paralela a γ , como a nova direção de quantização. Mostre que
0
hσ z i ≡ R = tanh βγ,
onde γ ≡ | γ |.
(b) Obtenha uma condição de autoconsistência para γ. A transição de fase é sina-
lizada por hσ z i ' 0, o que ocorre para Γ ∼ J. Mostre que, neste caso, a curva
crı́tica é dada por
2Γ Γ
= tanh ,
zJ kB Tc
e faça um esboço de τ ≡ (2kB Tc /zJ) em função de g = 2Γ/zJ. Discuta seus
resultados fisicamente.
5. Considere a seguinte expansão para a energia livre, em termos do parâmetro de ordem
φ, de um sistema magnético a campo nulo.
A(T, φ) = A0 (T ) + α2 (T ) φ2 − α4 (T ) φ4 + α6 (T ) φ6 ,
7.10. EXERCISES 197

com α4 (T ) > 0. Suponha que, perto de Tc , o coeficiente do termo em φ6 possa ser


escrito como
α2 (T ) T − Tc
α6 (T ) = 4 (1 + ε), ε ≡ .
3α2 (T ) Tc
Discuta a transição de fase do sistema.

6. Em um diagrama de fases, o encontro entre linhas de transição de primeira e de


segunda ordens, se dá no chamado ponto tricrı́tico, caracterizado, por exemplo, por
uma temperatura Tt . Na expansão de Landau para a energia livre, este ponto é deter-
minado impondo-se que o coeficiente do termo de quarta ordem se anule: α4 (Tt ) = 0.
Considere um sistema magnético e defina ε ≡ (T − Tt )/Tt .

(a) Calcule os expoentes tricrı́ticos:


(i) para a magnetização, M ∼ |ε|βt ;
(ii) para a suscetibilidade, χT ∼ |ε|−γt ;
(iii) para a isoterma crı́tica, M ∼ H 1/δt ; e
(iv) para o calor especı́fico, ∆CH ∼ |ε|−αt .
(b) Obtenha a dimensão crı́tica superior para fenômenos tricrı́ticos, sabendo que os
expoentes que descrevem as correlações são os mesmos da teoria de Landau para
os pontos crı́ticos usuais, a saber, νt = 1/2 e ηt = 0.

7. Um determinado sistema sofre uma transição de fase descrita por um parâmetro de


ordem bidimensional, φ ≡ (φ1 , φ2 ). Suponha que argumentos de simetria imponham
que a expansão de Landau para a energia livre de Helmholtz seja dada por
a 2  b 4  λ
A(T, φ) = A0 + φ1 + φ22 + φ1 + φ42 + φ21 φ22 ,
2 4 2
onde A0 , a, b e λ são funções de T , com b > 0 e λ 6= b.

(a) Discuta as transições de fase deste sistema, caracterizadas pelo ordenamento


(e/ou desordenamento) das componentes φ1 e φ2 .
(b) Discuta a estabilidade das fases obtidas em (a) num diagrama λ vs. b.

8. Mostre que para um sistema descrito pela Hamiltoniana


X X
H = −J σi σj − Hσi ,
hi,ji i

onde os σ = ±1 e a primeira soma se estende aos pares de primeiros vizinhos, a


suscetibilidade satisfaz a regra de soma
β X
χ= h[σi − hσi i][σj − hσj i]i ,
N
i,j

onde N é o número de sı́tios da rede. Este é o teorema da flutuação-dissipação.


198 CHAPTER 7. PHASE TRANSITIONS

9. Mostre que a função de correlação para o modelo de Ising em uma rede unidimensional
com condições de contorno periódicas é dada por
 r
λ<
hσ0 σr i = hσ0 ihσr i + a ,
λ>

onde a é uma constante e os λ’s são os autovalores da matriz de transferência.

10. No chamado modelo de Potts associa-se a cada sı́tio uma variável clássica, σi =
1, 2 . . . q, representando os estados possı́veis de um vetor. Para q = 2, o vetor pode
apontar em um dos dois sentidos de uma direção arbitrária; é o caso análogo ao da
componente z do operador de spin-1/2. Para q = 3 (q = 4), o vetor pode apontar
para um dos vértices de um triângulo equilátero (tetraedro). A energia de interação
entre dois destes vetores, localizados em sı́tios vizinhos i e j pode ser tomada como

Hij = −qJδσi σj ,

onde J é uma constante e δσi σj é a função delta de Kronecker. Considere uma rede
linear (uni-dimensional) cujos N (N  1) sı́tios estejam ocupados por variáveis deste
tipo, nos casos particulares de q = 3 e 4. Calcule o comprimento de correlação destes
sistemas a baixas temperaturas e interprete fisicamente seu resultado. Comparando
os resultados para q = 2, 3 e 4, intua o comportamento de ξ(T ) para um q genérico.

11. O modelo de Ising com spin−1 num anel é definido pela Hamiltoniana
X
H = −J Si Si+1 ,
i

onde Si = 0, ±1.

(a) Escreva a matriz de transferência para este modelo, numa base de autovetores do
operador Π, que tem a seguinte propriedade: Π|Si = | − Si.
(b) Obtenha o comprimento de correlação a baixas temperaturas.
(c) Qual a temperatura crı́tica deste sistema?

12. Considere o cluster representado na Fig. 7.31(a) como um pedaço de uma rede qua-
drada, que tem spins de Ising em cada sı́tio. Impondo como condições de contorno
que os sı́tios 1 e 1’ (2 e 2’) estejam no mesmo estado de spin, o cluster fica equivalente
ao da Fig. 7.31(b), no qual as ligações horizontais externas foram descartadas porque
estamos interessados na propagação de correlações na direção vertical. Cada par de
spins interage com constante de acoplamento K ≡ J/kB T . Uma transformação do
grupo de renormalização pode ser obtida eliminando-se as variáveis de spin nos sı́tios
3 e 4 do cluster da Fig. 7.31(b), obtendo-se um acoplamento efetivo K 0 entre os spins
nos sı́tios 1 e 2, como na Fig. 7.31(c).
7.10. EXERCISES 199

2=2’" 2"
2" 2’"
K K K K

≈"
K K
3" 4" K’
3" 4" b=2
K K K K
K
1=1’" 1"
1" 1’"
(a)" (b)" (c)"

Figure 7.31: Problema 12 – Cluster auto-dual para a rede quadrada.

(a) Mostre que a TGR neste caso é dada por

2t2 (1 + t)
t0 = ,
1 + 2t3 + t4
onde t ≡ tanh K e t0 ≡ tanh K 0 .
(b) Obtenha o ponto fixo da transformação e o expoente ν. Compare com os resul-
tados exatos, tanh Kc = 0.414 e ν = 1. Comente.

13. Suponha que as ligações entre os sı́tios de uma rede não estejam necessariamente todas
presentes, mas apenas uma fração delas, distribuı́das aleatóriamente; a concentração
de ligações é p ∈ [0, 1].

(a) Discuta qualitativamente a existência (ou não) de uma ilha infinita composta de
sı́tios conectados por ligações nos limites p  1 e p ∼ 1. Faça analogia desta
transição geométrica (de percolação) com uma transição de fase térmica.
(b) Considere três sı́tios dispostos ‘em série’ como na Fig. 7.32(a). Qual a probabil-
idade ps do sı́tio 1 estar conectado ao 3? Qual o valor da concentração crı́tica
para a transição de percolação em uma dimensão? Justifique cuidadosamente
suas argumentações.
(c) Considere dois sı́tios dispostos ‘em paralelo’ como na Fig. 7.32(b). Qual a prob-
abilidade pp do sı́tio 1 estar conectado ao 2? Justifique cuidadosamente suas
argumentações.
(d) Use o cluster da dizimação na rede quadrada [Fig. 7.26(b)] e as associações em
‘série’ e ‘paralelo’ para obter uma aproximação para pc e ν para o problema
da percolação por ligações na rede quadrada. Justifique cuidadosamente suas
argumentações. Compare com os resultados exatos pc = 1/2 e ν = 4/3.

14. Considere o problema de percolação por sı́tios, no qual cada sı́tio possa estar ativo
com probabilidade p e inativo com probabilidade 1−p. Semelhantemente ao problema
200 CHAPTER 7. PHASE TRANSITIONS

p
1$ p 2$ p 3$
1$ 2$
p

(a)$ (b)$

Figure 7.32: Problema 13 – Combinações em série (a) e em paralelo (b) de ligações de


uma rede. Cada ligação está presente com probabilidade p.

de percolação por ligações, existem dois regimes distintos: o de altas concentrações,


no qual pode-se atravessar a rede (infinita) de um extremo a outro, por caminhos
formados pela conexão de sı́tios ativos primeiros vizinhos; e o de baixas concentrações,
no qual não há um caminho conectando um extremo a outro da rede.

5 6

p p
3 4

p p
1 2
Figure 7.33: Problema 14

(a) Considere o cluster da Fig. 7.33, como uma aproximação da rede quadrada. Cal-
cule a probabilidade, p0 , de que os sı́tios 1 ou 2 estejam ligados aos sı́tios 5 ou 6
por meio de um caminho formado de sı́tios ativos primeiros vizinhos.
(b) Interprete o resultado de (a) como a probabilidade do cluster estar ativo, no
contexto do Grupo de Renormalização. Obtenha, então, uma aproximação para
(s)
a concentração crı́tica, pc .
(c) De um modo geral, como você espera que as concentrações crı́ticas para os prob-
(s) (`)
lemas de percolação por sı́tios e por ligações, pc e pc , considerando uma mesma
rede (p. ex., quadrada, triangular, etc) devam se comparar?
7.10. EXERCISES 201

15. A Hamiltoniana de Ising em uma dimensão é dada por


X
H = −J σiz σi+1
z
,
i

onde J > 0 e J < 0 correspondem, respectivamente, aos casos ferromagnético (FM)


e antiferromagnético (AFM), e os σ z são as matrizes de Pauli.

(a) Quais os estados fundamentais do sistema nos casos FM e AFM?


(b) Defina t ≡ tanh J/kB T e t0 = tanh(J/kB T )0 , e mostre que a combinação ‘em
série’ de b ligações fornece t0 = tb ; veja a Fig. 7.34. [Sugestão: obtenha uma
transformação do Grupo de Renormalização (TGR) ‘dizimando’ os spins nos sı́tios
cheios da Fig. 7.34]

t t t b t’

1 2 3 b b+1 1 b+1

Figure 7.34: Problema 15

(c) Obtenha os pontos fixos da TGR. Eles dependem de b? Discuta detalhadamente


o significado fı́sico de cada um deles, incluindo o valor de Tc .
(d) Comente sobre a adequação (ou não) da descrição do caso antiferromagnético por
este método.
202 CHAPTER 7. PHASE TRANSITIONS
Chapter 8

Introduction to Nonequilibrium
Statistical Mechanics
Refs.: Reichl e Pathria; Sergio Queiroz, Notas de Aula

8.1 Introduction
Até aqui vimos trabalhando com sistemas em equilı́brio no limite termodinâmico
(N, V → ∞). Nestes casos, médias termodinâmicas são calculadas, e correspondem aos
resultados esperados das medidas das diversas grandezas. No entanto, já vimos que flu-
tuações em torno das médias existem, mas que são geralmente pequenas. Não obstante,
o estudo destas flutuações é particularmente importante por diversas razões. Primeira-
mente, porque elas desempenham um papel crucial na vizinhança de pontos crı́ticos de
2a. ordem: o comportamento estático (i.e., sem dependência temporal) das funções de
correlação serviu de base para as teorias de scaling no Cap. 7. Em segundo lugar, porque
elas nos permitem compreender, de forma abrangente, uma classe de fenômenos, gene-
ricamente chamados de “movimentos Brownianos”, em homenagem ao botânico Robert
Brown, que, em 1827, observou que grãos de pólen imersos em água executam um movi-
mento errático de agitação. Trata-se de um movimento no qual alguns poucos graus de
liberdade do sistema (os grãos de pólen) evoluem em uma escala de tempo muito mais
lenta que os demais (as moléculas da água). No contexto de nosso curso, a descrição
deste movimento ilustra como um sistema simples se aproxima do equilı́brio, e como as
flutuações podem ser tratadas de modo quantitativo. Antes, porém, discutiremos como
trabalhar com funções de distribuição de probabilidades dependentes do tempo, em casos
simples de memória restrita a eventos recentes, os chamados processos markovianos.

8.2 Time-dependent Probability Distributions


Consideremos um sistema cujas propriedades podem ser descritas em termos de uma
única variável estocástica Y ; esta pode representar a velocidade de uma partı́cula Brow-
niana, ou a distância percorrida em um movimento aleatório (random walk ), etc.
Usaremos as seguintes definições:

203
204 CHAPTER 8. NONEQUILIBRIUM STATISTICAL MECHANICS

• Densidade de probabilidade de que Y = y1 no instante t1 : P1 (y1 , t1 )


• Densidade de probabilidade conjunta de que Y = y1 em t1 e Y = y2 em t2 :
P2 (y1 , t1 ; y2 , t2 )
• Densidade de probabilidade conjunta de que Y = y1 em t1 , Y = y2 em t2 ,. . . , e
Y = yn em tn : Pn (y1 , t1 ; y2 , t2 ; . . . ; yn , tn )

Estas densidades de probabilidade são positivas,

Pn ≥ 0, (8.2.1)

redutı́veis,
Z
dyk Pn (y1 , t1 ; . . . ; yk , tk ; . . . ; yn , tn ) = Pn−1 (y1 , t1 ; . . . ; yk−1 , tk−1 ; yk+1 , tk+1 ; . . . ; yn , tn ),
(8.2.2)
e normalizadas, Z
dy1 P1 (y1 , t1 ) = 1. (8.2.3)

Podemos também definir múltiplas correlações (i.e., momentos da distribuição) entre


as variáveis estocásticas em diferentes instantes de tempo,
Z Z Z
hy1 (t1 ) y2 (t2 ) . . . yn (tn )i = dy1 dy2 . . . dyn y1 y2 . . . yn Pn (y1 , t1 ; . . . ; yn , tn ).
(8.2.4)
Se Y for uma variável discreta, as integrais acima devem ser substituı́das por somas.
Um processo é dito estacionário se

Pn (y1 , t1 ; y2 , t2 ; . . . ; yn , tn ) = Pn (y1 , t1 + τ ; y2 , t2 + τ ; . . . ; yn , tn + τ ), (8.2.5)

para todo n e τ . Assim, para um processo estacionário,

P1 (y1 , t1 ) = P1 (y1 ), (8.2.6)

de modo que hy1 (t1 )y2 (t2 )i depende apenas do intervalo de tempo |t1 −t2 |, como demons-
trado a seguir.
Demonstração:
Z Z
hy1 (t1 ) y2 (t2 )i = dy1 dy2 y1 y2 P2 (y1 , t1 ; y2 , t2 ) (8.2.7)
Z Z
= dy1 dy2 y1 y2 P2 (y1 , t1 + τ ; y2 , t2 + τ ) (8.2.8)
Z Z
−→ = dy1 dy2 y1 y2 P2 (y1 , 0 ; y2 , t2 − t1 ) (8.2.9)
τ =−t1
Z Z
−→ = dy1 dy2 y1 y2 P2 (y1 , t1 − t2 ; y2 , 0) (8.2.10)
τ =−t2

=⇒ hy1 (t1 ) y2 (t2 )i só depende de |t1 − t2 |. (8.2.11)


8.2. TIME-DEPENDENT PROBABILITY DISTRIBUTIONS 205

Todos os processos fı́sicos em equilı́brio são estacionários.


É importante também introduzir a (densidade de) probabilidade condicional de que
Y valha y2 em t2 dado que valeu y1 em t1 , denotada por P1|1 (y1 , t1 | y2 , t2 ). Ela é definida
pela identidade
P2 (y1 , t1 y2 , t2 ) ≡ P1 (y1 , t1 ) × P1|1 (y1 , t1 | y2 , t2 ). (8.2.12)
Usando (8.2.2) e (8.2.12), obtemos uma relação entre densidades de probabilidade em
tempos distintos:
Z
P1 (y2 , t2 ) = dy1 P1 (y1 , t1 ) P1|1 (y1 , t1 | y2 , t2 ). (8.2.13)

Integrando (8.2.12) em y2 , temos


Z
dy2 P2 (y1 , t1 y2 , t2 ) = P1 (y1 , t1 )
Z
= P1 (y1 , t1 ) dy2 P1|1 (y1 , t1 | y2 , t2 ), (8.2.14)

where the first equality follows from Eq. (8.2.2). Therefore, the conditional probability
is also normalised: Z
dy2 P1|1 (y1 , t1 | y2 , t2 ) = 1. (8.2.15)

P1|1 é também chamada de probabilidade de transição (de y1 para y2 ).


De modo análogo, podemos também definir uma probabilidade condicional conjunta
de que Y valha yk+1 em tk+1 , · · · , yk+` em tk+` , dado que valeu y1 em t1 , · · · , yk em tk :
Pk|` (y1 , t1 ; · · · ; yk , tk | yk+1 , tk+1 ; · · · ; yk+` , tk+` ). Assim,

Pk|` (y1 , t1 ; · · · ; yk , tk | yk+1 , tk+1 ; · · · ; yk+` , tk+` ) =


Pk+` (y1 , t1 ; · · · ; yk , tk ; yk+1 , tk+1 ; · · · ; yk+` , tk+` )
. (8.2.16)
Pk (y1 , t1 ; · · · ; yk , tk )
Probabilidades condicionais são importantes quando há correlações entre os valores da
variável estocástica em tempos diferentes; isto é, quando a variável estocástica guarda
alguma memória do passado.
No entanto, se a variavel estocástica só tem memória do passado imediato, o processo
de evolução temporal é chamado de Markoviano. Neste caso,

Pn−1|1 (y1 , t1 ; · · · ; yn−1 , tn−1 | yn , tn ) = P1|1 (yn−1 , tn−1 | yn , tn ),


com t1 < t2 < · · · < tn .
(8.2.17)
Assim, um processo Markoviano é completamente determinado por P1 (y, t) e
P1|1 (y1 , t1 | y2 , t2 ), e toda a hierarquia de densidades de probabilidades pode ser obtida
a partir destas. Por exemplo:

P3 (y1 , t1 ; y2 , t2 ; y3 , t3 ) = P2 (y1 , t1 ; y2 , t2 ) P2|1 (y1 , t1 ; y2 , t2 | y3 , t3 )


= P1 (y1 , t1 ) P1|1 (y1 , t1 | y2 , t2 ) P1|1 (y2 , t2 | y3 , t3 ). (8.2.18)
206 CHAPTER 8. NONEQUILIBRIUM STATISTICAL MECHANICS

Figure 8.1: Forma tı́pica da probabilidade de transição. O passo da transição é ξ = y −y 0 .


[Figura cedida por SLA de Queiroz]

Integrando sobre y2 e admitindo t1 < t2 < t3 , vem


Z
P2 (y1 , t1 ; y3 , t3 ) = P1 (y1 , t1 ) dy2 P1|1 (y1 , t1 | y2 , t2 ) P1|1 (y2 , t2 | y3 , t3 ), (8.2.19)

que, dividindo por P1 (y1 , t1 ), fornece


Z
P1|1 (y1 , t1 | y3 , t3 ) = P1|1 (y1 , t1 | y2 , t2 ) P1|1 (y2 , t2 | y3 , t3 ) dy2 , (8.2.20)

resultado conhecido como Equação de Chapman-Kolmogorov. O processo de correlação


entre t1 e t3 é colocado totalmente em função das correlações t1 → t2 e depois, indepen-
dentemente, de t2 → t3 . Isto expressa o fato de que passos sucessivos são estatisticamente
independentes.

8.3 The Master Equation and the Fokker-Planck Equation


A equação mestra fornece a variação temporal de probabilidades. Ela pode ser construı́da
com base na definição de uma taxa de transição Wt1 (y1 , y2 ), que é a probabilidade
de transição entre y1 e y2 (de y1 para y2 ) por unidade de tempo, calculada em t1 .
Implicitamente, estamos supondo tratar-se um processo Markoviano, ao dizer que W só
depende de y1 e y2 , e não do passado mais remoto. Com isto,
∂P1 (y, t)
Z
= dy 0 Wt (y 0 , y) P1 (y 0 , t) − Wt (y, y 0 ) P1 (y, t) ,

(8.3.1)
∂t
é a equação mestra. Ela reflete o fato de que a probabilidade de ocorrência de y aumenta
devido às transições de y 0 para y num dado intervalo de tempo, mas diminui devido às
transições de y para y 0 .
Admitindo que as mudanças em y só ocorrem em pequenas quantidades, e intro-
duzindo o passo
ξ = y − y0, (8.3.2)
temos,
W (y 0 , y) = W (y 0 , y − y 0 ) ≡ W (y 0 , ξ), (8.3.3)
8.3. THE MASTER EQUATION AND THE FOKKER-PLANCK EQUATION 207

com o aspecto tı́pico da Fig. 8.1 (para y 0 fixo), podemos escrever


∂P1 (y, t)
Z
= dξ {W (y − ξ, ξ) P1 (y − ξ, t) − P1 (y, t) W (y, y − ξ)} =
∂t
Z Z
= dξ W (y − ξ, ξ) P1 (y − ξ, t) − P1 (y, t) dξ W (y, y − ξ), (8.3.4)

onde na primeira igualdade usamos o fato de que


Z ∞ Z −∞ Z ∞
dy 0 f (y 0 ) = − dξf (y − ξ) = dξf (y − ξ). (8.3.5)
−∞ ∞ −∞

Expandindo o produto W (y − ξ, ξ) P1 (y − ξ, t) em série de Taylor em torno de ξ = 0,


vem
W (y − ξ, ξ) P1 (y − ξ, t) = W (y, ξ) P1 (y, t)−
∂ ξ2 ∂2
−ξ [W (y, ξ) P1 (y, t)] + [W (y, ξ) P1 (y, t)] + · · · .
∂y 2 ∂y 2
(8.3.6)
Pudemos parar no 2o. termo porque na integral em dξ apenas os termos com |ξ|  1 vão
importar (e para esta região pode-se truncar a série) já que, de qualquer modo, W → 0
para |ξ|  1.
Levando (8.3.6) em (8.3.4), obtemos
ξ2 ∂2
 
∂P1 ∂
Z
= dξ W (y, ξ) P1 (y, t) − ξ (W (y, ξ) P1 (y, t)) + (W (y, ξ) P1 (y, t)) −
∂t ∂y 2 ∂y 2
Z
− P1 (y, t) dξ W (y, y − ξ). (8.3.7)

Novamente, como as integrais vão de −∞ a +∞, tem-se


Z Z
dξ W (y, ξ) = dξ W (y, y − ξ), (8.3.8)

de modo que
1 ∂2  2
 
∂P1 ∂
Z

=− dξ [ξ W (y, ξ) P1 (y, t)] − ξ W (y, ξ) P1 (y, t) . (8.3.9)
∂t ∂y 2 ∂y 2
Definindo o momento de n–ésima ordem da distribuição de saltos,
Z
αn (y) ≡ dξ ξ n W (y, ξ), (8.3.10)

obtemos, finalmente,
∂P1 (y, t) ∂ 1 ∂2
= − [α1 (y) P1 (y, t)] + [α2 (y) P1 (y, t)] , (8.3.11)
∂t ∂y 2 ∂y 2
que é a equação de Fokker-Planck; é a equação diferencial obtida a partir da equação
mestra, que é integro-diferencial.
208 CHAPTER 8. NONEQUILIBRIUM STATISTICAL MECHANICS

8.4 Application: Random Walk and the Diffusion Equa-


tion
O problema do passeio ao acaso (random walk ) pode ser formulado como uma cadeia
Markoviana de probabilidades de transição. Consideremos, por simplicidade, um movi-
mento unidimensional, com passos de tamanho `, e suponhamos que o tempo entre
passos seja τ . A versão discreta da Eq. (8.2.13) se escreve
X
P1 (n2 `, sτ ) = P1 (n1 `, (s − 1)τ ) P1|1 (n1 `, (s − 1)τ |n2 `, sτ ) . (8.4.1)
n1

onde a natureza Markoviana do processo se manifesta pelo fato de apenas os tempos sτ


e (s − 1)τ serem envolvidos.
Se a probabilidade de dar um passo à esquerda e à direita é a mesma, i.e.,
1
P1|1 (n1 `, (s − 1)τ | n2 `, sτ ) = [δn ,n +1 + δn1 ,n2 −1 ] , (8.4.2)
2 1 2
então
1 1
P1 (n`, sτ ) = P1 ((n − 1)`, (s − 1)τ ) + P1 ((n + 1)`, (s − 1)τ ) . (8.4.3)
2 2
Para relacionar com a equação de difusão, cujas variáveis x e t são contı́nuas, tomemos
1
[P1 (n`, sτ ) − P1 (n`, (s − 1)τ )] =
τ
`2 P1 ((n + 1)`, (s − 1)τ ) + P1 ((n − 1)`, (s − 1)τ ) − 2P1 (n`, (s − 1)τ )
 
= .
2τ `2
(8.4.4)

Definindo x ≡ n` e t ≡ sτ , e `, τ → 0 com D ≡ `2 /2τ = constante, a Eq. (8.4.4) fica

∂P1 ∂ 2 P1
(x, t) = D (x, t); (8.4.5)
∂t ∂x2
ou seja, a equação de Fokker-Planck para o problema é a equação de difusão para a
densidade de probabilidades. Note que, pela simetria da distribuição, i.e., W (y, −ξ) =
W (y, +ξ), o primeiro momento é zero.
A tı́tulo de ilustração, vamos obter a solução correspondente à condição inicial
P1 (x, 0) = δ(x). Isto corresponde a um processo de difusão em que, por exemplo,
um frasco de perfume é aberto num dado ponto, e o cheiro se espalha (sem convecção)
pelo ar, ou, então, uma pequena partı́cula se movimenta em suspensão em um fluido
(movimento Browniano; veja a Seção 8.5.)
Introduzamos a transformada de Fourier de P1 (x, t),
Z +∞
P̃1 (k, t) ≡ dx P1 (x, t) eikx , (8.4.6)
−∞
8.4. RANDOM WALK 209

cuja inversa é
+∞
1
Z
P1 (x, t) = dk P̃1 (k, t) e−ikx . (8.4.7)
2π −∞

Assim,
∂2
Z  Z 
∂ −ikx −ikx
dk P̃1 (k, t) e =D 2 dk P̃1 (k, t) e , (8.4.8)
∂t ∂x
que fornece " #
∂ P̃1 (k, t)
Z
dk + k 2 D P̃1 (k, t) e−ikx = 0, (8.4.9)
∂t
de modo que o termo entre colchetes deve ser satisfeito para todo k. Logo,

∂ P̃1 (k, t)
= −k 2 D P̃1 (k, t), (8.4.10)
∂t
cuja solução é
2
P̃1 (k, t) = A e−Dk t , (8.4.11)
com A a ser determinado pelas condições iniciais. A transformada inversa é dada por
Z +∞
1 2
P1 (x, t) = dk A e−Dk t e−ikx . (8.4.12)
2π −∞

Completando o quadrado no expoente,

x2 x2
   
kx kx
Dk 2 t + ikx = Dt k 2 + i = Dt k 2 + i − + =
Dt Dt 4D2 t2 4D2 t2
x2
 
x 2 x
= Dt k + i + 2 2
, k0 = k + i , (8.4.13)
2Dt 4D t 2Dt

obtemos
+∞
1 1
Z
02t 2 /4Dt 2
P1 (x, t) = dk 0 A e−Dk e−x =√ A e−x /4Dt . (8.4.14)
2π −∞ 4πDt

Para determinar A, notemos que (8.4.11) fornece P̃1 (k, t = 0) = A, que, levado em
(8.4.7), e lembrando que
1
Z
δ(x) = dk e−ikx , (8.4.15)

leva, finalmente, a
1 2
P1 (x, t) = √ e−x /4Dt . (8.4.16)
4πDt

2 2
 hx(t)i = 0, e a dispersão é lida diretamente da gaussiana,
Por simetria,
exp −x /2hx i :
hx2 (t)i = 2Dt. (8.4.17)
210 CHAPTER 8. NONEQUILIBRIUM STATISTICAL MECHANICS

Daı́ segue que


dhx2 i
= 2D, (8.4.18)
dt
de modo que a distribuição se alarga com o tempo, consistindo num processo ‘dissipativo’.
Este comportamento hx2 (t)i ∼ t é conhecido como difusão normal ; quando hx2 (t)i ∼ tα a
difusão é dita anômala. Deve-se ter em mente que o tratamento dado aqui foi puramente
fenomenológico, no sentido de que não especificamos como a constante D se relaciona
com propriedades do meio ou da partı́cula que se difunde; a próxima seção discute esta
questão para o caso do movimento Browniano.

8.5 Movimento Browniano1


8.5.1 Introduction
Em 1828, o botânico Robert Brown estudou o movimento de pequenos grãos de pólen
imersos em água, e constatou que eles executam um movimento aleatório. Hoje sabe-
mos que este movimento Browniano se deve às moléculas do fluido, as quais colidem
aleatoriamente com os grãos; veja applets simulando este movimento no link
http://en.wikipedia.org/wiki/Brownian motion
Einstein foi o primeiro a formular uma teoria (a partir de 1905) conectando a na-
tureza irreversı́vel deste fenômeno com o mecanismo de flutuações moleculares. A partir
desta formulação, a descrição genérica de mobilidade devida a flutuações em sistemas flu-
idos ficou conhecida como Movimento Browniano. Esta descrição enfatiza dois aspectos
bastante importantes. Primeiramente, permite relacionar propriedades de mobilidade de
um fluido, como, p.ex., o coeficiente de difusão, com a temperatura através de relações
que acabaram levando seu nome, as relações de Einstein. Em segundo lugar, ajuda a
compreender, até certa medida, como que um sistema fora do equilı́brio atinge o estado
de equilı́brio. Há várias maneiras de descrever o movimento Browniano, mas apresentare-
mos aqui apenas a formulação via Equação de Langevin, pela sua generalidade; a teoria
de Einstein-Smoluchowski para este movimento pode ser encontrada, p.ex., no Pathria,
Seção 14.3.

8.5.2 Teoria de Langevin para o Movimento Browniano


Consideremos uma partı́cula Browniana, de massa M , em um meio fluido. Suporemos
que, além das forças aleatórias devido às colisões moleculares, nenhuma outra força atua
na partı́cula; veja a Fig. 8.2. A equação de movimento para esta partı́cula pode ser
escrita como
dv v
M = − + F(t), com F(t) = 0 (8.5.1)
dt B
onde foi feita a separação entre o efeito de arrasto viscoso, −v/B, com B sendo a
mobilidade do sistema (B = 1/6πηa, onde η é o coeficiente de viscosidade, e a é o raio
1
Baseado nas seções 14.4 e 14.6 do Pathria; veja também as seções 14.3 e 14.5.
8.5. MOVIMENTO BROWNIANO 211

Figure 8.2: Partı́cula Browniana sofre colisões aleatórias com as moléculas do fluido.
[Figura cedida por SLA de Queiroz]

da partı́cula), e o de uma força que flutua rapidamente, cuja média temporal, tomada
em intervalos de tempo longos comparados com uma escala caracterı́stica, τ ∗ , se anula.
Tomando a média no ensemble na Eq. (8.5.1), e usando que hF(t)i = 0 também neste
caso, temos

d 1
M hvi = − hvi (8.5.2)
dt B
⇒ hv(t)i = hv(0)i e−t/τ , (8.5.3)

onde τ ≡ M B é o tempo de relaxação. Deve-se notar que, para tempos muito longos,
hvi → 0, dada a natureza dissipativa (donde irreversı́vel) deste fenômeno. Voltando à
Eq. (8.5.1), e dividindo-a por M vem

dv v F(t)
= − + A(t), A(t) = = 0. (8.5.4)
dt τ M
Tomando o produto escalar com r, usemos

1d 2
r·v = r , (8.5.5a)
2 dt
 2 2
dv 1 d r
r· = − v2, (8.5.5b)
dt 2 dt2
hA · ri = 0, (8.5.5c)
hF · vi =
6 0, (8.5.5d)

onde as duas últimas equações expressam o fato de que o caráter aleatório de F não
causa correlação posicional entre r e F, mas sim entre v e F. Com isto, a média no
ensemble fornece
d2 2 1 d 2
hr i + hr i = 2hv 2 i. (8.5.6)
dt2 τ dt
212 CHAPTER 8. NONEQUILIBRIUM STATISTICAL MECHANICS

Se a partı́cula está em equilı́brio térmico com o fluido à temperatura T , o teorema


da equipartição dá
3kB T
hv 2 i = , (8.5.7)
M
de modo que
6kB T τ 2 t 
 
2 −t/τ
hr i = − 1−e , (8.5.8)
M τ
para as condições iniciais hr2 it=0 = 0 e [dhr2 i/dt]t=0 = hr · vit=0 = 0.
Suponhamos agora que t  τ ; temos, então,

3kB T 2
hr2 i ' t = hv 2 i t2 , (8.5.9)
M
consistente com as equações de Newton (reversı́veis), já que ainda não houve tempo dos
fenômenos dissipativos agirem, o que acontece na escala de tempo τ .
Por outro lado, se t  τ , obtemos

6kB T τ
hr2 i ' t = (6BkB T ) t. (8.5.10)
M

Este comportamento linear com t de hr2 i sugere, por analogia com o caminho aleatório
unidimensional [Eq. (8.4.17)], que possamos definir o coeficiente de difusão a partir de

hr2 i ≡ 6 D t, (8.5.11)

onde o fator 6 = 3 × 2 reflete o fato de que o movimento é em 3 dimensões. Temos,


então,
D = B kB T, (8.5.12)
resultado que é conhecido como a Relação de Einstein entre difusão e mobilidade. Inte-
ressantemente, é uma relação entre grandezas tı́picas de não-equilı́brio e a temperatura
do fluido, suposto em equilı́brio.

8.5.3 Influence of the rapidly fluctuating force


Na subseção anterior, substituı́mos na Eq. (8.5.6) o termo hv 2 i pelo seu valor limite (de
equilı́brio). Esta simplificação fez com que se perdesse a influência do termo de força
flutuante. Para recuperá-la, inicialmente escrevamos a solução da Eq. (8.5.4) como
Z t
−t/τ −t/τ 0
v(t) = v(0) e +e et /τ A(t0 ) dt0 , (8.5.13)
0

0
obtida multiplicando-se (8.5.4) por et /τ e integrando em t0 de 0 a t. Esta expressão
enfatiza que a velocidade de arrasto da partı́cula Browniana também flutua ao longo do
tempo, e, ao tomarmos a média no ensemble, recuperamos a Eq. (8.5.3).
8.5. MOVIMENTO BROWNIANO 213

K (∆t) K (∆t)

−τ * + τ * ∆t −τ * + τ * ∆t

Figure 8.3: Typical forms of autocorrelation functions. Note that the functions vanish
for time intervals longer than τ ∗ . [Figures courtesy of SLA de Queiroz.]

Tomando agora v2 (t) e, em seguida, a média no ensemble, obtemos


 Z t 
2 2 −2t/τ −2t/τ t0 /τ 0 0
hv (t)i = v (0) e + 2e v(0) · e hA(t )i dt
0
Z tZ t
−2t/τ 0 00
+e e(t +t )/τ hA(t0 ) · A(t00 )i dt0 dt00 , (8.5.14)
0 0

onde o termo cruzado (entre colchetes) se anula, já que hA(t0 )i = 0.


Vemos então que a influência da força flutuante em hv 2 i se dá através da função de
auto-correlação,
K(t0 , t00 ) ≡ hA(t0 ) · A(t00 )i, (8.5.15)
examples of which are sketched in Fig. 8.3. The auto-correlation functions relevant to
our study must have the properties listed below, and the reader should check that the
functions in Fig. 8.3 do indeed satisfy them.

• Lidamos com um ensemble estacionário (i.e., o comportamento global macroscópico


não muda no tempo), de modo que
K(t0 , t00 ) = K(t00 − t0 ), (8.5.16)
refletindo o fato de que somente o intervalo de tempo decorrido é importante.
• A grandeza K(0) é o valor quadrático médio de A no instante t, e, como tal, é
positiva definida. Ademais, num ensemble estacionário deve ser uma constante,
independente de t: D E
K(0) ≡ [A(t)]2 = constante (8.5.17)

• Para qualquer intervalo de tempo, a autocorrelação é menor que no instante inicial:


| K(∆t) | ≤ K(0). (8.5.18)
[Demonstração:
h[A(t1 ) ± A(t2 )]2 i = hA2 (t1 )i + hA2 (t2 )i ± 2hA(t1 ) · A(t2 )i
= 2 [K(0) ± K(∆t)] ≥ 0,
214 CHAPTER 8. NONEQUILIBRIUM STATISTICAL MECHANICS

de modo que K(∆t) não pode ficar fora do intervalo entre −K(0) e K(0); daı́ segue
a Eq. (8.5.18). CQD.]

• Para um ensemble estacionário, a função de auto-correlação é simétrica,

K(∆t) = K(−∆t). (8.5.19)

[Demonstração:

K(∆t) ≡ hA(t) · A(t + ∆t)i = hA(t − ∆t) · A(t)i


= hA(t) · A(t − ∆t)i ≡ K(−∆t), CQD]

• Para intervalos de tempo longos, em comparação com uma segunda escala de


tempo, τ ∗ , os valores de A(t) e A(t + ∆t) ficam descorrelacionados, ou seja,
∆t  τ ∗
K(∆t) ≡ hA(t) · A(t + ∆t)i −−−−−→ hA(t)i · hA(t + ∆t)i (8.5.20)

Vejamos agora como avançar no cálculo da integral dupla que aparece na Eq. (8.5.14),
Z t Z t
0 0 00 )/τ
I≡ dt dt00 e(t +t hA(t0 ) · A(t00 )i
0 0
Z t Z t
0 00 )/τ
= dt0 dt00 e(t +t K(t00 − t0 ), (8.5.21)
0 0

onde, nesta última passagem, está-se admitindo um ensemble estacionário.

smax=+2(t−T)
t’’
t

T=fixo < t/2 smin=−2(t−T)


smax
=2T

T=fixo > t/2

smin=−2T

t t’
: | s | < τ∗

Figure 8.4: Integration limits. The integral in T is split in two: one from 0 to t/2, and
the other from t/2 to t. For a fixed T in the first [second] interval, T < t/2 [T > t/2],
s runs from −2T to 2T [−2(t − T ) to 2(t − T )]. Note, however, that the only non-zero
contributions to the integral in s come from the narrow region around s = 0, represented
by the shaded area.
8.5. MOVIMENTO BROWNIANO 215

Let us introduce the change in variables


1
T ≡ (t0 + t00 ) (8.5.22)
2
s ≡ t00 − t0 (8.5.23)
∂T /∂t0 ∂T /∂t00
  
0 00
dt dt = det dT ds = dT ds. (8.5.24)
∂s/∂t0 ∂s/∂t00

We first note that for a fixed T , we may express s in terms either of t00 and T , or of t0
and T :
s = 2(t00 − T ) = 2(T − t0 ). (8.5.25)
Figure 8.4 shows the region of integration in terms of the variables t0 and t00 , as well as
some special lines of fixed T : T = 0, t/4, t/2, 3t/4, and t. We see that two regimes of
integration should be distinguished: for 0 ≤ T ≤ t/2 the constant-T lines cut the axes at
t0 = 0 and t00 = 0, while for t/2 < T ≤ t the constant-T lines do not cut the axes within
the square. Accordingly, for a given T < t/2, s varies from smin = −2T (for t00 = 0) to
smax = 2T (for t0 = 0); as T increases up to t/2, the corresponding s-integration interval
also increases. On the other hand, for T > t/2, smin and smax respectively correspond to
t0 = t and t00 = t, namely smin = −2(t − T ) and smax = 2(t − T ); now, the corresponding
s-integration interval decreases as T increases. We may therefore write the integral as
Z t/2 Z 2T Z t Z +2(t−T )
2T /τ 2T /τ
I= dT e K(s) ds + dT e K(s) ds (8.5.26)
0 −2T t/2 −2(t−T )

Se t  τ ∗ (vide Fig. 8.4) os limites de integração de s podem ir para ±∞; com


Z +∞
C≡ K(s) ds (8.5.27)
−∞

temos
t
τ  2t/τ
Z 
I'C e2T /τ dT = C e −1 , (8.5.28)
0 2
sendo que a informação sobre a dinâmica molecular fica na constante C.
Equation (8.5.14) then becomes
2 2 −2t/τ τ −2t/τ

hv (t)i = v (0) e +C 1−e , (8.5.29)
2
and the condition
3kB T
hv 2 (t)i → for t → ∞, (8.5.30)
M
yields
6kB T
C= . (8.5.31)

Given that the constant C involves to the ‘microscopic’ time scale τ ∗ , Eq. (8.5.31) indi-
cates a connection between τ ∗ and the macroscopic time scale τ .
216 CHAPTER 8. NONEQUILIBRIUM STATISTICAL MECHANICS

<v 2(t)> / (3kBT/M)


2

0 1 2 t/ τ
Figure 8.5: Time dependence of hv 2 i, for two distinct initial conditions.

Podemos escrever, finalmente,


 
3kB T 
2 2
hv (t)i = v (0) + 2
− v (0) 1 − e−2t/τ . (8.5.32)
M
Este resultado exemplifica o processo de termalização: a velocidade quadrática final será
sempre 3kB T /M , independentemente do valor inicial ser abaixo ou acima do valor limite;
veja a Fig. 8.5.
Taking hv 2 i from (8.5.32) into (8.5.6), we get
 2 3k T    6k T τ
B B
hr2 i = v 2 (0) τ 2 1 − e−t/τ − τ 2 1 − e−t/τ 3 − e−t/τ + t (8.5.33)
M M
If v 2 (0) = 3kB T /M , we recover the previous result, Eq. (8.5.8). Note that we also recover
the limiting cases, (
2 v 2 (0) t2 if t  τ
hr i ' (8.5.34)
6BkB T t if t  τ,
which illustrate the reversible nature of the motion at small time scales, t  τ , and the
irreversible nature at long time scales, t  τ .

8.6 Spectral analysis of fluctuations


O movimento Browniano é apenas um dentre uma enorme variedade de fenômenos causa-
dos por estı́mulos aleatórios, sejam em intensidade, direção, ou intervalos de tempo. Uma
informação relevante nestes casos é a distribuição de frequências (espectro de frequências,
ou power spectrum). Consideremos o exemplo paradigmático de um pêndulo de torção,
que consiste de um pequeno cilindro (de momento de inércia I) suspenso por um fio de
fibra (rigidez c, análoga à constante de força de uma mola); uma haste com um pequeno
espelho é presa ao fio, de modo que um feixe de laser incidente no espelho projeta numa
parede o deslocamento angular do cilindro. As colisões das moléculas de ar com este
8.6. SPECTRAL ANALYSIS OF FLUCTUATIONS 217

sistema suspenso causam uma sucessão de torques de intensidades aleatórias, levando


a flutuações na posição angular θ em torno de uma média (definida, por conveniência,
como nula). Neste movimento Browniano, a força viscosa é fornecida pelo amortecimento
do ar, enquanto que as propriedades elásticas da fibra fornecem um torque restaurador,
Nθ = −c θ. Em equilı́brio, espera-se que valha a equipartição da energia, de modo que

1 2 1 kB T
c θ = kB T ⇒ θ2 = , (8.6.1)
2 2 c
onde, como antes, a barra denota média temporal.
Uma versão mais rudimentar (sem o laser) deste sistema foi utilizada por Kappler
[Ann. Phys. 11, 233 (1931)] que efetuou medidas de θ2 para determinar a constante
de Boltzmann (logo, o número de Avogadro, NA ). Nestes experimentos, I = 4.552 ×
10−4 g cm2 e o perı́odo de oscilação observado foi τ = 1379 s, de modo a constante de
força era
I
c = 4π 2 2 = 9.443 × 10−9 g cm2 s−2 /rad. (8.6.2)
τ
À temperatura de 287.1 K o valor obtido foi θ2 = 4.178×10−6 , que, através da Eq. (8.6.1),
fornece kB = 1.374 × 10−16 erg K−1 ; ademais, com a constante dos gases sendo
R = 8.31 × 107 erg K−1 mol−1 , obtém-se, finalmente, NA = R/kB = 6, 06 × 1023 mol−1 .
A importância de uma melhor quantificação das flutuações aparece quando imagi-
namos um segundo experimento, desta vez mantendo o pêndulo de torção em um re-
cipiente onde o ar está rarefeito (i.e., onde se faz vácuo). À primeira vista, poder-se-ia
pensar que neste ambiente as flutuações em posição seriam drasticamente reduzidas. No
entanto, isto não ocorre, pois mesmo a pressões muito baixas ainda há um grande número
de moléculas que ‘mantêm vivo’ o movimento Browniano. Interestingly, the mean square
angular deviations due to the collisions are not affected by the density of gas molecules;
one therefore concludes that for a system in equilibrium, they are determined solely by
the temperature. Figure 8.6 shows two traces of the mirror oscillations, the top one
taken at atmospheric pressure, and the bottom one at 10−4 mmHg. The resulting r.m.s.
deviation turned out to be approximately the same in both cases, but the difference in
their appearance can be explained as follows. At high densities (ambient pressure) the
random molecular impulses are very frequent, leading to a large number of individual
deflections, though small in magnitude. By contrast, at low densities the frequency
of individual deflections is smaller, but their magnitude is larger. Nonetheless, when
observed over a long period of time, the overall deflection remains practically the same.
This difference between the spectral quality of the fluctuation patterns can be cast
into a more quantitative basis by first observing that the second spectrum is more jagged
than the first: the high frequency components are more predominant. In addition, the
first pattern is more predictable, since the curve is smoother: this is attributed to the
correlation function (or memory function), K(s), extending to much larger values of
s than in the second case. These two aspects of fluctuation processes, namely time-
dependence and frequency spectrum, are closely related, as a Fourier analysis will now
reveal.
218 CHAPTER 8. NONEQUILIBRIUM STATISTICAL MECHANICS

Figure 8.6: The traces of the thermal oscillations of a suspended mirror system (see
text) at different pressures: upper trace corresponds to atmospheric pressure, while the
lower one to 10−4 mm of Hg. [Figure taken from Pathria (1996).]

We consider random variables, y(t), such that hy(t)i = 0 (we can always displace the
origin for this to occur), and whose mean square value, hy 2 (t)i, has already reached its
equilibrium time-independent (stationary) value; an immediate example is provided by
the velocity of a Brownian motion, as we have just discussed. Further, though y is not a
strictly periodic function of t, its value always oscillates around zero. If it were periodic,
with period T = 1/f0 , we could write
X X
y(t) = a0 + an cos(2πnf0 t) + bn sin(2πnf0 t), (8.6.3)
n n

with
2 T
Z
an = y(t0 ) cos(2πnf0 t0 ) dt0 (8.6.4)
T 0
2 T
Z
bn = y(t0 ) sin(2πnf0 t0 ) dt0 , (8.6.5)
T 0
as in standard Fourier analyses. However, some adaptations are needed in order to take
into account the stochastic nature of the phenomenon:

(1) There is no real period, after which everything repeats exactly. However, we may
consider T much longer than other relevant time scales, or, equivalently, f0 = 1/T
much smaller than other relevant frequencies. In so doing, we may be reasonably
sure that our Fourier analysis does not miss out on any important aspect of the
problem.
(2) Given that y(t) is a random variable, so are the coefficients an and bn ; we must
therefore take ensemble averages for these quantities,
han i = hbn i = 0, (8.6.6)
and X1
hy 2 (t)i = ha2n i + hb2n i = const. (8.6.7)
n
2
8.6. SPECTRAL ANALYSIS OF FLUCTUATIONS 219

Since the phases of the Fourier components are random, we may write ha2n i = hb2n i
for all n, and Z ∞
X
2 2
hy i = han i ' df w(f ), (8.6.8)
n 0

where
ha2n i = w(nf0 ) ∆(nf0 ), (8.6.9)
or
1 2
w(nf0 ) = ha i. (8.6.10)
f0 n
The function w(f ) defines the power spectrum of the variable y(t).
Let us now show that the power spectrum, w(f ), of the random variable y(t) is
completely determined by the corresponding auto-correlation function, K(s). To
this end, Eq. (8.6.4) yields
Z 1/f0 Z 1/f0
ha2n i = 4f02 hy(t1 ) y(t2 )i cos(2πnf0 t1 ) cos(2πnf0 t2 ) dt1 dt2 . (8.6.11)
0 0

Changing to variables S ≡ (t1 + t2 )/2, s ≡ t2 − t1 , as before, and recalling that


T  sM , where sM is the maximum duration of the memory, i.e., |K(s > sM )| ' 0,
we may write
Z 1/f0 Z +∞
ha2n i ' 2f02 dS ds K(s) {cos(2πnf0 s) + cos(4πnf0 S)} . (8.6.12)
0 −∞

The second term vanishes upon integration over S, and we are left with
Z ∞
ha2n i = 4f0 ds K(s) cos(2πnf0 s), (8.6.13)
0

so that Z ∞
w(f ) = 4 ds K(s) cos(2πf s). (8.6.14)
0
Taking the inverse Fourier transform yields
Z ∞
K(s) = df w(f ) cos(2πf s). (8.6.15)
0

Equations (8.6.14) and (8.6.15) constitute the Wiener–Khintchine theorem, which


relates K(s) and w(f ). One should also note the special case,
Z ∞
K(0) = df w(f ) = hy 2 i. (8.6.16)
0

Let us now discuss some applications of this theorem.


220 CHAPTER 8. NONEQUILIBRIUM STATISTICAL MECHANICS

Figure 8.7: (a) The auto-correlation function K(s) and (b) its power spectrum; the
parameter a appears in terms of an arbitrary unit of (time)−1 .

1. Suppose the variable y(t) is extremely irregular, hence unpredictable. Then the mem-
ory function should only extend over a negligibly small time interval, s. This is the
case, for instance, of the rapid fluctuating force F (t) experienced by a Brownian
particle due to the molecular collisions. If one assumes

K(s) = c δ(s), (8.6.17)

then Eq. (8.6.14) gives


w(f ) = 2c, ∀f. (8.6.18)

This is known as a uniform (or “flat”, or “white”) spectrum. However, this would
lead [see Eq. (8.6.16)] to a diverging hy 2 i, which is certainly unacceptable. We must
therefore admit a less sharply peaked memory function, one which extends over a
finite range of the variable s; one may expect such function to introduce a cutoff in
the flat frequency spectrum.
As a specific example, we consider the function depicted in Fig. 8.7(a),

sin(as)
K(s) = K(0) , a > 0, (8.6.19)
as

which, in the limit a → ∞, K(s) → (π/a) K(0) δ(s). The Wiener–Khintchine theorem
yields
 2π K(0) f < a/2π

w(f ) = a (8.6.20)
0 f > a/2π.

We see that the central peak in K(s) extends up to ∆t = |s| = π/a, and its width
provides an estimate for the time extent of correlations. Consequently, the resulting
power spectrum [Fig. 8.7(b)] corresponds to a white noise [i.e., flat w(f )] for 0 < f ≤
1/∆t.
s
!2 !1 0 1 2
f∗ f∗ f∗ f∗

614 Chapter 15 8.6. .


SPECTRAL
Fluctuations ANALYSIS OF
and Nonequilibrium FLUCTUATIONS
Statistical Mechanics 221

K(s)

w (f )
s
!2 !1 0 1 2
f∗ f∗ f∗ f∗

0 f∗
f

FIGURE 15.8 The autocorrelation function K (s) and the power distribution function w( f ) of a monochromatic
Figure 8.8: (a) The auto-correlation function K(s) and (b) its power spectrum for the
variable y(t), with characteristic frequency f ⇤ .
special case of a monochromatic variable with frequency f ∗ . [Figure extracted from
Pathria & Beale (2011).]
see equation (15.6.10). The power spectrum w( f ) is then given by the expression
w (f )

1
2. Consider now the opposite case, namely that of4kT an Zextremely regular 4kT
variable
⌧ y(t),
1
s/⌧
w( f ) = e
thus completely predictable; this in turn implies aMcorrelation function extending cos(2⇡ fs)ds = over , (21)
M 1 + (2⇡ f ⌧ )2
0 f ∗ 0
large vales of s. The power spectrum must then display peaks at specific frequencies.
An extreme example f is that of a monochromatic variable, with a frequency f0∗ , and
which indeed satisfies the relationship
FIGURE 15.8 infinite
The autocorrelation time
function range,
K (s) and the for which
power thefunction
distribution correlation
w( f ) of afunction reads,
monochromatic
variable y(t), with characteristic frequency f ⇤ .
Z1
2kT 1
K(s) = K(0) cos(2πf ∗ s),
w( f )df = tan 1 (2⇡f ⌧ ) (8.6.21)
⇡M 0
see equation (15.6.10). The power spectrum w( f ) is then given by the expression
0
leading to a power spectrum kT
Z1 = = hvx2 i, (22)
4kT s/⌧ 4kT ⌧ 1 M
w( f ) = e cos(2⇡ fs)ds = , ∗
− f ); (21)
M M w(f1 +)(2⇡
= fK(0)
⌧ )2 δ(f (8.6.22)
0in agreement with the equipartition theorem (as applied to a single component of the
In particular, if f ∗ = velocity v). For
0 then both y(t)f ⌧ ⌧ 1K(s)
and , the are
power distribution
constants is practically
in time, and w(f )independent
is of f , which
which indeed satisfies the relationship
peaked at f = 0; see implies
∗ Fig. 8.8.a practically “white” spectrum, with
Z1
2kT 1
3. Let us noww(think
f )df =of antan 1
intermediate
(2⇡f ⌧ ) case, one in which w(
y(t)
f)' is 4kT ⌧
filtered by some
= 4BkT . device (23)
⇡M 0
M
which only resolves frequencies within an interval ∆f around a mean frequency f ∗ .
0

This is achieved by kT
a power spectrum similar to the one depicted in Fig. 8.9(b), which
= = hvx2 i, (22)
M
in turn leads to a correlation function attenuated over a time scale σ ∼ 1/∆f , such as
in agreement with the theequipartition
one shown in Fig. 8.9(a).
theorem Let us
(as applied to illustrate this spectral
a single component analysis with the velocity
of the
velocity v). For f ⌧ ⌧ , the power distribution is practically independent of f , which for the x-component of
of a
1 Brownian particle, for which the autocorrelation function
velocityspectrum,
implies a practically “white” can be obtained
with from the fluctuation-dissipation theorem as [see, e.g., Pathria
and Beale (2011), Sec. 15.6]
4kT ⌧
w( f ) ' = 4BkT . (23)
M kB T
K(s) = exp(−|s|/τ ) , τ = MB (8.6.23)
M
The power spectrum is then expressed as

4kB T ∞ 4kB T τ 1
Z
w(f ) = ds e−s/τ cos(2πf s) = . (8.6.24)
M 0 M 1 + (2πf τ )2
K(s)

15.5 222
Spectral analysis of fluctuations:
CHAPTERthe8.Wiener–Khintchine
NONEQUILIBRIUM theoremSTATISTICAL
615 MECHANICS s
"2! "! 0 ! 2!

K(s)

w (f )
"2! "! 0 ! 2!

0 f∗ 1
2!
f

FIGURE 15.9 The autocorrelation function K (s) and the power distribution function w( f ) of a variable that has
Figure 8.9: (a) The auto-correlation function
been filtered through a K(s) and tuned
lightly damped (b) circuit,
its power spectrum
with mean forwidth
frequency f ⇤ and the1f ⇠ (1/ ).

special case of a filtered variable with mean frequency f and width ∆f ∼ 1/σ. [Figure
extracted from Pathria & BealeWe (2011).]
can then write for the velocity fluctuations in the frequency range ( f , f + 1f ), with
1,
w (f )

f ⌧⌧

2
Note that w(f ) satisfies ∗the relation h1vx i( f , f +1f ) ' w( f )1f ' (4BkT )1f . (24)
0 f 1
Z ∞ 2! In general, our measuring instrument (or the eye, in the case of a visual examination of
f 2kB T has−1 ∞ kB⌧T, as a consequence
df w(f ) the
= particle)tan a finite
(2πfresponse
τ ) =time 0 = hv 2 i, of(8.6.25)
which it is unable to respond
0 πM
to frequencies larger than, say, 1
0 ⌧0 . The M observedx fluctuation is then given by the “pruned”
FIGURE 15.9 The autocorrelation function K (s) and the power distribution function w( f ) of a variable that has
expression
been filtered through a lightly damped tuned circuit, with mean frequency f ⇤ and width 1f ⇠ (1/ ).
in agreement with the equipartition theorem.
1/⌧
Z 0 ✓ ◆
2kT ⌧
Note
We can then write for thethat a characteristic
velocity fluctuations in frequency,
the frequencyτ −1 , has
range f hv
2
( f ,emerged, sow( that
iobs),' with
+x 1f f 
f )df = for tan
⇡M
1
τ −1
2⇡
⌧0
, ,w(f ) (25)
1
f ⌧⌧ , practically does not depend on the frequency (the so-called 0 ‘white spectrum’),
instead of the “full” expression (22). In a typical case, the mass of the Brownian particle
h1vx2 i( f , f +1f ) ' w( f )1f ' (4BkT 4k
)1fB.T 12τ 4(24) viscosity of the fluid ⌘ ⇠ 10 2
w(f ) M' ⇠ 10 g, its = diameter
4BkB T,2a ⇠f10 cm, τ −1and
. the coefficient
7
of (8.6.26)
poise, M
so that the relaxation time ⌧ = M/(6⇡⌘a) ⇠ 10 seconds. However, the response
In general, our measuring instrument (or the eye, in the⌧case
time of a visual examination of 1 s; clearly, ⌧/⌧ ⇠ 10 6 ⌧ 1.
0 , in the case of visual observation, is of the order of 10 0
the particle) has a finite
Onresponse
the other time ⌧0 , as ainconsequence
hand, the regimeoffwhich it is, unable
 τ −1 to respond
Eq. (8.6.24) yields
to frequencies larger than, say, ⌧0 1 . The observed fluctuation is then given by the “pruned”
expression 1
w(f ) ' , f  τ −1 , (8.6.27)
1/⌧
Z 0 ✓ ◆ f2
2kT ⌧
hvx2 iobs ' w( f )df = tan 1 2⇡ , (25)
a regime known as red⇡noise M ⌧0
or Brown noise.2
0

instead of the “full”In general,(22).


expression if K(s) decays
In a typical after
case, someoftime
the mass ∆, thenparticle
the Brownian w(f ) has a white noise (flat)
behaviour −1
12
M ⇠ 10 g, its diameter 2a ⇠ 10forcm,
4 0 <andf. the∆ , decaying
coefficient to zero
of viscosity at larger
of the frequencies.
fluid ⌘ ⇠ 10 2 The low-frequency
regime essentially
poise, so that the relaxation guarantees
time ⌧ = M/(6⇡⌘a) 7
⇠ 10 that the interference
seconds. However, thebetween
responseall Fourier components in
time ⌧0 , in the case of visual
this observation,
range is onlyisdominantly 10 1 s; clearly, for
of the order ofconstructive 6 ⌧ 1.
10 ∆.
⌧/⌧0 s⇠ . The interference becomes
destructive at longer times (see Example 1), in which regime the rate of decay of
K(s) will determine the behaviour of the tail of w(f ). Indeed, in the above example
the exponential decay of K(s) leads to the tail w(f ) ∼ f −2 .
Se tivermos um instrumento de medida que só consegue captar frequencias até um
valor maximo 1/τ0 (tempo de resposta & τ0 ), as componentes de frequencia > 1/τ0
2
For the many ‘noise colours’ see, e.g. http://en.wikipedia.org/wiki/Colors of noise
8.7. BOLTZMANN EQUATION 223

não serão observadas. Em consequencia, as flutuações observadas serão dadas pela


expressão truncada:
Z 1/τ0  
2 2kB T −1 1/τ0 2kB T −1 τ
hvx iobs = w(f ) df = tan (2πf τ ) 0 = tan 2π .
0 πM πM τ0

Exemplo (dados ∼ correspondentes às medidas de Pospisil (1927) em particulas de


fuligem, ver problema 14.9 do Pathria): M ' 10−12 g, diametro 2a ' 10−4 cm,
η ' 10−2 poise (⇒ τ = M B = M/6πηa ' 10−7 s). Para observação visual,
τ0 ' 10−1 s. Portanto,
4kB T τ kB T
hvx2 iobs ' ' 4 × 10−6 .
M τ0 M

Aplicação a flutuações espontaneas no movimento de eletrons (corrente eletrica) em


circuitos LR (notar: estamos considerando um circuito em que a força eletromotriz
externamente imposta é nula, portanto temos apenas flutuações; pelos argumentos
usuais, a indutancia L corresponde à “massa”; a resistencia R é o atrito). Neste caso
, o tempo caracteristico de relaxação [exponencial] do sistema é τ 0 = L/R, portanto
Z ∞
4kB T τ 0 1 kB T
w(f ) = ⇒ w(f ) df = = hI 2 i ,
L 1 + (2πf τ 0 )2 0 L

de acordo com a equipartição, h 21 LI 2 i = 21 kB T . De novo, para f  1/τ 0 , estamos na


região de white noise, e
4kB T 4kB T
w(f ) ' ⇒ h∆I 2 i(f,f +∆f ) ' ∆f ⇒ h∆V 2 i(f,f +∆f ) ' 4RkB T ∆f .
R R
Portanto, para f  1/τ 0 a densidade espectral V 2 (f ) = 4RkB T (teorema de Nyquist).
Lembrando que τ 0 ' 10−14 s, (ordem de grandeza do tempo entre colisões sucessivas
de um eletron), a densidade espectral das flutuações de voltagem tem um espectro
plano (white noise) até frequencias da ordem de microondas (∼ 1014 Hz).

8.7 Boltzmann Transport Equation3


8.7.1 Derivation
Consideremos um gás clássico diluı́do de partı́culas de massa m. Definamos uma função
f (r, v, t), tal que f (r, v, t) d3 r d3 v fornece o número médio de moléculas num volume
d3 r centrado em r, e com velocidades num intervalo d3 v centrado em v; assim, o ar-
gumento de f é um ponto no espaço de fases de dimensão 6, (r, v), além do tempo.
Admite-se, implicitamente, que o volume dγ ≡ d3 r d3 v seja infinitesimal, mas ainda su-
ficientemente extenso para conter um número grande de pontos, já que cada um destes
3
Based on Huang, Reif, and Reichl.
224 CHAPTER 8. NONEQUILIBRIUM STATISTICAL MECHANICS

Figure 8.10: (a) Projection of the 6-dimensional infinitesimal ‘volume’ element onto
the two-dimensional one, (x, vx ). (b) Variation in the number of particles due to flow
through faces with constant x: in through the left (x), out through the right (x + dx).

representa o estado de movimento de uma partı́cula; isto permite supor que f (r, v, t)
varie muito pouco em dγ. A função f (r, v, t) fornece, portanto, a descrição completa
do estado macroscópico do gás diluı́do, sem levar em conta eventuais perturbações, de
não-equilı́brio, aos graus de liberdade internos de cada molécula.4 A partir desta função
pode-se calcular quantidades de interesse, como coeficientes de viscosidade e condutivi-
dade térmica.
Nosso primeiro objetivo é, portanto, obter uma equação de movimento para f (r, v, t).
Para isto, consideremos um elemento de volume fixo no espaço de fases, como indica
a Fig. 8.10(a).5 O número de moléculas (ou, equivalentemente, o número de pontos
representativos) neste elemento varia com o tempo devido a colisões entre partı́culas,
forças externas, etc. Esta variação é
∂f
δN =dγ dt (8.7.1)
∂t
Por simplicidade, separemos os efeitos das colisões dos demais, como campo externo.
Assim, na ausência de colisões, decorrido um intervalo de tempo dt, as partı́culas que
estavam em (r, v) estarão em
r0 = r + v dt, (8.7.2)
com velocidade
F
v0 = v +
dt, (8.7.3)
m
O número de partı́culas entrando pela face x = constante do volume dγ, em um intervalo
dt [veja a Fig. 8.10(b)] é aquele contido no volume (ẋ dt) dy dz dvx dvy dvz ,
f (r, v, t) ẋ dt dy dz dvx dvy dvz . (8.7.4)
4
Devemos enfatizar que este espaço de fases difere daquele utilizado no Cap. 1 no sentido de que
lá, cada ponto no espaço 6N -dimensional representava o estado de todo o sistema de N partı́culas;
sua evolução temporal descrevia uma trajetória neste espaço, e o ensemble corresponde a vários destes
pontos, distribuı́dos de acordo com a função ρ(t) que satisfaz o Teorema de Liouville.
5
Alternativamente, pode-se acompanhar a evolução temporal de um elemento de volume; veja Reif
Seção 13.2.
8.7. BOLTZMANN EQUATION 225

Analogamente, o número de partı́culas saindo pela face x + dx do mesmo volume no


mesmo intervalo dt [Fig. 8.10(b)] é

f (r, v, t) ẋ dt dy dz dvx dvy dvz , (8.7.5)


x+dx

onde

f (r, v, t) ẋ ≈ f (r, v, t) ẋ + (f ẋ) dx. (8.7.6)
x+dx x ∂x x

Logo, a contribuição total para ∂f /∂t das faces x e x + dx para a taxa de variação
do número de partı́culas no entorno de (r, v) num intervalo dt é
  
∂ ∂
f ẋ − f ẋ + (f ẋ) dx dy dz d3 v dt = − (f ẋ) dγ dt. (8.7.7)
∂x ∂x

Procedendo de modo análogo para as demais faces, (y, z, v), obtemos


" #
∂f ∂ ∂ ∂ ∂ ∂ ∂
dt dγ = − (f ẋ) + (f ẏ) + (f ż) + (f v̇x ) + (f v̇y ) + (f v̇z ) dt dγ,
∂t ∂x ∂y ∂z ∂vx ∂vy ∂vz
(8.7.8)
ou, ainda,

∂f X  ∂f ∂f
 X 
∂ ẋα ∂ v̇α

+ ẋα + v̇α + f + = 0. (8.7.9)
∂t α=x,y,z ∂xα ∂vα α=x,y,z
∂x α ∂v α

Como r e v são variáveis independentes no espaço de fases, ∂ ẋα /∂xα = 0; ademais,


supondo-se forças independentes de velocidade, tem-se que ∂ v̇α /∂vα = 0, de modo que
o segundo termo entre colchetes na Eq. (8.7.9) se anula. Já o primeiro termo entre
colchetes na Eq. (8.7.9) pode ser escrito em termos de gradientes nas variávies espaciais
e de velocidade, de modo que, sem ainda levar-se em conta as colisões, a equação de
movimento para f é
∂f
+ ṙ · ∇r f + v̇ · ∇v f = 0. (8.7.10)
∂t
Neste ponto, pode-se introduzir o efeito das colisões através de um termo extra no
lado direito da Eq. (8.7.10):
!
∂f ∂f
+ ṙ · ∇r f + v̇ · ∇v f = . (8.7.11)
∂t ∂t
coll

Semelhantemente ao discutido acima, o ganho lı́quido de moléculas num volume dγ


centrado em (r, v), num intervalo de tempo dt, devido a colisões pode ser expresso como
!
∂f
dγ dt ≡ (R̄ − R) dγ dt, (8.7.12)
∂t
coll
226 CHAPTER 8. NONEQUILIBRIUM STATISTICAL MECHANICS

db

g dt

Figure 8.11: Elemento de volume ocupado pelas partı́culas que, num intervalo dt e com
velocidade relativa g, colidirão com a partı́cula na origem através de um parâmetro de
impacto entre b e b + db. [Figura cedida por SLA de Queiroz]

onde R fornece o número de colisões entre t e t + dt (por unidade de tempo e de volume


no espaço de fases) em que uma das moléculas em colisão se encontra inicialmente num
intervalo dγ em torno de (r, v); isto é, refere-se à perda de pontos no volume. Fica claro,
portanto, que R̄ fornece o número de colisões em que os estados finais se encontram num
intervalo dγ em torno de (r, v); isto é, refere-se ao ganho de pontos no volume.
Para determinar R e R̄, façamos algumas hipóteses simplificadoras, porém realistas:
(1) admitiremos colisões de dois corpos (binárias) apenas, o que é o esperado no regime
de gás diluı́do;
(2) não levaremos em consideração as paredes do recipiente;
(3) a presença de F não afeta as seções de choque;
(4) v e r de cada partı́cula não têm correlação entre si; estas é conhecida como a hipótese
do caos molecular.
De acordo com (4), podemos escrever que o número de pares de partı́culas num
volume d3 r em torno de r (o qual virá a ser o ponto de colisão) com velocidades em
intervalos d3 v1 e d3 v2 em torno de v1 e v2 , respectivamente, é
[f (r, v1 , t) d3 r d3 v1 ][f (r, v2 , t) d3 r d3 v2 ]. (8.7.13)
Para o cálculo de R, concentremos nossa atenção numa partı́cula com velocidade v1
dentro de um intervalo d3 v1 , no ponto de colisão r, dentro de um volume d3 r. Neste
mesmo volume há moléculas com v2 que atuarão como partı́culas incidentes numa colisão
com as de velocidade v1 . Logo, o fluxo deste feixe incidente (i.e., número de partı́culas
por unidades de área e de tempo) é
f (r, v2 , t) d3 r d3 v2
I= , (8.7.14)
área · tempo
sendo que o elemento de volume relevante é o da casca cilı́ndrica mostrada na Fig. 8.11,
a saber, d3 r = g dt 2π b db. Com isto,
I = f (r, v2 , t) g d3 v2 (8.7.15)
8.7. BOLTZMANN EQUATION 227

Para referência futura, denotemos os processos de colisões destas partı́culas por


(v1 , v2 ) → (v10 , v20 ). O número destas colisões num intervalo de ângulo sólido dΩ, no
entorno de Ω é obtido multiplicando-se I pela seção de choque de espalhamento, σ(Ω)dΩ,
e pelo intervalo de tempo, dt:

Iσ(Ω) dΩ dt = f (r, v2 , t) |v2 − v1 |σ(Ω) dΩ d3 v2 dt. (8.7.16)

Somando agora sobre os diferentes v2 , e multiplicando pela densidade de probabilidade


em (r, v1 ), obtemos, finalmente,
Z Z
3
R = f (r, v1 , t) d v2 dΩ σ(Ω)|v2 − v1 |f (r, v2 , t). (8.7.17)

O cálculo de R̄ segue na mesma linha, com as adaptações a seguir. Por exemplo,


consideraremos colisões do tipo (v10 , v20 ) → (v1 , v2 ), com v1 fixo. Assim, pensemos em
uma molécula com uma velocidade v10 sobre a qual incide um feixe com velocidade v20 .
O fluxo incidente agora é

I = f (r, v20 , t) |v20 − v10 | d3 v20 , (8.7.18)

de modo que o número de colisões deste tipo num intervalo dt é obtido multiplicando-se
I por σ 0 (Ω)dΩ dt. A taxa R̄ é dada por
Z Z
R̄ d v1 = d v2 dΩ σ 0 (Ω)|v20 − v10 |[f (r, v10 , t)d3 v10 ]f (r, v20 , t).
3 3 0
(8.7.19)

Lembrando que (v10 , v20 ) e (v1 , v2 ) se referem a colisões elásticas que são as respectivas
inversas, temos que σ 0 (Ω) = σ(Ω). Além disso, as propriedades de colisões elásticas de
mesma massa [veja, p.ex., Reif, Seção 14.2 ou Huang, Seção 3.2.]

|v20 − v10 | = |v2 − v1 |, (8.7.20)

e
d3 v10 d3 v20 = d3 v1 d3 v2 , (8.7.21)
nos permitem escrever
Z Z
R̄ d v1 = d v2 d v1 dΩ σ(Ω)|v2 − v1 |f (r, v10 , t)f (r, v20 , t),
3 3 3
(8.7.22)

tendo em mente que para v1 fixo, v10 e v20 são funções de v1 , v2 , e Ω.


Combinando os resultados para R e R̄, a Eq. (8.7.12) fornece
!
∂f
Z Z
= (R̄ − R) = d3 v2 dΩ σ(Ω)|v2 − v1 |(f10 f20 − f1 f2 ), (8.7.23)
∂t
coll

onde usamos a notação compacta

fi ≡ f (r, vi , t), fi0 ≡ f (r, vi0 , t), i = 1, 2. (8.7.24)


228 CHAPTER 8. NONEQUILIBRIUM STATISTICAL MECHANICS

Com isto, obtemos, finalmente, a Equação de Transporte de Boltzmann,


 
∂ F
Z Z
+ v1 · ∇ r + · ∇v1 f1 = d v2 dΩ σ(Ω)|v2 − v1 |(f10 f20 − f1 f2 ).
3
(8.7.25)
∂t m

Testemos a consistência no equilı́brio. Supondo F = 0, espera-se que, no equilı́brio,


f não dependa do tempo e seja dada pelo fator de Boltzmann:

1
f (r, v, t) → f (v) ∼ e−βK , K = mv 2 ; (8.7.26)
2
Logo, f10 f20 ∼ exp[β(K10 + K20 )] = f1 f2 ∼ exp[β(K1 + K2 )], de modo que o lado direito
da Eq. (8.7.25) se anula e, como ∇r f = 0, obtemos, consistentemente, ∂f /∂t = 0.

8.7.2 The Relaxation Time Approximation


Reescrevamos a equação de transporte de Boltzmann (ETB), Eq. (8.7.25), como
  !
∂ F ∂f
+ v · ∇r + · ∇v f = , (8.7.27)
∂t m ∂t
coll

onde o ı́ndice 1 foi removido, por desnecessário neste contexto.


Suponhamos que o efeito das colisões seja sempre o de restaurar uma situação de
equilı́brio local, descrita pela função de distribuição f (0) (r, v, t). Assim pode-se supor
que !
∂f f − f (0)
=− . (8.7.28)
∂t τ
coll

Com efeito, na ausência dos termos em gradiente, e definindo

δf ≡ f − f (0) , (8.7.29)

temos
∂ δf
δf = − , (8.7.30)
∂t τ
cuja solução é um decaimento exponencial numa escala de tempo τ ,

δf (r, v, t) = δf (r, v, 0) e−t/τ , (8.7.31)

justificando, assim, chamar este procedimento de aproximação do tempo de relaxação.


Como aplicação, calculemos a condutividade elétrica de um gás de partı́culas de
massa m e carga elétrica e, em presença de um campo elétrico uniforme E = E ẑ.
Suponhamos que as colisões com os ı́ons da rede levem a uma distribuição de equilı́brio
local,
1
f (0) (r, v, t) = g(ε), ε = mv 2 (8.7.32)
2
8.7. BOLTZMANN EQUATION 229

onde  1/2

g(ε) = n e−βε , (8.7.33)

é a distribuição de Maxwell-Boltzmann (para um gás de elétrons suficientemente diluı́do),
com n sendo a densidade de partı́culas.
Supondo que o campo elétrico uniforme E não dependa do tempo, pode-se esperar
que a nova função de distribuição, f (r, v, t) não dependa de r e t. Nestas condições, a
ETB envolve apenas a componente z, sendo escrita como

eE ∂f f − f (0)
=− . (8.7.34)
m ∂vz τ
Para um campo elétrico suficientemente pequeno, podemos supor que f difere muito
pouco de f (0) = g, e com

f = g + f (1) , com f (1)  g, (8.7.35)

a Eq.(8.7.34) fica
eE ∂g eE ∂f (1) f (1)
+ =− , (8.7.36)
m ∂vz m ∂vz τ
| {z }
O(f (1) E)≈0

cuja solução é
dg
f (r, v, t) = g(ε) − eEτ vz. (8.7.37)

A densidade de corrente ao longo de uma direção n̂ é o fluxo de carga através de um
elemento de área nesta direção,
Z
jn = e d3 vf vn . (8.7.38)

Note que na ausência de campo elétrico, tanto τ quanto g dependem apenas de |v|, de
modo que o integrando é uma função ı́mpar de vn , levando a jn = 0, um resultado já
esperado para a situação de equilı́brio. Em presença de E = E zv,
ˆ todavia, devemos ter
jz 6= 0, e, dado que
dg
= −βg, (8.7.39)

obtemos uma expressão para a condutividade elétrica
jz
Z
2
σel ≡ = βe d3 v g τ vz2 . (8.7.40)
E
Neste ponto, necessitarı́amos explicitar a dependência de τ com v, a qual pode ser
obtida, em princı́pio, através de cálculos bastante extensos; veja Reif, Sec. 12.2. Para
nossos propósitos aqui, podemos substituir τ (v) por um valor médio constante τ ,
Z
σel ≈ βe τ d3 v g vz2 = βe2 τ [nvz2 ].
2
(8.7.41)
230 CHAPTER 8. NONEQUILIBRIUM STATISTICAL MECHANICS

A média acima é calculada com a função de distribuição de equilı́brio, g, de modo que


vale a equipartição da energia, fornecendo o resultado já conhecido do modelo de Drude
(veja, p.ex., Ashcroft & Mermin, Cap. 1),

ne2
σel = τ. (8.7.42)
m

Note que se a distribuição de Fermi-Dirac, g(ε) ∝ [eβ(ε−µ) + 1]−1 , tivesse sido utilizada,
então apenas os elétrons com energias próximas à energia de Fermi contribuiriam para
a condutividade, de modo que τ é substituı́da por um valor τF , sem necessidade da
aproximação que levou à média.

8.7.3 Boltzmann’s H Theorem


Definamos a função
Z Z
H(t) ≡ d3 r1 d3 v1 f (r1 , v1 , t) ln f (r1 , v1 , t), (8.7.43)

e tomemos a derivada temporal,

dH ∂f1
Z Z
= d3 r1 d3 v1 [ln f1 + 1] . (8.7.44)
dt ∂t

Usando o fato de que ∂f1 /∂t deve satisfazer a Equação de Transporte de Boltzmann, e
considerando F = 0, podemos escrever

dH
Z Z
= d3 r1 d3 v1 (−v1 · ∇r f1 ) [ln f1 + 1]
dt
Z Z Z Z
+ d3 r1 d3 v1 d3 v2 dΩ σ(Ω)|v2 − v1 | (f10 f20 − f1 f2 ) [ln f1 + 1] . (8.7.45)

O primeiro termo pode ser transformado em uma integral de superfı́cie, a qual dá
contribuição nula se admitirmos que f → 0 quando r e p → ∞. Ficamos, então, com

dH
Z Z Z Z
= d3 r1 d3 v1 d3 v2 dΩ σ(Ω)|v2 − v1 | (f10 f20 − f1 f2 ) [ln f1 + 1] , (8.7.46)
dt

que, intercambiando p1 com p2 , fornece

dH
Z Z Z Z
= d3 r1 d3 v1 d3 v2 dΩ σ(Ω)|v2 − v1 | (f10 f20 − f1 f2 ) [ln f2 + 1] . (8.7.47)
dt

Somando e dividindo por 2 as Eqs. (8.7.46) e (8.7.47), vem

dH 1
Z Z Z Z
= d3 r1 d3 v1 d3 v2 dΩ σ(Ω)|v2 − v1 | (f10 f20 − f1 f2 ) [[ln f1 + ln f2 + 2] .
dt 2
(8.7.48)
8.7. BOLTZMANN EQUATION 231

De modo análogo, intercambiando v1 com v10 , e v2 com v20 , obtemos

dH 1
Z Z Z Z
d3 r1 d3 v10 d3 v20 dΩ σ(Ω)|v2 − v1 | (f1 f2 − f10 f20 ) [ln f10 + ln f20 + 2 .
 
=
dt 2
(8.7.49)
Lembrando que d3 v10 d3 v20 = d3 v1 d3 v2 , e, somando (8.7.48) com (8.7.49), chegamos a
 
dH 1 f1 f2
Z Z Z Z
3 3 3 0 0
= d r1 d v1 d v2 dΩ σ(Ω)|v2 − v1 | (f1 f2 − f1 f2 ) ln 0 0 . (8.7.50)
dt 4 f1 f2

O termo entre colchetes em (8.7.50) é da forma [(y − x) ln(x/y)] que é sempre ≤ 0.


Com isto, estabelecemos, finalmente, o Teorema H de Boltzmann: Se f satisfaz a
equação de transporte de Boltzmann, então
dH
≤ 0. (8.7.51)
dt
Consequentemente, dH/dt = 0 se, e somente se, f10 f20 = f1 f2 , de modo que sob condições
iniciais arbitrárias, devemos ter f (v, t) →t→∞ f0 (v), onde f0 é a distribuição de equilı́brio.
Assim, a função H(t) decresce no tempo até atingir o equilı́brio.
Como −H(t) cresce no tempo, pode-se definir a entropia de não-equilı́brio como
Z
S(t) = −kB H(t) = −kB d3 r d3 v f ln f, (8.7.52)

de modo que quando f tende à distribuição de equilı́brio de Maxwell-Boltzmann, S não


mais depende do tempo: o sistema atingiu o estado de equilı́brio.
Admita que a probabilidadepde uma particula se
3
/Ω)∆t, onde n ≡ numero 3 de particulas X 4em A, e a
de B para A no intervalo ∆t é ρ∆t (ρ = constante).
ção de probabilidadepde particulas em Ape resolva-a, p’
232 CHAPTER 8. NONEQUILIBRIUM STATISTICAL MECHANICS
o numero medio de particulas em A, e a variancia,
a equação mestra8.8
paraExercises
a equação de Fokker-Planck,
Fourier. 1
2 X 1
1. Um rato treinado vive na casa mostrada na Fig. 8.12 abaixo. Uma campainha toca
p (muito pequenos comparados com a vida do rato). Cada vez
a intervalos regulares
uma variavel estatisticamente estacionaria
que a campainha toca, o rato muda y(t) é Quando muda de quarto, ele tem a
de quarto.
s). Calcule o espectro
mesmade potenciadew(f
probabilidade passar), por
e discuta
qualquer uma das portas do quarto em que está.
∗ Aproximadamente que
∗ Figura
fração de sua 1 o rato passa em cada quarto?
vida
0; (ii) f → 0, e (iii) ambos α e f → 0.

B
Quarto A
p’ A

1 Quarto B Quarto C
n,Ω
ρ
Figura
Figure 8.12: 2Problema 1.

Figura
Figure 8.13: 3
Prob. 2.
B
2. Considere uma caixa de volume Ω conectada a outra caixa de volume infinito por um
A pequeno buraco (vide Fig. 8.13 acima). Admita que a probabilidade de uma partı́cula
se mover de A para B no intervalo ∆t é (n/Ω)∆t, onde n ≡ número de partı́culas em
A, e a probabilidade de uma partı́cula se mover de B para A no intervalo ∆t é ρ∆t
n,Ω
(ρ = constante).
ρ
(a) Escreva a equação mestra para a distribuição de probabilidade de partı́culas em
A.
Figura 3 (b) Calcule o número médio de partı́culas em A, e a variância, como função do tempo.
Suponha que em t = 0, n = n0 . [Sugestão: passe da equação mestra para a
equação de Fokker-Planck, e resolva esta última por transformada de Fourier.]

3. Um spin-1/2, em contato com um reservatório térmico e na ausência de campo ex-


terno, executa transições entre os estados +1 e −1 à razão de α/2 transições por
unidade de tempo, indistintamente se é de +1 para −1, ou vice-versa. Seja P (σ, t) a
probabilidade do spin assumir o valor σ no instante t.

(a) Escreva uma equação mestra para P (σ, t), desprezando a possibilidade de não
haver transições.
(b) Calcule a magnetização média como função do tempo, sabendo que σ=+1 em
t=0. Discuta fisicamente seus resultados.
8.8. EXERCISES 233

(c) Comente sobre como a temperatura e o campo magnético (nulo, no presente caso)
entram implicitamente no problema. Em particular, discuta como um campo
não-nulo afetaria o resultado do item (b).

4. A função de autocorrelação K(s) de uma


 variável estatisticamente estacionária y(t)
é dada por: K(s) = K(0) exp −α2 s2 cos(2πf ∗ s). Calcule o espectro de potência
w(f ), e discuta seu comportamento nos limites: (i) α → 0; (ii) f ∗ → 0, e (iii) ambos
α e f ∗ → 0.
234 CHAPTER 8. NONEQUILIBRIUM STATISTICAL MECHANICS
Bibliography

[1] R. R. dos Santos, Quantum Mechanics. Lecture Notes, UFRJ, 2014.

[2] I. Prigogine, Non-Equilibrium Statistical Mechanics. Wiley, 1962.

[3] L. E. Reichl, A Modern Course in Statistical Physics. Wiley, 2nd ed., 1998.

[4] F. Reif, Fundamentals of Statistical and Thermal Physics. McGraw-Hill, 1965.

[5] K. Huang, Statistical Mechanics. Wiley, 2nd ed., 1987.

[6] R. K. Pathria, Statistical Mechanics. Butterworth-Heinemann, 2nd ed., 1996.

[7] R. Balescu, Equilibrium and Non-Equilibrium Statistical Mechanics. Wiley, 1975.

[8] N. Ashcroft and N. Mermin, Solid State Physics. Holt, Rinehart and Winston, 1976.

[9] L. Landau and E. Lifshitz, Quantum Mechanics: Non-Relativistic Theory. Course


of Theoretical Physics, Elsevier Science, 1981.

[10] D. Stauffer and A. Aharony, Introduction To Percolation Theory. Taylor & Francis,
2nd ed., 2003.

[11] R. B. Stinchcombe, “Dilute magnetism,” in Phase Transitions and Critical Phenom-


ena (C. Domb and J. L. Lebowitz, eds.), vol. 7, pp. 266–290, New York: Academic
Press, 1983.

[12] D. Belanger, “Experimental characterization of the Ising model in disordered anti-


ferromagnets,” Braz. J. Phys., vol. 30, p. 682, 2000.

235

You might also like