Arquivo da tag: Física Estatística

Posts sobre física-estatística e matéria condensada.

Fogo e chama

Rookie

Um dia desses, tive vontade de escrever um post sobre o fogo. Sempre fui fascinado pela chama, o brilho, o calor, seu movimento. Não conseguiria, contudo, escrever nada mais didático que esses dois vídeos combinados:

[youtube http://www.youtube.com/watch?v=5ymAXKXhvHI]

[youtube http://www.youtube.com/watch?v=ITpDrdtGAmo]

Enjoy.

Informação e demônios

Geek

demônio de maxwell

Sorry, but you must be THIS hot to get in.

Uma das leis físicas mais mal citadas, em diversos contextos e por ser um pouco difícil de explicar, é a segunda lei da termodinâmica: a lei responsável por prever que, ao colocar sua panela no fogo, não é o fogo que esquenta e ela que esfria; mas o contrário. Ela tem uma formulação complicada, a definição de entropia, de desordem e de reversibilidade, não vou me meter nisso hoje. Uma consequência dela, no entanto, é a seguinte propriedade: um sistema em equilíbrio térmico (todo mundo à mesma temperatura) precisa gastar energia para criar uma diferença de temperatura, ou seja, um lado quente e um frio. E essa propriedade é bem evidente, não por menos sua geladeira é ligada na tomada: ela usa essa energia para criar um ambiente frio (o interior do refrigerador) e um quente (aquela parte atrás que você usa para secar roupas e não devia).

Quando esse princípio foi formulado, no meio do século XIX, foi um dos pais da termodinâmica, o gigante na física James C. Maxwell, o primeiro a elaborar uma tortuosa ideia em busca de uma melhor compreensão da lei. Um bom jeito de entender uma lei da física é tentar imaginar um sistema que a viola, e foi o que ele fez. Imagine uma caixa com um gás, dividida em dois compartimentos (esquerda e direita) separados por uma parede. Essa parede, contudo, possui uma pequena porta, e essa porta é controlada por um pequeno demônio que possui informações sobre cada partícula na caixa. Cada vez que uma partícula rápida do lado esquerdo se aproxima da porta, o demônio a deixa passar para o direito; e cada vez que uma partícula lenta no lado direito se aproxima da porta, o demônio a deixa passar para o lado esquerdo. Essa figura ajuda, tirada do site phys.com.

Como temperatura não é nada mais que a medida da agitação média das partículas, esse demônio acaba de separar o gás em um lado quente e um lado frio. Se essa porta for leve o suficiente, ou uma porta rolante de atrito zero, o trabalho de abrir a porta é nulo e o demônio, sem gastar energia, criou uma diferença de temperatura. Sem precisar ligar na tomada, o demônio criou uma geladeira. Essa ideia, que de fato é um pouco absurda, ainda assim tenta provar um ponto: alguém com bastante informação sobre o sistema pode violar a segunda lei da termodinâmica.

Gostamos de nossas leis, não queremos que elas sejam violadas tão facilmente. O demônio de Maxwell assombrou físicos por quase um século, demoramos para perceber onde estava a energia gasta pelo demônio para dividir o gás em quente e frio. Enquanto muitos tentaram atacar a parede no problema, ou a própria natureza irreal da situação, a resposta estava no cérebro do demônio.

Maxwell foi muito malandro na escolha de palavras, pois o problema logo no início tenta te enganar: ele usa um demônio, uma criatura imaterial, para fazer o serviço. Ele sabe tudo, ou ao menos sabe o que se passa em torno da porta, e decide abrir ou não a porta com essa informação. Mas precisamos imaginar que, se ele sabe, essa informação está armazenada em algum lugar. Surpreendentemente, a energia gasta pelo demônio de Maxwell está no fato de sobre-escrever a informação que possuía sobre a partícula levando em conta o fato de ter aberto a porta e tê-la deixado passar.

Essa resposta parece um pouco roubada, mas foi uma das grandes descobertas do meio do século XX, o nascimento da teoria da informação. Quando os computadores começaram a surgir, muita gente se colocou a tentar estabelecer os limites de cálculo de uma máquina daquelas, e quanta energia ela gastaria para realizar operações. No início, acreditava-se que toda operação feita pelo computador possuía uma energia mínima para ser realizada, o valor $k_BT\log 2$, onde $k_B$ é a constante de Boltzmann e $T$ é a temperatura. Esse limite, proposto por von Neumann, não está correto, mas quase. Se estivesse correto, seria impossível criar computadores funcionais, a quantidade de energia necessária para fazê-los rodar seria alta demais e resfriá-los seria quase impossível. Apenas em 1961 Laudauer explicaria o limite corretamente: apenas uma operação do computador precisa de gasto de energia: a operação de apagar uma memória.

O argumento de Laudauer é simples e bonito. Vamos pensar na forma mais simples de se armazenar uma informação: o bit. Essa variável vale 0 ou 1, e deve ser armazenada de alguma forma, seja uma alavanca para um lado e não para outro, seja um aparato que permite ou não passar corrente. De forma bem geral, representamos o bit da seguinte forma:

Essa figura é um potencial, que podemos deformar à vontade, mantendo uma pequena bolinha de um lado e não do outro, representando o bit 1, enquanto no lado esquerdo seria o 0. Vamos supor que a temperatura da bolinha seja baixa o suficiente para que a chance de mudar de lado nesse potencial seja desprezível, como uma colina alta demais para que a bolinha vermelha, na velocidade em que está, possa atravessar e chegar ao outro lado.

Queremos operar esse bit, transformá-lo de 1 em 0, ou seja, fazer a bolinha passar da direita para a esquerda. Esse processo é o equivalente a sobre-escrever uma informação: devemos primeiro esquecer o que havia e depois forçar a bolinha a ficar do lado que queremos. A primeira coisa que precisamos fazer, portanto, é descer a barreira e “apagar” a informação:

Agora a bolinha passeia livremente entre os dois bits. Esse gif não é muito honesto, a bolinha, para ser coerente com a física, precisa ir e voltar muitas vezes, esse processo de descer a barreira deve ser feito de forma quasi-estacionária, ou seja, devemos descer a barreira levando um tempo muito maior que o tempo característico da bolinha de ir de um lado para o outro. Assim, a bolinha faria o caminho de ida e voltas muitas vezes antes de ver a barreira descer. Logo mais discutiremos se isso é realmente possível.

O próximo passo, escrever a informação, consiste em levantar a barreira de potencial de forma a forçar pouco a pouco a bolinha a ir para o lado que queremos. Enquanto ela vai e vem, vamos aumentando a barreira da direita. Isso forçará a bolinha a ficar confinada na esquerda. Em seguida, descemos a barreira da direita e temos a bolinha confinada do lado que queremos. O processo todo é resumido no seguinte gif, feito com algum esforço e uma tarde livre:

Vamos conversar agora sobre cada etapa desse processo, e as energias envolvidas. Queremos saber se precisamos gastar energia para sobre-escrever a memória e, se precisamos, em qual etapa exatamente. Para tal, vamos dar nomes às etapas:

Para entender o que está acontecendo, precisamos de algumas noções de termodinânica. Dizemos que um processo é reversível quando não há aumento de entropia, o caminho inverso pode acontecer.  É importante notar que todo processo reversível deve ser quasi-estacionário: é necessário que cada ponto desse processo seja um estado de equilíbrio, o equivalente a dizer, de maneira grosseira, que não podemos mexer o sistema muito rapidamente se temos a pretensão de seguir o caminho inverso. A ideia é mover um pouco, bem pouco, esperar o equilíbrio chegar, mover mais um pouquinho, esperar o equilíbrio chegar, e continuar dessa maneira. Em uma situação idealizada, podemos dizer que as mudanças são infinitesimais e que o processo, a cada instante, está em equilíbrio.

Note que esse raciocínio não é de todo desonesto, pois estamos buscando o limite mínimo de gasto de energia. Na busca do limite, trabalhamos com a situação mais idealizada possível, e concluímos que melhor que isso não conseguiremos jamais.

Assim, as etapas são realizadas em um processo quasi-estacionário, de forma a estar constantemente no estado de equilíbrio. Queremos um pouco mais que quasi-estacionário, queremos fazer todas essas etapas em processos reversíveis. Se conseguíssemos, como não aplicamos nenhum trabalho na bolinha (ela não ganhou energia nenhuma, não mudou sua altura máxima atingida no poço), não teremos gasto energia nenhuma e teremos trocado a bolinha de poço. É então que Landauer nos diz: isso não é possível. Para ser mais exato, todos os processos podem ser feitos sem gastar energia, exceto passar de A para B.

Apagar uma memória é a única operação que gasta energia. Nosso raciocínio do “quasi-estacionário” não se aplica ao processo AB, e é por isso que nossa ideia falha. Quando dizemos “um processo lento”, queremos dizer lento em relação ao tempo que o estado leva para estar em equilíbrio. Mas conforme vamos descendo o poço, notamos que, se o poço é muito alto, o tempo característico para que a bolinha mude de poço é muito alto. Ora, na situação A o tempo que a bolinha leva para mudar de poço é infinito, e na situação B ele é finito, é, portanto, impossível realizar o processo AB de forma quasi-estacionária, porque você, em algum momento, terá o tempo característico de mudança de poço igual ao tempo característico de descer o poço. Em outras palavras, é impossível realizar um processo mais lento que um processo cujo tempo característico para atingir o equilíbrio é infinito!

Todos os outros processos, se feitos de forma bem devagar, podem ser realizados de forma completamente reversível. O que pega é o processo de apagar a memória, de deixar o bit indeciso, e é aí que o demônio perde. Em seu cérebro, ou em seu supercomputador, ele deve, a cada vez que deixa uma partícula passar, reescrever sua informação sobre a trajetória da partícula, porque, pela vontade dele, ela mudou de lugar e não será mais a mesma. O demônio gasta energia, uma forma de “energia mental”, para reajustar seu conhecimento à nova configuração.

Isso resolve o problema do demônio de Maxwell, que deve gastar energia para criar essa geladeira microscópica. Por mais conhecimento que tenha, ele deve apagar e sobre-escrever bits no momento em que decide que a partícula mudará de lado. Para o demônio, nessas condições, o maior esforço não é lembrar, analisar ou mudar a partícula; seu maior esforço é, de forma quase poética, esquecê-la.

Epidemias, parte II

Hardcore

Em um post anterior, comentei sobre a evolução de epidemias em seres humanos e sobre a noção de threshold, um valor mínimo de eficácia da doença para que ela tenha algum futuro. Hoje vamos falar de vírus de internet e sobre como sua propagação ocorre de maneira diferente, porque sites e seres humanos não são a mesma coisa. Se o post anterior já era hardcore, esse não deixa barato, em alguns sentidos é mais intrincado que o primeiro, mas sua conclusão é bonita. Coragem, respire e me acompanhe.

O sistema descrito no post anterior não é um bom modelo para a internet. Os sites possuem um fenômeno conhecido como preferential attachment, ou, como no Brasil chamamos, o rico cada vez fica mais rico e o pobre, mais pobre. Um novo usuário tende a acessar sites que são mais famosos quando entra no sistema. Claro que há diversos fatores, desde idade do site à sua capacidade de inovação, mas em um modelo simples podemos imaginar que um usuário que deseja criar uma rede social tem uma tendência maior a abrir uma conta no Facebook a uma no Uolkut (que acabo de ficar sabendo que foi desligado esse mês, paciência, segue como exemplo).

Podemos representar isso em um grafo como no post anterior. Um modelo simples de preferential attachment é conhecido como Barabási-Albert, consiste em começar com um número de pontos (digamos 2) e, a cada ponto inserido no grafo, esse ponto fará um número de conexões (digamos também 2) com os pontos já existentes. Isso representa um número de sites que possuem links entre si e um novo entrando na roda, formando links com os já existentes. Mas em um momento haverá mais pontos disponíveis que links a serem feitos pelos novos ingressantes, então um novo membro deve escolher os pontos com que quer formar links, e essa escolha se dará de forma aleatória, sendo a probabilidade de se conectar a um ponto proporcional ao número de links que o ponto já possui. Vamos supor um caso inicial de dois pontos, sem vínculos. O primeiro que entra deve fazer duas conexões, então ele escolhe os dois já existentes. O próximo a entrar terá que escolher dois dentre aqueles três: um possui duas conexões e outros dois possuem apenas uma, então a primeira conexão entra com probabilidade 1/2 no link com mais conexões e 1/4 nos outros. E a segunda será análoga, dependendo da que ele já escolheu (não pode formar duas conexões com o mesmo ponto). Represento um dos resultados possíveis desse modelo com um belo gif, tirado sem escrúpulos da Wikipédia.

Tentando repetir o raciocínio do primeiro post sobre epidemias, temos um problema na equação mestra, aquela que nos diz a evolução temporal da probabilidade. Não mais sabemos o número médio de contatos de cara ponto, não possuímos mais a relação $\langle r \rangle=2m$. Estamos vamos fazer por partes: escrevamos a equação mestra supondo que o ponto tem um número $k$ de contatos e depois eu faço uma soma ponderada disso tudo.

A chance de um ponto com que fazemos contato estar infectado depende de $\lambda$, vamos então o denotar $\Theta(\lambda)$. Nossa equação mestra, supondo um $k$ específico, nos dará a densidade de infectados supondo esse $k$ específico, ou seja, $\rho_k$. Ela será:

\[\partial_t\rho_k(t)=-\underbrace{\rho_k(t)}_{\text{cura}}+\lambda \underbrace{k(1-\rho_k(t))\Theta(\lambda)}_{\text{contato sadio-doente}}\]

Os que se interessam nos meandros das contas, escrevo a expressão de $\Theta$, que representa a chance de, estando em contato, está-lo com um infectado. Ela deixa de ser evidente, mas pode ser calculada da forma:

\[ \Theta(\lambda)=\sum_k\rho_k\overbrace{\frac{kP(k)}{\sum_ssP(s)}}^{\text{probabilidade de ter k}}\]

E depois, para achar a densidade total de infectados, basta somar de forma ponderada com $k$:

\[\rho(t)=\sum_k P(k)\rho_k(t)\]

É aqui que paro com a tortura das equações. Misturamos essas acima e chegamos a uma conclusão um pouco perturbadora sobre a densidade de persistência, aquela obtida igualando a sua derivada temporal a zero:

\[\rho\propto e^{-\frac{1}{m\lambda}}\]

Não encontramos nenhuma maneira de obter o que antes chamávamos de threshold, os vírus de internet não possuem uma eficácia mínima para funcionarem , eles se propagam e adquirem uma população constantemente infectada a qualquer taxa de infecção. Mando aqui o gráfico da densidade de persistência:

Ainda que temamos essa propagação sem threshold, podemos ficar tranquilos, o decaimento da densidade de persistência é exponencial para pequenas taxas de infecção e ela se torna rapidamente desprezível, como percebemos no gráfico. Ainda, esse modelo é capaz de explicar a propagação desenfreada de ameaças tidas como bem estúpidas, links evidentemente falsos e infecções cuja eficácia seria baixa ($\lambda$ baixo), não fosse o grande número de conexões dos infectados. Terminando esse exemplo, elogio a graça e simplicidade desse toy-model, capaz de explicar doenças, epidemias e talvez até aquele seu tio (ou tia) chato, aquele que na sua adolescência perguntava de suas namoradinhas, e agora manda tantos supostos vídeos exclusivos de celebridades nuas; todos conhecemos um desses, tendo, como teorema, que todos têm um tio chato. Se você não tem, cuidado, ele provavelmente é seu pai.

Propagating randomness

Hardcore

Ricardo: O post de hoje é em inglês, e de um convidado muito especial. Alexander Dobrinevski, autor do blog inordinatum.wordpress.com, é meu grande amigo bielo-russo que, após sua graduação na Universidade Ludwig-Maximilians de Munique, seguiu para dois anos de mestrado em estudos avançados em matemática na Universidade de Cambridge e deu-me o privilégio de sua companhia no Laboratório de Física Teórica da École Normale Supérieure, onde dividimos sala durante alguns meses de trabalho enquanto ele fazia seu doutorado e eu, o mestrado. Viciado em cafés, filmes não tão mainstream e transformadas de Laplace. O post de hoje é bem hardcore, vale aos especialistas da área, e a mim, que aprendi e aprendo bastante a cada vez que nos falamos.

Ricardo: This post will be in english, for we have a very special guest today. Alexander Dobrinevski, author of the blog inordinatum.wordpress.com, is a good friend of mine from Belarus. Having finished his graduation at LMU, he followed the Advanced Studies in Mathematics program from Cambridge University to end up his doctoral thesis at the École Normale, where I had the pleasure to share with him the office for a few months. He is addicted to coffee, exotic movies and Laplace transforms. Today’s post is also very hardcore, to the benefit of our dear specialist in the field, and to mine, I who have learned so much and still do every time I get to talk to this dearest friend of mine.


Introduction

I guess anybody doing statistical physics or probability theory has played around with Brownian Motion (by which I mean, here and in the following, the Wiener process, and not the physical phenomenon) at some time or another. It is used e.g. for modelling the price of a stock, the position of a particle diffusing in a gas or liquid, or the pinning force on an elastic interface in a disordered medium.

Being Markovian, time evolution of Brownian motion is completely determined by its propagator, i.e. the probability (density) to arrive at $x_1$ at time $ t_1$ starting from $ x_0$ at time $ t_0$. This is, of course, known to be a Gaussian. However, for practical applications, one often needs to restrict the Wiener process (in general, with drift) to a half-line or an interval, with some imposed boundary conditions (absorbing or reflecting). In the example of a stock price, these would describe call or put options on the stock. In this post I will derive, hopefully in a pedagogical way, the propagator of Brownian motion with drift and linear boundaries.

Propagators without drift

Let us first consider standard Brownian motion $ W(t)$ without drift. Without loss of generality, let us assume it starts at $W(0)=0$. It satisfies the Langevin equation

\[\dot{W}(t) = \xi(t)\]

where $ \xi(t)$ is Gaussian white noise with correlation

\[\overline{\xi(t)\xi(t’)} = 2\sigma \delta(t-t’).\]

With these conventions, the free propagator (i.e. the propagator without any boundaries) $ P(x,t)$ is given by the solution of the Fokker-Planck equation

\[ \partial_t P(x,t) = \sigma \partial_x^2 P(x,t)\]

with initial condition $ P(x,0) = \delta(x)$. This PDE, also known as the heat equation, is easily solved by taking a Fourier transform. The solution is given by

\[ P(x,t) = \frac{1}{\sqrt{4\pi\sigma t}}e^{-\frac{x^2}{4\sigma t}}.\]

Now, let us determine the propagator with an absorbing boundary at $ x=b > 0$. In the Fokker-Planck equation, this is equivalent to the boundary condition $ P(b,t)=0$, which makes applying Fourier transforms difficult. However, we can use the method of images to find the solution: $ P(b,t)=0$ is enforced automatically if we add a negative source at $ x=2b$ (the position of the original source, reflected at $ b$), i.e. take the initial condition $ P(x,0) = \delta(x)-\delta(x-2b)$. The final propagator with an absorbing boundary at $ x=b$ is thus

\[P^{(b)}(x,t) = \frac{1}{\sqrt{4\pi\sigma t}}\left[e^{-\frac{x^2}{4\sigma t}}-e^{-\frac{(x-2b)^2}{4\sigma t}}\right].\]

Similarly one can treat the case of two absorbing boundaries, one at $ x=b>0$, one at $ x=a<0$. One then needs an infinite series of images, and obtains the propagator as a series which can be rewritten in terms of Jacobi Theta functions.

Propagators with drift

Now let us generalize to the Brownian motion with drift $ \mu$. Then the Langevin equation for $ W(t)$ becomes

\[ \dot{W}(t) =\ mu + \xi(t).\]

The free propagator is obtained from the Fokker-Planck equation just as above:

\[P(x,t) = \frac{1}{\sqrt{4\pi\sigma t}}e^{-\frac{(x-\mu t)^2}{4\sigma t}}.\]

Let us now introduce again a constant absorbing boundary at $ x=b$. Applying the method of images is not so straightforward anymore. Due to the drift, a path which goes from $ x=0$ to the boundary $ x=b$ will not have the same weight as the reflected path which goes from $ x=2b$ to the boundary $ x=b$. However, for the case of constant drift considered here, the weights of Brownian paths with and without drift have a simple relationship. In my view, the easiest way to see it is using path integrals. The propagator is given by

\[ P(x_f,t) = \int_{x(0)=0}^{x(t)=x_f} \mathcal{D}[x]e^{-\int_0^t \mathrm{d}s, \frac{1}{4\sigma}\left(\dot{x}(s)-\mu\right)^2}\]

Now, expanding the “action” in the exponent, using the fact that our drift $ \mu$ is constant, and using our boundary conditions, this is equal to

\[ P(x_f,t) = e^{-\frac{\mu}{2\sigma}x_f+ \frac{\mu^2}{4\sigma}t}\int_{x(0)=0}^{x(t)=x} \mathcal{D}[x]e^{-\int_0^t \mathrm{d}s, \frac{1}{2\sigma}\left(\dot{x}(s)\right)^2}.\]

We thus get a simple weight depending on the final position, but the remaining path integral is taken over a drift-less Brownian motion, and there we know the solution already, both with and without the boundary! In mathematical literature, you will often find this manipulation under the name of the Cameron-Martin-Girsanov theorem, but I find the path integral explanation much clearer for somebody coming from physics. Note that in the case where the drift $ \mu$ is a function of time, we cannot pull the weight out of the path integral, because it involves the whole trajectory and not just the final point. This shows why non-constant drift with absorbing boundaries is a much more complicated problem (although the free propagator is still trivial to write down!).

The final formula for the propagator of the Brownian motion with drift $ \mu$ and an absorbing boundary at $ x=b$ (also known as Bachelier-Levy formula) is thus

\[P^{(b,mu)}(x,t) = \frac{1}{\sqrt{4\pi\sigma t}}e^{-\frac{mu}{2\sigma}x+ \frac{mu^2}{4\sigma}t}\left[e^{-\frac{x^2}{4\sigma t}}-e^{-\frac{(x-2b)^2}{4\sigma t}}\right]\]

This is now all that is required to compute things like first-passage times, survival probabilities, etc. The generalization to two absorbing boundaries follows from the solution in the driftless case by multiplying with the same weight as here.

I hope you see that with the right tools, obtaining these propagators is nothing miraculous. If you have any questions or comments, I’d be glad to hear them! If people are interested, at some point I may write a continuation of this blog post, possibly on generalizations of the methods discussed here to Ornstein-Uhlenbeck processes, Bessel Processes, or more complicated boundaries.

Have fun, and thanks for reading!

Ricardo: This post will be in english, for we have a very special guest today. Alexander Dobrinevski, author of the blog inordinatum.wordpress.com, is a good friend of mine from Belarus. Having finished his graduation at LMU, he followed the Advanced Studies in Mathematics program from Cambridge University to end up his doctoral thesis at the École Normale, where I had the pleasure to share with him the office for a few months. He is addicted to coffee, exotic movies and Laplace transforms. Today’s post is also very hardcore, to the benefit of our dear specialist in the field, and to mine, I who have learned so much and still do every time I get to talk to this dearest friend of mine.


Introduction

I guess anybody doing statistical physics or probability theory has played around with Brownian Motion (by which I mean, here and in the following, the Wiener process, and not the physical phenomenon) at some time or another. It is used e.g. for modelling the price of a stock, the position of a particle diffusing in a gas or liquid, or the pinning force on an elastic interface in a disordered medium.

Being Markovian, time evolution of Brownian motion is completely determined by its propagator, i.e. the probability (density) to arrive at $x_1$ at time $ t_1$ starting from $ x_0$ at time $ t_0$. This is, of course, known to be a Gaussian. However, for practical applications, one often needs to restrict the Wiener process (in general, with drift) to a half-line or an interval, with some imposed boundary conditions (absorbing or reflecting). In the example of a stock price, these would describe call or put options on the stock. In this post I will derive, hopefully in a pedagogical way, the propagator of Brownian motion with drift and linear boundaries.

Propagators without drift

Let us first consider standard Brownian motion $ W(t)$ without drift. Without loss of generality, let us assume it starts at $W(0)=0$. It satisfies the Langevin equation

\[\dot{W}(t) = \xi(t)\]

where $ \xi(t)$ is Gaussian white noise with correlation

\[\overline{\xi(t)\xi(t’)} = 2\sigma \delta(t-t’).\]

With these conventions, the free propagator (i.e. the propagator without any boundaries) $ P(x,t)$ is given by the solution of the Fokker-Planck equation

\[ \partial_t P(x,t) = \sigma \partial_x^2 P(x,t)\]

with initial condition $ P(x,0) = \delta(x)$. This PDE, also known as the heat equation, is easily solved by taking a Fourier transform. The solution is given by

\[ P(x,t) = \frac{1}{\sqrt{4\pi\sigma t}}e^{-\frac{x^2}{4\sigma t}}.\]

Now, let us determine the propagator with an absorbing boundary at $ x=b > 0$. In the Fokker-Planck equation, this is equivalent to the boundary condition $ P(b,t)=0$, which makes applying Fourier transforms difficult. However, we can use the method of images to find the solution: $ P(b,t)=0$ is enforced automatically if we add a negative source at $ x=2b$ (the position of the original source, reflected at $ b$), i.e. take the initial condition $ P(x,0) = \delta(x)-\delta(x-2b)$. The final propagator with an absorbing boundary at $ x=b$ is thus

\[P^{(b)}(x,t) = \frac{1}{\sqrt{4\pi\sigma t}}\left[e^{-\frac{x^2}{4\sigma t}}-e^{-\frac{(x-2b)^2}{4\sigma t}}\right].\]

Similarly one can treat the case of two absorbing boundaries, one at $ x=b>0$, one at $ x=a<0$. One then needs an infinite series of images, and obtains the propagator as a series which can be rewritten in terms of Jacobi Theta functions.

Propagators with drift

Now let us generalize to the Brownian motion with drift $ \mu$. Then the Langevin equation for $ W(t)$ becomes

\[ \dot{W}(t) =\ mu + \xi(t).\]

The free propagator is obtained from the Fokker-Planck equation just as above:

\[P(x,t) = \frac{1}{\sqrt{4\pi\sigma t}}e^{-\frac{(x-\mu t)^2}{4\sigma t}}.\]

Let us now introduce again a constant absorbing boundary at $ x=b$. Applying the method of images is not so straightforward anymore. Due to the drift, a path which goes from $ x=0$ to the boundary $ x=b$ will not have the same weight as the reflected path which goes from $ x=2b$ to the boundary $ x=b$. However, for the case of constant drift considered here, the weights of Brownian paths with and without drift have a simple relationship. In my view, the easiest way to see it is using path integrals. The propagator is given by

\[ P(x_f,t) = \int_{x(0)=0}^{x(t)=x_f} \mathcal{D}[x]e^{-\int_0^t \mathrm{d}s, \frac{1}{4\sigma}\left(\dot{x}(s)-\mu\right)^2}\]

Now, expanding the “action” in the exponent, using the fact that our drift $ \mu$ is constant, and using our boundary conditions, this is equal to

\[ P(x_f,t) = e^{-\frac{\mu}{2\sigma}x_f+ \frac{\mu^2}{4\sigma}t}\int_{x(0)=0}^{x(t)=x} \mathcal{D}[x]e^{-\int_0^t \mathrm{d}s, \frac{1}{2\sigma}\left(\dot{x}(s)\right)^2}.\]

We thus get a simple weight depending on the final position, but the remaining path integral is taken over a drift-less Brownian motion, and there we know the solution already, both with and without the boundary! In mathematical literature, you will often find this manipulation under the name of the Cameron-Martin-Girsanov theorem, but I find the path integral explanation much clearer for somebody coming from physics. Note that in the case where the drift $ \mu$ is a function of time, we cannot pull the weight out of the path integral, because it involves the whole trajectory and not just the final point. This shows why non-constant drift with absorbing boundaries is a much more complicated problem (although the free propagator is still trivial to write down!).

The final formula for the propagator of the Brownian motion with drift $ \mu$ and an absorbing boundary at $ x=b$ (also known as Bachelier-Levy formula) is thus

\[P^{(b,mu)}(x,t) = \frac{1}{\sqrt{4\pi\sigma t}}e^{-\frac{mu}{2\sigma}x+ \frac{mu^2}{4\sigma}t}\left[e^{-\frac{x^2}{4\sigma t}}-e^{-\frac{(x-2b)^2}{4\sigma t}}\right]\]

This is now all that is required to compute things like first-passage times, survival probabilities, etc. The generalization to two absorbing boundaries follows from the solution in the driftless case by multiplying with the same weight as here.

I hope you see that with the right tools, obtaining these propagators is nothing miraculous. If you have any questions or comments, I’d be glad to hear them! If people are interested, at some point I may write a continuation of this blog post, possibly on generalizations of the methods discussed here to Ornstein-Uhlenbeck processes, Bessel Processes, or more complicated boundaries.

Have fun, and thanks for reading!

Introduction

Quiconque ayant déjà pratiqué la physique statistique ou les probabilités a forcément eu affaire au mouvement Brownien (j’entends par là le processus de Wiener, et pas le phénomène physique). On l’utilise, par exemple, pour modéliser l’évolution des prix, la position des particules dans un liquide ou un gaz, ou la force d’ancrage sur l’interface élastique d’un milieu désordonné.

L’évolution temporelle du mouvement brownien est markovienne, et donc entièrement déterminée par son propagateur, c’est-à-dire la (densité de) probabilité d’atteindre $x_1$ à la date $ t_1$ en partant de $ x_0$ à la date $ t_0$. Il est bien connu que ce propagateur est gaussien. Cependant, pour des applications pratiques, il est souvent nécessaire de restreindre le processus de Wiener à une demi-droite ou un intervalle, avec des conditions aux bords imposées (absorption ou réflexion). Dans l’exemple du prix d’un stock, ces dernières décriront les options d’achat et de vente. Dans cet article, je vais obtenir le propagateur du mouvement brownien avec dérive et conditions aux bords linéaires, avec une approche que j’espère pédagogique.

Propagateurs sans dérive

Considérons d’abord le mouvement brownien standard $ W(t)$ sans dérive. Sans perte de généralité, supposons $W(0)=0$. $W$ vérifie l’équation de Langevin :

\[\dot{W}(t) = \xi(t)\]

où $ \xi(t)$ est un bruit blanc gaussien avec des corrélations

\[\overline{\xi(t)\xi(t’)} = 2\sigma \delta(t-t’).\]

Avec ces conventions, le propagateur libre (c’est-à-dire sans conditions aux bords) $ P(x,t)$ est donné par la solution de l’équation de Fokker-Planck

\[ \partial_t P(x,t) = \sigma \partial_x^2 P(x,t)\]

avec la condition initiale $ P(x,0) = \delta(x)$. Cette équation aux dérivées partielles, également connue sous le nom d’équation de la chaleur, se résout facilement en prenant une transformée de Fourier. On trouve

\[ P(x,t) = \frac{1}{\sqrt{4\pi\sigma t}}e^{-\frac{x^2}{4\sigma t}}.\]

Maintenant, intéressons-nous au propagateur avec une frontière absorbante en $ x=b > 0$. Dans l’équation de Fokker-Planck, ceci se traduit par $ P(b,t)=0$, ce qui rend plus difficile la transformation de Fourier. Cependant, on peut utiliser la méthode des images pour trouver la position : $P(b,t)=0$ est automatique en ajoutant une source négative en $ x=2b$ (symétrique de la source initiale par rapport à la frontière en $ b$). Cela revient à prendre la condition initiale $ P(x,0) = \delta(x)-\delta(x-2b)$. Finalement, le propagateur avec frontière absorbante en  $x=b$ est

\[P^{(b)}(x,t) = \frac{1}{\sqrt{4\pi\sigma t}}\left[e^{-\frac{x^2}{4\sigma t}}-e^{-\frac{(x-2b)^2}{4\sigma t}}\right].\]

On traite le cas de deux frontières absorbantes en $ x=b>0$ et $ x=a<0$ de la même façon, mais il faut maintenant une infinité d’images, et le propagateur s’écrit sous forme d’une série qui peut être exprimée en termes des fonctions $\vartheta$ de Jacobi.

Propagateurs avec dérive

Généralisons maintenant au mouvement brownien avec une dérive $ \mu$. L’équation de Langevin pour $ W(t)$ devient

\[ \dot{W}(t) =\ mu + \xi(t).\]

Comme ci-dessus, le propagateur libre se déduit de l’équation de Fokker-Planck :

\[P(x,t) = \frac{1}{\sqrt{4\pi\sigma t}}e^{-\frac{(x-\mu t)^2}{4\sigma t}}.\]

Introduisons maintenant une frontière absorbante en $ x=b$. La méthode des images n’est plus évidente à appliquer ! A cause de la dérive, le poids d’une trajectoire partant de $ x=0$ vers la frontière en $ x=b$ ne sera pas le même que celui de son image, de $ x=2b$ à $ x=b$. Cependant, dans le cas d’une dérive constante, une relation simple lie les poids avec et sans dérive. Il me semble que la façon la plus simple de s’en rendre compte est l’utilisation des intégrales de chemin. Le propagateur est donné par

\[ P(x_f,t) = \int_{x(0)=0}^{x(t)=x_f} \mathcal{D}[x]e^{-\int_0^t \mathrm{d}s, \frac{1}{4\sigma}\left(\dot{x}(s)-\mu\right)^2}\]

En développant maintenant “l’action” dans l’exponentielle, et en utilisant le fait que $ \mu$est constant, ainsi que les conditions aux bords, on trouve

\[ P(x_f,t) = e^{-\frac{\mu}{2\sigma}x_f+ \frac{\mu^2}{4\sigma}t}\int_{x(0)=0}^{x(t)=x} \mathcal{D}[x]e^{-\int_0^t \mathrm{d}s, \frac{1}{2\sigma}\left(\dot{x}(s)\right)^2}.\]

On obtient alors un poids qui ne dépend que de la position finale (hors de l’intégrale), et l’intégrale restante ne présente plus de dérive, ce qui signifie que nous connaissons déjà la solution, avec ou sans frontières ! Dans la littérature mathématique, vous trouverez fréquemment cette manipulation sous le nom de “Théorème de Cameron-Martin-Girsanov“, mais je trouve que l’approche via l’intégrale de chemin est beaucoup plus claire pour un physicien. Notons que si la dérive $ \mu$ dépend du temps, on ne peut pas sortir le poids de l’intégrale de chemin, car il dépend de toute la trajectoire, et pas seulement du point final. C’est pourquoi il s’agit d’un problème bien plus difficile, bien que le propagateur libre soit toujours trivial à écrire !

La formule finale pour le propagateur du mouvement brownien avec dérive $ \mu$ et une frontière absorbante en $ x=b$ (connu sous le nom de “formule de Bachelier-Levy”) est donc

\[P^{(b,mu)}(x,t) = \frac{1}{\sqrt{4\pi\sigma t}}e^{-\frac{mu}{2\sigma}x+ \frac{mu^2}{4\sigma}t}\left[e^{-\frac{x^2}{4\sigma t}}-e^{-\frac{(x-2b)^2}{4\sigma t}}\right]. \]

C’est tout ce dont nous avons besoin pour calculer des choses comme des temps de premier passage, des probabilités de survie, etc. La généralisation à deux frontières absorbantes peut être déduite de la solution sans dérive, en multipliant par le même poids.

J’espère vous avoir fait sentir qu’avec les bons outils, obtenir ces propagateurs n’a rien de miraculeux. Si vous avez des questions ou des commentaires, je serai ravi de les entendre ! Pour approfondir, diverses voies sont envisageables, comme des généralisations des méthodes exposées ici aux processus de Ornstein-Uhlenbeck, de Bessel, ou encore des conditions aux bords plus compliquées.

Merci de m’avoir lu !

No cassino de Parrondo

Geek Rookie

A estatística possui alguns resultados não muito intuitivos, e muito divertidos. Um deles, proposto pelo físico espanhol Juan Parrondo, é um de meus favoritos. Para contar esse aparente paradoxo, convido-os a jogarem um jogo no cassino de Parrondo.

Esse cassino possui duas mesas, uma com um jogo A, outra com um jogo B, que possuem regras diferentes. Em ambos os jogos você só pode apostar uma ficha por vez, digamos, valendo R$100,00. Se você ganhar, leva mais uma ficha consigo. Se perder, perde sua ficha.

No jogo A você deve tirar uma carta de um baralho muito bem embaralhado. Se a carta for preta, você ganha. Se for vermelha, você perde. Neste maço de baralho, contudo, há um curinga; e você perde se tirar o curinga.

No jogo B, as regras mudam um pouco. Se seu número atual de fichas não for um múltiplo de três, suas chances são ótimas: você tira uma carta e perde apenas se ela for de copas ou o curinga. No entanto, se seu número de fichas for múltiplo de três, você deve tirar um às ou o curinga para ganhar, perdendo em todos os outros casos.

Não é surpresa nenhuma se eu te contar que o jogo A é falência na certa. A chance de você perder é maior que a de ganhar, e o ganho é igual à perda; jogar diversas vezes seguidas o jogo A fará você sair do cassino de mãos vazias. E apesar de o jogo B parecer um grande negócio, ele não é, podemos provar com diversas simulações numéricas, o que é o equivalente a jogar várias vezes, que a tendência é perder mais e mais dinheiro jogando o jogo B várias vezes. Assim, nas mesas do cassino de Parrondo a casa sempre vence.

Mas suponha que você pode caminhar de uma mesa à outra. Ora, certamente você só iria ao jogo B quando tem certeza de que suas fichas não são um múltiplo de três; o cassino jamais permitira algo parecido. Então você pode mudar de uma mesa para outra, mas com uma regra: você não pode contar suas fichas. Para deixar ainda mais justo, você não sabe, a cada aposta, se ganha ou perde, fica apenas sabendo o resultado final de suas aventuras ao sair do cassino. Assim, você até pode alternar os jogos, mas, sem contar as fichas e sem saber quando ganha ou perde, não consegue tirar muita vantagem disso. De certa forma, é como se você fosse obrigado a, na entrada, dizer quantas vezes irá apostar em cada jogo e em qual ordem. Assim, nunca sabendo em qual você ganha e qual perde, não poderá mudar de estratégia no meio da noite.

E eis a parte surpreendente. O jogo A é perda certa para você, o B também se jogado continuamente; mas alternar os jogos te leva a ganhar muito dinheiro. Esse fenômeno é o paradoxo aparente de Parrondo, duas táticas fracassadas que, combinadas, resultam em um ganho certeiro. Aos que não acreditam em mim, escrevi um pequeno código de computador para simular esses jogos todos. Claro, um exemplo não prova nada, coloco o resultado apenas para que sua confiança em mim aumente. O jogo A+B consiste em escolher, antes de cada jogada, aleatoriamente um dos jogos, ambos com a mesma probabilidade, como se tirasse no cara-ou-coroa a mesa escolhida para apostar. Eis os resultados, começando com uma fortuna de 47 fichas e permitindo ficar no negativo:

E esse aparente paradoxo nada mais é que um fenômeno estatístico fascinante usado abundantemente em diversos sistemas biológicos, o que inclui suas células. Temos, no caso de Parrondo, um jogo que apenas “bagunça” seu dinheiro (o jogo A, cuja chance é quase 1/2 para cada lado) e outro que te permite ganhar bastante, até atingir um valor (o múltiplo de três) bem difícil de atravessar, tão difícil que é mais fácil o jogo te fazer perder dinheiro a atravessar aquele valor e, perdendo, ele encontrará outro múltiplo de três, e será mais uma vez difícil de subir. No entanto, esse combo “bagunça+tendência” torna-se uma tática interessante, pois a bagunça pode te permitir “saltar” os múltiplos de três e, fora deles, você escala mais fácil a escada da fortuna.

 A partir desse ponto, esse post torna-se geek. Continue por sua conta em risco.

Parrondo não estudava teoria dos jogos, estudava os chamados “motores moleculares”, a base do funcionamento de diversos processos biológicos no nível celular. Suponha uma partícula submetida a um potencial da forma “dente de serra”:

Dente de serra

E suponha essa partícula com uma temperatura suficientemente baixa (ou seja, suficientemente lenta) para que fique confinada no poço. Na figura, o roxo representa a densidade de probabilidade da posição dela, note que é bem difícil ela sair daquele lugar.

Mas suponha agora que eu aumente bastante a temperatura, bastante mesmo. Ora, a partícula se comportará como se ignorando o potencial, e as chances de ir para a esquerda e para a direita tornam-se as mesmas. Mas algo é diferente, se pensarmos em qual poço é mais provável que ela caia. Veja como é a evolução desse sistema, nessa figura:

parrondo_4

Note que, no momento de alta temperatura, é mais provável que ela tombe no poço da direita (área verde) que no poço da esquerda (área vermelha). Ao resfriarmos o sistema, que é representado pelo terceiro quadro, percebemos que a partícula tende a andar pela serra para a direita. Por causa da assimetria do potencial, o sistema adquire uma direção preferencial.

A relação disso com o cassino é simples, o jogo B é a situação de temperatura baixa e o jogo A é a alta temperatura, andar para a direita significa ganhar dinheiro e perder dinheiro é andar para a esquerda. Mas o cassino de Parrondo é malandro, nele os picos de potencial não são iguais e o jogo B tende a te empurrar para a esquerda, e o jogo A também (o que seria equivalente a uma gaussiana levemente assimétrica). No entanto, pela diferença na inclinação do potencial, passar ao jogo A e voltar ao B torna o sistema mais propenso a te mandar para a direita, a direção de maior fortuna!

Esse jogo de aumento e diminuição de temperatura é a base dos motores moleculares, ele é a razão pela qual a proteína é sintetizada pelo ribossomo em um sentido e não decide, aleatoriamente, seguir o sentido oposto e ir se desfazendo. E a célula funciona, vive, produz e sintetiza proteína dessa maneira: aumento de temperatura, diminuição, aumento (o que deve explicar aquele monte de ATP sendo desfeito para fazer esse sistema andar), em um intrincado maquinário de potenciais assimétricos que nos permite andar, pensar, respirar e jogar cartas em um cassino.