Arquivos da categoria: Geek

Posts para iniciados em ciência que ainda não completaram seu treinamento Jedi. Estudantes em faculdades de exatas são o que tenho em mente nessas publicações.

Na saída da Peugeot

Geek

Certa vez, um amigo me contava de sua saída do trabalho, na sede da Peugeot. Todo dia, ele era confrontado com a escolha entre dois ônibus para chegar a seu destino, cada um saindo de um ponto diferente de sua empresa, mas ambos passando por sua casa. O primeiro, mais moderno, confortável, equipado e vazio, passava uma vez a cada quinze minutos. O segundo, mais rampeiro e cheio, passava a cada cinco minutos. No dilema entre conforto e pressa, meu amigo estabeleceu um critério: olharia o ponto do ônibus moderno e, se já houvesse alguém esperando, julgaria que valia a pena esperar, pois um tempo razoável já haveria se passado. Se não houvesse ninguém, voltaria nos sacolejos do outro ônibus.

Ao comentar seu critério com um colega de profissão, foi-lhe dito que era absurdo, pois a pessoa poderia ter acabado de chegar, que esse critério era o mesmo que nada. Ele propôs o problema a nosso grupo de amigos, e eu instintivamente achei um bom critério, se não pelo bom senso da explicação, por um instinto físico de considerar que haver uma pessoa representava ganho de informação, como se a entropia tivesse diminuído em relação à situação “eu não sei nada sobre o ônibus”, que é o caso original. Mas sem falar de entropia ou o que o valha, eu precisava provar meu ponto, e precisava conversar um pouco sobre como pessoas esperam um ônibus.

Esse post deveria ser simples e rápido, acabou saindo do controle, peço desculpas antecipadas pelo malabarismo de probabilidades, assuntos e variáveis, não consegui fazer mais simples; juro que tentei.

Imaginemos um ponto de ônibus ideal em que passa um ônibus a cada $T$ minutos. No caso de meu amigo, $T=15$ minutos. Suporei que a chance de um passageiro chegar ao ponto para esperar é sempre a mesma em todos os instantes durante esse tempo $T$, ou seja, estou desconsiderando efeitos que possam aumentar ou diminuir drasticamente a chegada de pessoas durante a espera de um ônibus, esse modelo não funciona bem para as 18h da empresa. Suponha que, a cada leva, o ônibus recebe em média $\lambda$ pessoas. Não sei os valores para o caso de meu amigo, mas eu noto que esse número é importante. Se o ônibus recebe a cada quinze minutos em média 10 pessoas, não é trivial saber exatamente o que haver uma pessoa esperando quer dizer; contudo, se ele recebe 50, haver apenas uma indica que ele acabou de passar.

Então temos que a cada $T$ minutos, em média, juntam-se $\lambda$ pessoas no ponto. Suponho que o fluxo de pessoas para o ponto seja constante, e me pergunto: qual a chance do ônibus receber $\lambda-1$ pessoas? Ou $\lambda+1$? Ou $\lambda/2$? Tais perguntas não são simples, mas são todas respondidas pelo que chamamos de distribuição de Poisson.

Tenho um intervalo de $T$ minutos entre um ônibus e outro, sei que as pessoas podem chegar a qualquer momento durante esses minutos. Minha única informação é que a média de pessoas que chegam ao final de $T$ minutos é $\lambda$. Para estudar essa estatística, vou usar um truque matemático para modelizar a situação como um processo binomial. O truque é dividir meu intervalo de 15 minutos em 900 intervalos de um segundo. A escolha do segundo é para fins didáticos, o correto seria escolher dividir 15 minutos no maior número de intervalos possíveis, cada um com uma duração cada vez menor. Vou supor que o ônibus encontra, em média, $\lambda=20$ pessoas no ponto. Assim, posso dizer que a chance de uma pessoa chegar em um dado segundo é $20/900$. A razão para essa divisão em 900 segundos é que essa afirmação só é possível se duas pessoas não puderem chegar no exato mesmo segundo. Se eu tivesse escolhido dividir meu intervalo em minutos, não faria sentido dizer que a chance de uma pessoa chegar em um minuto é $20/15$, essa chance é maior que um! Seria como cometer o erro de dizer que, se a chance de tirar cara ao tirar uma moeda é de 50%, então em três lançamentos a chance é de 150%!

Essa divisão nos intervalos bem pequenos serve para eu transformar a chegada de pessoas no ônibus em um processo de zeros e uns. Cada segundo receberá um número, 0 se nenhuma pessoa chegou nesse segundo, 1 se alguém chegou nesse segundo. A cada segundo, portanto, estará associada uma probabilidade $p$ de chegar uma pessoa. O que sabemos é que, se o número de segundos é $N$, então $Np=\lambda$, o número médio de pessoas será a probabilidade de uma chegar em um segundo vezes o número total de segundos. Isso só é possível porque a chegadas das pessoas não possui correlação e porque ninguém pode chegar no mesmo segundo que outra pessoa.

Para calcular a probabilidade, ao final de $N$ segundos, de se obter $k$ pessoas no ponto, preciso pensar que aqueles $N$ segundos ganharam um número $k$ de uns e um número $N-k$ de zeros. Ou seja, se quero saber a chance de 10 pessoas chegarem no ponto no final de 900 segundos, terei que dentre esses 900 segundos 10 deles receberam pessoas e 890 não receberam. A probabilidade de 10 segundos específicos receberem pessoas é de $p^{10}(1-p)^{890}$, pois aqueles dez devem receber e os 890 restantes devem não receber pessoas. Mas como não sei quais segundos receberam, devo considerar todas as combinações possíveis de segundos que receberam essas pessoas, devo multiplicar esse valor por $\binom{900}{10}$. A probabilidade $p$ pode ser determinada dividindo o número médio de pessoas 20 pelos 900 segundos, e teremos a probabilidade de encontrar 10 pessoas no ponto de ônibus: $P(k=10)=\binom{900}{10}\left(2/90\right)^{10}\left(1-2/90\right)^{890}$, um valor um pouco maior que 0,55%.

Esse raciocínio, contudo, tem problemas. Em primeiro lugar, eu deveria, por honestidade intelectual, dividir o intervalo em bem mais que 900 segundos, deveria usar 900.000 milissegundos para garantir que ninguém mesmo chegará no mesmo intervalo e poder usar essas contas com segurança. Mas se os cálculos já ficaram feios com 900, afinal, o binomial envolve fatoriais desse valor, imagine fazer contas com 900.000 fatorial! Esse caminho é impraticável, e por isso Simeon-Denis Poisson vem a nosso socorro. Através de uma aproximação malandra ((conhecida como aproximação de Stirling)), Poisson nos diz que:

\[ \binom{N}{k}\left(p\right)^{k}\left(1-p\right)^{N-k}\underbrace{\longrightarrow}_{N\to \infty} \frac{(Np)^k}{k!}e^{-Np}\]

O que é muito oportuno, porque sabemos que $Np$ é a média de pessoas que está no ponto após os quinze minutos, ela é igual a $\lambda$! Essa aproximação é cada vez melhor se o número de divisões do intervalo de tempo é maior, e eu quero mesmo é que isso seja grande, quanto maior for, menor é a chance de duas pessoas chegarem no mesmo intervalo de tempo. Então eu mando $N$ logo para infinito e digo que que a probabilidade de se encontrar $k$ pessoas no ponto de ônibus depois de quinze minutos (lembro que $T=15$ nesse caso) é:

\[P(k|T)=\frac{\lambda^k}{k!}e^{-\lambda},\]

onde $\lambda$ é a média de pessoas que encontro no ponto de ônibus no final dos quinze minutos de espera, essa é conhecida como a distribuição de Poisson. Saberei, com isso, a probabilidade de encontrar um número $k$ de pessoas ao final de cada espera de 15 minutos:

poisson_dist_20

Isso ainda não resolve meu problema, mas ajuda bastante, como veremos. Sei qual a probabilidade de encontrar $k$ pessoas após 15 minutos, pergunto então: qual a probabilidade de encontrar $k$ pessoas após $t$ minutos? Se com os 15 minutos bastou usar a distribuição de Poisson com parâmetro igual à média de pessoas que chegam em 15 minutos, com os $t$ minutos bastaria usar a mesma distribuição, trocando a média dos 15 pela média dos $t$. Como a taxa de chegada dos passageiros no ponto é constante, a média evolui linearmente de 0 a $\lambda$, ou seja, a média $\lambda(t)$ de passageiros no ponto em um tempo $t$ é $\frac{\lambda}{T}t=\mu t$, onde $\mu$ é a taxa de chegada das pessoas. A probabilidade de encontrar $k$ pessoas no ponto no instante $t$ será:

\[ P(k|t) = \frac{(\mu.t)^k}{k!}e^{-\mu t}\]

Essa distribuição dependente do tempo é conhecida como processo de Poisson, e descreve muito bem a chegada de pessoas em um ponto de ônibus. Temos agora exatamente a probabilidade de encontrar um número qualquer de pessoas em um instante qualquer de espera, queremos saber, então, se aquele critério de meu amigo presta a alguma coisa. Para isso, precisamos conversar um pouco sobre probabilidade condicional, e sobre como calcular probabilidades quando já sabemos algo sobre o processo.

O que quero é a chance de terem se passado $t$ minutos uma vez que há $k$ pessoas no ponto. Vou chamar essa chance de $P(t|k)$. O que tenho até agora é a probabilidade de encontrar $k$ pessoas uma vez que se passaram $t$ minutos, ou seja, tenho $P(k|t)$. Essas probabilidades parecem similares, mas possuem sentidos completamente diferentes; uma é a chance de chover se há nuvens, outra é a chance de haver nuvens se chove. Se quero de uma obter a outra, preciso usar o teorema de Bayes:

\[P(t|k) = \frac{P(k|t) P(t)}{P(k)},\]

onde $P(k)$ é a probabilidade de encontrar $k$ pessoas no ponto sem qualquer informação sobre o horário, e $P(t)$ é a probabilidade de estarmos no instante $t$.

Há um problema grave na definição de $P(t)$, pois a chance real de estarmos no instante $t$ é nula, porque $t$ é um número real e a chance de estarmos exatamente às 13h43m10s325ms901μs… é zero, não é possível atribuir a probabilidade de se obter um número real no meio da reta real. Mas podemos pensar na chance de estar entre dois horários, entre o primeiro e o segundo minuto, por exemplo. E essa chance, naturalmente é igual para todos os minutos, não temos razão para, chegando ao ponto de ônibus, supor que ele passou faz 3 minutos, ou 5, sem olhar para os passageiros que estão no ponto. Meu amigo, aliás, quer saber se há alguma diferença entre $P(t|k)$ (probabilidade de estar em $t$ sabendo $k$) e $P(t)$ (probabilidade de estar em $t$ sem saber nada sobre $k$). Se o tempo total possível de espera é de $T$, a chance de estarmos em um intervalo de tempo de tamanho $\Delta t$ é igual para todo intervalo: $\frac{\Delta t}{T}$. Para o propósito de nosso problema, vale a pena pegar intervalos muito pequenos de tempo. Ao escrevermos $P(t)$ queremos, na verdade, dizer “probabilidade de estar em um intervalo de tempo $dt$ muito pequeno centrado em $t$”, ou seja, $P(t)=\frac{dt}{T}$.

Calcular $P(k)$, por outro lado, não é tão simples. Devemos pegar a chance de encontrar $k$ pessoas no ponto no instante $t$ ( $P(k|T)$ ), multiplicar pela chance de estar em $t$ ( $P(t)$ ) e somar em todos os $t$’s possíveis. Essa é a única maneira de calcular a chance de ter $k$ sem saber nada sobre $t$, é somar a chance de estar em qualquer $t$ possível. Matematicamente, isso é fazer a integral: $\int_0^T P(k|T)\frac{dt}{T}$. Trabalhando um pouco, chegamos a:

\[ \int_0^T \frac{(\mu.t)^k}{k!}e^{-\mu t}\frac{dt}{T} = 1-\frac{\Gamma(1+k,T\mu)}{T\mu k!}\]

Chamamos essa função estranha do lado direito de função Gamma incompleta, ela é apenas um jeito elegante de escrever $\Gamma(s,x) = \int_x^{\infty} t^{s-1}\,e^{-t}\,{\rm d}t$, uma integral que não sabemos fazer, mas que numericamente sai com tranquilidade.

Depois de muito malabarismo, chegamos à resposta mais completa ao dilema de meu amigo. Dadas as seguintes hipóteses:

  • O ônibus passa uma vez a cada $T$ minutos.
  • O ônibus encontra, a cada vez, em média, $\lambda$ pessoas esperando no ponto.
  • A taxa de chegada de pessoas no ponto de ônibus é constante, igual a $\mu=\lambda/T$.
  • Ninguém corre para pegar o ônibus (hipótese que provavelmente torna o modelo inútil).

Então a densidade de probabilidade $P(t|k)$ é:

\[ P(t|k) =\frac{P(k|t)P(t)}{P(k)}=\frac{\frac{(\mu.t)^k}{k!}e^{-\mu t}\frac{1}{T}}{1-\frac{\Gamma(1+k,T\mu)}{T\mu k!}},\]

Essa é a densidade de probabilidade. Para descobrir qual a chance de que o último ônibus tenha passado há $\tau$ minutos, você deve integrar essa expressão de 0 a $\tau$. Felizmente temos o Mathematica para isso. Assim, ao encontrar $k$ pessoas no ponto, a chance de que o ônibus tenha passado há pelo menos $\tau$ minutos é:

\[ P(\tau)=\int_0^\tau P(t|k)dt=\int_0^\tau \frac{P(k|t)P(t)}{P(k)}=\frac{\int_0^\tau\frac{(\mu.t)^k}{k!}e^{-\mu t}\frac{dt}{T}}{1-\frac{\Gamma(1+k,T\mu)}{T\mu k!}}=\frac{\Gamma(1+k,\tau\mu)-\Gamma(1+k,T\mu)}{1-\Gamma(1+k,T\mu)}\]

Tomemos valores realistas. Sabemos que $T=15$. Vamos supor que a cada chegada, em média, o ônibus encontra $N=6$ pessoas. Para que meu amigo fique feliz com o post, apresento o resultado para encontrando duas pessoas ($k=2$), uma pessoa ($k=1$), não vendo ninguém no ponto ($k=0$) e não sabendo absolutamente nada sobre o ponto ($k=?$), essa é a probabilidade de que o ônibus tenha passado há pelo menos $\tau$ minutos:

poisson_bus_stopÉ claro que a chance é alta de que o ônibus tenha passado há ao menos um minuto, bem como é bem difícil que ele tenha passado há 14 minutos ou mais. Com isso, fechamos o problema. Percebemos alguns aspectos importantes do critério de meu amigo. Primeiro, ele não é equivalente a não saber nada sobre o ponto, as distribuições são bem diferentes. Segundo, observar uma única pessoa, sendo a média de embarque seis, indica que é mais provável que o ônibus tenha passado faz quatro minutos ou menos, você conta ainda com uma espera de uns bons onze minutos. Pelo número de pessoas que encontra no ponto, é capaz de, negociando com sua espera, decidir se se rende ao desconforto ou se volta paciente e confortavelmente para sua casa.

Quantos times de futebol tem no Brasil?

Geek

Ricardo: O autor do post de hoje é um grande amigo meu, Juan Simões, meu calouro tanto no Instituto de Física quanto na École Polytechnique, tendo continuado na física, ainda que seja algo que qualquer físico diria ser alienígena, em interfaces entre biologia, física e matemática pura, não me perguntem. Ele se propôs a escrever algo sobre entropia, e entregou. Entrego-os, portanto, a essa discussão sobre importância, ordem e futebol.


— Tem o Curintia… Tem o Parmera… Tem…

Pare agora mesmo! Não adianta nada começar a contar.

— Mas por quê? Finalmente vai ter uma pergunta que eu consigo responder neste blog!

Isto é só sua impressão, porque está é uma pergunta traiçoeira. Provavelmente quem te perguntou isso não gosta nada de você. Mas vamos pensar um pouco juntos para tentar responder da melhor maneira possível. E até aprender um pouco de física no caminho!

O primeiro problema com esta pergunta é que ela é impossível de responder exatamente. Não dá pra conhecer todos os times do Brasil, mesmo que você acompanhe desde a Libertadores até os rachas dos times de várzea do seu bairro.

— Mas eu conheço os mais importantes!

Tá certo, mas o que é um time importante? É ter torcida grande? Ou simplesmente ser registrado na CBF? Esta pergunta é um clássico exemplo de problema mal posto. Ela não tem uma resposta única correta, e não dá nenhum parâmetro para saber se uma certa resposta que dermos é próxima ou não da verdadeira.

Isso quer dizer que é necessário um índice de importância que nos deixe comparar os diferentes times. Mas isso é suficiente para responder ela direito? Afinal, se o meu critério de importância é a torcida, o time dos pivetes da rua de baixo é um time.

Isso nos leva a outra necessidade. Além de uma importância, temos que saber contar times levando em conta suas respectivas importâncias. Dito tudo isso, vamos começar!

Uma pergunta mais fácil

Vamos tentar responder uma outra pergunta. Quantos grandes times de futebol tem em Campinas? Quase todo mundo vai estar de acordo que só precisamos falar de dois, Guarani e Ponte Preta!

Mas por que nesse caso é mais fácil de responder? A primeira razão é o fato de haver uma importância bem definida, a quantidade de torcedores. A segunda razão é que Guarani e Ponte Preta têm tamanhos muito parecidos, e são muito maiores que os outros times da cidade. Isso permite ignorar os pequenos e contar só esses dois.

Essa pergunta seria muito mais difícil se eu fizesse o pergunta para São Paulo. Afinal, a Portuguesa é grande ou não ((Sim, ela conta. Viva Lusa!))? Ou ela conta como meio time?

Agora vamos usar os superpoderes da matemática para reescrever o problema! Vamos fazer uma lista $P$ com nossos times. Por exemplo, para o problema “Quantos são os times gaúchos campeões mundiais?” a lista seria:

\[P=\{\text{Gremio},\text{Internacional}\}.\]

Além disso, para cada time $p\in P$ vamos dar um índice de importância entre 0 e 1, chamado $|p|$. Nesse exemplo, a proporção dos campeonatos ganhos por cada time. Como cada um só ganhou uma vez, isso nos dá:

\[ |\text{Gremio}|=\frac{1}{2}\]

\[ |\text{Internacional}|=\frac{1}{2}\]

O importante é que a soma total das importâncias seja 1. Tudo isso é só para botar todos os problemas na mesma linguagem. Vamos chamar também de $||P||$ a quantidade de times na lista.

O que nós queremos é um número $N_P$ que represente o número efetivo de times segundo a importância que nós damos para eles. E nós já sabemos pelo menos algumas coisas sobre ele.

No caso do pergunta gaúcha, a resposta é fácil, dois. Isso nos diz uma muito importante sobre o número efetivo $N_P$. Se todos os times da lista tem a mesma importância, então o número efetivo é igual ao número total, isso é $N_P=||P||$. Vamos chamar problemas deste tipo de homogêneos.

O caso campinense nos diz ainda mais alguma coisa. Se temos vários times na lista com importância 0, então eles simplesmente não contam para o número efetivo. Isso já nos dá dicas de como continuar!

Uma pergunta um pouco mais difícil

Mas e no caso onde os times tem importâncias diferentes, o que dá pra fazer? Nós tentamos comparar com um problema homogêneo! O problema é como escolher essa comparação. E como o que não faltam são opções, vou apresentar aqui só uma, a que é mais comum nas rodinhas da física.

Vamos fazer um sorteio. Nesse sorteio a chance de escolher um time é igual a importância dele. E vamos repetir esse sorteio muitas vezes! Os possíveis resultados de n sorteios pode ser representado pela lista Pn, que consiste de todas as listas $(p_1,\ldots,p_n)$ com importância $|(p_1,\ldots ,p_n)|=|p_1|\ldots |p_n|$. Agora vai um segredinho que ninguém te conta. Quando $n$ é muito grande, $P_n$ vira um espaço homogêneo! Mas por quê?

Vamos com calma. A primeira coisa que dá pra ver é que quando $n$ é muito grande, $|(p_1,\ldots ,p_n)|$ é muito pequeno, pois cada um dos $|p_n|$ é menor que 1. Então vamos tentar calcular um número diferente, por exemplo:

\[|(p_1,\ldots ,p_n)|^{\frac{1}{n}}\]

Mas porquê isso? A primeira razão é que este número está sempre entre o menor e o maior dos $p_n$ (é a média geométrica!), o que quer dizer que o resultado para qualquer n não vai ser tão diferente. E além disso, é claro que:

\[[|(p_1,\ldots ,p_n)|^{\frac{1}{n}}]^n=|(p_1,\ldots ,p_n)|\]

Isso quer dizer que esse número é equivalente à importância de um time qualquer em espaço homogêneo, tal que a repetição de $n$ sorteios tem a mesma chance de acontecer deste que acabamos de fazer. Isso é importante. Releia muitas vezes esta frase se possível, até entender a ideia.

A parte chata é que não dá pra fazer um espaço homogêneo que obedeça isso para qualquer lista $(p_1,\ldots ,p_n)$. Tente fazer isso para um caso bem simples e você vai entender. O truque é que dá para fazer isso quando $n$ vai para o infinito! Mas como?

O primeiro ingrediente é a lei dos grandes números. Ela diz basicamente que se fazemos um experimento várias vezes, independentemente, e fazemos a média dos resultados, então esta média se aproxima o quanto quisermos da verdadeira média! Por exemplo, sabemos que a média dos lados de um dado é 3,5. Então a lei dos grandes números diz que jogando muitas vezes o dado, e fazendo a média dos resultados, com muitas repetições vamos chegar bem perto de 3,5.

Mas no nosso caso, estamos fazendo médias geométricas, não aritméticas. Para transformar uma média geométrica em uma aritmética, podemos tirar logaritmos, que transformam produtos em somas! Assim, vamos ter:

\[\log|(p_1,\ldots ,p_n)|^{\frac{1}{n}}=\frac{\log|p_1|+\ldots +\log|p_n|}{n}\]

Assim nosso novo sorteio é um de logaritmos de importâncias. E se repetimos muitas vezes, vamos conseguir a média:

\[ \frac{\log|p_1|+\ldots +\log|p_n|}{n}\to \sum_{p\in P}|p|\log|p|. \]

E encontramos o nosso tão desejado limite tirando a exponencial dos dois lados:

\[ |(p_1,\ldots ,p_n)|^{1/n}\to e^{\sum_{p\in P}|p|\log|p|}.\]

Relembrando, este limite dá a importância de um time em um problema homogêneo. Mas em um problema homogêneo a importância de qualquer time é $1/||P||$. Isso quer dizer finalmente que o nosso número efetivo é:

\[ N_P=e^{-\sum_{p\in P}|p|\log|p|}.\]

Isso resolve o problema! E nesta fórmula dá pra ver que times menos importantes contam menos para o número efetivo que times mais importantes!

Por exemplo, se calcularmos o número efetivo de times brasileiros campeões mundiais, vamos ter a seguinte tabela:

Time Importância
Palmeiras 1/10
Santos 2/10
Flamengo 1/10
Grêmio 1/10
São Paulo 3/10
Internacional 1/10
Curintia 1/10 ((Nota do autor do blog: esse post foi escrito por um torcedor da Portuguesa. Não sou responsável por esse valor.))

Fazendo as contas isso dá um número efetivo de campeões de 6,26. Isso não é nem um número inteiro! Mas o que este número está dizendo é que se dissermos que tem 6 ou 7 campeões mundiais, vamos estar bem próximos da verdade. Como tem alguns times que ganharam mais que outros, esquecer um time não é tão grave.

Mas e a resposta da pergunta? Podemos fazer a mesma coisa com uma lista razoavelmente completa de times do Brasil e suas respectivas torcidas. Como eu sou um cara preguiçoso, eu vou usar o velho truque dos livros de matemática e deixar isso como exercício. Se alguém fizer, mande nos comentários! Com a referência, é claro.

Física

— Mas isso não tem nada a ver com física! Nem tem plano inclinado ou coisa assim.

Calma, não estamos tão longe agora. Um físico é um cara estranho que em vez de contar times, ele conta estados. Isso pode variar desde questões como“Quantas são as posições possíveis de um cubo?” até “Quantos são os níveis de energia possíveis de um elétron em um átomo de hidrogênio?”.

E mais ainda, o físico não conta exatamente estados, pois estes são muitos. Ele conta graus de liberdade. Por exemplo, quando você joga Tibia você está em um quadrado e tem dois graus de liberdade: esquerda-direta e cima-baixo. Suponhamos que em uma certa caverna quadrada você tenha $L$ quadrados de lado. Então você tem ao total $L^2$ estados. Se fosse uma caverna 3D e você pudesse voar, seriam $L^3$ estados. O contador de graus de liberdade então não é o tamanho do lado da caverna, é o seu expoente!

No nosso caso já temos o expoente, e ele é:

\[ S_P=-\sum_{p\in P}|p|\log|p|.\]

Mas como podemos saber que isso é um bom contador de graus de liberdade? A característica mais importante deste graus é: se você tem um sistema com $N$ graus de liberdade e um outro independente com $M$, então o sistema composto pelos dois juntos tem $N+M$ graus de liberdade. Esta afirmação parece bem besta se pensamos em termos simples. Se eu tenho um boneco no Tibia que tem 2 graus de liberdade e um outro igual, então os dois juntos tem 4 graus de liberdade. Isso é o que os físicos chamam de uma quantidade extensiva.

Se você fizer as contas, vai ver que isso funciona! E ainda mais, este é o único jeito de contar graus de liberdade que obedece a isso ((O logaritmo é a única função diferenciável que transforma um produto em uma soma, por isso essa maneira é a única boa.))! Se você estiver curioso, procure pelos axiomas de Khinchin. E, ah, claro!, é essa contagem maluca de graus de liberdade que a galerinha chama de entropia.

No caso da física, a importância do time será trocada pela probabilidade de estar naquele estado, quanto mais provável for o estado, mais “importante” ele será. A entropia será máxima quando todos os estados do sistema forem igualmente prováveis, ou seja, o caso homogêneo. Se há preferência por este ou aquele estado, podemos calcular a entropia e comparar com o caso homogêneo.

E tudo isso é só o começo. E se eu quiser falar que os times Palmeiras A e Palmeiras B são muito parecidos? E se eu acho que time do interior é tudo igual? E se meu gás de elétrons na verdade é fortemente correlacionado? Bom, isso fica para outro dia.

Mudanças

Geek Hardcore Rookie

Como vocês devem ter percebido, o endereço do blog mudou. Espero que o redirecionamento esteja funcionando corretamente, não quero ninguém se perdendo no caminho. Transferi o blog para um domínio próprio, com hospedagem própria, ainda que continue usando a plataforma WordPress para escrever e, como vocês, para ler. Assim, não estarei mais usando o endereço ricardoamarino.wordpress.com.

As razões da transição são muitas, mas, se eu pudesse resumir, foi uma busca por liberdade. Antes eu não podia mexer no HTML ou no CSS do site, ou seja, minhas opções de personalização eram muito limitadas. Não podia instalar plugins, o que me obrigava ou a improvisar, ou a confiar em ferramentas nativas do WordPress que nem sempre eram as melhores. Assim, os leitores podem esperar, a partir de hoje, as seguintes mudanças:

  • Um LaTeX decente. Agora tenho um plugins capaz de escrever fórmulas matemáticas aceitáveis dentro e fora do corpo do texto. Antes, o WordPress criava uma imagem das fórmulas e colava bizarramente no texto, costurando tudo como o monstro do Frankenstein, deixando fórmulas abaixo da linha do texto, com tipografia fraca e nem sempre fácil de enxergar. Tudo isso é passado, como vocês podem ver por essa fórmula: \[= {1 \over r^2}{\partial \over \partial r} \left(r^2 {\partial f \over \partial r} \right)+ {1 \over r^2 \sin \theta} {\partial \over \partial \theta}\left(\sin \theta {\partial f \over \partial \theta} \right)+ {1 \over r^2\sin^2 \theta} {\partial^2 f \over \partial \phi^2}\]
  • Inclusão de notas de rodapé, que aparecem quando você coloca seu cursor sobre alguma delas. ((Como esta.)).
  • Otimização para encontrar o blog em sistemas de busca e, com sorte, aumentar o número de leitores!
  • Incorporação de scripts do Mathematica, o que me permite até fazer gráficos manipuláveis por vocês.
  • Criação do modo “tela cheia” ao clicar no título de um post, deixando a leitura mais agradável e com menos distrações.

Naturalmente, isso acompanha uma série de mudanças no layout que venho considerando há um bom tempo, em especial a fonte, o tamanho da fonte, a divulgação da categoria do post logo no início, o jogo de cores e outras frescuras que minha neurose não deixaria passarem. Ainda deve haver links quebrados, fórmulas tortas e outros desalinhos, por favor, não hesitem em me avisar. Espero que gostem das mudanças, conto com a opinião de vocês para melhoras, e desejo uma boa leitura.

Amigo secreto

Geek

Inspirado nesse clima de fim de ano, pensei em problemas que combinariam com essa última semana, e nenhum me pareceu mais adequado que o do amigo secreto. Todos já participamos de algo parecido, você é obrigado a tirar aleatoriamente um amigo que, via de regra, você mal conhece e deve comprar a ele um presente de até um determinado valor. É uma excelente oportunidade de ter que comprar coisas para quem não conhece e receber algo pífio de quem não gosta, porque presentes dependem do presenteado e, com pouca informação a respeito, esse processo tende a receber uma camiseta tamanho M que nunca na vida você usará.

Mas estes não são os únicos problemas do amigo secreto, há outros, que ao menos têm solução. Vou propor duas perguntas sobre a brincadeira, que envolvem pequenos defeitos que podem acontecer na seleção. Encontrar suas soluções é um interessante exercício de combnatória.

1) Qual a probabilidade de alguém tirar a si mesmo?

A primeira pergunta parece simples, mas tanto está longe de ser que ganhou um nome: o problema do chapeleiro. Suponha que o responsável por uma chapeleira perdeu o livro que dizia o dono de cada chapéu. Sem saída, ele distribui aleatoriamente os chapéus a quem vem buscar o seu. Qual a probabilidade de ele não ter acertado nenhum?

A resposta, apesar de bonita, não tem demonstração simples. Se peco na precisão, é por amor à clareza, vou tentar explicar o princípio desse cálculo. Você sabe que todas as permutações possíveis dos chapéus são $N!{}$, onde $N$ é o número de chapéus. Para saber a probabilidade de isso não acontecer, calculamos a chance de acontecer e tomamos a complementar. Para tal, basta somar as permutações que mantêm alguém constante (alguém recebeu o chapéu errado). Mas teremos um problema com isso, como veremos.

  • Missão: calcular a chance de alguém ter recebido o próprio chapéu.

Sabemos que para calcular a chance de uma pessoa $i$ receber seu próprio chapéu basta somar quantas permutações de chapéu resultariam em ele terminando com seu chapéu na mão, e essa conta é simples, são $(N-1)!{}$ (com o dele fixo, calculamos as permutações dos demais). Mas não podemos apenas somar esse número para todos os $i$, pois estaremos contando muitas coisas duas vezes! Para entender, uso de exemplo os quatro irmão, G, B, R e Y, que decidiram ir a uma festa deixando seus chapéus na chapelaria. Eles chegaram da seguinte forma:

hats2

Há $4!=24$ configurações possíveis de distribuição de chapéus na saída, mas há apenas 6 configurações em que o verde recebe seu chapéu corretamente, vejamos:

hats1

Note que seria ingênuo apenas somar essas configurações para todos os irmãos e dizer que esse seria o número de permutações em que alguém recebe seu chapéu corretamente, pois notamos que poucas são as vezes em que apenas o verde recebe seu chapéu, ou seja, na conta do verde há vezes em que outros recebem seu chapéu e essas configurações serão contadas novamente na vez desses outros que receberam o chapéu correto. Felizmente isso pode ser corrigido, basta retirar o número de vezes em que dois recebem os chapéu correto.

Vamos colocar isso em uma linguagem matemática decente. Chamaremos $A_n$ o conjunto das permutações tais que o número $n$ recebe seu chapéu correto. Sabemos que $|A_n|=(N-1)!{}$. Mas o que queremos é $|\cup_n A_n|$, ou seja, o número total de permutações em que alguém é fixo.

Começamos calculando $\sum_n |A_n|$, mas provamos que contamos muita gente duas vezes. Pegamos esse resultado e subtraímos $\sum_{i<j} |A_{i,j}|$, onde $A_{i,j}$ é o conjunto das permutações que deixam $i$ e $j$ fixos, ou seja, eles recebem o chapéu correto.

Agora sofremos de outro mal, o remédio causou um novo sintoma. Ao excluirmos todos os que possuem dois fixos, excluímos duas vezes aqueles que possuem três fixos, e assim por diante, pois eles foram contados mais de uma vez nessa subtração. Isso não é problema, basta colocarmos de volta esses elementos, somando ao resultado o fator $\sum_{i<j<k} |A_{i,j,k}|$. O problema é que nessa soma contamos duas vezes os que possuem quatro fixos.

Deu para entender o mecanismo. Felizmente, como há um número finito de chapéus, ele algum dia terminará. E sabemos que o número de permutações possíveis com $n$ chapéus fixos é $(N-n)!{}$, isso nos permitirá calcular a soma total. Mas precisamos também lembrar que ao calcularmos $\sum_{i<j<k}|A_{i,j,k}|$, por exemplo, temos que somar $(N-3)!{}$ um número de vezes equivalente ao número de configurações possíveis na escolha de $i,j,k$, ou seja, um número ${N\choose 3}$ de vezes. Calculando ${N\choose 3}(N-3)!{}$, abrindo a fórmula binomial, nos resta apenas um fator, nesse caso, de $\frac{N!}{3!}$. É fácil deduzir que com os demais será a mesma coisa:

\[|\cup_n A_n|=\sum_n|A_n|-\sum_{i<j}|A_{i,j}|+\sum_{i<j<k}|A_{i,j,k}|+\ldots\]

\[= \frac{N!}{1!}-\frac{N!}{2!}+\frac{N!}{3!}+\ldots = N!\sum_{j=1}^{N-1} (-1)^{j+1}\frac{1}{j!}$

Esse é o número total de configurações em que alguém recebe seu chapéu corretamente. Para descobrir a chance de alguém receber o chapéu, basta dividir esse valor pelo número total de configurações, ou seja, $N!{}$. Concluímos aquela missão estabelecida acima, mas queremos a chance do complementar acontecendo, e para encontrar a probabilidade de ninguém ter o chapéu correto basta tomar 1 e subtrair esse valor calculado. Teremos:

$P(N)=1-\frac{1}{1!}+\frac{1}{2!}-\frac{1}{3!}+\frac{1}{4!}+\ldots +(-1)^N\frac{1}{N!}$

E essa é a probabilidade, no amigo secreto, de ninguém tirar a si mesmo:

hat_check_graph

É fácil perceber que essa soma tende rapidamente a $\frac{1}{e}$, pois nosso resultado são exatamente as somas parciais da série de Taylor de $\frac{1}{e}$, e é interessante perceber como esse valor já é quase exato já a partir de cinco participantes, a convergência do fatorial sempre impressiona. Como toda boa série de Taylor, o erro é da ordem do último termo somado, então é natural que a partir de 5 participantes a diferença entre essa probabilidade e $ \frac{1}{e}$ seja menor que 1/120. É notável também o fato de, com apenas um participante, a chance ser zero de ninguém tirar a si mesmo, o que era, pelo bom senso, esperado.

O resultado é interessante também por outro motivo. Se aumentamos o número de participantes, a chance de uma pessoa escolhida tirar a si própria é cada vez menor, mas o número de pessoas que podem tirar a si mesmas aumenta, a resposta de “para onde vai a probabilidade” não é trivial e é bem interessante que nenhum desses elementos domine o outro, ou seja, a probabilidade não vai nem para zero, nem para um, mas para um valor intermediário e longe de ser evidente.

2) Qual a chance da brincadeira do amigo secreto não para no meio, ou seja, não “fechar o ciclo” antes de terminar e alguém ser obrigado a recomeçar o jogo?

Essa resposta é mais simples e possui menos imagens. Começamos por um participante qualquer. Para que o jogo não pare, ele não pode tirar a si mesmo, sobram $N-1$ opções. Ao tirar algum deles, essa próxima pessoa não pode tirar nem ela mesma, nem o primeiro, então sobram apenas $N-2$ opções a ela. Assim sucessivamente, é fácil ver que o número de ciclos possíveis que não serão interrompidos será de $(N-1)!{}$. Naturalmente, basta apenas dividir pelo número total de permutações, $N!{}$, para ter a probabilidade de isso acontecer, e ela é $\frac{1}{N}$. Como esperado, quanto maior o grupo de pessoas, mas difícil é obter uma configuração que forneça um jogo sem interrupções.

Depois desse post de combinatória um pouco árido, termino desejando a vocês um excelente ano novo, boas férias e todas as permutações possíveis daqueles votos de fim de ano que não canso de lhes desejar, mas que cansaria de escrever.

Banco Imobiliário

Geek Rookie

Como todos, joguei bastante Banco Imobiliário em minha infância. Sonhava em morar em Morumbi ou Interlagos, tinha medo de algum dia passar perto da Av. Presidente Vargas, e com ele descobri o significado da palavra “revés”. Gostava, ainda que nunca tenha efetivamente terminado uma partida, sempre me solidarizava com os que empobreciam, deixávamos que continuassem, como se capitalismo e misericórdia combinassem, não dava certo.

Mas sempre fui assombrado pela busca pela tática ótima de se jogar esse jogo, se havia alguma. Inspirado em um estudo que li recentemente, dedico esse post a responder a grande pergunta: quais as casas em que mais paramos em uma partida? Assim, saberemos quais cores de propriedades precisamos, a todo custo, comprar ao parar.

Apesar de esse estudo já ter sido feito, não gostei da apresentação, nem da maneira como foi escrito; refaço-o, torcendo para que poucas pessoas achem, desse post, o que achei do estudo.

Para explicar como farei esse cálculo, preciso começar com um caso mais simples de jogo. Se Quico criou o xadrez para principiantes, apresento a vocês o Banco Imobiliário para iniciantes, ou, para criar uma temática, o Banco Imobiliário Zona Leste, referente à zona leste da cidade de São Paulo (figuras de Pedro Vergani, o mesmo que fez o banner do blog e diversas outras figuras desse blog):

Não há grandes surpresas nesse jogo. Usamos uma moeda e tiramos no cara-ou-coroa quantas casas andaremos: cara nos faz andar uma casa, coroa nos faz andar duas casas. Queremos analisar qual a casa mais provável de se cair e, para isso, precisamos trazer artilharia pesada da álgebra linear.

Vou precisar de uma matriz. Adoro matrizes, trabalho com elas e revolto-me com alunos de colegial que desdenham das aulas em que tiveram que aprender a “multiplicar tabelas”. Não os culpo tanto assim, é de fato bem estúpido querer multiplicar uma tabela por outra sem dar uma razão decente para isso, e hoje lhes apresento uma. Vamos criar a matriz estocástica do Banco Imobiliário Zona Leste. As regras para a matriz são: na primeira linha e segunda coluna, por exemplo, colocamos a probabilidade de, estando na primeira casa, cair na segunda casa. Como vocês sabem, essa probabilidade é ½ (tirar cara). A primeira linha dessa matriz será, portanto: 0, ½, ½, 0; ou seja, a chance é zero de ficar no mesmo lugar (você vai se mover), ½ de avançar uma casa (cara), ½ de avançar duas (coroa) e zero de avançar três. A matriz total será:

\[M=\left(\begin{matrix}0&\frac{1}{2}&\frac{1}{2}&0\\ 0&0&\frac{1}{2}&\frac{1}{2}\\ \frac{1}{2}&0&0&\frac{1}{2}\\ \frac{1}{2}&\frac{1}{2}&0&0\end{matrix}\right)\]

E ela vai nos ajudar a fazer todo o resto. A utilidade de escrevê-la, além de ficar claro e bonitinho, é a seguinte: ela representa na linha $i$ e coluna $j$ as probabilidades de, estando na casa número $i$, ir à casa número $j$ em uma jogada. Se eu quiser a probabilidade de, estando na linha $i$, ir à coluna $j$ em duas jogadas, basta multiplicar a matriz $M$ por ela mesma! Aos que estão enferrujados em multiplicação de matrizes, eis a resposta:

\[{}\left(\begin{matrix}0&\frac{1}{2}&\frac{1}{2}&0\\ 0&0&\frac{1}{2}&\frac{1}{2}\\ \frac{1}{2}&0&0&\frac{1}{2}\\ \frac{1}{2}&\frac{1}{2}&0&0\end{matrix}\right).\left(\begin{matrix}0&\frac{1}{2}&\frac{1}{2}&0\\ 0&0&\frac{1}{2}&\frac{1}{2}\\ \frac{1}{2}&0&0&\frac{1}{2}\\ \frac{1}{2}&\frac{1}{2}&0&0\end{matrix}\right)=\left(\begin{matrix}\frac{1}{4}&0&\frac{1}{4}&\frac{1}{2}\\ \frac{1}{2}&\frac{1}{4}&0&\frac{1}{4}\\ \frac{1}{4}&\frac{1}{2}&\frac{1}{4}&0\\ 0&\frac{1}{4}&\frac{1}{2}&\frac{1}{4}\end{matrix}\right){}\]

Ou seja, a chance de, estando na primeira casa, voltar a ela depois de duas jogadas é 14, a chance de estar na terceira casa depois de duas jogadas também é 14 e a chance de estar na quarta casa é ½. Mas o problema não é saber as chances de 2, 3, 10 ou 100 jogadas, queremos saber qual é a mais provável de cairmos em todo o decorrer da partida, o que é um problema diferente, mas que pode ser resolvido com essa matriz. Basta multiplicar essa matriz por ela mesma um número alto, bem alto de vezes, torcer para que ela comece a convergir para uma matriz razoável e dizer que essas serão as probabilidades em “tempo infinito”, ou seja, as chances de se estar naquelas casas depois de ter jogado muitas vezes.

Note, dizer que em um número alto de jogadas eu estarei mais provavelmente na casa X e dizer que terei passado várias vezes por X são afirmações bem diferentes, mas arrisco dizer que representam a mesma coisa, e o nome dessa afirmação é hipótese ergódica. Esse post não tem a menor pretensão de avançar nessas águas, que esse nome fique sendo, por enquanto, apenas um nome bonito para uma teoria.

Mas se elevar uma matriz ao quadrado é difícil, como elevar uma matriz a um número muito grande? Matematicamente falando, vamos elevar $M$ a $n$, o número de jogadas, e depois tomar o limite para $n\to\infty$, ou seja, vamos dizer que $n$ é um número muito, muito grande; o que, para Banco Imobiliário, consiste em uma excelente aproximação.


Parte geek do post, evite se não reconhecer a palavra “autovalor”. A parte rookie continua em seguida.

Os que já fizeram seu curso de álgebra linear conhecem a dica, vamos atrás dos autovalores dessa matriz e elevar esses caras a $ n$, depois mandar $ n$ para infinito e ver no que vai dar. Isso porque, felizmente, se escrevemos uma matriz como $M=UDU^{-1}$, onde $D$ é uma matriz diagonal, elevar $M$ a $n$ é escrever $ UDU^{-1}UDU^{-1}\ldots UDU^{-1}$ um número $ n$ de vezes, notando que os $ U^{-1}U$ do meio se cancelam, isso é o mesmo que $ UD^nU^{-1}$, e elevar uma matriz diagonal a uma potência é simplesmente elevar seus elementos a essa potência.

Posso me colocar várias perguntas como: “e se algum autovalor for maior que 1? A matriz vai explodir!” ou “E se todos forem menores que 1? A matriz vai para zero!” ou ainda: “E se algum for negativo? Como você eleva isso a infinito?!”; mas todas elas são sanadas quando invoco um corolário do poderoso teorema de Perron-Frobenius:

Teorema (de Perron-Frobenius): Entre outras coisas (esse teorema é bem poderoso), uma matriz estocástica como a do banco imobiliário possui o autovalor 1, único (não degenerado), e não há autovalores que, em módulo, sejam maiores que ele. O autovetor associado ao autovalor 1 possui todos os seus componentes de mesmo sinal. Em particular para matrizes como as do Banco Imobiliário, esse valor próprio 1 é o maior de todos os autovalores em módulo.

Eu poderia discutir bastante a razão desses resultados, já que Perron-Frobenius é um canivete suíço, adaptando-se a vários tipos de matrizes não-negativas diferentes. No caso da do Banco Imobiliário temos o fato importante de ser perfeitamente possível estar na casa $ i$ e voltar a ela mesma após um número $ m$ suficientemente grande de jogadas, e também ser possível voltar após $ m+1$ a essa mesma casa. Essa propriedade garante que 1 será o único autovalor de $ M$ no círculo unitário.

Esse corolário não deve surpreender ninguém, pois, se uma matriz estocástica vezes outra matriz estocástica continua uma matriz estocástica (eu teria que demonstrar isso, mas acredite em mim, é verdade), $ M^n$ deve também ser estocástica, então não pode ter autovalores maiores que 1 (que explodiriam se elevados a $ n\to\infty$), também não poderia ter apenas autovalores menores que 1, a matriz toda iria a zero quando elevada a $ n\to\infty$, não sobra tantas alternativas além do resultado de Perron-Frobenius. O que ele nos garante de interessante é a unicidade desse autovalor 1 e o sinal do autovetor associado.

E se você elevar todos os demais autovalores a $ n\to\infty$, eles logo logo vão para zero. Sobra o 1. Reconstruindo a matriz multiplicando por $ U$ e $ U^{-1}$, teremos uma surpresa, $ M^n$ com $ n\to\infty$ possui todas as linhas iguais, cujos componentes são os elementos do autovetor associado a 1. Essa surpresa é consequência da teoria ergódica, mas isso fica para outro post Dessa forma, o que queremos é esse autovetor associado ao autovalor 1.

Fim da parte geek.


O método descrito acima, se aplicado a nosso Banco Imobiliário Zona Leste, nos dará que a probabilidade de cair em todas as casas é a mesma, o que é esperado. Somos tentados a achar que no jogo do Banco Imobiliário ocorre o mesmo, mas esquecemos de elementos fundamentais da dinâmica do jogo, em particular da prisão, que muda tudo. Para explicar o efeito da prisão nas probabilidades das casas, introduzo um novo jogo, o Banco Imobiliário Zona Leste Deluxe:

Jogaremos usando um dado de seis faces. Nesse novo jogo, a matriz não será tão bonita quanto a anterior. A casa “Vá para a prisão” leva diretamente à prisão, quebrando a simetria do jogo e beneficiando as casas logo após a prisão, prejudicando aquelas que vêm antes. A matriz completa desse jogo será:

\[M=\left(\begin{matrix}0&\frac{1}{6}&\frac{1}{6}&\frac{1}{6}&\frac{1}{6}&\frac{1}{6}&\frac{1}{6}&0\\ 0&0&\frac{1}{6}&\frac{1}{6}&\frac{1}{6}&\frac{1}{6}&\frac{1}{6}&\frac{1}{6}\\ \frac{1}{6}&0&0&\frac{1}{6}&\frac{1}{6}&\frac{1}{6}&\frac{1}{6}&\frac{1}{6}\\ \frac{1}{6}&\frac{1}{6}&0&0&\frac{1}{6}&\frac{1}{6}&\frac{1}{6}&\frac{1}{6}\\ \frac{1}{6}&\frac{1}{6}&\frac{1}{6}&0&0&\frac{1}{6}&\frac{1}{6}&\frac{1}{6}\\ \frac{1}{6}&\frac{1}{6}&\frac{1}{6}&\frac{1}{6}&0&0&\frac{1}{6}&\frac{1}{6}\\ 0&0&1&0&0&0&0&0\\ \frac{1}{6}&\frac{1}{6}&\frac{1}{6}&\frac{1}{6}&\frac{1}{6}&\frac{1}{6}&0&0\end{matrix}\right)\]

Aquela bela simetria da outra matriz já não mais existe, a prisão é a culpada, note a penúltima linha (representando a casa “Vá para a prisão”). Analisando quais serão as probabilidades de se cair em cada uma das casas após um grande número de jogadas usando a técnica da parte geek, ou seja, multiplicando a matriz por ela mesma muitas vezes, teremos:

O que é bem diferente de uma probabilidade uniforme, como no jogo anterior.

Apliquemos tudo isso ao verdadeiro Banco Imobiliário. Seu tabuleiro é mais completo, ele é jogado com dois dados e andamos a soma dos valores tirados, possui casas de sorte-ou-revés, diversas cores e muitas propriedades. Seu tabuleiro, a quem não se lembra, é:

Não vou escrever sua matriz estocástica, não quero cuspir uma tabela de 40 linhas e 40 colunas nesse blog, mas acreditem, fiz as contas. A probabilidade de se encontrar em cada uma das casas é:

Levei também em conta a chance de 1/18 de se encontrar uma carta de ida à prisão nos espaços de sorte-ou-revés, foi o ajuste mais fino que fiz no modelo, para obter esses resultados. Ainda, ele não afeta em grande coisa a análise, pois as casas de sorte-ou-revés estão bem distribuídas no tabuleiro, apenas acentuam o efeito da prisão.

Notem que as casas rosa não são apenas as mais baratas e de pior rentabilidade, são também aquelas, juntamente com as azuis escuras, mais difíceis de atingir no tabuleiro. Interlagos e Morumbi, as tão desejadas laranjas, formam a dupla mais provável de casas para se atingir: são aquelas mais prováveis de encontrar após sair da prisão e, sendo a prisão a casa de longe mais provável, elas herdam um pouco dessa probabilidade.

Não jogo Banco Imobiliário há muito, entendo um pouco a razão. Podemos imaginar razões para a casa mais cara ser a mais provável, ou outras sutilezas descobertas na análise, mas isso é facilmente refutado pelo fato de países diferentes escolherem distribuições diferentes de valores de casa pelo tabuleiro; no jogo francês, a casa mais cara é a menos provável, substituindo o Jardim Paulista de nossa edição. Percebemos, por isso, que não é um jogo feito com tanto cuidado assim. Contudo, talvez se quando eu jogava soubesse um pouco mais sobre matrizes, mais sobre Frobenius, tivesse mais sorte no dado, talvez assim eu tivesse gostado, jogado, ganhado, ou, quem sabe, até mesmo terminado uma partida de Banco Imobiliário.