Arquivo da tag: Física Estatística

Posts sobre física-estatística e matéria condensada.

O método científico

Geek

Aprendemos ainda no ensino primário sobre o método científico, e eu até lembro dessa aula. A professora trazia um ovo para a classe e pedia hipóteses sobre o destino do ovo ao ser jogado ao chão. Enumerávamos da mais óbvia à mais absurda, e por fim a professora abandonava o ovo e ele tocava o solo, estava completamente cozido e não fazia sujeira, para entendermos que o método científico é: observação de um problema, formulação de hipóteses, experimento controlado e conclusões.

Tornei-me cientista, pesquiso física, e ganho muitas caras de interrogação quando anuncio a alguém minha profissão. Cientista parece mais profissão de filme, um homem louco em jaleco cercado de vidros coloridos e de poucos amigos. Quando admitem que sou cientista, a próxima pergunta sempre é: “mas o que você faz, exatamente?”. E, para essa pergunta, e para dar uma versão mais real do método científico, listei alguns acontecimentos de um dia meu de trabalho e relato hoje com vocês. Nomeei-o “O método científico”, mas talvez título mais próprio seria “A Day in Life”. Esse post terá alguns detalhes científicos do que faço, é normal alguém de fora da área não os compreender, vou tentar explicar conforme escrevo.

9h30 Chego ao trabalho. Cheguei cedo, não costumo estar aqui antes das 10h, então aproveito para tirar de minha cadeira as coisas que o russo com que divido sala deixou ontem, escrever algo no blog, responder emails, preparar uma caneca de Earl Grey.

10h30 Passei uma hora fazendo o que deveria tomar quinze minutos, é a vida. Abro o Mathematica (programa que costuma fazer contas para mim, mas na realidade é minha cota de autoflagelação semanal). E eis meu problema de hoje: inverter uma transformada de Laplace (o que consiste a uma operação matemática bem difícil). Tento lembrar de minhas aulas sobre essa transformada, a razão de estar usando ela, tudo parece vago e um pouco difícil, vou só mandar o Mathematica fazer: InverseLaplaceTransform[f[s],s,t].

10h45 Mathematica está há quinze minutos na mesma conta, sem me devolver nada, é hora de aceitar a derrota e tentar achar um jeito mais inteligente de fazer isso.

12h Depois de alguma procrastinação com os colegas de laboratório que foram chegando, e depois de ter me forçado a manipular um pouco a forma exata da inversa transformada de Laplace, abandono qualquer esperança de resolver o problema exatamente. A forma exata é bem feia, chama-se integral de Bromwich, e não parece ser um bom caminho. Existem outros métodos, a fórmula de inversão de Post, mas tudo parece fadado ao fracasso, pois a função que quero inverter é, em um caso simples:

\[(100^{-6 – i – j} \Gamma[6 + i + j] \Gamma[-6 – i – j + s] \text{Hypergeometric1F1}[6 + i + j, 7 + i + j – s, 1/100])/ \Gamma[s] + 100^{-s} \Gamma[6 + i + j – s] \text{Hypergeometric1F1}[s, -5 – i – j + s, 1/100].\]

Vou abandonar e tentar fazer isso numericamente.

14h30 Voltei do almoço e parti para o Google buscando métodos numéricos de inversão de Laplace. Descobri como instalar coisas no Mathematica, isso é bem útil. Achei um método bom, chamado Piessens, e ele parece funcionar para funções cuja inversa da transformada eu já conheço (como $\frac{1}{s^2}$).

15h Eis o resultado do Piessens:

O que seria um resultado animador, se o que eu estivesse procurando não fosse uma probabilidade, e ainda não inventaram probabilidade negativa. Há algo errado ou com minha função, ou com o Piessens. Desço e compro um chocolate, preparo outro Earl Grey.

16h Minha função parece boa, o problema é no Piessens, e isso está me deixando nervoso. Durante minha palestra de exposição desse problema, um colega russo (não aquele com que divido sala) perguntou se não valia a pena abrir a série em Taylor e inverter termo a termo, eu respondi que não podia garantir a convergência, mas agora essa ideia parece animadora, tendo em vista a probabilidade negativa.

16h45 Maldito russo, aposto que ele nunca tentou abrir em Taylor e mandar a transformada. Sabe quem é a inversa de Laplace de $x^n$? A n-ésima derivada da delta de Dirac. Agora imagine eu com uma bela coleção de derivadas do delta com coeficientes diferentes para somar, de quê isso me serve? Era para ser uma probabilidade! Veio uma ideia: integrar essa probabilidade para ter a cumulada. Sabe o que acontece? A probabilidade de obter um valor menor que $r$ não depende de $r$ ! E a razão fica evidente uma vez que o método fracassa, só pode ser culpa da inversão da soma com uma operação integral, que pode ser resolvida com o teorema:

Teorema (da convergência dominada de Lebesgue): Ninguém troca integral com limite impunemente.

Vou tentar baixar outro método.

17h15 Achei um, chamado GWR, funciona para funções simples.

18h Eis o resultado com GWR:

E, depois desse gráfico, surge aquele pensamento de “o que estou fazendo com minha vida…?” aliado a uma vontade desenfreada de arremessar o Mathematica pela janela.

18h30 Depressão, seguida de raiva, dá lugar à aceitação. Fim de jogo, vou para casa, amanhã penso em outra coisa. Tento a barganha, ao menos, em um único dia, descobri três maneiras diferentes de não resolver meu problema.

Um diagrama nada claro

Rookie

Na faculdade, aprendemos a física por sua trajetória histórica: começamos pelas leis de Newton, sua mecânica, passamos ao estudo de ondas, óptica, termodinâmica, atravessamos o eletromagnetismo e terminamos a “física básica” com quântica. Mais para o final do curso, continuamos com a física do século XX, da qual a quântica faz parte, além de incluir a física estatística e a relatividade geral nessa história. Matérias mais avançadas, como a teoria quântica de campos (TQC) e a teoria estatística de campos (TEC) são assunto de mestrado e doutorado, muita gente parece viver bem feliz sem jamais tocar em um livro de qualquer dessas matérias.

Mas a relação entre as áreas da física não é essa histórica, uma não leva naturalmente a outra. É possível ser muito feliz em uma área da física sem jamais precisar se aprofundar muito em outra (ainda que grandes descobertas costumem ser feitas apenas por físicos com um vasto conhecimento de quase todas as áreas), não preciso saber astronomia para trabalhar com física do estado sólido (ou física dos materiais).

Então decidi tomar alguns minutos, sentar e pensar em um diagrama mais compreensivo da física, que leve em conta as interconexões entre as áreas e que seja uma divisão justa e organizada dessa ciência. É evidente que cheguei a algo bem confuso, mas o resultado não ficou feio, e coloco-o aqui.

Muitos físicos vão discordar com ferocidade da divisão e organização, mas foi o melhor que pude, não conheço tanto de todas as áreas para entrar em uma reflexão mais profunda que o que escrevo nesse post.

Comecei colocando a matemática como centro. A física é inteira apoiada na matemática, e nela estão muitos dos vínculos das áreas da física. Em seguida, tracei as três principais áreas da física: relatividade (geral ou restrita), física estatística e física quântica.

Física quântica: é o estudo do muito pequeno, muito mesmo. Estamos falando de elétrons, prótons, átomos, nada que possamos ver ou tocar diretamente, precisamos estar pelo menos a 0,00001 mm ($10^{-8}$m) para começar a sentir algum efeito dos estudos dessa área. Ainda, é o que precisamos estudar para entender do que as coisas são feitas, como fazer coisas novas, materiais novos, entender as leis que regem a escala atômica e usá-las.

Relatividade: estudamos os efeitos de velocidades muito altas (próximas às da luz, que é a máxima possível), massas muito grandes (como a da Terra ou a do Sol) e energias muito elevadas (como a explosão de uma estrela).

Física estatística: é a área que tenta deduzir, a partir do mundo do muito pequeno, o que acontecerá no nosso mundo. Tentamos entender como a gota de água tende a ficar junta se ela é feita de várias moléculas, ou como não conseguimos atravessar a parede se o espaço entre os átomos é muito maior que os átomos.

Assim, posso explorar as intersecções entre essas áreas. Se estamos na fronteira entre relatividade e quântica, estamos falando da teoria quântica de campos (TQC), uma área bem complicada que tenta escrever a mecânica quântica em uma linguagem que leve a relatividade em conta. Não me atrevo a tentar misturar relatividade geral com quântica, ninguém consegue fazer isso decentemente. Entre a física estatística e a quântica, teremos a teoria estatística de campos (TEC), que usa diversas propriedades do mundo do muito pequeno para explicar muito fenômenos do nosso cotidiano, em uma linguagem matemática bem trabalhada e bem parecida com a da TQC. Eu poderia colocar tudo em uma área só, campos, mas assim fica mais fácil de ver.

Entre a relatividade e a física estatística, temos a astrofísica, o estudo das propriedades físicas das estrelas, galáxias, que exige tanto conhecimento de relatividade, por reger as leis fundamentais desses corpos, como conhecimentos da física estatística, porque uma estrela é formada de muitos átomos e uma galáxia de muitas estrelas. A relatividade, sozinha, inclui a nossa querida mecânica do colegial, que é apenas um caso particular da relatividade para baixar velocidades e massas suficientemente pequenas. A física estatística, quando aplicada a gases e líquidos, torna-se a termodinâmica.

Se continuamos, podemos pensar que o estudo das propriedades físicas dos corpos celestes aliado às leis de Newton nos permite saber a posição, trajetória e diversas outras grandezas estudadas pela astronomia. A astrofísica, quando estudada em grande escala e recebendo o apoio das leis da termodinâmica e da física estatística, torna-se a cosmologia: o estudo do universo como um todo, sua expansão, evolução e destino. Aplicar a teoria estatística de campos à termodinâmica nos torna capazes de descrever estruturas mais complexas que gases, podemos até pensar em cristais, coloides, plásticos, estamos na física do estado sólido. A teoria quântica de campos e a teoria estatística de campos se encontram para descrever propriedades complicadas do mundo subatômico, permitindo-nos estudar a física de partículas. Por fim, a teoria quântica de campos, capaz de descrever os elétrons e os prótons (que possuem carga) e a mecânica de Newton se encontram no eletromagnetismo.

Por fim, podemos colocar algumas outras áreas. O eletromagnetismo é muitas vezes estudado profundamente no aspecto de transmissão de energia eletromagnética em forma de onda, uma área conhecida como óptica, que engloba toda a propagação de ondas eletromagnéticas no vácuo ou não. A física do estado sólido e a de partículas se encontram para tentar gerar materiais novos, diferentes, estruturas moleculares complicadas, e podemos atribuir esse estudo à química molecular, que não é tanto física assim, mas merecia um lugar no diagrama. As partículas e o eletromagnetismo juntam forças para desbravar os mistérios do centro do átomo, em uma área muito ativa no último século chamada física nuclear. E das partículas, sozinha e um pouco isolada, quase uma sub-área da matemática, parte a teoria das cordas.

Qual a lógica do diagrama? Se você quiser estudar alguma área, terá que saber bastante de todas as áreas internas à que escolheu, estudando todas as que sua área toca no anel interior. Claro, isso não torna as áreas exteriores mais difíceis, você muitas vezes não precisa se especializar nas áreas interiores para saber a sua, é apenas um diagrama que indica vínculo, procedência e contato entre as áreas. Queria que o diagrama terminasse com um anel completo, mas não consegui pensar em nada que viesse de estado sólido e cosmologia, ou nada melhor para colocar entre astronomia e cosmologia que “coisas do espaço”.

Epidemias, parte I

Hardcore

Trombei esses dias com um artigo de 2001 sobre propagação de vírus em humanos e sua comparação a vírus de internet. O estudo da disseminação de infecções é velho na física, diversos modelos de epidemias são estudados e muitos com resultados razoavelmente bons. Um ponto comum em modelos estudados pela epidemiologia é a noção de threshold, ou seja, o valor mínimo de eficiência que uma infecção deve ter para conseguir se propagar. Novamente, esse é um post hardcore, os corajosos sigam-me, vamos ver com cuidado como isso funciona.

Esse post ficou grande, então parti em dois. Nesse primeiro, comento o modelo de propagação de vírus em seres humanos, no próximo trato da internet.

Representamos indivíduos como pontos e o contato entre indivíduos como linhas em um grande grafo. Passamos a nos perguntar qual seria um modelo eficaz de grafo para modelizar as relações humanas. Certamente não conhecemos pessoas aleatoriamente na rua, costumamos conhecer melhor nossos vizinhos, familiares e colegas de trabalho, que por sua vez conhecem-se. Um jeito legal de modelizar essa ideia, que chamamos de grafo de small world, é tomar um anel de pontos, sendo cada ponto ligado a seus $ m$ vizinhos mais próximos. Em seguida, passamos “em revista” essas conexões da seguinte forma: cada ponto terá uma probabilidade $ p$ de desfazer uma conexão com um vizinho seu no sentido horário e associá-la a algum outro ponto aleatoriamente. A ideia do sentido horário é apenas para evitar mexer na mesma conexão duas vezes. Se $ p=1$, essa revista resulta em um grafo em forma de anel com conexões completamente aleatórias. Se $ p=0$, o grafo continuará no modelo do conhecimento apenas da vizinhança, mas, se $ p$ é pequeno, o grafo tornar-se-á um modelo muito próximo do que queremos: vizinhos possuem uma chance maior de se conhecerem do que conhecerem alguém do outro lado do grafo, mas de vez em quando algum vizinho seu conhece alguém lá longe, o que é bem coerente com a realidade e até permite aquelas coincidências do tipo “hoje meu avô almoçou com o pai de um professor meu”.

O resultado está bem representado nessa figura, onde os pontos são inicialmente ligados a seus $ 2m$ vizinhos mais próximos, com $ m=2$. É o famoso modelo de Watts-Strogatz, ou modelo de small-world:

Podemos, com esse modelo bonitinho, estudar a propagação de infecções entre seres humanos. Imaginemos um vírus que, a cada contato entre são e infectado, tenha uma probabilidade $ nu$ de contágio e, a cada “turno”, tenha uma probabilidade $ \delta$ de cura de um infectado. A chance de um ponto possuir $ k$ vínculos é $ P(k)= \frac{1}{\langle k\rangle}e^{-k/\langle k\rangle}$ nesse modelo, e $ \langle k\rangle=2m$. A equação estocástica dessa criança não é bonita, então vamos usar um mean field, calcular o que vai acontecer com a densidade média de infectados supondo que todos os pontos possuem o mesmo número de conexões, $ 2m$, naturalmente, e que todos estão ligados a um número de infectados igual ao valor médio de infectados, essas são as características de uma abordagem de campo médio. A densidade total de infectados, denotada $ \rho_t$ por ser uma função do tempo, é apenas o número total de infectados dividido pelo número total de pessoas. Diremos que a variação na densidade de infectados $ \rho_t$ (a fração da população infectada naquela “rodada”), que toma valores entre 0 e 1, perde a cada “rodada” o equivalente a $ \delta\rho_t$ (os que se curaram) e ganha o equivalente ao contato são-infectado, que é $ nu\langle k\rangle\rho_t(1-\rho_t)$, ou seja, chance de um contato ser são-infectado $ \rho_t(1-\rho_t)$ multiplicada pelo número médio de contatos $ \langle k\rangle$ e pela chance de esse contato transmitir a infecção $ \nu$. Dividindo a equação toda por $ \delta$ e sem precisar ir muito além de uma reparametrização no tempo, podemos escrever:

\[\frac{d}{dt}\rho_t=-\rho_t+\lambda\langle k\rangle\rho_t(1-\rho_t).\]

Com $ \lambda= \frac{\nu}{\delta}$ o valor que interessa para medir a eficácia de uma infecção. E essa equação, ainda que seja apenas uma teoria de campo médio, já nos dá bastante informação sobre o que está acontecendo. Você até pode pedir para o Wolfram Alpha resolver essa para você, eu não faria diferente, mas vale mais estudar algumas propriedades na mão. Chamamos densidade de persistência o valor de $ rho_t$ para o qual sua derivada temporal é zero. Se ela não é nula, temos uma infecção persistente em uma fração da população. Igualando a equação acima a zero, percebemos duas respostas possíveis: ou $ rho_t = 0$, ou $ \rho_t=1- \frac{1}{\lambda\langle k\rangle}$. Como a densidade de infectados não pode ser menor que 0, naturalmente, descobrimos que, se $ \lambda < \frac{1}{\langle k\rangle}$, então a única solução possível é $ \rho_t=0$, pois a segunda solução fica absurda. Mas, se a infecção é mais eficaz que o threshold $ \frac{1}{\langle k\rangle}$, teremos um crescimento da densidade de persistência que tende a 1 quando $ \lambda$ se aproxima do infinito.

Densidade de persistência com m=2.

E fica claro que o threshold, dependendo do inverso do número médio de contatos, que nesse modelo é proporcional ao número de vizinhos, nos dá uma informação esperada: quanto maior o número de vizinhos (contatos), menos eficaz uma doença deve ser para se propagar. Se uma doença é bem eficaz, podemos reduzir seu impacto com uma diminuição nos vizinhos, se está com gripe, não saia de casa.

Esse modelo é bem coerente com diversas observações de epidemias simples em populações. Por esse mecanismo de small-world, apenas doenças suficientemente poderosas, com eficácia $ \lambda$ maior que um determinado limite, podem se propagar pela população, possuem vida no longo prazo. A mudança de fase ocorre no threshold $ \lambda^\star= \frac{1}{\langle k\rangle}$ que, no gráfico acima, ocorre em $ \lambda = 0,25$. O próximo passo nesse modelo seria estudar um grafo em que pessoas podem morrer, nascer, tornar-se imunes, tomarem vacinas ou tornarem-se mais suscetíveis a doenças com o tempo.

Tudo isso é muito interessante, mas não consegue explicar a propagação de vírus na internet. Em um próximo post, veremos que, na internet, small-world não pode ser aplicado (afinal, todos conhecem o Google ou o Facebook) e a própria noção de threshold, por um fenômeno estatístico fascinante, desaparece.

O gás de Coulomb-Dyson

Hardcore

Esses dias trombei com um assunto bonito, uma parte do estudo de matrizes aleatórias que realmente achei interessante. Claro, trabalho com matrizes aleatórias, então é um pouco normal eu encontrar coisas bonitas aqui e ali, mas dificilmente algo tão bonito quanto o que achei outro dia em um desses livros de teoria espectral. Aviso, esse post é nível hardcore e provavelmente o mais intenso que já postei até agora, recomendo discrição. Se você não é um físico ou matemático, não vai pescar muita coisa do texto, não aconselho sua leitura.

As matrizes aleatórias servem para bastante coisa. Diversos modelos envolvendo um operador com perturbação aleatória e fora de nosso controle podem ser colocado em um formato de matriz aleatória, a transmissão de dados de um conjunto de antenas a outro com ruído pode ser modelizado por uma equação linear com uma matriz aleatória também, muita coisa entra nessa categoria e em cada um desses estudos a pergunta é recorrente: jogando entradas aleatórias em uma matriz, com uma densidade de probabilidade $ P(x)$ para as entradas, qual será a densidade de probabilidade de seus autovalores?

Porque, no fundo, é nisso que estamos interessados. Na quântica eles serão as medidas possíveis, nas equações diferenciais lineares eles nos darão a estabilidade do sistema, autovalores são a alma das matrizes. Mas se encontrar os autovalores de uma matriz $ n \times n$ bem definidas já não é tarefa tão fácil, resolver polinômios sempre dá preguiça, é difícil não sofrer só ao pensar como será com matrizes cuja única informação é a probabilidade de obter suas entradas entre dois valores.

Primeiro vamos estabelecer o que eu quero dizer com “probabilidade de uma matriz”. De forma civilizada, eu precisaria temperar esse texto com alguns detalhes da medida usada, do espaço em questão, mas isso é um blog e não um artigo; essa história está mais bem contada neste excelente artigo sobre matrizes aleatórias, ainda nas primeiras páginas. Tomemos um exemplo fácil, um vetor $ (x,y)$. Falar de sua densidade de probabilidade, é falar de uma função $ P(x,y)$ tal que, para descobrir a chance de encontrar esse vetor com as coordenadas $ 0\leq x \leq 3$ e $ 0 \leq y \leq 2$ será o resultado da integral $ \int_0^2 dy \int_0^3dx P(x,y)$, simples assim. Se $ x$ e $ y$ são independentes, certamente teremos $ P(x,y)=P(x)P(y)$, mas isso não será necessariamente verdade. Falar de densidade de probabilidade de uma matriz é falar da densidade conjunta de suas entradas, ou seja, sua j.p.d.f. (joint probability density function). Eu usaria o termo em português, mas não gosto de abreviar função densidade de probabilidade.

É claro que nem as matrizes nem as probabilidades podem ser quaisquer, problemas gerais demais não levam a lugar nenhum. Vou me restringir ao caso real, tudo pode ser generalizado para complexo com as devidas trocas. Listo dois tipos de matrizes cujo estudo das probabilidades é interessante: matrizes cujas probabilidades das entradas são independentes e matrizes que possuem a probabilidade invariante por conjugação.

Essa última propriedade é mais sutil, mas é simples. Dizer que a j.p.d.f. de uma matriz $ M$ é invariante por conjugação é dizer que, para toda $ U$ não singular, teremos que $ P(M)=P(UMU^{-1})=P(M’)$, ou seja, a chance de obter um elemento da classe de conjugação de $ M$ é a mesma chance de se obter $ M$.

E essa propriedade serve para uma manobra bem útil. Se a j.p.d.f. é invariante por conjugação, e se eu consigo diagonalizar a matriz, a probabilidade da matriz será a mesma probabilidade de sua forma diagonal, com seus autovalores como entradas, o que me permite de maneira fácil obter a distribuição de probabilidade de seus autovalores. Por vários motivos, físicos e matemáticos, gostamos de estudar matrizes simétricas, ou hermitianas se complexas. Isso vai garantir a diagonalização por matrizes unitárias e a existência de um alegre conjunto de autovalores bem reais.

Teorema: O único grupo de matrizes aleatórias invariantes por conjugação unitária e cujas entradas possuem p.d.f. independentes é o grupo das matrizes gaussianas, cujas entradas possuem como p.d.f. uma distribuição normal.

Nem arrisco tentar demonstrar isso, tomaria este post e mais outros três. Esse teorema nos inspira a aprofundar nosso estudo das matrizes gaussianas. Como elas são invariantes por conjugação unitária (estamos ainda com matrizes simétricas se reais e hermitianas se complexas, então elas são diagonalizáveis por uma matriz unitária), podemos escrever que $ P(M) = P(D)$, onde $ D$ é sua forma diagonalizada. Para que isso seja possível, vamos nos restringir às matrizes gaussianas simétricas (hermitianas se são complexas). Como em $ P(M)$ as probabilidades das entradas individuais são independentes, nosso instinto nos diz que em $ P(D)$ as coisas serão parecidas, que os autovalores terão probabilidades independentes, e não poderíamos estar mais errados. Porque escrever $ P(D)$ é escrever $ P(\lambda_1,\lambda_2,ldots,\lambda_n)$, uma probabilidade que depende dos autovalores, isso é uma mudança de variável e, como a probabilidade sempre se dá integrando essa densidade de probabilidade, precisamos levar em conta o jacobiano dessa transformação que, para nosso desespero, acopla todos os autovalores. Tal probabilidade já é conhecida há algum tempo, a j.p.d.f. dos autovalores da matriz gaussiana:

\[P(\lambda_1,ldots,\lambda_n) = C_k e^{-\beta \sum_k \lambda_k^2} \prod_{j<k}|\lambda_k-\lambda_j|^\beta \]

E o último termo da direita, a parte do jacobiano relativa aos autovalores, não é ninguém menos que o determinante de Vandemonde. O $ \beta$ é um valor referente ao tipo da matriz gaussiana, vale 1 se ela é real, 2 se é complexa e 4 se estamos nos quatérnions. E agora vem a parte bonita: Dyson (nisso fui corrigido, disseram ser Wigner, deixo a polêmica) percebeu que essa j.p.d.f. poderia ser colocada de uma forma mais familiar, bastava apenas jogarmos o determinante de Vandermonde para o expoente como $ \prod_{j<k}|\lambda_k-\lambda_j|^\beta = e^{\beta \sum_{j<k} \log |\lambda_k-\lambda_j|}$, teremos que a probabilidade será um múltiplo de uma grande exponencial. Chamar aquele número de $ \beta$ é extremamente sugestivo. Um leitor atento já deve ter percebido, contemplamos um peso de Boltzmann, em uma analogia perfeita a uma j.p.d.f. do sistema canônico:

\[P(\lambda_1,ldots,\lambda_n) = C_k e^{-\beta\left(\sum_k\lambda_k^2-sum_{j<k}\log |\lambda_k-\lambda_j|\right)} = \frac{1}{Z}e^{-\beta H}.\]

A magia dessa interpretação é poder importar todas as ferramentas da física estatística para resolver esse intrincado problema de álgebra linear. Se imaginarmos que cada autovalor representa a posição de um elétron confinado a uma linha (que representará o eixo real), atraídos ao centro por um potencial harmônico (o termo em $ \sum_k\lambda_k^2$ ) e submetidos à repulsão coulombiana mútua (que em sua forma bidimensional é $ \log |x_i-x_j|$), teremos um sistema físico cujas posições dos elétrons são equivalentes às posições dos autovalores da matriz gaussiana. E, caramba!, isso é muito bonito.

A analogia não é apenas formal, podemos extrair diversas propriedades dessa distribuição com técnicas do ensemble canônico (meu orientador, aliás, fez a carreira dele nisso). E este é um de meus exemplos favoritos de física ajudando matemática, ainda que, se fôssemos contar pontos nisso, a competição seria injusta, estaríamos perdendo por uma boa margem.