Os ônibus de Cuernavaca

Geek

Para o post de hoje, vamos ao México. Ele será um pouco mais sofisticado que meus posts habituais, mas acho que esse blog sentia falta de uma matemática um pouquinho mais pesada. Vou tentar manter Geek, sem passar ao Hardcore, prometo que, lendo com paciência, é um assunto fascinante.

A cidade de Cuernava, um pouco ao sul da Cidade do México, é um lugar muito especial para a física estatística e para quem gosta de matrizes aleatórias. Com um pouco mais que 300.000 habitantes, essa cidade apresenta um urbanismo estranho: ela é construída entre duas grandes rodovias que levam à capital do país e, entre elas, possui uma grande avenida central. Suas demais ruas, como os ramos de uma folha, se espalham entre as rodovias ao redor da avenida. Nessa avenida principal passa a linha 4 de ônibus de Cuernavaca, foco de nosso maior interesse, que possui propriedades fascinantes.

A linha 4 não é regulada por um sistema unificado de transportes, cada condutor de ônibus em Cuernavaca é dono de seu ônibus, como se fosse apenas um táxi grande, e quer, certamente maximizar seus lucros. Se, no entanto, dois ônibus estiverem muito próximos, o que está logo atrás sofrerá prejuízo financeiro; para evitar essa situação, os motoristas de Cuernavaca chegam a pagar “olheiros” posicionados estrategicamente na avenida para contar ao motoristas há quanto tempo o outro ônibus passou para que, assim, eles possam acelerar ou diminuir o passo, evitando encontrar o ônibus seguinte e o anterior. Diminuir a velocidade demais também não é bom pois, não apenas isso seria um serviço profundamente mal-prestado, mas ele correria o risco de ser ultrapassado pelo ônibus que o precede.

Dois físicos visitaram Cuernavaca em 2000 e ficaram fascinados com as características desse sistema de transporte. Durante um mês, eles coletaram dados de chegada e saída dos ônibus da estação central da linha 4 de Cuernavaca. Seus resultados foram relatados em um intrigante artigo, reproduzo o gráfico:

cuernavaca

O valor que interessou os físicos foi: dada a chegada de um ônibus, quanto tempo o próximo demorava? Eles armazenaram esses dados em um belo histograma que, propriamente normalizado, resultou nos dados marcados com uma cruz no gráfico acima. As barras e a linha, que coincidem quase perfeitamente com os dados, são resultados teóricos de um modelo que os físicos suspeitaram ter a ver com o problema.

Se você tomar uma matriz hermitiana ($A=A^\dagger$) e colocar como entradas nela valores aleatórios tirados de uma distribuição gaussiana complexa, terá o que chamados de uma matriz do GUE, Gaussian Unitary Ensemble. Falei um pouco sobre matrizes gaussianas em um post anterior. Se as entradas da matriz são gaussianas, seus autovalores, como vocês devem suspeitar, possuem uma densidade de probabilidade bem diferente e, em particular, apresentam um fenômeno de repulsão logarítmica, ou seja, se os autovalores fossem partículas, elas se repeliriam com uma força que poderia ser interpretada como um potencial logarítmico na distância entre as partículas: $V(x) \propto \log|x_i-x_j|$. Em português, se você encontra um autovalor de uma matriz gaussiana em um ponto, é extremamente improvável encontrar outro muito perto dele. Se você estudar a estatística da distância entre os autovalores: tirar várias matrizes gaussianas aleatoriamente, diagonalizar, extrair autovalores, estudar a distância entre um autovalor e seu vizinho, fazer um histograma, normalizar corretamente e plotar em um gráfico, a teoria de matrizes aleatórias diz que você terá, quanto maior for a matriz, uma função cada vez mais próxima de $\frac{32}{\pi} s^2 e^{-4s^2/\pi}$.

Surpreendentemente, essa função é a linha plotada no gráfico acima, encaixando-se com perfeição nos dados. As barras são resultados de simulações feitas com matrizes gaussianas, colando mais uma vez com o resultado dos ônibus. O fato de os motoristas tomarem cuidado para não se aproximarem demais de seus vizinhos fazia o papel da repulsão logarítmica dos autovalores, e fazia com que os ônibus de Cuernavaca se comportassem como os autovalores de uma matriz gaussiana complexa.

O artigo segue com mais detalhes para comprovar seu argumento, mas aquilo não era o suficiente. Faltava criar um modelo para os ônibus que permitisse deduzir esse fato, que não é nada óbvio. Isso foi feito em um artigo seguinte, modelizando com carinho essa rede de transportes. Como queremos simplificar para compreender, o modelo pode não parecer muito realista; mas é isso que físico fazem: simplificam e tentam, na simplicidade, perceber a emergência de um fenômeno complexo e suas causas. Vamos aos ônibus.

Como o acelerar, desacelerar, parar, desabastecer-se e abastecer-se de passageiros é um processo complicado e imprevisível, precisamos simplificar drasticamente para que a matemática do modelo seja tratável. Ao invés de andar o caminho entre um ponto e outro, tomemos um modelo com duas hipóteses:

  • Os ônibus ficam parados um tempo aleatório em cada ponto. Passado esse tempo, são “teleportados” ao próximo ponto.
  • Dois ônibus jamais se encontram. Enquanto um está em um ponto, o próximo não pode teleportar a ele.

Com essas duas regras, podemos simular o comportamento desses ônibus em uma linha. Reproduzo o gráfico do artigo novamente:

buses_cuernavacaEsse modelo, depois de algumas contas complicadas, nos conduz ao que queríamos provar: a distância entre os ônibus será dada pela mesma fórmula da distância entre valores próprios de uma matriz gaussiana. Claro, fizemos o modelo para que isso desse certo, e ficamos felizes que, apesar de simples, ele reproduz elementos importantes da realidade.

Não é um caso isolado. Os ônibus de Cuernavaca são um exemplo curioso e interessante do fenômeno de universalidade em matrizes aleatórias. Em uma analogia, é como se em sistemas complexos houvesse uma versão do teoria central do limite para processos altamente correlacionados. Não foi por acaso que Wigner, Dyson e Mehta escolheram matrizes aleatórias como tentativa de modelizar a interação forte no núcleo atômico, eles desconfiavam, com razão, que um processo estatístico acontecia em sistemas com um número suficientemente elevado de elementos. Tal processo, como toda boa estatística, mata as flutuações aberrantes e preserva as características extensivas do modelo.

Ainda não solucionamos o mistério da universalidade. A teoria de matrizes aleatórias aparece em contextos demais, não conseguimos ainda desvendar a razão disso. Em caos quântico há conjecturas fundamentais a respeito, em teoria dos números também. Essa emergência pode ser coincidência, ou pode ser manifestações de um teorema central do limite para variáveis fortemente acopladas. Não sabemos ainda, mas buscamos. Meu trabalho atual é um pouco sobre isso, estudar como é a transição de um sistema fortemente correlacionado, como os ônibus de Cuernavaca, a um sistema de variáveis independentes, como os ônibus de São Paulo. Essa mudança de comportamento é profundamente interessante, ocorre em diversos fenômenos físicos e é mediada pelas mais variadas formas de interação. Mas um novo post sobre meu trabalho fica para outro dia.

No grande tomo The Oxford Handbook of Random Matrix Theory, Freeman Dyson escreve no prefácio, após comentar sobre os ônibus de Cuernavaca:

“O benefício do sistema autorregulatório dos ônibus à população é medido pela variável $R$, a razão entre o tempo de espera médio de um passageiro e o tempo médio entre os ônibus. O melhor valor possível de $R$ é 0,5, quando a distância entre os ônibus é exatamente igual. Se os ônibus não são correlacionados, teremos $R=1$. Em Cuernavaca, como eles se comportam como autovalores de uma matriz gaussiana, temos $R=3\pi / 16=0.589$, muito mais perto da situação ideal que da situação independente. Não sou capaz de determinar se as aplicações de matrizes aleatórias no mercado financeiro, como as descritas no capítulo 40 deste livro por Bouchaud e Potters, geram algum benefício comparável. Quando um especialista em finanças me diz que algum pedaço de feitiçaria financeira certamente irá beneficiar a humanidade, sou levado a acreditar que um motorista de ônibus de Cuernavaca faria um trabalho melhor.”

 

Top na balada

Geek Rookie

No post de hoje, vamos resolver um problema grave, clássico e profundo: como escolher o melhor namorado ou namorada para casar, ou como escolher o melhor garoto ou garota na balada para levar para casa aquela noite. Não são problemas simples, mas, como a maior parte dos dilemas pessoais, usando frieza, crueldade e fechando os olhos para os reais problemas sociais envolvidos, podemos tirar conclusões bem interessantes. No post de hoje, vamos deduzir a estratégia para maximizar suas chances de, em uma noite, levar o melhor parceiro possível para seu quarto mostrar sua coleção de discos do Elvis.

Deixo apenas registrado que se você está buscando referências sérias nesse blog sobre como se dar bem em uma balada, deve estar realmente desesperado. Continuemos.

O problema se apresenta da seguinte forma: você pegará na noite de hoje um número $N$ de pessoas. Dentre essas pessoas, você estabelece um ranking de qualidade, seu objetivo é levar a melhor delas para casa porque, convenhamos, você já passou da idade de ficar só dando beijinho em balada. Você encontra uma pessoa, corteja, afeiçoa-se e tem duas opções: ou escolhe essa para levar para casa, ou rejeita. O problema é claro: você corre o risco de estar rejeitando a melhor dentre as $N$. Supondo que você e a pessoa têm um pingo de dignidade, não poderá voltar atrás nessa decisão! Nessa lógica, qual a melhor estratégia para maximizar suas chances de escolher de fato a melhor dentre as $N$ possíveis?

Se achou as contas a seguir chatas e complicadas, tudo bem, eu entendo; você pode pular para o final do post para descobrir a melhor estratégia.

A natureza do seu dilema é a informação incompleta. Cortejando a pessoa número $n$, você tem apenas o ranking dela em relação às que já viu, não tem a menor ideia de como ela se compara às que virão. A primeira pessoa sempre será a melhor até então (e a pior), não parece uma boa estratégia aceitar a primeira que aparece, porque a noite é longa e promete. Por outro lado, se você encontrar a melhor até então na penúltima pessoa, as chances são baixas de encontrar a melhor de todas na última, desprezar a melhor na penúltima parece também uma estratégia ruim. Entre uma recusa quase certeira da primeira e uma aceitação quase certa da penúltima, deve haver algum ponto intermediário em que a estratégia fica a melhor possível.

Vamos calcular esse ponto e determinar qual a melhor estratégia para o problema. Para isso, vamos primeiro modelizar o problema de forma precisa:

  • Você estima que cortejará $N$ pessoas até o final da noite.
  • Uma vez rejeitando a pessoa, não pode voltar atrás.
  • Seu ganho é 1 se você escolher a melhor dentre as $N$ pessoas e 0 se escolher qualquer outra.
  • Se chegar à última, leva a última. Em outras palavras, se a balada começou a miar e são seis da manhã, você leva para casa a pessoa que sobrou, sinto muito. Nisso, convenhamos que o modelo é bem preciso.

Confesso que o modelo tem um problema, a noção de tudo ou nada, de que seu ganho é zero ainda que você leve a segunda melhor, enquanto, convenhamos, não é algo tão ruim. Vamos imaginar que você é extremamente exigente e sentirá que a noite não valeu a pena porque, levando a segunda melhor, pensará apenas na primeira durante a noite toda.

Para resolver o problema, vamos definir duas variáveis. $X_n(1)$ é o seu ganho esperado se na $n$-ésima pessoa entrevistada você encontrar a melhor até então; $X_n(0)$ é seu ganho esperado caso a $n$-ésima entrevistada não seja a melhor vista até então. Em nosso modelo, claro, $X_n(0)=0$, você não espera ganhar nada levando alguém para casa que nem é o melhor dos primeiros $n$ que você já viu, vale mais tentar outras pessoas e correr o risco de encontrar o melhor nos seguintes. Se você encontrar na $n$-ésima a melhor até então, o seu ganho é a chance de a melhor pessoa estar entre as $n$ primeiras. Como a ordem em que você pega as pessoas é aleatória, essa chance é de $n/N$. Assim, $X_n(0) = 0$ e $X_n(1)=n/N$.

Em seguida, definimos o ganho esperado se descartamos a pessoa $n-1$ e passamos para a $n$, chamamos essa variável de $Y_n$. O seu ganho esperado descartando a pessoa $n-1$ depende do que você vai fazer encontrando a pessoa $n$. Se você decidir ficar com a pessoa $n$, seu ganho esperado saltando $n-1$ é o ganho esperado de $n$, ou seja, $X_{n}$. Se você decide saltar também a $n$, então seu ganho esperado será $Y_{n+1}$. Você vai tomar essa decisão baseando-se nesses valores, você deve se perguntar “Quem é maior: $X_{n}$ ou o valor médio de $Y_{n+1}$?”. Comparando esses dois valores, você sabe qual será seu comportamento no próxima pessoa. A fórmula para $Y_n$ será, portanto, definida de forma recursiva:

\[ Y_n = \max \{X_{n},\langle Y_{n+1} \rangle \} \]

Onde $\langle x \rangle$ é a média de $x$, escrita desse jeito com o único objetivo de fazer os estatísticos lendo esse texto terem um pequeno derrame de nervoso.

Esse cálculo recursivo encorpora bem o dilema descrito acima. Perto das últimas escolhas, $X_n$ fica grande se você encontra a melhor pessoa até então e $Y_n$ fica pequeno. No início, contudo, $X_n$ é pequeno e vale mais apostar no futuro do que estacionar no começo. Para que a fórmula recursiva faça sentido, ela precisa ter um ponto de partida. Nisso usamos a última hipótese, o ganho esperado pulando a última casa é o mesmo que o da última casa, ou seja, pular a última não adianta, você leva a última opção se chegar nela: $X_N=Y_N$. Usando a fórmula acima, e com algum malabarismo que não cabe aqui, você consegue deduzir a expressão de $Y_n$:

\[ Y_n = \frac{n}{N}\sum_{k=n}^{N-1} \frac{1}{k} \]

Assim, começa a valer a pena escolher uma pessoa a partir do momento em que $X_n > Y_n$, ou seja, quando estamos na $k$-ésima pessoa e $1>\sum_{k=n}^{N-1} \frac{1}{k}$. A partir desse valor, seu ganho esperado ficando com a melhor pessoa encontrada até agora é maior que o ganho esperado no futuro pulando essa pessoa; logo, é estatisticamente mais interessante levar essa para casa.

Claro que encontrar esse valor de $k$ não é simples, tem que somar fração e isso é chato, tem umas partes que envolvem MMC e isso me dá fadiga. Melhor que somar essas frações seria usar uma boa aproximação para essa soma, que eu conheço bem, é a série harmônica $\sum_k \frac{1}{k}$. Como você deve se lembrar de sua infância, essa soma de 0 a $n$ pode ser aproximada, para grandes valores de $n$, por $\ln n $. Assim, a soma de $n$ até $N-1$ deve ser $\ln (N-1)-\ln(n) = \ln\left(\frac{N-1}{n}\right)$. Como usamos a hipótese de valores grandes de $N$, podemos escrever isso como $\ln\left(\frac{N}{n}\right)$. Assim, devemos parar de pular candidatos quando encontramos o melhor a partir do $n$-ésimo, sendo $n$ o número tal que $\ln\left(\frac{N}{n}\right)<1$, ou seja, $n = \frac{N}{e}$, onde $e$ é o número de Euler $e=2,71828\ldots $.

Percebemos que essa conta nos diz para pularmos os primeiros $\frac{N}{e}$ pretendentes e, após esses, ficar com o primeiro que for melhor que todos os anteriores. Note que $\frac{1}{e}\approx 0.37$. Em outras palavras, a estratégia optimal para encontrar o melhor pretendente da balada para levar para casa é a seguinte: estabeleça um número de pessoas para pegar na balada. Rejeite necessariamente os primeiros 37% delas. Cole na primeira pessoa que aparecer que for melhor que todas as anteriores e leve esta para casa.

O mesmo vale para namorados ou namoradas durante sua juventude. Se quer maximizar suas chances de casar com a melhor opção, estabeleça uma estimativa do número de pessoas com que vai namorar durante sua vida, termine com os primeiros 37% e case com a primeira que aparecer que for melhor que todas as anteriores.

Vamos ver quão bem isso funciona. Para isso, vamos contar a história de Pedro.

Pedro é um garoto que costuma ir a três baladas diferentes. Ele está atrás de garotas, e quer levar a melhor delas para casa. As baladas são diferentes, e a qualidade dos frequentadores tem uma distribuição variada para cada balada. Vejamos quais são elas, usando descrições do site cidadedesaopaulo.com:

  1.  A The History, localizada na Vila Olímpia, tem piso que muda de cor e agrada tanto àqueles que já curtiram os hits dos tempos da brilhantina quanto às novas gerações. Possui um público pouco variado e previsível, a qualidade dos frequentadores será dada por uma distribuição gaussiana.
  2. Localizado no Baixo Augusta, o Beco 203 é reduto dos moderninhos e alternativos que curtem um rock mais soft e festas em que o som é tocado através de fones de ouvido. Atraindo um público mais variado, a distribuição da qualidade de seus frequentadores será dada pela distribuição uniforme.
  3. A Lab, localizada na Rua Augusta, possui em sua programação dias dedicados à música eletrônica. Com um público ligeiramente variado, mas não muito, a qualidade de seus frequentadores está mais concentrada nas piores notas que nas melhores e será modelada pela distribuição exponencial.

Pedro é uma máquina e se dispõe inicialmente a pegar 100 garotas. Ele vai vezes o suficiente às baladas para poder testar diferentes estratégias, e está disposto a tentar todas as possibilidades. A experiência é a seguinte: um dia ele leva a primeira que encontrar para casa. No dia seguinte, ele rejeita a primeira e leva a primeira melhor que as anteriores para casa. Em seguida, rejeita as duas primeiras e leva a primeira melhor que as anteriores que encontrar para casa. Fazendo isso até a centésima vezes o suficiente, ele consegue estimar a taxa de sucesso de cada estratégia. Uma noite é bem sucedida se a que ele levou para casa era a melhor dentre as 100 possíveis. São bastantes opções, vejamos qual a taxa de sucesso de cada uma das estratégias.

top_na_baladaÉ facil acreditar que o valor ideal para a estratégia é 37, ou seja, rejeitar os primeiros 37% e aceitar a primeira opção melhor que todas as anteriores. Note como esse valor independe de como a qualidade das pretendentes está distribuída, seja uniforme ou extremamente concentrada em torno da média, a eficácia de cada estratégia é a mesma.

Falando um pouco mais sério, esse pequeno problema estatístico revela uma matemática internalizada em diversas decisões em nosso cotidiano, a ideia de “assentar”, de escolher uma opção para ser a definitiva. Quando você é jovem, seus namoros são em média curtos, explosivos, cheios de emoções e problemas, a idade vai trazendo mais estabilidade e em um ponto da vida você encontra aquela que acha ser a pessoa certa. Você experimentou o suficiente para identificar uma pessoa melhor que as anteriores e entender que a melhor estratégia é juntar os chinelos com esta; porque, conhecendo as alternativas, você prefere não arriscar e entende que é pouco provável encontrar algo tão melhor nas futuras opções. Casamento é sobre amor, sobre almas gêmeas, some encontrar a pessoa prometida e amada; mas quando você começa a beirar os trinta anos a realidade bate na porta e a estatística, aliada a sua experiência, fala mais alto.

E se você me perguntar se sigo essa estratégia, não vou poder responder. O modelo tem várias hipóteses, várias delas são boas, a maior parte se aplica a minha situação, mas um grande valor de $N$, certamente, não é o caso.

Nobel 2014 – LED azul

Rookie

LED azul?

Essa foi minha reação ao prêmio nobel da física de 2014. Eu preciso admitir que fiquei surpreso, mas não sei o que esperava. Não consigo listar de cabeça nada que mereça o prêmio no lugar, ainda que seja um forte advogado de uma dessas medalhas a Freeman Dyson, mas não esperava um prêmio a algo tão… não sei a palavra. Tão engenharia? É, não esperava o prêmio para algo tão IEEE e tão pouco Physical Review.

E qual é o problema do LED azul? Para entender o mérito do prêmio, precisamos conversar sobre o predecessor do LED, a lâmpada incandescente, e sobre o que é uma cor.

Eu comentei nesse post que enxergamos objetos com cores diferentes porque eles absorvem determinadas frequências e refletem outras. Cores são isso: luz de frequências diferentes. Luz branca consiste em um feixe de diversas ondas eletromagnéticas em várias frequências diferentes, nosso olho interpreta isso como branco. Podemos separar esses feixes com um prisma, pois elas refratam com ângulos diferentes entrando em um meio, é isso que o álbum do Pink Floyd mostra. Mas essa conversa é para objetos que refletem luz branca, o que acontece com os objetos que emitem, eles mesmos, luz? Como essa luz é gerada e como é definida sua cor?

Existem dois jeitos de se produzir luz, que na verdade são o mesmo jeito. Toda luz emitida consiste em um elétron que perde energia e lança essa energia em forma de luz. O primeiro jeito é você ter vários elétrons bem rápidos se batendo. Esse bate-bate causa aceleração, e partículas carregadas, quando aceleradas, emitem luz. A frequência dessa luz, e com isso a cor, depende da violência da pancada, que por sua vez depende de quão rápido o elétron estava indo. Quanto mais rápido os elétrons estão vibrando e se batendo, mais próximo do ultravioleta a radiação emitida estará, enquanto elétrons mais tranquilos emitem radiação no infravermelho. É claro que as pancadas acontecem em diversas velocidades, e o corpo como um todo emite várias frequências, mas como as partículas vibram em uma velocidade média, existe uma “pancada média” e isso faz o corpo emitir luz preferencialmente em uma faixa de frequência, a “cor favorita” do corpo. A intensidade do bate-bate é determinada pela temperatura, e isso acontece em toda temperatura com todos os corpos, inclusive o seu. A temperatura do corpo humano é suficiente apenas para emitir radiação localizada bem fundo no infravermelho, invisível aos seres humanos. Ou seja, você brilha, mas é um brilho especial que nem todo mundo vê.

Se você fosse capaz de enxergar frequências nessa faixa, poderia ver no escuro. Um ser humano seria, portanto, algo assim para você.

Mas nossos olhos sobreviveram a travessia evolutiva para enxergar apenas uma faixa restrita do espectro eletromagnético, por isso não enxergamos nossos amiguinhos desse jeito. A escolha da faixa é explicada por dois motivos: é a frequência favorita de emissão do sol e é uma das pouquíssimas faixas de frequência que não é absorvida pela água. Esse material safado, o H$_2$O, absorve quase todas as faixas de frequência, quase todas as “cores” que existem, exceto as que vemos. Na verdade, a relação de causalidade é invertida; não é coincidência que a água é transparente, nossos olhos foram criados para detectar e interpretar apenas as faixas de frequência que conseguem atravessar a água, porque todas as outras, vindas do sol, são na maior parte absorvidas pela atmosfera. Se pudéssemos apenas enxergar outras faixas do espectro eletromagnético, essas que a água absorve, nossos dias seriam muito mais escuros.

A lâmpada incandescente funciona exatamente assim. Esquentamos o tungstênio, aquele filamento metálico que quando arrebenta dizemos que a lâmpada queimou, e, quando ele atinge a casa dos 3.000 graus, ele brilha. É claro que essa lâmpada emite várias frequências, os elétrons estão se batendo em várias velocidades, mas conseguimos perceber que há uma preferência pelo amarelo por ali.

O segundo jeito de emitir luz é brincar com elétrons em estruturas mais complicadas, sólidos semicondutores ou isolantes. Nesses sistemas, os elétrons não têm muito espaço de manobra, há lugares e energias bem fixos para abrigá-los; elétrons têm lugar marcado em um semicondutor. Somos capazes de embebedar um sólido desses com mais elétrons do que ele gostaria, e somos capazes de arrancar elétrons de um outro sólido. Quando juntamos esses dois, os elétrons de um pulam para o outro, e nesse pulo eles emitem luz. A vantagem desse método é que a cor emitida depende apenas do tamanho do pulo, e é sempre a mesma, porque os elétrons possuem lugar e energia marcados em ambos os sólidos, o que força os saltos de energia entre um sólido e outro a serem sempre os mesmos. Isso é, grosso modo, o princípio do LED.

A cor emitida depende apenas da diferença de energia entre as posições marcadas dos semicondutores, então basta encontrar materiais que, nesse processo, possuem uma diferença de energia cujo salto emita uma radiação no espectro visível. E isso é relativamente fácil para frequências de menor energia, o vermelho e o verde, por exemplo. Chegando perto do azul, no entanto, não é fácil. A diferença de energia entre as bandas (os lugares marcados dos elétrons) dos sólidos deve ser muito alta para gerar o azul, muitos acharam que era impossível. E pior que isso, você precisa do azul para, com o vermelho e o verde, formar luz branca.

Em uma analogia, o LED funciona como uma cachoeira de elétrons. A queda dos elétrons emite luz, e essa luz é proporcional à altura da cachoeira. Para emitir luz azul, precisamos de uma cachoeira muito, mas muito alta, os elétrons precisam acelerar muito para atingir essa frequência. Após quase duas décadas, um grupo de físicos japoneses conseguiu conceber o ajuste certo em nitretos de gálio (lembra desse elemento? pois é, não confunda com gadolíneo) para criar a cachoeiras perfeita, e até outras mais altas. Não apenas isso, o processo podia ser reproduzido em escala industrial, e isso abriu o caminho para a iluminação do século XXI e preparou a aposentadoria da lâmpada de tungstênio.

É fácil ver a razão do LED ser mais econômico. A lâmpada de filamento emite radiação em várias frequências, inclusive várias invisíveis, e a maior parte da energia (95%) que usamos na lâmpada é convertida em calor para o espaço em volta dela, não em radiação. O LED é apenas a luz, apenas uma frequência específica, a cor que queremos, não há desperdício esquentando a ampola para matar os insetos que, como Ícaro, voam perto demais do sol.

Revolucionária, sem dúvida. Interessante, certamente. Econômica, ecologicamente viável, essa descoberta tem tudo para ser eleita uma das tecnologias mais importantes dos anos 80-90. Mas Nobel da física…? Não quero parecer invejoso ou reclamão, o pessoal da matéria condensada merece o prêmio e não vou alimentar as rixas entre as áreas da física, mas convenhamos. Nos anos anteriores tivemos a descoberta de uma nova partícula, uma exploração detalhada do misterioso intricamento quântico, a  descoberta da expansão cósmica e a criação de um material de natureza nunca antes vista, o grafeno. Sinto uma diferença entre os prêmios atribuídos a essas quatro descobertas e ao LED azul, elas parecem mais fundamentais, mais interessantes, mais… físicas? Não sei explicar, admito que sou reclamão; perto dos blocos fundamentais da natureza, do intricamento entre luz e matéria, da expansão do cosmos e da criação de um novo estado da matéria, o LED azul me parece só uma cachoeira mais alta.

Dos delitos, das penas e dos almoços.

Rookie

O resultado de uma decisão judicial depende apenas das leis e dos fatos? Com essa pergunta, os matemáticos Shai Danziger, Jonathan Levav e Liora Avnaim-Pesso causaram tumulto em um artigo publicado em Proceedings of the National Academy of Science, um periódico científico americano extremamente bem respeitado, e gostaria de compartilhar esse artigo hoje com vocês.

No artigo, os autores compilaram 1.000 decisões judiciais de liberdade condicional, em que o resultado poderia ser apenas sim (liberdade concedida) ou não (volta para a cela), para explorar um lado pouco comentado do sistema judiciário, pouco mencionado em cursos de direito. Com estatística, poderíamos ver pela primeira vez a influência marcante do café da manhã na definição do futuro de um integrante do sistema carcerário.

O sistema de decisão judicial funcionava da seguinte forma: os prisioneiros eram julgados dependendo da ordem de chegada dos advogados ao tribunal, não tendo poder sobre o horário em que teriam seu caso analisado. Os autores do artigo decidiram compilar a seguinte estatística: como o número de decisões favoráveis varia em relação à hora do dia? Sendo Sim = 1 e Não = 0, podemos fazer a média das decisões e estudar como essa média varia da primeira decisão do dia à segunda, da segunda à terceira e assim por diante. O resultado é o seguinte gráfico:

F1.largeNo eixo X temos a ordem das decisões, sendo x=1 a primeira decisão do dia, x=2 a segunda e assim por diante; cada tick marca uma decisão múltipla de 3. As linhas pontilhadas são pausa para almoço e pausa para café. O gráfico fala por si.

Alarmados com esse resultado, os cientistas estudaram outras variáveis em função da posição da decisão no dia. Porque correlação não implica causalidade, esse comportamento pode ser causado por uma terceira variável que liga as decisões e o horário. Eles então estudaram a gravidade da ofensa, número de encarceramentos prévios, porcentagem de presos que estavam em um programa de reabilitação quando postularam a liberdade condicional e o número de meses cumpridos da pena. Os resultados são:

F3.largeÉ fácil ver que o padrão do primeiro gráfico não chega perto de se repetir em nenhum outro. As outras variáveis não apresentam correlação clara com almoço ou café, não nos resta outra alternativa. Os autores do artigo são hesitantes, dizem que gostariam de achar uma variável escondida, mas a conclusão parece clara: uma decisão judicial depende de leis, fatos e do que o juiz comeu no café da manhã.

Os autores explicitam que não sabem se é a comida ou o repouso. Talvez estar descansado mentalmente torne os juízes mais brandos, e talvez depois de ler tantos históricos com crimes horrendos eles vão endurecendo nas decisões e a pausa lhes restabelece a obrigação da imparcialidade. Independente da sua explicação favorita, o estudo acende debates e reflexões interessantes sobre nossa maneira de fazer avaliações.

Podemos perguntar da taxa de sucesso de entrevistas de emprego em função da ordem de apresentação dos candidatos, podemos perguntar a relação entre nota de um aluno em prova oral e sua ordem de passagem pela lousa. Independente da pergunta, se podemos tirar uma lição do artigo, percebemos que pessoas alimentadas são mais felizes, que você quer seu caso julgado por um juiz repousado, e que levar uma maçã para a professora, no final das contas, é uma excelente ideia.

Artur Ávila, o domador do caos

Rookie

A cada quatro anos, no congresso internacional de matemática, são anunciados os ganhadores do que é considerado o maior prêmio da matemática, a medalha Fields. É um prêmio especial, entregue só a matemáticos de menos de quarenta anos, extremamente prestigioso e justo. Esse ano houve algo diferente, pois um dos ganhadores, Artur Ávila, é brasileiro.

Somos perto de duzentos milhões de habitantes, não temos um prêmio nobel de ciência. As razões são muitas e não cabem aqui, nem as conheço todas e o debate é bom e interessante, mas fica para outro dia. No caso da física, eu asseguro; se algum brasileiro ganhar um nobel no curto prazo, pouco ou nada de sua pesquisa terá sido no Brasil. São comuns casos de cientistas cuja formação é toda feita em outro país e, ao receber um prêmio, seu país natal comemora como final de Copa do Mundo. Não sou contra, é uma pequena hipocrisia que pode gerar um interesse na área e pode estimular talentos mais jovens, mas não é realidade. Com Artur Ávila, no entanto, não é o caso; Ávila é brasileiro com formação brasileira que trabalha no Brasil. Isso diz muito sobre a matemática no Brasil, sobre o IMPA (instituto em que o Ávila trabalha) e merece todo o elogio e admiração que esse pobre blog pode emitir.

Mas você não veio aqui para ler sobre o Ávila, isso você vai encontrar na Folha, no G1 ou um portal de notícias. Vou tentar explicar um pouco a base da pesquisa do Ávila, que é a teoria de sistemas dinâmicos. Não se anime, ainda com esse post você não vai conseguir ler um artigo do Ávila, eu mesmo os leio como alguém que acabou de fazer seu primeiro semestre de curso de inglês lê Shakespeare, devagar, sofrido e consultando o dicionário a cada linha.

Não que seu texto seja arcano ou confuso, pelo contrário, matemática boa é reconhecida pela clareza e precisão. O problema é falta de base e de hábito. Matemática é uma área do conhecimento extremamente vertical, temos que passar pelo térreo, primeiro, segundo e todos os andares seguintes para chegarmos ao topo. O que vou apresentar aqui é o térreo dos sistemas dinâmicos, e talvez uma parte da área de serviço.

Um sistema dinâmico é uma regra que associa estados passados a estados futuros. Lembra-se daqueles desafios lógicos em que você tem uma sequência de números e tem que descobrir a regra que os gera, para descobrir o próximo? Algo como 1, 1, 2, 3, 5 e você deve adivinhar que o próximo é 8. Neste caso, temos a regra $x_{n+1} = x_{n}+x_{n-1}$, chamada regra de Fibonacci. Uma regra associando estados passados (o $x_{n}$ e o $x_{n-1}$, que são o estado anterior e o antes do anterior) a estados futuros ($x_{n+1}$), pois podemos continuar para obter todos os seguintes. Claro que não estamos restritos a isso, podemos definir muitas regras e até estabelecer regras em espaços que não são discretos e bonitinhos como o do exemplo.

Com isso, dá para perceber que muita coisa é um sistema dinâmico. A grande exigência é que a regra deve ser determinística, ou seja, começando em um ponto o sistema deve caminhar em uma direção específica. Se voltar ao ponto de partida, o sistema deve percorrer percorrer o mesmo caminho, ou efetuar uma órbita, como gostamos de chamar.

Ávila se aprofundou em fenômenos que envolvem fractalidade, caos e outras coisas um pouco mais complicadas. Um exemplo interessante dos dois primeiros em sistemas dinâmicos é a equação logística, algo de definição bem simples e resultados complicados. Assim como nós antes tínhamos uma sequência definida com a regra de Fibonacci, vamos pensar em outra regra: $x_{n+1} = r.x_n(1-x_n)$, onde $r$ é um número entre 1 e 4. Parece simples, e nem parece muito diferente da outra, mas dependendo do valor de $r$ você vai descobrir que essa a sequência gerada sai do controle rapidamente.

Vejamos o que acontece quando começamos no valor $x_0=0,\! 1$ e com $r=1,\! 2$. Primeiro calculamos o próximo passo: $x_1 = r.x_0(1-x_0)$ $=1,\! 2.0,\! 1(1-0,\! 1) = 0,\! 108$. Para calcular o próximo passo, continuamos com a regra: $x_2=r.x_1(1-x_1)$ $=1,\! 2.0,\! 108(1-0,\! 108)= 0,\! 1156032$. Não vou escrever linha por linha, mas um gráfico revela o futuro dessa conta, ela converge para um valor específico.

avila_1Com esse gráfico você pode achar que esse sistema é tranquilo, que outros valores vão também convergir, que tudo caminha para um valor bonito e estável. Nada podia estar mais longe da verdade. Veja o que acontece quando trocamos $r$ por $3,\! 1$.

avila_2Com esse valor de $r$, o sistema não converge para um valor, mas para dois valores. Esse comportamento não é lá muito normal, mas piora, veja o que acontece quando colocamos $r=3,\! 5$.

avila_3Nesse caso, o sistema converge para quatro valores. Conforme aumentamos o valor de $r$, o sistema fica cada vez mais instável e converge para cada vez mais valores diferentes. Chega um ponto que podemos nos perguntar: converge mesmo? Não seriam tantos valores que a própria noção de convergência já perde o sentido?

Esse sistema dinâmico converge para um valor apenas quando $r$ está entre 1 e 3. Para um $r$ entre 3 e 3,45, ele converge para dois. Quando $r$ está entre 3,45 e 3,544, o valor de $x_n$ pipoca entre quatro possibilidades e entre 3.54 e 3.56 teremos oito possibilidades. Não apenas esses valores aumentam exponencialmente, o intervalo de $r$ em que eles acontecem fica cada vez menor. Refletido a respeito, o primeiro intervalo é quase cinco vezes maior que o segundo, enquanto o segundo também é quase cinco vezes maior que o terceiro. Essa relação entre os intervalos, se fizermos uma sequência com ela, converge para um valor, chamado constante de Feigenbaum. Quando chegamos a $r=3,7$, na verdade bem antes disso, torna-se completamente impossível prever os valores desses sistema. O único jeito de obter o valor na centésima iteração é calcular todas as noventa e nove anteriores. Veja como fica nosso gráfico para $r=3,7$.

avila_4E talvez nisso surja uma das perguntas mais interessantes de caos, fractalidade e sistemas dinâmicos: como pode uma regra tão simples gerar um resultado tão complicado e imprevisível? Como pode tanta complexidade emergir de uma única lei? O caráter matemático dessas perguntas é profundo, e as implicações são maiores do que imaginamos olhando pela primeira vez.

Escolhi esse exemplo porque ele é muito próximo do trabalho de alguns físicos, complexidade é algo onipresente na natureza e na realidade. Não gosto de partir para o esoterismo, mas não são poucos os cientistas que estudam sistemas caóticos, como a equação logística, para tentar responder questões sobre livre-arbítrio e consciência. O argumento de “se somos apenas átomos, está tudo definido e não temos escolha” não precisa nem da mecânica quântica para ser extinto, a equação logística cuida dele. Fenômenos simples podem gerar complexidade o suficiente para que a previsibilidade seja destruída; determinístico não é determinado e, como vemos acima, para todos os efeitos de medida, se a equação logística fosse uma pessoa ela pareceria ter bastante livre arbítrio sobre o próximo valor da sequência.

Ávila fez contribuições fundamentais para o estudo de sistemas dinâmicos reais e complexos, uni e multidimensionais, discretos e contínuos. Nos sistemas dinâmicos unidimensionais, Ávila praticamente “terminou” o assunto, após seu último artigo no tema poderiam passar os créditos e baixar a cortina. Estudando profundamente o caráter matemático de objetos pontudos como a equação logística, Ávila nos aproximou um pouco mais do que há por detrás da cortina da complexidade. Domando o caos, Ávila mereceu e ganhou o mais alto prêmio que um cientista brasileiro já conquistou. Que abra caminho para os próximos, que seja o primeiro de muitos, que, como na equação logística, o intervalo entre a primeira dessas e a próxima seja bem menor que o tempo que a primeira demorou para chegar.