O Teorema do Lençol Curto (TLC) dispensa formalizações, sendo mundialmente conhecido e creditado ao pesquisador brasileiro Eduardo O. Freire. Menos conhecido, porém, é o fato grave relatado apenas em livros inacessíveis do Vaticano, e subliminarmente mencionado nos trabalhos do historiador português Eduardo Freire de Oliveira (provável parente permutacional do pesquisador brasileiro).

De fato, o historiador Eduardo Freire de Oliveira (virtualbss.com/book/category/eduardo-freire-de-oliveira/), em suas notas pessoais para o seu mais importante livro, também faz menção ao tal fato grave. Lamentavelmente, esse seu último e mais importante livro não foi publicado, e as notas do autor foram misteriosamente perdidas.

Felizmente, fontes seguras que estão juntando material a ser divulgado brevemente via WikiLeaks revelaram detalhes do caso, que deixam claro que, violando as regras básicas de causalidade, o linguista George Kingsley Zipf utilizou o TLC em sua mais importante contribuição científica, a chamada Lei de Zipf, sem dar o devido crédito ao pesquisador brasileiro Eduardo O. Freire!

Para que justiça seja feita, a seguir, a conexão entre as duas teorias é apresentada em termos adequado para moças, o que torna ainda mais evidente o escandaloso caso de plágio científico anti-causal.

Explicação: Seja um lençol (curto, pois todo lençol termina sendo curto em noite fria…), de comprimento C, que deve ser compartilhado por N indivíduos. Durante o sono, cada indivíduo entra em um estado primitivo de necessidades básicas, perdendo assim todo o polimento social. Dessa forma, podemos assumir que:

A1) cada indivíduo competirá, sem dó ou senso de justiça, pela maior parte possível do lençol.

A2) cada indivíduo i tem, aproximadamente, a mesma força F(i). Assim, inicialmente o indivíduo i toma para si um pedaço P(i) do lençol que é aproximadamente igual ao dos demais.

A3) como todos sabem, se P(i) for maior que P(j), mesmo que por um pequeno pedaço de pano, então o indivíduo i conseguirá agarrar melhor seu pedaço de lençol, logo terá mais tração para puxar e assim aumentar P(i) (realimentação positiva).

A4) considerando A3 ao longo do tempo, podemos dizer que o tamanho de pano que ele agarrará no instante k+1, Pk+1(i), é proporcional à força do indivíduo F(i), e ao tamanho de pano que ele já agarra no instante k, Pk(i).

Para não dar asas ao professor Lucas Brigão Matlab Molina, as consequências de A1-A4 serão ilustradas com Scilab:

Cenário: N=100 pessoas debaixo do mesmo lençol curto (suruba?), com apenas 2 m2 por pessoa:

N=100;
C=2*N;

Todas têm aproximadamente a mesma força nos braços (por exemplo, 20% de flutuação numa escala de forças de 0 a 1):

F=0.2*rand(1,N)+0.8;

As forças podem ser normalizadas, de tal forma que elas possam ser tratadas como uma distribuição de probabilidades (probabilidades de ganho de lençol de cada indivíduo)

F=F/sum(F);

Assim, no instante inicial, cada indivíduo toma para si um pedaço de lençol que é proporcional à sua força:

P=F*C;
plot(P)

Como esperado, cada indivíduo fica com, aproximadamente, 2 m² de lençol, o que certamente é pouco para a noite de frio que se avizinha, mas polimento social exige… Debaixo do sono, no entanto, cada um começa a puxar despudoradamente o lençol, agarrando como pode o seu pedaço com uma tração que depende do bocado de pano que cada um já agarra.

P=C*P/sum(P); // Isso é apenas para garantir que a soma dos pedaços dá mesmo C.

Essa linha de código não seria necessária se os erros numéricos não de acumulassem. P portanto representa inicialmente a divisão (humanamente aceitável) no início da noite fria, no instante k=1. No próximo instante de tempo (k=2), contudo, o individuo que tem um pedaço ligeiramente maior de lençol pode agarrá-lo mais firmemente e puxar para si um pouquinho mais, o que pode ser modelado como:

P=P.*F;

Se observarmos os pedaços de lençol no instante k+1, notaremos que começou a se estabelecer um desequilíbrio (oh, natureza injusta!):

max(P) = 2.44
min(P) = 1.57

Iterando esse procedimento, digamos, 500 vezes, é possível notar uma estabilização da distribuição:

F=0.2*rand(1,N)+0.8;
F=F/sum(F);
P=C*F;
for k=1:500,
    P=C*P/sum(P);
    P=P.*F;
end

// max(P) = 100.08 // Latifundiário: tá com metade do lençol para si.
// min(P) = 9.567D-46 // Pobre coitado: só ficou com o pó do lençol. tá passando frio!

Mais ainda, se os ‘latifundiários’ forem listados em ordem decrescente, os 5 mais bem aquecidos, nesta simulação específica, terão:

P=sort(P);
// P(1:5) = 100.08199 70.631906 10.665961 7.951097 3.7030284

Isto é, o segundo maior latifundiário tem bem menos que o maior, mas muito mais que o terceiro, e os cinco juntos detêm 193 m² de um lençol que só tem 200 m² para 100 indivíduos. E nenhum deles precisou ser muito mais forte que os outros para que isso acontecesse – foi consequência de realimentação positiva com restrição de recursos. Este primeiro resultado é apenas uma instância do fenômeno, para uma dada distribuição inicial de forças e pedaços de lençol. Que tal refazer esse experimento 1000 vezes e ver, em média, como fica a distribuição de pedaços de lençol entre os 100 indivíduos…

Acum=zeros(1,N);

for vez=1:1000,
    F=0.2*rand(1,N)+0.8;
    F=F/sum(F);
    P=F*C;
    P=C*P/sum(P);
    for k=1:500,
        P=C*P/sum(P);
        P=P.*F;
    end,
    P=sort(P);
    Acum=Acum+P;
end

Acum=Acum/1000;

//Acum(1:10)'
// ans =
// 1.228287 // O maior latifundiário continua com aprox. metade do lençol para si.
// 0.5240641
// 0.2409364
// 0.1159765
// 0.0554624
// 0.0269597
// 0.0128442
// 0.0059314
// 0.0028990
// 0.0014000

Se for feito um plot dos 50 maiores valores ordenados, em escala log:

plot(log(Acum(1:50)))

O que se nota é que a distribuição de pedaços do lençol curto segue uma tendência linear, que é o esperado de uma distribuição do tipo Zipf.

Sobre o Autor

Possui graduação em Engenharia Elétrica pela Universidade Federal da Paraíba (1992), mestrado em Engenharia Elétrica pela Universidade Estadual de Campinas (1995) e doutorado em “Automatique Et Traitement Du Signal” pela Université Paris-Sud 11 (2000). Atualmente é professor adjunto da Universidade Federal de Sergipe. Tem experiência na área de interface entre Ciência da Computação e Engenharia Elétrica, com ênfase em Processamento Digital de Sinais e Reconhecimento de Padrões, atuando principalmente nos seguintes temas: clustering, processamento de sinais dinâmicos e estimação de informação mútua aplicados à biometria e à televigilância médica.

Deixe uma resposta

O seu endereço de e-mail não será publicado.