Descrição da probabilidade de colisão (s) de partícula (s) em um sistema: da probabilidade de transição à densidade de probabilidade em uma distribuição gaussiana

Por: João Paulo da Silva Pereira

Resumo

O presente trabalho investigou a probabilidade de uma ou de várias partículas colidir (s) com outra (s) em um sistema, a priori, fechado por meio da probabilidade de transição do processo estocástico contínuo de tipo markoviano. No entanto, viu-se a impossibilidade de descrever tal distribuição em termos de distribuição normal, mesmo tendo como experimento mental o fato do sistema "congelar" no ato da medição. Por fim, foi possível descrever a distribuição de probabilidade em termos de curva gaussiana com uma curva suave à esquerda e à direita, respectivamente, tendendo ao menos infinito e ao mais infinito e chegar a expressão da distribuição normal de parâmetros, a expressão do valor esperado e a expressão da variância.

Summary

The present work investigated the probability of one or several particles colliding with another (s) in a system, a priori, closed by means of the probability of transition of the continuous stochastic process of Markovian type. However, it was seen the impossibility of describing such a distribution in terms of normal distribution, even having as a thought experiment the fact that the system "freezes" at the time of measurement. Finally, it was possible to describe the probability distribution in terms of the Gaussian curve with a smooth curve on the left and right, respectively, tending to at least infinity and at most infinity and arrive at the expression of the normal distribution of parameters, the expression of the expected value and the expression of the variance.

Introdução

Antes de tudo é importante salientar que um processo estocástico pode ser definido como um conjunto de variáveis aleatórias em função do tempo. Assim, podemos diferenciar o processo estocástico de tempo contínuo e discreto. No primeiro caso teremos que t pertence ao conjunto dos números inteiros ou naturais não negativos, ou seja, assume apenas valores que são maiores ou igual a zero. Quando o conjunto é infinito e enumerável existe uma bijeção dos inteiros ou naturais nele. Se o tempo for contínuo, temos um processo estocástico de tempo contínuo, se assim não o for, teremos um processo estocástico de tempo discreto, que é o mais comum. Um processo estocástico é dito ser de Markov se e somente se o estado das variáveis aleatórias do sistema estão a depender somente do presente estado e não do anterior ou das variáveis que a antecedeu. Por sua vez, um processo markoviano é dito ser uma cadeia de Markov se e somente se as variáveis aleatórias do sistema pertencem a um espaço de estados discreto. Uma cadeia de Markov discreta assume apenas valores bem definidos de tempo, enquanto que a de tempo contínuo ocorre em qualquer intervalo de tempo.

Dito isso, o trabalho foi dividido em três partes. Na primeira foi construída uma cadeia de Markov a partir de um processo estocástico contínuo, porém, ao descrever as probabilidades de transição viu-se necessário construir uma relação de ordem, o que prejudicou a definição, a priori, da "continuidade de tal sistema". Na segunda parte foi modificada a sucessão de estados, assim como a ideia de "probabilidade de transição". Também foi acrescentado uma variável de tempo, que representava o "tempo externo ao sistema", isto é, daquele que faz a medição. Porém, ainda viu-se insuficiente a assunção de um tempo contínuo. Por fim, na terceira parte, ao retirar a restrição que se refere às probabilidades das variáveis aleatórias do sistema foi possível redefinir a passagem do tempo. Assim, conseguimos nos livrar da ideia de somatório e passamos a descrever o nosso sistema em termos de integral.

Finalmente, o espaço de parâmetros está a se referir aos conjuntos que regem as propriedades do sistema. Já o espaço de estados envolve todas as possíveis condições ou estados do sistema ao longo do tempo. Na última parte do trabalho só foi possível descrever a distribuição de probabilidade do nosso sistema em termos de curva gaussiana por causa da densidade de probabilidade. Na conclusão foi possível encaminhar o trabalho para um possível desenvolvimento, me refiro ao movimento de Brown, que se refere ao movimento "aleatório" das partículas que estão a se chocar no nosso sistema.

Desenvolvimento

1º parte

Imagine um sistema de partículas que "evolui" temporalmente a cada instante tal que o instante é dado em segundos. Temos que o conjunto do tempo total é T e o conjunto de variáveis aleatórias ordenadas Xt tal que o índice t representa a variação do tempo. Ou melhor, temos {Xt; t ∈ T}. Tome agora uma função contínua definida a partir da correspondência de X com T:

X(t) = {t1, ..., tn; t ∈ R}.

Temos o espaço de estado Xt, onde:

n

U ti = t, {Xt; t ∈ T}.

i = 1

E o espaço de parâmetros composto pelo conjunto T. Portanto, o nosso espaço de estados e de parâmetros são contínuos. Podemos definir a transição em nosso espaço de estados (E) e de parâmetros ordenados, assim como as outras coisas que se sucedem, tais como:

i + 1 = 1° transição;

i + 1 + 1 = 2º transição;

.

.

.

i + n = enésima transição.

Probabilidade do estado 0: π0;

Probabilidade do estado 1: π1;

.

.

.

Probabilidade do estado n: πn.

Vetor probabilidade de estado

π = {π0, π1, ..., πn}.

Probabilidade de transição

0 para 1: μ01;

1 para 0: μ10.

Esses são alguns exemplos de probabilidade de transição que se pode obter, sendo que a partir dessas probabilidades se é possível construir uma matriz de transição. A partir desses exemplos podemos concluir que a probabilidade do estado 1 é dado por:

π1 = π0 μ01 / μ10.

Pois a probabilidade π1 pode ser expressa em função da probabilidade π0, que é π0μ01 = π1μ10 e das probabilidades de transição. Assim, obtemos para o estado 1:

π1 (μ10 + μ12) = π0 μ01 + π2 μ21.

E para a probabilidade do estado 2:

π2 = π1 (μ10 + μ12) - π0 μ01 / μ21.

Ou

π2 = (π12 μ01 / μ21 π10). π0.

Ao assumir que o nosso sistema possui mais de 30 variáveis aleatórias (Xt > 30), pois isso implicaria que o nosso espaço amostral tem o n maior que 30, poderíamos utilizar a distribuição normal, cuja uma das propriedades é dada por:

μ (x + y) = μ (x) + μ (y)

μ (x - y) = μ (x) - μ (y).

Como "a variável" do sistema é contínua, temos:

μ (x) = ∫ x f(x) dx.

Porém, temos uma forma mais convicente de chegar a distribuição gaussiana para as probabilidades do nosso conjunto de variáveis aleatórias do nosso sistema.

2º parte

Imagine a seguinte sucessão ou sequência no espaço de estados E, temos que:

∑ P (xti) = 1, dado que P (Xt) = 1. Onde P (xi) ≥ 0 (a restrição) e ∀x ∈ Xt.

Agora tome:

∀x´ ∈ X, (P (xti) ∈ E) = 1 e xti ≡ x´.

A sucessão ou a sequência de valores aleatórios (XI)I=0, ..., n é uma cadeia de Markov, pois a distribuição P (xti) ∈ E e a matriz de transição T possuem as seguintes propriedades:

I) ∀x ∈ E, P (X0 = x´) = P (xti);

II)∀i, ∀x0x1, ..., xI.xI+1 ∈ E | P (xi=0 = x0, ..., x1 = xti,I) > 0, P (x0 = xt0, ...,xti,I) = Pxti,I.xti,I+1, onde xt,i=0 ≡ xt0 e xt,i=1 ≡ xt1.

Ou seja, a distribuição das variáveis aleatórias X0 é determinada pela sucessão. Para todas as variáveis aleatórias no intervalo (0, n) a distribuição condicional xI+1, dada por X0X1, ..., XI, não depende dos valores da sucessão e nem do instante I. Só está a depender do estado xti,I. Estou a utilizar duas variáveis temporais por simplesmente interpretar que a probabilidade já é dada em um certo instante no ato da medição, haja vista, que o sistema está variando em suas colisões com alta energia cinética ao longo ou em função do tempo. Dito de outra forma, imagine como se tivéssemos congelado o tempo (externamente ou o externo I que sobredetermina o interno t) e realizássemos uma medição sobre qual (s) a (s) probabilidade (s) de/das uma partícula (s) tomada (s) arbitrariamente no sistema colidir (s) com outra (s). Assim, o sistema se tornaria "linear" e ordenado ao passar dos instantes (dado em segundos) até a (s) colisão (s). Também temos que o conjunto T e Xt ou X(t) são definidos em intervalos compactos o que implica em sua finitude de possibilidades e do sistema ou da cadeia de Markov.

Como os instantes não podem ser dados apenas em segundos para ser contínua, temos, portanto, que reformular a segunda parte.

3° parte

Ao retirar a restrição P (xi) ≥ 0, e a redefinirmos na passagem do tempo como composto por infinitos instantes tal que cada um deles tendem a zero, isto é, são infinitesimais, teremos que ao longo do tempo as probabilidades tendem ao infinito à esquerda e à direita. Assim, podemos ter:

x

P (Xt < x) = ∫ F(s).ds.

-∞

Ou seja, a probabilidade do conjunto de variáveis aleatórias é menor que a probabilidade de uma certa partícula tomada arbitrariamente no sistema e isso é igual a integral da função f definida a partir da soma de probabilidades do evento com limites de integração do menos infinito até x, a "partícula" "escolhida" no sistema.

Não podemos ter:

∑ P (xti) = 1.

Pois a probabilidade do sistema agora é não-enumerável e a probabilidade sempre daria zero, haja vista, que a probabilidade de qualquer variável aleatória tomada no sistema daria zero, pois a probabilidade do evento é igual a zero. Atenha-se ao fato de que para termos uma medida nesse sistema, devemos definir um subconjunto γ com probabilidade igual a 1, assim, não teríamos mais s ∈ Ω, onde Ω ≡ (0, n) e poderíamos ter a probabilidade do sistema em termos de densidade de probabilidade, onde a probabilidade é dada entre dois pontos ou variáveis do sistema em um dado instante. Como não podemos ter F: N → X, temos agora F: R → R, isto é, passamos de um conjunto 'ou' função infinita e enumerável para uma infinita e não-enumerável. Portanto, a probabilidade igual a 1 será dado por um subconjunto, pela soma de probabilidade do evento e pela integral de menos infinito a mais infinito, vejamos:

+∞ n

∫ F (s).ds = 1 e P (0 ≤ xti ≤ n) = ∫ F (s).ds.

-∞ 0

Temos que a distribuição normal de parâmetros será:

F (x) = 1 / √2πσ e^ - (x - μ)^2 / 2σ^2, onde μ é a média e σ a variância.

O valor esperado:

+∞

V(x) = ∫ s.F(s).ds. = μ.

-∞

Onde F (s) é a probabilidade. Por fim, temos a variância:

var (x) = [v (x - μ)^2] = σ^2.

Conclusão e considerações finais

Como o intervalo é aberto do menos infinito ao mais infinito ( ]-∞, +∞[) na terceira parte, temos que o subconjunto tomado nesse intervalo será não só infinito, dado que todo subconjunto (subintervalo) de um conjunto (intervalo) infinito também é infinito, mas também maior tanto quanto se quiser. A P (γ) = 1, ou seja, temos um evento certo. Para sabermos que a probabilidade do espaço amostral e do evento não é enumerável basta saber que o conjunto dos números reais não são enumeráveis. Na terceira parte do trabalho foi possível transitar da probabilidade de transição para uma probabilidade "relacional" por meio da densidade de probabilidade. Na primeira e segunda parte do trabalho, mas principalmente na primeira parte, o espaço de estados E não é contínuo, pois mesmo o conjunto das variáveis aleatórias e o conjunto do tempo total pertencendo aos reais, ambos só assumem valores inteiros, dado a própria relação de ordem na transição do espaço de estados e de parâmetros. Na primeira parte também temos que a probabilidade de um dado evento depende do anterior e que as probabilidades de transição entre esses estados, isto é, dos estados possíveis do sistema, são discretos. Porquanto, a passagem de um processo estocástico a um processo de Markov "contínuo" na primeira parte exigiria extensões da cadeia de Markov, tais como, o processo de Poisson, e as equações diferenciais estocásticas, que descreveriam a evolução entre estados (discretos) ao longo de um tempo t (contínuo). Destarte, poderíamos ter um processo de Wiener ou um movimento browniano contínuo em relação ao tempo t ao fixar o evento γ e ao ter probabilidade 1 em γ, ou por outra, Bt (γ) ⊂ t, com P (Bt) = 1 ∈ γ.

Referências

RAMOS, Alberto. Estatística 1. São Paulo - SP: Escola Politécnica da Universidade de São Paulo - Departamento de Engenharia de Produção, 2016. p. 144.

FERNANDEZ, Pedro. Introdução aos processos estocásticos. Rio de Janeiro - RJ: IMPA, maio de 1975. p. 82.

MUNHOZ, Igor; SANTOS, Alessandra. Pesquisa operacional. Londrina - PR: Editora e Distribuidora Educacional S. A., 2018. p. 218.

POSSANI, Cláudio. Processos estocásticos e finanças. YouTube, 22 de março de 2023.

Oaj Oluap
Enviado por Oaj Oluap em 26/08/2023
Reeditado em 26/08/2023
Código do texto: T7870692
Classificação de conteúdo: seguro
Copyright © 2023. Todos os direitos reservados.
Você não pode copiar, exibir, distribuir, executar, criar obras derivadas nem fazer uso comercial desta obra sem a devida permissão do autor.