next up previous
Next: Literatura ... Up: Liczby przeróżne Previous: Liczby Bernoulliego

Tylko dla orłów

Jeżeli życie nie jest znowu takie różowe to trzeba przyglądnąć się reszcie RR2q, albo - będzie prościej pisać - reszcie Rm. Jej nieco zmodyfikowana postać to:

\begin{displaymath}R_{m} = (-1)^{m+1}\frac{1}{m!} \int^b_a B_{m}(\{x\}) f^{(m)}(x) dx.
\end{displaymath} (1)

(Całkujemy po pewnym - skończonym, albo i nie - przedziale x-a; $\{x\}$ to część ułamkowa z x-a.)

Przy takim zapisie wzór sumacyjny Eulera-Maclaurina wygląda

$\displaystyle \sum_{k=a}^{k=b-1} f(k)$ = $\displaystyle f(a) + f(a+1) + \ldots + f(b-2) + f(b-1)$  
  = $\displaystyle \int_a^b f(x) dx + \sum_{k=1}^m\left. \frac {B_k}{k!} f^{(k-1)} (x) \right \vert^b_a + R_m.$ (2)

Intuicyjnie czujemy, że różnica Rm nie powinna być większa niż pierwszy wyraz, z którego zrezygnowaliśmy w sumie, innymi słowy możemy zawsze oszacować różnicę jako

\begin{displaymath}\vert R_{m}\vert = \phi_m \frac {B_{m+2}}{(m+2)!} f^{m+1}\left\vert^b_a\right.
\end{displaymath} (3)

gdzie $\phi_m$ to pewna liczba z przedziału (0,1). (Skaczemy ze wskaźnikiem liczb Bernoulliego o dwa, bo - jak pamiętamy - praktycznie tylko parzyste są różne od zera; z tego wniosek, że w praktyce wskaźnik m też zawsze powinien być parzysty.)

Chciałoby się, aby wzór 1 zachowywał jakoś ,,grzecznie''. Na przykład przy m rosnącym aby Rm spadało (pardon, dążyło) do zera. Nic z tego - wcale tak nie jest. Skąd inąd reszta Rm potrafi dążyć do pewnej granicy, ale tak jest jeżeli rozpatrujemy w naszej sumie 2 baardzo dużo - nieskończenie wiele wyrazów - przedział (a,b) (całki), albo (a,b-1) sumy staje się praktycznie nieskończony. Brzmi to skomplikowanie - dlatego spróbujmy prześledzić pewien pożyteczny przykład, który powinien nam nieco rozjaśnić w głowie.

Przypuśćmy, że chcemy policzyć sumę nieskończoną:

\begin{displaymath}
\Theta _n = \sum_{k=-\infty}^\infty e^{-k^2/n} . \end{displaymath} (4)

Twór występujący pod znakiem sumy to coś, co możnaby nazwać "zdyskretyzowanym rozkładem Gaussa" (w dodatku pozbawionym stałej normalizacyjnej). Jak pamiętamy ,,zwykły'' rozkład Gaussa (o wartości oczekiwanej = 0) to

\begin{displaymath}
g(x) = \frac{1}{\sqrt{2\pi}} e^{- \displaystyle \frac{x^2}{2\sigma^2}}, \end{displaymath} (5)

i każdy (!) wie, że

\begin{displaymath}\int^\infty_{-\infty} g(x) dx = 1
,\end{displaymath} (6)

a także, że wkład do tej całki pochodzi głównie od pierwszych dwóch (czterech, no sześciu) przedziałów o szerokości $\sigma$, usytuowanych symetrycznie wokół zera. W naszej sumie $\Theta_n$ rolę odchylenia standardowego odgrywa

\begin{eqnarray*}2\sigma^2 & = & n \\
\sigma & = & \sqrt{n}/\sqrt{2}. \end{eqnarray*}


Czyli odchylenie standardowe - naturalna jednostka zmiennej x - jest proporcjonalne do $\sqrt{n}$. No tak, w takim razie suma 4 powinna być proporcjonalna do $\sigma = \sqrt{n}$ (bo składa się na te sumę parę ,,prostokącików'' których podstawa to właśnie $\sigma$). Zresztą z 5 i 6 każdy widzi, że

\begin{displaymath}
\int^\infty_{-\infty} e^{- \displaystyle \frac{x^2}{2\sigma^2}} dx = {\sqrt{2\pi}} \sigma, \end{displaymath} (7)

albo

\begin{displaymath}
\int^\infty_{-\infty} e^{- \displaystyle \frac{x^2}{n}} dx = {\sqrt{n\pi}}. \end{displaymath} (8)

Nasza $\Theta_n$ będzie więc równa - wzór 2 -

$\displaystyle \Theta _n$ = $\displaystyle \sum_{k=-\infty}^\infty e^{-k^2/n}$  
  = $\displaystyle \int^\infty_{-\infty} e^{- \displaystyle \frac{x^2}{n}} dx + \sum^m_{p=1}
\left.\frac{B_p}{p!} f^{(p-1)}(x)
\right\vert^\infty_{-
\infty} + R_m.$ (9)

Występujące powyżej wartości pochodnych

\begin{displaymath}f^{(p-1)}(x)\left.
\right \vert^\infty_{-\infty} \end{displaymath}

są wszystkie równe zeru, bo nasza $f(x) = \exp(-x^2/n)$, a każda pochodna takiej funkcji zawiera ją w sobie w formie czynnika, który to czynnik elegancko zeruje się w dodatniej i ujemnej nieskończoności. Tak więc nasza $\Theta_n$ wygląda prościutko

\begin{displaymath}\Theta_n = \sum_{k=-\infty}^\infty e^{-k^2/n} =
\int^\infty_{-\infty} e^{- \frac{x^2}{n}} dx + R_m.
\end{displaymath} (10)

I teraz każdy widzi, że reszta Rm jest najważniejsza. W zależności od wartości n (a więc odchylenia standardowego) sumy muszą być nieco różne. Małe n - dyskretny rozkład Gaussa jest stosunkowo ,,ostry''; duże n - bardziej rozprostowany. Jeżeli tak, to dla małych n ,,poprawka'' do całki (dla sumy $\Theta_n$) będzie większa, a dla większych - mniejsza. Możesz to oglądnąć na dwóch rysunkach pierwszy
, Gauss: dyskretny i zwykły dla <B>n=1</B>, to ,,dyskretny'' i ,,zwykły'' Gauss dla n=2, a drugi
 Gauss: dyskretny i zwykły dla <B>n=10</B>, - dla n=10.
Widać, że im większe n tym zgodność obu typów jest lepsza, a więc rola reszty Rm - mniejsza.

Sęk jednak w tym, że dla określonego n reszta zawsze będzie różna (większa - to dośc łatwo można wykazać) od zera, a jej obliczenie - no, nie jest za proste. Matematycy konkretni robią to - o zgrozo - nieco bałamutnie, ale - na szczęście - podają w końcu dobry wzór, a także sposób w jaki można się go dorobić. Ten wzór to

\begin{displaymath}R_\infty(n) \approx 2e^{-n\pi^2} + \mbox{\rm pewna stała}\,\cdot e^{-4n\pi^2}, \end{displaymath}

a sposób ten to transformata Fourriera. Zauważ, że resztę nazwaliśmy R ze wskaźnikiem $\infty$ - bo nikt nam nie broni przejść z m do nieskończoności, a dodatkowo zaakcentowaliśmy jej zależność od odchylenia standardowego naszego dyskretnego Gaussa, to znaczy od n.

Ta reszta jest naprawdę malutka. Dla n=2 wartość sumy $\Theta _2$ to z grubsza 2,506628288, a $\sqrt{2\pi} \approx 2,506628275$ - różnica występuje na siódmym miejscu po przecinku. Dla $\Theta _{100}$ różnica wystepuje dopiero na 428. miejscu po przeci

nku (proszę, sa tacy, ktorzy potrafia to policzyć!).

Jeżeli nie masz jeszcze dosyć, to zapraszam do oglądnięcia sposobu, w jaki metoda Eulera- Maclaurina pozwala się dorobić znanego wzoru Stirlinga, stanowiącego przybliżenie silni (n!), bardzo przydatnego dla dużych wartości n. To znaczy wzór potrafimy bez kłopotu wyprowadzić tak jak uczynił to 270 lat temu pan De Moivre. Miał on wówczas postać

\begin{displaymath}n! \approx \left( \frac n e\right)^n \sqrt{n}\times \sigma, \end{displaymath} (11)

gdzie - tym razem - $\sigma$ oznacza pewna stałą. De Moivre nie potrafił tej stałej wyliczyć, i dopiero jego dobry kolega matematyk, doszedł, że jest ona równa $\sqrt{2\pi}$, co De Moivre skrupulatnie zaznaczył w kolejnym wydaniu (A.D. 1738) swojej - zresztą poświęconej głównie statystyce - Doctrine of chances, pisząc: I desisted in proceeding farther till my worthy friend Mr. James Stirling, who had applied after me to that inquiry, discovered that $\sigma =
\sqrt{2\pi}$.'' Czyż nie ładnie? Przez psikus historii wzór nazywa się wzorem Strirlinga, chociaż - jak zobaczymy - de Moivre też ma tu zasadniczy udział.

Zobaczmyż więc. Jeżeli nasza funkcja f(x)jest poczciwym logarytmem: $f(x) = \ln x$ to w zgodzie z wzorem uniwersalnym 2

\begin{displaymath}\sum_{k=1}^{n-1} \ln k = \int^n_1 \ln x \,dx + \sum_{k=1}^m \...
...c{B_k}{k!}
\left( \ln x\right)^{(k-1)}\right \vert^n_1 + R_m. \end{displaymath} (12)

Pochodne $\left( \ln x\right)^{(k-1)}$ liczą się łatwiutko:

\begin{displaymath}\nonumber
\begin{array}{rcl}
f(x) & = & \ln x\\
f'(x) & = & ...
...k-1)!\\
f^{2k-1} & = & \frac{1}{x^{2k-1}} (2k-2)!
\end{array} \end{displaymath}  

W sumie pochodnych jak zwykle wyodrębniamy pierwszy wyraz (ten z B1 = -1/2). Całkę z logarytmu każdy wie jak policzyć:
$\displaystyle \sum_{k=1}^{n-1} \ln k$ = $\displaystyle \ln 1 + \ln 2 + \ldots +\ln (n-2) + \ln(n-1)$  
  = $\displaystyle n\ln n - n -\frac{\ln n}{2}$  
  + $\displaystyle \sum_{k=1}^m \frac
{B_{2k}} {2k(2k-1)n^{2k-1}}
- \sum_{k=1}^m \frac {B_{2k}}
{2k(2k-1)}+ R_m(n).$ (13)

Uff! W drugiej linijce całka i wyraz z B1, w trzeciej sumy pochodnych liczonych dla x=n i x=1, no i reszta. Zapisałem ją Rm(n), aby podkreślić, że zależy ona jednak zarówno od n jak i m. W gruncie rzeczy jednak, dla sensownych (nie drastycznie małych) m, a zwłaszcza n ta reszta jest ,,prawie'' stała. Dla $n \rightarrow \infty$ nasza reszta bardzo słabo zależy od m, a zupełnie nie zależy od n - oznaczmy ją jako $R_m(\infty)$. Od n nie zależy z całą pewnością wartość drugiej z sum w powyższym wzorze. Wprowadźmy oznaczenie:

\begin{displaymath}R_m(n) - \sum_{k=1}^m \frac {B_{2k} }
{2k(2k-1)} \equiv \sigma = \;\; \mbox{\rm stała niezależna od
}n.\end{displaymath}

I jeszcze dodajmy do obu stron równania $\ln n$. Voila!

\begin{eqnarray*}\lefteqn{ \sum_{k=1}^{n} \ln k = \ln 1 + \ln 2 + \ldots +\ln (n...
...\ln n + \sum_{k=1}^m \frac {B_{2k}}{2k(2k-1)n^{2k-1}} + \sigma.
\end{eqnarray*}


Pozostaje obłożenie obu stron powyższego wzoru funkcją wykładniczą:

\begin{displaymath}e^{\ln n!} = n! = e^{\ln n^n} \cdot e ^{-n} \cdot e^{\ln \sqrt{n}} \cdot e^\Sigma\cdot e^\sigma.
\end{displaymath} (14)

Duże $\Sigma$ w wykładniku to suma zależna od n we wzorze 14. Pierwsze jej wyrazy to

\begin{displaymath}\frac {1}{12n} - \frac{1}{360n^3} + \ldots \end{displaymath}

Już dla n=10

\begin{displaymath}e^{\frac{1}{120}} \approx 1,008 \end{displaymath}

a

\begin{displaymath}e^{-\frac{1}{36000} }\approx 0,99997. \end{displaymath}

Bez większych więc ceregieli połóżmy $e^\Sigma = 1$. A w takim razie rzeczywiście

\begin{displaymath}n! = \left( \frac n e \right)^n \sqrt{n} \cdot e^\sigma.
\end{displaymath} (15)

Wzór będzie OK jeżeli przyjąć, że

\begin{displaymath}e^\sigma = \sqrt{2\pi} .\end{displaymath} (16)

Ba, ale jak to wykombinować? Jeden ze sposobów, sprytny a w dodatku korzystający z wyniku sumowania ,,dyskretnego'' Gaussa (vide supra) znajdziesz w Matematyce Konkretnej. Nie wiem, niestety, czy tak właśnie kombinował pan S. Pewnie i nie. Ale sposób jest sprytny - warto go oglądnąć. A jeżeli Cię to wciągnie to ,,obok'' znajdziesz sposób na przybliżone (asymptotyczne) określenie n-tej liczby harmonicznej Hn:

\begin{displaymath}H_n = 1 + \frac 1 2 + \frac 1 3 + \ldots + \frac 1 n \end{displaymath}

i zrozumiesz jak wyliczono dzielnemu robaczkowi czas jego wędrówki po gumowej taśmie.

next up previous
Next: Literatura ... Up: Liczby przeróżne Previous: Liczby Bernoulliego
Andrzej Lenda
1999-08-18