Wstęp
W pracy zajmiemy się strukturą zależności jaką jest proces Markowa. Pokażemy konstrukcję
procesu Markowa opartego na kopule i zastosowanie takiego procesu w finansach. Zacznijmy zatem
od krótkiego przybliżenia, czym jest ta funkcja.
Funkcja kopuła (ang. copula) jest to funkcja, dzięki której możemy połączyć rozkład łączny
z jego rozkładami brzegowymi, krótko można powiedzieć, że jest to funkcja połączenia. W pracy
często funkcje te będziemy nazywać po prostu kopułami. Pojęcie kopuły zostało po raz pierwszy
przedstawione przez Abe Sklar’a w roku 1959 w twierdzeniu, które nosi teraz jego imię, a które
opisuje funkcje łączące dystrybuanty jednowymiarowe z dystrybuantą wielowymiarową. Mimo, że
od czasu wprowadzenia tego twierdzenia minęło już ponad 50 lat, to teoria kopuł jest to dziedzina
matematyki, która cały czas się rozwija.
Istnieje kilka struktur zależności pomiędzy zmiennymi losowymi, w których wykorzystuje się
kopuły. Jednymi z najpopularniejszych są ρ Spearmana, czy τ Kendalla (szczegóły w [11]). My
jednak zajmiemy się strukturą zależności jaką jest proces Markowa. Po raz pierwszy zastosowanie
kopuł do procesów Markowa przedstawił William Darsow w pracy „Copulas and Markov Proces-
ses” (1992). Przedstawione przez niego podejscie było nowym podejsciem do tych procesów i dało
nowe interpretacje.
W rozdziale pierwszym przedstawimy podstawowe definicje, twierdzenia oraz własności z teo-
rii funkcji kopuł. Przytoczymy najważniejsze twierdzenie w teorii kopuł - twierdzenie Sklara.
Przedstawimy klasę kopuł Archimedesa oraz wprowadzimy przykłady kopuł należących do niej na-
leżących. Dla kopuł Claytona, Gumbela i Franka podamy ich generatory, a także wyprowadzimy
wzory na te kopuły.
W rozdziale drugim wprowadzimy podstawy teorii dotyczącej procesów stochastycznych. Po-
wiemy co to jest proces stochastyczny, filtracja czy moment stopu. Przedstawimy także po krótce
jak wygląda proces Wienera i geometryczny ruch Browna, a także jaki proces możemy nazwać
procesem Markowa.
W rozdziale trzecim zajmiemy się pokazaniem związku teorii kopuł z procesami Markowa.
Wprowadzimy operację produktową ∗ wraz z podstawowymi własnościami oraz przytoczymy twier-
dzenie pokazujące związek procesu Markowa z kopułami. Wyprowadzimy także wzór na postać
kopuły zbudowanej na procesie Wienera.
W rozdziale czwartym skupimy się na konstrukcji procesów stochastycznych opartych na kopu-
łach. Przedstawimy metodę konstrukcji takich procesów oraz przedstawimy przykłady symulacji
procesów opartych na kopułach: ruchu Browna, Franka oraz Claytona.
Piąty rozdział poświęcony jest sprawdzeniu jak zachowuje się rozwiązanie równania stocha-
stycznego, gdy w miejscu procesu Wienera użyjemy pocesu kopuły ruchu Browna. Przytoczymy
podstawowe pojęcia z zakresu opcji oraz skupimy się w nim na wycenie opcji i porównaniu wartości
otrzymanych za pomocą standardowego modelu oraz przy użyciu procesu opartego na kopule.
W szóstym rozdziale podsumujemy całą pracę oraz otrzymane wyniki.
2
Na końcu pracy znajdują się załączniki. W części A znajdziemy definicje rozkładów praw-
dopodobieństwa użytych w pracy. Natomiast w części B znajdują się kody z programu R użyte
w pracy. Wszystkie wykresy użyte w pracy zostały wygenerowane samodzielnie w programie R
i kody użyte do ich otrzymania znajdują się w tej części. Środowisko R jest to bezpłatny program
używany do obliczeń statystycznych oraz prezentacji wyników. W naszym przypadku, aby uzyskać
przedstawienie graficzne kopuł użyliśmy pakietu copula.
3
Rozdział 1
Funkcja kopuła
Jak już wspomnieliśmy we wstępie, kopuły są to tak zwane funkcje połączenia. W tym rozdziale
zajmiemy się wprowadzeniem ich podstawowych definicji, twierdzeń oraz własności. Podamy także
przykłady kopuł należących do jednej z najważniejszych klas kopuł - klasy kopuł Archimedesa.
1.1 Podstawowe pojęcia
Zacznijmy od wprowadzenia oznaczeń, które będziemy stosować w całej pracy.
Niech I oznacza przedział jednostkowy [0, 1], a I2
= I × I kwadrat jednostkowy. Będziemy
korzystać z następującej notacji: R = (−∞, ∞), ¯R = [−∞, ∞] oraz ¯R2
= ¯R× ¯R. Jako dom(f) ⊂ ¯Rd
będziemy rozumieć dziedzinę funkcji f, a przez ran(f) ⊂ R jej zbiór wartości.
Niech F12(x1, x2) = P(X1 ≤ x1, X2 ≤ x2) będzie dystrybuantą łączną zmiennych losowych X1 i
X2 o dystrybuantach F1(x1) = P(X1 ≤ x1) i F2(x2) = P(X2 ≤ x2), odpowiednio, które nazywamy
dystrybuantami brzegowymi. Możemy powiedzieć, że z każdą parą liczb (x1, x2) powiązane są
trzy wartości: F1(x1), F2(x2) oraz F12(x1, x2). W związku z tym, że są to dystrybuanty możemy
zauważyć, że każda z tych liczb należy do przedziału [0, 1].
Wprowadźmy teraz definicje, które będą nam potrzebne w dalszej części.
Definicja 1. [11]
Niech S1, S2 będą niepustymi podzbiorami ¯R, niech H będzie funkcją rzeczywistą dwóch zmiennych
taką, że dom(H) = S1 × S2. Niech B = [x1, x2] × [y1, y2] będzie kwadratem, którego wszystkie
wierzchołki należą do dom(H). Wtedy H-objętość od zbioru B dana jest wzorem
VH(B) = H(x2, y2) − H(x2, y1) − H(x1, y2) + H(x1, y1). (1.1)
Definicja 2. [11]
Funkcja rzeczywista dwóch zmiennych H jest 2-rosnąca, jeżeli VH(B) ≥ 0 dla każdego kwadratu B,
którego wierzchołki leżą w dziedzinie dom(H).
Wprowadźmy teraz definicję kopuły dla przypadku dwuwymiarowego.
Definicja 3. [2]
2-wymiarową kopułą (w skrócie 2-kopułą lub kopułą) nazywamy funkcję C : I2
→ I spełniającą
następujące warunki:
1.
∀u,v∈I C(u, 0) = C(0, v) = 0 (1.2)
4
oraz
∀u,v∈I C(u, 1) = u i C(1, v) = v, (1.3)
2. ∀u1,u2,v1,v2∈I u1 ≤ u2 i v1 ≤ v2
C(u2, v2) − C(u2, v1) − C(u1, v2) + C(u1, v1) ≥ 0.
Pierwszy punkt daje nam warunki brzegowe, które gwarantują jednostajny rozkład brzegowy.
Natomiast drugi jest warunkiem monotoniczności funkcji. Dla wymiaru d > 2 definicja d-kopuły
jest następująca:
Definicja 4. [2]
D-wymiarową kopułą (d-kopułą) nazywamy funkcję C : Id
→ I spełniającą:
1. Warunki brzegowe:
(a) ∀i∀x1,...,xd
C(x1, . . . , xi−1, 0, xi+1, . . . , xd) = 0,
(b) funkcja
(x1, . . . , xi−1, xi+1, . . . , xd) → C(x1, . . . , xi−1, 1, xi+1, . . . , xd)
jest (d-1)-kopułą dla każdego i.
2. Warunek monotoniczności:
VC(R) =
K∈R
sgn(K)C(K) ≥ 0
dla każdego prostokąta R =
d
i=1[xi, yi], xi ≤ yi, gdzie K = ( 1, . . . , d) jest zbiorem jego
wierzchołków takich, że i = xi lub yi oraz
sgn(K) =
−1, jeżeli liczba współrzędnych xi spośród wszystkich
współrzędnych K jest nieparzysta,
1, w przeciwnym razie.
W teorii kopuł istnieją także pewne ograniczenia funkcji nazywane ograniczeniami Frécheta-
Hoeffdinga.
Twierdzenie 1. [10]
Dla dowolnej kopuły C(x1, . . . , xd) mamy ograniczenia
max
d
i=1
xi + 1 − d, 0 ≤ C(x1, . . . , xd) ≤ min {x1, . . . , xd} . (1.4)
Dowód powyższego twierdzenia można znaleźć w [10].
Zajmijmy się przez chwilę prawą stroną nierówności (1.4), którą nazywamy górnym ogranicze-
niem Frécheta-Hoeffdinga. Aby uprościć zapis tego ograniczenia stosujemy dla niego oznaczenie
M(x1, . . . , xd). Interpretacja geometryczna górnego ograniczenia jest taka, że powierzchnia do-
wolnej kopuły musi leżeć pod powierzchnią funkcji M lub być jej równa. W przypadku, gdy
powierzchnia kopuły jest równa górnemu ograniczeniu, to kopułę taką nazywamy kopułą wspólnie
monotoniczną (ang. comonotonicity) i określamy ją wzorem
M(x1, . . . , xd) = min {x1, . . . , xd} .
5
Gdy ograniczymy się do przypadku 2-wymiarowego to kopuła wspólnie monotoniczna jest postaci
M(x1, x2) = min {x1, x2} .
Interpretację stochastyczną tej kopuły możemy przedstawić następująco: zmienne losowe X1 i X2
połączone są ze sobą za pomocą kopuły M wtedy i tylko wtedy, gdy zmienna losowa X2 jest
prawie na pewno niemalejącą funkcją X1. Kopuła ta odnosi się do zależności deterministycznych.
Interpretacja graficzna tej kopuły przedstawiona jest na poniższym rysunku (kod z programu R
w załączniku 1A).
Rysunek 1.1: Wykres powierzchni i konturu górnego ograniczenia Frécheta
Przejdźmy teraz do lewej strony nierówności (1.4), którą nazywamy dolnym ograniczeniem
Frécheta-Hoeffdinga oraz używamy dla niego oznaczenia W(x1, . . . , xd). Interpretacja geome-
tryczna dolnego ograniczenia jest taka, że powierzchnia dowolnej kopuły musi leżeć nad powierzch-
nią funkcji W. Dla wymiaru d ≥ 3 funkcja W nie jest kopułą. W przypadku, gdy d = 2 dolne
ograniczenie Frécheta-Hoeffdinga jest kopułą postaci
W(x1, x2) = max(x1 + x2 − 1, 0).
Kopuła ta nosi nazwę kopuły przeciwnie monotonicznej (ang. countermonotonicity). Kopuła ta,
tak samo jak kopuła wspólnie monotoniczna, odnosi się do zależności deterministycznych a jej
interpretacja stochastyczna jest następująca: zmienne losowe X1 i X2 są połączone za pomocą
kopuły W wtedy i tylko wtedy, gdy X2 jest prawie na pewno nierosnącą funkcją X1. Ograniczenie
to graficznie prezentuje się następująco (kod z programu R w załączniku 1B).
Rysunek 1.2: Wykres powierzchni i konturu dolnego ograniczenia Frécheta
6
Nierówność (1.4) dla kopuł 2-wymiarowych oraz wykorzystując wprowadzone oznaczenia mo-
żemy zapisujemy następująco
W(x1, x2) ≤ C(x1, x2) ≤ M(x1, x2).
Istnieje jeszcze jedna ważna kopuła, jest to kopuła produktowa postaci
(x1, . . . , xd) =
d
i=1
xi,
nazywana kopułą niezależną. Jej interpretacja stochastyczna jest następująca: zmienne losowe X1
i X2 są połączone za pomocą kopuły wtedy i tylko wtedy, gdy zmienne te są niezależne. Kopuła
odnosi się do niezależności a nie jak to było w przypadku dwóch poprzednich kopuł do zależności
deterministycznych.
Poniższy wykres pokazuje powierzchnię kopuły niezależnej oraz jej wykres konturowy (kod z pro-
gramu R w załączniku 1C).
Rysunek 1.3: Wykres powierzchni i konturu kopuły niezależnej
Przejdźmy teraz do ważnego twierdzenia w teorii kopuł jakim jest twierdzenie Sklar’a. Twier-
dzenie to zostało po raz pierwszy sprecyzowane przez Sklar’a w roku 1959 i określa znaczenie kopuł
w badaniu dystrybuant wielowymiarowych. Dzięki temu twierdzeniu możemy zauważyć, że kopuły
razem z jednowymiarowymi dystrybuantami mogą być używane w konstrukcji wielowymiarowych
dystrybuant oraz że wszystkie wielowymiarowe dystrybuanty zawierają kopuły.
Twierdzenie 2. [10](Sklar, 1959)
Niech F12...d będzie d-wymiarową dystrybuantą łączną z dystrybuantami brzegowymi
F1, F2, . . . , Fd. Wtedy istnieje kopuła C : Id
→ I taka, że dla każdego x1, x2, . . . xd ∈ ¯R,
F12...d(x1, x2, . . . , xd) = C(F1(x1), F2(x2), . . . , Fd(xd)). (1.5)
Jeżeli F1, F2, . . . , Fd są ciągłe to kopuła C określona jest jednoznacznie; w przeciwnym razie ko-
puła C określona jest jednoznacznie na ran(F1) × ran(F2) × · · · × ran(Fd).
Odwrotnie, jeżeli C jest kopułą oraz F1, F2, . . . , Fd są dystrybuantami, wtedy funkcja F12...d okre-
ślona przez (1.5) jest dystrybuantą łączną o dystrybuantach brzegowych F1, F2, . . . , Fd.
W dowodzie twierdzenia będziemy korzystać z uogólnionej funkcji odwrotnej wprowadźmy więc
jej definicję.
Definicja 5. [10]
7
Uogólnioną funkcją odwrotną funkcji rosnącej T nazywamy funkcję postaci
T←(y) = inf{x : T(x) ≥ y},
gdzie używamy konwencji inf ∅ = ∞.
Zajmując się kopułami musimy także znać operacje takie jak transformacja kwantyla i praw-
dopodobieństwa. Są one określone w poniższym stwierdzeniu.
Stwierdzenie 1. [10]
Niech G będzie dystrybuantą oraz niech G←
oznacza jej uogólnioną funkcję odwrotną, czyli
G←
(y) = inf{x : G(x) ≥ y}.
1. Transformacja kwantyla: jeżeli U ∼ U(0, 1) ma standardowy rozkład jednostajny to
P(G←
(U) ≤ x) = G(x).
2. Transformacja prawdopodobieństwa: jeżeli zmienna losowa Y ma dystrybuantę G, gdzie G jest
ciągłą dystrybuantą jednowymiarową, to G(Y ) ∼ U(0, 1).
Dowód. twierdzenia Sklar’a [10]
Przeprowadzimy szkic dowodu. Udowodnimy istnienie i jednoznaczność kopuły w sytuacji, gdy
dystrybuanty brzegowe F1, . . . , Fd są ciągłe.
Dla dowolnych x1, . . . , xd ∈ ¯R jeżeli wektor zmiennych losowych X = (X1, . . . , Xd) ma dystrybu-
antę łączną F1...d(x1, . . . , xd), to
F1...d(x1, . . . , xd) = P(X1 ≤ x1, . . . , Xd ≤ xd)
= P(F1(X1) ≤ F1(x1), . . . , Fd(Xd) ≤ Fd(xd)).
W związku z naszym założeniem, że jednowymiarowe dystrybuanty brzegowe są ciągłe możemy
skorzystać ze Stwierdzenia 1, a dokładnie z punktu 2. o transformacji prawdopodobieństwa. Otrzy-
mujemy zatem, że dystrybuanty mają standardowe rozkłady jednostajne. Z tego oraz z definicji
kopuły otrzymujemy, że (F1(X1), . . . , Fd(Xd)) jest kopułą, którą oznaczymy przez C. Zatem otrzy-
maliśmy (1.5).
Jeżeli oszacujemy (1.5) dla argumentów xi = F←
i (ui), 0 ≤ ui ≤ 1, i = 1, . . . , d, oraz skorzystamy
z własności uogólnionej funkcji odwrotnej, która brzmi [10]:
T jest rosnącą funkcją ciągłą oraz T←
(y) < ∞ ⇒ T ◦ T←
(y) = y,
to otrzymujemy
C(u1, . . . , ud) = F(F←
1 (u1) . . . , F←
d (ud)),
co daje nam reprezentacje C względem F oraz jej rozkładów brzegowych. Otrzymujemy zatem
jednoznaczność kopuły.
Aby przeprowadzić dowód w drugą stronę załóżmy, że C jest kopułą oraz że F1, . . . , Fd są dystrybu-
antami jednowymiarowymi. Skonstruujemy wektor losowy o dystrybuancie (1.5) poprzez wzięcie
wektora losowego U o dystrybuancie C. Ustalmy także wektor
X := (F←
1 (U1), . . . , F←
d (Ud)).
Wykorzystując własność uogólnionej funkcji odwrotnej dla funkcji rosnącej i dla której zachodzi
8
T←
(y) < ∞, która brzmi [10]:
jeżeli funkcja T jest prawostronnie ciągła, T(x) ≥ y ⇔ T←
(y) ≤ x,
otrzymujemy
P(X1 ≤ x1, . . . , Xd ≤ xd) = P(F←
1 (U1) ≤ x1, . . . , F←
d (Ud) ≤ xd)
= P(U1 ≤ F1(x1), . . . , Ud ≤ Fd(xd))
= C(F1(x1), . . . , Fd(xd)).
Zatem dowód twierdzenia został zakończony
Możemy także zauważyć kilka własności jakimi charakteryzują się kopuły. Przedstawimy je dla
przypadku dwuwymiarowego, jednak można je uogólnić dla przypadków wielowymiarowych.
Niech C oznacza zbiór wszystkich kopuł określonych na kwadracie jednostkowym I2
oraz niech
C ∈ C.
Własność 1.[2]
Dla dowolnych u1 i u2 spełniających zależność 0 ≤ u1 ≤ u2 ≤ 1, funkcja
v → C(u2, v) − C(u1, v) (1.6)
jest niemalejąca. Analogicznie dla dowolnych v1 oraz v2 spełniających zależność 0 ≤ v1 ≤ v2 ≤ 1,
funkcja
u → C(u, v2) − C(u, v1) (1.7)
jest funkcją niemalejącą.
Obie własności wynikają wprost z definicji kopuły, a dokładnie z warunku na monotoniczność
funkcji.
Własność 2.[2]
Dla każdego u1, u2 ∈ [0, 1] spełniających 0 ≤ u1 ≤ u2 ≤ 1 oraz dla każdego v ∈ [0, 1] zachodzi
0 ≤ C(u2, v) − C(u1, v) ≤ u2 − u1. (1.8)
Analogicznie, dla każdego v1, v2 ∈ [0, 1] spełniających 0 ≤ v1 ≤ v2 ≤ 1 oraz dla każdego u ∈ [0, 1]
zachodzi
0 ≤ C(u, v2) − C(u, v1) ≤ v2 − v1. (1.9)
Dowód. Nierówność (1.8) otrzymujemy poprzez podstawienie do (1.6) najpierw v = 0 a następnie
v = 1, gdyż v ∈ [0, 1] oraz poprzez skorzystanie z warunków brzegowych i połączenie otrzymanych
nierówności. Czyli
v = 0 C(u2, 0) − C(u1, 0) = 0,
v = 1 C(u2, 1) − C(u1, 1) = u2 − u1,
zatem ze względu na zmienną v otrzymujemy ograniczenia
0 ≤ C(u2, v) − C(u1, v) ≤ u2 − u1.
9
Nierówność (1.9) otrzymujemy analogicznie, dla zmiennej u ∈ [0, 1], czyli
u = 0 C(0, v2) − C(0, v1) = 0,
u = 1 C(1, v2) − C(1, v1) = v2 − v1,
zatem ze względu na zmienną u otrzymujemy ograniczenia
0 ≤ C(u, v2) − C(u, v1) ≤ v2 − v1.
Własność 3.[2]
Dla każdego u1, u2, v1, v2 ∈ [0, 1]
|C(u2, v2) − C(u1, v1)| ≤ |u1 − u2| + |v1 − v2|. (1.10)
Widzimy z tej nierówności, że kopuły są funkcjami ciągłymi w sensie Lipschitza, ponieważ stała
Lipschitza wynosi 1.
Dowód. Nierówność (1.10) wynika z nierówności (1.8) i (1.9).
Własność 4.[2]
Dla każdego u ∈ [0, 1] funkcja v → C(u, v) jest niemalejąca. Analogicznie dla każdego v ∈ [0, 1]
funkcja u → C(u, v) jest także niemalejąca.
Dowód. Powyższe rezultaty otrzymujemy jako specjalne przypadki funkcji z Własności 1. Uzysku-
jemy je poprzez wzięcie u1 = 0 dla funkcji (1.6) oraz v1 = 0 dla funkcji (1.7).
Z własności tych będziemy korzystać w dalszej części pracy.
1.2 Pochodne kopuł
Z definicji kopuł wiemy, że są one funkcjami monotonicznymi. W związku z tym są one różniczko-
walne prawie wszędzie [9], czyli możemy określić ich pochodne cząstkowe. Poprzez C,1 będziemy
oznaczać pochodną względem pierwszego argumentu, czyli
C,1(u, v) =
∂C(u, v)
∂u
.
Poprzez C,2 oznaczymy pochodną cząstkową względem drugiego argumentu
C,2(u, v) =
∂C(u, v)
∂v
oraz przez oznaczymy C,12 pochodną cząstkową mieszaną rzędu drugiego, czyli
C,12(u, v) =
∂2
C(u, v)
∂u∂v
.
Pochodne te będą nam potrzebne, aby zdefiniować operację produktową na kopułach. Najpierw
jednak zauważmy pewne własności, jakie wykazują te pochodne, a które będą nam przydatne
w dalszej części pracy. Własności pochodnych tak jak i przedstawione wcześniej własności kopuł
10
przedstawimy dla przypadku dwuwymiarowego, jednak można je uogólnić dla przypadków wielo-
wymiarowych.
Twierdzenie 3. [11]
Niech C będzie kopułą. Dla dowolnego v ∈ I pochodna cząstkowa C,1(u, v) istnieje dla prawie
wszystkich u względem miary Lebesgue’a. Dla takich u i v zachodzi
0 ≤ C,1(u, v) ≤ 1. (1.11)
Podobnie dla dowolnego u ∈ I pochodna cząstkowa C,2(u, v) istnieje dla prawie wszystkich v wzglę-
dem miary Lebesgue’a. Dla takich u i v zachodzi
0 ≤ C,2(u, v) ≤ 1. (1.12)
Co więcej funkcje u → C,2(u, v) i v → C,1(u, v) można określić i są niemalejące prawie wszędzie
na I.
Dowód. [2],[11]
W związku z tym, że kopuły jako funkcje monotoniczne są różniczkowalne prawie wszędzie [9] to
od razu otrzymujemy istnienie pochodnych cząstkowych C,1(u, v) i C,2(u, v).
Nierówności (1.11) i (1.12) wynikają z Własności 3 poprzez wzięcie v1 = v2 dla (1.11) i u1 = u2
dla (1.12). Dla ustalonego v1 pochodna cząstkowa C,1(u, v1) istnieje dla u ∈ Iv1
⊆ I oraz miara
Lebesgue’a zbioru Iv1
wynosi Leb(Iv1
) = 1. Tak samo dla ustalonego v2 pochodna cząstkowa
C,1(u, v2) istnieje dla u ∈ Iv2
⊆ I oraz miara Lebesgue’a zbioru Iv2
wynosi Leb(Iv2
) = 1. Zatem,
gdy v1 ≤ v2 otrzymujemy, że pochodna
[C(u, v2) − C(u, v1)],1 = C,1(u, v2) − C,1(u, v1) ≥ 0 (1.13)
istnieje dla zbioru Iv1
∩ Iv2
, gdy u ∈ Iv1
∩ Iv2
.
Gdy Y jest gęstym i przeliczalnym podzbiorem I, to zbiór
J =
v∈Y
Iv,
ma miarę Lebesgue’a równą Leb(J) = 1. Dla wszystkich v ∈ Y i u ∈ J pochodna C,1(u, v) istnieje.
Z (1.13) wynika, że funkcja Y v → C,1(u, v) jest niemalejąca dla u ∈ J. Czyli funkcję
Y v → C,1(u, v)
można zdefiniować i jest ona niemalejąca prawie wszędzie dla v ∈ I i dla prawie wszystkich u ∈ J.
Analogiczne rezultaty otrzymujemy dla funkcji u → C,2(u, v).
Z powyższego twierdzenia otrzymujemy następujący wniosek.
Wniosek 1.
Dla funkcji (1.6) oraz (1.7) zachodzi
[C(u2, v) − C(u1, v)],2 ≥ 0 jeżeli u1 ≤ u2, (1.14)
[C(u, v2) − C(u, v1)],1 ≥ 0 jeżeli v1 ≤ v2. (1.15)
11
1.3 Klasa kopuł Archimedesa
Klasa kopuł Archimedesa jest ważną klasą kopuł, gdyż kopuły te znajdują wiele zastosowań. Zwią-
zane jest to z tym, że stosunkowo łatwo można je skonstruować oraz klasa ta jest złożona z wielu
rodzin kopuł a co za tym idzie występuje duża różnorodność rodzin. Kopuły należące do klasy
kopuł Archimedesa posiadają także wiele przydatnych własności.
Zacznijmy od wprowadzenia definicji funkcji pseudo-odwrotnej, która jest wykorzystywana
w postaci kopuł z klasy kopuł Archimedesa.
Definicja 6. [11]
Niech ϕ będzie ciągłą, ściśle malejącą funkcją ϕ : I → [0, ∞] taką, że ϕ(1) = 0. Pseudo-odwrotnością
ϕ jest funkcja ϕ[−1]
o dziedzinie [0, ∞) i zbiorze wartości I określoną przez
ϕ[−1]
(t) =
ϕ−1
(t), 0 ≤ t ≤ ϕ(0),
0, ϕ(0) ≤ t ≤ ∞.
(1.16)
Wprost z definicji wynika kilka własności tej funkcji. Mianowicie funkcja ϕ[−1]
jest ciągła
i nierosnąca na odcinku [0, ∞] oraz ściśle malejąca na odcinku [0, ϕ(0)]. Otrzymujemy także, że
ϕ[−1]
(ϕ(u)) = u na całym odcinku I, oraz
ϕ(ϕ[−1]
(t)) =
t, 0 ≤ t ≤ ϕ(0)
ϕ(0), ϕ(0) ≤ t ≤ ∞
= min(t, ϕ(0)).
W sytuacji, gdy ϕ(0) = ∞, to ϕ[−1]
= ϕ−1
.
Lemat 1. [11]
Niech ϕ będzie ciągłą, ściśle malejącą funkcją ϕ : I → [0, ∞] taką, że ϕ(1) = 0 oraz niech ϕ[−1]
będzie funkcją pseudo-odwrotną funkcji ϕ zdefiniowaną poprzez (1.16). Niech C będzie funkcją
C : I2
→ I określoną przez
C(u, v) = ϕ[−1]
(ϕ(u) + ϕ(v)). (1.17)
Wtedy C spełnia warunki brzegowe dla kopuł.
Dowód. Jako pierwsze sprawdźmy, czy funkcja spełnia warunek (1.2). Wobec tego
C(u, 0) = ϕ[−1]
(ϕ(u) + ϕ(0)),
argument funkcji pseudo-odwrotnej jest postaci
t = ϕ(u) + ϕ(0),
czyli
t ≥ ϕ(0).
Zatem z definicji otrzymujemy, że
C(u, 0) = ϕ[−1]
(ϕ(u) + ϕ(0)) = 0.
Z symetrii mamy także C(0, v) = 0, czyli warunek ten jest spełniony. Sprawdźmy teraz, czy funkcja
12
spełnia warunek (1.3):
C(u, 1) = ϕ[−1]
(ϕ(u) + ϕ(1)) = ϕ[−1]
(ϕ(u) + 0)
= ϕ[−1]
(ϕ(u)) = u
Z symetrii otrzymujemy C(1, v) = v. Zatem warunek (1.3) także jest spełniony. Otrzymaliśmy
więc, że funkcja postaci C(u, v) = ϕ[−1]
(ϕ(u) + ϕ(v)) spełnia warunki brzegowe (1.2) i (1.3).
Lemat 2. [11]
Niech ϕ będzie ciągłą, ściśle malejącą funkcją ϕ : I → [0, ∞] taką, że ϕ(1) = 0 oraz niech ϕ[−1]
będzie funkcją pseudo-odwrotną funkcji ϕ zdefiniowaną poprzez (1.16). Niech C będzie funkcją
C : I2
→ I określoną przez
C(u, v) = ϕ[−1]
(ϕ(u) + ϕ(v)) (1.18)
spełniającą warunki brzegowe (1.2) i (1.3). Wtedy C jest 2-rosnąca wtedy i tylko wtedy, gdy dla
każdego v ∈ I oraz u1 ≤ u2
C(u2, v) − C(u1, v) ≤ u2 − u1. (1.19)
Dowód. Pokażemy, że nierówność (1.19) jest równoważna VC([u1, u2] × [v, 1]) ≥ 0, czyli
VC([u1, u2] × [v, 1]) = C(u2, 1) − C(u2, v) − C(u1, 1) + C(u1, v) ≥ 0
u2 − C(u2, v) − u1 + C(u1, v) ≥ 0
C(u1, v) − C(u2, v) ≥ u1 − u2
C(u2, v) − C(u1, v) ≤ u2 − u1.
Zatem nierówność ta zachodzi zawsze, gdy funkcja C jest 2-rosnąca. Stąd załóżmy, że C spełnia
nierówność (1.19). Wybierzmy v1, v2 ∈ I takie, że v1 ≤ v2 oraz zauważmy, że C(0, v2) = 0 ≤ v1 ≤
v2 = C(1, v2). Funkcja C jest ciągła, ponieważ funkcje ϕ i ϕ[−1]
są ciągłe, czyli istnieje t ∈ I takie,
że
C(t, v2) = v1
lub w równoważnej postaci otrzymujemy
C(t, v2) = ϕ[−1]
(ϕ(v2) + ϕ(t)) = v1
ϕ(ϕ[−1]
(ϕ(v2) + ϕ(t))) = ϕ(v1)
ϕ(v2) + ϕ(t) = ϕ(v1).
A stąd otrzymujemy
C(u2, v1) − C(u1, v1) = ϕ[−1]
(ϕ(u2) + ϕ(v1)) − ϕ[−1]
(ϕ(u1) + ϕ(v1))
= ϕ[−1]
(ϕ(u2) + ϕ(v2) + ϕ(t)) − ϕ[−1]
(ϕ(u1) + ϕ(v2) + ϕ(t))
= ϕ[−1]
ϕ ϕ[−1]
(ϕ(u2) + ϕ(v2)) + ϕ(t) +
−ϕ[−1]
ϕ ϕ[−1]
(ϕ(u1) + ϕ(v2)) + ϕ(t)
= C(C(u2, v2), t) − C(C(u1, v2), t)
≤ C(u2, v2) − C(u1, v2).
Zatem otrzymaliśmy, że C jest funkcją 2-rosnącą.
13
Przejdźmy teraz do twierdzenia dzięki któremu otrzymujemy, że funkcja (1.17) jest kopułą. Dla
kopuł, które daje się przedstawić w tej postaci używamy nazwy kopuł Archimedesa.
Twierdzenie 4. [11]
Niech ϕ będzie ciągłą, ściśle malejącą funkcją ϕ : I → [0, ∞] taką, że ϕ(1) = 0 oraz niech ϕ[−1]
będzie funkcją pseudo-odwrotną funkcji ϕ zdefiniowaną poprzez (1.16). Wtedy funkcja C : I2
→ I
określona przez C(u, v) = ϕ[−1]
(ϕ(u) + ϕ(v)) jest kopułą wtedy i tylko wtedy, gdy ϕ jest funkcją
wypukłą.
Zanim przejdziemy do dowodu tego twierdzenia przypomnijmy definicję funkcji wypukłej.
Definicja 7. [3]
Funkcję f(x) określoną i ciągłą w przedziale A nazywamy wypukłą jeżeli dla dowolnych punktów
x1, x2 ∈ A nierówność
f(αx1 + βx2) ≤ αf(x1) + βf(x2)
jest spełniona dla wszystkich liczb dodatnich α i β takich, że α + β = 1.
Powyższe twierdzenie zostało po raz pierwszy udowodnione przez Alsina et al. w 2005, my
bazujemy na dowodzie Nelsena z 2006. Przejdźmy zatem do dowodu.
Dowód. W Lemacie 1 udowodniliśmy już, że funkcja C spełnia warunki brzegowe występujące
w definicji kopuły. Zostaje nam tylko udowodnić, że (1.19) zachodzi wtedy i tylko wtedy, gdy
funkcja ϕ jest funkcją wypukłą.
⇒
Po podstawieniu do nierówności (1.19) wzoru na funkcję C dla u1 ≤ u2 otrzymujemy odpowiednik
tej nierówności
ϕ[−1]
(ϕ(u2) + ϕ(v)) − ϕ[−1]
(ϕ(u1) + ϕ(v)) ≤ u2 − u1
u1 + ϕ[−1]
(ϕ(u2) + ϕ(v)) ≤ u2 + ϕ[−1]
(ϕ(u1) + ϕ(v)).
Jeżeli teraz oznaczymy a = ϕ(u1), b = ϕ(u2) oraz c = ϕ(v) a następnie podstawimy te oznaczenia
do powyższej nierówności to otrzymujemy, że nierówność (1.19) jest równoważna z
ϕ[−1]
(a) + ϕ[−1]
(b + c) ≤ ϕ[−1]
(b) + ϕ[−1]
(a + c), (1.20)
gdzie a ≥ b i c ≥ 0. Załóżmy teraz, że funkcja pseudo-odwrotna ϕ[−1]
spełnia nierówność (1.20).
Wybierzmy dowolne s, t ∈ [0, ∞) spełniające 0 ≤ s < t. Jeżeli ustalimy a = s+t
2 , b = s i c = t−s
2
oraz podstawimy te wartości do nierówności (1.20) to otrzymujemy
ϕ[−1] s + t
2
+ ϕ[−1]
s +
t − s
2
≤ ϕ[−1]
(s) + ϕ[−1] s + t
2
+
t − s
2
ϕ[−1] s + t
2
+ ϕ[−1] s + t
2
≤ ϕ[−1]
(s) + ϕ[−1]
(t)
ϕ[−1] s + t
2
≤
ϕ[−1]
(s) + ϕ[−1]
(t)
2
ϕ[−1] 1
2
s +
1
2
t ≤
1
2
ϕ[−1]
(s) +
1
2
ϕ[−1]
(t).
Ponieważ funkcja ϕ[−1]
jest funkcją ciągłą to z powyższego wynika, że jest funkcją wypukłą.
⇐
14
Załóżmy, że funkcja ϕ[−1]
jest funkcją wypukłą. Ustalmy a, b, c ∈ I takie, że a ≥ b, c ≥ 0. Niech
γ = a−b
a−b+c . Przekształcimy teraz wzór na γ tak aby otrzymać wzory na a i b + c.
(a − b + c)γ = a − b
aγ − bγ + cγ = a − b
aγ + b − bγ + cγ = a
a = b(1 − γ) + γ(a + c).
Teraz wyznaczymy wzór na b + c
(a − b + c)γ = a − b
aγ + b − bγ + cγ + c − c = a
b + c = a + c − aγ + bγ − cγ
b + c = a(1 − γ) + c(1 − γ) + bγ
b + c = (1 − γ)(a + c) + bγ.
Stąd nakładając na otrzymane wartości a i b+c funkcję pseudo-odwrotną otrzymujemy nierówności
ϕ[−1]
(a) ≤ (1 − γ)ϕ[−1]
(b) + γϕ[−1]
(a + c)
oraz
ϕ[−1]
(b + c) ≤ γϕ[−1]
(b) + (1 − γ)ϕ[−1]
(a + c).
Dodajmy teraz powyższe nierówności
ϕ[−1]
(a) + ϕ[−1]
(b + c) ≤ (1 − γ)ϕ[−1]
(b) + γϕ[−1]
(a + c) +
+ γϕ[−1]
(b) + (1 − γ)ϕ[−1]
(a + c)
ϕ[−1]
(a) + ϕ[−1]
(b + c) ≤ ϕ[−1]
(b) + ϕ[−1]
(a + c).
Otrzymaliśmy zatem nierówność (1.20), która była równoważna nierówności (1.19). Zatem dowód
został zakończony.
Kopuły, które możemy przedstawić w postaci (1.17) nazywane są kopułami Archimedesa.
Definicja 8. [10]
Ciągłą, ściśle malejącą funkcję wypukłą ϕ : [0, 1] → [0, ∞] spełniającą ϕ(1) = 0 nazywamy genera-
torem kopuły Archimedesa. Jeżeli ϕ(0) = ∞ to mówimy, że ϕ jest generatorem ścisłym.
W sytuacji, gdy badany generator okaże się generatorem ścisłym to możemy przyjąć ϕ[−1]
=
ϕ−1
. Zatem kopułę możemy przedstawić w postaci C(u, v) = ϕ−1
(ϕ(u) + ϕ(v)). Takie kopuły mo-
żemy nazywać ścisłymi kopułami Archimedesa.
Przejdziemy teraz do przykładów rodzin, które należą do klasy kopuł Archimedesa. Znając
generatory (Nelsen, 2006) wyprowadzimy wzory dla trzech rodzin kopuł, a mianowicie dla rodziny
kopuł Claytona, Gumbela i Franka. Każda z tych rodzin należy do rodzin kopuł jednoparame-
trycznych, gdzie parametr θ mówi o stopniu zależności pomiędzy rozkładami brzegowymi. Więcej
przykładów kopuł należących do tej klasy wraz z ich generatorami można znaleźć w [11].
15
1.3.1 Kopuła Claytona
Generator rodziny kopuł Claytona jest postaci [11]:
ϕθ(t) =
t−θ
− 1
θ
, θ ∈ [−1, ∞)\{0}.
Sprawdzimy najpierw, czy generator ten jest generatorem ścisłym
ϕθ(0) =
0−θ
− 1
θ
= −
1
θ
.
Generator w punkcie 0 jest rożny od ∞, czyli nie jest generatorem ścisłym. Zatem dla t ∈ [0, −1
θ ]
funkcja pseudo-odwrotna wynosi ϕ−1
(t), a dla t ∈ [−1
θ , ∞] wynosi 0. Możemy zatem zapisać ją
w postaci
ϕ[−1]
(t) = max{ϕ−1
(t), 0}.
Wyznaczmy teraz funkcję odwrotną dla generatora
ϕθ(t) =
t−θ
− 1
θ
θ · ϕθ(t) + 1 = t−θ
=
1
t
θ
(θ · ϕθ(t) + 1)
1
θ =
1
t
t = (θ · ϕθ(t) + 1)− 1
θ .
Zatem funkcja pseudo-odwrotna jest postaci
ϕ[−1]
(t) = max{(θt + 1)− 1
θ , 0}.
Podstawimy teraz otrzymaną funkcję do wzoru na kopułę (1.17)
CCl
θ (u, v) = ϕ[−1]
(ϕ(u) + ϕ(v))
= ϕ[−1]
(
u−θ
− 1
θ
+
v−θ
− 1
θ
)
= ϕ[−1]
(
u−θ
+ v−θ
− 2
θ
)
= max{(θ ·
u−θ
+ v−θ
− 2
θ
+ 1)− 1
θ , 0}
= max{(u−θ
+ v−θ
− 1)− 1
θ , 0}.
Otrzymaliśmy zatem wzór ogólny na rodzinę kopuł Claytona dla parametru
θ ∈ [−1, ∞)\{0}. W przypadku, gdy parametr θ → 0 możemy mówić o kopule, która posiada
niezależne rozkłady brzegowe. Na poniższych wykresach pokazane są gęstość rozkładu kopuły
Claytona oraz 1000 elementowa próba losowa z kopuły Claytona (w obu przypadkach parametr
θ = 5, rozkładami brzegowymi są standardowe rozkłady jednostajne).
16
a b
Rysunek 1.4: Kopuła Claytona (a) wykres gęstości, (b) próba losowa 1000 elementowa
Kody z programu R generujące powyższe wykresy znajdują się w załączniku 2A.
1.3.2 Kopuła Gumbela
Generator kopuły Gumbela jest postaci [11]:
ϕθ(t) = (− ln t)θ
, θ ∈ [1, ∞).
Jako pierwsze sprawdzimy, czy generator ten jest generatorem ścisłym. Zatem
ϕθ(0) = (− ln 0)θ
= ∞,
wartość funkcji w punkcie 0 wynosi ∞, czyli otrzymaliśmy generator ścisły. W takim przypadku
funkcja pseudo-odwrotna jest równa funkcji odwrotnej dla każdego t. Wyznaczmy więc funkcję
odwrotną do funkcji ϕ
ϕθ(t) = (− ln t)θ
−ϕθ(t)
1
θ = ln t
t = e−ϕθ(t)
1
θ
.
Wyznaczyliśmy funkcję odwrotną postaci ϕ−1
θ (t) = e−t
1
θ
i możemy wstawić ją do wzoru na kopułę
(1.17). Zatem
CGu
θ (u, v) = ϕ[−1]
(ϕ(u) + ϕ(v))
= ϕ−1
((− ln u)θ
+ (− ln v)θ
)
= exp{−((− ln u)θ
+ (− ln v)θ
)
1
θ }.
Czyli otrzymaliśmy wzór na rodzinę kopuł Gumbela zależną od parametru θ ∈ [1, ∞). W przy-
padku, gdy wartość parametru θ wynosi 1 to otrzymujemy kopułę o niezależnych rozkładach brze-
gowych. Na poniższych wykresach widzimy wykres gęstości kopuły Gumbela oraz 1000 elementową
próbę losową z tej kopuły, dla obu wykresów przyjęliśmy θ = 5 oraz rozkładami brzegowymi są
standardowe rozkłady jednostajne.
17
a b
Rysunek 1.5: Kopuła Gumbela (a) wykres gęstości, (b) próba losowa 1000 elementowa
Kod dla programu R, z którego otrzymaliśmy powyższe wykresy można znaleźć w załączniku 2B.
1.3.3 Kopuła Franka
Generator dla rodziny kopuł Franka ma postać [11]:
ϕθ(t) = − ln
e−θt
− 1
e−θ − 1
, θ ∈ (−∞, ∞)\{0}.
Sprawdzimy, czy generator jest generatorem ścisłym
ϕθ(0) = − ln
e−θ·0
− 1
e−θ − 1
= ∞.
Tak jak i dla kopuły Gumbela wartość funkcji w punkcie 0 wynosi ∞, zatem generator ϕ jest
generatorem ścisłym i funkcja pseudo-odwrotna jest równa funkcji odwrotnej. Wyznaczymy zatem
funkcję odwrotną:
ϕθ(t) = − ln
e−θt
− 1
e−θ − 1
−ϕθ(t) = ln
e−θt
− 1
e−θ − 1
e−ϕθ(t)
=
e−θt
− 1
e−θ − 1
(e−θ
− 1)e−ϕθ(t)
+ 1 = e−θt
ln[(e−θ
− 1)e−ϕθ(t)
+ 1] = ln e−θt
−θt = ln[(e−θ
− 1)e−ϕθ(t)
+ 1]
t = −
ln[(e−θ
− 1)e−ϕθ(t)
+ 1]
θ
.
Czyli funkcja odwrotna jest postaci
ϕ−1
θ (t) = −
1
θ
ln[(e−θ
− 1)e−t
+ 1].
18
Tak wyznaczoną funkcję możemy wstawić do wzoru na kopułę
CF r
θ (u, v) = ϕ[−1]
(ϕ(u) + ϕ(v))
= ϕ−1
(ϕ(u) + ϕ(v))
= ϕ−1
− ln
e−θu
− 1
e−θ − 1
− ln
e−θv
− 1
e−θ − 1
= ϕ−1
ln
e−θ
− 1
e−θu − 1
− ln
e−θv
− 1
e−θ − 1
= ϕ−1
ln
e−θ
− 1
e−θu − 1
·
e−θ
− 1
e−θv − 1
= ϕ−1
ln
(e−θ
− 1)2
(e−θu − 1)(e−θv − 1)
= −
1
θ
ln 1 + (e−θ
− 1)e
− ln
(e−θ−1)2
(e−θu−1)(e−θv−1)
= −
1
θ
ln 1 + (e−θ
− 1)
(e−θu
− 1)(e−θv
− 1)
(e−θ − 1)2
= −
1
θ
ln 1 +
(e−θu
− 1)(e−θv
− 1)
(e−θ − 1)
.
Otrzymaliśmy zatem wzór na kopuły należące do rodziny kopuł Franka w zależności od para-
metru θ ∈ (−∞, ∞)\{0}. Poniższe wykresy przedstawiają gęstość kopuły oraz 1000-elementową
próbę losową, gdy za parametr θ przyjęliśmy wartość 5 oraz użyliśmy jednostajnych rozkładów
brzegowych.
a b
Rysunek 1.6: Kopuła Franka (a) wykres gęstości, (b) próba losowa 1000 elementowa
W załączniku 2C znajduje się kod ze środowiska R, dzięki któremu otrzymaliśmy powyższe
wykresy.
19
Rozdział 2
Procesy stochastyczne
Zaczniemy od ogólnego wprowadzenia do procesów stochastycznych, a następnie przejdziemy do
przykładów procesów takich jak proces Wienera, czy geometryczny ruch Browna. Powiemy także
jaki proces możemy nazwać procesem Markowa.
2.1 Proces stochastyczny
Możemy powiedzieć, że procesy stochastyczne jest to teoria zajmująca się badaniem ciągów
zmiennych losowych {Xt}t∈T określonych na danej przestrzeni probabilistycznej (Ω, F, P), gdzie
t ∈ T zazwyczaj oznacza czas. Można także powiedzieć, że jest to matematyczna teoria służąca
do opisu modelowania i prognozy zjawisk losowych podlegających ewolucji. Przykładami procesów
mogą być ceny akcji na giełdzie, kursy walut, gra hazardowa, wartość temperatury itp.. W pracy
proces stochastyczny w skrócie będziemy nazywać procesem.
Niech (Ω, F, P) będzie przestrzenią probabilistyczną, gdzie Ω jest to zbiór zdarzeń elementar-
nych, F jest to σ-ciało zdarzeń, a P jest miarą probabilistyczną. Gdy proces przebiega w czasie to
możemy wyróżnić dwa rodzaje czasu: czas dyskretny i czas ciągły. O czasie dyskretnym mówimy,
gdy zjawisko badamy w ustalonych momentach, wtedy zbiór chwil jest zbiorem przeliczalnym i za-
zwyczaj w postaci T ⊆ {0, 1, . . .}∪{∞}. Natomiast o czasie ciągłym mówimy, gdy badamy zjawisko
stale i wtedy zbiór chwili jest zbiorem zawartym w [−∞, ∞], zazwyczaj przyjmuje się T = [0, ∞)
lub T = [0, T]. Dla tak określonej przestrzeni możemy wprowadzić pojęcie filtracji.
Definicja 9. [6]
Filtracją nazywamy niemalejącą rodzinę σ-ciał F = (Ft)t∈T , gdzie Fs ⊂ Ft ⊂ F dla s < t; s, t ∈ T.
Możemy powiedzieć, że filtracja niesie informację o procesie do chwili t, gdyż w chwili obecnej
wiemy jaki był stan procesu wcześniej i czy dane zdarzenie zaszło. Znając definicję filtracji możemy
zdefiniować, czym jest proces stochastyczny.
Definicja 10. [7]
Rodzinę zmiennych losowych (Xt)t∈T nazywamy procesem stochastycznym. Proces jest adaptowany
do filtracji F = (Ft)t∈T , jeśli dla każdego t ∈ T zmienna losowa Xt jest Ft-mierzalna.
Funkcja t → X(·, ω) dla ustalonego zdarzenia ω nazywana jest realizacją procesu stochastycz-
nego lub trajektorią procesu. Interpretacja trajektorii jest taka, że funkcja ta mówi nam o przebiegu
badanego zjawiska w czasie dla konkretnego zdarzenia ω. Gdy badamy proces z czasem ciągłym,
to proces taki ma trajektorie ciągłe.
Gdy zbiór chwil T jest zbiorem przeliczalnym, to możemy mówić o procesie stochastycznym
20
X jako o ciągu losowym w postaci X1, X2, . . . . Ważnymi pojęciami są także przestrzeń stanów
oraz stany procesu. Możemy powiedzieć, że pojęcie stanów procesu jest tym samym co wartość
zmiennej losowej, natomiast zmianę stanów procesu nazywamy przejściem.
Definicja 11. [12]
Jeśli dla każdego t ∈ T funkcja X : T ×Ω → X, przekształca zbiór T ×Ω na zbiór X, to X nazywamy
przestrzenią stanu procesu stochastycznego, a elementy zbioru X stanami procesu stochastycznego.
Przejdźmy teraz do określenia pojęcia czasu stopu procesu. Ogólnie mówiąc czas stopu jest
to moment, w którym proces osiągnie satysfakcjonujący nas wynik (ustalone wcześniej bariery)
i zostanie przerwany. Formalna definicja brzmi:
Definicja 12. [6]
Czasem stopu względem filtracji (Ft)t∈T nazywamy zmienną losową τ : Ω → T ∪{+∞}, spełniającą
warunek
{τ ≤ t} ∈ Ft
dla wszystkich t ∈ T.
Dla czasu stopu można również użyć nazwy jak moment stopu, moment zatrzymania czy mo-
ment Markowa. Wprowadźmy jeszcze definicję na martyngał.
Definicja 13. [6]
Rodzina (Xt, Ft)t∈T , gdzie zmienne losowe Xt są całkowalne dla t ∈ T jest martyngałem, jeśli dla
s ≤ t, s, t ∈ T
E(Xt|Fs) = Xs.
2.2 Proces Markowa
Jednym z rodzajów procesów stochastycznych jest proces Markowa. Jest to dość popularny
proces, gdyż charakteryzuje się on tak zwanym brakiem pamięci. Zacznijmy więc od wprowadzenia
formalnej definicji.
Definicja 14. [11]
Proces Xt, t ∈ T jest procesem Markowa jeżeli dla każdego skończonego podzbioru {t1, t2, . . . , tn}
zbioru T oraz dla dowolnego t ∈ T takiego, że t1 < t2 < . . . < tn < t zachodzi
P(Xt ≤ x|Xt1
= x1, Xt2
= x2, . . . , Xtn
= xn) = P(Xt ≤ x|Xtn
= xn). (2.1)
Warunek (2.1) nazywany jest własnością Markowa. Powyższą własność możemy rozumieć w na-
stępujący sposób:
stan procesu stochastycznego X w badanej chwili t jest zależny od tego jaki był stan tego procesu
w chwili tn, natomiast nie jest zależny od stanów procesu we wszystkich chwilach wcześniejszych
niż chwila tn, czyli nie zależy od chwil t1, t2, . . . , tn−1.
W sytuacji, gdy chwilę t nazwiemy przyszłością, chwilę tn teraźniejszością oraz chwile t1, . . . , tn−1
przeszłością własność Markowa możemy rozumieć następująco:
procesem Markowa nazywamy taki proces stochastyczny X, którego stan w przyszłości jest za-
leżny od stanu w teraźniejszości i nie jest zależny od stanów z przeszłości.
21
2.3 Proces Wienera
Proces Wienera jest to matematyczny model fizycznego zjawiska ruchu cząsteczek zawieszonych
w cieczy nazywanego ruchem Browna. Aby móc powiedzieć, że proces stochastyczny jest procesem
Wienera musi on spełniać poniższą definicję:
Definicja 15. [6]
Standardowym procesem Wienera nazywamy proces W spełniający następujące warunki:
1. W0 = 0,
2. przyrosty procesu są niezależne, czyli jeśli 0 < t1 < . . . < tn, to zmienne losowe
Wt1
, Wt2
− Wt1
, . . . , Wtn
− Wtn−1
są niezależne,
3. dla wszystkich t oraz dla u ≥ 0
Wt+u − Wu ∼ N(0, t),
gdzie parametr t oznacza wariancję,
4. trajektorie procesu są ciągłe.
Na rysunku 2.1 widzimy 15 niezależnych symulacji trajektorii procesu Wienera (kod z pro-
gramu R w załączniku 3).
Rysunek 2.1: Realizacje jednowymiarowego procesu Wienera
Proces Wienera jest przykładem procesu Markowa (Shmitz, 2003; za Karatzas i Shreve, 2000),[7].
Wiemy także, że chociaż trajektorie procesu są ciągłe to są one nieróżniczkowalne (dowód tego
można znaleźć w [6]). Proces ten wykorzystamy w następnej części tego rozdziału, aby otrzymać
geometryczny ruch Browna.
22
2.4 Geometryczny ruch Browna
Zajmiemy się teraz procesem stochastycznym, który nosi nazwę geometrycznego ruchu Browna.
Proces ten znajduje zastosowanie do modelowania procesów, których wartości nigdy nie schodzą
poniżej zera. Przykładem takiego procesu może być proces ceny akcji, który zawsze jest dodatni.
W związku z tym geometryczny ruch Browna znajduje zastosowanie przy wycenie opcji w modelu
Blacka-Scholesa (model ten omówimy w rozdziale 5.2).
Definicja 16. [7]
Mówimy, że proces stochastyczny St jest geometrycznym ruchem Browna, gdy jest on postaci
St = S0e((µ− σ2
2 )t+σWt)
,
gdzie St oznacza cenę akcji w chwili t, S0 jest to cena akcji w chwili 0. Przez µ oznaczamy dryft,
przez σ oznaczamy zmienność ceny, natomiast Wt jest to proces Wienera.
Wartość parametru σ zazwyczaj mieści się w przedziale [0, 15; 0, 6]. Powyższe równanie jest
rozwiązaniem równania stochastycznego postaci
dSt = µStdt + σStdWt. (2.2)
Pokażemy teraz własność rozwiązania tego równania: zmienna losowa St
S0
ma rozkład logaryt-
micznie normalny. Skoro zmienna losowa ma mieć rozkład logarytmicznie normalny to znaczy, że
logarytm tej zmiennej losowej ma rozkład normalny, zatem
ln
St
S0
∼ N((µ −
σ2
2
)t, σ2
t).
Powyższą własność sprawdzimy numerycznie, najpierw jednak określmy parametry na któ-
rych będzie pracować. Dla 1000 trajektorii będziemy badać wartość procesu w chwili T = 1,
gdzie ∆t = 0, 001. Za wartość początkową procesu przyjmujemy S0 = 1 oraz ustalamy parametry
µ = 0, 15 i σ = 0, 3. Dla takich wartości będziemy generować trajektorie geometrycznego ruchu
Browna. Aby wygenerować taką trajektorię i co za tym idzie rozwiązanie równania (2.2) stosujemy
prostą metodę [8].
Pierwsze co musimy zrobić to zdyskretyzować czas T poprzez ustalenie kroku ∆t. Tak więc
możemy określić proces dyskretny (Sn)n≥0, dzięki któremu otrzymamy aproksymację rozwiąza-
nia równania stochastycznego w chwili T = n∆t. Dla czasu dyskretnego równanie stochastyczne
możemy zapisać
S0 = x
Sn+1 − Sn = µSn∆t + σ(W(n+1)∆t − Wn∆t),
gdzie W jest procesem Wienera, a ciąg przyrostów (W(n+1)∆t − Wn∆t) jest ciągiem niezależnych
zmiennych losowych o rozkładzie normalnym o średniej 0 i wariancji ∆t. W symulacjach przyrost
ten zastępujemy przez gn
√
∆t, gdzie (gn)n≥0 jest ciągiem niezależnych zmiennych losowych o stan-
dardowym rozkładzie normalnym N(0, 1). Przy użyciu takiego oznaczenia równanie stochastyczne
możemy zapisać
S0 = x
Sn+1 = Sn + µSn∆t + σ
√
∆tgn.
Możemy więc już wygenerować trajektorie. Na rysunku 2.2 (a) widoczna jest pojedyncza realizacja,
natomiast na rysunku (b) widzimy 1000 niezależnych trajektorii tego procesu.
23
a b
Rysunek 2.2: Realizacje geometrycznego ruchu Browna (a) pojedyncza realizacja, (b) 1000 nieza-
leżnych realizacji
Dla tak wygenerowanych trajektorii sprawdzimy, czy wartość procesu w chwili T ma rozkład
lognormalny. Na początku utworzymy histogram 1000 wartości St
S0
. Chcemy nanieś na niego także
krzywą gęstości rozkładu lognormalnego, więc dla otrzymanych wartości St
S0
znajdujemy wartość
oczekiwaną oraz odchylenie standardowe takie, aby zmienne miały rozkład lognormalny. Dla takich
parametrów generujemy krzywą gęstości. Na poniższym rysunku widzimy histogram otrzymanych
wartości wraz z krzywą gęstości rozkładu lognormalnego. Ponieważ wykresy nakładają się na siebie
możemy założyć, że rozwiązanie równania różniczkowego ma rozkład lognormalny.
Rysunek 2.3: Histogram wraz z krzywą gęstości rozkładu lognormalnego dla wartości ST
S0
Aby mieć pewność, że zmienna ta ma rozkład lognormalny przeprowadzimy test statystyczny.
Będzie to test Shapiro-Wilka, który sprawdza normalność rozkładu. Za poziom istotności przyj-
mujemy α = 0, 05 oraz badamy następujące hipotezy:
H0 : zmienna ma rozkład normalny
24
Definicje zależności. Kopuły w matematyce finansowej. Aleksandra Kantowska 18.06.2014
Spis treści Wstęp 2 1 Funkcja kopuła 4 1.1 Podstawowe pojęcia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.2 Pochodne kopuł . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.3 Klasa kopuł Archimedesa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.3.1 Kopuła Claytona . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 1.3.2 Kopuła Gumbela . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 1.3.3 Kopuła Franka . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 2 Procesy stochastyczne 20 2.1 Proces stochastyczny . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 2.2 Proces Markowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.3 Proces Wienera . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2.4 Geometryczny ruch Browna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 3 Operacja produktowa ∗ dla kopuł i proces Markowa 26 3.1 Operacja produktowa ∗ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 3.2 Operacja produktowa ∗ a proces Markowa . . . . . . . . . . . . . . . . . . . . . . . 28 3.3 Przykład: kopuła ruchu Browna . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 4 Konstrukcja procesów stochastycznych opartych na kopułach 34 4.1 Metoda konstrukcji procesu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 4.2 Proces ruchu Browna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 4.3 Proces kopuły Franka . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 4.4 Proces kopuły Claytona . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 5 Modelowanie rynku z użyciem procesu kopuły Browna 43 5.1 Opcje . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 5.2 Model Blacka-Scholesa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 5.3 Wycena opcji europejskiej . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 5.4 Wycena opcji binarnej barierowej . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 6 Podsumowanie 53 A Załącznik - rozkłady prawdopodobieństwa 54 B Załącznik - kody programów 55 B.1 Załącznik 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 B.2 Załącznik 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 B.3 Załącznik 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 B.4 Załącznik 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 B.5 Załącznik 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 B.6 Załącznik 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 Spis rysunków 71 Bibliografia 72 1
Wstęp W pracy zajmiemy się strukturą zależności jaką jest proces Markowa. Pokażemy konstrukcję procesu Markowa opartego na kopule i zastosowanie takiego procesu w finansach. Zacznijmy zatem od krótkiego przybliżenia, czym jest ta funkcja. Funkcja kopuła (ang. copula) jest to funkcja, dzięki której możemy połączyć rozkład łączny z jego rozkładami brzegowymi, krótko można powiedzieć, że jest to funkcja połączenia. W pracy często funkcje te będziemy nazywać po prostu kopułami. Pojęcie kopuły zostało po raz pierwszy przedstawione przez Abe Sklar’a w roku 1959 w twierdzeniu, które nosi teraz jego imię, a które opisuje funkcje łączące dystrybuanty jednowymiarowe z dystrybuantą wielowymiarową. Mimo, że od czasu wprowadzenia tego twierdzenia minęło już ponad 50 lat, to teoria kopuł jest to dziedzina matematyki, która cały czas się rozwija. Istnieje kilka struktur zależności pomiędzy zmiennymi losowymi, w których wykorzystuje się kopuły. Jednymi z najpopularniejszych są ρ Spearmana, czy τ Kendalla (szczegóły w [11]). My jednak zajmiemy się strukturą zależności jaką jest proces Markowa. Po raz pierwszy zastosowanie kopuł do procesów Markowa przedstawił William Darsow w pracy „Copulas and Markov Proces- ses” (1992). Przedstawione przez niego podejscie było nowym podejsciem do tych procesów i dało nowe interpretacje. W rozdziale pierwszym przedstawimy podstawowe definicje, twierdzenia oraz własności z teo- rii funkcji kopuł. Przytoczymy najważniejsze twierdzenie w teorii kopuł - twierdzenie Sklara. Przedstawimy klasę kopuł Archimedesa oraz wprowadzimy przykłady kopuł należących do niej na- leżących. Dla kopuł Claytona, Gumbela i Franka podamy ich generatory, a także wyprowadzimy wzory na te kopuły. W rozdziale drugim wprowadzimy podstawy teorii dotyczącej procesów stochastycznych. Po- wiemy co to jest proces stochastyczny, filtracja czy moment stopu. Przedstawimy także po krótce jak wygląda proces Wienera i geometryczny ruch Browna, a także jaki proces możemy nazwać procesem Markowa. W rozdziale trzecim zajmiemy się pokazaniem związku teorii kopuł z procesami Markowa. Wprowadzimy operację produktową ∗ wraz z podstawowymi własnościami oraz przytoczymy twier- dzenie pokazujące związek procesu Markowa z kopułami. Wyprowadzimy także wzór na postać kopuły zbudowanej na procesie Wienera. W rozdziale czwartym skupimy się na konstrukcji procesów stochastycznych opartych na kopu- łach. Przedstawimy metodę konstrukcji takich procesów oraz przedstawimy przykłady symulacji procesów opartych na kopułach: ruchu Browna, Franka oraz Claytona. Piąty rozdział poświęcony jest sprawdzeniu jak zachowuje się rozwiązanie równania stocha- stycznego, gdy w miejscu procesu Wienera użyjemy pocesu kopuły ruchu Browna. Przytoczymy podstawowe pojęcia z zakresu opcji oraz skupimy się w nim na wycenie opcji i porównaniu wartości otrzymanych za pomocą standardowego modelu oraz przy użyciu procesu opartego na kopule. W szóstym rozdziale podsumujemy całą pracę oraz otrzymane wyniki. 2
Na końcu pracy znajdują się załączniki. W części A znajdziemy definicje rozkładów praw- dopodobieństwa użytych w pracy. Natomiast w części B znajdują się kody z programu R użyte w pracy. Wszystkie wykresy użyte w pracy zostały wygenerowane samodzielnie w programie R i kody użyte do ich otrzymania znajdują się w tej części. Środowisko R jest to bezpłatny program używany do obliczeń statystycznych oraz prezentacji wyników. W naszym przypadku, aby uzyskać przedstawienie graficzne kopuł użyliśmy pakietu copula. 3
Rozdział 1 Funkcja kopuła Jak już wspomnieliśmy we wstępie, kopuły są to tak zwane funkcje połączenia. W tym rozdziale zajmiemy się wprowadzeniem ich podstawowych definicji, twierdzeń oraz własności. Podamy także przykłady kopuł należących do jednej z najważniejszych klas kopuł - klasy kopuł Archimedesa. 1.1 Podstawowe pojęcia Zacznijmy od wprowadzenia oznaczeń, które będziemy stosować w całej pracy. Niech I oznacza przedział jednostkowy [0, 1], a I2 = I × I kwadrat jednostkowy. Będziemy korzystać z następującej notacji: R = (−∞, ∞), ¯R = [−∞, ∞] oraz ¯R2 = ¯R× ¯R. Jako dom(f) ⊂ ¯Rd będziemy rozumieć dziedzinę funkcji f, a przez ran(f) ⊂ R jej zbiór wartości. Niech F12(x1, x2) = P(X1 ≤ x1, X2 ≤ x2) będzie dystrybuantą łączną zmiennych losowych X1 i X2 o dystrybuantach F1(x1) = P(X1 ≤ x1) i F2(x2) = P(X2 ≤ x2), odpowiednio, które nazywamy dystrybuantami brzegowymi. Możemy powiedzieć, że z każdą parą liczb (x1, x2) powiązane są trzy wartości: F1(x1), F2(x2) oraz F12(x1, x2). W związku z tym, że są to dystrybuanty możemy zauważyć, że każda z tych liczb należy do przedziału [0, 1]. Wprowadźmy teraz definicje, które będą nam potrzebne w dalszej części. Definicja 1. [11] Niech S1, S2 będą niepustymi podzbiorami ¯R, niech H będzie funkcją rzeczywistą dwóch zmiennych taką, że dom(H) = S1 × S2. Niech B = [x1, x2] × [y1, y2] będzie kwadratem, którego wszystkie wierzchołki należą do dom(H). Wtedy H-objętość od zbioru B dana jest wzorem VH(B) = H(x2, y2) − H(x2, y1) − H(x1, y2) + H(x1, y1). (1.1) Definicja 2. [11] Funkcja rzeczywista dwóch zmiennych H jest 2-rosnąca, jeżeli VH(B) ≥ 0 dla każdego kwadratu B, którego wierzchołki leżą w dziedzinie dom(H). Wprowadźmy teraz definicję kopuły dla przypadku dwuwymiarowego. Definicja 3. [2] 2-wymiarową kopułą (w skrócie 2-kopułą lub kopułą) nazywamy funkcję C : I2 → I spełniającą następujące warunki: 1. ∀u,v∈I C(u, 0) = C(0, v) = 0 (1.2) 4
oraz ∀u,v∈I C(u, 1) = u i C(1, v) = v, (1.3) 2. ∀u1,u2,v1,v2∈I u1 ≤ u2 i v1 ≤ v2 C(u2, v2) − C(u2, v1) − C(u1, v2) + C(u1, v1) ≥ 0. Pierwszy punkt daje nam warunki brzegowe, które gwarantują jednostajny rozkład brzegowy. Natomiast drugi jest warunkiem monotoniczności funkcji. Dla wymiaru d > 2 definicja d-kopuły jest następująca: Definicja 4. [2] D-wymiarową kopułą (d-kopułą) nazywamy funkcję C : Id → I spełniającą: 1. Warunki brzegowe: (a) ∀i∀x1,...,xd C(x1, . . . , xi−1, 0, xi+1, . . . , xd) = 0, (b) funkcja (x1, . . . , xi−1, xi+1, . . . , xd) → C(x1, . . . , xi−1, 1, xi+1, . . . , xd) jest (d-1)-kopułą dla każdego i. 2. Warunek monotoniczności: VC(R) = K∈R sgn(K)C(K) ≥ 0 dla każdego prostokąta R = d i=1[xi, yi], xi ≤ yi, gdzie K = ( 1, . . . , d) jest zbiorem jego wierzchołków takich, że i = xi lub yi oraz sgn(K) = −1, jeżeli liczba współrzędnych xi spośród wszystkich współrzędnych K jest nieparzysta, 1, w przeciwnym razie. W teorii kopuł istnieją także pewne ograniczenia funkcji nazywane ograniczeniami Frécheta- Hoeffdinga. Twierdzenie 1. [10] Dla dowolnej kopuły C(x1, . . . , xd) mamy ograniczenia max d i=1 xi + 1 − d, 0 ≤ C(x1, . . . , xd) ≤ min {x1, . . . , xd} . (1.4) Dowód powyższego twierdzenia można znaleźć w [10]. Zajmijmy się przez chwilę prawą stroną nierówności (1.4), którą nazywamy górnym ogranicze- niem Frécheta-Hoeffdinga. Aby uprościć zapis tego ograniczenia stosujemy dla niego oznaczenie M(x1, . . . , xd). Interpretacja geometryczna górnego ograniczenia jest taka, że powierzchnia do- wolnej kopuły musi leżeć pod powierzchnią funkcji M lub być jej równa. W przypadku, gdy powierzchnia kopuły jest równa górnemu ograniczeniu, to kopułę taką nazywamy kopułą wspólnie monotoniczną (ang. comonotonicity) i określamy ją wzorem M(x1, . . . , xd) = min {x1, . . . , xd} . 5
Gdy ograniczymy się do przypadku 2-wymiarowego to kopuła wspólnie monotoniczna jest postaci M(x1, x2) = min {x1, x2} . Interpretację stochastyczną tej kopuły możemy przedstawić następująco: zmienne losowe X1 i X2 połączone są ze sobą za pomocą kopuły M wtedy i tylko wtedy, gdy zmienna losowa X2 jest prawie na pewno niemalejącą funkcją X1. Kopuła ta odnosi się do zależności deterministycznych. Interpretacja graficzna tej kopuły przedstawiona jest na poniższym rysunku (kod z programu R w załączniku 1A). Rysunek 1.1: Wykres powierzchni i konturu górnego ograniczenia Frécheta Przejdźmy teraz do lewej strony nierówności (1.4), którą nazywamy dolnym ograniczeniem Frécheta-Hoeffdinga oraz używamy dla niego oznaczenia W(x1, . . . , xd). Interpretacja geome- tryczna dolnego ograniczenia jest taka, że powierzchnia dowolnej kopuły musi leżeć nad powierzch- nią funkcji W. Dla wymiaru d ≥ 3 funkcja W nie jest kopułą. W przypadku, gdy d = 2 dolne ograniczenie Frécheta-Hoeffdinga jest kopułą postaci W(x1, x2) = max(x1 + x2 − 1, 0). Kopuła ta nosi nazwę kopuły przeciwnie monotonicznej (ang. countermonotonicity). Kopuła ta, tak samo jak kopuła wspólnie monotoniczna, odnosi się do zależności deterministycznych a jej interpretacja stochastyczna jest następująca: zmienne losowe X1 i X2 są połączone za pomocą kopuły W wtedy i tylko wtedy, gdy X2 jest prawie na pewno nierosnącą funkcją X1. Ograniczenie to graficznie prezentuje się następująco (kod z programu R w załączniku 1B). Rysunek 1.2: Wykres powierzchni i konturu dolnego ograniczenia Frécheta 6
Nierówność (1.4) dla kopuł 2-wymiarowych oraz wykorzystując wprowadzone oznaczenia mo- żemy zapisujemy następująco W(x1, x2) ≤ C(x1, x2) ≤ M(x1, x2). Istnieje jeszcze jedna ważna kopuła, jest to kopuła produktowa postaci (x1, . . . , xd) = d i=1 xi, nazywana kopułą niezależną. Jej interpretacja stochastyczna jest następująca: zmienne losowe X1 i X2 są połączone za pomocą kopuły wtedy i tylko wtedy, gdy zmienne te są niezależne. Kopuła odnosi się do niezależności a nie jak to było w przypadku dwóch poprzednich kopuł do zależności deterministycznych. Poniższy wykres pokazuje powierzchnię kopuły niezależnej oraz jej wykres konturowy (kod z pro- gramu R w załączniku 1C). Rysunek 1.3: Wykres powierzchni i konturu kopuły niezależnej Przejdźmy teraz do ważnego twierdzenia w teorii kopuł jakim jest twierdzenie Sklar’a. Twier- dzenie to zostało po raz pierwszy sprecyzowane przez Sklar’a w roku 1959 i określa znaczenie kopuł w badaniu dystrybuant wielowymiarowych. Dzięki temu twierdzeniu możemy zauważyć, że kopuły razem z jednowymiarowymi dystrybuantami mogą być używane w konstrukcji wielowymiarowych dystrybuant oraz że wszystkie wielowymiarowe dystrybuanty zawierają kopuły. Twierdzenie 2. [10](Sklar, 1959) Niech F12...d będzie d-wymiarową dystrybuantą łączną z dystrybuantami brzegowymi F1, F2, . . . , Fd. Wtedy istnieje kopuła C : Id → I taka, że dla każdego x1, x2, . . . xd ∈ ¯R, F12...d(x1, x2, . . . , xd) = C(F1(x1), F2(x2), . . . , Fd(xd)). (1.5) Jeżeli F1, F2, . . . , Fd są ciągłe to kopuła C określona jest jednoznacznie; w przeciwnym razie ko- puła C określona jest jednoznacznie na ran(F1) × ran(F2) × · · · × ran(Fd). Odwrotnie, jeżeli C jest kopułą oraz F1, F2, . . . , Fd są dystrybuantami, wtedy funkcja F12...d okre- ślona przez (1.5) jest dystrybuantą łączną o dystrybuantach brzegowych F1, F2, . . . , Fd. W dowodzie twierdzenia będziemy korzystać z uogólnionej funkcji odwrotnej wprowadźmy więc jej definicję. Definicja 5. [10] 7
Uogólnioną funkcją odwrotną funkcji rosnącej T nazywamy funkcję postaci T←(y) = inf{x : T(x) ≥ y}, gdzie używamy konwencji inf ∅ = ∞. Zajmując się kopułami musimy także znać operacje takie jak transformacja kwantyla i praw- dopodobieństwa. Są one określone w poniższym stwierdzeniu. Stwierdzenie 1. [10] Niech G będzie dystrybuantą oraz niech G← oznacza jej uogólnioną funkcję odwrotną, czyli G← (y) = inf{x : G(x) ≥ y}. 1. Transformacja kwantyla: jeżeli U ∼ U(0, 1) ma standardowy rozkład jednostajny to P(G← (U) ≤ x) = G(x). 2. Transformacja prawdopodobieństwa: jeżeli zmienna losowa Y ma dystrybuantę G, gdzie G jest ciągłą dystrybuantą jednowymiarową, to G(Y ) ∼ U(0, 1). Dowód. twierdzenia Sklar’a [10] Przeprowadzimy szkic dowodu. Udowodnimy istnienie i jednoznaczność kopuły w sytuacji, gdy dystrybuanty brzegowe F1, . . . , Fd są ciągłe. Dla dowolnych x1, . . . , xd ∈ ¯R jeżeli wektor zmiennych losowych X = (X1, . . . , Xd) ma dystrybu- antę łączną F1...d(x1, . . . , xd), to F1...d(x1, . . . , xd) = P(X1 ≤ x1, . . . , Xd ≤ xd) = P(F1(X1) ≤ F1(x1), . . . , Fd(Xd) ≤ Fd(xd)). W związku z naszym założeniem, że jednowymiarowe dystrybuanty brzegowe są ciągłe możemy skorzystać ze Stwierdzenia 1, a dokładnie z punktu 2. o transformacji prawdopodobieństwa. Otrzy- mujemy zatem, że dystrybuanty mają standardowe rozkłady jednostajne. Z tego oraz z definicji kopuły otrzymujemy, że (F1(X1), . . . , Fd(Xd)) jest kopułą, którą oznaczymy przez C. Zatem otrzy- maliśmy (1.5). Jeżeli oszacujemy (1.5) dla argumentów xi = F← i (ui), 0 ≤ ui ≤ 1, i = 1, . . . , d, oraz skorzystamy z własności uogólnionej funkcji odwrotnej, która brzmi [10]: T jest rosnącą funkcją ciągłą oraz T← (y) < ∞ ⇒ T ◦ T← (y) = y, to otrzymujemy C(u1, . . . , ud) = F(F← 1 (u1) . . . , F← d (ud)), co daje nam reprezentacje C względem F oraz jej rozkładów brzegowych. Otrzymujemy zatem jednoznaczność kopuły. Aby przeprowadzić dowód w drugą stronę załóżmy, że C jest kopułą oraz że F1, . . . , Fd są dystrybu- antami jednowymiarowymi. Skonstruujemy wektor losowy o dystrybuancie (1.5) poprzez wzięcie wektora losowego U o dystrybuancie C. Ustalmy także wektor X := (F← 1 (U1), . . . , F← d (Ud)). Wykorzystując własność uogólnionej funkcji odwrotnej dla funkcji rosnącej i dla której zachodzi 8
T← (y) < ∞, która brzmi [10]: jeżeli funkcja T jest prawostronnie ciągła, T(x) ≥ y ⇔ T← (y) ≤ x, otrzymujemy P(X1 ≤ x1, . . . , Xd ≤ xd) = P(F← 1 (U1) ≤ x1, . . . , F← d (Ud) ≤ xd) = P(U1 ≤ F1(x1), . . . , Ud ≤ Fd(xd)) = C(F1(x1), . . . , Fd(xd)). Zatem dowód twierdzenia został zakończony Możemy także zauważyć kilka własności jakimi charakteryzują się kopuły. Przedstawimy je dla przypadku dwuwymiarowego, jednak można je uogólnić dla przypadków wielowymiarowych. Niech C oznacza zbiór wszystkich kopuł określonych na kwadracie jednostkowym I2 oraz niech C ∈ C. Własność 1.[2] Dla dowolnych u1 i u2 spełniających zależność 0 ≤ u1 ≤ u2 ≤ 1, funkcja v → C(u2, v) − C(u1, v) (1.6) jest niemalejąca. Analogicznie dla dowolnych v1 oraz v2 spełniających zależność 0 ≤ v1 ≤ v2 ≤ 1, funkcja u → C(u, v2) − C(u, v1) (1.7) jest funkcją niemalejącą. Obie własności wynikają wprost z definicji kopuły, a dokładnie z warunku na monotoniczność funkcji. Własność 2.[2] Dla każdego u1, u2 ∈ [0, 1] spełniających 0 ≤ u1 ≤ u2 ≤ 1 oraz dla każdego v ∈ [0, 1] zachodzi 0 ≤ C(u2, v) − C(u1, v) ≤ u2 − u1. (1.8) Analogicznie, dla każdego v1, v2 ∈ [0, 1] spełniających 0 ≤ v1 ≤ v2 ≤ 1 oraz dla każdego u ∈ [0, 1] zachodzi 0 ≤ C(u, v2) − C(u, v1) ≤ v2 − v1. (1.9) Dowód. Nierówność (1.8) otrzymujemy poprzez podstawienie do (1.6) najpierw v = 0 a następnie v = 1, gdyż v ∈ [0, 1] oraz poprzez skorzystanie z warunków brzegowych i połączenie otrzymanych nierówności. Czyli v = 0 C(u2, 0) − C(u1, 0) = 0, v = 1 C(u2, 1) − C(u1, 1) = u2 − u1, zatem ze względu na zmienną v otrzymujemy ograniczenia 0 ≤ C(u2, v) − C(u1, v) ≤ u2 − u1. 9
Nierówność (1.9) otrzymujemy analogicznie, dla zmiennej u ∈ [0, 1], czyli u = 0 C(0, v2) − C(0, v1) = 0, u = 1 C(1, v2) − C(1, v1) = v2 − v1, zatem ze względu na zmienną u otrzymujemy ograniczenia 0 ≤ C(u, v2) − C(u, v1) ≤ v2 − v1. Własność 3.[2] Dla każdego u1, u2, v1, v2 ∈ [0, 1] |C(u2, v2) − C(u1, v1)| ≤ |u1 − u2| + |v1 − v2|. (1.10) Widzimy z tej nierówności, że kopuły są funkcjami ciągłymi w sensie Lipschitza, ponieważ stała Lipschitza wynosi 1. Dowód. Nierówność (1.10) wynika z nierówności (1.8) i (1.9). Własność 4.[2] Dla każdego u ∈ [0, 1] funkcja v → C(u, v) jest niemalejąca. Analogicznie dla każdego v ∈ [0, 1] funkcja u → C(u, v) jest także niemalejąca. Dowód. Powyższe rezultaty otrzymujemy jako specjalne przypadki funkcji z Własności 1. Uzysku- jemy je poprzez wzięcie u1 = 0 dla funkcji (1.6) oraz v1 = 0 dla funkcji (1.7). Z własności tych będziemy korzystać w dalszej części pracy. 1.2 Pochodne kopuł Z definicji kopuł wiemy, że są one funkcjami monotonicznymi. W związku z tym są one różniczko- walne prawie wszędzie [9], czyli możemy określić ich pochodne cząstkowe. Poprzez C,1 będziemy oznaczać pochodną względem pierwszego argumentu, czyli C,1(u, v) = ∂C(u, v) ∂u . Poprzez C,2 oznaczymy pochodną cząstkową względem drugiego argumentu C,2(u, v) = ∂C(u, v) ∂v oraz przez oznaczymy C,12 pochodną cząstkową mieszaną rzędu drugiego, czyli C,12(u, v) = ∂2 C(u, v) ∂u∂v . Pochodne te będą nam potrzebne, aby zdefiniować operację produktową na kopułach. Najpierw jednak zauważmy pewne własności, jakie wykazują te pochodne, a które będą nam przydatne w dalszej części pracy. Własności pochodnych tak jak i przedstawione wcześniej własności kopuł 10
przedstawimy dla przypadku dwuwymiarowego, jednak można je uogólnić dla przypadków wielo- wymiarowych. Twierdzenie 3. [11] Niech C będzie kopułą. Dla dowolnego v ∈ I pochodna cząstkowa C,1(u, v) istnieje dla prawie wszystkich u względem miary Lebesgue’a. Dla takich u i v zachodzi 0 ≤ C,1(u, v) ≤ 1. (1.11) Podobnie dla dowolnego u ∈ I pochodna cząstkowa C,2(u, v) istnieje dla prawie wszystkich v wzglę- dem miary Lebesgue’a. Dla takich u i v zachodzi 0 ≤ C,2(u, v) ≤ 1. (1.12) Co więcej funkcje u → C,2(u, v) i v → C,1(u, v) można określić i są niemalejące prawie wszędzie na I. Dowód. [2],[11] W związku z tym, że kopuły jako funkcje monotoniczne są różniczkowalne prawie wszędzie [9] to od razu otrzymujemy istnienie pochodnych cząstkowych C,1(u, v) i C,2(u, v). Nierówności (1.11) i (1.12) wynikają z Własności 3 poprzez wzięcie v1 = v2 dla (1.11) i u1 = u2 dla (1.12). Dla ustalonego v1 pochodna cząstkowa C,1(u, v1) istnieje dla u ∈ Iv1 ⊆ I oraz miara Lebesgue’a zbioru Iv1 wynosi Leb(Iv1 ) = 1. Tak samo dla ustalonego v2 pochodna cząstkowa C,1(u, v2) istnieje dla u ∈ Iv2 ⊆ I oraz miara Lebesgue’a zbioru Iv2 wynosi Leb(Iv2 ) = 1. Zatem, gdy v1 ≤ v2 otrzymujemy, że pochodna [C(u, v2) − C(u, v1)],1 = C,1(u, v2) − C,1(u, v1) ≥ 0 (1.13) istnieje dla zbioru Iv1 ∩ Iv2 , gdy u ∈ Iv1 ∩ Iv2 . Gdy Y jest gęstym i przeliczalnym podzbiorem I, to zbiór J = v∈Y Iv, ma miarę Lebesgue’a równą Leb(J) = 1. Dla wszystkich v ∈ Y i u ∈ J pochodna C,1(u, v) istnieje. Z (1.13) wynika, że funkcja Y v → C,1(u, v) jest niemalejąca dla u ∈ J. Czyli funkcję Y v → C,1(u, v) można zdefiniować i jest ona niemalejąca prawie wszędzie dla v ∈ I i dla prawie wszystkich u ∈ J. Analogiczne rezultaty otrzymujemy dla funkcji u → C,2(u, v). Z powyższego twierdzenia otrzymujemy następujący wniosek. Wniosek 1. Dla funkcji (1.6) oraz (1.7) zachodzi [C(u2, v) − C(u1, v)],2 ≥ 0 jeżeli u1 ≤ u2, (1.14) [C(u, v2) − C(u, v1)],1 ≥ 0 jeżeli v1 ≤ v2. (1.15) 11
1.3 Klasa kopuł Archimedesa Klasa kopuł Archimedesa jest ważną klasą kopuł, gdyż kopuły te znajdują wiele zastosowań. Zwią- zane jest to z tym, że stosunkowo łatwo można je skonstruować oraz klasa ta jest złożona z wielu rodzin kopuł a co za tym idzie występuje duża różnorodność rodzin. Kopuły należące do klasy kopuł Archimedesa posiadają także wiele przydatnych własności. Zacznijmy od wprowadzenia definicji funkcji pseudo-odwrotnej, która jest wykorzystywana w postaci kopuł z klasy kopuł Archimedesa. Definicja 6. [11] Niech ϕ będzie ciągłą, ściśle malejącą funkcją ϕ : I → [0, ∞] taką, że ϕ(1) = 0. Pseudo-odwrotnością ϕ jest funkcja ϕ[−1] o dziedzinie [0, ∞) i zbiorze wartości I określoną przez ϕ[−1] (t) = ϕ−1 (t), 0 ≤ t ≤ ϕ(0), 0, ϕ(0) ≤ t ≤ ∞. (1.16) Wprost z definicji wynika kilka własności tej funkcji. Mianowicie funkcja ϕ[−1] jest ciągła i nierosnąca na odcinku [0, ∞] oraz ściśle malejąca na odcinku [0, ϕ(0)]. Otrzymujemy także, że ϕ[−1] (ϕ(u)) = u na całym odcinku I, oraz ϕ(ϕ[−1] (t)) = t, 0 ≤ t ≤ ϕ(0) ϕ(0), ϕ(0) ≤ t ≤ ∞ = min(t, ϕ(0)). W sytuacji, gdy ϕ(0) = ∞, to ϕ[−1] = ϕ−1 . Lemat 1. [11] Niech ϕ będzie ciągłą, ściśle malejącą funkcją ϕ : I → [0, ∞] taką, że ϕ(1) = 0 oraz niech ϕ[−1] będzie funkcją pseudo-odwrotną funkcji ϕ zdefiniowaną poprzez (1.16). Niech C będzie funkcją C : I2 → I określoną przez C(u, v) = ϕ[−1] (ϕ(u) + ϕ(v)). (1.17) Wtedy C spełnia warunki brzegowe dla kopuł. Dowód. Jako pierwsze sprawdźmy, czy funkcja spełnia warunek (1.2). Wobec tego C(u, 0) = ϕ[−1] (ϕ(u) + ϕ(0)), argument funkcji pseudo-odwrotnej jest postaci t = ϕ(u) + ϕ(0), czyli t ≥ ϕ(0). Zatem z definicji otrzymujemy, że C(u, 0) = ϕ[−1] (ϕ(u) + ϕ(0)) = 0. Z symetrii mamy także C(0, v) = 0, czyli warunek ten jest spełniony. Sprawdźmy teraz, czy funkcja 12
spełnia warunek (1.3): C(u, 1) = ϕ[−1] (ϕ(u) + ϕ(1)) = ϕ[−1] (ϕ(u) + 0) = ϕ[−1] (ϕ(u)) = u Z symetrii otrzymujemy C(1, v) = v. Zatem warunek (1.3) także jest spełniony. Otrzymaliśmy więc, że funkcja postaci C(u, v) = ϕ[−1] (ϕ(u) + ϕ(v)) spełnia warunki brzegowe (1.2) i (1.3). Lemat 2. [11] Niech ϕ będzie ciągłą, ściśle malejącą funkcją ϕ : I → [0, ∞] taką, że ϕ(1) = 0 oraz niech ϕ[−1] będzie funkcją pseudo-odwrotną funkcji ϕ zdefiniowaną poprzez (1.16). Niech C będzie funkcją C : I2 → I określoną przez C(u, v) = ϕ[−1] (ϕ(u) + ϕ(v)) (1.18) spełniającą warunki brzegowe (1.2) i (1.3). Wtedy C jest 2-rosnąca wtedy i tylko wtedy, gdy dla każdego v ∈ I oraz u1 ≤ u2 C(u2, v) − C(u1, v) ≤ u2 − u1. (1.19) Dowód. Pokażemy, że nierówność (1.19) jest równoważna VC([u1, u2] × [v, 1]) ≥ 0, czyli VC([u1, u2] × [v, 1]) = C(u2, 1) − C(u2, v) − C(u1, 1) + C(u1, v) ≥ 0 u2 − C(u2, v) − u1 + C(u1, v) ≥ 0 C(u1, v) − C(u2, v) ≥ u1 − u2 C(u2, v) − C(u1, v) ≤ u2 − u1. Zatem nierówność ta zachodzi zawsze, gdy funkcja C jest 2-rosnąca. Stąd załóżmy, że C spełnia nierówność (1.19). Wybierzmy v1, v2 ∈ I takie, że v1 ≤ v2 oraz zauważmy, że C(0, v2) = 0 ≤ v1 ≤ v2 = C(1, v2). Funkcja C jest ciągła, ponieważ funkcje ϕ i ϕ[−1] są ciągłe, czyli istnieje t ∈ I takie, że C(t, v2) = v1 lub w równoważnej postaci otrzymujemy C(t, v2) = ϕ[−1] (ϕ(v2) + ϕ(t)) = v1 ϕ(ϕ[−1] (ϕ(v2) + ϕ(t))) = ϕ(v1) ϕ(v2) + ϕ(t) = ϕ(v1). A stąd otrzymujemy C(u2, v1) − C(u1, v1) = ϕ[−1] (ϕ(u2) + ϕ(v1)) − ϕ[−1] (ϕ(u1) + ϕ(v1)) = ϕ[−1] (ϕ(u2) + ϕ(v2) + ϕ(t)) − ϕ[−1] (ϕ(u1) + ϕ(v2) + ϕ(t)) = ϕ[−1] ϕ ϕ[−1] (ϕ(u2) + ϕ(v2)) + ϕ(t) + −ϕ[−1] ϕ ϕ[−1] (ϕ(u1) + ϕ(v2)) + ϕ(t) = C(C(u2, v2), t) − C(C(u1, v2), t) ≤ C(u2, v2) − C(u1, v2). Zatem otrzymaliśmy, że C jest funkcją 2-rosnącą. 13
Przejdźmy teraz do twierdzenia dzięki któremu otrzymujemy, że funkcja (1.17) jest kopułą. Dla kopuł, które daje się przedstawić w tej postaci używamy nazwy kopuł Archimedesa. Twierdzenie 4. [11] Niech ϕ będzie ciągłą, ściśle malejącą funkcją ϕ : I → [0, ∞] taką, że ϕ(1) = 0 oraz niech ϕ[−1] będzie funkcją pseudo-odwrotną funkcji ϕ zdefiniowaną poprzez (1.16). Wtedy funkcja C : I2 → I określona przez C(u, v) = ϕ[−1] (ϕ(u) + ϕ(v)) jest kopułą wtedy i tylko wtedy, gdy ϕ jest funkcją wypukłą. Zanim przejdziemy do dowodu tego twierdzenia przypomnijmy definicję funkcji wypukłej. Definicja 7. [3] Funkcję f(x) określoną i ciągłą w przedziale A nazywamy wypukłą jeżeli dla dowolnych punktów x1, x2 ∈ A nierówność f(αx1 + βx2) ≤ αf(x1) + βf(x2) jest spełniona dla wszystkich liczb dodatnich α i β takich, że α + β = 1. Powyższe twierdzenie zostało po raz pierwszy udowodnione przez Alsina et al. w 2005, my bazujemy na dowodzie Nelsena z 2006. Przejdźmy zatem do dowodu. Dowód. W Lemacie 1 udowodniliśmy już, że funkcja C spełnia warunki brzegowe występujące w definicji kopuły. Zostaje nam tylko udowodnić, że (1.19) zachodzi wtedy i tylko wtedy, gdy funkcja ϕ jest funkcją wypukłą. ⇒ Po podstawieniu do nierówności (1.19) wzoru na funkcję C dla u1 ≤ u2 otrzymujemy odpowiednik tej nierówności ϕ[−1] (ϕ(u2) + ϕ(v)) − ϕ[−1] (ϕ(u1) + ϕ(v)) ≤ u2 − u1 u1 + ϕ[−1] (ϕ(u2) + ϕ(v)) ≤ u2 + ϕ[−1] (ϕ(u1) + ϕ(v)). Jeżeli teraz oznaczymy a = ϕ(u1), b = ϕ(u2) oraz c = ϕ(v) a następnie podstawimy te oznaczenia do powyższej nierówności to otrzymujemy, że nierówność (1.19) jest równoważna z ϕ[−1] (a) + ϕ[−1] (b + c) ≤ ϕ[−1] (b) + ϕ[−1] (a + c), (1.20) gdzie a ≥ b i c ≥ 0. Załóżmy teraz, że funkcja pseudo-odwrotna ϕ[−1] spełnia nierówność (1.20). Wybierzmy dowolne s, t ∈ [0, ∞) spełniające 0 ≤ s < t. Jeżeli ustalimy a = s+t 2 , b = s i c = t−s 2 oraz podstawimy te wartości do nierówności (1.20) to otrzymujemy ϕ[−1] s + t 2 + ϕ[−1] s + t − s 2 ≤ ϕ[−1] (s) + ϕ[−1] s + t 2 + t − s 2 ϕ[−1] s + t 2 + ϕ[−1] s + t 2 ≤ ϕ[−1] (s) + ϕ[−1] (t) ϕ[−1] s + t 2 ≤ ϕ[−1] (s) + ϕ[−1] (t) 2 ϕ[−1] 1 2 s + 1 2 t ≤ 1 2 ϕ[−1] (s) + 1 2 ϕ[−1] (t). Ponieważ funkcja ϕ[−1] jest funkcją ciągłą to z powyższego wynika, że jest funkcją wypukłą. ⇐ 14
Załóżmy, że funkcja ϕ[−1] jest funkcją wypukłą. Ustalmy a, b, c ∈ I takie, że a ≥ b, c ≥ 0. Niech γ = a−b a−b+c . Przekształcimy teraz wzór na γ tak aby otrzymać wzory na a i b + c. (a − b + c)γ = a − b aγ − bγ + cγ = a − b aγ + b − bγ + cγ = a a = b(1 − γ) + γ(a + c). Teraz wyznaczymy wzór na b + c (a − b + c)γ = a − b aγ + b − bγ + cγ + c − c = a b + c = a + c − aγ + bγ − cγ b + c = a(1 − γ) + c(1 − γ) + bγ b + c = (1 − γ)(a + c) + bγ. Stąd nakładając na otrzymane wartości a i b+c funkcję pseudo-odwrotną otrzymujemy nierówności ϕ[−1] (a) ≤ (1 − γ)ϕ[−1] (b) + γϕ[−1] (a + c) oraz ϕ[−1] (b + c) ≤ γϕ[−1] (b) + (1 − γ)ϕ[−1] (a + c). Dodajmy teraz powyższe nierówności ϕ[−1] (a) + ϕ[−1] (b + c) ≤ (1 − γ)ϕ[−1] (b) + γϕ[−1] (a + c) + + γϕ[−1] (b) + (1 − γ)ϕ[−1] (a + c) ϕ[−1] (a) + ϕ[−1] (b + c) ≤ ϕ[−1] (b) + ϕ[−1] (a + c). Otrzymaliśmy zatem nierówność (1.20), która była równoważna nierówności (1.19). Zatem dowód został zakończony. Kopuły, które możemy przedstawić w postaci (1.17) nazywane są kopułami Archimedesa. Definicja 8. [10] Ciągłą, ściśle malejącą funkcję wypukłą ϕ : [0, 1] → [0, ∞] spełniającą ϕ(1) = 0 nazywamy genera- torem kopuły Archimedesa. Jeżeli ϕ(0) = ∞ to mówimy, że ϕ jest generatorem ścisłym. W sytuacji, gdy badany generator okaże się generatorem ścisłym to możemy przyjąć ϕ[−1] = ϕ−1 . Zatem kopułę możemy przedstawić w postaci C(u, v) = ϕ−1 (ϕ(u) + ϕ(v)). Takie kopuły mo- żemy nazywać ścisłymi kopułami Archimedesa. Przejdziemy teraz do przykładów rodzin, które należą do klasy kopuł Archimedesa. Znając generatory (Nelsen, 2006) wyprowadzimy wzory dla trzech rodzin kopuł, a mianowicie dla rodziny kopuł Claytona, Gumbela i Franka. Każda z tych rodzin należy do rodzin kopuł jednoparame- trycznych, gdzie parametr θ mówi o stopniu zależności pomiędzy rozkładami brzegowymi. Więcej przykładów kopuł należących do tej klasy wraz z ich generatorami można znaleźć w [11]. 15
1.3.1 Kopuła Claytona Generator rodziny kopuł Claytona jest postaci [11]: ϕθ(t) = t−θ − 1 θ , θ ∈ [−1, ∞)\{0}. Sprawdzimy najpierw, czy generator ten jest generatorem ścisłym ϕθ(0) = 0−θ − 1 θ = − 1 θ . Generator w punkcie 0 jest rożny od ∞, czyli nie jest generatorem ścisłym. Zatem dla t ∈ [0, −1 θ ] funkcja pseudo-odwrotna wynosi ϕ−1 (t), a dla t ∈ [−1 θ , ∞] wynosi 0. Możemy zatem zapisać ją w postaci ϕ[−1] (t) = max{ϕ−1 (t), 0}. Wyznaczmy teraz funkcję odwrotną dla generatora ϕθ(t) = t−θ − 1 θ θ · ϕθ(t) + 1 = t−θ = 1 t θ (θ · ϕθ(t) + 1) 1 θ = 1 t t = (θ · ϕθ(t) + 1)− 1 θ . Zatem funkcja pseudo-odwrotna jest postaci ϕ[−1] (t) = max{(θt + 1)− 1 θ , 0}. Podstawimy teraz otrzymaną funkcję do wzoru na kopułę (1.17) CCl θ (u, v) = ϕ[−1] (ϕ(u) + ϕ(v)) = ϕ[−1] ( u−θ − 1 θ + v−θ − 1 θ ) = ϕ[−1] ( u−θ + v−θ − 2 θ ) = max{(θ · u−θ + v−θ − 2 θ + 1)− 1 θ , 0} = max{(u−θ + v−θ − 1)− 1 θ , 0}. Otrzymaliśmy zatem wzór ogólny na rodzinę kopuł Claytona dla parametru θ ∈ [−1, ∞)\{0}. W przypadku, gdy parametr θ → 0 możemy mówić o kopule, która posiada niezależne rozkłady brzegowe. Na poniższych wykresach pokazane są gęstość rozkładu kopuły Claytona oraz 1000 elementowa próba losowa z kopuły Claytona (w obu przypadkach parametr θ = 5, rozkładami brzegowymi są standardowe rozkłady jednostajne). 16
a b Rysunek 1.4: Kopuła Claytona (a) wykres gęstości, (b) próba losowa 1000 elementowa Kody z programu R generujące powyższe wykresy znajdują się w załączniku 2A. 1.3.2 Kopuła Gumbela Generator kopuły Gumbela jest postaci [11]: ϕθ(t) = (− ln t)θ , θ ∈ [1, ∞). Jako pierwsze sprawdzimy, czy generator ten jest generatorem ścisłym. Zatem ϕθ(0) = (− ln 0)θ = ∞, wartość funkcji w punkcie 0 wynosi ∞, czyli otrzymaliśmy generator ścisły. W takim przypadku funkcja pseudo-odwrotna jest równa funkcji odwrotnej dla każdego t. Wyznaczmy więc funkcję odwrotną do funkcji ϕ ϕθ(t) = (− ln t)θ −ϕθ(t) 1 θ = ln t t = e−ϕθ(t) 1 θ . Wyznaczyliśmy funkcję odwrotną postaci ϕ−1 θ (t) = e−t 1 θ i możemy wstawić ją do wzoru na kopułę (1.17). Zatem CGu θ (u, v) = ϕ[−1] (ϕ(u) + ϕ(v)) = ϕ−1 ((− ln u)θ + (− ln v)θ ) = exp{−((− ln u)θ + (− ln v)θ ) 1 θ }. Czyli otrzymaliśmy wzór na rodzinę kopuł Gumbela zależną od parametru θ ∈ [1, ∞). W przy- padku, gdy wartość parametru θ wynosi 1 to otrzymujemy kopułę o niezależnych rozkładach brze- gowych. Na poniższych wykresach widzimy wykres gęstości kopuły Gumbela oraz 1000 elementową próbę losową z tej kopuły, dla obu wykresów przyjęliśmy θ = 5 oraz rozkładami brzegowymi są standardowe rozkłady jednostajne. 17
a b Rysunek 1.5: Kopuła Gumbela (a) wykres gęstości, (b) próba losowa 1000 elementowa Kod dla programu R, z którego otrzymaliśmy powyższe wykresy można znaleźć w załączniku 2B. 1.3.3 Kopuła Franka Generator dla rodziny kopuł Franka ma postać [11]: ϕθ(t) = − ln e−θt − 1 e−θ − 1 , θ ∈ (−∞, ∞)\{0}. Sprawdzimy, czy generator jest generatorem ścisłym ϕθ(0) = − ln e−θ·0 − 1 e−θ − 1 = ∞. Tak jak i dla kopuły Gumbela wartość funkcji w punkcie 0 wynosi ∞, zatem generator ϕ jest generatorem ścisłym i funkcja pseudo-odwrotna jest równa funkcji odwrotnej. Wyznaczymy zatem funkcję odwrotną: ϕθ(t) = − ln e−θt − 1 e−θ − 1 −ϕθ(t) = ln e−θt − 1 e−θ − 1 e−ϕθ(t) = e−θt − 1 e−θ − 1 (e−θ − 1)e−ϕθ(t) + 1 = e−θt ln[(e−θ − 1)e−ϕθ(t) + 1] = ln e−θt −θt = ln[(e−θ − 1)e−ϕθ(t) + 1] t = − ln[(e−θ − 1)e−ϕθ(t) + 1] θ . Czyli funkcja odwrotna jest postaci ϕ−1 θ (t) = − 1 θ ln[(e−θ − 1)e−t + 1]. 18
Tak wyznaczoną funkcję możemy wstawić do wzoru na kopułę CF r θ (u, v) = ϕ[−1] (ϕ(u) + ϕ(v)) = ϕ−1 (ϕ(u) + ϕ(v)) = ϕ−1 − ln e−θu − 1 e−θ − 1 − ln e−θv − 1 e−θ − 1 = ϕ−1 ln e−θ − 1 e−θu − 1 − ln e−θv − 1 e−θ − 1 = ϕ−1 ln e−θ − 1 e−θu − 1 · e−θ − 1 e−θv − 1 = ϕ−1 ln (e−θ − 1)2 (e−θu − 1)(e−θv − 1) = − 1 θ ln 1 + (e−θ − 1)e − ln (e−θ−1)2 (e−θu−1)(e−θv−1) = − 1 θ ln 1 + (e−θ − 1) (e−θu − 1)(e−θv − 1) (e−θ − 1)2 = − 1 θ ln 1 + (e−θu − 1)(e−θv − 1) (e−θ − 1) . Otrzymaliśmy zatem wzór na kopuły należące do rodziny kopuł Franka w zależności od para- metru θ ∈ (−∞, ∞)\{0}. Poniższe wykresy przedstawiają gęstość kopuły oraz 1000-elementową próbę losową, gdy za parametr θ przyjęliśmy wartość 5 oraz użyliśmy jednostajnych rozkładów brzegowych. a b Rysunek 1.6: Kopuła Franka (a) wykres gęstości, (b) próba losowa 1000 elementowa W załączniku 2C znajduje się kod ze środowiska R, dzięki któremu otrzymaliśmy powyższe wykresy. 19
Rozdział 2 Procesy stochastyczne Zaczniemy od ogólnego wprowadzenia do procesów stochastycznych, a następnie przejdziemy do przykładów procesów takich jak proces Wienera, czy geometryczny ruch Browna. Powiemy także jaki proces możemy nazwać procesem Markowa. 2.1 Proces stochastyczny Możemy powiedzieć, że procesy stochastyczne jest to teoria zajmująca się badaniem ciągów zmiennych losowych {Xt}t∈T określonych na danej przestrzeni probabilistycznej (Ω, F, P), gdzie t ∈ T zazwyczaj oznacza czas. Można także powiedzieć, że jest to matematyczna teoria służąca do opisu modelowania i prognozy zjawisk losowych podlegających ewolucji. Przykładami procesów mogą być ceny akcji na giełdzie, kursy walut, gra hazardowa, wartość temperatury itp.. W pracy proces stochastyczny w skrócie będziemy nazywać procesem. Niech (Ω, F, P) będzie przestrzenią probabilistyczną, gdzie Ω jest to zbiór zdarzeń elementar- nych, F jest to σ-ciało zdarzeń, a P jest miarą probabilistyczną. Gdy proces przebiega w czasie to możemy wyróżnić dwa rodzaje czasu: czas dyskretny i czas ciągły. O czasie dyskretnym mówimy, gdy zjawisko badamy w ustalonych momentach, wtedy zbiór chwil jest zbiorem przeliczalnym i za- zwyczaj w postaci T ⊆ {0, 1, . . .}∪{∞}. Natomiast o czasie ciągłym mówimy, gdy badamy zjawisko stale i wtedy zbiór chwili jest zbiorem zawartym w [−∞, ∞], zazwyczaj przyjmuje się T = [0, ∞) lub T = [0, T]. Dla tak określonej przestrzeni możemy wprowadzić pojęcie filtracji. Definicja 9. [6] Filtracją nazywamy niemalejącą rodzinę σ-ciał F = (Ft)t∈T , gdzie Fs ⊂ Ft ⊂ F dla s < t; s, t ∈ T. Możemy powiedzieć, że filtracja niesie informację o procesie do chwili t, gdyż w chwili obecnej wiemy jaki był stan procesu wcześniej i czy dane zdarzenie zaszło. Znając definicję filtracji możemy zdefiniować, czym jest proces stochastyczny. Definicja 10. [7] Rodzinę zmiennych losowych (Xt)t∈T nazywamy procesem stochastycznym. Proces jest adaptowany do filtracji F = (Ft)t∈T , jeśli dla każdego t ∈ T zmienna losowa Xt jest Ft-mierzalna. Funkcja t → X(·, ω) dla ustalonego zdarzenia ω nazywana jest realizacją procesu stochastycz- nego lub trajektorią procesu. Interpretacja trajektorii jest taka, że funkcja ta mówi nam o przebiegu badanego zjawiska w czasie dla konkretnego zdarzenia ω. Gdy badamy proces z czasem ciągłym, to proces taki ma trajektorie ciągłe. Gdy zbiór chwil T jest zbiorem przeliczalnym, to możemy mówić o procesie stochastycznym 20
X jako o ciągu losowym w postaci X1, X2, . . . . Ważnymi pojęciami są także przestrzeń stanów oraz stany procesu. Możemy powiedzieć, że pojęcie stanów procesu jest tym samym co wartość zmiennej losowej, natomiast zmianę stanów procesu nazywamy przejściem. Definicja 11. [12] Jeśli dla każdego t ∈ T funkcja X : T ×Ω → X, przekształca zbiór T ×Ω na zbiór X, to X nazywamy przestrzenią stanu procesu stochastycznego, a elementy zbioru X stanami procesu stochastycznego. Przejdźmy teraz do określenia pojęcia czasu stopu procesu. Ogólnie mówiąc czas stopu jest to moment, w którym proces osiągnie satysfakcjonujący nas wynik (ustalone wcześniej bariery) i zostanie przerwany. Formalna definicja brzmi: Definicja 12. [6] Czasem stopu względem filtracji (Ft)t∈T nazywamy zmienną losową τ : Ω → T ∪{+∞}, spełniającą warunek {τ ≤ t} ∈ Ft dla wszystkich t ∈ T. Dla czasu stopu można również użyć nazwy jak moment stopu, moment zatrzymania czy mo- ment Markowa. Wprowadźmy jeszcze definicję na martyngał. Definicja 13. [6] Rodzina (Xt, Ft)t∈T , gdzie zmienne losowe Xt są całkowalne dla t ∈ T jest martyngałem, jeśli dla s ≤ t, s, t ∈ T E(Xt|Fs) = Xs. 2.2 Proces Markowa Jednym z rodzajów procesów stochastycznych jest proces Markowa. Jest to dość popularny proces, gdyż charakteryzuje się on tak zwanym brakiem pamięci. Zacznijmy więc od wprowadzenia formalnej definicji. Definicja 14. [11] Proces Xt, t ∈ T jest procesem Markowa jeżeli dla każdego skończonego podzbioru {t1, t2, . . . , tn} zbioru T oraz dla dowolnego t ∈ T takiego, że t1 < t2 < . . . < tn < t zachodzi P(Xt ≤ x|Xt1 = x1, Xt2 = x2, . . . , Xtn = xn) = P(Xt ≤ x|Xtn = xn). (2.1) Warunek (2.1) nazywany jest własnością Markowa. Powyższą własność możemy rozumieć w na- stępujący sposób: stan procesu stochastycznego X w badanej chwili t jest zależny od tego jaki był stan tego procesu w chwili tn, natomiast nie jest zależny od stanów procesu we wszystkich chwilach wcześniejszych niż chwila tn, czyli nie zależy od chwil t1, t2, . . . , tn−1. W sytuacji, gdy chwilę t nazwiemy przyszłością, chwilę tn teraźniejszością oraz chwile t1, . . . , tn−1 przeszłością własność Markowa możemy rozumieć następująco: procesem Markowa nazywamy taki proces stochastyczny X, którego stan w przyszłości jest za- leżny od stanu w teraźniejszości i nie jest zależny od stanów z przeszłości. 21
2.3 Proces Wienera Proces Wienera jest to matematyczny model fizycznego zjawiska ruchu cząsteczek zawieszonych w cieczy nazywanego ruchem Browna. Aby móc powiedzieć, że proces stochastyczny jest procesem Wienera musi on spełniać poniższą definicję: Definicja 15. [6] Standardowym procesem Wienera nazywamy proces W spełniający następujące warunki: 1. W0 = 0, 2. przyrosty procesu są niezależne, czyli jeśli 0 < t1 < . . . < tn, to zmienne losowe Wt1 , Wt2 − Wt1 , . . . , Wtn − Wtn−1 są niezależne, 3. dla wszystkich t oraz dla u ≥ 0 Wt+u − Wu ∼ N(0, t), gdzie parametr t oznacza wariancję, 4. trajektorie procesu są ciągłe. Na rysunku 2.1 widzimy 15 niezależnych symulacji trajektorii procesu Wienera (kod z pro- gramu R w załączniku 3). Rysunek 2.1: Realizacje jednowymiarowego procesu Wienera Proces Wienera jest przykładem procesu Markowa (Shmitz, 2003; za Karatzas i Shreve, 2000),[7]. Wiemy także, że chociaż trajektorie procesu są ciągłe to są one nieróżniczkowalne (dowód tego można znaleźć w [6]). Proces ten wykorzystamy w następnej części tego rozdziału, aby otrzymać geometryczny ruch Browna. 22
2.4 Geometryczny ruch Browna Zajmiemy się teraz procesem stochastycznym, który nosi nazwę geometrycznego ruchu Browna. Proces ten znajduje zastosowanie do modelowania procesów, których wartości nigdy nie schodzą poniżej zera. Przykładem takiego procesu może być proces ceny akcji, który zawsze jest dodatni. W związku z tym geometryczny ruch Browna znajduje zastosowanie przy wycenie opcji w modelu Blacka-Scholesa (model ten omówimy w rozdziale 5.2). Definicja 16. [7] Mówimy, że proces stochastyczny St jest geometrycznym ruchem Browna, gdy jest on postaci St = S0e((µ− σ2 2 )t+σWt) , gdzie St oznacza cenę akcji w chwili t, S0 jest to cena akcji w chwili 0. Przez µ oznaczamy dryft, przez σ oznaczamy zmienność ceny, natomiast Wt jest to proces Wienera. Wartość parametru σ zazwyczaj mieści się w przedziale [0, 15; 0, 6]. Powyższe równanie jest rozwiązaniem równania stochastycznego postaci dSt = µStdt + σStdWt. (2.2) Pokażemy teraz własność rozwiązania tego równania: zmienna losowa St S0 ma rozkład logaryt- micznie normalny. Skoro zmienna losowa ma mieć rozkład logarytmicznie normalny to znaczy, że logarytm tej zmiennej losowej ma rozkład normalny, zatem ln St S0 ∼ N((µ − σ2 2 )t, σ2 t). Powyższą własność sprawdzimy numerycznie, najpierw jednak określmy parametry na któ- rych będzie pracować. Dla 1000 trajektorii będziemy badać wartość procesu w chwili T = 1, gdzie ∆t = 0, 001. Za wartość początkową procesu przyjmujemy S0 = 1 oraz ustalamy parametry µ = 0, 15 i σ = 0, 3. Dla takich wartości będziemy generować trajektorie geometrycznego ruchu Browna. Aby wygenerować taką trajektorię i co za tym idzie rozwiązanie równania (2.2) stosujemy prostą metodę [8]. Pierwsze co musimy zrobić to zdyskretyzować czas T poprzez ustalenie kroku ∆t. Tak więc możemy określić proces dyskretny (Sn)n≥0, dzięki któremu otrzymamy aproksymację rozwiąza- nia równania stochastycznego w chwili T = n∆t. Dla czasu dyskretnego równanie stochastyczne możemy zapisać S0 = x Sn+1 − Sn = µSn∆t + σ(W(n+1)∆t − Wn∆t), gdzie W jest procesem Wienera, a ciąg przyrostów (W(n+1)∆t − Wn∆t) jest ciągiem niezależnych zmiennych losowych o rozkładzie normalnym o średniej 0 i wariancji ∆t. W symulacjach przyrost ten zastępujemy przez gn √ ∆t, gdzie (gn)n≥0 jest ciągiem niezależnych zmiennych losowych o stan- dardowym rozkładzie normalnym N(0, 1). Przy użyciu takiego oznaczenia równanie stochastyczne możemy zapisać S0 = x Sn+1 = Sn + µSn∆t + σ √ ∆tgn. Możemy więc już wygenerować trajektorie. Na rysunku 2.2 (a) widoczna jest pojedyncza realizacja, natomiast na rysunku (b) widzimy 1000 niezależnych trajektorii tego procesu. 23
a b Rysunek 2.2: Realizacje geometrycznego ruchu Browna (a) pojedyncza realizacja, (b) 1000 nieza- leżnych realizacji Dla tak wygenerowanych trajektorii sprawdzimy, czy wartość procesu w chwili T ma rozkład lognormalny. Na początku utworzymy histogram 1000 wartości St S0 . Chcemy nanieś na niego także krzywą gęstości rozkładu lognormalnego, więc dla otrzymanych wartości St S0 znajdujemy wartość oczekiwaną oraz odchylenie standardowe takie, aby zmienne miały rozkład lognormalny. Dla takich parametrów generujemy krzywą gęstości. Na poniższym rysunku widzimy histogram otrzymanych wartości wraz z krzywą gęstości rozkładu lognormalnego. Ponieważ wykresy nakładają się na siebie możemy założyć, że rozwiązanie równania różniczkowego ma rozkład lognormalny. Rysunek 2.3: Histogram wraz z krzywą gęstości rozkładu lognormalnego dla wartości ST S0 Aby mieć pewność, że zmienna ta ma rozkład lognormalny przeprowadzimy test statystyczny. Będzie to test Shapiro-Wilka, który sprawdza normalność rozkładu. Za poziom istotności przyj- mujemy α = 0, 05 oraz badamy następujące hipotezy: H0 : zmienna ma rozkład normalny 24