Twoim problemem jest to, że powszechną NICOŚĆ mylisz z osobistą PUSTKĄ

1. Poda
ć
def. Syg. Los. I zasad
ę
jego opisu za pomoc
ą
realizacji.
(
)
[
]
14. Def i wła
cuchów Markowa
Syg los który przyjmuje tylko dyskretne warto
ś
ś
ciwo
ś
ci ła
ń
K
K
K
K
K
K
x
(
n
)
0
x
(
n
+
l
)
1
...
x
(
n
+
l
)
L
=
E
X
(
n
)
K
0
X
(
n
+
l
)
1
...
X
(
n
+
l
)
L
dla dowolnych warto
ś
ci przesuni
ęć
:
1
L
1
L
Sygn los naz f-cj
ę
dwóch zmiennych: czasu t i zdarz los e i oznaczamy X(t,e)=X(t) przy ustalonej chwili t=t
0
syg los jest f-cj
ą
zdarz
(
)
ci nazywamy ła
ń
cuchem Markowa je
ż
eli spełniony jest warunek: P{(X(n)=x
n
)|(X(n-
losowego, a wi
ę
c zmienn
ą
los X(t=t
0
,e)X(t=t
0
). Przy ustalonym zdarzeniu los e=e
0
syg los jest deterministyczn
ą
f-cj
ą
czasu.
l
1
,l
2
,...,l
L
i dowolnych warto
ś
ci pot
ę
g K
0
,K
1
,...,K
L
. Syg los X(n) dla którego spełniony jest warunek (x(n))
(

)
=E[X(n)] nazywamy
1)=x
n-1
),(X(n-2)=x
n-2
),...}=P{(X(n)=x
n
)|(X(n-1)=x
n-1
)}. Warto
ś
ci, które przyjmuje ła
ń
cuch Markowa oznaczymy S
1
,S
2
,...S
M
. Je
ż
eli
X(t,e
0
)=x(t) jest nazywany realizacj
ą
syg los.
X(n) równa si
cuch jest w stanie S
1
. P-wa:
P
ij
(n,m)=P{(X(m)=S
j
)|(X(n)=S
i
)} nazywamy prawdopodobie
ę
S
1
to mówimy,
ż
e ła
ń
ergodycznym wzgl
ę
dem wart
ś
redniej. Syg los X(n) dla którego spełniony jest warunek (x(n)x(n+k))
(

)
=E[X(n)X(n+k)] nazywamy
Opis za pomoc
czenie licznym zbiorem realizacji danego syg los. Dla dowolnej
ustalonej chwili t
0
dysponujemy zbiorem próbek realizacji syg los pobranych w chwili t
0
, próbki te s
ą
realizacji: zakładamy,
ż
e dysponujemy niesko
ń
ń
stwami przej
ść
.
ergodycznym wzgl
ę
dem f-cji korelacji.
p
(
n
,
m
)
p
...
p
11
12
1
M
ą
realizacjami zmiennej los X(t).
Zbiór p-w przej
zapisujemy w postaci macierzy. Jest to macierz
stochastyczna tzn suma elementów ka
ść
p
p
...
p
Je
ż
eli syg los jest sygnałem o warto
ś
ciach ze zbioru ci
ą
głego, to zmienna los X(t) jest zmienn
ą
los ci
ą

ą
. Załó
ż
my,
ż
e jej g
ę
sto
ść
p-
7. Poda
ć
i uzasadni
ć
wła
ś
ciwo
ś
ci stacjonarnych w szerokim sensie syg los.
ż
dego wiersza tej macierzy jest równa
21
22
2
M
(
n
,
m
)
=
wa jest p
X
(x,t
0
). Poniewa
ż
warto
ść
tej zmiennej los nale
żą
cej do wn
ę
trza małego przedziału x
0
<X(t
0
)

x
0
+

x, pojawiaj
ą
si
ę
w zbiorze
jedno
ń
cucha Markowa w kroku n
oznaczamy P
i
(n)=P(X(n)=S
i
) natomiast wektor bezwarunkowych p-w stanów
ła
ś
ci. P-wo bezwarunkowe stanu S
i
ła
Jednowym g
ę
sto
ść
p-wa nie zale
ż
y od czasu: p(x,t
1
)=p(x,t
1
-t
1
)=p(x); * Dwuwym g
ę
sto
ść
p-wa zale
ż
y od długo
ś
ci odst
ę
pu
...
...
...
...
realizacji o liczno
ś
ci proporcjonalnej do warto
ś
ci p
X
(x
0
,t
0
), zatem warto
ść
ś
rednia zmiennej los X(t) równa
mi
ę
dzy chwilami próbkowania p
2
(x
1
,x
2
,t
1
,t
2
)=p
2
(x
1
,x
2
,t
1
-t
1
,t
2
-t
1
)= p
2
(x
1
,x
2
,t
2
-t
1
)= p
2
(x
1
,x
2
,
τ
). * Warto
ść
ś
rednia jest stała:
T
p
p
...
p
ń
cucha oznaczamy P(n)
=[P
1
(n) P
2
(n) ... P
M
(n)]. Pełny opis statystyczny
M
1
M
2
MM
E
(
X
(
t
))
=

xp
(
x
,
t
)
dx
prostego (maj
ą
cego pami
ęć
si
ę
gaj
ą
c
ą
tylko jeden krok wstecz) ła
ń
cucha
mo
ż
e by
ć
obliczona za pomoc
ą
u
ś
rednienia po zbiorze warto
ś
ci próbek
m
(
t
)
=
E
(
X
(
t
))
=

xp
(
x
)
dx
=
m
=
const
0
X
0
* F-cja korelacji i f-cja kowariancji nie zale
ż
y od bezwzgl
ę
dnych warto
ś
ci
X
X
Markowa otrzymujemy ustalaj
ą
c wektor p-w stanów w chwili pocz
ą
tkowej P(0) oraz ci
ą
g jednokierunkowych macierzy p-w przej
ść
Π
(i,i+1) gdzie i=0,1,....
N
chwil t
1
i t
2
, ale od odst
ę
pu
τ
mi
ę
dzy nimi:
∫∫
1
=
m
(
t
)
=
lim
x
(
t
)
X
0
i
0
15. Jednorodno
ść
i stacjonarno
ść
ła
ń
cucha Markowa
N
N
2
Ła
ń
cuch Markowa nazywamy jednorodnym, je
ż
eli ma on nast
ę
puj
ą
c
ą
wła
ś
ciwo
ść
Π
(m,n)=
Π
(n-m) dla n>m

0. Jednorodny ła
ń
cuch
i
1
R
(
t
,
t
)
=
E
(
X
(
t
)
X
(
t
))
=
x
x
p
(
x
,
x
,
)
dx
dx
=
R
(
)
C
(
t
,
t
)
=
R
(
)
m
X
1
2
1
2
1
2
2
1
2
1
2
X
1
2
X
X
Markowa nazywamy stacjonarnym, je
ż
eli jego wektor p-w stanów nie zale
ż
y od czasu: P(n)=P dla n=0,1,..... W przeciwnym
przypadku nazywamy go niestacjonarnym.
2. Poda
ć
sposób obl wart
ś
redniej jedno i dwuwymiarowej dystrybuanty, g
ę
sto
ś
ci p-wa syg los za pomoc
ą
u
ś
redniania po
[
]
zbiorze realizacji.
Jednowym dystryb syg los X(t) mo
2
2
2
2
Wariancja (dyspersja): jest stała:
(
t
)
=
E
(
X
(
t
)
m
)
=
C
(
0
=
=
const
X
X
X
X
16. Jak obliczamy p-wa stacjonarne stanów ła
ń
cucha Markowa?
ż
e by
ć
wyznaczona dla ustalonej chwili t
0
, punkt po punkcie, ze wzoru
N
Dla stacjonarnego ła
ń
cucha Markowa spełnione jest równanie P
S
T
Π
=P
S
T
, (P
S
T
(I-
Π
)=0), I=diag(1,1...1). Uwzgl
ę
dniaj
ą
c warunek
n
(
x
,
t
)
1
i
0
F
(
x
,
t
)
=
P
(
X
(
t
)
<
x
)
=
lim
8. Poda
ci dla sygnałów niestacjonarnych.
* Syg los X(t) nazywamy stacjonarnym rz
ę
du k, je
ż
eli p
n
(x
1
...x
n
,t
1
-t
0
...t
n
-t
0
)= p
n
(x
1
...x
n
,t
1
...t
n
) dla n

k. * Syg los X(t) nazywamy
asymptotycznie stacjonarnym w w
ć
i omówi
ć
def cz
ęś
ciowej stacjonarno
ś
x
i
=i

, i=..-2,-1,0,1,2,.. gdzie n
1
(x
1
,t
0
) jest liczb
ą
próbek realizacji syg los x(t)
M
m
X
i
0
0
i
N

=
normalizacyjny
P
1
=
1
mo
ż
emy z powy
ż
szych równa
ń
obliczy
ć
stacjonarne p-wo stanów P
Sm
; m=1,2...M
Sm
ą
skim sensie je
ż
eli istnieje granica: lim
t0
→∞
p
n
(x
1
...x
n
,t
1
+t
0
...t
n
+t
0
). * Syg los X(t) nazywamy
pobranych w chwili t
0
o warto
ś
ciach mniejszych od x
i
. Dwuwym dystryb mo
ż
na obliczy
ć
z analogicznego wzoru analaizuj
ą
c próbki
stacjonarnym w w
ą
skim sensie o ograniczonym przedziale czasowym je
ż
eli p
n
(x
1
...x
n
,t
1
-t
0
...t
n
-t
0
)= p
n
(x
1
...x
n
,t
1
...t
n
) spełniony jest dla
realizacji syg los X(t) pobrane w dwóch ró
ż
nych chwilach:
wszystkich chwil z tego przedziału, dla dowolnych warto
ś
ci n.
n
(
x
,
x
,
t
,
t
)
2
i
j
1
2
17. Klasyfikacja stanów ła
ń
cucha Markowa
F
(
x
,
x
,
t
,
t
)
=
P
(
X
(
t
)
<
x
,
X
(
t
)
<
x
)
=
lim
x
i
=i

, x
j
=j

, i,j=..-2,-1,0,1,2,..
X
i
j
1
2
1
i
2
j
Stan S
j
ła
ń
cucha Markowa nazywamy niepowrotnym je
ż
eli istnieje taki stan S
k
(k

j) i taka liczba kroków,
ż
e P
j,k
(n)>0 lecz P
k,j
(m)=0
N
9. Obja
ą
zania syg los.
Dwa syg los X(t) i Y(t) nazywamy stacjonarnie powi
ś
ni
ć
poj
ę
cie stacjonarnego powi
N
dla wszystkich warto
ś
ci m. Wszystkie inne stany nazywamy powrotnymi. Dwa stany ła
ń
cucha Markowa S
j
i S
k
nazywamy
ą
zanymi w szerokim sensie, je
ż
eli ich f-cja korelacji skro
ś
nej jest niezmienna
n
(
x
,
t
)
1
i
0
p
(
x
,
t
)
=
P
(
x
X
(
t
)
<
x
+
)
=
lim
komunikuj
ą
cymi si
ę
je
ż
eli dla pewnych warto
ś
ci n i m P
j,k
(n)>0 P
j,k
(m)>0. Zbiór stanów ła
ń
cucha Markowa mo
ż
e by
ć
podzielony na
Jednowym g
ę
sto
ść
p-wa:
x
i
=i

, i=..-2,-1,0,1,2,.. gdzie
δ
n
1
(x
1
,t
0
)
wzgl
ę
dem przesuni
ę
cia na osi czasu tzn: R
XY
(t
1
,t
2
)=e[X(t
1
)Y(t
2
)]=E[X(t
1
-t
1
)Y(t
2
-t
1
)]=R
XY
(
τ
). Je
ż
eli ka
ż
dy z syg los X(t) i Y(t) jest
x
i
0
i
0
i
N
N
stacjonarny w szerokim sensie, to nie oznacza to,
ż
e s
ą
one powi
ą
zane stacjonarnie w szerokim sensie.
podzbiory stanów komunikuj
ą
cych si
ę
.
jest liczb
ą
próbek realizacji syg los X(t) pobranych w chwili t
0
, o warto
ś
ciach le
żą
cych w przedziale (x
i
, x
i
+

).
18. Co to s
ą
p-wa finalne stanów ła
ń
cucha Markowa i jaki jest ich zwi
ą
zek z p-mi stacjonarnymi stanów ła
ń
cucha.
Dwuwym g
ę
sto
ś
c p-wa:
10. Proces Bernouliego i jego wła
ś
ciwo
ś
ci.
Dla regularnego ergodycznego ła
ń
cucha Markowa istnieje graniczny wektor p-w stanów P
final
=lim
n
→∞
P(n) który nazywamy wektorem
n
(
x
,
x
,
t
,
t
)
Ci
ą
g los X(n), -

<n<

, niezale
ż
nych zmiennych los przyjmuj
ą
cych dwie warto
ś
ci +1 i –1 (1 i 0 lub inne dowolne dwie warto
ś
ci) z
2
i
j
1
2
p-w finalnych stanów ła
ń
cucha
p
(
x
,
x
,
t
,
t
)
x
x
=
P
(
x
X
(
t
)
<
x
+
x
,
x
X
(
t
)
<
x
+
x
)
=
lim
prawdopodobie
ń
stwami odpowiednio równymi p i 1-p. Je
ż
eli p=½ to sygnał ten nosi nazw
ę
binarny biały szum. P-wo wyst
ą
pienia
x
i
j
1
2
i
j
i
1
i
i
j
2
j
j
.
N
N
podci
ą
gu (1,-1,-1,1) rozpoczynaj
ą
cego si
ę
w dowolnej chwili n
0
jest równe: P[(X(n
0
)=1), (X(n
0
+1)=-1),..., (X(n
0
+3)=1)]=p(1-p)(1-
20. Co to jest ukryty ła
ń
cuch Markowa
p)p=p
2
(1-p)
2
. P-wo to nie zale
ż
y od poło
ż
enia podci
ą
gu w ci
ą
gu, b
ę
dzie tak dla dowolnych podci
ą
gów, a wi
ę
c proces Bernouliego jest
3. Poda
ć
i omówi
ć
def równowa
ż
no
ś
ci i niezale
ż
no
ś
ci syg los.
Dwa syg los, których n-wymiarowe rozkłady p-wa s
X
2
2
Ukryty ła
ń
cuch Markowa jest to syg podwójnie stochastyczny – losowy jest sygnał S(n) b
ę
d
ą
cy ła
ń
cuchem Markowa
stacjonarny. Jest równie
ż
ergodyczny. Wart
ś
rednia procesu Bernouliego m
X
=E[X(n)]=1p+(-1)(1-p)=2p-1; wariancja
σ
=E[X(n)
]-
reprezentuj
ą
cym poło
ż
enie klucza i losowy jest syg wynikowy X(n) utworzony z sygnałów wyj
ś
ciowych dwóch
ź
ródeł, zale
ż
nie od
ą
jednakowe nazywamy równowa
ż
nymi. Dwa syg los X(t), Y(t) nazywami
(E[X(n)])
2
=(1
2
p+(-1)
2
(1-p))-(2p-1)
2
=4p(1-p), st
ą
d dla binarnego szumu białego m
X
=0,
σ
X
2
=1.
poło
ż
enia klucza. Sygnał S(n) nie mo
ż
e by
ć
obserwowany bezpo
ś
rednio – st
ą
d nazwa. Ła
ń
cuch Markowa jest ukryty w
(
)
T
(
)
T
niezale
ż
nymi je
ż
eli wektor los
X
(
t
),
X
(
t
),...,
X
(
t
)
jest niezale
ż
ny od wektora los
Y
(
t
),
Y
(
t
),...,
Y
(
t
)
dla
1
2
n
1
2
m
obserwowanym sygnale X(n).
11. Proces dwumianowy i jego wła
ś
ciwo
ś
ci
dowolnych t
1
...t
n
, t
1
...t
m
. Warunkiem koniecznym i dostatecznym niezale
ż
no
ś
ci syg X(t) i Y(t) jest równo
ść
g
ę
sto
ś
ci p-wa ł
ą
cznego
Jest to liczba dodatnich warto
ś
ci w procesie Bernouliego pocz
ą
wszy od ustalonej chwili n
0
do chwili bie
żą
cej n>n
0
. Dla n
0
=0:
21. Co to jest proces urodzin i
ś
mierci i za pomoc
ą
jakiego grafu mo
ż
na go przedstawi
ć
.
powy
ż
szych wektorów los iloczynowi g
ę
sto
ś
ci p-wa obu tych wektorów.
n
1
n
m
m
n
m
Jest to proces bł
ą
dzenia przypadkowego.
Y
(
n
)
=

(
X
(
k
)
+
),
1
P
(
Y
(
n
)
=
m
)
=
C
p
(
p
)
,
m=0,1,2...n. C
m
n
oznacza tu liczb
ę
kombinacji z n elementów
4. Poda
ć
def warunków g
ę
sto
ś
ci p-wa dla sygnałów los i ich wła
ś
ciwo
ś
ci dla rzeczywistych syg los.
2
1
0
0
1
1
k
=
1
p
(
x
,
x
,
t
,
t
)
po m elementów.
1
0
2
1
2
1
2
1
2
1
2
p
(
x
,
t
)
=
gdzie
p
(
x
,
t
)
=

p
(
x
,
x
,
t
,
t
)
dx
Wła
ś
ciwo
ś
ci:
1
1
(
x
,
t
)
12
2
2
2
1
2
1
2
1
Macierz przej
ść
tego ła
ń
cucha
2
2
p
(
x
,
t
)
0
...
12
2
2
12. Proces o niezale
ż
nych przyrostach, bł
ą
dzenie przypadkowe, dyskretny proces Wienera
2
4
lim
p
(
x
,
x
,
t
,
t
)
=
p
(
x
,
t
)
p
(
x
,
t
)
lim
p
(
x
,
t
)
=
p
(
x
,
t
)
n
0
0
1
2
1
2
1
2
11
1
1
12
2
2
1
1
(
x
2
t
2
)
11
1
1
4
4
X
(
n
)
=

−∞
=
(
k
)
|
t
2
t
1
|
t
2
t
1
Niech
, gdzie
ξ
(k) jest procesem Bernouliego przyjmuj
ą
cym warto
ś
ci +1 i –1 z prawdopodobie
ń
stwami p i 1-p. Z
Markowa ma posta
ć
macierzy pasmowej (trójdiagonalnej). Łatwo
lim
p
(
x
,
t
)
=
(
x
x
)
lim
p
(
x
,
x
,
t
,
t
)
=
p
(
x
,
t
)
(
x
x
)
k
sprawdzi
ć
ż
e p-wa stacjonarne spełniaj
ą
równania: P
Sm+1
β
m
=P
Sm+1
α
m
,
1
1
(
x
2
t
)
2
1
2
2
1
2
1
2
12
2
2
1
2
|
t
2
t
1
0
|
t
2
t
1
0
def procesu wynika,
ż
e przyrosty X(n)-X(n-1), X(n-1)-X(n-2),...,X(k)-X(k-1) s
ą
niezale
ż
ne statystycznie. Proces maj
ą
cy tak
ą
cech
ę
gdzie m=1,2,3,4. Oznacza to,
ż
e w stanie stacjonarnym p-wo przej
ś
cia ze stanu wy
ż
szego do stanu ni
ż
szego jest równe p-wu przej
ś
cia
nazywamy procesem o niezale
ż
nych przyrostach. Ma on t
ę
wła
ś
ciwo
ść
,
ż
e zdarzenia okre
ś
lone na nie zachodz
ą
cych na siebie
ze stanu ni
ż
szego do stanu wy
ż
szego.
n
n
5. Poda
ć
def wart
ś
redniej, f-cji autokorelacji, f-cji autokowariancji, f-cji korelacji i kowariancji skro
ś
nej dla rzecz syg los.
X
(
n
,
n
)
=
X
(
n
)
X
(
n
)
=

+
(
k
)
Wart
rednia: m
X
(t)=m(t)
1
=E(X(t)). F-cja autokorelacji: R
X
(t
1
,t
2
)=E[X(t
1
)X(t
2
)] F-cja autokowariancji: C
X
(t
1
,t
2
)=E[(X(t
1
)-
m
X
(t
1
))(X(t
2
)-m
X
(t
2
))]=R
X
(t
1
,t
2
)-m
X
(t
1
)m
X
(t
2
). F-cja korelacji skro
ś
ś
odcinkach czasu s
ą
niezale
ż
ne. Definiujemy nowy syg los:
dla n>n
0
(zakładamy,
ż
e
22. Jaki sygnał nazywamy absolutnie fair a jaki martyngałem.
Syg los X(n) nazywamy syg absolutnie fair je
0
0
ż
eli ma on nast wła
ś
ciwo
ść
: E{X(n)|x(n-1), x(n-2),...}=0. Syg los maj
ą
cy nast
ę
puj
ą
c
ą
nej: R
XY
(t
1
,t
2
)=E[X(t
1
)Y(t
2
)]. F-cja kowariancji skro
ś
nej:
k
=
1
0
wła
ś
ciwo
ść
: E{X(n)|x(n-1), x(n-2),...,y(n
0
)}=y(n-1) nosi nazw
ę
martyngału.
C
XY
(t
1
,t
2
)=E[(X(t
1
)-m
X
(t
1
))(Y(t
2
)-mY(t
2
))]=R
XY
(t
1
,t
2
)-m
X
(t
1
)m
Y
(t
2
).
X(n
0
,n
0
)=0). Sygnał ten jest znany jako bł
ą
dzenie przypadkowe i najcz
ęś
ciej jest definiowany dla n
0
=0 lub n
0
=-1. W szczególnym
przypadku, gdy p=½ wtedy
ξ
(k) jest binarnym białym szumem i syg los X(n,n
0
) jest nazywany dyskretnym procesem Wienera.
6. Zdefiniowa
ć
i omówi
ć
poj
ę
cia stacjonarno
ś
ci i ergodyczno
ś
ci syg los.
23. Syg los okresowy i cyklostacjonarny
Syg los X(n) nazywamy okresowym, je
ż
eli istnieje taka liczba całkowita M,
ż
e zachodzi nast. równo
ść
g
ę
sto
ś
ci p-wa:
Syg los X(t) nazywamy stacjonarnym w w
ą
skim sensie (
ś
ci
ś
le stacjonarnym), je
ż
eli jego wszystkie sko
ń
czenie-wymiarowe f-cje
13. Def procesu Markowa
Proces Markowa jest to syg los, dla którego warto
p(x
0
,x
1
,...,x
N
,n
0
,n
1
,...,n
N
)= p(x
0
,x
1
,...,x
N
,n
0
+k
0
,n
1
+k
1
·M,...,n
N
+k
N
·M) dla dowolnych warto
ś
ci n
0
,n
1
,...,n
N
, dowolnego zbioru liczb
rozkładu p-wa s
ą
niezmienne wzgl
ę
dem przesuni
ę
cia na osi czasu, tzn p
n
(x
1
,x
2
,...,x
n
,t
1
,...,t
2
)= p
n
(x
1
,x
2
,...,x
n
,t
1
-t
0
,...,t
2
-t
0
) dla dowolnych
ść
jednej próbki zale
ż
y od warto
ś
ci próbki bezpo
ś
rednio j
ą
poprzedzaj
ą
cej (proces
warto
ś
ci n oraz t
0
. Oznacza to,
ż
e dla stacjonarnego w w
ą
skim sensie syg los X(t) sygnały X(t) oraz X(t-t
0
) maj
ą
takie same
całkowitych k
0
,k
1
,...,k
N
i dla dowolnej warto
ś
ci N. Je
ż
eli równo
ś
c ta zachodzi tylko dla jednakowych warto
ś
ci liczb k
n
tzn dla k
0
=k
1
-
Bernouliego – próbki s
ą
niezale
ż
ne). Syg los nazywamy procesem Markowa je
ś
li rozkład p-wa warunkowego próbki X(n) przy
charakterystyki statystyczne (momenty dowolnego rz
ę
du) dla dowolnej warto
ś
ci t
0
. Stacjonarny syg los nazywamy
ś
ci
ś
le
..=k
N
, to mówimy,
ż
e syg los jest cyklostacjonarny.
warunku
ż
e ustalone s
ą
warto
ś
ci wszystkich poprzednich próbek, zale
ż
y tylko od warto
ś
ci próbki poprzedniej tzn: p(x
n
|x
n-1
,x
n-
ergodycznym je
ż
eli wszystkie jego charakterystyki statystyczne obliczone metod
ą
u
ś
redniania pojedynczej realizacji s
ą
równe, z
2
...)=p(x
n
|x
n-1
).
24. Opisa
ć
ide
ę
przej
ś
cia od dyskretnego procesu Wienera do ci
ą
głego procesu Wienera i obja
ś
ni
ć
dlaczego jest on
prawdopodobie
ń
stwem równym 1, odpowiednim charakterystykom obliczonym metod
ą
u
ś
redniania po zbiorze:
gaussowskim syg los. Czy jest on stacjonarny?
Dyskretny proces Wienera mo
ż
e w ka
ż
dej dyskretnej chwili, b
ę
d
ą
cej wielokrotno
ś
ci
ą
kwantu czasu

t, wzrosn
ąć
lub zmale
ć
o
28. Macierz korelacji i macierz kowariancji dla syg los i ich wła
ś
ciwo
ś
ci
34. Definicje i wła
ś
ciwo
ś
ci f-cji korelacji, kowariancji i g
ę
sto
ś
ci widmowej mocy dla zespolonych, ci
ą
głych syg los.
(
)
)
(
)
(
)
k
Mac korelacji syg los jest w pełni okre
ś
lona
(
R
X
(
t
,
t
)
=
E
X
(
t
)
X
(
t
)
C
(
t
,
t
)
=
E
X
(
t
)
m
(
t
)
X
(
t
)
m
(
t
R
(
0
0
R
(
0
...
R
(
0
N
1
F-cja korelacji:
; f-cja kow
ariancji
:
.

+
1
2
1
2
X
1
2
1
X
1
2
X
2
)
warto
ść
s z p-wem p=½:
W
(
k
t
=
s
(
i
)
k>k
0
, gdzie
ξ
(i) jest binarnym białym szumem. Warto
ść
ś
rednia dyskretnego
X
X
X
przez f-cj
korelacji syg los. Dla
stacjonarnego syg los f-cja korelacji jest
zale
ę
()
R
(
)
R
(
...
R
(
N
1
R
(
t
,
t
)
=
C
(
t
,
t
)
+
m
(
t
)
m
(
t
)
i
=
k
1
T
Zachodzi zwi
ą
zek:
.
X
X
X
X
1
2
X
1
2
X
1
X
2
0
R
=
E
X
X
=
na tylko od jednego argumentu i
macierz korelacji przyjmuje specyficzn
ż
X
k
...
...
...
...
Dla stacjonarnego syg los:
R
(
t
,
t
)
=
R
(
)
C
(
t
,
t
)
=
C
(
)
ą
X
1
2
X
X
1
2
X

+
procesu Wienera jest równa zeru:
E
(
W
(
k
t
))
=
s
E
[
(
i
)]
=
0
, natomiast wariancja
posta
ć
:
R
(
N
1
)
R
(
N
1
...
R
(
N
1
N
1
X
X
X
Jest to macierz Toeplitza.
i
=
k
1
R
(
)
=
R
(
)
∫∫
a
(
t
)
R
(
t
t
)
a
(
t
)
dt
dt
Wła
ś
ciwo
ś
ci R
X
(
τ
):
- symetria Hermite’a;
- dla dowolnej f-cji a(t)
0
X
X
2
X
2
1
1
1
2
R
(
0
R
(
...
R
(
N
2
)
R
(
N
1
k
X
X
X
X

+
2
2
Var
(
W
(
k
t
))
=
s
Var
[
(
i
)]
=
s
(
k
k
)
. Wprowadzaj
ą
c dodatkowe oznaczenia t=k·

t, t
0
=k
0
·

t obliczamy
0
R
(
1
R
(
0
)
...
R
(
N
3
R
(
N
2
)
dodatnia półokre
ś
lono
ść
.
X
X
X
X
i
=
k
1
0
...
...
...
...
...
j
2
f
S
(
f
)
=

R
(
)
e
d
t
t
F-cja g
ę
sto
ś
ci widmowej mocy dla stacjonarnych syg los:
2
X
X
0
R
(
N
+
2
R
(
N
+
3
...
R
(
0
R
(
Var
(
W
(
t
))
=
s
. Je
ż
eli zało
ż
ymy ze

t zmierza do zera oraz do zera zmierza te
ż
przyrost s w taki sposób
ż
e stosunek s
2
/

t
X
X
X
X
t
R
(
N
+
1
R
(
N
+
2
)
...
R
(
1
R
(
0
)
Wła
ś
ciwo
ś
ci: - przyjmuje warto
ś
ci rzeczywiste; - S
X
(f)

0 -

<f<

; - dla rzeczywistych syg los S
X
(f)=S
X
(-f); - nie jest f-cj
ą
okresow
ą
.
t
t
X
X
X
X
2
0
zmierza do stałej
ς
0
, to otrzymamy
Var
(
W
(
t
))
=
lim
s
=
(
t
t
)
. Tak okre
ś
lony proces W(t) nazywamy ci
ą
głym
0
0
(
)
T
t
t
(
) (
)
35. Wykaza
ć
ż
e dla ł
ą
cznie stacjonarnych ci
ą
głych sygnałó
w X(t) i Y
(t) zachodzi R
XY
(
τ
)=R
YX
(-
τ
)
Podobnie macierz kowariancji syg los X(t) zdefiniowana wzorem
C
=
E
X
m
X
m
jest całkowicie okre
ś
lona
X
X
X
procesem Wienera. Jest on gaussowskim syg los, poniewa
ż
g
ę
sto
ść
p-wa dowolnego rz
ę
du ci
ą
głego procesu Wienera jest
(
)
(
) (
)
(
) (
)
R
(
)
=
E
(
X
(
t
))
Y
(
t
+
)
R
(
)
=
E
Y
(
t
)
X
(
t
)
=
E
X
(
t
)
Y
(
t
)
=
R
(
)
XY
YX
XY
gaussowska. Proces Wienera jest niestacjonarny, poniewa
ż
wariancja procesu Wienera jest zale
ż
na od czasu.
przez f-cj
ę
kowariancji i dla stacjonarnego syg los jest Hermitowsk
ą
symetryczn
ą
macierz
ą
Toeplitza. Wła
ś
ciwo
ś
ci dodatniej
półokre
ś
lono
ś
ci f-cji korelacji (kowariancji) implikuje dodatni
ą
półokre
ś
lono
ść
macierzy korelacji (kowariancji).
36. Wykaza
ć
ż
e dla ł
ą
cznie stacjonarnych ci
ą
głych s
yg X(t) i Y(t) zachodzi S
XY
(f)=S
YX
(f)
25. Wła
ś
ci gaussowskich syg los.
* GSL jest w pełni okre
ciwo
ś
ś
lony przy znajomo
ś
ci warto
ś
ci
ś
redniej m
X
(t) i f-cji kowariancji C
X
(t
1
,t
2
). * Dla GSL brak korelacji mi
ę
dzy
29. F-cja korelacji i kowariancji skro
ś
nej, ortogonalno
ść
, nieskorelowanie i ł
ą
czna stacjonarno
ść
syg los zespolonych.
(
)
j
2
f
j
2
f
j
2
f
warto
ś
ciami procesu jest równowa
ż
ny ich niezale
ż
no
ś
ci. * Dla GSL poj
ę
cie stacjonarno
ś
ci w sensie szerokim i w sensie w
ą
skim s
ą
S
(
f
)
=

R
(
)
e
d
S
(
f
)
=

R
(
)
e
d
=

R
(
)
e
d
=
R
XY
(
n
,
n
)
=
E
X
(
n
)
Y
(
n
)
F-cja korelacji skro
ś
nej dla dwóch syg los X(n) i Y(n):
.
XY
XY
YX
YX
YX
1
2
1
2
to
ż
same. * Warunkowe g
ę
sto
ś
ci p-wa dla GSL s
ą
tak
ż
e gaussowskie. * Liniowe przekształcenie GSL jest te
ż
GSL. *
[
(
) (
)
]
Niegaussowski syg los podany na wej
ś
cie inercyjnego układu liniowego powoduje pojawienie si
ę
na jego wyj
ś
ciu sygnału zbli
ż
onego
F-cja kowariancji skro
ś
nej:
C
(
n
,
n
)
=
E
X
(
n
)
m
(
n
)
Y
(
n
)
m
(
n
)
XY
1
2
1
X
1
2
Y
2
do GSL i przybli
ż
enie jest tym lepsze im wi
ę
ksza jest stała czasowa układu.
Syg los s
ą
ortogonalne je
ż
eli R
XY
(n
1
,n
2
)=0 i s
ą
nieskorelowane je
ż
eli C
XY
(n
1
,n
2
)=0 (
R
(
n
,
n
)
=
m
(
n
)
m
(
n
)
). Dwa syg
j
2
f
(
)
26. Funkcje korelacji i kowariancji dla zespolonych syg los – definicje i wła
XY
1
2
X
1
Y
2

R
(
)
e
d
=
S
(
f
)
XY
XY
ś
ciwo
ś
ci
los X(n) i Y(n) s
ą
ł
ą
cznie stacjonarne w szerokim sensie, je
ż
eli: X(n) i Y(n) s
ą
stacjonarne w szerokim sensie oraz f-cja korelacji
(
)
skro
ś
nej jest f-cj
ą
tylko odst
ę
pu mi
ę
dzy próbkami tzn R
XY
(n
1
,n
2
)=R
XY
(n
2
-n
1
). F-cja korelacji skro
ś
nej i f-cja kowariancji skro
ś
nej nie
F-cja korelacji:
R
X
(
n
,
n
)
=
E
X
(
n
)
X
(
n
)
.
1
2
1
2
s
ą
dodatnio półokre
ś
lone i nie maj
ą
wła
ś
ciwo
ś
ci symetrii.
(
)
37. Poda
ć
twierdzenie o próbkowaniu dla syg los.
(
)
F-cja kowariancji:
C
(
n
,
n
)
=
E
X
(
n
)
m
(
n
)
X
(
n
)
m
(
n
)
.
X
1
2
1
X
1
2
X
2
Je
ż
eli f-cja g
ę
sto
ś
ci widmowej mocy ci
ą
głego syg los X
C
(t) ma warto
ść
równ
ą
zero na zewn
ą
trz przedziały (-b,b), to syg los
30. Def i wła
ś
ciwo
ś
ci g
ę
sto
ś
ci widmowej mocy dyskretno-czasowych syg los.
Dla stacjonarnego sygnału losowego:
R
(
n
,
n
)
=
R
(
n
n
)
=
R
(
l
)
=
E
(
X
(
n
)
X
(
n
+
l
)
)
X
1
2
X
2
1
X
sin(
x
)
F-cj
ą
g
ę
sto
ś
ci widmowej mocy nazywamy transformat
ę
Fouriera f-cji autokorelacji stacjonarnego syg los:
(
)
X
1
(
t
)
=
n

X
(
n
)
sin
c
(
2
Bt
n
)
, gdzie
sin
c
(
x
)
=
, a X(n) jest dyskretnym syg los otrzymanym przez
(
)
C
C
(
n
,
n
)
=
C
(
n
n
)
=
C
(
l
)
=
E
X
(
n
)
m
X
(
n
+
l
)
m
, gdzie l=n
2
-n
1
x
X
1
2
X
2
1
X
X
X
j
j
l
s
(
e
)
=
l

R
(
l
)
e
=
, s
X
(e
j
ω
) ma wymiar mocy na jednostk
ę
cz
ę
stotliwo
ś
ci. Wła
ś
ciwo
ś
ci: s
X
(e
j
ω
) przyjmuje warto
ś
ci
Wła
ś
ciwo
ś
ci: 1. f-cje korelacji i kowariancji stacjonarnych syg los s
ą
symetrycznie sprz
ęż
onymi f-cajmi swoich argumentów tzn
X
X
2
próbkowanie syg los X
C
(t) w odst
ę
pach T=1/2B i jest rekonstrukcj
ą
syg los X
C
(t) w tym sensie,
ż
e E[(|X
C
(t)-X1
C
(t)|)
]=0
R
X
(l)=[R
X
(-l)]*; C
X
(l)=[C
X
(-l)]*; dla rzeczywistych syg los f-cje korelacji i kowariancji s
ą
parzystymi f-cjami odst
ę
pu l: R
X
(l)=R
X
(-l);
=
j(
ω
+2k
π
)
j
ω
); s
X
(e
j
ω
)

0; dla rzeczywistych syg los jest parzyst
ą
funkcj
ą
pulsacji tzn: s
X
(e
j
ω
)= s
X
(e
-j
ω
).
C
X
(l)=C
X
(-l).
2. f-cja korelacji i f-cja kowariancji stacjonarnego syg los s
rzeczywiste; s
X
[e
]=s
X
(e
38. Definicja i wła
ci białego szumu, białego szumu pasmowego i dyskretnego białego szumu.
Białym szumem nazywamy stacjonarny syg los X(t) o zerowej warto
ś
ciwo
ś
ą
dodatnio półokre
ś
lone tzn:
ś
ci
ś
redniej, którego f-cja g
ę
sto
ś
ci widmowej mocy ma stał
ą
31. Jak interpretujemy impuls dla pulsacji
ω
=0 w g
ę
sto
ś
ci widmowej mocy
warto
ść
: S
X
(f)=N
0
-

<f<

. F-cja korelacji białego szumu jest wi
ę
c f-cj
ą
delt
ą
Diraca: R
X
(
τ
)=N
0
δ
(
τ
) co oznacza,
ż
e próbki białego
∑∑
a
(
n
)
R
(
n
n
)
a
(
n
)
0
∑∑
a
(
n
)
C
(
n
n
)
a
(
n
)
0
Je
ż
eli syg los ma niezerow
ą
warto
ść
ś
redni
ą
, to jego widmo g
ę
sto
ś
ci mocy b
ę
dzie miało pr
ąż
ek dla
ω
=0 odpowiadaj
ą
cy warto
ś
ci
dla dowolnego ci
ą
gu a(n) o
szumu s
ą
zawsze nieskorelowane. Stacjonarny syg los o stałej warto
ś
ci f-cji g
ę
sto
ś
ci widmowej mocy w ograniczonym pa
ś
mie
1
X
2
1
2
1
X
2
1
2
|m
X
|
2
, b
ę
d
ą
cej składow
ą
stał
ą
f-cji korelacji. R
X
(l)=C
X
(l)-m
X
m
X
*, najcz
ęś
ciej zakłada si
ę
ż
e warto
ś
c
ś
rednia została usuni
ę
ta i w
n
1
=
n
2
=
n
1
=
n
2
=
cz
ę
stotliwo
ś
ci nazywamy pasmowym białym szumem: S
X
(f)=N
0
-B<f<B. Jego f-cja korelacji jest dana wzorem:
zwi
ą
zku z tym impuls w widmie dla zerowej pulsacji odpowiada losowej składowej stałej.
warto
ś
ciach rzeczywistych lub zespolonych.
R
X
(
τ
)=2BN
0
sin(2
π
B
τ
) i przyjmuje warto
ś
ci równe zero w punktach
τ
k
=k/2B dla k=...,-2,-1,0,1,2,... Wynika st
ą
d,
ż
e pasmowy biały
Powy
ż
sze wła
ś
ciwo
ś
ci stanowi
ą
warunki konieczne i dostateczne dla zakwalifikowania dowolnego ci
ą
gu liczbowego jako f-cji
szum spróbkowany w odst
ę
pach T=1/2B ma f-cj
ę
korelacji równ
ą
zero w punktach
τ
k
=k/2B i jedyn
ą
warto
ść

ż
n
ą
od zera w punkcie
32. Definicja i wła
ś
ciwo
ś
ci skro
ś
nej g
ę
sto
ś
ci widmowej mocy
τ
=0 równ
ą
σ
2
=2BN
0
. St
ą
d f-cja g
ę
sto
ś
ci widmowej mocy spróbkowanego w taki sposób pasmowego białego szumu ma stał
ą
warto
ść
:
korelacji lub kowariancji. Z własno
eli syg los jest
okresowy, to wszystkiejego momenty te
ż
s
ą
okresowe, a wi
ę
c f-cja korelacji i f-cja kowariancji s
ą
f-cjami okresowymi maj
ą
cymi
niesko
ś
ci 2 wynikaj
ą
nierówno
ś
ci: R
X
(0)

R
X
(l) C
X
(0)=Var(X(n))

C
X
(l), gdzie l

0. Je
ż
0
S
X
(e
j
ω
)=
σ
2
=2BN
0
. Sygnał ten nazywamy dyskretnym białym szumem. Dowolny dyskretny syg los o zerowej warto
ś
ci
ś
redniej,
j
j
l
s
(
e
)
=
l

R
(
l
)
e
0
; wła
ś
ciwo
ś
ci skro
ś
nej g
ę
sto
ś
ci widmowej mocy: - jest wielko
ś
ci
ą
o warto
ś
ciach zespolonych; -
ń
czon
ą
liczb
ę
maksimów o warto
ś
ciach R
X
(0) lub C
X
(0) pojawiaj
ą
cych si
ę
co całkowit
ą
wielokrotno
ść
okresu.
XY
XY
którego próbki s
ą
nieskorelowane okre
ś
lany jest jako dyskretny biały szum. W ogólnym przypadku f-cja korelacji białego szumu
2
=
W(n) ma posta
ć
: R
W
(n
1
,n
2
)=(
σ
0
(n
1
))
·
δ
(n
2
-n
1
). Zwykle zakłada si
ę
,
ż
e dyskretny biały szum jest stacjonarny, w tym przypadku jego f-
cja korelacji jest równa: R
W
(l)=
σ
0
2
·
δ
(l) a funkcja g
ę
sto
ś
ci widmowej mocy dana jest wzorem: S
W
(e
j
ω
)=
σ
2
27. Wyk
aza
ć
:
j
j
0
jest f-cj
ą
okresow
ą
z okresem 2
π
; -
s
(
e
)
=
s
(
e
)
, ten sam moduł ale przeciwna faza; - dla
rzeczywisty
ch syg los f-cja
(
)
(
)
XY
YX
R
(
l
)
=
E
X
(
n
)
X
(
n
l
)
=
E
X
(
n
l
)
X
(
n
)
=
R
(
l
)
X
X
39. Na czym polega estymacja parametrów metod
ci.
Zakładamy,
ż
e dysponujemy zbiorem wyników pomiarów reprezentowanych przez wektor los X (wektor obserwacji). Wektor los X
mo
ą
najwi
ę
kszej wiarygodno
ś
j
j
s
(
e
)
=
s
(
e
)
(
)
(
)
korelacji skro
ś
nej przyjmuje warto
ś
ci rzeczywiste i w zwi
ą
zku z tym zachodzi równo
ść
, moduł jest
(
) (
)
(
) (
)
XY
XY
C
(
l
)
=
E
X
(
n
)
m
X
(
n
l
)
m
=
E
X
(
n
)
m
X
(
n
l
)
m
=
C
(
l
)
X
X
X
X
X
X
parzyst
ą
a faza nieparzyst
ą
f-cj
ą
ω
.
utworzony przez zbiór obserwacji skalarnych: X=[X
1
,...,X
N
]
T
lub zbiór obserwacji wektorowych: X=[V
1
T
,...,V
N
T
]
T
.
Pojedyncze obserwacje mog
ż
e by
ć
ą
by
ć
zale
ż
ne lub niezale
ż
ne statystycznie. Zakładamy,
ż
e znamy typ rozkładu p-wa wektora los (np.
33. F-cja koherencji
F-cj
rozkład Gaussa, rozkład równomierny itp.) lecz nie jest znana warto
ść
p-wa wektora obserwacji
oznaczamy: p(x,
θ
). Estymat
ą
najwi
ę
kszej wiarygodno
ś
ci parametru q, przy danym wektorze obserwacji X
O
nazywamy tak
ą
warto
ść
q,
dla której p(X
O
,q) przyjmuje warto
ustalonego parametru q. G
ę
sto
śś
j
S
(
e
)
j
XY
ść
maksymaln
ą
i oznaczamy j
ą
q
NW
ą
koherencji nazywamy unormowan
ą
f-cj
ę
skro
ś
nego widma g
ę
sto
ś
ci mocy:
(
e
)
=
. Cz
ę
sto
XY
j
j
S
(
e
)
S
(
e
)
X
Y
40. Obja
ś
cie estymata i estymator
Zadane estymacji polega na obliczaniu nieznanych lub losowych wielko
ni
ć
poj
ę
zamiast operowa
ć
modułem skro
ś
nego widma g
ę
sto
ś
ci mocy u
ż
ywa si
ę
kwadratu modułu funkcji koherencji (MSC):
ś
ci na podstawie znajomo
ś
ci wyników obserwacji b
ę
d
ą
cych
2
realizacjami zmiennych losowych. Rozró
ż
niamy dwie podstawowe klasy problemów zwi
ą
zanych z estymacj
ą
: 1). Estymowana
j
S
(
e
)
2
2
wielko
ść
jest ustalona lecz nieznana (np. maj
ą
c zbiór realizacji zmiennej los gaussowskiej o nieznanej warto
ś
ci
ś
redniej nale
ż
y
XY
Γ
j
Γ
j
(
e
)
=
, który ma wła
ś
ciwo
ść
0
XY
e
(
)
1
obliczy
ć
estymat
ę
jej warto
ś
ci
ś
redniej).; 2). Estymowana wielko
ść
jest zmienn
ą
losow
ą
(np. staramy si
ę
odtworzy
ć
sygnał wej
ś
ciowy
XY
j
j
S
(
e
)
S
(
e
)
do pewnego układu dysponuj
ą
c zaszumionymi próbkami sygnału wyj
ś
ciowego z tego układu). W pierwszym przypadku mówimy o
X
Y
estymacji parametrów (np. warto
ś
ci
ś
redniej, f-cji korelacji, f-cji g
ę
sto
ś
ci widmowej mocy). W drugim przypadku mówimy o
estymacji zmiennych losowych (problemy zwi
ą
zane z filtracj
ą
, predykcj
ą
).
41. Poda
ć
i obja
ś
ni
ć
wła
ś
ciwo
ś
ci estymatorów
Estymatory najwi
lenia, który z estymatorów jest, w danym
przypadku, lepszy rozpatrzymy niektóre wła
ś
ciwo
ś
ci estymatorów. Wprowadzamy przy tym oznaczenie:
θ
N
=
θ
ę
kszej wiarygodno
ś
ci s
ą
jednymi z wielu mo
ż
liwych. W celu okre
ś
N
(X), gdzie N oznacza
liczb
obserwacji.
1 estymator nazywamy nieobci
ę
ąż
onym je
ż
eli E(
θ
N
)=0 czyli wtedy, kiedy warto
ść
ś
rednia estymatora jest równa prawdziwej warto
ś
ci
estymowanego parametru. W przeciwnym przypadku estymator jest obci
ąż
ony i wielko
ść
b(
θ
)=E(
θ
N
)-
θ
nazywamy obci
ąż
eniem
estymatora. Estymator jest asymptotycznie nieobci
ąż
ony, je
ż
eli lim
N
→∞
E(
θ
N
)=
θ
.
2 estymator
θ
N
jest spójny je
ż
eli lim
N
→∞
P(|
θ
N
-
θ
|<
ε
)=1 dla dowolnie małej liczby
ε
>0. (Ci
ą
g zmiennych losowych
θ
N
dla rosn
ą
cych
warto
ś
ci N jest zbie
ż
ny w prawdopodobie
ń
stwie do prawdziwej warto
ś
ci estymowanego parametru).
3 estymator jest efektywny w odniesieniu do innego estymatora, je
ż
eli ma mniejsz
ą
od niego wariancj
ę
. Je
ż
eli estymator
θ
N
jest
nieobci
ąż
ony i efektywny w stosunku do estymatora
θ
N-1
to estymator
θ
N
jest spójny. Wynika to z nierówno
ś
ci Czebyszewa: P(|
θ
N
-
θ
|
≥ε
)

Var(
θ
N
)/
ε
2
. Zbadajmy estymator najwi
ę
kszej wiarygodno
ś
ci dla warto
ś
ci
ś
redniej zmiennej losowej o rozkładzie Gaussa:
N
N
n
1
1
1

=

=
M
=
X
. Warto
ść
ś
rednia tego estymatora jest równa:
E
(
M
)
=
E
(
X
)
=
Nm
=
m
, a wi
ę
c estymator jest
N
n
N
n
N
N
N
n
1
1
2
N
n
N
1
1
1
(
)
2
0
Var
(
M
)
=
Var

X
=

Var
(
X
)
=
N
(
)
=
nieobci
ąż
ony. Wariancja estymatora jest równa:
N
n
n
0
N
2
2
N
N
N
=
1
n
=
1
2
(
)
0
lim
Var
(
M
)
=
lim
=
0
, czyli estymator jest spójny.
N
N
N
N
42. Poda
ć
i obja
ś
ni
ć
nierówno
ść
Cramera-Rao
Je
ż
eli
θ
N
jest nieobci
ąż
onym estymatorem parametru
θ
, to jego wariancja spełnia nierówno
ść
:
1
Var
(
)
. Estymator, dla którego zachodzi równo
ść
nazywamy najbardziej efektywnym lub
N
2
d
(
(
)
)
E
ln
p
X
,
d
estymatorem o najmniejszej wariancji. Mo
ż
na wykaza
ć
,
ż
e równo
ść
zachodzi wtedy i tylko wtedy, kiedy estymator spełnia
d
(
(
)
)
(
X
)
=
K
(
)
ln
p
X
,
warunek:
, gdzie K(
θ
) mo
ż
e by
ć
f-cj
ą
estymowanego parametru lecz nie mo
ż
e by
ć
f-cj
ą
d
1
Var
(
)
estymatora. Inna posta
ć
nierówno
ś
ci Cramera-Rao:
N
2
d
(
(
)
)
E
ln
p
X
,
2
d
 

  • zanotowane.pl
  • doc.pisz.pl
  • pdf.pisz.pl
  • jucek.xlx.pl






  • Formularz

    POst

    Post*

    **Add some explanations if needed