Системи випадкових величин

СИСТЕМИ ВИПАДКОВИХ ВЕЛИЧИН

(реферат)

Вступ

N-вимірний вектор (t-індекс транспонування) називається випадковим, якщо його координати є випадковими величинами. Вектор називають дискретним, якщо його координати  дискретні випадкові величини, неперервним, якщо його компоненти  неперервні випадкові величини і змішаним, якщо частина його компонент – дискретні випадкові величини, а інша частина – неперервні випадкові величини. Випадкові N-вимірні вектори називають ще системою N випадкових величин або багатовимірними випадковими величинами. В подальшому розглядаються двовимірні випадкові вектори (системи двох випадкових величин), які позначаються .

1. Розподіли системи двох випадкових величин

Система двох дискретних випадкових величин однозначно визначається сумісним розподілом ймовірностей, який можна задати матрицею

y>1> y>2> … y>m>

, (1.1)

().

Стовпчики матриці відповідають значенням випадкової величини Y , а рядки – значенням випадкової величини X. Події утворюють повну групу подій, тому сума елементів матриці дорівнює 1:

.

Розподіли

,

називають розподілами компонент системи двох випадкових величин . Події , ,..., є несумісними, тому за теоремою додавання ймовірностей несумісних подій сума елементів і-рядка матриці дорівнює ймовірності значення :

.(1.1а)

Аналогічно, сума елементів j-стовпчика дорівнює ймовірності значення :

.(1.1b)

Приклад 1.1. Система двох випадкових величин задана сумісним розподілом

y>1> y>2>

Знайти розподіли компонент системи випадкових величин.

Розв’язування. За формулами (1.1а) та (1.1b)

;

;

;

; .

Отже, розподіли компонент

.

Будь-який двовимірний випадковий вектор (неперервний чи дискретний) однозначно визначається інтегральною функцією сумісного розподілу

, (1.2)

яка визначає ймовірність того, що випадкова величина X приймає значення менше ніж x, а  менше ніж y. Геометрична інтерпретація інтегральної функції сумісного розподілу полягає в тому, що вона визначає ймовірність попадання випадкової точки у нескінченний заштрихований квадрат із вершиною в точці (рис 1.1).

Інтегральна функція розподілу випадкового вектора має такі очевидні властивості.

Властивість 1.

.

Властивість 2. Функція неспадна по кожному аргументу

, якщо ;

, якщо .

Властивість 3. Мають місце граничні співвідношення

, , , .

Властивість Для функція мають місце ще і такі граничні співвідношення

,

,

 інтегральна функція розподілу компоненти X випадкового вектора .

 інтегральна функції розподілу компоненти Y випадкового вектора .

З використанням функції розподілу (1.2) легко можна обчислити ймовірність попадання випадкової точки у напівсмугу та (рис 1.2)

, (1.3а)

.(1.3б)

Імовірність попадання випадкової точки у напівсмугу дорівнює приросту інтегральної функції сумісного розподілу по відповідному аргументу.

Доведення. Імовірність попадання у напівсмугу дорівнює різниці ймовірності попадання точки у нескінченний квадрат з вершиною ()і ймовірності попадання точки у нескінченний квадрат з вершиною (. Звідси і слідує рівність (1.3а)

Імовірність попадання випадкової точки у прямокутник утворений прямими

(рис.1.3) обчислюється за формулою

(1.4)

Доведення. Імовірність попадання у прямокутник дорівнює різниці ймовірності попадання точки у напівсмугу ()і ймовірності попадання у напівсмугу (). Звідси і слідує рівність (1.3а)

Приклад 1.2. Знайти ймовірність пападання випадкової точки у прямокутник обмеженний прямими , , , , якщо відома інтегральна функція сумісного розподілу

Розв’язування. За формулою (1.4) в якій , , ,

Система двох неперервних випадкових величин однозначно визначається густиною сумісного розподілу ймовірностей

. (1.5)

Приклад 1.3. Знайти густину сумісного розподілу системи випадкових величин, якщо відома інтегральна функція сумісного розподілу

Розв’язування. За формулою (1.5)

Інтегральна функція сумісного розподілу неспадна по кожному аргументу і тому

.

За відомою густиною сумісного розподілу інтегральну функцію сумісного розподілу можна визначити за формулою

(1.6)

Приклад 1. Знайти інтегральну функцію сумісного розподілу системи випадкових величин, якщо відома густина сумісного розподілу

.

Розв’язування. За формулою (1.6)

.

Враховуючи , що (властивість 3), для густини сумісного розподілу можна записати рівність нормування

.

Ймовірність попадання випадкової точки у довільну область (рис.1.3) обчислюється за формулою

,(1.7)

яка одразу слідує з означення подвійного інтеграла

Приклад 1.5. Система випадкових величин задана густиною сумісного розподілу

.

Знайти ймовірність попадання випадкової точки у прямокутник з вершинами , ,,.

Розв’язування. За формулою (1.7)

.

.

Функції

,(1.8a)

.(1.8b)

є інтегральними функціями розподілу компонент системи двох неперервних величин .

Приклад 1.6. Система випадкових величин задана густиною сумісного розподілу

.

Знайти інтегральні функції компонент.

Розв’язування. За формулою (1.8а)

.

За формулою (1.8б)

.

За відомою густиною сумісного розподілу ймовірностей системи двох випадкових величин можна обчислити густину розподілу кожної її компоненти:

(1.9a)

(1.9b)

Доведення. З означення густини розподілу компоненти та з врахуванням (1.8a)

.

Аналогічно для другої компоненти:

Приклад 1.7. Двовимірний вектор задан густиною сумісного розподілу

Знайти густини розподілів компонент X та Y.

Розв’язування. За формулою (1.9а) при

,

і при . Отже,

За формулою (1.9b) при

,

і при . Отже,

Дискретні випадкові двовимірні вектори однозначно визначаються також умовними розподілами компонент X,Y:

,

- умовна ймовірність події за умови того, що подія вже настала,

- умовна ймовірність події за умови, що подія вже настала.

За теоремою множення ймовірностей залежних подій

,(1.10а)

(),

, (1.10b)

().

Приклад 1.8. Необхідно обчислити умовні розподіли компоненти X системи випадкових подій із сумісним розподілом

y>1 >y>2>

при .

Розв’язування. Імовірність події () за формулою (1.1b).

За формулою (1.10а)

,

,

.

Умовний розподіл компоненти X при

Імовірність події () за формулою (1.1b).

.

За формулою (1.10а)

,

,

.

Умовний розподіл компоненти X при

.

Імовірність події () за формулою (1.1a)

.

За формулою (1.10b)

,

.

Умовний розподіл компоненти Y при

.

Імовірність події () за формулою (1.1a)

.

За формулою (1.10b)

,

.

Умовний розподіл компоненти Y при

Імовірність події () за формулою (1.1a)

.

За формулою (1.10b)

,

.

Умовний розподіл компоненти Y при

.

Умовні густини розподілу компонент системи двох неперервних випадкових величин визначаються рівностями

,(1.11a)

,(1.11b)

- умовна густина розподілу ймовірності компоненти X при фіксованому значенню , - умовна густина розподілу ймовірності компоненти Y при фіксованому значенню .

Приклад 1.9. Двовимірний вектор заданий густиною сумісного розподілу

.

Знайти умовні розподіли компонент X та Y.

Розв’язування. в крузі радіуса r і тому за формулою (1.11a)

при і

при .

У підсумку

Аналогічно за формулою (1.11b)

Як і будь-які інші густини розподілу, умовні ймовірності мають такі властивості

,

.

Дві випадкові величини є незалежними, якщо закон розподілу однієї з них не залежить від значення іншої. Умовні розподіли незалежних величин дорівнюють їх розподілам:

для неперервних величин і

.

для дискретних випадкових величин.

Необхідною та достатньою умовою незалежності випадкових величин є

,(1.12а)

або, як наслідок,

.(1.12b)

2. Характеристики системи двох випадкових величин

Система двох випадкових величин з достатньою точністю може характеризуватися початковими та центральними моментами компонент порядку , які є числами і тому називаються чисельними характеристиками, і умовними початковими та центральними моментами компонент порядку , які є функціями можливих значень компонент.

Початкові та центральні моменти означаються рівностями

(2.1а)

(2.1б)

Найбільш важливими серед них є математичне сподівання компонент, дисперсії компонент та кореляційний момент.

Математичні сподівання компонент означаються так:

(2.2а)

(2.2б)

З використанням математичних сподівань компонент початкові та центральні моменти системи двох випадкових величин можна означити більш зручним способом:

,(2.3а)

,(2.3б)

(- центровані компоненти);

Дисперсії компонент означаються тотожностями

,(2.4а)

;(2.4б)

Кореляційний момент характеризує лінійний зв’язок між випадковими величинами. Він означається як центральний момент і позначається :

,(2.5)

(2.6)

Кореляційний момент часто називають коваріацією і позначається .

З використанням кореляційного моменту і коефіцієнта кореляції 3 –у властивість дисперсії (3.3.2.7) можна узагальнити на випадок суми (різниці) довільних випадкових величин:

.(2.7)

Доведення.

.

.

Для незалежних випадкових величин кореляційний момент дорівнює нулю:

.

Доведення.

.

Абсолютна величина кореляційного моменту випадкових величин не перевищує середньогеометричного значення дисперсій:

(2.8)

Доведення. Дисперсія випадкової величини дорівнює

.(1*)

Дійсно:

,

,

.

За означенням дисперсія невід’ємна, тому з (1*)

звідки

.(2*)

Аналогічно, дисперсія випадкової величини дорівнює

,

звідки

.(3*)

Нерівності (2*) та (3*) рівносильні одній нерівності

=.

З означення кореляційного моменту слідує, що його розмірність дорівнює добутку розмірностей випадкових величин. Іншими словами, величина (точніше, число, яке визначає цю величину) кореляційного моменту залежить від одиниць вимірювання випадкових величин. Цього недоліку немає коефіцієнт кореляції, який визначається відношенням кореляційного моменту випадкових величин і добутку середньоквадратичних відхилень компонент та :

(2.9)

Абсолютна величина коефіцієнта кореляції не перевищує одиниці:

.(2.10)

Нерівність (2.10) очевидна, якщо розділити нерівність (2.8) на .

Дві випадкові величини X та Y називають корельованими, якщо їх коефіцієнт кореляції не дорівнює нулю і, відповідно, некорельованими, якщо коефіцієнт кореляції дорівнює нулю. Дві випадкові корельовані величини обов’язково залежні. (з умови одразу слідує, що , а для незалежних величин кореляційний момент обов’язково дорівнює нулю). Залежні величини можуть бути як корельованими, так і некорельованими.

Приклад 2.1. Двовимірна випадкова величина задана густиною сумісного розподілу:

.

Довести, що випадкові величини X та Y – залежні некорельовані величини.

Доведення. Необхідно довести, що та . З прикладу 1.7. густини розподілу компонент

Видно, що , а це означає, що випадкові величини X та Y залежні. Математичні сподівання розподілів компонет і як симетричних розподілів. З врахуванням цього, з означення кореляційного моменту (2.5)

,

(інтеграли від непарних функцій у симетричних границях дорівнюють нулю), а це і означає, що залежні випадкові величини X та Y некорельовані.

Незалежні випадкові величини обов’язково некорельовані. Некорельовані випадкові величини можуть бути як незалежними, так і залежними. Проте, некорельовані випадкові величині із нормальним розподілом у сукупності

(2.11)

обов’язково незалежні ( та - математичні сподівання випадкових величин та .

Доведення Якщо (некорельованість випадкових величин), то (2.11) переходить у

(незалежність випадкових величин).

З використанням сумісного розподілу системи випадкових величин та моментів можна строго довести властивості математичного сподівання випадкової величини (3.3.1.5) та (3.3.1.6)

Доведення 3-ї властивості математичного сподівання. За означенням для дискретних величини

.

Для неперервних величин

Доведення 4-ї властивості математичного сподівання. За означенням для дискретних величини

.

(враховано, що для незалежних подій )

Для неперервних величин

.

Умовні початкові та центральні моменти порядку k компонент означаються рівностями

(2.12a)

(2.12b)

(2.13а)

(2.13b)

Найбільш важливими серед умовних моментів є умовні математичні сподівання компонент

(2.14а)

(2.14b)

Умовні математичні сподівання компонент характеризують зв’язок між випадковими величинами Умовне математичне сподівання компоненти Y є функцією x і називається функцією регресії Y на X. Аналогічно, умовне математичне сподівання компоненти X є функцією y і називається функцією регресії X на Y.

Приклад 2.2. Дискретна випадкова величина задана сумісним розподілом

y>1>=3> >y>2>=6

Необхідно обчислити функцію регресії Y на X та функцією регресії X на Y.

Розв’язування. За означенням (2.14b) регресія Y на X

. (1*)

За формулою (1.1a)

,

За формулою (1.10а)

, .

За формулою (1*)

.

Аналогічно для решти значень випадкової величини X .

, , ,

.

, , ,

.

, , ,

.

Отже, функція регресії Y на X

За означенням (2.14a) регресія X на Y

.(2*)

За формулою (1.1b)

.

За формулою (1.10b)

, , ,

.

За формулою (2*)

.

Аналогічно для іншого значення випадкової величини Y.

,

,,

, ,

.

Отже, функція регресії X на Y

.

Середньоквадратична регресія.

Нехай система двох залежних випадкових величин. І нехай необхідно дослідити залежність випадкових величин одне від одного. Досить часто випадкова величина Y апроксимується лінійною функцією випадкової величини X:

,(3.1)

, - параметри, які необхідно обчислити. Функція , яка забезпечує мінімум математичного сподівання

називається середньоквадратичною регресією Y на X. Дещо громізкими, але простими викладками можна довести ,що

.(3.2)

Доведення.

Точки мінімуму функції знаходяться як розв’язок системи рівнянь

З врахуванням цього ця система рівнянь запишеться у вигляді

,

розв’язок якої

, ,(3.3)

а значить середньоквадратична регресія Y на X остаточно запишеться у вигляді

(3.4)

Коефіцієнт називають коефіцієнтом середньоквадратичної регресії Y на X, а пряму

(3.5)

прямою середньої квадратичної регресії Y на X.

Мінімальне значення функції (3.2)при значеннях , (3.3б)дорівнює і називається залишковою дисперсією випадкової величини Y відносно величини X. Вона характеризує похибку апроксимації . При залишкова дисперсія дорівнює 0. Це означає, що при таких значеннях коефіцієнта кореляції випадкові величини X та Y зв’язані лінійною функціональною залежністю. Значна величина залишкової дисперсії є ознакою того, апроксимація (3.1) є невдалою. У цьому випадку слід користуватися апроксимацією поліномами другої , третьої, і вище, степені.

Аналогічно, можна одержати пряму середньоквадратичної кореляції X на Y:

.(3.6)

(коефіцієнт - коефіцієнт середньоквадратичної регресії X на Y , - залишкова дисперсія випадкової величини X відносно величини Y. При обидві прямі регресії співпадають.

З рівностей (3.4) та (3.6) слідує, що обидві прямі проходять через точку . Цю точку називають центром сумісного розподілу двовимірної випадкової величини.

Лінійна кореляція нормальних величин

Якщо обидві функції регресій X на Y та Y на X є лінійними функціями, то говорять, що X та Y зв’язані лінійною кореляційною залежністю. Графіки лінійних регресій – прямі лінії, які співпадають з прямими середньоквадратичних регресій.

Якщо двовимірна випадкова величина (X ,Y) має нормальний закон розподілу у сукупності, то X та Y зв’язані лінійною кореляційною залежністю.

Доведення. Для спрощення густину нормального сумісного розподілу можна записати у вигляді

,

, , , .

Для знаходження регресії необхідно знайти розподіл компоненти :

,

.

З врахуванням цього

.

,

,

Тому

.

Густина умовного розподілу компоненти

.

Порівнюючи одержану густину умовного розподілу з густиною нормального розподілу можна зробити висновок, що умовний розподіл компоненти є нормальним з математичним сподіванням (функцією регресії на )

та умовною дисперсією

.

Аналогічно можна одержати функцію регресії на

.

Видно, що обидві функцій регресій є лінійними, а значить кореляція між та є лінійною,що й треба було довести. Крім того видно, що прямі регресій

співпадають з прямими середньоквадратичної регресії (3.5) та (3.6).