Мат ожидание произведения случайных величин: 4.3.5. Математическое ожидание и дисперсия

мат. ожидание произведения случайных величин : Вероятность, статистика

Сообщения без ответов | Активные темы | Избранное



Правила форума

В этом разделе нельзя создавать новые темы.

Если Вы хотите задать новый вопрос, то не дописывайте его в существующую тему, а создайте новую в корневом разделе «Помогите решить/разобраться (М)».

Если Вы зададите новый вопрос в существующей теме, то в случае нарушения оформления или других правил форума Ваше сообщение и все ответы на него могут быть удалены без предупреждения.

Не ищите на этом форуме халяву, правила запрещают участникам публиковать готовые решения стандартных учебных задач. Автор вопроса обязан привести свои попытки решения и указать конкретные затруднения.

Обязательно просмотрите тему Правила данного раздела, иначе Ваша тема может быть удалена или перемещена в Карантин, а Вы так и не узнаете, почему.


 
somebody_someone 

 мат. ожидание произведения случайных величин

26.03.2012, 20:24 

19/11/11
29

Вопрос предельно прост, но у меня недавно вызвал сомнения:
можно ли разложить мат ожидание произведение в произведение мат ожиданий в случае зависимых случайных величин?
В некоторых источниках пишут «произведение любых св» (http://www.nsu.ru/mmf/tvims/chernova/tv/lec/node43.html).

В других говорят про независимые св
В конспекте у меня написано тоже «для любых», и я этим успешно пользовалась, на сколько помню.
Так что скажете, товарищи?
И как на счет мат ожидания суммы?


   

                  

ewert 

 Re: мат. ожидание произведения

26.03.2012, 20:30 

Заслуженный участник

11/05/08
32162

Скажем, что нельзя, естественно (вообще говоря, конечно: мало ли какие чудеса случаются).


   

                  

PAV 

 Re: мат. ожидание произведения

26.03.2012, 20:35 

Супермодератор

29/07/05
8248
Москва

По приведенной Вами ссылке в пункте E7 сказано вполне определенно.


   

                  

ewert 

 Re: мат. ожидание произведения

26.03.2012, 20:39 

Заслуженный участник

11/05/08
32162

somebody_someone в сообщении #552426 писал(а):

В некоторых источниках пишут «произведение любых св» (http://www.nsu.ru/mmf/tvims/chernova/tv/lec/node43. html).

Хм. Только сейчас удосужился прочитать адрес. А Чернову-то Вы зачем оклеветали? Она честно и говорит именно про независимые

, и даже подчёркивает это, вот почти как я сейчас.


   

                  

somebody_someone 

 Re: мат. ожидание произведения

26.03.2012, 20:40 

19/11/11
29

PAV в сообщении #552434 писал(а):

По приведенной Вами ссылке в пункте E7 сказано вполне определенно.

Простите, не тот источник кинула. Но в общем мелькало где-то, потому меня сбило с толку, все правильно: для незвисимых можно разложить произведение и сумму, для любых — сумму


   

                  

Diom 

 Re: мат. ожидание произведения

26.03.2012, 21:12 

02/05/07
144

somebody_someone в сообщении #552426 писал(а):

В конспекте у меня написано тоже «для любых», и я этим успешно пользовалась, на сколько помню.


Так что скажете, товарищи?

Достаточно некоррелированности случайных величин чтобы это выполнялось, в противном случае это неверно.


   

                  

PAV 

 Re: мат. ожидание произведения

26.03.2012, 21:14 

Супермодератор

29/07/05
8248
Москва

Собственно, некоррелированность с. в. равносильна этому свойству.


   

                  

—mS— 

 Re: мат. ожидание произведения

27.03.2012, 18:40 

Заслуженный участник

23/11/06
4171

somebody_someone в сообщении #552426 писал(а):

В конспекте у меня написано тоже «для любых», и я этим успешно пользовалась, на сколько помню.

Насколько я помню, «успешное использование» состояло в том, что матожидание квадрата было равно квадрату матожидания… Соответственно, дисперсия любой случайной величины — нулю…

(Оффтоп)

ewert

, правильно вопрос звучит не «зачем», а «за что»


   

                  

statistonline 

 Re: мат. ожидание произведения случайных величин

13.09.2012, 14:03 

06/09/12
888

PAV в сообщении #552450 писал(а):

Собственно, некоррелированность с. в. равносильна этому свойству.

Ничего подобного. Вот простой пример: , а Видно, что распределена также равномерно на том же интервале, обе величины зависимы, но корреляция между ними будет нулевая.


   

                  

—mS— 

 Re: мат. ожидание произведения случайных величин

13.09.2012, 18:49 

Заслуженный участник

23/11/06
4171

Что именно «ничего подобного»? Вы возражаете против того, что некоррелированность равносильна совпадению математического ожидания произведения и произведения математических ожиданий? Пример с какой целью приведён?


   

                  

statistonline 

 Re: мат. ожидание произведения случайных величин

15.09.2012, 05:58 

06/09/12
888

statistonline в сообщении #618229 писал(а):

Пример с какой целью приведён?

Простите, беру назад все свои возражения! просматривал тему «независимости событий», потом почти случайно перепрыгнул сюда, и, увидев Ваше сообщение, по инерции решил, что речь все еще идет о независимости событий Впредь обещаю так не лажать


   

                  

Показать сообщения за: Все сообщения1 день7 дней2 недели1 месяц3 месяца6 месяцев1 год Поле сортировки АвторВремя размещенияЗаголовокпо возрастаниюпо убыванию 
  Страница 1 из 1
 [ Сообщений: 11 ] 

Модераторы: Модераторы Математики, Супермодераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:

4°.

Математическое ожидание произведения двух независимых случайных величин равно произведению математических ожиданий этих величин:

(4.4)

Под суммой (произведением) двух случайных величин ипонимают случайную величину, возможные значения которой состоят из сумм (произведений) каждого возможного значения величиныи каждого возможного значения величины.

 

2. Дисперсия и ее свойства. Среднее квадратическое отклонение.

Во многих практически важных случаях существенным является вопрос о том, насколько велики отклонения случайной величины от ее математического ожидания.

 Предварительно рассмотрим пример. Пусть две случайные величины и заданы следующими рядами распределения

Значения

-0,2

-0,1

0,1

0,2

Вероятности

0,25

0,25

0,25

0,25

Значения

-50

-40

40

50

Вероятности

0,25

0,25

0,25

0,25

 Легко убедится в том, что математические ожидания этих величин одинаковы и равны нулю:

Однако разброс значений этих величин относительно их математического ожидания неодинаков. В первом случае значения, принимаемые случайной величиной , близки к ее математическому ожиданию, а во втором случае далеки от него.

Для оценки разброса (рассеяния) значений случайной величины около ее математического ожидания вводится новая числовая характеристика — дисперсия.

Дисперсией случайной величины называется математическое ожидание квадрата отклонения случайной величины от ее математичеcкого ожидания:

(4.5)

Казалось бы, естественным рассматривать не квадрат отклонения, а просто отклонение случайной величины от ее математического ожидания. Однако математическое ожидание этого отклонения равно нулю, так как

Здесь мы воспользовались тем, что постоянно, а математическое ожидание постоянной есть эта постоянная. Можно было бы принять за меру рассеяния математическое ожидание модуль отклонения случайной величины от ее математического ожидания:. Однако, как правило, действия связанные с абсолютными величинами, приводят к громоздким вычислениям. Поэтому приняли то, что приняли.

Выведем теперь другую формулу для расчета дисперсии.

Пусть — дискретная случайная величина, принимающая значениясоответственно с вероятностями. Очевидно, что случайная величинапринимает значения

с теми же вероятностями . Следовательно, согласно определению математического ожидания дискретной случайной величины, имеем

(4.6)

Если же — непрерывная случайная величина с плотностью распределения, то по определению

(4.7)

Принимая во внимание определение дисперсии и свойства математического ожидания, имеем

Так как и- постоянные, то, используя свойства математического ожидания, получим

Следовательно,

Откуда окончательно находим

(4. 8) 

Рассмотрим теперь свойства дисперсии.

1°. Дисперсия постоянной равна нулю.

Доказательство. Пусть . По формуле (4.8) имеем

так как математическое ожидание постоянной есть эта постоянная:

сумм случайных величин

сумм случайных величин


Мы используем MathJax

Возникает много ситуаций, когда случайная величина может быть определена как сумма других случайных величин. переменные. Наиболее важной из этих ситуаций является оценка среднего значения совокупности из выборочное среднее. Поэтому нам понадобятся некоторые результаты о свойствах сумм случайных величин.

Ожидаемое значение

Для любых двух случайных величин $X$ и $Y$ ожидаемое значение суммы этих переменных будут равны сумме их ожидаемых значений.

$E(X + Y) = E(X) + E(Y)$

Доказательство как для дискретного, так и для непрерывного случаев довольно простое. Единственный существенный наблюдения заключаются в том, что порядок суммирования (или интегралов) можно поменять местами, и что маргинальные функции встречаются в середине доказательства.

\начать{выравнивать} E(X + Y) &= \sum\limits_x \sum\limits_y (x+y) P_{XY}(x,y) \\ &= \sum\limits_x \sum\limits_y x P_{XY}(x,y) + \sum\limits_y \sum\limits_x y P_{XY}(x,y) \\ &= \sum\limits_x x P_X (x) + y P_Y (y) \\ &= Е(Х) + Е(У) \end{выравнивание} \начать{выравнивать} E(X + Y) &= \int_x \int_y (x+y) f_{XY}(x,y) \, \mathrm{d}x \\ &= \int_x \int_y x f_{XY}(x,y) \, \mathrm{d}y \mathrm{d}x + \int_y \int_x y f_{XY}(x,y) \, \mathrm{ д} х \ mathrm {д} у \\ &= \int_x x f_X (x) \, \mathrm{d}x + \int_y y f_Y (y) \, \mathrm{d}y \\ &= Е(Х) + Е(У) \end{выравнивание}

В качестве примера предположим, что у нас есть случайная величина $Z$, являющаяся суммой двух других случайных величин. $Х$ и $Y$. У первого среднее значение $E(X) = 17$, а у второго среднее значение $E(Y) = 24$. Поскольку  $Z = X + Y$,  тогда среднее значение $Z$ равно  $E(Z) = 24+17 = 41$. фактическая форма каждого распределения не имеет значения.

Дисперсия

Для любых двух случайных величин $X$ и $Y$ дисперсия суммы этих переменных равна сумме дисперсий плюс удвоенная ковариация. 92} = \sqrt{170} \примерно 13,4$.

Выборочное среднее как случайная величина

Непосредственным частным случаем является случайная величина $\bar{X}$, которая является выборочным средним значением набора случайных величин $X_i$. Когда выборка создается путем случайного выбора значений данных, случайные величины будут независимыми. Поскольку все выборочные данные получены из одной и той же совокупности, случайные величины будут идентичными. Тогда по различным свойствам ожидаемого значения мы имеем:

92} (n Var(X)) = \dfrac{Var(X)}{n}$

Таким образом, мы имеем следующие результаты для среднего и стандартного отклонения распределение выборочных средств. Стандартное отклонение выборочных средних равно часто называют стандартной ошибкой среднего .

$\mu_{\bar{x}} = \mu$
$\sigma_{\bar{x}} = \dfrac{\sigma_x}{\sqrt{n}}$

Функции создания моментов

Мы также рассматриваем производящую функцию моментов двух 9{ты}) \\ &= M_X (t) M_Y (t) \end{выравнивание}

PDF суммы

Пусть $X$ и $Y$ — две случайные величины, а случайная величина $Z$ — их сумма, поэтому что  $Z = X+Y$. Тогда $F_Z(z)$, CDF переменной $Z$, даст вероятности, связанные с этой случайной величиной. Но по определению CDF, $F_Z(z) = P(Z \le z)$, и мы знаем, что $z = x+y$. Следовательно, нам нужно рассматривать те значения $x$ и $y$, сумма которых меньше или равна $z$, или, альтернативно, когда   $y \le z — x$. 9{\ infty} f_X (x) f_Y (zx) \, \ mathrm {d} x $

Операция, которая таким образом объединяет две функции $f_X$ и $f_Y$, называется называется свертка . Другими словами, PDF суммы двух независимых случайных величин является сверткой их двух PDF-файлов.


Распределения функций случайных величин

Пусть \(X_i\) обозначает, одобряет ли случайно выбранный человек работу президента. Точнее: 92=np(1-p)\)

Теперь пусть \(n=10\) и \(p=\frac{1}{2}\), так что \(Y\) является биномиальным(\( 10, \frac{1}{2}\)). Какова вероятность того, что ровно пять человек одобряют работу президента?

Решение

Здесь действительно нет ничего нового. Мы можем рассчитать точную вероятность, используя биномиальную таблицу в конце книги с \(n=10\) и \(p=\frac{1}{2}\). Таким образом, мы получаем:

\begin{align} P(Y=5)&= P(Y \leq 5)-P(Y \leq 4)\\ &= 0,6230-0,3770\\ &= 0,2460\\ \end{выравнивание}

То есть с вероятностью 24,6% ровно пять человек из десяти выбранных одобряют работу президента.

Обратите внимание, однако, что \(Y\) в приведенном выше примере определяется как сумма независимых, одинаково распределенных случайных величин. Следовательно, пока \(n\) достаточно велико, мы можем использовать центральную предельную теорему для вычисления вероятностей для \(Y\). В частности, Центральная предельная теорема говорит нам, что:

\(Z=\dfrac{Y-np}{\sqrt{np(1-p)}}\stackrel {d}{\longrightarrow} N(0,1) \). 92=np(1-p)=10\left(\dfrac{1}{2}\right)\left(\dfrac{1}{2}\right)=2.5\)

Теперь, если мы посмотрим на график биномиального распределения с прямоугольником, соответствующим \(Y=5\), заштрихованным красным цветом: 1000

мы должны увидеть, что нам было бы полезно внести некоторую поправку на тот факт, что мы используем непрерывное распределение для аппроксимации дискретного распределения. В частности, кажется, что прямоугольник \(Y=5\) действительно включает все \(Y\) больше 4,5, но меньше 5,5. То есть:

\(P(Y=5)=P(4.5< Y < 5.5)\)

Такая корректировка называется « коррекция непрерывности «. После того, как мы сделали поправку на непрерывность, вычисление сводится к обычному вычислению вероятности:

Теперь вспомните, что ранее мы использовали биномиальное распределение, чтобы определить, что вероятность того, что \(Y=5\), точно равна 0,246. Здесь мы использовали нормальное распределение, чтобы определить, что вероятность \(Y=5\) приблизительно равна 0,251. Это неплохое приближение, учитывая тот факт, что мы имеем дело с относительно небольшим размером выборки \(n=10\)!

Попробуем еще несколько приближений. Какова вероятность того, что более 7, но не более 9 человек из десяти опрошенных одобряют работу президента?

Решение

Если мы посмотрим на график биномиального распределения с площадью, соответствующей \(7 мы должны увидеть, что мы хотим сделать следующую поправку на непрерывность:

\(P(7 5< Y < 9.5)\)

Теперь снова, когда мы сделали поправку на непрерывность, расчет сводится к обычному расчету вероятности:

Кстати, вам может быть интересно отметить, что приблизительная нормальная вероятность весьма близка к точной биномиальной вероятности. Мы показали, что приблизительная вероятность равна 0,0549, тогда как следующий расчет показывает, что точная вероятность (с использованием биномиальной таблицы с \(n=10\) и \(p=\frac{1}{2}\) равна 0,0537:

\(P(7

Попробуем еще одно приближение. Какова вероятность того, что по крайней мере 2, но менее 4 из десяти опрошенных одобряют работу президента?

Решение

Если мы посмотрим на график биномиального распределения с площадью, соответствующей \(2\le Y<4\), заштрихованной красным цветом: . 25DensityГистограмма YNormalYMean — 5StDev — 1.581N — 1000

мы должны увидеть, что мы хотим сделать следующую поправку на непрерывность:

\(P(2 \leq Y <4)=P(1.5< Y < 3.5)\)

Опять же, как только мы сделали коррекция непрерывности, расчет сводится к обычному расчету вероятности:

\begin{align} P(2 \leq Y <4)=P(1.5< Y <3.5) &= P(\dfrac{1.5-5}{\ sqrt{2,5}}0,95)-P( Z>2,21)\\ &= 0,1711-0,0136=0,1575\\ \end{выравнивание}

Между прочим, точная биномиальная вероятность равна 0,1612, как показывает следующий расчет:

\(P(2 \leq Y <4)=P(Y\leq 3)-P(Y\leq 1)=0,1719 -0,0107=0,1612\)

Всего пара комментариев, прежде чем мы закончим обсуждение нормального приближения к двучлену.

(1) Во-первых, мы еще не обсуждали, что означает «достаточно большой» с точки зрения того, когда уместно использовать нормальное приближение к двучлену. Общее эмпирическое правило состоит в том, что размер выборки \(n\) является «достаточно большим», если:

\(np\ge 5\) и \(n(1-p)\ge 5\)

Например, в приведенном выше примере, в котором \(p=0,5\), два условия выполнено, если:

\(np=n(0,5)\ge 5\) и \(n(1-p)=n(0,5)\ge 5\)

Теперь оба условия верны, если:

\(n\ge 5\left(\frac{10}{5}\right)=10\)

Поскольку размер нашей выборки был не менее 10 (ну, едва ли!), теперь мы понимаем, почему наши приближения были довольно близко к точным вероятностям. Как правило, чем дальше \(p\) от 0,5, тем больше требуется размер выборки \(n\). Например, предположим \(p=0,1\). Тогда два условия выполняются, если:

\(np=n(0.1)\ge 5\) и \(n(1-p)=n(0.9)\ge 5\)

Теперь первое условие выполнено, если:

\ (n\ge 5(10)=50\)

Второе условие выполняется, если:

\(n\ge 5\left(\frac{10}{9}\right)=5.5\)

То есть оба условия выполняются только если \(n\ge 50\). Таким образом, при \(p=0,5\) достаточно размера выборки \(n=10\). Но если \(p=0,1\), то нам нужен гораздо больший размер выборки, а именно \(n=50\).

(2) По правде говоря, если у вас есть доступные инструменты, такие как биномиальная таблица или статистический пакет, вы, вероятно, захотите вычислить точные вероятности вместо приблизительных вероятностей. Значит ли это, что вся наша дискуссия здесь напрасна? Нет, вовсе нет! На самом деле мы чаще всего будем использовать центральную предельную теорему применительно к сумме независимых случайных величин Бернулли, чтобы помочь нам сделать выводы об истинной пропорции населения \(p\).

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *