Формула распределение гаусса: Распределение Гаусса

Распределение Гаусса

 
msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>
msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>
msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>
msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>
msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>
msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>msimagelist>
Адроны
Альфа-распад
Альфа-частица
Аннигиляция
Антивещество
Антинейтрон
Антипротон
Античастицы
Атом
Атомная единица массы
Атомная электростанция
Барионное число
Барионы
Бета-распад
Бетатрон
Бета-частицы
Бозе – Эйнштейна статистика
Бозоны
Большой адронный коллайдер
Большой Взрыв
Боттом. Боттомоний
Брейта-Вигнера формула
Быстрота
Векторная доминантность
Великое объединение
Взаимодействие частиц
Вильсона камера
Виртуальные частицы
Водорода атом
Возбуждённые состояния ядер
Волновая функция
Волновое уравнение
Волны де Бройля
Встречные пучки
Гамильтониан
Гамма-излучение
Гамма-квант
Гамма-спектрометр
Гамма-спектроскопия
Гаусса распределение
Гейгера счётчик
Гигантский дипольный резонанс
Гиперядра
Глюоны
Годоскоп
Гравитационное взаимодействие
Дейтрон
Деление атомных ядер
Детекторы частиц
Дирака уравнение
Дифракция частиц
Доза излучения
Дозиметр
Доплера эффект
Единая теория поля
Зарядовое сопряжение
Зеркальные ядра
Избыток массы (дефект массы)
Изобары
Изомерия ядерная
Изоспин
Изоспиновый мультиплет
Изотопов разделение
Изотопы
Ионизирующее излучение
Искровая камера
Квантовая механика
Квантовая теория поля
Квантовые операторы
Квантовые числа
Квантовый переход
Квант света
Кварк-глюонная плазма
Кварки
Коллайдер
Комбинированная инверсия
Комптона эффект
Комптоновская длина волны
Конверсия внутренняя
Константы связи
Конфайнмент
Корпускулярно волновой дуализм
Космические лучи
Критическая масса
Лептоны
Линейные ускорители
Лоренца преобразования
Лоренца сила
Магические ядра
Магнитный дипольный момент ядра
Магнитный спектрометр
Максвелла уравнения
Масса частицы
Масс-спектрометр
Массовое число
Масштабная инвариантность
Мезоны
Мессбауэра эффект
Меченые атомы
Микротрон
Нейтрино
Нейтрон
Нейтронная звезда
Нейтронная физика
Неопределённостей соотношения
Нормы радиационной безопасности
Нуклеосинтез
Нуклид
Нуклон
Обращение времени
Орбитальный момент
Осциллятор
Отбора правила
Пар образование
Период полураспада
Планка постоянная
Планка формула
Позитрон
Поляризация
Поляризация вакуума
Потенциальная яма
Потенциальный барьер
Принцип Паули
Принцип суперпозиции
Промежуточные W-, Z-бозоны
Пропагатор
Пропорциональный счётчик
Пространственная инверсия
Пространственная четность
Протон
Пуассона распределение
Пузырьковая камера
Радиационный фон
Радиоактивность
Радиоактивные семейства
Радиометрия
Расходимости
Резерфорда опыт
Резонансы (резонансные частицы)
Реликтовое микроволновое излучение
Светимость ускорителя
Сечение эффективное
Сильное взаимодействие
Синтеза реакции
Синхротрон
Синхрофазотрон
Синхроциклотрон
Система единиц измерений
Слабое взаимодействие
Солнечные нейтрино
Сохранения законы
Спаривания эффект
Спин
Спин-орбитальное взаимодействие
Спиральность
Стандартная модель
Статистика
Странные частицы
Струи адронные
Субатомные частицы
Суперсимметрия
Сферическая система координат
Тёмная материя
Термоядерные реакции
Термоядерный реактор
Тормозное излучение
Трансурановые элементы
Трек
Туннельный эффект
Ускорители заряженных частиц
Фазотрон
Фейнмана диаграммы
Фермионы
Формфактор
Фотон
Фотоэффект
Фундаментальная длина
Хиггса бозон
Цвет
Цепные ядерные реакции
Цикл CNO
Циклические ускорители
Циклотрон
Чарм. Чармоний
Черенковский счётчик
Черенковсое излучение
Черные дыры
Шредингера уравнение
Электрический квадрупольный момент ядра
Электромагнитное взаимодействие
Электрон
Электрослабое взаимодействие
Элементарные частицы
Ядерная физика
Ядерная энергия
Ядерные модели
Ядерные реакции
Ядерный взрыв
Ядерный реактор
Ядра энергия связи
Ядро атомное
Ядерный магнитный резонанс (ЯМР)
msimagelist>

 

Распределение Гаусса


Gaussian distribution

    Распределение Гаусса  (нормальное распределение) − плотность распределения вероятностей случайной величины n.

    Функция G называется функцией Гаусса. Говорят, что результаты измерений имеют нормальное распределение, если они описываются функцией Гаусса. Распределение Гаусса, в отличие от распределения Пуассона, характеризуется двумя независимыми параметрами X и σ. X − среднее число отсчетов, которое мы ожидаем получить в случае многократного повторения измерений. σ − среднее стандартное отклонение.
    Оказывается, что если на результаты измерений влияет большое число источников небольших случайных ошибок, то вся совокупность измерений имеет в качестве предельного распределения симметричную колоколообразную функцию Гаусса. Центр распределения X, совпадающий с его максимумом, будет истинным значением измеряемой величины.
Распределение Гаусса нормировано на единицу.


Рис. 1. Распределение Гаусса для σ = 0,5, X = 50 и σ = 1, X = 50.

    На рис. 1 показано два нормальных или гауссовых распределения, соответствующие различным измерениям с одинаковыми значениями X и разными σ. В первом случае X = 50, σ = 0.5, во втором случае − X = 50, σ = 1. Величина σ в знаменателе экспоненты обеспечивает для более узкого распределения большую высоту в максимуме.
    В случае распределения Гаусса ожидаемое среднее значение для большого числа измерений можно вычислить по стандартной формуле


Рис. 2 Сравнение распределений Пуассона P(n) и Гаусса G(n) для = 2 и = 7.

    Сравним распределения Гаусса G(n) и Пуассона .

  1. Распределение Гаусса G(n) является непрерывным, т.к. величина n может быть непрерывной, в то время как в распределении Пуассона величина n = 0, 1, 2, 3, … дискретна.

  2. Распределение Гаусса G(n) определяется двумя параметрами: X − средней величиной и шириной распределения − стандартным отклонением σ, в то время как распределение Пуассона Pμ(n)  определяется единственным параметром
    μ = , т. к. ширина распределения Пуассона σ автоматически определяется величиной μ (σ =  √μ).

  3. При увеличении среднего числа отсчетов дискретная природа величины μ в распределении Пуассона Pμ(n) становится менее существенна, и распределение Пуассона хорошо аппроксимируется функцией Гаусса G(n).

Pμ(n) ≈ G(n),

 при X = μ, σ = √μ.
    На рис. 2 сравниваются распределение Пуассона и распределение Гаусса для двух значений = 2 и X = = 7,  σ =  √7. Видно, что уже при достаточно малых значениях распределения Пуассона и Гаусса практически совпадают. Необходимо иметь в виду, что распределения Пуассона и Гаусса совпадают только тогда, когда для распределения Гаусса σ =  √. В общем случае распределение Гаусса характеризуется двумя независимыми параметрами = и σ. Величина σ может быть как больше √, так и меньше √.


 

 

Нормальное распределение (закон Гаусса, кривая Гаусса)

Теория

1. Общие положения

Непрерывная случайная величина Х имеет нормальное распределение, если ее плотность вероятности имеет вид:

(3.20)

где а – произвольный, а – положительный параметры.

Закон (распределение) Гаусса имеет огромное значение в теории вероятностей и её приложениях. Основное отличие этого закона от рассмотренных выше законов заключается в том, что он является предельным законом, к которому при некоторых условиях приближаются другие законы распределения. Нормальное распределение считается заданным, если заданы его параметры a, σ. Оно позволяет анализировать случайные погрешности измерений изготовленных изделий, осуществлять контроль технологических процессов, анализировать ошибки стрельбы, исследовать различные классы шумов радиотехнических устройств и др. В частности, это распределение позволяет определять вероятность попадания нормальной случайной величины в заданный интервал, определять вероятность отклонения размеров изделий от их средних значений (математических ожиданий), вычислять интервалы, в которых будут заключаться размеры изделий, если задана некоторая вероятность, и другие задачи – прямые и обратные, связанные с использованием формулы (3. 20) и вытекающих из неё других формул.

Покажем, что функция f(x) удовлетворяет основному свойству плотности распределения – условию нормировки: .

Кроме того, f(x) > 0 в силу свойства показательной функции и f(x) – непрерывна при . Кривая, соответствующая (3.20) называется кривой Гаусса, и она имеет вид, показанный на рисунке 3.22.

Рис. 3.22

Функция распределения имеет вид .

Параметр a характеризует сдвиг кривой Гаусса вправо (a > 0) или влево (a < 0). Если a = 0, а σ = 1, то точка максимума располагается на оси OY, и нормальное распределение тогда называется стандартным. Для такого распределения плотность выражается формулой: . В этом случае совпадает с функцией Гаусса, которая использовалась ранее при вычислении вероятности по формулам Лапласа (см. подраздел 2.6.2).

Установим смысл параметров a и σ, определяющих нормальное распределение. С этой целью необходимо найти M(x) и D(x) с использованием функции f(x) .

Таким образом, a = M(x). (Первый интеграл в преобразуемом выражении равен нулю в силу нечетности функции и симметрии пределов интегрирования относительно начала координат).

Аналогично вычисляется и дисперсия, соответствующая нормальному распределению с f(x) (3.20).

Таким образом, , а – среднеквадратичное отклонение ( как параметр нормального распределения равен σ как среднеквадратичному отклонению).

Замечание. Начальный момент, равный медиане, для нормального распределения равен a, а коэффициент асимметрии A = 0 и коэффициент «островершинности» E = 0. Поэтому кривая Гаусса симметрична относительно прямой x = a.

2. Исследование поведения функции f(x) нормального распределения

1) Функция f(x) > 0 при всех , т.е. график f(x) расположен выше оси абсцисс.

2) , т.е. ось абсцисс является горизонтальной асимптотой f(x).

3) при x=a и при x<a, при x>a. Таким образом, в точке x = a реализуется максимум f(x) и точка максимума есть (см. рисунок 3.23).

4) Как было отмечено выше, график функции f(x) симметричен относительно прямой x=a т.к. разность xa в формуле для f(x) возведена в квадрат.

5) ;

Таким образом, в точках , расположенных симметрично относительно прямой x = a, функция f(x) имеет перегиб, т.е. точками перегиба являются

.

6) Влияние изменения параметров a и на поведение кривой f(x).

Изменение параметра а не изменяет форму кривой Гаусса, а приводит только к сдвигу ее вдоль оси (рисунок 3.23 a).

Рис. 3.23

Параметр σ изменяет точку максимума (см. п.3) , т.е. чем больше σ, тем ближе расположена точка максимума к оси Ox. Кроме того, чем меньше параметр σ, тем ближе расположены точки перегиба к прямой x = a и тем выше эти точки (рисунок 3.23 б).

Нормальное распределение | Гауссов | Нормальные случайные величины

← предыдущее

следующее →


Нормальное распределение является наиболее важным распределением вероятностей. Одна из главных причин ибо это Центральная предельная теорема (ЦПТ), которую мы обсудим позже в книге. Чтобы дать вам идея, CLT утверждает, что если вы добавите большое количество случайных величин, распределение суммы будет примерно нормальным при определенных условиях. Важность этого результата состоит в том, что что многие случайные величины в реальной жизни могут быть выражены как сумма большого числа случайных величин и, согласно CLT, мы можем утверждать, что распределение суммы должно быть нормальным. 2}{2}\ справа\} ду.$$ Этот интеграл не имеет решения в замкнутой форме. Тем не менее из-за важности нормальное распределение, значения $F_Z(z)$ сведены в таблицы, и многие калькуляторы и пакеты программного обеспечения имеют эту функцию. Обычно мы обозначаем стандартную нормальную CDF через $\Phi$. 92}{2}\right\} du.$$

Как мы вскоре увидим, CDF любой нормальной случайной величины можно записать в терминах Функция $\Phi$, поэтому функция $\Phi$ широко используется в вероятностях. На рис. 4.7 показана функция $\Phi$.

Рис.4.7 — Функция $\Phi$ (ВПР стандартной нормали).

Вот некоторые свойства функции $\Phi$, которые можно показать из ее определения.

  1. $\lim \limits_{x\стрелка вправо \infty} \Phi(x)=1, \hspace{5pt} \lim \limits_{x\стрелка вправо -\infty} \Phi(x)=0$; 92)$, мы можем написать

$F_X(x)$ $=P(X \leq x)$
$=P( \sigma Z+\mu \leq x) \hspace{20pt} \big(\textrm{где} Z \sim N(0,1)\big)$
$=P\left(Z \leq \frac{x-\mu}{\sigma}\right)$
$=\Phi\left(\frac{x-\mu}{\sigma}\right). $

Чтобы найти PDF, мы можем взять производную от $F_X$,

$f_X(x)$ $=\frac{d}{dx} F_X(x)$ 92}\справа\},$$ $$F_X(x)=P(X \leq x)=\Phi\left(\frac{x-\mu}{\sigma}\right),$$ $$P(a

На рис. 4.8 показана PDF нормального распределения для нескольких значений $\mu$ и $\sigma$.

Рис.4.8 – PDF нормального распределения.

Пример
. Пусть $X \sim N(-5,4)$.

  1. Найти $P(X)
  2. Найти $P(-7)
  3. Найти $P(X > -3 | X > -5)$.

Важным и полезным свойством нормального распределения является то, что линейное преобразование нормального случайная величина сама по себе является нормальной случайной величиной. В частности, справедлива следующая теорема: 92_Х).$$


← предыдущая

следующая →

Печатная версия книги доступна на Amazon здесь.

Нормальное распределение | Определение, примеры, графики и факты

нормальное распределение

Просмотреть все носители

Связанные темы:
функция распределения стандартное нормальное распределение

Просмотреть весь связанный контент →

нормальное распределение , также называемое распределением Гаусса , наиболее распространенная функция распределения для независимых, случайно сгенерированных переменных. Его знакомая колоколообразная кривая повсеместно используется в статистических отчетах, от анализа опросов и контроля качества до распределения ресурсов.

График нормального распределения характеризуется двумя параметрами: средним, или средним значением, которое является максимумом графика и относительно которого график всегда симметричен; и стандартное отклонение, которое определяет степень отклонения от среднего значения. Небольшое стандартное отклонение (по сравнению со средним) дает крутой график, тогда как большое стандартное отклонение (опять же по сравнению со средним) дает плоский график. См. рисунок.

Викторина по Британике

Дайте определение: математические термины

Нормальное распределение получается с помощью функции нормальной плотности, 0243 /σКвадратный корень из √2π. В этой экспоненциальной функции e — это константа 2,71828…, это среднее значение, а σ — это стандартное отклонение. Вероятность попадания случайной величины в любой заданный диапазон значений равна доле площади, заключенной под графиком функции между заданными значениями и выше x — ось. Поскольку знаменатель (σквадратный корень из √2π), известный как нормирующий коэффициент, приводит к тому, что общая площадь, заключенная в графике, точно равна единице, вероятности могут быть получены непосредственно из соответствующей площади, т. е. площадь 0,5 соответствует вероятность 0,5. Хотя эти площади можно определить с помощью исчисления, в 19 веке были созданы таблицы для особого случая  = 0 и σ = 1, известного как стандартное нормальное распределение, и эти таблицы можно использовать для любого нормального распределения после того, как переменные соответствующим образом перемасштабированы путем вычитания их среднего значения и деления на их стандартное отклонение ( x  − μ)/σ. Калькуляторы почти исключили использование таких таблиц. Для получения дополнительной информации см. теория вероятностей.

Термин «распределение Гаусса» относится к немецкому математику Карлу Фридриху Гауссу, который впервые разработал двухпараметрическую экспоненциальную функцию в 1809 году в связи с исследованиями ошибок астрономических наблюдений. Это исследование привело Гаусса к формулировке закона ошибки наблюдения и развитию теории приближения методом наименьших квадратов. Другое известное раннее применение нормального распределения принадлежит британскому физику Джеймсу Клерку Максвеллу, который в 1859 г.сформулировал свой закон распределения молекулярных скоростей, позже обобщенный как закон распределения Максвелла-Больцмана.

Французский математик Абрахам де Муавр в своей книге «Доктрина шансов » (1718 г.) впервые отметил, что вероятности, связанные с дискретно сгенерированными случайными величинами (такими, которые получаются при подбрасывании монеты или бросании игральной кости), могут быть аппроксимированы площадью под графиком показательной функции. Этот результат был расширен и обобщен французским ученым Пьером-Симоном Лапласом в его Theorie analytique des probabilités (1812; «Аналитическая теория вероятностей»), в первую центральную предельную теорему, которая доказала, что вероятности почти для всех независимых и одинаково распределенных случайных величин быстро сходятся (с размером выборки) к области под экспоненциальной функции, то есть к нормальному распределению.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *