Пример онлайн калькулятор: Калькулятор градусов онлайн ° ’ ”.

Калькулятор размера выборки

от Raosoft, Inc. Калькулятор размера выборки

от Raosoft, Inc. Рассчитать размер выборки или погрешность с подробными интерпретациями статистики и лежащего в ее основе алгоритма. Требуется JavaScript.
.

Какую погрешность вы можете принимать?

5 % — обычный выбор

%

Допустимая погрешность — это количество ошибок, которое вы можете допустить. Если 90 % респондентов ответят да , а 10 % ответят нет , вы, возможно, сможете допустить большее количество ошибок, чем если бы респонденты делятся 50-50 или 45-55.


Более низкая погрешность требует большей выборки размер.

Какой уровень уверенности вы необходимость?

Типичный выбор: 90 %, 95 % или 99 %

%

Уровень достоверности — это степень неопределенности, которую вы можете терпеть. Предположим, что в вашем опросе есть 20 вопросов «да-нет». С при уровне достоверности 95% можно было бы ожидать, что на один из вопросов (1 в 20), процент людей, которые ответят да , будет больше, чем предел погрешности от истинного ответа. Правильный ответ — это процент, который вы получили бы, если бы исчерпывающе опросили всех.

Для более высокого уровня достоверности требуется больший размер выборки.

Какова численность населения?

Если вы не знаете, используйте 20000

Сколько человек могут выбрать ваш случайная выборка из? Размер выборки не сильно меняется для населения, превышающего 20 000 человек.

Какой ответ распределение?

Оставьте значение 50%

%

Каковы, по вашему мнению, будут результаты по каждому вопросу? Если выборка сильно искажена в ту или иную сторону, вероятно, население это слишком. Если вы не знаете, используйте 50%, что дает наибольшее значение. размер образца. См. ниже в разделе

Дополнительная информация , если это сбивает с толку.

Рекомендуемый объем выборки:

377

Это минимальный рекомендуемый размер вашего опроса. Если вы создадите выборку из такого количества людей и получить ответы от всех, вы, скорее всего, получите правильный ответ, чем если бы вы ответили на большую выборку, где лишь небольшой процент образец отвечает на ваш опрос.
Онлайн-опросы с Vovici имеют процент завершения 66%!

Размер выборки
С доверительной вероятностью
Ваша погрешность будет

9,78%

6,89%

5,62%

Размер вашей выборки должен быть

267

377

643

Экономьте усилия, экономьте время.
Руководить ваш опрос онлайн с Вовичи.

Если 50% населения в 20000 человек пьют кофе по утрам, а если бы вы повторили опрос 377 человек («Вы пили сегодня утром кофе?») много раз, то в 95% случаев ваш опрос покажет, что от 45% до 55% люди в вашей выборке ответили «Да».

В оставшихся 5 % случаев или для 1 из 20 вопросов опроса вы ожидаете ответ на опрос более чем погрешность далеко от истинного ответа.

Когда вы опросить выборку населения, вы не знаете, что нашли правильный ответ, но вы знаете, что с вероятностью 95% вы находитесь в пределах ошибка правильного ответа.

Попробуйте изменить размер выборки и посмотрите, что произойдет с альтернативными сценариями . Это говорит вам, что произойдет, если вы не используете рекомендуемый размер выборки, и как связаны MOE и уровень достоверности (то есть 95%).

Чтобы узнать больше, если вы новичок, прочтите Базовый Статистика: современный подход и Мультяшный справочник по статистике

. В противном случае посмотрите на более продвинутые книги .

С точки зрения чисел, которые вы выбрали выше, размер выборки n и погрешность E даны

x = Z ( C / 100 ) 2 R (100- ).
n = N x / (( N -1) E 2 + x )
E = E = E = SQRT = SQU = E =. x / n ( N -1) ]
где N — численность населения, r — доля ответы, которые вас интересуют, и Z ( c /100) есть критический значение для уровня достоверности
c
.

Если вы хотите увидеть, как мы выполняем расчет, перейдите на страницу источник. Этот расчет основан на нормальном распределения и предполагает, что у вас более 30 образцов.

О Распределение ответов : Если вы спросите случайную выборку 10 человек, если они любят пончики, и 9 из них говорят «да», то прогноз, который вы делаете об общей популяции, отличается от было бы, если бы 5 сказал «Да», а 5 сказал бы «Нет». Настройка ответа распределение до 50% является наиболее консервативным предположением. Так что просто оставь это на 50%, если вы не знаете, что делаете. Калькулятор размера выборки вычисляет критическое значение для нормального распределение. В Википедии есть хорошие статьи по статистике.

Как вам эта паутина страница? Хорошо как есть Может быть еще лучше

© 2004 by Raosoft, Inc. . Пожалуйста, скачайте и повторно используйте эту веб-страницу!
Вопросы? Позволь мы знаем.

Онлайн-калькулятор: Построитель дерева решений

Профессиональные Компьютеры

Этот онлайн-калькулятор строит дерево решений из обучающей выборки с использованием метрики Получение информации

Приведенный ниже онлайн-калькулятор анализирует набор обучающих примеров, затем строит дерево решений, используя прирост информации в качестве критерия разделения. Если вы не уверены, что это такое, прочтите краткий пояснительный текст к деревьям решений под калькулятором.

Примечание. Учебные примеры следует вводить в виде списка csv с точкой с запятой в качестве разделителя. Первая строка считается строкой меток, начиная с меток атрибутов/функций, затем меткой класса. Все остальные строки являются примерами. Данные по умолчанию в этом калькуляторе — известный пример данных для дерева решений «Играть в теннис» 9.0015

Построитель дерева решений

Внешний вид; Температура; Влажность; Ветер; Игра Солнечно;Жарко;Высоко;Ложь;Нет Солнечно;Жарко;Высоко;Верно;Нет Пасмурно;Жарко;Высокая;Ложь;Да Дождь;Слабый;Высокий;Ложь;Да Дождливо, Прохладно, Нормально, Ложь, Да Дождливо;Прохладно;Нормально;Верно;Нет Пасмурно;Прохладно;Нормально;Верно;Да Солнечно;Слабо;Высоко;Ложно;Нет Солнечно; Прохладно; Нормально; Ложь; Да Дождь, Умеренно, Нормально, Ложь, Да Солнечный, Мягкий, Нормальный, Верный, Да Пасмурно;Слабая;Высокая;Правда;Да Пасмурно; Жарко; Нормально; Ложь; Да Дождь;Слабый;Высокий;Верно;Нет

Примеры обучения

Дерево решений

 

Деревья решений

Дерево решений представляет собой структуру, подобную блок-схеме, в которой каждый внутренний узел представляет собой «проверку» атрибута (например, выпадает ли при подбрасывании монеты орел или решка), каждая ветвь представляет результат теста, и каждый конечный узел представляет собой метку класса (решение принимается после вычисления всех атрибутов).

Пути от корня к листу представляют собой правила классификации. 1

Давайте посмотрим на данные калькулятора по умолчанию.

Атрибуты для анализа:

  • Прогноз: Солнечно/Облачно/Дождь
  • Влажность: высокая/нормальная
  • Ветер: Правда/Ложь
  • Температура: Горячая/Умеренная/Прохладная

Метка класса:

  • Воспроизведение: Да/Нет

Таким образом, анализируя атрибуты один за другим, алгоритм должен эффективно ответить на вопрос: «Должны ли мы играть в теннис?» Таким образом, чтобы выполнить как можно меньше шагов, нам нужно выбрать лучший атрибут решения на каждом шаге — тот, который дает нам максимум информации. Этот атрибут используется в качестве первого разделения. Затем процесс продолжается до тех пор, пока нам больше не нужно разбивать (после разделения все оставшиеся образцы однородны, другими словами, мы можем идентифицировать метку класса) или пока не останется атрибутов для разделения.

Сгенерированное дерево решений сначала разбивается на «Outlook». Если ответ «Солнечно», то проверяется атрибут «Влажность». Если ответ «Высокий», то для «Играть» — «Нет». Если ответ «Нормально», то «Да» для «Играть». Если «Перспектива» «пасмурно», то «Да» для немедленного «Играть». Если «Прогноз» «Дождливый», то необходимо проверить атрибут «Ветреный». Обратите внимание, что в этом дереве решений вообще не нужно проверять функцию «Температура»!

В качестве критерия разделения можно использовать разные метрики, например, Энтропия (через Прирост информации или Коэффициент усиления ), Индекс Джини , Ошибка классификации

. Этот конкретный калькулятор использует Прирост информации .

Вы можете удивиться, зачем нам нужно дерево решений, если мы можем просто предоставить решение для каждой комбинации атрибутов. Конечно можно, но даже для этого небольшого примера общее количество комбинаций 3*2*2*3=36.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *