Получить калькулятор матриц — Microsoft Store
Получить калькулятор матриц — Microsoft StoreВендредикс
Утилиты и инструменты
Будь то проект, школа или хобби, иногда полезно иметь возможность быстро выполнить расчет матрицы. Калькулятор матриц предлагает возможность выполнять следующие виды вычислений: сложение, вычитание, умножение, масштабирование, транспонирование, вычисление определителя и обратное. Калькулятор матриц использует альбомную ориентацию Windows Phone, предлагая оптимальный обзор как ваших данных, так и результатов. Еще одна уникальная функция заключается в том, что он предлагает вам копировать и вставлять матрицы, нажав и удерживая матрицу, что позволяет выполнять цепные вычисления. В будущих дополнениях мы также добавим сокращение Гаусса-Жордана, другие операции, дополнительные измерения и, возможно, динамическое построение формул. Примечания к выпуску v1. 1.1:
— Изменена клавиатура, теперь можно использовать и отрицательные значения.
— Увеличена ширина окна результата определителя. Примечания к выпуску v1.1.0:
— Добавлена новая операция: Инверсия.
— Добавлена возможность выбора размеров (вместо матриц 3×3). Теперь мы поддерживаем размеры 2×2, 2×3, 3×2 и 3×3. Дополнительные параметры будут добавлены в более поздней версии, так как они потребуют более радикальных изменений интерфейса.
— Добавлена матрица Copy & Paste, так что вы можете легко использовать результат в другом расчете. Для этого просто нажмите и удерживайте матрицу.
— Переписан весь расчетный движок, который теперь динамичен и теоретически поддерживает бесконечное количество измерений (опять же, больше будет доступно в будущем обновлении :)).
— Некоторые другие мелкие улучшения. Примечания к выпуску v1.0.1:
— Новая плитка приложения и экран-заставка.
— Экран-заставка и страница с информацией теперь ориентированы на альбомную ориентацию.
— Несколько других незначительных изменений.
ВСЕ
См. системные требования
Обзор Системные ТребованияДоступно на
Мобильное устройство
Скриншоты
- {{#каждый слайд}}
- {{#каждый ImageForBreakPoints}} {{/каждый}} {{/каждый}}
{{/если}}
Системные Требования
ОС | Windows 8 Mobile |
---|---|
Архитектура | x86, x64, ARM, ARM64 |
ОС | Windows 8 Mobile |
---|---|
Архитектура | x86, x64, ARM, ARM64 |
Наивные байесовские классификаторы — GeeksforGeeks
Теперь, прежде чем перейти к формуле наивного байесовского метода, важно знать о теореме Байеса.
Теорема Байеса
Теорема Байеса определяет вероятность наступления события, учитывая вероятность другого события, которое уже произошло. Теорема Байеса математически формулируется следующим уравнением:
, где A и B — события, а P(B) ≠ 0.
- По сути, мы пытаемся найти вероятность события A, если событие B истинно. . Событие B также обозначается как доказательство .
- P(A) — это априорных A (априорная вероятность, т.
е. вероятность события до того, как будут видны доказательства). Доказательством является значение атрибута неизвестного экземпляра (здесь это событие B).
- P(A|B) — апостериорная вероятность B, т. е. вероятность события после того, как будут видны доказательства.
Теперь, что касается нашего набора данных, мы можем применить теорему Байеса следующим образом:
где y — переменная класса, а X — зависимый вектор признаков (размером n ) где:
Просто для ясности пример вектора признаков и соответствующей переменной класса может быть: (см. 1-ю строку набора данных)
X = (Дождливо, Жарко, Высокий, Ложь) у = нет
Таким образом, в основном, P(y|X) здесь означает вероятность «Не играть в гольф» при следующих погодных условиях: «Дождливый прогноз», «Температура жаркая», «Высокая влажность» и «Без ветра».
Наивное предположение
Теперь пришло время сделать наивное предположение к теореме Байеса, а именно, независимость среди особенностей.
Теперь, если любые два события A и B независимы, то
P(A,B) = P(A)P(B)
Таким образом, мы получаем результат:
, который может быть выражен как:
Теперь, поскольку знаменатель остается постоянным для данного входа, мы можем удалить этот член:
Теперь нам нужно создать модель классификатора. Для этого находим вероятность данного набора входов для всех возможных значений переменной класса и и подобрать вывод с максимальной вероятностью. Математически это можно выразить так:
Итак, наконец, нам осталось вычислить P(y) и P(x i | y).
Обратите внимание, что P(y) также называется вероятностью класса , а P(x i | y) называется условной вероятностью .
Различные наивные байесовские классификаторы различаются главным образом допущениями, которые они делают относительно распределения P(x
Давайте попробуем применить приведенную выше формулу вручную к нашему набору данных о погоде. Для этого нам нужно сделать некоторые предварительные вычисления в нашем наборе данных.
Нам нужно найти P(x i | y j ) для каждого x i в X и y j в y. Все эти расчеты показаны в таблицах ниже:
Итак, на рисунке выше мы вычислили P(x i | y j ) для каждого x i в X и y j в у вручную в таблицах 1-4. Например, вероятность игры в гольф при прохладной температуре, т. е. P(temp. = прохладно | играть в гольф = да) = 3/9.
Также нам нужно найти вероятности классов (P(y)), которые были рассчитаны в таблице 5. Например, P(играть в гольф = Да) = 9/14.
Итак, мы закончили наши предварительные вычисления, и классификатор готов!
Давайте проверим его на новом наборе функций (назовем его сегодня):
сегодня = (Солнечно, Жарко, Нормально, Ложь)
Таким образом, вероятность играть в гольф определяется как:
, а вероятность не играть в гольф определяется как:
Поскольку P(сегодня) является общим в обеих вероятностях, мы можем игнорировать P(сегодня) и найти пропорциональные вероятности как:
и
Теперь, поскольку
Эти числа можно преобразовать в вероятность, сделав сумму равной 1 (нормализация):
3
и
0003
Начиная с
Таким образом, прогноз того, что в гольф будут играть, — «Да».
Метод, который мы обсуждали выше, применим для дискретных данных. В случае непрерывных данных нам необходимо сделать некоторые предположения относительно распределения значений каждого признака. Различные наивные байесовские классификаторы различаются главным образом предположениями, которые они делают относительно распределения P(x
Теперь мы обсудим один из таких классификаторов.
Гауссовский наивный байесовский классификатор
В гауссовском наивном байесовском классификаторе предполагается, что непрерывные значения, связанные с каждым признаком, распределяются в соответствии с распределением Гаусса . Распределение Гаусса также называют нормальным распределением. При построении он дает колоколообразную кривую, симметричную относительно среднего значения признаков, как показано ниже:
Вероятность признаков считается гауссовой, следовательно, условная вероятность определяется как:
Теперь мы рассмотрим реализацию классификатора Gaussian Naive Bayes с использованием scikit-learn.
|
Выход:
Gaussian Naive Bayes. векторы представляют частоты, с которыми определенные события были сгенерированы полиномиальным распределением . Это модель событий, обычно используемая для классификации документов.
По мере того, как мы подходим к концу этой статьи, вот несколько важных моментов для размышления: классификация документов и фильтрация спама. Они требуют небольшого количества обучающих данных для оценки необходимых параметров.
Ссылки:
- https://en.wikipedia.org/wiki/Naive_Bayes_classifier
- http://gerardnico.com/wiki/data_mining/naive_bayes
- http://scikit-learn.org/stable/modules/naive_bayes.html
Этот блог ведет Нихил Кумар. Если вам нравится GeeksforGeeks и вы хотели бы внести свой вклад, вы также можете написать статью, используя write.geeksforgeeks.org, или отправить ее по электронной почте по адресу [email protected]. Посмотрите, как ваша статья появится на главной странице GeeksforGeeks, и помогите другим гикам.
Пожалуйста, пишите комментарии, если вы обнаружите что-то неправильное, или вы хотите поделиться дополнительной информацией по теме, обсуждаемой выше.