Как научиться аккуратности


Аккуратность — что это такое, как развить, книги и тренинги

Определение аккуратности

Аккуратность — стремление выражать любовь к порядку, точность, внешнюю опрятность и дисциплинированность. Человек, который развил данное качество, содержит в порядке дом и мысли. 

Посмотреть 2 других определения аккуратности можно в конце этой статьи.

Дальше мы рассмотрим примеры аккуратности из жизни, ответим на вопрос «как стать аккуратным» и развить это качество самостоятельно с помощью книг, упражнений и тренингов.

Что такое аккуратность

Аккуратность — это любовь к порядку и добросовестности. Это достоверность во всех процессах. Аккуратный человек держит дом, ум и мысли под полным контролем.

Умение выполнять работу качественно и вовремя. Быть внимательным и пунктуальным человеком. Также быть разборчивым в делах, понимать, на какую работу есть силы и время для выполнения, а на какую нет. Не давать ложных надежд и обещаний. Честность — важное качество аккуратного человека. 

Быть аккуратным — значит соблюдать точность, быть исполнительным и собранным.

У аккуратного человека всегда все спланировано, он надежный и ответственный, на него при любых обстоятельствах можно положиться. Такие люди вызывают доверие с первого взгляда. Аккуратные люди ценят доверие и не предадут. 

Примеры аккуратности в жизни

  1. Главный пример аккуратности — поддерживание порядка в доме или в своей комнате. Люди-перфекционисты — истинные идолы аккуратности. У них всегда все по полочкам, все стоит ровно и так, как надо. 
  2. Аккуратность проявляется и во внешнем виде человека. Например, Сергей Есенин, русский поэт Серебряного века, брился несколько раз в день и тщательно мылся. Также он пудрился и завивался. Еще он по одному запаху определял какая перед ним стоит женщина: если она пахнет цветами и сиренью, то девушка хорошая, если табаком и потом, — то дурная. 

Как и в чем проявляется аккуратность

  • Внешний вид. Аккуратный человек следит за собой: за одеждой, за прической, за обувью и за макияжем. 
  • Чистота. Проявление аккуратности, в первую очередь, можно заметить в порядке: в доме и на рабочем столе.  
  • Организованность.  У аккуратного человека развит навык организованности. Все действия проходят ответственно и по плану. Если произошло какое-то недоразумение, то аккуратность поможет найти выход. 
  • Почерк. Как правило, у аккуратных людей всегда красивый и опрятный почерк. Записи в блокноте или тетрадке выглядят эстетично и аккуратно. 
  • Речь. У аккуратного человека размеренная, поставленная и правильная речь. Такие люди следят за собой: что, как и когда сказано. 

Точность и прецизионность | София Обучение

Ошибка относится к отсутствию точности, точности или того и другого. Систематические и грубые ошибки поддаются контролю, случайные ошибки - нет. Знание типа ошибки может привести к решению.

Систематическая ошибка возникает из-за плана эксперимента и влияет на результат в одном направлении, вверх или вниз.

Грубая ошибка возникает из-за необнаруженной ошибки, из-за которой результат измерения сильно отличается от среднего.Это измерение называется выбросом. Если это обнаруживается, это называется ошибкой или несчастным случаем, и эксперимент повторяется.

Случайная ошибка возникает от природы и влияет на результат в двух направлениях: вверх и вниз.

Давайте посмотрим, как они выглядят в ваших наборах данных.

Случайная ошибка

Эти результаты показывают разброс данных над и под линией. Поскольку данные расположены «повсюду» (низкая точность) или выше и ниже линии, они классифицируются как случайные.У ученых нет способа исправить случайную ошибку, поэтому мы говорим об этом как есть и сообщаем со стандартными отклонениями и значениями R 2 , которые взяты из стандартных отклонений. Точность снижается, но точность сохраняется.

Систематическая ошибка

На этом графике синей линией показана систематическая ошибка. Он постоянно находится над красной линией, указывая на то, что что-то не так. Когда эксперимент дает результат, который значительно выше или ниже измерения (низкая точность, высокая точность), требуется проверка на систематическую ошибку.Точность повреждена, точность нет.

Общая ошибка

Иногда в науке вы ошибаетесь. Такое случается. В большинстве случаев ученые замечают это, пожимают плечами и повторяют эксперимент. Иногда они не замечают, это называется грубейшей ошибкой. Похоже на этот график, если он всего один. Хорошие регулярные, несколько линейные данные, а затем исчезнет тот единственный момент, который вам нужен.

Если вы не заметили, что что-то пошло не так, было бы нечестным не записывать выброс.Объявить точку выбросом статистически сложно. Это должно быть 3 стандартных отклонения от того, что должно быть, и это высокая планка. Иногда ученые справляются с этим, повторяя эту часть эксперимента и заменяя данные. Иногда от этого просто избавляются. Эти повреждают точность и аккуратность.

Итак, может произойти три типа ошибок.

Систематический - все немного вверх или немного вниз

Случайно - все немного вверх и немного вниз

Gross - одна часть очень сильно вверх или очень сильно вниз.

,

Узнайте, как применить измерение точности полной шкалы, учебное пособие, пример, формула

Определение:

Точность объекта определяется процентом его общей способности чтения, тогда ошибка считается фиксированным значением. Это также называется полной точностью, которая обозначает уровень, до которого устройство будет выполнять повторные измерения в течение определенного периода. Давайте найдем измерение точности полной шкалы на перечисленных основных математических операциях.

Пример:
1] Дополнение:

Рассмотрим x как 5, а y как 2. Как накопить эти два значения? Подставьте значения по формуле (x + y)

Шаг 1:
x + y
Шаг 2:
5 + 2
Шаг 3:
7
2] Вычитание:

Примените X как 5 и Y как 2. Научитесь вычитать эти два значения. Подставьте значения по формуле (x-y)

Шаг 1:
x - y
Шаг 2:
5–2
Шаг 3:
3
3] Умножение:

Пусть 'X' равно 5, а 'Y' равно 2.Как умножить эти два значения? Подставьте значения по формуле (x * y)

Шаг 1:
x * y
Шаг 2:
5 * 2
Шаг 3:
10
4] Отдел:

Примените x как 5 и y как 2. Научитесь делать деление для этих значений. Для замены значений используйте эту формулу (x / y)

Шаг 1:
x / y
Шаг 2:
5/2
Шаг 3:
2,5
5] Modulo Division:

Предположим, что x равно 5, а y равно 2.Точность полной шкалы можно измерить следующим образом: Подставьте значения по этой формуле (x% y)

Шаг 1:
x% y
Шаг 2:
5% 2
Шаг 3:
1
6] Факториал:

Рассмотрим X как 5. Теперь произведем факториал для X. Примените и замените значения по этой формуле (x!)

Шаг 1:
x!
Шаг 2:
5!
Шаг 3:
Факторное измерение - «120».
7] Квадратный корень:

Считайте X равным 5. Как найти квадратный корень для X? Подставьте значения по этой формуле (√x)

Шаг 1:
√x
Шаг 2:
√5
Шаг 3:
Квадратный корень из 5 равен 2,2361.
8] Мощность:

Примените X как 5, а Y как 2. Научитесь находить степень X и Y. Подставьте значения по этой формуле (x y )

Шаг 1:
x y
Шаг 2:
5 2
Шаг 3:
5 * 5 = 25.Учебное пособие по точности, точности и погрешности

Термины и уравнения

Термины и уравнения

Точность - Насколько близко результат измерения к фактическому или ожидаемому значению.

Precision - Насколько близки друг к другу наборы измерений.

Ошибка - Разница между фактическим или ожидаемым значением и измеренным значением.

Абсолютная ошибка = Фактическое значение - Измеренное значение

Относительная ошибка = (Фактическое значение - Измеренное значение) / (Фактическое значение)

% Ошибка - Относительная ошибка X 100%

Отклонение - Разница между измерением в наборе и средним значением этого набора измерений.

Отклонение = Измерение - Среднее

Среднее отклонение - Среднее отклонение всех измерений в наборе.

Систематическая ошибка - Ошибка, которая влияет на все или большую часть измерений в наборе равномерно или по некоторому типу тренда.

Случайная ошибка - Ошибка, которая возникает спорадически, без какой-либо тенденции или предсказуемости.

Ошибка смещения - это когда машина не откалибрована или настроена на измерение нуля, когда образец находится на нуле.

Ошибка множителя - неисправность оборудования, при которой оно усиливает изменения в показаниях или имеет пониженную чувствительность к изменению.

,

Повышение точности ваших моделей машинного обучения | Автор: Прашант Гупта

Устали получать низкую точность моделей машинного обучения? Boosting здесь, чтобы помочь. Boosting - это популярный алгоритм машинного обучения, который увеличивает точность вашей модели, - что-то вроде того, когда гонщики используют закись азота для увеличения скорости своего автомобиля.

Boosting использует базовый алгоритм машинного обучения для соответствия данным. Это может быть любой алгоритм, но наиболее широко используется дерево решений.Чтобы узнать, почему так, продолжайте читать. Кроме того, алгоритм повышения легко объясняется с помощью деревьев решений, и это будет предметом внимания данной статьи. Он основан на подходах, отличных от повышения, которые повышают точность деревьев решений. Чтобы познакомиться с древовидными методами, прочтите мою другую статью здесь .

Начальная загрузка

Я хотел бы начать с объяснения важной базовой техники, которая называется Начальная загрузка .Предположим, что нам нужно изучить дерево решений, чтобы прогнозировать цену дома на основе 100 исходных данных. Точность предсказания такого дерева решений будет низкой, учитывая проблему дисперсии , которой оно страдает. Это означает, что если мы разделим обучающие данные на две части случайным образом и подгоним дерево решений к обеим половинам, результаты, которые мы можем получить, могут быть совершенно разными. Что нам действительно нужно, так это результат, который имеет низкую дисперсию при многократном применении к разным наборам данных.

Мы можем повысить точность прогнозирования деревьев решений с помощью начальной загрузки.

  1. Создайте множество (например, 100) случайных подвыборок нашего набора данных с заменой (то есть мы можем выбрать одно и то же значение несколько раз).
  2. Изучите (обучите) дерево решений по каждому образцу.
  3. Учитывая новый набор данных, рассчитайте прогноз для каждой подвыборки.
  4. Вычислите среднее значение всех собранных нами прогнозов (также называемых оценками начальной загрузки) и используйте его в качестве предполагаемого прогноза для данных.

Процедуру можно использовать аналогичным образом для деревьев классификации . Например, если бы у нас было 5 деревьев решений, которые делали следующие предсказания классов для входной выборки: синий, синий, красный, синий и красный, мы бы взяли наиболее частый класс и предсказали синий.

При таком подходе деревья вырастают глубоко и не обрезаются . Таким образом, каждое отдельное дерево имеет высокую дисперсию, но низкую систематическую ошибку. Усреднение этих деревьев резко снижает дисперсию.

Самостоятельная загрузка - это мощный статистический метод оценки количества из выборки данных . Количество может быть описательной статистикой, такой как среднее значение или стандартное отклонение. Применение процедуры начальной загрузки к алгоритму машинного обучения с высокой дисперсией, как правило, к деревьям решений, как показано в приведенном выше примере, известно как бэггинг (или агрегирование начальной загрузки).

Оценка ошибки

Простой способ оценки ошибки теста модели с упаковкой без перекрестной проверки - Оценка ошибки вне упаковки .Наблюдения, не используемые для соответствия заданному дереву с пакетами, называются наблюдениями вне пакета (OOB). Мы можем просто предсказать ответ для -го наблюдения, используя каждое из деревьев, в которых это наблюдение было OOB. Мы усредняем эти предсказанные ответы или принимаем большинство голосов, в зависимости от того, является ли ответ количественным или качественным. Можно вычислить общую OOB MSE (среднеквадратичную ошибку) или частоту ошибок классификации. Это приемлемый коэффициент ошибок теста, поскольку прогнозы основаны только на деревьях, которые не соответствовали этому наблюдению.

Случайные леса

Деревья решений стремятся минимизировать затраты, что означает, что они используют самые надежные предикторы / классификаторы для разделения ветвей. Итак, большинство деревьев, созданных из самонастраиваемых выборок, будут использовать один и тот же сильный предиктор в разных разбиениях. Это связывает деревья и приводит к отклонению .

Мы можем повысить точность прогнозирования деревьев в мешках с помощью случайных лесов.

При разделении ветвей любого дерева случайная выборка из м предикторов выбирается в качестве кандидатов на разбиение из полного набора предикторов p .Затем для разделения разрешается использовать только один из этих предикторов м . На каждом разбиении берется свежая выборка из м предикторов. Вы можете попробовать разные значения и настроить их с помощью перекрестной проверки.

  • Для классификации хорошее значение по умолчанию: m = sqrt (p)
  • Для регрессии хорошее значение по умолчанию: m = p / 3

Таким образом, в среднем ( p - m ) / p разбиений даже не учитывают сильный предсказатель. Это известно как декорреляция деревьев, поскольку мы исправляем проблему каждого дерева, используя один и тот же сильный предиктор.

Если м = p , то случайные леса равны сумке.

Важность функции

Одна проблема с вычислением полностью выросших деревьев состоит в том, что мы не можем легко интерпретировать результаты. И уже не ясно, какие переменные важны для отношений. Расчет падения функции ошибок для переменной в каждой точке разделения дает нам представление о важности функции . Это означает, что мы записываем общую сумму, на которую уменьшилась ошибка из-за разбиения по данному предиктору, усредненное по всем собранным деревьям.Тогда большое значение указывает на важный предиктор. В задачах регрессии это может быть падение остаточной суммы квадратов, а при классификации это может быть показатель Джини.

Повышение

Точность прогнозирования деревьев решений может быть дополнительно улучшена с помощью алгоритмов повышения.

Основная идея бустинга состоит в том, чтобы превратить множество слабых учеников в одного сильного ученика. Что мы подразумеваем под слабыми учениками?

Слабый ученик - это ученик, который всегда будет лучше, чем случайность, когда он пытается пометить данные, независимо от того, каково распределение по обучающим данным.Лучше случайности означает, что у нас всегда будет коэффициент ошибок меньше 1/2. Это означает, что алгоритм обучаемого всегда будет чему-то учиться и не всегда будет полностью точным, то есть он слаб и плох, когда дело доходит до изучения отношений между входными данными и целью. Это также означает, что правило, сформированное с использованием одного предиктора / классификатора, не является эффективным по отдельности.

Мы начинаем находить слабых учеников в наборе данных, создавая некоторые распределения и формируя из них небольшие деревья решений.Размер дерева настраивается в зависимости от количества имеющихся в нем разбиений. Часто хорошо работает 1, когда каждое дерево состоит из одной ветви. Такие деревья известны как пней решений.

Другой параметр, который требуется для повышения, - это количество итераций или количество деревьев в этом случае. Кроме того, он присваивает веса входным данным в зависимости от того, были ли они правильно спрогнозированы / классифицированы или нет. Посмотрим на алгоритм.

  1. Сначала входы инициализируются с равными весами .Для этого он использует первый базовый алгоритм обучения, что, как правило, является пенькой для принятия решения. Это означает, что на первом этапе это будет слабый ученик, который подберет подвыборку данных и сделает прогнозы для всех данных.
  2. Теперь мы выполняем следующие , пока не будет достигнуто максимальное количество деревьев. :
  • Обновляем веса входных данных на основе предыдущего прогона, и веса выше для ошибочно предсказанных / классифицированных входных данных
  • Создайте другое правило (пень решения в в данном случае) и подогнать его к подвыборке данных.Обратите внимание, что это правило времени будет сформировано с учетом ошибочно классифицированных входных данных (имеющих более высокий вес).
  • Наконец, мы прогнозируем / классифицируем все входные данные, используя это правило.

3. После завершения итераций мы объединяем слабые правила, чтобы сформировать одно сильное правило, , которое затем будет использоваться в качестве нашей модели.

Приведенный выше алгоритм лучше пояснить с помощью диаграммы. Предположим, у нас есть 10 входных наблюдений, которые мы хотим классифицировать как «+» или «-».

Источник изображения: Analytics Vidhya
  • Алгоритм повышения начнется с поля 1, как показано выше. Он присваивает одинаковые веса (обозначенные размером знаков) всем входам и прогнозирует «+» для входов в синей области и «-» для входов в красноватой области, используя пень решения D1.
  • В следующей итерации, блок 2, вы можете увидеть, что веса неправильно классифицированных знаков плюс больше, чем у других входных данных. Итак, пень решения D2 выбирается так, чтобы эти наблюдения классифицировались правильно.
  • В последней итерации, Блок 3, у него есть 3 неправильно классифицированных негатива из предыдущего прогона. Итак, чтобы исправить это, выбирается пень решения D3.
  • Наконец, выходной сильный ученик или Блок 3 имеет строгое правило, которое создается путем объединения отдельных пней для слабого решения. Вы можете увидеть, как мы увеличили классификационную способность нашей модели.

При настройке регрессии ошибка предсказания (обычно вычисляемая с использованием наименьших квадратов) используется для корректировки весов входных данных, и последующие ученики больше сосредотачиваются на входных данных с большой ошибкой.

Этот тип ускорения известен как Adaptive Boosting или AdaBoost. Как и в случае с деревьями, метод повышения также минимизирует функцию потерь. В случае Adaboost это экспоненциальная функция потерь .

Другой популярной версией повышения является алгоритм повышения градиента . Базовая концепция остается той же, , за исключением того, что здесь мы не играем с весами, но соответствуют модели по остаткам (измерение разницы в прогнозе и исходном результате), а не по исходным результатам. Adaboost реализуется с использованием итеративно уточняемых весов выборки, в то время как Gradient Boosting использует внутреннюю регрессионную модель, итеративно обучаемую по остаткам. Это означает, что новые слабые ученики формируются с учетом входных данных с высокими остатками.

В обоих алгоритмах параметр настройки лямбда или сжатие еще больше замедляет процессы, позволяя большему количеству деревьев различной формы атаковать остатки.Это также известно как скорость обучения , поскольку она контролирует величину, с которой каждое дерево вносит свой вклад в модель. Как видите, Boosting также не включает самозагрузку , вместо этого каждое дерево соответствует модифицированной версии исходных данных. Вместо подгонки одного большого дерева решений, что приводит к трудному подгонке данных и потенциально переобучению. Подход с ускорением учится медленно.

Как видите, алгоритм ясно объясняется с использованием деревьев решений, но есть и другие причины, по которым он в основном используется с деревьями.

  1. Деревья решений нелинейны. Повышение с помощью линейных моделей просто не работает.
  2. Слабый ученик должен постоянно уметь лучше, чем случайное угадывание. Обычно вам не нужно настраивать какие-либо параметры в дереве решений, чтобы добиться такого поведения. Для обучения SVM, например, действительно нужен поиск параметров. Поскольку данные повторно взвешиваются на каждой итерации, вам, вероятно, потребуется выполнять поиск другого параметра на каждой итерации.Таким образом, вы значительно увеличиваете объем работы, которую должны выполнять.
  3. Деревья решений достаточно быстро обучаются. Так как мы собираемся строить сотни или тысячи домов, это хорошая собственность. Они также быстро классифицируются, что снова важно, когда вам нужно выполнить 100 или 1000, прежде чем вы сможете вывести свое решение.
  4. Изменяя глубину , вы получаете простой и легкий контроль над компромиссом смещения / дисперсии, , зная, что усиление может уменьшить смещение, но также значительно уменьшает дисперсию.

Это чрезвычайно упрощенное (вероятно, наивное) объяснение повышения, но оно поможет вам понять самые основы. Популярной библиотекой для реализации этого алгоритма является Scikit-Learn . У него замечательный API, который может запустить вашу модель с всего за несколько строк кода на python .

.

Смотрите также