Как научиться быть в центре внимания


7 способов быть в центре внимания в любой компании

Мы не говорим, что есть формула успеха для того, чтобы ты был в центре любой компании, или что существует волшебная тема для разговора, которая будет интересна абсолютно всем.

Нет, такое еще не было придумано человечеством. Зато у нас есть кое-что получше — беспроигрышная стратегия, которая выведет тебя на новый уровень общения, прокачав твой скилл по полной. Ну или хотя бы поможет тебе стать душой компании. Согласись, это тоже неплохо.

1. Учись находить интересные темы для разговора

Казалось бы, нет такой темы, которая пользовалась бы одинаковым успехом у всех, но есть небольшая хитрость, которая поможет проявить себя при знакомстве с человеком.

Вряд ли кому-нибудь нравятся молчуны, которые при виде новых людей в компании предпочитают уклончиво наблюдать за беседой из-за чьей-то спины. Поэтому не прячь свои таланты и сразу обозначь себя как общительного человека, даже если ты не знаешь сферу интересов незнакомца.

В общем, есть одна фишка, которой полезно пользоваться при случае. Если в твою компанию попал новенький, значит, его пригласил кто-то из твоих сотоварищей. Беспроигрышный вариант — поинтересоваться у человека, кто из присутствующих является вашим общим знакомым, и спросить, как они познакомились, где пересеклись. Люди в своем большинстве очень любят говорить о себе, и подобные вопросы их прельщают.

К тому же из такого разговора ты вполне можешь выцепить много полезной информации о новом знакомом, которую можно в дальнейшем использовать для нахождения общих тем.

2. Не будь консерватором

«Нет, ребята, мы должны держаться тем же составом, который был изначально», — обычно говорит во всеуслышание человек, выступающий против всего нового. Если ты один из таких людей, и обычно именно от тебя исходит негатив в сторону новых людей в компании или новых занятий, то пора бы тебе меняться.

Консерватор — это человек, который тормозит компанию в своем развитии. Вместо того чтобы поддерживать изменения в ней, ее рост, трансформацию общих интересов, такие люди лишают товарищество будущего.

Компания как живой организм: она не может быть обособленной от всех внешних воздействий. Да и своим консерватизмом ты скорее отталкиваешь от себя людей, оставляя о себе не самые приятные впечатления.

3. Не говори о своих проблемах

Нет, один на один с лучшим другом — можно, и даже нужно, если тебя что-то сильно тревожит. Но в компании, а особенно если вы собрались с целью повеселиться, разговоры о проблемах и душевных травмах лишние.

Человек, пришедший развеяться, не будет в восторге от того, что ты изливаешь ему душу. Причем в своем большинстве люди предпочитают не прерывать собеседника, чтобы его не обидеть.

Четко разделяй всеобщее веселье от возможности высказаться, потому что то, что хорошо для тебя, может оставить осадок у окружающих.

4. Раскрой свои таланты

Ну если ты хорошо играешь на гитаре или красиво поешь, а может, очень круто танцуешь — почему бы не продемонстрировать это в компании? Тем более если программа вечеринки не пестрит особым разнообразием.

Люди любят и ценят тех, кто способен своей активностью и своим творчеством поднять им настроение и задать нужную атмосферу. Так что не бойся себя проявлять, особенно если видишь, что окружающим это действительно нравится.

5. Научись веселиться

Умение веселиться — целое искусство. Это правда. Бывает, общаешься с таким интересным человеком — и поет, и на гитаре играет, и танцует, и шутки остроумные может придумать. А вот веселиться с ним — одно наказание.

Существует множество факторов, которые мешают тебе просто расслабиться и начать получать удовольствие. Это может быть зажатость, стеснение, боязнь сделать что-то не так, неумение отключаться от своих проблем.

Все это можно (и нужно) победить, но не только для того, чтобы повысить свой статус в компании, но и для своего блага. Умение вовремя переключиться с серьезности и раздумывания о важных делах на релакс и веселье помогает отвлечься от работы и просто дать тебе отдохнуть.

6. Рассказывай забавные моменты из жизни

Неважно, кто в компании: твои лучшие друзья, просто друзья, товарищи или едва знакомые люди, — сложно найти человека, которому неинтересно слушать смешные истории из реальной жизни.

Только вот прежде чем делиться такими рассказами, взвесь все «за» и «против» и убедись, что ситуация действительно забавная. Ну и что твои друзья ее поймут и оценят. А то часто бывает, что шутку понимаете только вы вдвоем с лучшим другом, а остальные вынуждены быть молчаливыми наблюдателями вашего бурного веселья.

Кстати, смешные рассказы из жизни — отличный способ поближе узнать человека и понять, что он из себя представляет.

7. Не бойся выглядеть глупо

Люди любят настоящих людей, уж прости за тавтологию. Настоящих — это тех, кто выдает свои реальные эмоции, говорит то, что действительно думает, и ведет себя так, как ему хочется.

Подсознательно при общении человек понимает, когда ты пытаешься казаться кем-то другим, зажимаясь и недоговаривая. В общем, все просто: если ты будешь чрезмерно сдержан или осторожен в общении или поведении, к тебе вряд ли потянутся. Это будет отпугивать от тебя людей.

Не бойся косячить, говорить изредка глупые вещи, промахиваться со сказанной шуткой или признавать, что не понял, о чем идет речь. Никто не ждет от тебя того, чтобы ты был идеален. Напротив, мы гораздо комфортнее себя ощущаем в беседе с простыми и открытыми людьми.

Что означает центр внимания?

Центр внимания Значение

Определение: Человек или вещь, на которую все обращают внимание или на которые сосредотачиваются.

Происхождение Центр внимания

Есть несколько возможных историй происхождения этой общей фразы.

Первая история происхождения заключается в том, что выражение произошло от глагола center . Слово центр происходит от греческого kentrum, , что означает центральная точка компаса.Это слово появилось в английском языке в 1300-х годах и означало центр круга. К 1590-м годам это означало центр всего. Люди начали использовать center образно к 1680-м годам. Центр внимания засвидетельствован с 1868 года.

Вторая история происхождения происходит от связанной фразы центр притяжения , которая, согласно словарю идиом американского наследия , пришла из области физики.

Согласно этой теории, центр притяжения используется примерно с 1770 года, где он обозначает точку, к которой тела стремятся под действием силы тяжести или действия центростремительной силы.

Примеры Центр внимания

В этом примере женщина использует

.

Интуитивное понимание механизма внимания в глубоком обучении | by Harshall Lamba

Перед тем, как мы начнем декодирование, нам сначала нужно кодировать входную последовательность в набор внутренних состояний (в нашем случае h2, h3, h4, h5 и h5).

Теперь гипотеза состоит в том, что следующее слово в выходной последовательности зависит от текущего состояния декодера (декодер также является ГРУ), а также от скрытых состояний кодера. Таким образом, на каждом временном шаге мы рассматриваем эти две вещи и выполняем следующие шаги:

Шаг 1 - Вычислить оценку каждого состояния кодера

Поскольку мы прогнозируем само первое слово, декодер не имеет текущего внутреннего состояния ,По этой причине мы будем рассматривать последнее состояние кодировщика (т.е. h5) как предыдущее состояние декодера.

Теперь, используя эти два компонента (все состояния кодировщика и текущее состояние декодера), мы обучим простую нейронную сеть с прямой связью.

Почему?

Напомним, мы пытаемся предсказать первое слово в целевой последовательности, то есть «राहुल». Согласно идее, лежащей в основе внимания, нам не нужны все состояния кодировщика для предсказания этого слова, но нам нужны те состояния кодировщика, которые хранят информацию о слове «Рахул» во входной последовательности.

Как обсуждалось ранее, в этих промежуточных состояниях кодера хранится локальная информация входной последовательности. Таким образом, весьма вероятно, что информация слова «Рахул» будет присутствовать в состояниях, скажем, h2 и h3.

Таким образом, мы хотим, чтобы наш декодер уделял больше внимания состояниям h2 и h3, уделяя меньше внимания остальным состояниям кодера.

По этой причине мы обучаем нейронную сеть прямого распространения, которая будет изучать для определения соответствующих состояний кодировщика, генерируя высокий балл для состояний, на которые следует обратить внимание, и низкий балл для состояний, которые следует игнорировать.

Пусть s1, s2, s3, s4 и s5 будут оценками, сгенерированными для состояний h2, h3, h4, h5 и h5 соответственно. Поскольку мы предположили, что нам нужно уделять больше внимания состояниям h2 и h3 и игнорировать h4, h5 и h5, чтобы предсказать «राहुल», мы ожидаем, что вышеупомянутый нейрон будет генерировать такие оценки, что s1 и s2 высокие, а s3, s4 и s5 относительно низкие.

Шаг 2 - Вычисление весов внимания

После того, как эти оценки сформированы, мы применяем softmax к этим оценкам для получения весов внимания e1, e2, e3, e4 и e5, как показано выше.Преимущество применения softmax следующее:

a) Все веса лежат между 0 и 1, т. Е. 0 ≤ e1, e2, e3, e4, e5 ≤ 1

b) Сумма всех весов равна 1, т. Е. e1 + e2 + 3 + e4 + e5 = 1

Таким образом, мы получаем хорошую вероятностную интерпретацию весов внимания.

В нашем случае мы ожидаем следующих значений: (просто для интуиции)

e1 = 0,75, e2 = 0,2, e3 = 0,02, e4 = 0,02, e5 = 0,01

Это означает, что при прогнозировании слова «राहुल» , декодер должен уделять больше внимания состояниям h2 и h3 (поскольку значения e1 и e2 высокие), игнорируя состояния h4, h5 и h5 (поскольку значения e3, e4 и e5 очень малы).

Шаг 3. Вычислить вектор контекста

После того, как мы вычислили веса внимания, нам нужно вычислить вектор контекста (вектор мысли), который будет использоваться декодером для предсказания следующего слова в последовательности. Вычисляется следующим образом:

context_vector = e1 * h2 + e2 * h3 + e3 * h4 + e4 * h5 + e5 * h5

Очевидно, если значения e1 и e2 высокие, а значения e3, e4 и e5 низкие, то вектор контекста будет содержать больше информации из состояний h2 и h3 и относительно меньше информации из состояний h4, h5 и h5.

Шаг 4 - Объединить вектор контекста с выходными данными предыдущего временного шага

Наконец, декодер использует два нижеуказанных входных вектора для генерации следующего слова в последовательности

a) Вектор контекста

b) Сгенерированное выходное слово с предыдущего временного шага.

Мы просто объединяем эти два вектора и передаем объединенный вектор в декодер. Обратите внимание, что для первого временного шага, поскольку нет вывода из предыдущего временного шага, мы используем для этой цели специальный токен .Эта концепция уже подробно обсуждалась в моем предыдущем блоге .

Шаг 5 - Выход декодера

Затем декодер генерирует следующее слово в последовательности (в этом случае ожидается, что он сгенерирует «»), и вместе с выходом декодер также сгенерирует внутреннее скрытое состояние , и назовем его «d1».

Декодирование на временном шаге 2

Теперь, чтобы сгенерировать следующее слово «चांगला», декодер повторит ту же процедуру, которую можно резюмировать на диаграмме ниже:

Изменения выделены зелеными кружками

. ,

Научитесь обращать внимание! Обучаемое визуальное внимание в CNN | Рэйчел Ли Баллантайн Драелос

При обучении модели изображения мы хотим, чтобы модель могла фокусироваться на важных частях изображения. Один из способов добиться этого - использовать обучаемые механизмы внимания. В этом посте мы сначала обсудим разницу между постфактум и обучаемым вниманием и мягким и жестким вниманием. Затем мы подробно рассмотрим статью ICLR 2018 года «Научитесь обращать внимание», в которой описывается один из подходов к обучению мягкому вниманию для классификации изображений.

Основная статья Ссылка

Вот основная статья, которую мы будем изучать в этом посте: Джетли С., Лорд Н.А., Ли Н., Торр PH. Научитесь обращать внимание. ICLR 2018.

Существует также хорошая реализация документа Pytorch, доступная здесь: SaoYan / LearnToPayAttention

Примечание: внимание также широко используется при обработке естественного языка. В центре внимания этого поста - внимание к задачам компьютерного зрения.

Тренируемые и пост-фокальные механизмы внимания

Давайте начнем с английского определения слова «внимание»:

внимание : внимание, полученное от кого-то или чего-то; отношение к кому-то или чему-то как к интересному или важному

Точно так же в машинном обучении «внимание» означает:

определение (1): обучаемое внимание : группа методов, которые помогают «моделировать- во время обучения »более эффективно замечать важные вещи

и

определение (2): постфактум : группа техник, которые помогают людям визуализировать то, что уже обученная модель считает важным

Когда люди думают о внимании, они обычно думают об определении (1) для обучаемого внимания.Обучаемый механизм внимания обучается, пока сеть обучается, и должен помочь сети сосредоточиться на ключевых элементах изображения.

Как ни странно, методы ретроспективной визуализации тепловой карты также иногда называют «вниманием», поэтому я включил определение (2). Эти механизмы апостериорного внимания создают тепловую карту из уже обученной сети и включают:

Я подчеркиваю, что эти апостериорные методы не предназначены для изменения способа обучения модели или изменения того, что модель изучает.Они применяются к уже обученной модели с фиксированными весами и предназначены исключительно для понимания решений модели.

Наконец, давайте посмотрим на определение «карты внимания» из Джетли и др.:

карта внимания : скалярная матрица, представляющая относительную важность активации слоев в различных двухмерных пространственных положениях по отношению к целевой задаче

т. Е. Карта внимания представляет собой сетку чисел, которая указывает, какие 2D-местоположения важны для выполнения задачи.Важные места соответствуют большим числам и обычно отображаются красным цветом на тепловой карте. В следующем примере показаны карты внимания Grad-CAM для «бордер-колли», подчеркивающие положение бордер-колли в исходном монтаже:

Источник изображения: ramprs / grad-cam

Мягкое и жесткое внимание

Возможно, вы слышали термины «мягкое внимание» и «жесткое внимание». Разница между ними заключается в следующем:

Изменено из источника изображения
  • Мягкое внимание использует «мягкое затенение» для фокусировки на областях.Мягкому вниманию можно научиться, используя старый добрый метод обратного распространения ошибки / градиентный спуск (те же методы, которые используются для определения весов модели нейронной сети). Карты мягкого внимания обычно содержат десятичные дроби от 0 до 1.
  • Жесткое внимание использует обрезку изображения сосредоточиться на регионах. Его нельзя обучить с помощью градиентного спуска, потому что нет производной от процедуры «обрезать изображение здесь». Такие техники, как REINFORCE, можно использовать для тренировки механизмов жесткого внимания. Карты жесткого внимания полностью соответствуют 0 или 1, и ничего промежуточного; 1 соответствует пикселю, который сохраняется, а 0 соответствует пикселю, который обрезан.

Для более подробного обсуждения мягкого и жесткого внимания см. Этот пост (подразделы «Что такое внимание?», «Жесткое внимание» и «Мягкое внимание») и этот пост (подраздел «Мягкое и жесткое внимание») ).

В статье «Научитесь обращать внимание» демонстрируется один подход к мягкому обучаемому визуальному вниманию в модели CNN. Основная задача, которую они рассматривают, - это мультиклассовая классификация, цель которой - назначить входное изображение одному выходному классу, например отнесите фото медведя к классу «медведь.Авторы демонстрируют, что мягкое обучаемое внимание улучшает производительность мультиклассовой классификации на 7% на CIFAR-100, и показывают примеры тепловых карт, подчеркивающих, как внимание помогает модели сосредоточиться на частях изображения, наиболее релевантных для правильной метки класса.

Обзор модели

Вот диаграмма их модели, измененная с рисунка 2 в документе:

Модель основана на сверточной нейронной сети VGG. Существуют различные конфигурации сети VGG, показанные на Рисунке 2 здесь.(Если вам интересно, статья «Научитесь обращать внимание», похоже, использует конфигурацию VGG где-то между конфигурациями D и d E; в частности, есть три 256-канальных уровня, таких как конфигурация D, но восемь 512-канальных уровней как конфигурация E.)

Суть этого рисунка заключается в том, что авторы внесли два ключевых изменения в базовую настройку VGG:

  1. Они вставили оценщики внимания после слоев 7, 10 и 13 (номера слоев, которые я выделено желтым.Оценщик внимания после уровня 7 берет выходные данные уровня 7 и вычисляет «маску внимания» из чисел от 0 до 1, которые затем умножает на исходные выходные данные уровня 7 для получения «g_a¹» (на рисунке выше). Тот же процесс происходит с оценщиками внимания после слоев 10 и 13, чтобы получить g_a² и g_a³ соответственно.
  2. Следующим большим изменением является то, что авторы убрали полностью подключенный уровень, который обычно идет в конце VGG, чтобы произвести прогноз (обычно после слоя FC с номером «16» есть еще один слой FC, но они избавились от него. Это.Вместо этого классификация теперь происходит через новый полностью связанный слой, который принимает входные данные от трех оценщиков внимания.

Обозначение

Прежде чем мы подробно рассмотрим, как работает их механизм внимания, вот краткое изложение обозначений, используемых в статье, которые мы будем использовать в оставшейся части сообщения:

Шаг 1: Рассчитайте Оценки совместимости.

«Оценка совместимости» рассчитывается с использованием локальных функций l и глобального вектора функций g.

Авторы объясняют, что оценка совместимости должна иметь высокое значение, когда участок изображения, описываемый локальными функциями, «содержит части доминирующей категории изображений».

Например, если на изображении изображен кот, мы предполагаем, что вся кошка описана глобальным вектором признаков g , и, кроме того, мы ожидаем, что особенно «кошачий» патч (например, патч на лицо кошки) будет производить локальные особенности l , которые дают высокий балл совместимости в сочетании с g.

Авторы предлагают два различных способа расчета показателя совместимости c на основе локальных характеристик l и глобального вектора признаков g :

подход 1 : «параметризованная совместимость» или «pc»:

подход 2 : «скалярное произведение» или «dp»:

(Спойлер: «параметризованная совместимость» показала лучшие результаты.)

В «параметризованной совместимости» мы сначала добавляем локальные функции к глобальной функции, l + g , а затем берем скалярное произведение с выученным вектором u .Интуитивно кажется, что объединение l и g может иметь больше смысла, чем добавление, но авторы заявляют: «Учитывая существующие свободные параметры между локальным и глобальным дескрипторами изображения […], мы можем упростить объединение […] к операции сложения », чтобы« ограничить параметры единицы внимания ». (Один из рецензентов также спросил, почему они использовали сложение вместо конкатенации; см. OpenReview.)

В подходе «скалярного произведения» мы просто берем скалярное произведение локальных функций l и глобального вектора признаков g. Обратите внимание, что для каждого сверточного слоя, на который мы обращаем внимание (слои 7, 10 и 13), локальные особенности l будут уникальными для этого слоя, но глобальный вектор признаков g будет таким же.

Что делать, если л и г имеют разные размеры?

Как оказалось, l для сверточного слоя 7 имеет 256 каналов, а g имеет 512 каналов. Чтобы добавить два вектора (подход pc) или получить скалярное произведение (подход dp), векторы должны быть одинакового размера.

Авторы говорят, что если l и g имеют разные размеры, то сначала они проецируют g на пространство меньшего измерения l . Причина, по которой они не проецируют l в пространство более высоких измерений g , заключается в том, чтобы ограничить количество параметров. (Под «проектом» они подразумевают применение слоя нейронной сети, чтобы сделать l таким же размером, как g .)

Обратите внимание, что это все еще приемлемое решение - спроецировать l на g ; вы просто увеличиваете л вместо г меньше.Эта реализация Pytorch «Учимся обращать внимание» проецирует от l до g с использованием строки «c1, g1 = self.attn1 (self.projector (l1), g)», в которой self.projector представляет собой единственный сверточный слой. который занимает l , который имеет вход из 256 каналов и создает на выходе 512 каналов, чтобы соответствовать 512 каналам g .

Шаг 2: Рассчитайте веса внимания a на основе оценок совместимости c

Все, что мы здесь делаем, это с помощью softmax сжимаем оценки совместимости c в диапазоне (0,1), и мы звоним вывод a .Обзор работы softmax можно найти в этой публикации.

Шаг 3. Рассчитайте конечный результат работы механизма внимания для каждого уровня s .

Здесь мы вычисляем окончательный результат работы механизма внимания g_a для конкретного слоя s , взяв взвешенную комбинацию l для этого слоя (напомним, что l - это просто выходы этого уровня. Мы используем веса внимания и , которые мы только что вычислили.

Шаг 4. Сделайте прогноз классификации на основе конечного результата внимания

Теперь мы хотим использовать результаты анализа внимания g_a , которые мы только что рассчитали для слоев 7, 10 и 13, чтобы принять решение о классификации. Авторы исследуют два варианта:

подход 1: «concat»: сначала объедините выходы внимания, а затем скармливайте их вместе в один полностью связанный слой для получения окончательных прогнозов.

подход 2: «indep»: передать каждый вывод внимания на независимый полностью связанный уровень, чтобы получить промежуточные прогнозы, затем усреднить эти промежуточные прогнозы, чтобы получить окончательные прогнозы.

(Спойлер: «concat» показал лучшие результаты.)

Тренируемое внимание улучшает производительность

Авторы оценивают свой механизм внимания на различных задачах, включая многоклассовую классификацию с помощью CIFAR-10, CIFAR-100, и СВХН. Они обнаружили, что использование их обучаемого механизма внимания улучшает производительность по сравнению с базовым уровнем «без внимания», в отличие от одного из механизмов постфактум (CAM), который приводит к снижению производительности (из-за ограничений архитектуры, налагаемых CAM подход.)

Следующий вариант их метода показал себя лучше всего: «параметризованная совместимость» (вычисление оценок совместимости путем сложения l и g и последующего вычисления скалярного произведения с выученным вектором и ) и «concat» (конкатенация выводов внимания g_a перед подачей их в слой fc для прогнозирования.)

Вот часть рисунка 3 из их статьи, показывающая несколько примеров карт внимания, сфокусированных на соответствующих объектах:

Насколько полезен вектор глобальных признаков g ?

В приложении к их статье содержится интересное обсуждение полезности глобального вектора признаков g при вычислении внимания.Напомним, что подходы «pc» и «dp» для получения оценок совместимости используют глобальный вектор функций g . Авторы провели эксперименты, в которых они поменяли местами, какие г они использовали, и обнаружили:

  • для механизма внимания, основанного на скалярных произведениях [dp, худший результат]: «глобальный вектор играет важную роль в направлении внимания»
  • для параметризованной функции совместимости [pc, более производительный]: «глобальный вектор признаков кажется избыточным.Любое изменение глобального вектора признаков не переносится на результирующую карту внимания. Фактически, численные наблюдения показывают, что величины глобальных особенностей часто на пару порядков меньше, чем величины соответствующих локальных особенностей. Таким образом, изменение глобального вектора признаков практически не влияет на прогнозируемые оценки внимания. Тем не менее, сами карты внимания способны последовательно выделять области изображения, относящиеся к объекту. Таким образом, кажется, что в случае параметризованного внимания, основанного на совместимости, объектно-ориентированные особенности высокого порядка изучаются как часть вектора весов и .”

Другими словами, мы могли бы обойтись без вычисления оценок совместимости следующим образом:

без использования g вообще!

Независимо от конкретной роли, которую играет г , этот метод «научиться обращать внимание» действительно улучшает результаты и дает хорошие карты внимания - так что обучаемое внимание явно делает что-то полезное, даже если оно не использует г именно так, как изначально задумывали авторы.

  • Обучаемые механизмы внимания имеют веса внимания, которые изучаются во время обучения, которые помогают модели сосредоточиться на ключевых частях изображений, важных для задачи;
  • Механизмы ретроспективного внимания - это методы, применяемые после завершения обучения модели, и предназначены для обеспечения понимания того, куда смотрит модель, когда она делает прогнозы;
  • Пристальное внимание уделяется кадрированию изображения, его можно обучить с помощью REINFORCE.Мягкое внимание создает более «туманные» области фокуса и может быть обучено с помощью регулярного обратного распространения ошибки.
  • «Научитесь обращать внимание» - интересная статья, демонстрирующая, как мягкое обучаемое внимание может улучшить характеристики классификации изображений и выделить ключевые части изображений.

Дополнительные ссылки

  • Внимание в нейронных сетях и как их использовать Адам Косиорек. Это отличная статья, посвященная компьютерному зрению. В нем обсуждается, почему внимание полезно, мягкое или жесткое внимание, гауссово внимание (с кодом) и пространственные преобразователи (с кодом).
  • Внимание? Внимание! пользователя Lilian Weng. Это еще одна отличная статья, в которой уделяется внимание обработке естественного языка. В нем обсуждаются seq2seq, самовнимание, мягкое и жесткое внимание, глобальное и локальное внимание, нейронные машины Тьюринга, сети указателей, преобразователи, SNAIL и GAN с самовниманием.

Об избранном изображении

Источник изображения: Исполнитель с огненными пои. Пои - это исполнительское искусство, ориентированное на качание привязных гирь. Он возник в Новой Зеландии.

.

Смотрите также