КОГНИТИВИСТИдейное ядро²Прологи
Пролог 103. Симметрия и вероятность
Прологи: наука о сознании становится точной
Манифест когнитивиста
.
Узелки на распутку
.
Прологи
Пролог 1. Когнитивный порядок
Пролог 2. Сигнатура характерного масштаба
Пролог 3. Степенной закон
Пролог 4. Три типа степенных распределений
Пролог 5. Закон Зипфа, сигнатура β = 1
Пролог 6. Цветные шумы, сигнатура α = 1
.
Пролог 7. Розовый шум и модель Бака-Снеппена
Пролог 8. Розовый шум и модель релаксации
Пролог 9. Розовый шум: шипелки и фрактальное блуждание
Пролог 10. Население городов и закон Зипфа
Пролог 11. Масштабно-инвариантные сети
Пролог 12. Фракталы и закон Зипфа
Пролог 13. Дробление континуума
Пролог 14. Социально-географические волокна
Пролог 15. Закон Зипфа в случайных текстах
Пролог 16. Тексты как фракталы
Пролог 17. Когнитивные фракталы
Пролог 18. β и размерность Хаусдорфа
Пролог 19. Образы когнитивных фракталов
Пролог 20. Когнитивные волокна
Пролог 21. Математика когнитивных фракталов
Пролог 22. Стохастические когнитивные фракталы
Пролог 23. Сравниваем Россию и Польшу
Пролог 24. От Швейцарии до Афганистана
Пролог 25. Гармониум
Пролог 26. Шум когнитивных фракталов
Пролог 27. Шум когнитивных процессов
Пролог 28. Розовый шум в поведении людей
Пролог 29. Шум в динамике зрительного внимания
Пролог 30. Изображения и двухмерный розовый шум
.
Пролог 31. Физическая и когнитивная релаксация
Пролог 32. Когнитивная релаксация и цветные шумы
Пролог 33. ВТОРОЙ ЦИКЛ. Дробление времени
Пролог 34. Когнитивное дробление времени
Пролог 35. Время как текст
Пролог 36. События и причинность
Пролог 37. Четыре причины Аристотеля
Пролог 38. Экзогенные причины
Пролог 39. Генеративные модели причинности
Пролог 40. Генеративные модели причинности, часть 2
Пролог 41. Гештальт-причинность
Пролог 42. Тау-модель
Пролог 43. Я-состояния и тироны
Пролог 44. Параметры тау-модели
.
Пролог 45. Параметры тау-модели, часть 2
Пролог 46. Параллельный тирон
.
Пролог 47. Параллельный тирон, часть 2
Пролог 48. Свойства тирона
.
Пролог 49. Свойства тирона, часть 2
.
Пролог 50. Семейства тирона
Пролог 51. Эволюция как тирон
Пролог 52. Я-состояния и девиации
Пролог 53. Эволюция и морфогенез
Пролог 54. Волокна и легенды
Пролог 55. Волокна и легенды, часть 2
Пролог 56. ТРЕТИЙ ЦИКЛ. Я-состояния и их структура
Пролог 57. Я-состояния и их структура, часть 2
Пролог 58. Спиральная структура
.
Пролог 59. Информация и её типы
Пролог 60. Информация и симметрия
Пролог 61. Информация и закон Вебера-Фехнера
Пролог 62. Натуральная пропорция
Пролог 63. Апекс Я-состояний
.
Пролог 64. Генеративные модели Я-состояния
Пролог 65. Нейрон
Пролог 66. Критические случайные графы
.
Пролог 67. Блохи и табакерки
Пролог 68. Чаши, табакерки и прочее
.
Пролог 69. Интерлюдия
Пролог 70. Гештальт числа e
.
Пролог 71. Гештальт числа e, часть 2
Пролог 72. ЧЕТВЁРТЫЙ ЦИКЛ. Тиронный рост
Пролог 73. Обобщённые процессы
Пролог 74. Обобщённые процессы, часть 2
Пролог 75. Обобщённые процессы и энтропия Реньи
Пролог 76. Дельта-процессы
.
Пролог 77. Дельта-аддитивные процессы
Пролог 78. Дельта-мультипликативные процессы
Пролог 79. Дельта-мультипликативные процессы, часть 2
Пролог 80. Дельта-мультипликативные процессы, часть 3
Пролог 81. Структурно-временной изоморфизм
Пролог 82. Тау-процесс и время
Пролог 83. Знаки состояний
Пролог 84. Мерные знаки и случайное блуждание
.
Пролог 85. Именные знаки и графы состояний
Пролог 86. ПЯТЫЙ ЦИКЛ. Простые числа
Пролог 87. Числа и их компоненты
Пролог 88. Время и простые числа
Пролог 89. Т-информация
Пролог 90. Новый прототип статистики Зипфа
Пролог 91. Новый прототип и гармоническая информация
.
Пролог 92. Не-целочисленные симметрии
Пролог 93. Спектры симметрии
.
Пролог 94. Преобразования симметрий
Пролог 95. Комплексные симметрии
Пролог 96. Cимметрии и структурные модальности
Пролог 97. Симметрии и характерная динамика
Пролог 98. Симметрия, энергия, излучения
Пролог 99. Симметрия системы
Пролог 100. Симметрия континуумов и траекторий
Пролог 101. Симметрия континуумов, часть 2
Пролог 102. Симметрия и масштаб
Пролог 103. Симметрия и вероятность
Пролог 104. Симметрия и вероятность, часть 2
.
Пролог 105. Преобразование симметрии континуумов
Пролог 106. Cимметрия многомерных континуумов
Пролог 107. Опыты с взаимодействием форм
Пролог 108. Опыты с взаимодействием форм, часть 2
Пролог 109. Омега-преобразование
Пролог 110. Омега-линзы
Пролог 110 (2). Омега-линзы, часть 2
Пролог 111. Геометрическое среднее и максимум энтропии
Пролог 112. Мультипликативные коллизии
Пролог 113. Смысл принципа максимума энтропии
Пролог 114. Варианты модели мультипликативных коллизий
Пролог 115. Свойства модели мультипликативных коллизий
Пролог 116. Геометрическая энтропия
Пролог 117. Специальные энтропии. Последний Пролог.
Степенные законы, распределения Парето и закон Зипфа
.
Когнитивный уровень
.
Мерцающие зоны
.
Органическая логика: резюме
Карта органической логики
.
Хвост ящерки. Метафизика метафоры.
.
Опус 1/F
.
Anschauung, научный метод Гёте
.
Закон серийности Пауля Каммерера
.
Ранние признаки критических переходов
.
Слабые сигналы
.
Меметика
.
Системный анализ и чувствительные точки
.
Спиральная динамика
.
Пролог 103. Симметрия и вероятность
 
Роман Уфимцев
11 октября 2013 года, Калининград
Вероятностные континуумы
Пусть мы наблюдаем некоторый континуум, плотность в котором не остается постоянной, а изменяется. Например, в один момент времени континуум содержит один сгусток, находящийся в точке x=1, а в другой - сгусток оказыватся в точке x=2:
Если ровно в половине случаев мы видим картину I), а в другую половину - картину II), то в целом этот динамический континуум можно изобразить усредненной диаграммой плотности:
И на ней смысл величины p(x) несколько меняется - теперь это не мгновенная плотность континуума в точке x, а вероятность обнаружить сгусток единичной массы в точке x по результатам многих наблюдений континуума. Такая трансформация смысла позволяет нам оценивать симметрию не только статичных континуумов, но и динамически изменяющихся. При этом функция p(x) оказывается ничем иным как распределением плотности вероятности - в наших Прологах мы обычно обозначали его как Ф(x).
Очень кратко освежим в памяти, что такое распределение плотности вероятности. Пусть у нас есть какая-то случайная величина x, которая меняется от наблюдения к наблюдению. Функция Ф(x) характеризует, насколько часто случайная величина x будет принимать то или иное значение. Она позволяет вычислить вероятность, с которой величина x во время очередного наблюдения окажется в диапазоне от x=A до x=B:
Пусть, например, функция Ф(x) выглядит так:
Мы видим, что малые значения случайной величины x встречаются чаще, чем большие (график спадающий). А вероятность в очередном наблюдении обнаружить x в диапазоне от A до B равно закрашенной площади под кривой Ф(x) - эта площадь как раз и равна приведенному интегралу.
Ясно, что функция Ф(x) должна отвечать одному непременному условию: если закрасить всю площадь под ее кривой, она должна оказаться равной 1: действительно, случайная величина с вероятностью 1 принимает вообще какое-то значение. Если, например, вообще случайная величина x в принципе может принимать значения от минус до плюс бесконечности, это условие записывается так:
Функция плотности вероятности Ф(x) - чрезвычайно распространенный в разных областях науки инструмент. И теперь мы можем воспользоваться им для развития понятия обобщенной симметрии. Мы можем записать новое уравнение порядка симметрии не для статических, а для динамических вероятностных континуумов:
Заметим, что оно выглядит проще, чем наше обычное уравнение порядка симметрии континуума:
Дело в том, что в обычное уравнение встроено условие нормировки общей массы континуума - при расчете симметрии плотности континуума должны быть так пересчитаны, чтобы общая масса континуума равнялась 1. Если это условие выполнено заведомо, уравнение упрощается:
Функция Ф(x) заведомо отвечает этому условию: общая "масса вероятности", вычисленная с ее помощью всегда равна 1, поэтому мы тоже получаем простое по виду уравнение:
Только вместо плотности континуума p(x) - а эту функцию можно понимать как вероятность для некоторой частицы континуума оказаться в точке с координатами x - в нем используется плотность вероятности Ф(x), которая определяет вероятность, с которой случайная величина в очередном наблюдении примет значение x. Мы видим, что смысл очень близок. Либо мы наугад выбираем частицу континуума и смотрим, какую координату она имеет (p(x)), либо мы просто наблюдаем меняющуюся случайную величину и смотрим, какое значение ("координату") она принимает в очередном наблюдении (Ф(x)).
Одно из самых важных применений функции Ф(x) в науке - анализ распределения промежутков времени между событиями (вспомним, например, нашу классификацию четырех типов причинности, основанную на характерном распределении времен между событием-причиной и событием-следствием) и это имеет несколько нетривиальное отношение к теме симметрий. Речь идет о том, что континуумом, для которого мы вычисляем симметрию, является время, а плотностью времени является насыщенность его событиями - абсолютная или вероятностная. Это важная тема, которую мы пока только обозначим.
А пока мы освоим новый взгляд на симметрию как на свойство функции плотности вероятности, рассмотрев некоторые самые распространенные в науке функции Ф(x), уделив основное внимание тем из них, с которыми мы часто встречались на протяжении Прологов. И начнем мы с четырех функций Ф(x), которые связаны с четырьмя причинами Аристотеля.
Симметрия и причинность
Физическая экзогенная (движущая) причинность: нормальное распределение
Мы начнем с самого известного распределения плотности вероятности - нормального или гауссова распределения, имеющего форму колокола (тут я предполагаю, что читатель знаком с основными типами распределений. Если же требуются более подробные разъяснения и иллюстрации, можно обратиться к Прологу 36):
Обсуждая четыре типа причин, мы связали этот тип распределения с действием физической причинности: во многих физических явлениях периоды между событием-причиной и событием-следствием распределяются примерно так. В уравнении распределения два параметра: η задает положение вершины колокола, а σ - его ширину. И вот тут становится ясно, почему нормальное распределение только примерно описывает физическую причинность. Дело в том, что теоретически, вне зависимости от параметров η и σ нормальное распределение захватывает все значения x - от минус бесконечности до плюс бесконечности. Даже если колокол сдвинут в область положительных x, все равно его левый хвост охватывает и область отрицательных значений x:
Но если x - это период времени между событием-причиной и событием-следствием, отрицательные значения x, какими бы маловероятными они ни были, не имеют смысла - ведь не может следствие наступать раньше причины? Поэтому говоря о физической причинности, мы имеем в виду нормальные распределения, в котором параметры таковы, что в области отрицательных значений оказывается только пренебрежимо малая часть распределения - для этого параметр η должен быть гораздо больше, чем параметр σ. Это выглядит как узкий колокол, расположенный относительно далеко от начала координат. например (η=4, σ=0,1):
Итак, каким же будет порядок симметрии нормального распределения, при условии, что η гораздо больше, чем σ?
Тут две новости. Плохая заключается в том, что результат в полном виде выглядит весьма сложно и выражается через специальные функции:
где 1F1() - так называемая гипергеометрическая функция первого рода, Erfc() - функция ошибки, она как раз связана с хвостами нормального распределения и в данном случае определяет мнимую часть выражения. Поскольку теоретически при любых η и σ часть распределения захватывает область отрицательных x, в полном выражении возникает и мнимая часть - как мы знаем, мнимые порядки симметрии связаны с одновременным присутствием плотности континуума и в области положительных и в области отрицательных x - а тут именно такой случай.
Хорошая новости заключается в том, что при условии, что η существенно больше, чем σ, мнимой частью можно пренебречь, а реальная часть выражения приближается к очень простому значению:
Например, вот как соотносятся точное сложное значение величины ln(S) (черная кривая) и ее простое приближение (красная кривая) с ростом η при σ = 1:
Видно, что уже при η=4 кривые почти неотличимы, а ведь при этом η не многократно больше σ.
Из приближения следует, что если η существенно больше, чем σ, то
Параметр η задает координату вершины колокола, и мы видим, что приближенный порядок симметрии нормального распределения оказывается равным порядку симметрии точечного сгустка, расположенного в точке x=η:
(Вообще, предельно узкое нормальное распределение - то, что мы называем "точечным сгустком" - в науке называется дельта-функцией или дельта-распределением.)
Заметим, что на эта иллюстрация изображает случай η=4, σ = 1. Как "визуально" не похожи нормальное распределение и его точечное приближение! И тем не менее, как мы видели выше, их порядки симметрии практически не отличаются.
Итак, если можно говорить о "порядке симметрии физической причинности", он равен величине e*T, где T - средний период, разделяющий событие-причину и событие-следствие. Что бы это значило?
Говоря о порядке симметрии нормального распределения было бы "не честно" обойти вниманием еще один частный случай, для которого порядок симметрии имеет простой вид. Некоторое время назад, говоря о комплексных (зеркальных) симметриях континуума, мы уже затрагивали этот пример - речь идет о нормальном распределении, для которого η=0, то есть, вершина колокола лежит в точке x=0:
Как мы говорили, если континуум симметричен относительно начала координат, его порядок симметрии является чисто мнимой величиной. Тут именно так, порядок симметрии нормального распределения при η=0:
где γ - постоянная Эйлера-Машерони.
Когнитивная экзогенная (целевая) причинность: логнормальное распределение
Этот тип причинности характеризуется логнормальным распределением периодов между событием-причиной и событием-следствием и имеет вид колокола, скошенного вправо:
Например, вот вид логнормального распределения при η=3 и σ=1:
Мы уже говорили о том, в каких простых и интересных отношениях находятся нормальное и логнормальное распределение. Вкратце, если нормальное распределение можно понимать как типичный результат суммы различных случайных чисел, то логнормальное - типичный результат произведения случайных чисел. Особенность логнормального распределения заключается в том, что оно охватывает только положительные значения случайной величины x - оно не определено для отрицательных значений. Это имеет резон с точки зрения причинности - между событием-причиной и событием-следствием всегда положительный промежуток времени.
Итак, какой же порядок симметрии имеет логнормальное распределение в зависимости от параметров (их смысл можно понимать по аналогии с параметрами нормального распределения: величина eη примерно задает вершину скошенного колокола, а σ - его относительную ширину или "размазанность")?
Значение параметров логнормального распределения η и σ не так тривиально, как в нормальном распределении. Во-первых, параметр η, а точнее величина eη задает не вершину кривой распределения, а его медиану. Медиана делит распределение на две равных по массе части:
Из-за скошенности распределения медиана не совпадает с положением вершины. Случайная величина x с вероятностью 1/2 окажется в диапазоне от 0 до eη и с вероятностью 1/2 - в диапазоне от eη до бесконечности.
Во-вторых, параметр σ определяет скорее не "размазанность" распределения, а его общую форму:
Тут для всех трех распределений η=3, а σ - разные. Как видим, чем больше параметр σ, тем меньше форма распределения похожа на колокол, приближаясь по форме скорее к степенному распределению.
Приступая к поиску ответа на этот вопрос, автор испытывал некоторое волнение. Из-за того, что логнормальное распределение очевидно родственно нормальному, можно было предполагать, что ответ в общем случае тоже окажется сложным и громоздким. Но если для нормального распределения у этого еще были оправдания - а именно, что оно только примерно отражает физическую причинность, то в данном случае оправданий нет. А простота и эстетика, как мы не раз замечали, служит очень важным, неоценимым критерием правильности направления наших поисков.
Тем более изумительно простым оказался результат:
Удивительно, что порядок симметрии оказался независимым от параметра σ, а только от положения медианы логнормального распределения. Если обозначить его как M=eη, то мы можем записать результат так:
Сначала заметим, что это выражение очевидно перекликается с приближенным выражением, которое мы получили для нормального распределения:
Параметр η в нормальном распределении задает не только положение вершины колокола, но и медиану, поскольку форма нормального распределения симметрична относительно вершины. То есть, можно говорить, что в обоих случаях в уравнение симметрии входит медиана распределений - для нормального она равна x=η, для логнормального - x=eη. Однако, важное отличие в том, что для логнормального распределения этот результат не приближенный, а точный: порядок симметрии логнормального распределения в точности такой же, как и у точечного сгустка единичной массы, расположенного в точке медианы логнормального распределения.
Независимость порядка симметрии логнормального распределения от параметра σ - это его замечательное свойство. Вспомним разговор о структурных модальностях - системах дискретных объектов или континуумах, которые имеют один и тот же порядок симметрии. Если мы задаем параметр η логнормального распределения, то есть, его медиану, то варьируя параметр σ мы получаем семейство континуумов, являющихся структурными модальностями друг друга, включая предельный случай, когда σ стремится к нулю - в этом случае континуум приобретает форму точечного. Интересно, что внешний вид распредеелния существенно меняется с изменением параметра σ - и тем не менее, все вариации обладают одним и тем же порядком симметрии. На этой анимации параметр σ снижается, а стрелкой обозначена медиана:
Если при σ, стремящемся к 0, логнормальное распределение приобретает форму точечного континуума единичной массы (по-научному, форму дельта-функции), то интересно взглянуть на другой предел - когда наоборот, σ стремится к бесконечности. Не трудно выяснить, что в этом случае логнормальное распределение условно приближается к функции
Это тот самый загадочный "континуум Зипфа", который, во-первых, имеет порядок симметрии, независимый от масштаба наблюдения, а во-вторых, этот порядок является неопределенной величиной. И тут также нет ясности: порядок симметрии логнормального распределения зависит от параметра η, но не зависит от σ. А тут в уравнение входит только σ. Мы вновь сталкиваемся с неопределенностью порядка симметрии зипфовского континуума. И видим его возможную связь с логнормальным распределением в его экстремальной форме.
Подводя итог анализу логнормальных распределений с точки зрения симметрии, следует сказать, что этот тип распределений, по видимому, имеет какое-то особое значение для "учения об обобщенных симметриях". На такое подозрение наводит как удивительная простота выражения порядка симметрии, так и возможность построения на основе логнормальных распределений целых семейств континуумов с любым заданным порядком симметрии - достаточно только выбрать нужную медиану. Может быть, именно симметрические свойства этого распределения объясняют его широкую распространенность в хронологии самых разных явлений.
Физическая эндогенная (материальная) причинность: экспоненциальное распределение
Этот тип причинности характеризуется экспоненциальным распределением периодов между событием-причиной и событием-следствием. Наш любимый пример - радиоактивный распад, в котром событием-причиной является рождение атома изотопа, а событием-следствием - его распад:
Мы уже рассматривали симметрию этого типа континуумов, порядок симметрии для них:
Параметр λ управляет растянутостью кривой распределения вдоль оси x - чем он меньше, тем более растянута кривая. Однако, выше на примере логнормального распределения, мы видели, что удобным (и может быть, не просто удобным) масштабным параметром для распределений плотности вероятности является медиана M. Она делит распределение на две одинаковые массовые части:
Применительно к экспоненциальным распределениям, которыми описывают процессы радиоактивного распада, медиану называют периодом полураспада - за период времени M распадается ровно половина радиоактивного вещества. То есть, для некоторого атома вероятность распасться до момента M равна 1/2, и после момента M - тоже 1/2.
Медиана экспоненциального распределения связана с параметром λ следующим образом:
Таким образом, мы можем переформулировать выражение симметрии:
В этом виде его интересно сопоставить с порядком симметрии логнормального распределения, для которого просто S = e*M.
Когнитивная эндогенная (формальная) причинность: степенное распределение
Последний тип причинности, которому мы уделили в Прологах больше всего внимания, характеризуется степенным распределением вида
Для таких континуумов мы тоже уже получали результат:
где Hx - гармоническое число от x.
Медиана степенного распределения определяется выражением
Так что мы можем записать порядок симметрии в зависимости от положения медианы M:
Простейший случай - когда медиана M=1. Тогда порядок симметрии степенного распределения равен числу e. Это достигается при λ=2, то есть, при степенном распределении плотности вероятности, которое отвечает закону Зипфа:
Может быть, читатель помнит тау-модель - модель "элементарной когнитивной частицы", которая в отличие от материальных частиц, для которых характерно постоянство вероятности распада в любой момент времени, характеризуется снижающейся вероятностью прекращения существования. В простейшем варианте вероятность распада для когнитивной частицы определяется уравнением:
где T - возраст частицы. Этот закон вероятности приводит к степенному распределению периодов жизни частиц, и ясно, что медиана равна 1: ровно половина частиц просуществует только единичный период времени, а другая половина - дольше. Теперь мы можем сказать, что время жизни таких частиц имеет порядок симметрии e.
Завершая обзор четырех типов причинности и связанных с ними распределений плотности вероятности событий с точки зрения симметрии, заметим интересный момент: для двух типов распределений, связанных с когнитивной причинностью (логнормальных и степенных), порядок их симметрии равен числу e, если их медиана лежит в точке x=1. Совпадение ли это или уникальная особенность распределений, связанных с когнитивной причинностью? Есть ли другие распределения, обладающие этим свойством? Это нам еще предстоит выяснить.
Ваш комментарий
image Поля, отмеченные звездочкой, нужно обязательно заполнить
Заголовок комментария:
image Текст комментария: (не более 2000 символов, HTML-разметка удаляется)
image Ваше имя:
Ваш E-mail:
image Сколько будет дважды два? (ответьте цифрой, это проверка от спам-рассылок)
Отправить комментарий
Главные темы
Внимание (8)Геогештальт (1)Гештальт (16)Динамика внимания (5)Инсайт (5)Интуиция (2)Кибернетика (5)Когнитивное управление (6)Когнитивный анализ (4)Когнитивный словарь (5)Культура наблюдения (5)Мерцающие зоны (7)Метафизика (3)Метафора (13)Механизмы восприятия (15)Мифы и парадигмы (7)Органическая логика (5)Прогнозирование (6)Роль языка (4)Симметрии (5)Синхронизмы (5)Сложные системы (10)Степенной закон (8)Творческое мышление (5)Три уровня систем (4)Управление знаниями (3)Фазы развития (7)Фракталы (18)Цветные шумы (9)
КОГНИТИВИСТ: когнитивные методы и технологии © Роман Уфимцев, при поддержке Ателье ER