КОГНИТИВИСТИдейное ядро²ПрологиПролог 91. Новый прототип и гармоническая информация
Математическое приложение к Прологу 91
Прологи: наука о сознании становится точной
Манифест когнитивиста
.
Узелки на распутку
.
Прологи
Пролог 1. Когнитивный порядок
Пролог 2. Сигнатура характерного масштаба
Пролог 3. Степенной закон
Пролог 4. Три типа степенных распределений
Пролог 5. Закон Зипфа, сигнатура β = 1
Пролог 6. Цветные шумы, сигнатура α = 1
.
Пролог 7. Розовый шум и модель Бака-Снеппена
Пролог 8. Розовый шум и модель релаксации
Пролог 9. Розовый шум: шипелки и фрактальное блуждание
Пролог 10. Население городов и закон Зипфа
Пролог 11. Масштабно-инвариантные сети
Пролог 12. Фракталы и закон Зипфа
Пролог 13. Дробление континуума
Пролог 14. Социально-географические волокна
Пролог 15. Закон Зипфа в случайных текстах
Пролог 16. Тексты как фракталы
Пролог 17. Когнитивные фракталы
Пролог 18. β и размерность Хаусдорфа
Пролог 19. Образы когнитивных фракталов
Пролог 20. Когнитивные волокна
Пролог 21. Математика когнитивных фракталов
Пролог 22. Стохастические когнитивные фракталы
Пролог 23. Сравниваем Россию и Польшу
Пролог 24. От Швейцарии до Афганистана
Пролог 25. Гармониум
Пролог 26. Шум когнитивных фракталов
Пролог 27. Шум когнитивных процессов
Пролог 28. Розовый шум в поведении людей
Пролог 29. Шум в динамике зрительного внимания
Пролог 30. Изображения и двухмерный розовый шум
.
Пролог 31. Физическая и когнитивная релаксация
Пролог 32. Когнитивная релаксация и цветные шумы
Пролог 33. ВТОРОЙ ЦИКЛ. Дробление времени
Пролог 34. Когнитивное дробление времени
Пролог 35. Время как текст
Пролог 36. События и причинность
Пролог 37. Четыре причины Аристотеля
Пролог 38. Экзогенные причины
Пролог 39. Генеративные модели причинности
Пролог 40. Генеративные модели причинности, часть 2
Пролог 41. Гештальт-причинность
Пролог 42. Тау-модель
Пролог 43. Я-состояния и тироны
Пролог 44. Параметры тау-модели
.
Пролог 45. Параметры тау-модели, часть 2
Пролог 46. Параллельный тирон
.
Пролог 47. Параллельный тирон, часть 2
Пролог 48. Свойства тирона
.
Пролог 49. Свойства тирона, часть 2
.
Пролог 50. Семейства тирона
Пролог 51. Эволюция как тирон
Пролог 52. Я-состояния и девиации
Пролог 53. Эволюция и морфогенез
Пролог 54. Волокна и легенды
Пролог 55. Волокна и легенды, часть 2
Пролог 56. ТРЕТИЙ ЦИКЛ. Я-состояния и их структура
Пролог 57. Я-состояния и их структура, часть 2
Пролог 58. Спиральная структура
.
Пролог 59. Информация и её типы
Пролог 60. Информация и симметрия
Пролог 61. Информация и закон Вебера-Фехнера
Пролог 62. Натуральная пропорция
Пролог 63. Апекс Я-состояний
.
Пролог 64. Генеративные модели Я-состояния
Пролог 65. Нейрон
Пролог 66. Критические случайные графы
.
Пролог 67. Блохи и табакерки
Пролог 68. Чаши, табакерки и прочее
.
Пролог 69. Интерлюдия
Пролог 70. Гештальт числа e
.
Пролог 71. Гештальт числа e, часть 2
Пролог 72. ЧЕТВЁРТЫЙ ЦИКЛ. Тиронный рост
Пролог 73. Обобщённые процессы
Пролог 74. Обобщённые процессы, часть 2
Пролог 75. Обобщённые процессы и энтропия Реньи
Пролог 76. Дельта-процессы
.
Пролог 77. Дельта-аддитивные процессы
Пролог 78. Дельта-мультипликативные процессы
Пролог 79. Дельта-мультипликативные процессы, часть 2
Пролог 80. Дельта-мультипликативные процессы, часть 3
Пролог 81. Структурно-временной изоморфизм
Пролог 82. Тау-процесс и время
Пролог 83. Знаки состояний
Пролог 84. Мерные знаки и случайное блуждание
.
Пролог 85. Именные знаки и графы состояний
Пролог 86. ПЯТЫЙ ЦИКЛ. Простые числа
Пролог 87. Числа и их компоненты
Пролог 88. Время и простые числа
Пролог 89. Т-информация
Пролог 90. Новый прототип статистики Зипфа
Пролог 91. Новый прототип и гармоническая информация
Математическое приложение к Прологу 91
Пролог 92. Не-целочисленные симметрии
Пролог 93. Спектры симметрии
.
Пролог 94. Преобразования симметрий
Пролог 95. Комплексные симметрии
Пролог 96. Cимметрии и структурные модальности
Пролог 97. Симметрии и характерная динамика
Пролог 98. Симметрия, энергия, излучения
Пролог 99. Симметрия системы
Пролог 100. Симметрия континуумов и траекторий
Пролог 101. Симметрия континуумов, часть 2
Пролог 102. Симметрия и масштаб
Пролог 103. Симметрия и вероятность
Пролог 104. Симметрия и вероятность, часть 2
.
Пролог 105. Преобразование симметрии континуумов
Пролог 106. Cимметрия многомерных континуумов
Пролог 107. Опыты с взаимодействием форм
Пролог 108. Опыты с взаимодействием форм, часть 2
Пролог 109. Омега-преобразование
Пролог 110. Омега-линзы
Пролог 110 (2). Омега-линзы, часть 2
Пролог 111. Геометрическое среднее и максимум энтропии
Пролог 112. Мультипликативные коллизии
Пролог 113. Смысл принципа максимума энтропии
Пролог 114. Варианты модели мультипликативных коллизий
Пролог 115. Свойства модели мультипликативных коллизий
Пролог 116. Геометрическая энтропия
Пролог 117. Специальные энтропии. Последний Пролог.
Степенные законы, распределения Парето и закон Зипфа
.
Когнитивный уровень
.
Мерцающие зоны
.
Органическая логика: резюме
Карта органической логики
.
Хвост ящерки. Метафизика метафоры.
.
Опус 1/F
.
Anschauung, научный метод Гёте
.
Закон серийности Пауля Каммерера
.
Ранние признаки критических переходов
.
Слабые сигналы
.
Меметика
.
Системный анализ и чувствительные точки
.
Спиральная динамика
.
Математическое приложение к Прологу 91
 
Роман Уфимцев
16 мая 2013 года, Калининград
В этом приложении к Прологу 91 приводятся доказательства уравнений, связанных с гармонической информацией и новым прототипом статистики Зипфа.
1. Числа Стирлинга и уравнение гармонической информации
Докажем, что при расчёте количества Т-информации методом, описанным в основном тексте Пролога, количество гармонической информации для N альтернатив равно гармоническому числу:
Воспользуемся некоторыми результатами, которые мы получили при анализе абстрактной структуры тирона. Рассматривая рост древовидной структуры тирона, мы изображали его первые стадии диаграммой:
Диаграмма изображает все возможные деревья для различного количества узлов N при условии, что в корне дерева находится только один узел. Очевидно, что при расчёте гармонической информации - то есть, средней длины траектории от вершины дерева до его узлов - мы берём среднее по тем же деревьям. Обозначим длину траектории от вершины дерева до некоторого узла как k и рассмотрим деревья для N=4. Для получения величины гармонической информации нам нужно во-первых подсчитать, сколько узлов на на каких расстояниях от вершины находятся во всех вариантах деревьев. Прямой подсчёт даёт следующий результат:
k=1 6 узлов (по одному в каждом варианте дерева)
k=2 11 узлов
k=3 6 узлов
k=4 1 узел
Обозначим полученные числа как |s(N,k)| - чуть далее станет ясно, почему - конкретно в данном случае N=4, так что это числа |s(4,k)|, где k принимает значения от 1 до 4. Тогда, средняя длина траекторий от вершины до узлов определяется уравнением
Или конкретно в случае N=4:
Интересный и неожиданно не простой вопрос - выяснение чисел |s(N,k)| для любого N. Что это за числа? Вот как выглядит их ряд для первых значений N:
Взглянем на следующую последовательность:
Очевидно, коэффициенты при различных степенях x совпадают с числами |s(N,k)|. Это так называемые беззнаковые числа Стирлинга первого рода.
Их принято обозначать со знаком модуля |s(N,k)|, поскольку в точном значении числа Стирлинга первого рода s(N,k) определяются коэффициентами несколько другой последовательности:
Видим, что коэффициенты в этом случае точно такие же по модулю, но имеют знаки - или +.
К слову, кроме этого алгебраического понимания чисел Стирлинга широко распространена их комбинаторная трактовка как числа циклов в возможных перестановках N объектов. Возьмём, например, три объекта. Для N объектов имеется N! вариантов перестановок, так что в данном случае их 3! = 6:
Возьмём первую перестановку в качестве оригинала и посмотрим, как должны перемещаться объекты, чтобы получить все 6 вариантов перестановок:
Траектории группируются в независимые, не пересекающиеся циклы. В данном случае мы имеем 2 перестановки с одним циклом, 3 перестановки с двумя и 1 перестановку с тремя циклами. Ряд чисел 2, 3, 1 - это и есть беззнаковые числа Стирлинга для N=3.
Хотя такая комбинаторная трактовка чисел Стирлинга широко распространена, на вкус автора их представление с помощью деревьев, как это делаем мы, гораздо проще и нагляднее.
Для чисел Стирлинга |s(N,k)| выполняется реккурентное соотношение
Это же соотношение мы получили и при анализе абстрактной структуры тирона, так что мы действительно имеем дело с числами Стирлинга.
Итак, заметим во-первых, что сумма всех чисел Стирлинга для некоторого N равна факториалу N!:
Это легко установить, например, глядя на случай N=4:
Ясно, что это также верно и для все остальных N. Значит, наше выражение для гармонической информации приобретает вид:
Приступим, собственно, к доказательству. Найдём значение разности гармонической информации для значений N+1 и N:
Подведём под общий знаменатель:
Вынесем последний член выделенной розовым цветом суммы:
Числа стирлинга вида |s(x,x)| всегда равны единице. Принимая это во внимание, а также объединяя "розовую" и "зеленую" суммы (теперь они берутся по одинаковому промежутку от k=1 до k=N), получим
Обратим внимание на выделенное розовым цветом выражение. Первое слагаемое в нём можно преобразовать, используя приведённое выше реккурентное соотношение:
Производим подстановку и получаем:
Раскроем и проанализируем сумму:
Мы видим, что она равна сумме чисел Стрилинга (выделена розовым цветом) за исключением последнего члена суммы (выделен зелёным). Чтобы сумма была полной, он должен быть равен |s(N,N)| = 1, но у нас он равен –N. Заметим, однако, что кроме раскрытой суммы у нас ещё остаётся свободное слагаемое (N+1). Суммируя его с последним "неправильным" членом суммы, получим как раз 1 = |s(N,N)|. Из этого, и ещё принимая во внимание, что числа Стрилинга вида |s(x,0)| равны 0, получим:
Сумма представляет собой полную сумму чисел Стирлинга для некоторого N, как мы видели выше, такая сумма равна факториалу N!. Значит, в итоге получим
Из этого прямо следует, что гармоническая информация для N равна гармоническому числу:
Отметим, что в ходе доказательства мы получили простое и красивое уравнение, связывающее числа Стирлинга и гармоническое число:
Странно, что в литературе, посвященной числам Стирлинга, автор его не встретил, хотя это избавило бы от необходимости доказательства. Это по-своему занятное уравнение, особенно в сопоставлении:
В заключение обратим внимание, что этот результат касается и абстрактной структуры тирона: получается, что средний уровень объектов тирона равен гармоническому числу. Занимаясь анализом тирона, мы не задавались вопросом о том, каков средний уровень его объектов. Мы решали только задачу выяснения самого населённого уровня тирона, оказалось, что его номер равен ≈ ln(N) + 1/2. Принимая во внимание эйлеровское приближение гармонического числа ln(N) + γ, где γ=0,5772..., мы видим, что средний уровень объектов тирона близок самому населённому.
2. Статистика развилок в гармонических деревьях
Как мы видели в параграфе 1, для каждого N существует (N-1)! вариантов строения дерева - их мы и использовали для расчёта гармонической информации. В этом параграфе мы оценим статистику развилок разного типа (то есть, имеющих разное значение M, где M - количество ветвей в развилке), из которых состоят варианты строения деревьев для каждого N. Конкретно, мы оценим среднюю разветвлённость развилок в деревьях, а также предельное распределение частоты развилок.
Обратимся к диаграмме деревьев для первых значений N:
Сопоставим развилки, из которых образованы деревья с узлами: каждый узел, по сути, является развилкой. При этом, для общности введём "нулевые развилки" (M=0) - они соответствуют узлам, лежащим на концах ветвей. Также для простоты будем считать, что в случае N=1, когда у нас строго говоря дерево образовано одной одинарной развилкой (поэтому гармоническая информация для N=1 равна единице), мы имеем один узел, с которым связана "нулевая развилка".
Анализируя поэтапное развитие деревьев, не трудно заметить общее правило, которое формулируется в реккурентной форме:
Пусть мы рассматриваем деревья для некоторого N. Тогда каждая развилка типа M в этих деревьях порождает в наборе деревьев для случая N+1 следующий набор развилок:
  1. Она порождает одну развилку типа M+1
  2. Она порождает (N-1) развилок типа M
  3. Она порождает одну нулевую развилку M=0.
Если обозначить как A(N) среднее значение M для всех развилок всех деревьев, соответствующих случаю N, то эта реккурентная закономерность позволяет получить реккурентное правило изменение среднего A для последовательных значений N:
Доказательство простое. Положим, что деревья для случая N образованы одинаковыми развилками, с M=A(N), где A(N) - средняя значение M настоящих развилок. Всего развилок N - столько же, сколько и узлов в деревьях. Тогда, в соответствии с реккурентным правилом, эти развилки породят 1) N развилок типа A(N)+1, 2) N*(N-1) развилок типа A(N), и 3) N развилок типа 0. Значит, среднее значение A для случая N+1 определится уравнением:
Раскрывая рекурсию, получим уравнение среднего значения A(N):
Заметим однако, что этот результат получен нами с учётом "нулевых развилок", которые строго говоря не являются развилками. Чтобы избавиться от их влияния в формуле среднего A(N), необходимо знать количество нулевых развилок для деревьев в случае каждого N. Анализируя реккурентные соотношения между типами развилок, мы получим количество нулевых развилок в деревьях в случае N (мы опускаем тривиальный, но громоздкий вывод):
Мы знаем, что в деревьях случая N имеется N! узлов и столько же развилок. Это означает, что для всех N ровно половина всех развилок является нулевыми развилками - то есть, ровно половина всех узлов в деревьях находится на концах ветвей. Значит, мы должны увеличить среднее А(N) ровно вдвое:
Таким образом, без учёта "нулевых развилок" с ростом N средняя разветвлённость развилок в деревьях приближается снизу к 2.
Далее, из реккурентных соотношений можно вычислить количество развилок типа M=1:
Типа M=2:
Таким же образом можно вычислить количество развилок и для остальных M, хотя выражения становятся всё более громоздкими. Однако, не трудно заметить, что для каждого М выражение содержит крупнейшее слагаемое, которое с ростом M многократно превышает остальные, так что ими можно пренебречь:
Отсюда в пределе, при больших N и не учитывая "нулевые развилки", развилки подчиняются простому геометрическому частотному распределению:
Например, вот сравнение точной формы распределения с приближенным геометрическим при N=51:
Заметим, что данное геометрическое распределение при учёте всех значений x от 1 до бесконечности даёт среднее значение величины x равное 2. Это точно соответствует полученному нами выше результату для среднего значения A(N) в пределе больших N. То есть, данное геометрическое распределение действительно является предельной формой распределения развилок по их типу.
В заключение вычислим ещё предельную среднюю разветвлённость развилок ещё и без учёта одинарных развилок, то есть, для M>1. Она равна:
3. Новый прототип: уравнения частотного распределения
Итак, мы намерены выяснить связь между нашим новым зипфовским прототипом - ранговым распределением, отвечающим уравнению
и распределением Юла, которое в случае его соответствия статистике Зипфа (как, например, в родовом случае дельта-мультипликативного процесса δM(k/M)) отвечает уравнению частотного распределения:
Прежде всего нам нужно получить на основе нового прототипа, который записан в ранговой форме, уравнение частотного распределения. Обычный метод получения частотного распределения PDF из рангового RDF приводит к уравнению
которое в области малых масс расходится с результатами прямого подсчёта объектов различной массы при построения множества в точном соответствии с новым прототипом. Расхождение проистекает из того, что этот метод корректен лишь для случаев, когда мы можем пренебрегать различием между дискретными и непрерывными формами распределений. Поэтому обратимся к прямому подсчёту количества или частоты объектов различной массы. При этом мы будем опираться на традиционное в дискретном моделировании округление масс до ближайших вниз целых чисел. То есть, например, объект массы 250,3 принимается имеющим массу 250. Объект массой 1,3 - как объект единичной массы, и т.д.
Рассмотрим диаграмму прототипического рангового распределения:
Выделим на ней две точки, соответствующие объектам с массой, различающейся ровно на единицу: h и h+1. Пусть эти объекты имеют ранги r2 и r1 соответственно. Если при построении частотного распределения мы округляем массы объектов вниз до ближайшего целого числа, то все объекты с рангами от r1+1 до r2 окажутся в корзине, соответствующей массе объектов h, то есть, величина r2 - r1 и будет общей частотой объектов массы h.
Поскольку обе точки лежат на кривой рангового распределения, выполняются равенства
Отсюда количество n(h) объектов массы h:
Чтобы получить из этого уравнение частотного распределения, нам нужно лишь разделить это выражение на общее количество объектов множества N:
Однако, пока мы обойдёмся анализом выражения n(h). Представим его в следующей форме:
Заметим, что оно состоит из множителей вида 2x и 2x - 1, где x практически нигде не превышает единицы. Однако, при малых x действительно приближение 2x ≈ ln(2)*x + 1, что не трудно доказать на основе свойства логарифма ln(1+x) ≈ x, что верно при малых x:
Поэтапно упростим уравнение, используя это приближение. Во-первых, заметим, что для всех h если H1 достаточно велико можно записать
Значит, приближенно
Если h достаточно велико (когда h+1 ≈ h), то есть, в хвосте частотного распределения, можно приближенно записать
Это выражение согласуется с частотным распределением, которое мы получили прямым методом. Мы видим, что оно справедливо лишь для хвоста распределения. Назовём его приближением 1.
Далее, когда h существенно меньше H1 - то есть, для малых объектов - действительны приближения
В результате получаем:
Таким образом, в области малых h, то есть, в начале частотного распределения, его форма соответствует распределению Юла:
Обоазначим это как приближение 2.
Таким образом, точная форма дискретного распределения (при условии дискретизации округлением массы объектов вниз до ближайшего целого числа) имеет два приближения: первое верно для области больших масс и высоких рангов, второе - для области малых масс и низких рангов (диаграммы Ф(x)*N):
Отметим важный момент: H1, то есть, крупнейший объект множества во всех этих примерах имеет массу 1000. Но теоретические отклонения от прямой степенного распределения становятся заметны лишь для масс в 3-4 раза больших (отмечены стрелкой). То есть, на практике мы увидим частотное распределение, весьма точно совпадающее с приближением 2, то есть, с распределением Юла, и не заметим отклонений от него в области высоких масс. Распределение Юла оказывается весьма достоверным частотным представлением нашего нового прототипа, в ранговой форме выглядящего как
Однако, дело не в особом родстве именно этого рангового уравнения и распределения Юла. В действительности, не трудно показать, используя приведённый способ анализа, что и наш прежний прототип, который в ранговой форме выглядит как простая степенная функция
В качестве частотного представления имеет распределение Юла, причём не приближенно только для малых масс, а для всех значений масс:
То есть, оба прототипа - и старый и новый - в качестве частотного представления имеют распределение Юла, и это связано с их общей степенной природой.
Ваш комментарий
image Поля, отмеченные звездочкой, нужно обязательно заполнить
Заголовок комментария:
image Текст комментария: (не более 2000 символов, HTML-разметка удаляется)
image Ваше имя:
Ваш E-mail:
image Сколько будет дважды два? (ответьте цифрой, это проверка от спам-рассылок)
Отправить комментарий
Главные темы
Внимание (8)Геогештальт (1)Гештальт (16)Динамика внимания (5)Инсайт (5)Интуиция (2)Кибернетика (5)Когнитивное управление (6)Когнитивный анализ (4)Когнитивный словарь (5)Культура наблюдения (5)Мерцающие зоны (7)Метафизика (3)Метафора (13)Механизмы восприятия (15)Мифы и парадигмы (7)Органическая логика (5)Прогнозирование (6)Роль языка (4)Симметрии (5)Синхронизмы (5)Сложные системы (10)Степенной закон (8)Творческое мышление (5)Три уровня систем (4)Управление знаниями (3)Фазы развития (7)Фракталы (18)Цветные шумы (9)
КОГНИТИВИСТ: когнитивные методы и технологии © Роман Уфимцев, при поддержке Ателье ER