КОГНИТИВИСТИдейное ядро²Прологи
Пролог 91. Новый прототип и гармоническая информация
Прологи: наука о сознании становится точной
Манифест когнитивиста
.
Узелки на распутку
.
Прологи
Пролог 1. Когнитивный порядок
Пролог 2. Сигнатура характерного масштаба
Пролог 3. Степенной закон
Пролог 4. Три типа степенных распределений
Пролог 5. Закон Зипфа, сигнатура β = 1
Пролог 6. Цветные шумы, сигнатура α = 1
.
Пролог 7. Розовый шум и модель Бака-Снеппена
Пролог 8. Розовый шум и модель релаксации
Пролог 9. Розовый шум: шипелки и фрактальное блуждание
Пролог 10. Население городов и закон Зипфа
Пролог 11. Масштабно-инвариантные сети
Пролог 12. Фракталы и закон Зипфа
Пролог 13. Дробление континуума
Пролог 14. Социально-географические волокна
Пролог 15. Закон Зипфа в случайных текстах
Пролог 16. Тексты как фракталы
Пролог 17. Когнитивные фракталы
Пролог 18. β и размерность Хаусдорфа
Пролог 19. Образы когнитивных фракталов
Пролог 20. Когнитивные волокна
Пролог 21. Математика когнитивных фракталов
Пролог 22. Стохастические когнитивные фракталы
Пролог 23. Сравниваем Россию и Польшу
Пролог 24. От Швейцарии до Афганистана
Пролог 25. Гармониум
Пролог 26. Шум когнитивных фракталов
Пролог 27. Шум когнитивных процессов
Пролог 28. Розовый шум в поведении людей
Пролог 29. Шум в динамике зрительного внимания
Пролог 30. Изображения и двухмерный розовый шум
.
Пролог 31. Физическая и когнитивная релаксация
Пролог 32. Когнитивная релаксация и цветные шумы
Пролог 33. ВТОРОЙ ЦИКЛ. Дробление времени
Пролог 34. Когнитивное дробление времени
Пролог 35. Время как текст
Пролог 36. События и причинность
Пролог 37. Четыре причины Аристотеля
Пролог 38. Экзогенные причины
Пролог 39. Генеративные модели причинности
Пролог 40. Генеративные модели причинности, часть 2
Пролог 41. Гештальт-причинность
Пролог 42. Тау-модель
Пролог 43. Я-состояния и тироны
Пролог 44. Параметры тау-модели
.
Пролог 45. Параметры тау-модели, часть 2
Пролог 46. Параллельный тирон
.
Пролог 47. Параллельный тирон, часть 2
Пролог 48. Свойства тирона
.
Пролог 49. Свойства тирона, часть 2
.
Пролог 50. Семейства тирона
Пролог 51. Эволюция как тирон
Пролог 52. Я-состояния и девиации
Пролог 53. Эволюция и морфогенез
Пролог 54. Волокна и легенды
Пролог 55. Волокна и легенды, часть 2
Пролог 56. ТРЕТИЙ ЦИКЛ. Я-состояния и их структура
Пролог 57. Я-состояния и их структура, часть 2
Пролог 58. Спиральная структура
.
Пролог 59. Информация и её типы
Пролог 60. Информация и симметрия
Пролог 61. Информация и закон Вебера-Фехнера
Пролог 62. Натуральная пропорция
Пролог 63. Апекс Я-состояний
.
Пролог 64. Генеративные модели Я-состояния
Пролог 65. Нейрон
Пролог 66. Критические случайные графы
.
Пролог 67. Блохи и табакерки
Пролог 68. Чаши, табакерки и прочее
.
Пролог 69. Интерлюдия
Пролог 70. Гештальт числа e
.
Пролог 71. Гештальт числа e, часть 2
Пролог 72. ЧЕТВЁРТЫЙ ЦИКЛ. Тиронный рост
Пролог 73. Обобщённые процессы
Пролог 74. Обобщённые процессы, часть 2
Пролог 75. Обобщённые процессы и энтропия Реньи
Пролог 76. Дельта-процессы
.
Пролог 77. Дельта-аддитивные процессы
Пролог 78. Дельта-мультипликативные процессы
Пролог 79. Дельта-мультипликативные процессы, часть 2
Пролог 80. Дельта-мультипликативные процессы, часть 3
Пролог 81. Структурно-временной изоморфизм
Пролог 82. Тау-процесс и время
Пролог 83. Знаки состояний
Пролог 84. Мерные знаки и случайное блуждание
.
Пролог 85. Именные знаки и графы состояний
Пролог 86. ПЯТЫЙ ЦИКЛ. Простые числа
Пролог 87. Числа и их компоненты
Пролог 88. Время и простые числа
Пролог 89. Т-информация
Пролог 90. Новый прототип статистики Зипфа
Пролог 91. Новый прототип и гармоническая информация
.
Пролог 92. Не-целочисленные симметрии
Пролог 93. Спектры симметрии
.
Пролог 94. Преобразования симметрий
Пролог 95. Комплексные симметрии
Пролог 96. Cимметрии и структурные модальности
Пролог 97. Симметрии и характерная динамика
Пролог 98. Симметрия, энергия, излучения
Пролог 99. Симметрия системы
Пролог 100. Симметрия континуумов и траекторий
Пролог 101. Симметрия континуумов, часть 2
Пролог 102. Симметрия и масштаб
Пролог 103. Симметрия и вероятность
Пролог 104. Симметрия и вероятность, часть 2
.
Пролог 105. Преобразование симметрии континуумов
Пролог 106. Cимметрия многомерных континуумов
Пролог 107. Опыты с взаимодействием форм
Пролог 108. Опыты с взаимодействием форм, часть 2
Пролог 109. Омега-преобразование
Пролог 110. Омега-линзы
Пролог 110 (2). Омега-линзы, часть 2
Пролог 111. Геометрическое среднее и максимум энтропии
Пролог 112. Мультипликативные коллизии
Пролог 113. Смысл принципа максимума энтропии
Пролог 114. Варианты модели мультипликативных коллизий
Пролог 115. Свойства модели мультипликативных коллизий
Пролог 116. Геометрическая энтропия
Пролог 117. Специальные энтропии. Последний Пролог.
Степенные законы, распределения Парето и закон Зипфа
.
Когнитивный уровень
.
Мерцающие зоны
.
Органическая логика: резюме
Карта органической логики
.
Хвост ящерки. Метафизика метафоры.
.
Опус 1/F
.
Anschauung, научный метод Гёте
.
Закон серийности Пауля Каммерера
.
Ранние признаки критических переходов
.
Слабые сигналы
.
Меметика
.
Системный анализ и чувствительные точки
.
Спиральная динамика
.
Пролог 91. Новый прототип и гармоническая информация
 
Роман Уфимцев
16 мая 2013 года, Калининград
В предыдущем Прологе мы познакомились с новым прототипом статистики Зипфа - распределением, которое может скрываться в явлениях, демонстрирующих закон Зипфа. Обычно этот закон формулируется в форме простого степенного распределения, но мы представили новую формулировку, которая позволяет считать причиной закона Зипфа информационные факторы явлений. Конечно, это пока лишь предварительная гипотеза, требующая анализа и развития.
Новый прототип статистики Зипфа может быть представлен в форме рангового распределения:
при этом принимается, что крупнейший объект множества имеет ранг 2. В частотном представлении это распределение для всех объектов кроме самых крупных совпадает с распределением Юла:
Вывод представлен в приложении, см. 3. Новый прототип: уравнения частотного распределения . Не только новый прототип, но и обычная степенная форма статистики Зипфа, представленная в форме рангового уравнения ("старый прототип"):
в частотном дискретном представлении является распределением Юла. То есть, в этом смысле новый прототип полностью тождественен старому.
Новый прототип неотличим от старого почти для всех объектов, кроме крупнейших, которые оказываются несколько меньше, чем предполагает чистое степенное распределение. Но феномены, демонстрирующие статистику Зипфа, часто отклоняются от неё как раз своими крупнейшими объектами - тут действует статистическая неустойчивость (например, взгляните на характерное отклонение от степенной линии в ранговых распределениях слов по частоте или городов России по населению). Поэтому эмпирические наблюдения вряд ли позволят однозначно выбрать как "правильный" тот или иной прототип.
Но мы хотим сказать нечто большее о двух альтернативных прототипах. В действительности нам не следует выбирать между ними. Они – два крыла одной птицы. Новый прототип очевидным образом перекликается с исчислением информации по Хартли. А сейчас мы покажем, что наш старый прототип также имеет информационную трактовку: только вместо информации по Хартли мы должны исчислять так называемую гармоническую информацию - глубоко родственную информации по Хартли, имеющую с ней общий исток, но отличающуюся по внешней "личине".
Гармоническая информация
Вернёмся к Т-информации. Напомню, что так мы назвали количество определённости, которое необходимо внести для выбора одной из N равновероятных альтернатив, исчисляемое не на основе традиционной (но абстрактной) формулы Хартли, а на основе анализа деревьев альтернатив. Количество Т-информации определяется как среднее количество развилок, которое необходимо пройти от вершины дерева до одной из альтернатив, например, при N=3 среднее количество бинарных развилок оказывается равным 5/3:
Тут для того, чтобы добраться от вершины до альтернатив A и B необходимо пройти 2 развилки, а до альтернативы C - только одну развилку. Значит, в среднем
Поскольку мы строим дерево на основе бинарных развилок, 5/3 - это количество Т-информации в битах. Величина 5/3 ≈ 1,67... бита несколько больше величины log2(3) ≈1,585... бита, которое получается по формуле Хартли для N=3. Как мы выяснили, обычно количество Т-информации для одних и тех же N несколько превышает количество информации, рассчитанной по формуле Хартли. Кроме того, в зависимости от того, какие развилки мы используем для построения деревьев - двойные (бинарные), тройные (тринарные) и т.д. - количество Т-информации различается так, что мы лишь в пределе можем сопоставлять информационную ёмкость бинарных, тринарных и прочих развилок. Это обозначает проблему соизмеримости битов, тритов и других единиц измерения Т-информации. Наконец, мы выяснили, что Т-информация точно совпадает с информацией по Хартли если 1) в построении деревьев мы используем все типы развилок, соответствующие всем простым числам, 2) строим деревья особым оптимальным образом, и 3) устанавливаем относительную информационную ёмкость различных типов развилок в соответствии с классическим отношением битов, тритов и т.д.
Как мы говорили, большое преимущество Т-информации как меры необходимой определённости по сравнению с информацией по Хартли заключается в конкретном, ясном смысле этой величины. Однако, главной трудностью в её применении является отсутствие однозначности и соразмерности Т-информации, вычисленной с помощью деревьев разного типа: результат зависит как от типов используемых развилок, так и от того, как именно построено дерево.
Эти трудности наводят на мысль изменить правила расчёта Т-информации таким образом, чтобы 1) не привязываться к развилкам какого-то конкретного типа, и 2) не привязываться к какой-то "правильной" структуре деревьев. Попробуем найти новые правила, исходя из общих соображений.
Прежде всего, если мы не привязываемся к конкретному типу развилок, это значит, деревья могут содержать развилки с любым количеством ветвей - даже с одной ветвью:
Однако, чтобы такие одинарные "развилки" могли образовывать деревья, необходимо, чтобы альтернативы располагались не только на концах ветвей, но и в самих развилках. Конкретно, дерево для N=2, построенное только из одинарных "развилок" выглядит так:
Далее, поскольку мы хотим отвязаться от конкретной структуры деревьев, будем усреднять длину необходимой траектории от вершины дерева до альтернатив по всем равновероятно возможным деревьям, а не только по какому-то "правильному".
Итак, посмотрим, что у нас получится для первых значений N. Для N=1 мы имеем единственное возможное дерево, состоящее из одной одинарной "развилки":
То есть, длина траектории до единственной альтернативы от вершины дерева равна единице. Для случая N=2, кажется, возможны два варианта:
Но заметим, что второй вариант в действительности состоит не из одной бинарной развилки, а из последовательности одинарная - бинарная. В точке их соединения - чёрная точка. То есть, разрешив одинарные "развилки", мы не можем оставлять пустыми подобные точки соединения развилок. Значит, этот вариант построения дерева не является корректным. Образно говоря, так нельзя строить одно дерево, а только два раздельных:
То есть, у нас остаётся только один корректный вариант построения дерева для случая N=2:
Считаем среднюю длину траектории от вершины до альтернатив: чтобы добраться от вершины до альтернативы A необходимо пройти 1 развилку - лучше говорить не о развилках, а о сегментах. Чтобы добраться до альтернативы B - два сегмента. Значит, в среднем требуется пройти 3/2 сегмента. Это и есть количество Т-информации, подсчитанное новым способом.
Далее, для случая N=3 имеется два корректных равновероятных варианта строения дерева:
Первый вариант состоит из трех одинарных "развилок", второй - из одной одинарной и одной бинарной. Усредняя длину траекторий по обоим вариантам, получим
Далее, переходя к случаю N=4, естественно рассматривать варианты построения деревьев как возможные равновероятные развития двух возможностей для случая N=3, всего их оказывается 6:
Расчет средней длины траектории по всем вариантам даёт величину 25/12. Этого достаточно, чтобы мы заметили систему:
Количество Т-информации для N альтернатив, рассчитанное новым способом - независимым от типа используемых развилок и структуры деревьев - оказывается равным в точности гармоническому числу от N:
Ход доказательства этого факта (см. приложение 1. Числа Стирлинга и уравнение гармонической информации) не случайным образом родственен анализу абстрактной структуры тирона. Как мы далее увидим, это сходство прямо связано с нашей гипотезой о том, что масса объектов в системах, подчиняющихся статистике Зипфа, определяется количеством привносимой ими информации.
Итак, на основе принципа независимости от типа используемых развилок и "правильной" структуры деревьев, мы получили новый метод расчёта Т-информации как среднего количества шагов, необходимых для внесения определённости среди N альтернатив. Новый метод отличается от того, что мы использовали ранее, и чтобы не путаться, назовём результат вычисления по новому методу гармонической информацией.
Вопрос, который естественно возникает - в каких единицах измерения информации мы получаем новый результат, гармоническую информацию. И тут возможен лишь один ответ - единицей являются наты. Только так мы согласуем гармоническую информацию с информацией, вычисленной по формуле Хартли. Напомню, что Т-информация IT совпадает с информацией по Хартли IH в пределе, при больших N. То есть, в пределе справедливо отношение:
Аналогично мы можем потребовать, чтобы и гармоническая информация в пределе больших N соответствовала этому же отношению:
Тут ln(N)/ln(M) - информация по Хартли, где M определяется используемой единицей измерения: при M=2 мы получаем биты, M=3 - триты, и т.д. Кроме того, мы используем эйлеровское приближение гармонического числа. Очевидно, это предельное отношение может выполняться лишь в том случае, если M=e, где e - основание натуральных логарифмов, поскольку ln(e) = 1. То есть, гармоническая информация вычисляется в натах, соответствующих M=e.
Однако, хотя эти соображения кажутся вполне резонными, и вывод о том, что гармоническая информация измеряется натами кажется интуитивно правдоподобной, возникают некоторые вопросы, которые мы далее обсудим.
Подведём итог. В предыдущем Прологе мы говорили о двух испостасях одной и той же математической сущности, имеющей имя 1/x. Её непрерывное интегрирование по промежутку от 1 до N даёт натуральный логарифм ln(N) - то есть, совпадает с количеством информации в натах, вычисленной по формуле Хартли. Но если вместо непрерывного интегрирования мы используем дискретное суммирование по диапазону от 1 до N, мы получим гармоническое число HN - и как мы видим теперь, оно равно количеству гармонической информации. Таким образом, об информации по Хартли и гармонической информации мы также можем говорить как о двух ипостасях одного и того же математического объекта, представляющего собой результат накопления, аккумуляции величины 1/x в диапазоне от 1 до N.
Вероятно, не требует пояснений, что гармоническая информация играет точно ту же роль для нашего старого прототипа, что и информация по Хартли для нового. Оба прототипа есть ипостаси одного и того же явления. Старый прототип - дискретная ипостась, новый - непрерывная ипостась.
Проблема не-целочисленных (дробных) симметрий
По видимому, гармоническая информация исчисляется в натах.
Но если биты сопоставляются с бинарными развилками, триты - с тринарными и т.д., то наты нужно сопоставлять с развилками, образованными e ветвями, где е - основание натуральных логарифмов. Как же это понимать?
Ещё только знакомясь с идеями теории информации мы видели особые свойства натов как единиц измерения информации. Тогда же мы задумывались о том, как понимать утверждение о том, что оптимальный алфавит состоит из e букв, а ещё ранее мы ломали голову над тем, как нам понимать связанный с гармоническим рядом коэффициент дробления e, когда каждая часть каскадно дробящегося континуума делится на e частей.
Это на самом деле интригующая проблема, которую автор для себя обозначает как проблема дробных симметрий. Мы эскизно описывали её, обсуждая коэффициенты дробления при каскадном дроблении континуума. Суть такова: возьмём круг и проведём линию, которая делит его на две равных части:
Полученная фигура имеет симметрию вращения порядка 2 - при повороте на 360/2=180 градусов фигура совпадёт сама с собой. Обобщая это, можно сказать, что любой континуум, например, кусок глины, разделённый пополам, соответствует симметрии порядка 2 - имеется две неразличимых по массе части. То есть, дробление с коэффициентом 2 (бинарное) прямо связано с симметрией порядка 2.
Те же самые соображения применимы и для дробления на три равных части, что порождает фигуру с симметрией порядка 3, и т.д:
Однако, ясная связь между порядком симметрии и коэффициентом дробления пропадает, если мы начинаем дробить фигуру не на равные части:
В некотором смысле эта фигура лежит между той, что мы получали при дроблении на 2 равных части и дроблении на 3 равных части. Действительно, уменьшая маленький сегмент, мы в пределе получим симметрию 2. Наоборот, увеличивая его, мы можем прийти к симметрии порядка 3. Но значит ли это, что у этой фигуры порядок симметрии лежит где-то в промежутке между 2 и 3?
Так мы приходим к теме дробных симметрий или, более обще, не-целочисленных симметрий (более обще, потому что порядок симметрии может быть иррациональным числом, то есть, не представляться в виде дроби).
Так как же можно формализовать не-целочисленную симметрию, как она вычисляется?
Одна из очевидных идей - использовать методы теории информации. Конкретно, речь идёт об использовании формулы для информации/энтропии Шеннона. Напомню, что она позволяет вычислить информацию, необходимую для внесения определенности среди N разновероятных альтернатив. Посмотрим её применение на примере фигуры, раздробленной на три не-равных части с массовыми (или геометрическими) долями, равными p1, p2 и p3:
Тогда порядок симметрии S этой фигуры может вычисляться по формуле
Тут IS - информация вычисленная по формуле Шеннона. Мы просто рассматриваем доли фигуры как альтернативные состояния знака в каком-то сообщении.
Этот метод вычисления порядка симметрии вполне отвечает непременному требованию: в случае одинаковых массовых долей фигуры в качестве порядка симметрии мы должны получать количество её частей. Действительно, если p1 = p2 = p3 = 1/3, то
Оценивая симметрию таким образом, например, все следующие фигуры имеют порядок симметрии S=2:
Другой интересный результат - если мы возьмём фигуру, массовые доли частей в которой соответствуют бесконечной геометрической прогрессии 1/2, 1/4, 1/8, 1/16,.. то порядок симметрии этой фигуры при бесконечном фактическом числе частей N оказывается равным 4 - то есть, соответствует симметрии квадрата, разделенного на 4 одинаковых части:
Казалось бы, подобная формализация дробной симметрии кажется вполне приемлемой и положительно опирается на привычное понятие шенноновской информации/энтропии. Однако, автор обнаружил некоторые проблемы с нею. В частности, главной мотивацией для поиска метода вычисления дробной симметрии послужило стремление описать результаты каскадного дробления континуума при не-равномерном дроблении, то есть, когда на каждом этапе дробления куски континуума делятся на некоторое определенное количество неравных частей, между которыми соблюдается постоянная пропорция.
Параметры распределения кусков континуума по размеру после многокаскадного дробления зависят и от коэффициента дробления и от пропорций дробления. Для случая равномерного дробления - то есть для дробления на куски равного размера - мы получили аналитический результат, описывающий параметры результирующего распределения. Далее возникает естественная идея распространить его на случай не-равномерного дробления. Для этого вместо реального коэффициента дробления N (равного просто количеству частей, на которое дробится каждый кусок континуума) в уравнения следует подставлять величину, которая должна быть родственна не-целочисленному порядку симметрии. И оказалось, что не-целочисленная симметрия, вычисленная на основе формулы Шеннона не соответствует опытным результатам. Например - и это очень важная разница - между дроблением на три части, из которых одна очень мала, и дроблением просто на две части имеется очевидный разрыв в результатах каскадного дробления, даже если маленький кусочек берётся очень маленьким:
А вычисляя порядок симметрии для этих вариантов с применением формулы Шеннона в пределе мы получим одинаковый порядок 2 - неустранимого разрыва между этими вариантами нет.
Таким образом, если связывать дробную симметрию с дробным дроблением - а это вполне логичная связь - то вычисление порядка не-целочисленной симметрии должно выглядеть как-то иначе. Но как? Это остаётся открытым и очень интересным вопросом. И дело не только в анализе результатов каскадного дробления континуума. Дело в гипотезе (которую мы пока не упоминали), что в морфогенезе органических и когнитивных систем управляющим параметром является порядок симметрии системы. При этом без введения не-целочисленной симметрии не обойтись, поскольку традиционные целочисленные могут характеризовать только статичные состояния систем, но не их морфогенез.
Может быть, решая эту проблему, следует опираться не на информацию по Шеннону, а на информацию по Реньи. Или воспользоваться совершенно иным, не связанным с теорией информации методом... Однако, не будем забегать вперёд.
Мера гармонической информации и e-развилки
И мы снова пришли к той же проблеме: вероятно, мерой гармонической информации являются наты, связанные с "е-развилками". Допустим, что это действительно так. Может ли это пролить свет на загадочное устройство е-развилок, а также "е-алфавита", "e-дробления"? Проанализируем развилки тех деревьев, на основе которых считается гармоническая информация.
Во-первых, ясно, что эти деревья в принципе могут состоять из развилок любых типов. Однако, относительное количество развилок разного типа различается. Анализ количества развилок разного типа в деревьях, соответствующих разным N открывает довольно сложную картину, в которой тем не менее можно выделить два простых пункта. Во-первых, средняя разветвлённость развилок A зависит от N в соответствии с уравнением
Доказательство этого и других уравнений этого параграфа - в математическом приложении, см. 2. Статистика развилок в гармонических деревьях.
То есть, в среднем развилки всегда имеют меньше двух ветвей (напомню, что мы учитываем "одинарные развилки" - их всегда довольно много, и это сказывается на средней величине), но в пределе, для очень больших N, средняя разветвленность приближается к 2. Бинарным развилкам соответствуют биты. Но ведь мы предположили, что гармоническая информация считается в натах - и у нас для этого есть хорошее основание?..
Парадокс приводит к выводу, что средняя разветвлённость развилок в деревьях не определяет меру исчисления информации прямо. Действительно, рассмотрим простое бинарное дерево:
При старом способе расчёта Т-иформации мы учитываем только объекты, расположенные на концах ветвей (красные на диаграмме). В данном случае их 8, то есть, N=8, а средняя длина траектории от вершины до объекта равна log2(8) = ln(8)/ln(2) = 3. Не считая небольшого дефекта, для всех N рассчитанная таким образом Т-информация близка к информации по Хартли: IT ≈ IH = ln(N)/ln(2) - результат исчисляется в битах.
Но при новом методе расчёта Т-информации мы учитываем и объекты, расположенные в самих развилках:
При той же форме дерева объектов оказывается больше - в данном случае N=15, и траектории до некоторых короче, чем 3 звена. Опуская простые выкладки, мы выясним, что при больших N средняя длина траектории от вершины до объектов этого дерева равна IT ≈ ln(N)/ln(2) - 1, то есть на 1 бит меньше, чем при первом методе расчёта. Тем не менее, в пределе больших N Т-информация, рассчитанная по новому методу всё равно приближается к информации, рассчитанной по формуле Хартли: ln(N)/ln(2) - 1 ≈ ln(N)/ln(2).
Далее, анализируя тринарное дерево:
мы выясним, что в пределе больших N средняя длина траектории от вершины до объекта равна ≈ ln(N)/ln(3) - 1/2, что также примерно равно информации, рассчитанной по формуле Хартли в тритах ln(N)/ln(3). Вообще, для M-деревьев, сконструированных из M-развилок, расчёт Т-информации по новому методу даёт результат, в пределе больших N равный информации по Хартли (при использовании соответствующих единиц измерения информации):
Ясно, что в пределе больших N выражение гармонической информации приближается к этой формуле лишь при M=e, то есть, при построении дерева с помощью e-развилок:
Таким образом, хотя в гармонических деревьях средняя разветвлённость развилок равна 2, всё-таки в пределе с точки зрения информационной ёмкости эти деревья подобны деревьям, составленным из e-развилок. Бинарное же дерево, в котором разветвлённость развилок равна строго 2 (а значит, и в среднем 2), приводит к совершенно иным результатам расчёта средней длины траектории. Дело не в среднем, а в конкретной форме распределения развилок по разветвлённости.
Выясняется, что в деревьях, используемых для расчёта гармонической информации в пределе больших N развилки распределяются по разветвлённости в соответствии с простым геометрическим распределением:
То есть, 50% всех развилок - одинарные, 25% - бинарные, 12,5% - тринарные, и т.д. В среднем получается M=2, но информационная ёмкость деревьев при таком распределении развилок соответствует M=e.
Вот тут, по видимому, и лежит решение проблемы "е-дробления", разгадка строения "е-алфавита" и прочих схожих вопросов, которые перед нами не раз возникали. Например, коэффициент дробления, равный 2 означает дробление континуума на две равных части. Но коэффициент дробления e, возможно, вовсе не означает дробление на какое-то конкретное количество частей, не равных между собой, как мы считали раньше. Он означает особое распределение частот дробления на самое разное количество частей. Конкретно, если континуум при попытке дробления в половине случаев вообще не дробится (дробление M=1), в четверти случаев дробится на две равных части (M=2), и т.д. - в совокупности мы и получаем e-дробление:
Таким образом мы подходим к проблеме не-целочисленных дроблений (и не-целочисленных симметрий) с новой стороны. Может быть, их правильно описывать не как неравномерное дробление - так мы думали раньше - а как дробление на равные доли, но с разным, изменяющимся количеством кусков, продуктов дробления. И от того, как распределяется частота тех или иных дроблений, и зависит коэффициент дробления. Например, если дробление всегда происходит на 2 части (вероятность этого равна 1), то коэффициент дробления M равен строго 2. Но если картина вероятностей более сложная, мы получаем не-целочисленные коэффициенты дробления. Например, если вероятности дроблений распределены геометрически, как Ф(x) = 1/2x, мы получаем коэффициент дробления M=e.
Кажется, мы на расстоянии вытянутой руки от формулы не-целочисленной симметрии...
Ваш комментарий
image Поля, отмеченные звездочкой, нужно обязательно заполнить
Заголовок комментария:
image Текст комментария: (не более 2000 символов, HTML-разметка удаляется)
image Ваше имя:
Ваш E-mail:
image Сколько будет дважды два? (ответьте цифрой, это проверка от спам-рассылок)
Отправить комментарий
Главные темы
Внимание (8)Геогештальт (1)Гештальт (16)Динамика внимания (5)Инсайт (5)Интуиция (2)Кибернетика (5)Когнитивное управление (6)Когнитивный анализ (4)Когнитивный словарь (5)Культура наблюдения (5)Мерцающие зоны (7)Метафизика (3)Метафора (13)Механизмы восприятия (15)Мифы и парадигмы (7)Органическая логика (5)Прогнозирование (6)Роль языка (4)Симметрии (5)Синхронизмы (5)Сложные системы (10)Степенной закон (8)Творческое мышление (5)Три уровня систем (4)Управление знаниями (3)Фазы развития (7)Фракталы (18)Цветные шумы (9)
КОГНИТИВИСТ: когнитивные методы и технологии © Роман Уфимцев, при поддержке Ателье ER