КОГНИТИВИСТИдейное ядро²Прологи
Пролог 13. Дробление континуума
Прологи: наука о сознании становится точной
Манифест когнитивиста
.
Узелки на распутку
.
Прологи
Пролог 1. Когнитивный порядок
Пролог 2. Сигнатура характерного масштаба
Пролог 3. Степенной закон
Пролог 4. Три типа степенных распределений
Пролог 5. Закон Зипфа, сигнатура β = 1
Пролог 6. Цветные шумы, сигнатура α = 1
.
Пролог 7. Розовый шум и модель Бака-Снеппена
Пролог 8. Розовый шум и модель релаксации
Пролог 9. Розовый шум: шипелки и фрактальное блуждание
Пролог 10. Население городов и закон Зипфа
Пролог 11. Масштабно-инвариантные сети
Пролог 12. Фракталы и закон Зипфа
Пролог 13. Дробление континуума
Пролог 14. Социально-географические волокна
Пролог 15. Закон Зипфа в случайных текстах
Пролог 16. Тексты как фракталы
Пролог 17. Когнитивные фракталы
Пролог 18. β и размерность Хаусдорфа
Пролог 19. Образы когнитивных фракталов
Пролог 20. Когнитивные волокна
Пролог 21. Математика когнитивных фракталов
Пролог 22. Стохастические когнитивные фракталы
Пролог 23. Сравниваем Россию и Польшу
Пролог 24. От Швейцарии до Афганистана
Пролог 25. Гармониум
Пролог 26. Шум когнитивных фракталов
Пролог 27. Шум когнитивных процессов
Пролог 28. Розовый шум в поведении людей
Пролог 29. Шум в динамике зрительного внимания
Пролог 30. Изображения и двухмерный розовый шум
.
Пролог 31. Физическая и когнитивная релаксация
Пролог 32. Когнитивная релаксация и цветные шумы
Пролог 33. ВТОРОЙ ЦИКЛ. Дробление времени
Пролог 34. Когнитивное дробление времени
Пролог 35. Время как текст
Пролог 36. События и причинность
Пролог 37. Четыре причины Аристотеля
Пролог 38. Экзогенные причины
Пролог 39. Генеративные модели причинности
Пролог 40. Генеративные модели причинности, часть 2
Пролог 41. Гештальт-причинность
Пролог 42. Тау-модель
Пролог 43. Я-состояния и тироны
Пролог 44. Параметры тау-модели
.
Пролог 45. Параметры тау-модели, часть 2
Пролог 46. Параллельный тирон
.
Пролог 47. Параллельный тирон, часть 2
Пролог 48. Свойства тирона
.
Пролог 49. Свойства тирона, часть 2
.
Пролог 50. Семейства тирона
Пролог 51. Эволюция как тирон
Пролог 52. Я-состояния и девиации
Пролог 53. Эволюция и морфогенез
Пролог 54. Волокна и легенды
Пролог 55. Волокна и легенды, часть 2
Пролог 56. ТРЕТИЙ ЦИКЛ. Я-состояния и их структура
Пролог 57. Я-состояния и их структура, часть 2
Пролог 58. Спиральная структура
.
Пролог 59. Информация и её типы
Пролог 60. Информация и симметрия
Пролог 61. Информация и закон Вебера-Фехнера
Пролог 62. Натуральная пропорция
Пролог 63. Апекс Я-состояний
.
Пролог 64. Генеративные модели Я-состояния
Пролог 65. Нейрон
Пролог 66. Критические случайные графы
.
Пролог 67. Блохи и табакерки
Пролог 68. Чаши, табакерки и прочее
.
Пролог 69. Интерлюдия
Пролог 70. Гештальт числа e
.
Пролог 71. Гештальт числа e, часть 2
Пролог 72. ЧЕТВЁРТЫЙ ЦИКЛ. Тиронный рост
Пролог 73. Обобщённые процессы
Пролог 74. Обобщённые процессы, часть 2
Пролог 75. Обобщённые процессы и энтропия Реньи
Пролог 76. Дельта-процессы
.
Пролог 77. Дельта-аддитивные процессы
Пролог 78. Дельта-мультипликативные процессы
Пролог 79. Дельта-мультипликативные процессы, часть 2
Пролог 80. Дельта-мультипликативные процессы, часть 3
Пролог 81. Структурно-временной изоморфизм
Пролог 82. Тау-процесс и время
Пролог 83. Знаки состояний
Пролог 84. Мерные знаки и случайное блуждание
.
Пролог 85. Именные знаки и графы состояний
Пролог 86. ПЯТЫЙ ЦИКЛ. Простые числа
Пролог 87. Числа и их компоненты
Пролог 88. Время и простые числа
Пролог 89. Т-информация
Пролог 90. Новый прототип статистики Зипфа
Пролог 91. Новый прототип и гармоническая информация
.
Пролог 92. Не-целочисленные симметрии
Пролог 93. Спектры симметрии
.
Пролог 94. Преобразования симметрий
Пролог 95. Комплексные симметрии
Пролог 96. Cимметрии и структурные модальности
Пролог 97. Симметрии и характерная динамика
Пролог 98. Симметрия, энергия, излучения
Пролог 99. Симметрия системы
Пролог 100. Симметрия континуумов и траекторий
Пролог 101. Симметрия континуумов, часть 2
Пролог 102. Симметрия и масштаб
Пролог 103. Симметрия и вероятность
Пролог 104. Симметрия и вероятность, часть 2
.
Пролог 105. Преобразование симметрии континуумов
Пролог 106. Cимметрия многомерных континуумов
Пролог 107. Опыты с взаимодействием форм
Пролог 108. Опыты с взаимодействием форм, часть 2
Пролог 109. Омега-преобразование
Пролог 110. Омега-линзы
Пролог 110 (2). Омега-линзы, часть 2
Пролог 111. Геометрическое среднее и максимум энтропии
Пролог 112. Мультипликативные коллизии
Пролог 113. Смысл принципа максимума энтропии
Пролог 114. Варианты модели мультипликативных коллизий
Пролог 115. Свойства модели мультипликативных коллизий
Пролог 116. Геометрическая энтропия
Пролог 117. Специальные энтропии. Последний Пролог.
Степенные законы, распределения Парето и закон Зипфа
.
Когнитивный уровень
.
Мерцающие зоны
.
Органическая логика: резюме
Карта органической логики
.
Хвост ящерки. Метафизика метафоры.
.
Опус 1/F
.
Anschauung, научный метод Гёте
.
Закон серийности Пауля Каммерера
.
Ранние признаки критических переходов
.
Слабые сигналы
.
Меметика
.
Системный анализ и чувствительные точки
.
Спиральная динамика
.
Пролог 13. Дробление континуума
Темы:
Роман Уфимцев
18 ноября 2011 года, Калининград
Мы продолжаем искать модель или структуру, которая бы позволила нам понять происхождение закона Зипфа в ранговых распределениях городов по населению.
Конечно, города и их население для нас не самоцель. Но это удобный материал для исследования когнитивного порядка, ведь закон Зипфа является одной из сигнатур, то есть, характерных следов действия когнитивных закономерностей. В терминах криминалистики, розовый шум (α =1) и закон Зипфа (β = 1) - это "почерк" когнитивного порядка.
Однако, и розовый шум и закон Зипфа оказались подозрительно трудноуловимыми. В частности, в последних прологах мы исследовали две возможности объяснить закон Зипфа хотя бы в распределении городов по населению - модель масштабно-инвариантной сети и фрактальные структуры, но результат скорее отрицательный, чем положительный.
Максимум, чего мы добились - мы нашли фрактал, в котором распределение структурных элементов (дыр) подчиняется степенной статистике с показателем β=1,06. Это квадратный ковёр Серпинского:
Но мы настроены решительно. В этом прологе мы попробуем переделать этот фрактал так, чтобы, наконец, получить чистый закон Зипфа.
Каскадное дробление
Как мы знаем, в квадратном ковре Серпинского размер и число дыр на каждом фрактальном каскаде n подчиняются выражениям:
Число "9" в выражении размера дыр означает, что площадь дыр на каждом каскаде в 9 раз меньше, чем на предыдущем. Число "8" в выражении количества дыр означает, что на каждом каскаде дыр в 8 раз больше, чем на предыдущем. Благодаря нашим упражнениям с множествами Кантора, не трудно догадаться, что мы бы получили β=1, если бы оба числа были одинаковы. Например, в выражение размера дыр входила бы восьмёрка. Или наоборот, в выражение количества дыр входила бы девятка.
Рассмотрим последнюю возможность. Первый каскад обычного квадратного ковра Серпинского содержит одну дыру площадью 1, на втором каскаде - 8 дыр площадью 1/9. А нам нужно, чтобы их было не 8, а 9:
Всё бы хорошо, но девятая дыра в ковре Серпинского явно лишняя. Зато мы замечаем, что имея 9 дыр размером 1/9, мы можем из них составить квадрат, который по площади будет точно равен дыре на первом каскаде:
Далее, если на каждом новом каскаде у нас дыр становится не в 8, а в 9 раз больше, то на третьем каскаде мы получим 81 дыру и из них снова можно составить квадрат, равный по площади дыре на первом каскаде и т.д. И вот, если мы возьмём все дыры на всех каскадах в совокупности, они будут иметь ранговое распределение с β=1.
Вот что получается: у нас уже нет никакого ковра Серпинского, а есть квадрат, который на каждом каскаде дробится на всё более мелкие области - и если мы взглянем на распределение всех областей на всех каскадах дробления в совокупности, мы увидим закон Зипфа.
Назовём это алгоритмом каскадного дробления континуума. Под континуумом мы понимаем любое пространство или множество - это может быть физическое пространство, множество людей, проживающих в какой-то стране, множество денег, имеющихся в экономике, множество слов в тексте и т.д. Всё, что можно многократно делить на части, дробить - это континуум. Каскадным дроблением мы будем именовать дробление этапами, каскадами, когда исходный континуум дробится многократно. Например, на первом этапе мы раздробили исходный квадрат на 9 частей, затем каждую из них мы снова раздробили на 9 частей и т д.
Ещё один пример по мотивам множеств Кантора. Пусть у нас есть отрезок единичной длины:
На первом этапе мы его дробим на два равных отрезка, на втором этапе каждый из них снова делим пополам и т.д. Мы получим, что на каждом каскаде n
Этого довольно, чтобы понять: в совокупности все отрезки будут соответствовать распределению с β=1. Естественно, что мы можем делить отрезки не на 2, а на 3, 4... - какое угодно число равных частей и всё равно будем получать в совокупном распределении закон Зипфа.
Но и это ещё не всё. Мы можем дробить отрезки на каждом каскаде на части разного размера, на произвольное число частей каждый, и даже вообще случайно - и всё равно мы будем получать в среднем в совокупном распределении отрезков закон Зипфа.
Вот типичное совокупное распределение каскадно дробящегося континуума, когда мы дробим каждый отрезок на две части случайного размера:
То же самое при каскадном дроблении на пять случайных отрезков:
Впечатление, будто мы долго бродили по тайге и болотам в поисках нефти, а когда, наконец, нашли её, она хлынула неудержимым потоком. Стойкость алгоритма каскадного дробления к вариациям и случайностям, а также его универсальность позволяет считать его если не фундаментальным, то наилучшим из известных нам пока объяснений закона Зипфа.
(Пока известных ;) В действительности есть ещё один способ получать распределения с β=1, "волшебный". И он, видимо, как-то глубоко связан с алгоритмом каскадного дробления континуума, но пока мы отложим разговор о нём.)
Плоское дробление и логарифмический закон
Итак, получить распределение, соответствующее закону Зипфа не просто, а очень просто: для этого нужно произвольно дробить каскадами любой континуум. И если мы построим ранговое распределение всех кусков континуума – вне зависимости от каскада и этапа дробления – мы получим β=1.
Теперь посмотрим, что будет, если мы будем включать в распределение только результат дробления на одном из каскадов, то есть, объекты только одного уровня иерархии, например, нижнего:
Это соответствует ситуации, когда мы ломаем батон хлеба в несколько приёмов, но строим распределение по размерам только тех кусков, которые у нас получились в конечном итоге.
Если на каждом этапе мы делим единичный отрезок на равные части, то ответ очевиден - на любом каскаде мы будем получать множество совершенно одинаковых отрезков. Например, если мы делим отрезок пополам, то на седьмом каскаде мы будем иметь 64 одинаковых кусков размером 1/64. Попробуем теперь дробить отрезки случайно. Что мы получим после нескольких этапов такого дробления? Распределение перестаёт быть степенным - в двойных логарифмических координатах оно перестаёт быть линейным:
Но это тоже далеко не случайная кривая. Она соответствует логарифмической функции (по ссылке - очень доступное объяснение свойств логарифмической функции), которая имеет общий вид:
где a и b - некоторые постоянные коэффициенты. Особенность этой функции в том, что построив её в координатах, в которых ось Y линейная, а X - логарифмическая, мы получим прямую линию, наклон которой определяется коэффициентом b. Построим последнее распределение именно в таких координатах и убедимся, что оно соответствует логарифмической функции:
(отметим частичное сходство со свойствами степенной функции, которая также может быть представлена как прямая линия, но для этого нужно брать логарифмической и ось X и ось Y)
Мы получили отрезки в результате каскадного дробления, взяв его конечный результат, содержимое последнего каскада. Но точно такой же результат мы получим и просто напилив исходный континуум в случайных местах - за один раз, без каскадной очерёдности (это можно понимать как однокаскадное дробление):
Таким образом, если мы рассматриваем куски только одного уровня, не имеет значения, получили ли мы их много- или однокаскадным случайным дроблением - мы получаем логарифмическое распределение.
Распределения частей континуума, когда мы берём только куски одного уровня, мы будем именовать плоским дроблением - в отличие от каскадного, когда мы учитываем в распределении куски на всех каскадах.
Итак, мы имеем два разных способа дробления континуума, которые приводят к разным типам ранговых распределений. Каскадное дробление радует нас чистым законом Зипфа, а плоское дробление - логарифмическим законом. И, пожалуй, настал момент для важного заявления: каскадное дробление прямо связано с закономерностями когнитивного порядка, а плоское - с закономерностями физического. Или, в несколько вольной трактовке: субстанция физической реальности дробится плоско, а субстанция когнитивной реальности - каскадами.
О том, как это понимать, и о том, какой смысл вообще имеет каскадное дробление, мы ещё поговорим, а пока вернёмся к нашей "путеводной" задаче - ранговому распределению городов по населению. Теперь у нас есть в руках модель, порождающая чёткий закон Зипфа. Но как мы можем её применить к проблеме городов? Что означает для них это самое каскадное дробление?
Ответом на этот занимательный вопрос мы и займёмся в следующем прологе.
Ваш комментарий
image Поля, отмеченные звездочкой, нужно обязательно заполнить
Заголовок комментария:
image Текст комментария: (не более 2000 символов, HTML-разметка удаляется)
image Ваше имя:
Ваш E-mail:
image Сколько будет дважды два? (ответьте цифрой, это проверка от спам-рассылок)
Отправить комментарий
Главные темы
Внимание (8)Геогештальт (1)Гештальт (16)Динамика внимания (5)Инсайт (5)Интуиция (2)Кибернетика (5)Когнитивное управление (6)Когнитивный анализ (4)Когнитивный словарь (5)Культура наблюдения (5)Мерцающие зоны (7)Метафизика (3)Метафора (13)Механизмы восприятия (15)Мифы и парадигмы (7)Органическая логика (5)Прогнозирование (6)Роль языка (4)Симметрии (5)Синхронизмы (5)Сложные системы (10)Степенной закон (8)Творческое мышление (5)Три уровня систем (4)Управление знаниями (3)Фазы развития (7)Фракталы (18)Цветные шумы (9)
КОГНИТИВИСТ: когнитивные методы и технологии © Роман Уфимцев, при поддержке Ателье ER