КОГНИТИВИСТИдейное ядро²Прологи
Пролог 62. Натуральная пропорция
Прологи: наука о сознании становится точной
Манифест когнитивиста
.
Узелки на распутку
.
Прологи
Пролог 1. Когнитивный порядок
Пролог 2. Сигнатура характерного масштаба
Пролог 3. Степенной закон
Пролог 4. Три типа степенных распределений
Пролог 5. Закон Зипфа, сигнатура β = 1
Пролог 6. Цветные шумы, сигнатура α = 1
.
Пролог 7. Розовый шум и модель Бака-Снеппена
Пролог 8. Розовый шум и модель релаксации
Пролог 9. Розовый шум: шипелки и фрактальное блуждание
Пролог 10. Население городов и закон Зипфа
Пролог 11. Масштабно-инвариантные сети
Пролог 12. Фракталы и закон Зипфа
Пролог 13. Дробление континуума
Пролог 14. Социально-географические волокна
Пролог 15. Закон Зипфа в случайных текстах
Пролог 16. Тексты как фракталы
Пролог 17. Когнитивные фракталы
Пролог 18. β и размерность Хаусдорфа
Пролог 19. Образы когнитивных фракталов
Пролог 20. Когнитивные волокна
Пролог 21. Математика когнитивных фракталов
Пролог 22. Стохастические когнитивные фракталы
Пролог 23. Сравниваем Россию и Польшу
Пролог 24. От Швейцарии до Афганистана
Пролог 25. Гармониум
Пролог 26. Шум когнитивных фракталов
Пролог 27. Шум когнитивных процессов
Пролог 28. Розовый шум в поведении людей
Пролог 29. Шум в динамике зрительного внимания
Пролог 30. Изображения и двухмерный розовый шум
.
Пролог 31. Физическая и когнитивная релаксация
Пролог 32. Когнитивная релаксация и цветные шумы
Пролог 33. ВТОРОЙ ЦИКЛ. Дробление времени
Пролог 34. Когнитивное дробление времени
Пролог 35. Время как текст
Пролог 36. События и причинность
Пролог 37. Четыре причины Аристотеля
Пролог 38. Экзогенные причины
Пролог 39. Генеративные модели причинности
Пролог 40. Генеративные модели причинности, часть 2
Пролог 41. Гештальт-причинность
Пролог 42. Тау-модель
Пролог 43. Я-состояния и тироны
Пролог 44. Параметры тау-модели
.
Пролог 45. Параметры тау-модели, часть 2
Пролог 46. Параллельный тирон
.
Пролог 47. Параллельный тирон, часть 2
Пролог 48. Свойства тирона
.
Пролог 49. Свойства тирона, часть 2
.
Пролог 50. Семейства тирона
Пролог 51. Эволюция как тирон
Пролог 52. Я-состояния и девиации
Пролог 53. Эволюция и морфогенез
Пролог 54. Волокна и легенды
Пролог 55. Волокна и легенды, часть 2
Пролог 56. ТРЕТИЙ ЦИКЛ. Я-состояния и их структура
Пролог 57. Я-состояния и их структура, часть 2
Пролог 58. Спиральная структура
.
Пролог 59. Информация и её типы
Пролог 60. Информация и симметрия
Пролог 61. Информация и закон Вебера-Фехнера
Пролог 62. Натуральная пропорция
Пролог 63. Апекс Я-состояний
.
Пролог 64. Генеративные модели Я-состояния
Пролог 65. Нейрон
Пролог 66. Критические случайные графы
.
Пролог 67. Блохи и табакерки
Пролог 68. Чаши, табакерки и прочее
.
Пролог 69. Интерлюдия
Пролог 70. Гештальт числа e
.
Пролог 71. Гештальт числа e, часть 2
Пролог 72. ЧЕТВЁРТЫЙ ЦИКЛ. Тиронный рост
Пролог 73. Обобщённые процессы
Пролог 74. Обобщённые процессы, часть 2
Пролог 75. Обобщённые процессы и энтропия Реньи
Пролог 76. Дельта-процессы
.
Пролог 77. Дельта-аддитивные процессы
Пролог 78. Дельта-мультипликативные процессы
Пролог 79. Дельта-мультипликативные процессы, часть 2
Пролог 80. Дельта-мультипликативные процессы, часть 3
Пролог 81. Структурно-временной изоморфизм
Пролог 82. Тау-процесс и время
Пролог 83. Знаки состояний
Пролог 84. Мерные знаки и случайное блуждание
.
Пролог 85. Именные знаки и графы состояний
Пролог 86. ПЯТЫЙ ЦИКЛ. Простые числа
Пролог 87. Числа и их компоненты
Пролог 88. Время и простые числа
Пролог 89. Т-информация
Пролог 90. Новый прототип статистики Зипфа
Пролог 91. Новый прототип и гармоническая информация
.
Пролог 92. Не-целочисленные симметрии
Пролог 93. Спектры симметрии
.
Пролог 94. Преобразования симметрий
Пролог 95. Комплексные симметрии
Пролог 96. Cимметрии и структурные модальности
Пролог 97. Симметрии и характерная динамика
Пролог 98. Симметрия, энергия, излучения
Пролог 99. Симметрия системы
Пролог 100. Симметрия континуумов и траекторий
Пролог 101. Симметрия континуумов, часть 2
Пролог 102. Симметрия и масштаб
Пролог 103. Симметрия и вероятность
Пролог 104. Симметрия и вероятность, часть 2
.
Пролог 105. Преобразование симметрии континуумов
Пролог 106. Cимметрия многомерных континуумов
Пролог 107. Опыты с взаимодействием форм
Пролог 108. Опыты с взаимодействием форм, часть 2
Пролог 109. Омега-преобразование
Пролог 110. Омега-линзы
Пролог 110 (2). Омега-линзы, часть 2
Пролог 111. Геометрическое среднее и максимум энтропии
Пролог 112. Мультипликативные коллизии
Пролог 113. Смысл принципа максимума энтропии
Пролог 114. Варианты модели мультипликативных коллизий
Пролог 115. Свойства модели мультипликативных коллизий
Пролог 116. Геометрическая энтропия
Пролог 117. Специальные энтропии. Последний Пролог.
Степенные законы, распределения Парето и закон Зипфа
.
Когнитивный уровень
.
Мерцающие зоны
.
Органическая логика: резюме
Карта органической логики
.
Хвост ящерки. Метафизика метафоры.
.
Опус 1/F
.
Anschauung, научный метод Гёте
.
Закон серийности Пауля Каммерера
.
Ранние признаки критических переходов
.
Слабые сигналы
.
Меметика
.
Системный анализ и чувствительные точки
.
Спиральная динамика
.
Пролог 62. Натуральная пропорция
 
Роман Уфимцев
23 октября 2012 года, Калининград
В предыдущем Прологе мы познакомились с законом Вебера-Фехнера, который описывает логарифмическую зависимость интенсивности физического стимула и субъективной реакции, впечатления, который производит этот стимул. Мы предположили, что область действия этой закономерности простирается далеко за пределы человеческого восприятия, и в действительности она характеризует базовую особенность представления, отражения физического мира - его аддитивных континуумов - в сложных когнитивных системах. Последняя формулировка требует пояснений, и мы к ним подойдем. Но прежде нам следует поставить точку в разговоре об эстетических свойствах натуральной пропорции - теперь мы к этому готовы.
Натуральная пропорция: "усилитель впечатлений"
Пусть мы имеем геометрический отрезок в качестве физического стимула. Интенсивность этого стимула определяется длиной отрезка S1:
В соответствии с законом Вебера-Фехнера, впечатление от этого отрезка как стимула равно:
Тут a - некоторый постоянный коэффициент, а Smin - нижний порог длины отрезка, соответствующий нулевому впечатлению от него - то есть, наименьший различимый отрезок.
Величину R1 следует трактовать как интенсивность впечатления, которую мы получим при переключении восприятия с отрезка длиной Smin на отрезок длиной S1. Если у нас есть часть отрезка длиной S2, то впечатление при переключении восприятия от отрезка S1 к отрезку S2:
Заметим, что в соответствии с этой формулой, впечатление R может быть отрицательным - как в нашем случае, когда восприятие переключается от более интенсивного стимула к менее интенсивному. Но нас интересует только абсолютная величина впечатления R, поэтому перепишем выражение так:
Анализируя полученное уравнение, можно сделать вывод о том, что впечатление от переключения восприятия от отрезка целиком к его части будет максимальным, если часть S2 составляет предельно малую долю исходной длины S1. Однако, простой опыт с собственным восприятием приводит к мысли, что этот вывод кое-что не учитывает. Конкретно, восприятию гораздо труднее переключиться с полного отрезка на его предельно маленькую часть, чем на какую-то не очень маленькую:
Более резкое переключение восприятия кажется более "трудоёмким" и даже требует заметно большего времени. Этот эффект можно описать и учесть разными способами. Простейший - предположить, что "трудоёмкость" при переключении внимания от стимула S1 к стимулу S2 равна отношению между ними:
В соответствии с ним, переключение внимания от отрезка к другому такому же отрезку должно происходить гораздо легче и быстрее, чем от большого отрезка - к маленькому. И в этом легко убедиться:
Во втором случае восприятие словно легко "скользит" от одного отрезка к другому, а в первом - заметно "спотыкается", и ему требуется некоторое время на перестройку. (Тут мы предполагаем, что восприятие перестраивается от большего отрезка к меньшему или равному. Если происходит перестройка от малого - к большему, S1 и S2 в выражении "трудоёмкости" нужно поменять местами. Минимальное значение W достигается в случае, если отрезки равны, тогда W = 1.)
Косвенное подтверждение такого подхода к оценке "когнитивной трудоёмкости" дают опыты Вебера, которые мы обсуждали в предыдущем Прологе. Напомню, Вебер установил, что минимально распознаваемое изменение интенсивности стимула пропорционально текущей его интенсивности. Предположим, что распознавание изменения стимула - например, когда испытуемый чувствует прибавку веса в грузе - происходит, когда достигается минимальный порог "трудоёмкости" переключения восприятия от одного стимула к другому, то есть, от старого веса груза S к новому S+ΔS (ниже этого порога восприятие испытуемого не замечает переключений, свободно "скользит" между ними). Тогда этот порог "трудоёмкости" равен:
Если изменение стимула меньше, чем ΔS, "трудоёмкость" переключения восприятия к новому стимулу будет ниже пороговой и испытуемый не заметит его. Именно то, что имеется порог чувствительности к изменению стимула, который можно оценить величиной ΔS/S, и обнаружил Вебер.
Итак, учитывая "трудоёмкость", нас интересует максимум величины:
Анализ приводит к выводу, что её максимум достигается в случае, если отрезок S1 относится к части S2 как e : 1. Наоборот, если идёт переключение внимания от части к целому (восприятие переключается обратно от S2 к S1), максимум достигается при отношении 1 : e.
Положим, что "трудоёмкость" определяет время переключения восприятия, задержку между прибытиями впечатлений, тогда максимум величины R/W соответствует максимальному потоку впечатлений. И мы выяснили, что если речь идет о переключениях восприятия между целым и одной из частей целого, максимальный поток впечатлений возникает при натуральной пропорции между целым и частью.
Возвращаясь к натуральной пропорции в искусстве - конкретно, в живописи - максимальный поток впечатлений возникает при повторяющемся переключении восприятия между двумя площадями изображения. Одной из них естественно выступает вся площадь картины целиком, и если она равна 1, то вторая, меньшая часть имеет площадь 1/e:
Так натуральная пропорция выступает в роли "эстетического усилителя", подобного усилителю вкуса глутамату натрия в кулинарии. Сама по себе натуральная пропорция не несет эстетического смысла, но служит для модуляции, усиления эстетического впечатления, который производит картина.
Обратим внимание, что мы теперь определяем натуральную пропорцию не как отношение между двумя частями одного целого (как делали раньше), а как отношение между целым и одной из его частей. Только в этом случае эстетика натуральной пропорции получает своё объяснение. И это наводит на мысль, что натуральная пропорция задает наиболее "впечатляющую", "интересную" траекторию перемещений внимания по картине. Действительно, сопоставим значение величины R/W для трех возможных траекторий переключения восприятия в картине, разделенной на два поля в соответствии с натуральной пропорцией:
Как видим, наиболее мощный "поток впечатлений" создает переключение восприятия между целым и меньшей частью. Второе место занимает переключение между двумя частями, и последнее - переключение между целым и большей частью. Если наше восприятие "предпочитает сильные впечатления", именно в такой последовательности приоритетов будут происходить переключения внимания. Наиболее предпочтительной траекторией будет переключение между целым и меньшей частью - то есть, собственно, вдоль натуральной пропорции.
Иногда приходится набредать на весьма причудливые математические вещи. Вот и тут такой случай - расскажу о нём не потому, что его смысл ясен в контексте нашего исследования, а просто для курьеза, который способен будоражить фантазию.
Рассматривая схему траекторий переключения восприятия между объектом как целым и меньшей из его частей, мы уже нашли ответ на вопрос, при каком отношении целого к меньшей части величина R/W при переходах между ними будет максимальной:
Мы установили, что максимум достигается при натуральной пропорции между целым и меньшей частью, то есть, при их отношении e:1. Теперь поставим сходный вопрос, но будем требовать максимума от суммы величин R/W для двух переходов между целым и каждой из частей:
Обозначим искомую пропорцию как x:1. Тогда сумма величин R/W по двум переходам равна:
Взглянем на график зависимости суммы от значения x:
Легко показать аналитически, что максимум суммы величин R/W достигается при значении x = 2 , и сумма для этого x равна ln(2). То есть, сумма потоков впечатлений по двум переходам будет максимальной при условии равенства размеров двух составных частей. (Разумеется, мы позже убедимся, что этот факт имеет прямое отношение к тому, что энтропия объекта с двумя альтернативными состояниями достигается, когда состояния равновероятны.)
Теперь поставим еще один вопрос: а при каком значении x сумма величин R/W будет максимальной по всем трём возможным переходам между целым и частями?
Эта сумма равна:
Взглянем на график:
С первого взгляда, значение x, при котором искомая сумма максимальна x=3 - и это по-своему логично. В этой точке сумма равна, кажется, 1. То есть, сумма "потоков впечатлений" достигает максимума, если целое относится к меньшей части в пропорции 3:1. Это интересный факт, но он становится ещё интереснее после математического анализа суммы. Оказывается, аналитическое выражение для точки максимума не существует (уравнение производной не поддаётся решению), а численное решение даёт значение x=2.99853..., что практически всего на 1 тысячную отличается от 3. (Уже менее удивительно, что и значение суммы для такого x равно не 1, а 0.9831...)
Так почему же не просто 3, а какое-то подозрительно близкое число? Глядя на подобные "нестыковки", складывается впечатление, что мы видим, как не совсем точно подогнаны лоскуты, из которых скроена "математическая ткань" мира. Конечно, впечатление ложное - просто мы многого ещё не понимаем.
В заключение, ещё одно замечание. Быть может, натуральная пропорция в роли усилителя впечатлений используется шире, чем можно подумать. Например, пропорции обычной сигареты близки к натуральной:
Заметим, что наиболее предпочтительной траекторией будет переключение внимания между целой сигаретой и её мундштуком - тем самым сигарета самой своей формой фокусирует нас на мундштуке, словно "приглашая" её распробовать.
Информация геометрических прогрессий
Итак, мы выяснили, что натуральная пропорция обеспечивает максимальную информационную эффективность и с максимальный "поток впечатлений". В этом смысле она соответствует оптимальному строению двухчастного объекта, заинтересованного в том, чтобы эффективно влиять на мир. Таким "заинтересованным" объектом у нас является Я-состояние, и не удивительно обнаружить, что его структура опирается на натуральную пропорцию.
Однако, натуральная пропорция в исходном виде описывает строение объекта, состоящего всего из двух частей. Хотя по мере структурного раскрытия родового Я-состояния а процессе развития тирона имеется стадия, на которой его структура раскрывается ровно до 2 составных частей, их количество с развитием тирона увеличивается, и в пределе Я-состояние может раскрываться до бесконечного количества структурных частей. Как мы выяснили, на любом этапе развития тирона персистивность структурных частей Я-состояния соответствует геометрической прогрессии:
где N - общее количество объектов в тироне. При этом номер последнего члена этого ряда n в каждый момент времени определяется условием:
Исследуем информационные характеристики развернутой структуры Я-состояния. В частности, представляет интерес предельный случай, когда число структурных частей Я-состояния стремится к бесконечности.
Однако, для начала нам будет полезно рассмотреть другой бесконечный ряд. Пусть имеется объект, имеющий бесконечное число альтернативных состояний, вероятности которых подчиняются геометрическому ряду:
Выясним, во-первых, какова шенноновская информация (энтропия) этого объекта, а во-вторых, какова эффективная информация его отдельных состояний.
Интересный и несколько "оскорбляющий" здравый смысл факт заключается в том, что наш объект, имеющий бесконечное количество альтернативных состояний (бесконечное!) имеет вовсе не бесконечную шенноновскую энтропию, и это значит, что для внесения определенности среди бесконечного числа альтернатив требуется конечное количество информации. Изобразим дерево бинарных альтернатив для этого объекта:
Вычислим шенноновскую энтропию для этого ряда. Для этого заметим, что каждый его член отвечает уравнению:
где а - показатель прогрессии (вообще, может быть любым числом больше 1), а i - номер состояния от 1 до бесконечности.
Используя формулу Шеннона, получим, что информация (энтропия) всего ряда равна:
Опуская очевидные расчеты, получим, что количество шенноновской информации в зависимости от показателя a:
Конкретно, в данном случае, когда a = 2, мы получаем:
Это примечательный результат. Получается, что для внесения определенности в распределенное таким образом бесконечное количество состояний необходимо не только конечное количество информации, но это количество оказывается весьма небольшим и "круглым". Фактически, это то же самое количество информации, которое необходимо, чтобы внести определенность среди 4 равновероятных состояний:
Геометрический ряд состояний с показателем 2 особенно интересен тем, что, судя по всему, больше ни при каких значениях показателя прогрессии a не получается количество шенноновской информации, соответствующее какому-то круглому числу или хотя бы целочисленному количеству равновероятных состояний. Это некоторым образом выделает объекты, имеющие 4 альтернативных равновероятных состояния, а также выделяет четырехбуквенные алфавиты (интригующим примером является алфавит, которым в молекулах ДНК и РНК "записана" генетическая информация - он образован четырьмя нуклеотидами. Впрочем, у некоторых микробов изредка встречается и пятый нуклеотид)
О том, какими особыми свойствами может наделять подобные объекты или алфавиты их информационная тождественность бесконечному геометрическому ряду с показателем 2, мы поговорим позже.
Оценим теперь эффективную информацию состояний этого геометрического ряда. Эффективная информация рассчитывается индивидуально для каждого альтернативного состояния объекта и в данном случае, для состояния с номером i она равна просто номеру состояния:
Показатель прогрессии e
Проанализируем теперь также геометрический ряд с показателем e - именно такой ряд образуют структурные части Я-состояния. В предельном случае этот ряд подобен бесконечному ряду состояний объекта с вероятностями:
Дерево бинарных альтернатив в этом случае выглядит так
Заметим, что прогрессия образована бесконечным каскадным ветвлением, при котором вероятности альтернатив соотносятся в натуральной пропорции:
То есть, простую натуральную пропорцию можно считать результатом первого этапа в развитии целой "натуральной прогрессии". Так какими же информационными свойствами обладает полная, бесконечная натуральная прогрессия?
Для начала рассчитаем эффективную информацию для состояния номер i:
При больших i справедливо приближение:
То есть, подобно тому, как для геометрической прогрессии с показателем a = 2 количество эффективной информации состояния в битах равно его номеру, для прогрессии с показателем a = e количество эффективной информации также совпадает с номером состояния - но только если мы измеряем информацию в натах.
Теперь посчитаем шенноновскую информацию (энтропию), используя полученную нами выше формулу, устанавливая a = e:
В этом результате есть нечто любопытное. Как мы выяснили, внесение определенности среди бесконечного ряда состояний объекта, вероятности которых соответствуют геометрической прогрессии с показателем a = 2 требует 2 бита информации - ровно столько же, сколько внесение определенности среди 22 = 4 равновероятных состояний. Какому же числу равновероятных состояний соответствует ряд состояний с показателем a = e? Это число:
Оно оказывается близким основанию натуральных логарифмов e≈2,718... Иными словами, информационные свойства бесконечной натуральной прогрессии близки к свойствам e равновероятных состояний - вспомним то самое дробление к не-целочисленным коэффициентом e и натуральный алфавит, в котором e букв.
Откровенно говоря, этот результат сперва несколько разочаровал автора - он ожидал увидеть тут точно число e. Тогда многое бы "сложилось" воедино. Тогда предельно раскрытая структура Я-состояния информационно точно бы соответствовала гармоническому коэффициенту дробления e, красивую форму получило бы описание очень интересного натурального алфавита и т.д. Но увы, мы получили число лишь близкое к e.
Но дальнейшее исследование привело к находке ещё одного удивительного "шва в математической ткани мира" - пожалуй, даже ещё более странного, чем тот, о котором мы говорили выше.
Столкнувшись с тем, что мы получили число, несколько превышающее e, естественно поставить вопрос: если бесконечная натуральная прогрессия имеет энтропию, чуть превышающую энтропию e равновероятных состояний, то при каком конечном количестве членов расхождение будет минимальным? Ответим на этот вопрос.
Во-первых, опираясь на формулу суммы частичной геометрической прогрессии, мы можем выяснить, что если объект имеет n альтернативных состояний, и при этом состояния образуют геометрическую прогрессию с показателем e, вероятность состояния с номером i соответствует выражению:
Для объекта, альтернативные состояния которого соответствуют таким вероятностям, шенноновская информация определяется следующим довольно громоздким выражением:
Нас интересует значение n, при котором выполняется равенство:
Увы, зависимость I(n) оказывается довольно сложной, и аналитически найти решение невозможно. Однако, численное решение даёт поразительный результат. Частичный натуральный геометрический ряд будет в точности информационно соответствовать e равновероятным состояниям, если n = 5.0008... То есть, мы получили число n, отличающееся от 5 менее, чем на 1 десятитысячную!
n - это количество членов в частичной натуральной прогрессии, и по идее, оно, конечно, должно быть целочисленным. Но, поскольку мы имеем дело с иррациональными числами и логарифмами, никакой надежды, что мы тут получим какое-то целочисленное значение n не могло быть. И тем более впечатляет, что мы действительно, не получили целого числа, но по загадочной причине оно оказалось близким целому числу с более чем подозрительной точностью. И это число 5.
Вот как выглядит этот "волшебный" ряд, состоящий из 5 членов:
Шенноновская информация (энтропия) этого ряда состояний отличается от информации e равновероятных состояний (а оно, напомню, равно 1 нат) всего на 0,00003.
Что особенного в этом ряду кроме его информационных свойств? Увы, пока у нас нет ответов - а в нём, несомненно, есть нечто особенное. Быть может, со временем мы узнаем, что именно.
Ваш комментарий
image Поля, отмеченные звездочкой, нужно обязательно заполнить
Заголовок комментария:
image Текст комментария: (не более 2000 символов, HTML-разметка удаляется)
image Ваше имя:
Ваш E-mail:
image Сколько будет дважды два? (ответьте цифрой, это проверка от спам-рассылок)
Отправить комментарий
Главные темы
Внимание (8)Геогештальт (1)Гештальт (16)Динамика внимания (5)Инсайт (5)Интуиция (2)Кибернетика (5)Когнитивное управление (6)Когнитивный анализ (4)Когнитивный словарь (5)Культура наблюдения (5)Мерцающие зоны (7)Метафизика (3)Метафора (13)Механизмы восприятия (15)Мифы и парадигмы (7)Органическая логика (5)Прогнозирование (6)Роль языка (4)Симметрии (5)Синхронизмы (5)Сложные системы (10)Степенной закон (8)Творческое мышление (5)Три уровня систем (4)Управление знаниями (3)Фазы развития (7)Фракталы (18)Цветные шумы (9)
КОГНИТИВИСТ: когнитивные методы и технологии © Роман Уфимцев, при поддержке Ателье ER