КОГНИТИВИСТИдейное ядро²ПрологиПролог 68. Чаши, табакерки и прочее
Математическое приложение 8
Прологи: наука о сознании становится точной
Манифест когнитивиста
.
Узелки на распутку
.
Прологи
Пролог 1. Когнитивный порядок
Пролог 2. Сигнатура характерного масштаба
Пролог 3. Степенной закон
Пролог 4. Три типа степенных распределений
Пролог 5. Закон Зипфа, сигнатура β = 1
Пролог 6. Цветные шумы, сигнатура α = 1
.
Пролог 7. Розовый шум и модель Бака-Снеппена
Пролог 8. Розовый шум и модель релаксации
Пролог 9. Розовый шум: шипелки и фрактальное блуждание
Пролог 10. Население городов и закон Зипфа
Пролог 11. Масштабно-инвариантные сети
Пролог 12. Фракталы и закон Зипфа
Пролог 13. Дробление континуума
Пролог 14. Социально-географические волокна
Пролог 15. Закон Зипфа в случайных текстах
Пролог 16. Тексты как фракталы
Пролог 17. Когнитивные фракталы
Пролог 18. β и размерность Хаусдорфа
Пролог 19. Образы когнитивных фракталов
Пролог 20. Когнитивные волокна
Пролог 21. Математика когнитивных фракталов
Пролог 22. Стохастические когнитивные фракталы
Пролог 23. Сравниваем Россию и Польшу
Пролог 24. От Швейцарии до Афганистана
Пролог 25. Гармониум
Пролог 26. Шум когнитивных фракталов
Пролог 27. Шум когнитивных процессов
Пролог 28. Розовый шум в поведении людей
Пролог 29. Шум в динамике зрительного внимания
Пролог 30. Изображения и двухмерный розовый шум
.
Пролог 31. Физическая и когнитивная релаксация
Пролог 32. Когнитивная релаксация и цветные шумы
Пролог 33. ВТОРОЙ ЦИКЛ. Дробление времени
Пролог 34. Когнитивное дробление времени
Пролог 35. Время как текст
Пролог 36. События и причинность
Пролог 37. Четыре причины Аристотеля
Пролог 38. Экзогенные причины
Пролог 39. Генеративные модели причинности
Пролог 40. Генеративные модели причинности, часть 2
Пролог 41. Гештальт-причинность
Пролог 42. Тау-модель
Пролог 43. Я-состояния и тироны
Пролог 44. Параметры тау-модели
.
Пролог 45. Параметры тау-модели, часть 2
Пролог 46. Параллельный тирон
.
Пролог 47. Параллельный тирон, часть 2
Пролог 48. Свойства тирона
.
Пролог 49. Свойства тирона, часть 2
.
Пролог 50. Семейства тирона
Пролог 51. Эволюция как тирон
Пролог 52. Я-состояния и девиации
Пролог 53. Эволюция и морфогенез
Пролог 54. Волокна и легенды
Пролог 55. Волокна и легенды, часть 2
Пролог 56. ТРЕТИЙ ЦИКЛ. Я-состояния и их структура
Пролог 57. Я-состояния и их структура, часть 2
Пролог 58. Спиральная структура
.
Пролог 59. Информация и её типы
Пролог 60. Информация и симметрия
Пролог 61. Информация и закон Вебера-Фехнера
Пролог 62. Натуральная пропорция
Пролог 63. Апекс Я-состояний
.
Пролог 64. Генеративные модели Я-состояния
Пролог 65. Нейрон
Пролог 66. Критические случайные графы
.
Пролог 67. Блохи и табакерки
Пролог 68. Чаши, табакерки и прочее
Математическое приложение 8
Пролог 69. Интерлюдия
Пролог 70. Гештальт числа e
.
Пролог 71. Гештальт числа e, часть 2
Пролог 72. ЧЕТВЁРТЫЙ ЦИКЛ. Тиронный рост
Пролог 73. Обобщённые процессы
Пролог 74. Обобщённые процессы, часть 2
Пролог 75. Обобщённые процессы и энтропия Реньи
Пролог 76. Дельта-процессы
.
Пролог 77. Дельта-аддитивные процессы
Пролог 78. Дельта-мультипликативные процессы
Пролог 79. Дельта-мультипликативные процессы, часть 2
Пролог 80. Дельта-мультипликативные процессы, часть 3
Пролог 81. Структурно-временной изоморфизм
Пролог 82. Тау-процесс и время
Пролог 83. Знаки состояний
Пролог 84. Мерные знаки и случайное блуждание
.
Пролог 85. Именные знаки и графы состояний
Пролог 86. ПЯТЫЙ ЦИКЛ. Простые числа
Пролог 87. Числа и их компоненты
Пролог 88. Время и простые числа
Пролог 89. Т-информация
Пролог 90. Новый прототип статистики Зипфа
Пролог 91. Новый прототип и гармоническая информация
.
Пролог 92. Не-целочисленные симметрии
Пролог 93. Спектры симметрии
.
Пролог 94. Преобразования симметрий
Пролог 95. Комплексные симметрии
Пролог 96. Cимметрии и структурные модальности
Пролог 97. Симметрии и характерная динамика
Пролог 98. Симметрия, энергия, излучения
Пролог 99. Симметрия системы
Пролог 100. Симметрия континуумов и траекторий
Пролог 101. Симметрия континуумов, часть 2
Пролог 102. Симметрия и масштаб
Пролог 103. Симметрия и вероятность
Пролог 104. Симметрия и вероятность, часть 2
.
Пролог 105. Преобразование симметрии континуумов
Пролог 106. Cимметрия многомерных континуумов
Пролог 107. Опыты с взаимодействием форм
Пролог 108. Опыты с взаимодействием форм, часть 2
Пролог 109. Омега-преобразование
Пролог 110. Омега-линзы
Пролог 110 (2). Омега-линзы, часть 2
Пролог 111. Геометрическое среднее и максимум энтропии
Пролог 112. Мультипликативные коллизии
Пролог 113. Смысл принципа максимума энтропии
Пролог 114. Варианты модели мультипликативных коллизий
Пролог 115. Свойства модели мультипликативных коллизий
Пролог 116. Геометрическая энтропия
Пролог 117. Специальные энтропии. Последний Пролог.
Степенные законы, распределения Парето и закон Зипфа
.
Когнитивный уровень
.
Мерцающие зоны
.
Органическая логика: резюме
Карта органической логики
.
Хвост ящерки. Метафизика метафоры.
.
Опус 1/F
.
Anschauung, научный метод Гёте
.
Закон серийности Пауля Каммерера
.
Ранние признаки критических переходов
.
Слабые сигналы
.
Меметика
.
Системный анализ и чувствительные точки
.
Спиральная динамика
.
Математическое приложение 8
 
Роман Уфимцев
18 декабря 2012 года, Калининград
В этом приложении к Прологу 68 анализируются математические свойства моделей, описанных в основном тексте.
1. Среднее значение суммы случайных чисел, если сумма < 1
Докажем, что если мы возьмём k случайных чисел, взятых из промежутка [0,1] и их сумма не превышает 1, то в среднем эта сумма будет равна uk = k/(k+1).
Применительно к описанной в Прологе 68 модели, k/(k+1) - это средний потенциал чаш, которые содержат k случайных чисел.
Начнём с тривиального случая, когда k=1. В этом случае мы имеем одно случайное число из промежутка [0,1], и его среднее значение равно u1=1/2.
Рассмотрим случай k=2. Воспользуемся графическим методом. (мы им уже пользовались, выводя среднее количество слагаемых в сумме случайных чисел, которая превысит 1.) Обозначим случайные числа как x1 и x2, тогда их возможные суммы образуют квадратное множество:
На пару x1 и x2 наложено условие: их сумма не должна превышать 1. Этому условию отвечают точки в серой части фигуры.
Как мы выяснили, в зависимости от k, размер множества разрешенных комбинаций случайных слагаемых относится к размеру множества всех возможных комбинаций как 1/k!. Например, в этом случае k=2, значит, площадь серой, разрешённой части фигуры, соотносится с площадью всего квадрата как 1/2! = 1/2. Аналитически этот результат получается решением двойного интеграла:
Получившееся число определяет площадь серой, разрешённой части фигуры.
Нас интересует среднее значение суммы x1 + x2, взятой по всем разрешённым, то есть, лежащим в серой части фигуры, парам x1 и x2. Чтобы вычислить это значение, нужно посчитать значение этой суммы для каждой точки разрешённой области, суммировать все получившиеся суммы - обозначим результат как Sk, а затем разделить Sk на площадь разрешённой области Ak:
Найдём Sk. Для случая k=2 Sk вычисляется двойным интегралом:
Для k=3 мы получаем тройной интеграл:
и так далее. В целом, индуктивно анализируя получающиеся сложные интегралы, не трудно установить, что общий результат:
В итоге, средняя сумма k случайных чисел, если она не превышает 1 равна:
2. Средний потенциал чаш
Докажем, что средний потенциал чаш равен 1/e - как в большом их наборе, как обсуждалось в Прологе 68, так и у отдельной чаши с усреднением во времени.
Пусть k - текущее количество случайных чисел в чаше. Как мы установили в первом параграфе, для множества чаш, в которых находится k случайных чисел, средний потенциал равен k/(k+1).
Но мы также знаем и распределение чаш по количеству содержащихся в них случайных чисел. Ожидаемая доля чаш, содержащих k случайных чисел равна:
Тогда мы можем вычислить средний потенциал всех чаш так:
Этот результат прямо переносится и на одну чашу с усреднением по времени, поскольку статистически такое усреднение аналогично усреднению по одному моменту большого количества чаш, как в обсуждаемой модели.
3. Распределение сумм случайных чисел, если сумма < 1
В параграфе 1 было доказано, что если мы возьмём k случайных чисел, взятых из промежутка [0,1] и их сумма не превышает 1, то в среднем эта сумма будет равна uk = k/(k+1). Разовьем этот результат и покажем, что сумма из k случайных чисел, если она не превышает 1, имеет распределение простого вида:
Применительно к модели чаш терпения это выражение описывает распределение потенциалов в чашах, имеющих k случайных чисел.
В случае k=1 мы, очевидно, имеем просто однородно распределенные потенциалы в диапазоне от 0 до 1.
Случай k=2 проиллюстрируем геометрически:
Частота той или иной суммы случайных чисел x1 и x2 пропорциональна длине диагонали, на которой лежат эти суммы - например, на диаграмме показана диагональ, для которой сумма случайных чисел равна 1/2. Из диаграммы ясно, что суммы распределены в диапазоне от 0 до 1, но неоднородно - более высоких значений больше, чем малых. Возьмем некоторое значение суммы двух случайных чисел s. Соответствующая длина диагонали:
Получаем, что уравнение плотности вероятности искомого распределения имеет вид:
Тут C - константа, которая определяется из условия нормирования распределения на промежутке [0,1]:
Окончательно для k=2 имеем уравнение распределения:
Продолжим геометрический анализ для случая k=3:
На диаграмме показано сечение, для которого сумма трех случайных чисел равна s = 1/2. Для любой суммы это сечение имеет форму равностороннего треугольника. Ясно, что площадь этого треугольника растет пропорционально s2. Например, площадь треугольника для s=1 (самое большой сечение), в четыре раза больше площади сечения при s=1/2.
Из этого можно сделать вывод, что частотное распределение для случая k=3 имеет вид:
И, определив значение C из условия нормировки распределоения, окончательно имеем:
Индуктивно продолжая, получим, что для произвольного k уравнение частотного распределения потенциалов имеет вид:
Среднее значение распределенной таким образом величины равно:
Это совпадает с результатом, полученным в первом параграфе и это, между прочим, гораздо более простой способ вычисления среднего.
4. Раскладывание предметов по растягивающимся ячейкам
Пусть мы раскладываем N предметов по N ячейкам. Вероятность попадания предмета в конкретную ячейку пропорциональна её размеру. Исходный размер всех ячеек равен 1. Если каждый новый попадающий в ячейку предмет увеличивает её размер на единицу (соответственно и увеличивая вероятность попадания других предметов в эту ячейку), то по окончанию раскладки частотное распределение ячеек по количеству предметов будет отвечать выражению:
Докажем это.
Для начала вычислим вероятность появления пустой ячейки по окончанию раскладки, то есть, найдём P(0). Выберем конкретную ячейку. Вероятность, что первый же размещаемый в ячейках предмет попадёт в неё равна 1/N. Значит, вероятность, что он не попадёт в контрольную ячейку равна:
Пусть предмет попал в какую-то другую ячейку. Ячейка, в которую он попал, растянулась на единицу, и это приводит к изменению вероятностей. В частности, вероятность того, что второй предмет попадёт в нашу контрольную ячейку оказывается равной 1/(N+1). Значит, вероятность, что наоборот, не попадёт:
Продолжая в той же логике, мы установим, что вообще, вероятность того, что предмет m не попадёт в контрольную ячейку равна
Вероятность, того, что наша ячейка останется пустой после того, как мы разложим все N предметов равна произведению вероятностей:
С ростом N получающаяся вероятность стремится 1/2. Таким образом произвольно выбранная ячейка с вероятностью 1/2 останется пустой. Значит, всего пустых ячеек окажется около N/2.
Теперь выясним, с какой вероятностью контрольная ячейка после раскладки будет содержать 1 предмет, то есть, установим P(1). Если в ячейка в конце оказывается один предмет, это значит, что при размещении некоторого предмета k он попал в контрольную ячейку, но больше ни один предмет в неё не попал. Для некоторого фиксированного k вероятность этого исхода:
Эта вероятность рассчитывается как произведение PA - вероятность, что до предмета с номером k в ячейку не попадали предметы, PB - вероятность, предмет с номером k попал в ячейку, PC - вероятность, что начиная с предмета номером k+1 в ячейку больше не попадали предметы до самого конца. Выражение несколько громоздкое, но оно легко упрощается, причём оказывается, что результат не зависит от номера попавшего в ячейку предмета k:
Всего у нас имеется N вариантов номера попадающего в ячейку предмета k, а значит, общая вероятность для контрольной ячейки иметь один предмет равна 1/4.
Вывод значения P(2) происходит аналогично, опуская громоздкие промежуточные расчёты, получим
В этом случае, поскольку каждый из двух попавших в ячейку предметов может попасть в неё в любой из N моментов времени, и существует N*(N-1)/2 возможных комбинаций, эту вероятность нужно умножить на N*(N-1)/2≈N2/2, так что в итоге получим P(2) ≈ 1/8.
Индуктивно получим, что вообще когда k гораздо меньше N - а это справедливо, если N велико - выполняется:
Формально точное уравнение распределения выглядит так:
Можно показать, что для любых опытов со случайным раскладыванием достаточно большого числа предметов (скажем, более 10) по растягивающимся ячейкам, формально точное распределение неотличимо от приближенного, геометрического.
Ваш комментарий
image Поля, отмеченные звездочкой, нужно обязательно заполнить
Заголовок комментария:
image Текст комментария: (не более 2000 символов, HTML-разметка удаляется)
image Ваше имя:
Ваш E-mail:
image Сколько будет дважды два? (ответьте цифрой, это проверка от спам-рассылок)
Отправить комментарий
Главные темы
Внимание (8)Геогештальт (1)Гештальт (16)Динамика внимания (5)Инсайт (5)Интуиция (2)Кибернетика (5)Когнитивное управление (6)Когнитивный анализ (4)Когнитивный словарь (5)Культура наблюдения (5)Мерцающие зоны (7)Метафизика (3)Метафора (13)Механизмы восприятия (15)Мифы и парадигмы (7)Органическая логика (5)Прогнозирование (6)Роль языка (4)Симметрии (5)Синхронизмы (5)Сложные системы (10)Степенной закон (8)Творческое мышление (5)Три уровня систем (4)Управление знаниями (3)Фазы развития (7)Фракталы (18)Цветные шумы (9)
КОГНИТИВИСТ: когнитивные методы и технологии © Роман Уфимцев, при поддержке Ателье ER