КОГНИТИВИСТИдейное ядро²Прологи
Пролог 39. Генеративные модели причинности
Прологи: наука о сознании становится точной
Манифест когнитивиста
.
Узелки на распутку
.
Прологи
Пролог 1. Когнитивный порядок
Пролог 2. Сигнатура характерного масштаба
Пролог 3. Степенной закон
Пролог 4. Три типа степенных распределений
Пролог 5. Закон Зипфа, сигнатура β = 1
Пролог 6. Цветные шумы, сигнатура α = 1
.
Пролог 7. Розовый шум и модель Бака-Снеппена
Пролог 8. Розовый шум и модель релаксации
Пролог 9. Розовый шум: шипелки и фрактальное блуждание
Пролог 10. Население городов и закон Зипфа
Пролог 11. Масштабно-инвариантные сети
Пролог 12. Фракталы и закон Зипфа
Пролог 13. Дробление континуума
Пролог 14. Социально-географические волокна
Пролог 15. Закон Зипфа в случайных текстах
Пролог 16. Тексты как фракталы
Пролог 17. Когнитивные фракталы
Пролог 18. β и размерность Хаусдорфа
Пролог 19. Образы когнитивных фракталов
Пролог 20. Когнитивные волокна
Пролог 21. Математика когнитивных фракталов
Пролог 22. Стохастические когнитивные фракталы
Пролог 23. Сравниваем Россию и Польшу
Пролог 24. От Швейцарии до Афганистана
Пролог 25. Гармониум
Пролог 26. Шум когнитивных фракталов
Пролог 27. Шум когнитивных процессов
Пролог 28. Розовый шум в поведении людей
Пролог 29. Шум в динамике зрительного внимания
Пролог 30. Изображения и двухмерный розовый шум
.
Пролог 31. Физическая и когнитивная релаксация
Пролог 32. Когнитивная релаксация и цветные шумы
Пролог 33. ВТОРОЙ ЦИКЛ. Дробление времени
Пролог 34. Когнитивное дробление времени
Пролог 35. Время как текст
Пролог 36. События и причинность
Пролог 37. Четыре причины Аристотеля
Пролог 38. Экзогенные причины
Пролог 39. Генеративные модели причинности
Пролог 40. Генеративные модели причинности, часть 2
Пролог 41. Гештальт-причинность
Пролог 42. Тау-модель
Пролог 43. Я-состояния и тироны
Пролог 44. Параметры тау-модели
.
Пролог 45. Параметры тау-модели, часть 2
Пролог 46. Параллельный тирон
.
Пролог 47. Параллельный тирон, часть 2
Пролог 48. Свойства тирона
.
Пролог 49. Свойства тирона, часть 2
.
Пролог 50. Семейства тирона
Пролог 51. Эволюция как тирон
Пролог 52. Я-состояния и девиации
Пролог 53. Эволюция и морфогенез
Пролог 54. Волокна и легенды
Пролог 55. Волокна и легенды, часть 2
Пролог 56. ТРЕТИЙ ЦИКЛ. Я-состояния и их структура
Пролог 57. Я-состояния и их структура, часть 2
Пролог 58. Спиральная структура
.
Пролог 59. Информация и её типы
Пролог 60. Информация и симметрия
Пролог 61. Информация и закон Вебера-Фехнера
Пролог 62. Натуральная пропорция
Пролог 63. Апекс Я-состояний
.
Пролог 64. Генеративные модели Я-состояния
Пролог 65. Нейрон
Пролог 66. Критические случайные графы
.
Пролог 67. Блохи и табакерки
Пролог 68. Чаши, табакерки и прочее
.
Пролог 69. Интерлюдия
Пролог 70. Гештальт числа e
.
Пролог 71. Гештальт числа e, часть 2
Пролог 72. ЧЕТВЁРТЫЙ ЦИКЛ. Тиронный рост
Пролог 73. Обобщённые процессы
Пролог 74. Обобщённые процессы, часть 2
Пролог 75. Обобщённые процессы и энтропия Реньи
Пролог 76. Дельта-процессы
.
Пролог 77. Дельта-аддитивные процессы
Пролог 78. Дельта-мультипликативные процессы
Пролог 79. Дельта-мультипликативные процессы, часть 2
Пролог 80. Дельта-мультипликативные процессы, часть 3
Пролог 81. Структурно-временной изоморфизм
Пролог 82. Тау-процесс и время
Пролог 83. Знаки состояний
Пролог 84. Мерные знаки и случайное блуждание
.
Пролог 85. Именные знаки и графы состояний
Пролог 86. ПЯТЫЙ ЦИКЛ. Простые числа
Пролог 87. Числа и их компоненты
Пролог 88. Время и простые числа
Пролог 89. Т-информация
Пролог 90. Новый прототип статистики Зипфа
Пролог 91. Новый прототип и гармоническая информация
.
Пролог 92. Не-целочисленные симметрии
Пролог 93. Спектры симметрии
.
Пролог 94. Преобразования симметрий
Пролог 95. Комплексные симметрии
Пролог 96. Cимметрии и структурные модальности
Пролог 97. Симметрии и характерная динамика
Пролог 98. Симметрия, энергия, излучения
Пролог 99. Симметрия системы
Пролог 100. Симметрия континуумов и траекторий
Пролог 101. Симметрия континуумов, часть 2
Пролог 102. Симметрия и масштаб
Пролог 103. Симметрия и вероятность
Пролог 104. Симметрия и вероятность, часть 2
.
Пролог 105. Преобразование симметрии континуумов
Пролог 106. Cимметрия многомерных континуумов
Пролог 107. Опыты с взаимодействием форм
Пролог 108. Опыты с взаимодействием форм, часть 2
Пролог 109. Омега-преобразование
Пролог 110. Омега-линзы
Пролог 110 (2). Омега-линзы, часть 2
Пролог 111. Геометрическое среднее и максимум энтропии
Пролог 112. Мультипликативные коллизии
Пролог 113. Смысл принципа максимума энтропии
Пролог 114. Варианты модели мультипликативных коллизий
Пролог 115. Свойства модели мультипликативных коллизий
Пролог 116. Геометрическая энтропия
Пролог 117. Специальные энтропии. Последний Пролог.
Степенные законы, распределения Парето и закон Зипфа
.
Когнитивный уровень
.
Мерцающие зоны
.
Органическая логика: резюме
Карта органической логики
.
Хвост ящерки. Метафизика метафоры.
.
Опус 1/F
.
Anschauung, научный метод Гёте
.
Закон серийности Пауля Каммерера
.
Ранние признаки критических переходов
.
Слабые сигналы
.
Меметика
.
Системный анализ и чувствительные точки
.
Спиральная динамика
.
Пролог 39. Генеративные модели причинности
 
Роман Уфимцев
23 апреля 2012 года, Калининград
Второй цикл Прологов посвящен взаимодействию когнитивного и физического порядка, разворачивающегося в потоке времени в виде серий событий, хронологий различной природы. Организующей силой хронологий являются причинно-следственные связи между событиями. Мы различаем четыре типа причинности, обладающие собственными узнаваемыми статистическими "росписями". В их роли выступают характерные распределения временных лагов между событием-причиной и событием-следствием. На этом основании мы различаем причины эндогенные и экзогенные с одной стороны, и причины когнитивные и физические с другой. Мы обнаружили, что эти четыре типа причин вполне созвучны четырём типам причин метафизики Аристотеля.
В предыдущих прологах мы в общих чертах рассмотрели причины трех типов: 1) физические эндогенные (они же материальные в терминах Аристотеля), 2) когнитивные экзогенные (целевые у Аристотеля), и 3) физические экзогенные (движущие). Однако теперь, чтобы уяснить суть этих типов причинности и их взаимоотношения, мы обратимся не к частным примерам, а к их генеративным числовым моделям.
Генеративная модель - это числовой алгоритм, позволяющий воспроизвести характерные признаки феномена, в нашем случае статистику временных лагов между причинами и следствиями для каждого сорта причин. Например, генеративная модель когнитивной экзогенной причинности должна порождать временные лаги между событиями, распределяющиеся логнормально.
Разумеется, потенциально существует бесчисленное количество числовых способов получить логнормальные распределения, но хорошей генеративной моделью является лишь та, которая, во-первых, предельно проста и красива (эстетика для когнитивиста - важный ориентир!), а во-вторых, каждый элемент которой может ясно трактоваться применительно к натуральным феноменам. Кроме того, четыре генеративные модели для каждого типа причин должны находиться друг с другом в каких-то стройных систематических отношениях - ведь в таких отношениях находятся и сами четыре типа причинности.
Если мы найдём генеративные модели, отвечающие этим требованиям, мы можем рассчитывать, что они окажутся не просто любопытными математическими игрушками, но будут отражать саму суть различных типов причинности, отражать квинтэссенцию каждого типа. То есть, генеративные модели - если повезёт - позволят нам увидеть причинность в её идеальных основах.
Генеративная модель материальной причинности
Мы начнём с первого типа причинности - с физической эндогенной (у Аристотеля - материальной), благо, что тут нам нужно лишь чётко сформулировать вещи, которые мы обсуждали уже не раз.
Этот тип причинности характеризуется экспоненциальным распределением лагов между событием-причиной и событием-следствием. Таким образом, нам нужен числовой алгоритм, который порождает подобную статистику. Простейшим и, безусловно, эстетически безупречным алгоритмом является модель, которую мы до сих пор называли "радиоактивным распадом". Теперь мы её сформулируем более абстрактно и универсально.
Генеративная модель физической эндогенной причинности
  1. Событием А (причиной) мы будем считать начало работы алгоритма.
  2. В каждый цикл работы алгоритма выбирается некоторое случайное число из диапазона от 0 до 1.
  3. Если случайное число оказывается выше некоторой заранее определенной планки P, которую мы именуем вероятностью распада, алгоритм совершает ещё один цикл, то есть, переходит на шаг 2.
  4. Если это число оказывается ниже планки, то алгоритм заканчивает свою работу. Этот момент мы называем распадом, это событие В (следствие).
  5. Периодом времени между событиями А и В мы считаем количество циклов, которые проделал алгоритм до завершения своей работы.
Многократный запуск этого алгоритма при фиксированной планке P порождает набор периодов, который соответствует экспоненциальному распределению. Пример результата числового моделирования (P=0,01, вероятность распада в течение одного цикла 1%):
Плотность экспоненциального распределения вероятности отвечает уравнению:
При этом планка вероятности распада P явным образом в него входит:
Чем выше вероятность распада, тем быстрее спадает распределение, например, для P=0,01 и P=0,02 оно выглядит так:
Вновь обратим внимание: раньше мы использовали не частотные распределения (они же - распределения плотности вероятности), а ранговые распределения. Они во многих отношениях проще и удобнее, когда речь идёт о распределениях спадающей формы - как степенное или экспоненциальное (но плохо пригодны для анализа распределений, имеющих "горб" - как нормальное или логнормальное).
При этом, если частотное распределение соответствует экспоненциальной функции - как сейчас у нас - то ранговое распределение отвечает логарифмической функции:
Уравнение рангового распределения в данном случае имеет форму:
Как видим, планка вероятности P в него тоже входит в явном виде. H(1) - это теоретическая длительность самого длинного периода в распределении, и она зависит как от P = λ, так и от числа запусков модели N:
Это формула полезна на практике для быстрой оценки планки вероятности P = λ. Пусть мы имеем N опытных периодов, которые предположительно распределяются экспоненциально. Тогда, если мы знаем длительность самого длинного периода среди них H(1), мы можем быстро оценить P = λ:
Итак, мы имеем простую и элегантную генеративную модель этого типа причинности, которая к тому же прямым и простым образом связана с уравнением плотности вероятности соответствующих временных лагов. Но может ли она нам что-то дать с точки зрения понимания фундаментальных основ физической эндогенной / материальной причинности?
Пожалуй, да. Мы знаем, что этому типу причинности подчиняется связь между рождением материальной частицы и её распадом. Представим такую частицу как кольцо, состоящее из многочисленных сегментов:
На кольцо со всех сторон налетают агрессивные, враждебные снаряды, стремящиеся разрушить это кольцо. При этом все сегменты одинаково хорошо противостоят этим снарядом, кроме нескольких. Если снаряд попадает в слабый сегмент, кольцо разрушается, частица распадается. Для простоты, пусть снаряды налетают по одному за единицу времени и притом равновероятно со всех сторон. Тогда мы получаем модель, по математической сути полностью тождественную изложенной выше генеративной модели, но гораздо более наглядную, живописную. Планка вероятности распада P при этом равна отношению количества слабых сегментов кольца к их общему количеству. Например, при планке вероятности P=0,01, в кольце из 100 сегментов всего один – слабый.
Каждую частицу материи мы можем представить таким кольцом, а налетающие снаряды - это "ветер времени", он атакует частицы материи постоянным потоком своих снарядов, "стрел времени". И если им попадается слабое звено, время разрушает, рассеивает частицу материи. Если же нет - стрелы времени отскакивают от её брони и частица продолжает своё существование:
Мы получили эпическую картину битвы между материей и временем, и материальная причинность при этом оказывается естественным следствием этого метафизического противостояния. Наша ли это художественная выдумка или нечто подобное происходит на самом деле? Это не так важно, ведь даже если материя и время "на самом деле" не противостоят друг другу, то с точки зрения видимых результатов их взаимодействия – экспоненциальных распределений периодов жизни материальных частиц - дело выглядит именно так. А раз так, почему бы не опираться на живописный образ, который к тому же даёт ощущение интуитивного понимания вопроса - не правда ли?
(Этот образ станет ещё более выразительным когда мы увидим, как выглядит та же картина для когнитивной эндогенной причинности, которую мы приберегли напоследок.)
Генеративная модель движущей причинности
Мы именуем этот тип причинности физическим экзогенным. Однако, в предыдущем прологе мы уже заметили, что Аристотель дал этому типу причинности очень верное название - движущая. Верность этого названия подчёркивается и генеративной моделью физических экзогенных причин - простейшей и самой элегантной, которую мы смогли найти. Но прежде, чем мы с ней познакомимся, нужно сделать кое-какое замечание.
В научной среде пользуется заслуженной известностью, пожалуй, самая уважаемая теорема теории вероятностей и статистики - центральная предельная теорема, одним из авторов которой является русский математик Ляпунов. Она утверждает, что если мы возьмем несколько случайных величин, имеющих примерно одинаковый разброс, то, вне зависимости от того, как распределены эти величины индивидуально, в сумме эти случайные величины будут иметь нормальное распределение.
Этот факт легко проиллюстрировать простым числовым опытом. Возьмем 100 случайных чисел от 0 до 1 и просуммируем их. Повторим опыт, скажем, 10000 раз, и построим распределение десяти тысяч получившихся сумм. Мы увидим практически идеальное нормальное распределение:
Казалось бы, этот способ получения нормального распределения является готовым генеративным методом: берём фиксированное число случайных промежутков времени длительностью, скажем, от 0 до 1 (или от 100 до 101 - не важно), и когда они суммируются, мы получим нормально распределенные периоды.
Но увы, такой метод нам не подходит: откуда берутся случайно распределенные промежутки времени? Какой механизм их считает (их ведь нужно фиксированное количество)? – чтобы ответить на эти вопросы, придётся выдумать довольно непростую систему, в которой нет ни необходимой красоты, ни минимализма. А потому, нам нужна другая генеративная модель.
Например, такая:
Генеративная модель физической экзогенной причинности
  1. У нас имеется фиксированная дистанция от точки А до точки В. В начальный момент времени в точке А находится какая-то частица.
  2. Один цикл работы модели заключается в выборе случайного числа от 0 до 1. Если его значение оказывается ниже некоторой планки P, которую мы называем вероятностью сдвига, то частица сдвигается по направлению к точке B на небольшой шаг фиксированной длины (он может иметь и случайную длину - это не так важно). Если значение случайного числа оказывается выше планки P, частица остаётся на прежнем месте. Далее этот цикл повторяется.
  3. Модель завершает свою работу, когда частица достигает точки В. Если отдельные шаги частицы очень малы по сравнению со всей дистанцией, то распределение периодов движения частицы от А до B, которые исчисляются как число необходимых циклов, распределятся нормально.
На основе этой модели мы провели численный опыт со следующими параметрами: расстояние от точки А до точки B: 20000, вероятность сдвига P = 0.5 (50%), длина сдвига за один шаг - 1. По результатам 500 запусков модели мы получили следующее распределение периодов движения частицы от точки А до точки В:
Насколько хорошо результаты отвечают нормальному распределению? Мы не раз говорили, что частотные распределения (гистограммы), подобные этой, на практике являются слишком грубым инструментом, чтобы оценивать соответствие опытных данных тем или иным распределениям. Поэтому, и в данном случае мы воспользуемся вероятностной диаграммой, на этот раз нормальной вероятностной диаграммой: если на ней опытные точки укладываются на прямую линию, мы имеем дело с нормальным распределением:
Как видим, это действительно так.
То, что мы таким образом получаем нормальное распределение, не трудно доказать аналитически. Для этого воспользуемся хорошо известной в теории вероятностей формулой Бернулли:
Её смысл удобно раскрыть на примере. Пусть нам известно, что с вероятностью p (малая) каждый встреченный нами на улице прохожий носит усы. Эта формула позволяет рассчитать вероятность P (большая) того, что среди встреченных нами n прохожих ровно k окажутся усатыми.
Применим эту формулу к нашей генеративной модели. Пусть для того, чтобы дойти от пункта А до пункта В частице нужно сделать D шагов. Но в реальности, из-за того, что шаг совершается не в каждый момент времени, циклов времени может потребоваться больше, чем D. Нам нужно найти уравнение P(x), где x - реальное число шагов, которое может потребоваться частице, чтобы достигнуть конечного пункта, а P(x) - вероятность такого расклада. Можно заметить, что наша задача аналогична задаче с усатыми прохожими, если её сформулировать так: какова вероятность того, что встретив x прохожих, мы среди них обнаружим ровно D усачей? (Наша реальная задача несколько отличается: нам нужно учесть, что последний человек у нас должен быть обязательно усатым - после этого мы прекращаем счёт, то есть, в последний цикл работы модели частица обязательно совершает шаг.) Используя формулу Бернулли в качестве основы, для нашей задачи мы получим:
Далее, известно, что формула Бернулли при большом числе испытаний n (при большом числе прохожих, среди которых мы ищем усачей) приближается к уравнению нормального распределения:
У нас необходимое число шагов D от пункта А до пункта B велико (это условие модели), а значит, необходимое число циклов времени x ещё больше. Это значит, что мы тоже можем перейти к приближенному уравнению (правда, несколько громоздкому):
Далее, при больших D и x, и в областях значения x, где xD/p - а это как раз соответствует области "колокола" на диаграмме плотности вероятности - выполняются приближенные равенства, которые позволяет привести наше уравнение к следующей форме:
Отсюда, преобразуя, получаем уравнение для распределения периодов движения частицы от пункта А до пункта B в зависимости от минимального числа шагов D и от вероятности сдвига p:
Как видим, уравнение точно соответствует уравнению плотности нормального распределения, а его параметры η и σ определяются параметрами модели D и p.
Проверим эти выражения результатами работы генеративной модели, для которых мы получили η = 40001, σ = 199,2. У нас минимальное число необходимых шагов D = 20000, поскольку длина дистанции 20000, а длина одного шага = 1 (когда шаги имеют не фиксированный, а случайный размер, минимальное число шагов должно исчисляться для средней длины шага). Далее, вероятность сдвига p = 1/2. Подставляем эти параметры в формулы и получаем расчётные значения параметров нормального распределения: η = 40000, σ = 200. То есть, результаты числового опыта в точности соответствуют расчётным значениям.
Мы получили очень простую генеративную модель, в которой есть только одно принципиальное условие – дистанция между пунктами А и В должна быть существенно больше отдельных шагов частицы - в численном опыте общая длина дистанции соотносилась со средней длиной одного шага как 20000:1. Вероятность сдвига частицы P не влияет на нормальность получающихся распределений, нужно лишь, чтобы эта вероятность не равнялась 0 или 1. В первом случае частица вообще не двинется с места, а во втором будет достигать пункта В всегда за строго определенное время. Ещё одно важное достоинство этой модели - она прямо связана с явлением движения, а ведь в терминах Аристотеля физические экзогенные причины это причины движущие.
Но мы лучше поймём смысл этой модели, если сравним её с генеративной моделью другой экзогенной причиннсти - когнитивной.
Генеративная модель целевой причинности
Или в нашей терминологии - когнитивной экзогенной причинности.
Как мы знаем, простейшим методом получения логнормального распределения является перемножение нескольких случайных величин, имеющих примерно одинаковый разброс. Это прямое следствие центральной предельной теоремы: если мы суммируем случайные величины и получаем нормальное распределение, то перемножая их получим логнормальное.
Это вытекает из базового свойства логарифмов:
Мы говорили, что если случайная величина имеет логнормальное распределение, то логарифм этой величины распределен нормально. Возьмем случайные x1, x2, x3..., сумма логарифмов которых распределена нормально. Тогда нормально распределен и логарифм их произведения (по свойству логарифмов). Это значит, что их произведение будет распределяться логнормально.
Но этот метод получения логнормального распределения не подходит нам в качестве генеративной модели по той же самой причине, по которой не подходит метод получения нормального распределения простым суммированием случайных величин: ему трудно придать смысл, если речь идёт о распределениях временных периодов.
Вместо него мы будем использовать генеративную модель, которая оказывается очень похожей на только что рассмотренную нами генеративную модель движущей причинности (настолько похожей, что разницу не просто заметить).
Итак,
Генеративная модель когнитивной экзогенной причинности
  1. У нас имеется фиксированная дистанция от точки А до точки В. В начальный момент времени в точке А находится какая-то частица.
  2. Один цикл работы модели заключается в выборе случайного числа от 0 до 1. Если его значение оказывается ниже некоторой планки P, которую мы называем вероятностью сдвига, то частица сдвигается по направлению к точке B на шаг некоторой определённой длины. Если значение случайного числа оказывается выше планки P, частица остаётся на прежнем месте. Далее этот цикл повторяется.
  3. Модель завершает свою работу, когда частица достигает точки В. Если отдельные шаги частицы НЕ очень малы по сравнению со всей дистанцией, то распределение периодов движения частицы от А до B, которые исчисляются как число необходимых циклов, распределятся логнормально.
Обратим внимание: разница с физической экзогенной моделью только в том, что отдельные шаги частицы должны быть не очень малы по сравнению со всей дистанцией.
Проведём численный опыт со следующими параметрами: длина шага: 1, расстояние от точки А до точки B: 10 (общая длина дистанции соотносится со средней длиной одного шага как 10:1), вероятность сдвига P = 0.5 (50%), По результатам многократных запусков модели мы получили следующее распределение периодов:
Чтобы удостовериться, что это логнормальное распределение, воспользуемся вероятностной диаграммой:
То, что мы получаем логнормальные распределения, тоже можно показать аналитически исходя из той же формулы Бернулли. Опустим выкладки, для интересующегося читателя отметим только, что в доказательстве используется следующий факт:
В результате получаются следующие формулы для расчета параметров логнормального распределения исходя из параметров генеративной модели:
Проверим эти выражения только что полученными опытными результатами η = 2,969, σ = 0,221. Минимальное число необходимых шагов D = 10, поскольку длина дистанции 10, а длина одного шага = 1.Вероятность сдвига p = 1/2. Подставляем эти параметры в формулы и получаем расчётные значения параметров логнормального распределения: η = 2,997, σ = 0,224. Результаты числового опыта с моделью соответствуют расчётным значениям.
Итак, мы получили интересный результат: для физической экзогенной и когнитивной экзогенной причинности пригодна одна и та же простая генеративная модель. Различие лишь в том, что в первом случае дистанция между пунктами, которую должна пройти частица очень велика по сравнению с одним её шагом, а во втором случае - невелика:
Иными словами, экзогенные причины обоих типов, возможно, имеют одинаковую основу, которая заключается, фигурально говоря, в движении от пункта А к пункту В, то есть, в последовательном изменении одного состояния частицы (объекта, системы, организма) на другое.
Но наша, как выясняется, общая генеративная модель экзогенной причинности раскрывает ещё один любопытный факт: дело в том, что если дистанция очень велика по сравнению с шагом частицы (физический эндогенный вариант), то распределения, которые получаются в результате, одинаково хорошо описываются и как нормальные и как логнормальные. Например, распределения периодов, которые возникают при вероятности сдвига P=1/3 и отношении длины дистанции к длине шага 10000:1, отлично отвечают как нормальному, так и логнормальному тесту:
(Мы говорили, что логнормальные распределения при некоторых параметрах очень похожи на нормальные – тут именно тот случай. Это происходит, если параметр σ очень мал по сравнению с параметром η.)
То есть, если два события связаны физической экзогенной причинностью, то они обязательно связаны и когнитивной экзогенной причинностью, но не обратно. Говоря иначе, если событие А есть движущая причина для события B, то событие B наверняка является целевой причиной для события А. Но если событие B является для события А целевой причиной, то не обязательно событие А является для события В движущей причиной:
Что из этого следует? Следует, что нет материальных движений, не имеющих цели, хотя есть когнитивные движения, не имеющие физических причин. Следует, что даже те природные явления, которые кажутся нам результатами каких-то слепых движений материи, вроде извержений вулканов, землетрясений, разрядов молний - все они целесообразны, все имеют цель, но эта цель обычно так далеко, что мы её не способны разглядеть - шаги нашего сознания слишком коротки, чтобы мы могли проследить далекий умысел, вложенный в эти катаклизмы. И не только в катаклизмы. В движение травинки на ветру, в движение песчинки в прибрежной волне, в движение каждой молекулы, подчиняющейся нормальным распределениям.
Чей же умысел стоит за всем этим?
Да, если хотите, мы говорим о Сознании, для которого любое видимое движение нашего мира от микро- до макроуровня - часть общей великой целесообразности, Плана, Промысла.
Пусть не смущает читателя, что от каких-то "банальных" распределений нить повествования вдруг приводит нас к темам воистину философским. Но таков уж предмет нашего разговора: время и причинность. Тут уж или не вникать вовсе, или вникать как следует.
1
Оба примера логнормальные
Приветствую.
Ваш пример на нормальное распределение неверен. Так, в нормальном распределении есть вероятность того, что будут выпадать отрицательные значения вне зависимости от значения среднего нормального распределения. У вас же модель выдаёт исключительно положительные значения.
Таким образом, вы дважды смоделировали логнормальное распределение, которое в одном случае было очень похоже на нормальное, но нормальным не являлось.
Чтобы смоделировать нормальное распределение, нужно, например, класть некие "кирпичи", толщина которых случайна (равномерно распределена). В таком случае вы должны получить нормально распределённую высоту n кирпичей.
Сергей fdsc@yandex.ru (24.10.2013 2:33)
2
Пожалуй даже, не кирпичи класть, а в бассейн наливать воду с одной стороны, а с другой - черпать из бесконечного бассейна, где каждое зачерпывание по объёму распределено равномерно.
После большого N доливаний/черпаний получите нормально распределённую величину прироста/убыли воды в бассейне.
Опять я (24.10.2013 2:38)
3
Вы правы :)
Это соображение о принципиальной негодности нормального распределения меня посещало давно, и интересно, что только буквально на днях, в связи с темой симметрии распределений, я все-таки решил, что нормальное распределение надо выбрасывать из схемы причинности. Это значит, надо объединять экзогенные причины в один тип с логнормальным профилем.
Роман Уфимцев (24.10.2013 7:47)
4
Расчеты верные
В первом случае получается именно нормальное распределение потому, что сделано предположение близости x к D/p и, кроме того, x,D >> 1. В этих предположениях все верно.
Вячеслав (5.07.2017 8:04)
Ваш комментарий
image Поля, отмеченные звездочкой, нужно обязательно заполнить
Заголовок комментария:
image Текст комментария: (не более 2000 символов, HTML-разметка удаляется)
image Ваше имя:
Ваш E-mail:
image Сколько будет дважды два? (ответьте цифрой, это проверка от спам-рассылок)
Отправить комментарий
Главные темы
Внимание (8)Геогештальт (1)Гештальт (16)Динамика внимания (5)Инсайт (5)Интуиция (2)Кибернетика (5)Когнитивное управление (6)Когнитивный анализ (4)Когнитивный словарь (5)Культура наблюдения (5)Мерцающие зоны (7)Метафизика (3)Метафора (13)Механизмы восприятия (15)Мифы и парадигмы (7)Органическая логика (5)Прогнозирование (6)Роль языка (4)Симметрии (5)Синхронизмы (5)Сложные системы (10)Степенной закон (8)Творческое мышление (5)Три уровня систем (4)Управление знаниями (3)Фазы развития (7)Фракталы (18)Цветные шумы (9)
КОГНИТИВИСТ: когнитивные методы и технологии © Роман Уфимцев, при поддержке Ателье ER