КОГНИТИВИСТИдейное ядро²Прологи
Пролог 16. Тексты как фракталы
Прологи: наука о сознании становится точной
Манифест когнитивиста
.
Узелки на распутку
.
Прологи
Пролог 1. Когнитивный порядок
Пролог 2. Сигнатура характерного масштаба
Пролог 3. Степенной закон
Пролог 4. Три типа степенных распределений
Пролог 5. Закон Зипфа, сигнатура β = 1
Пролог 6. Цветные шумы, сигнатура α = 1
.
Пролог 7. Розовый шум и модель Бака-Снеппена
Пролог 8. Розовый шум и модель релаксации
Пролог 9. Розовый шум: шипелки и фрактальное блуждание
Пролог 10. Население городов и закон Зипфа
Пролог 11. Масштабно-инвариантные сети
Пролог 12. Фракталы и закон Зипфа
Пролог 13. Дробление континуума
Пролог 14. Социально-географические волокна
Пролог 15. Закон Зипфа в случайных текстах
Пролог 16. Тексты как фракталы
Пролог 17. Когнитивные фракталы
Пролог 18. β и размерность Хаусдорфа
Пролог 19. Образы когнитивных фракталов
Пролог 20. Когнитивные волокна
Пролог 21. Математика когнитивных фракталов
Пролог 22. Стохастические когнитивные фракталы
Пролог 23. Сравниваем Россию и Польшу
Пролог 24. От Швейцарии до Афганистана
Пролог 25. Гармониум
Пролог 26. Шум когнитивных фракталов
Пролог 27. Шум когнитивных процессов
Пролог 28. Розовый шум в поведении людей
Пролог 29. Шум в динамике зрительного внимания
Пролог 30. Изображения и двухмерный розовый шум
.
Пролог 31. Физическая и когнитивная релаксация
Пролог 32. Когнитивная релаксация и цветные шумы
Пролог 33. ВТОРОЙ ЦИКЛ. Дробление времени
Пролог 34. Когнитивное дробление времени
Пролог 35. Время как текст
Пролог 36. События и причинность
Пролог 37. Четыре причины Аристотеля
Пролог 38. Экзогенные причины
Пролог 39. Генеративные модели причинности
Пролог 40. Генеративные модели причинности, часть 2
Пролог 41. Гештальт-причинность
Пролог 42. Тау-модель
Пролог 43. Я-состояния и тироны
Пролог 44. Параметры тау-модели
.
Пролог 45. Параметры тау-модели, часть 2
Пролог 46. Параллельный тирон
.
Пролог 47. Параллельный тирон, часть 2
Пролог 48. Свойства тирона
.
Пролог 49. Свойства тирона, часть 2
.
Пролог 50. Семейства тирона
Пролог 51. Эволюция как тирон
Пролог 52. Я-состояния и девиации
Пролог 53. Эволюция и морфогенез
Пролог 54. Волокна и легенды
Пролог 55. Волокна и легенды, часть 2
Пролог 56. ТРЕТИЙ ЦИКЛ. Я-состояния и их структура
Пролог 57. Я-состояния и их структура, часть 2
Пролог 58. Спиральная структура
.
Пролог 59. Информация и её типы
Пролог 60. Информация и симметрия
Пролог 61. Информация и закон Вебера-Фехнера
Пролог 62. Натуральная пропорция
Пролог 63. Апекс Я-состояний
.
Пролог 64. Генеративные модели Я-состояния
Пролог 65. Нейрон
Пролог 66. Критические случайные графы
.
Пролог 67. Блохи и табакерки
Пролог 68. Чаши, табакерки и прочее
.
Пролог 69. Интерлюдия
Пролог 70. Гештальт числа e
.
Пролог 71. Гештальт числа e, часть 2
Пролог 72. ЧЕТВЁРТЫЙ ЦИКЛ. Тиронный рост
Пролог 73. Обобщённые процессы
Пролог 74. Обобщённые процессы, часть 2
Пролог 75. Обобщённые процессы и энтропия Реньи
Пролог 76. Дельта-процессы
.
Пролог 77. Дельта-аддитивные процессы
Пролог 78. Дельта-мультипликативные процессы
Пролог 79. Дельта-мультипликативные процессы, часть 2
Пролог 80. Дельта-мультипликативные процессы, часть 3
Пролог 81. Структурно-временной изоморфизм
Пролог 82. Тау-процесс и время
Пролог 83. Знаки состояний
Пролог 84. Мерные знаки и случайное блуждание
.
Пролог 85. Именные знаки и графы состояний
Пролог 86. ПЯТЫЙ ЦИКЛ. Простые числа
Пролог 87. Числа и их компоненты
Пролог 88. Время и простые числа
Пролог 89. Т-информация
Пролог 90. Новый прототип статистики Зипфа
Пролог 91. Новый прототип и гармоническая информация
.
Пролог 92. Не-целочисленные симметрии
Пролог 93. Спектры симметрии
.
Пролог 94. Преобразования симметрий
Пролог 95. Комплексные симметрии
Пролог 96. Cимметрии и структурные модальности
Пролог 97. Симметрии и характерная динамика
Пролог 98. Симметрия, энергия, излучения
Пролог 99. Симметрия системы
Пролог 100. Симметрия континуумов и траекторий
Пролог 101. Симметрия континуумов, часть 2
Пролог 102. Симметрия и масштаб
Пролог 103. Симметрия и вероятность
Пролог 104. Симметрия и вероятность, часть 2
.
Пролог 105. Преобразование симметрии континуумов
Пролог 106. Cимметрия многомерных континуумов
Пролог 107. Опыты с взаимодействием форм
Пролог 108. Опыты с взаимодействием форм, часть 2
Пролог 109. Омега-преобразование
Пролог 110. Омега-линзы
Пролог 110 (2). Омега-линзы, часть 2
Пролог 111. Геометрическое среднее и максимум энтропии
Пролог 112. Мультипликативные коллизии
Пролог 113. Смысл принципа максимума энтропии
Пролог 114. Варианты модели мультипликативных коллизий
Пролог 115. Свойства модели мультипликативных коллизий
Пролог 116. Геометрическая энтропия
Пролог 117. Специальные энтропии. Последний Пролог.
Степенные законы, распределения Парето и закон Зипфа
.
Когнитивный уровень
.
Мерцающие зоны
.
Органическая логика: резюме
Карта органической логики
.
Хвост ящерки. Метафизика метафоры.
.
Опус 1/F
.
Anschauung, научный метод Гёте
.
Закон серийности Пауля Каммерера
.
Ранние признаки критических переходов
.
Слабые сигналы
.
Меметика
.
Системный анализ и чувствительные точки
.
Спиральная динамика
.
Пролог 16. Тексты как фракталы
Темы:
Роман Уфимцев
9 декабря 2011 года, Калининград
Мы продолжаем исследовать проблему закона Зипфа в случайных текстах. Первые результаты показывали: полностью случайный текст, в котором все буквы встречаются с одинаковой вероятностью, действительно порождает распределение в целом соответствующее закону Зипфа. Мы даже показали это аналитически. Однако, для того, чтобы распределение стало действительно похожим на натуральное, необходимо, чтобы частотность отдельных букв в тексте была распределена логарифмически - также, как в натуральных текстах. Это критическое условие.
Почему частота букв в натуральных языках распределена логарифмически? О чём это нам говорит?
Случайный текст как фрактал
Как мы установили, ранговое распределение слов случайного текста по их частоте в случае равновероятных букв имеет ступенчатый вид:
Но мы уже встречали подобные ступенчатые распределения, когда исследовали степенную статистику идеальных фракталов - ковров Серпинского и множеств Кантора. Тогда же мы вывели формулу, которая помогает быстро выяснить β, соответствующее данному фракталу:
Например, для квадратного ковра Серпинского, у которого на каждом каскаде с номером n:
мы получаем β = ln(9)/ln(8).
Запишем теперь в такой же форме результаты подсчета слов в зависимости от числа букв d, которое в них содержится:
Обратим внимание, что в обоих выражениях есть части, которые возводятся в одну и ту же степень d. Но точно также, в обоих выражениях, описывающих дыры в ковре Серпинского, есть части, которые возводятся в одинаковую степень n-1. И точно также, как в случае ковра Серпинского мы можем из этих выражений прямо получить показатель β, мы можем это сделать и для случайных текстов:
Полагаю, читатель уже догадался, к чему мы подводим: случайные тексты имеют статистику, весьма схожую со статистикой фракталов, а значит, их можно рассматривать как типичные фрактальные структуры. Попробуем понять, какие именно.
Опираемся на аналогию между выражениями для статистики ковра Серпинского и статистики случайных текстов. Во-первых, показатель степени n-1 в ковре Серпинского означает номер каскадного уровня фрактала. В случает текстов это d - число букв в словах. Таким образом, каскадами текста как фрактала являются совокупности слов разной длины, так что, например, на каскаде 1 находятся все однобуквенные слова текста, на каскаде 2 - все двухбуквенные и т.д.
Далее, числу дыр на каждом каскаде ковра Серпинского соответствует число вариантов различных слов, находящихся на каждом каскаде. Если алфавит состоит из 33 букв, то на первом каскаде будет 33 варианта слов, на втором - 33*33=1089 вариантов и т.д.
Наконец, площади дыр в ковре Серпинского на каждом каскаде соответствует количество слов каждого варианта, которые имеются в нашем тексте. Также, как в ковре Серпинского площади дыр на каждом каскаде одинаковы, и в случайном тексте все слова, состоящие, например, из 3 букв, встретятся в тексте в среднем одно и то же число раз.
Итак, случайный текст как фрактал представляет собой каскадную самоподобную структуру, включающую в себя все слова текста. При этом:
  1. Номер каскада соответствует количеству букв в словах, которые на нём располагаются.
  2. Количество дыр (то есть, структурных частей) фрактала на каждом каскаде равно количеству вариантов слов, которые можно составить из соответствующего числа букв (это число определяется номером данного каскада).
  3. Площади (размеры) дыр фрактала на каждом каскаде определяются общим количеством слов каждого варианта в тексте.
Пусть например, мы имеем алфавит всего из трёх букв: A,B,C. Тогда наш текстовый фрактал можно изобразить, например, так (для простоты изображены только первые три каскада):
К первому каскаду относятся три больших красных круга, площадь которых равна количеству соответствующих однобуквенных слов в тексте. Ко второму относятся 9 розовых кругов поменьше, и их площади равны количеству соответствующих двухбуквенных слов в тексте, и т.д. Площади кругов на каждом каскаде точно равны, поскольку все варианты слов у нас равновероятны.
Но раз случайные тексты мы можем рассматривать как фрактальные структуры, может быть, и "настоящие" тексты можно понимать так же?
Натуральный текст как каскадный фрактал
Вновь обратимся к фракталу случайного текста, в котором все буквы равновероятны. В этом случае размеры всех словесных групп на каждом каскаде в среднем одинаковы (этот факт и приводит к ступенчатому распределению). В том числе, это относится и к первому каскаду, на котором располагаются словесные группы однобуквенных слов. Естественно, что всего таких групп ровно столько, сколько всего букв в алфавите (пусть их, например, 25):
Но в натуральных текстах буквы не равновероятны, их частотность соответствует логарифмическому распределению. Это означает, что во фрактале натурального текста размеры (площади) словесных групп на первом каскаде распределялись бы логарифмически.
Мы знаем, что логарифмическое распределение размеров или площадей является характерной чертой плоского дробления континуума. Отсюда естественная идея взглянуть на структуру первого каскада фрактала натурального текста как на плоско и случайно раздробленный континуум. Этот континуум образован всеми однобуквенными словами текста и случайно раздроблен на куски, число которых равно числу букв в алфавите:
Такую же логику можно применить и ко второму каскаду текстового фрактала, в котором расположены все двух-буквенные слова и т.д. Так мы приходим к идее рассматривать любого рода тексты как фракталы, образованные алгоритмом каскадного дробления континуума. Тогда закон Зипфа в натуральных текстах получает своё основательное объяснение - ведь каскадное дробление континуума - это самый надёжный и простой метод получения распределений с β=1.
Кроме того, это даёт элегантное объяснение, почему частотность букв в натуральных текстах распределена логарифмически - потому что натуральные алфавиты представляют собой плоско и случайно раздробленные континуумы.
Познакомимся с некоторыми свидетельствами, что взгляд на натуральные тексты как на фракталы каскадного дробления континуума имеет под собой основания.
Свидетельство 1: Частотность длин слов
Даже идея рассматривать тексты как фракталы в прямом смысле этого слова достаточно нетривиальна. А чтобы их рассматривать как фракталы каскадного дробления континуума - это вообще кажется слишком причудливой гипотезой. Из неё следуют слишком невероятные следствия. Например, если тексты являются фракталами каскадного дробления в прямом смысле, то, теоретически, среднее число слов каждой длины в текстах должно быть одинаково. Это следует из того, что суммарная площадь кусков на каждом каскаде дробления континуума остается неизменной.
Конечно, это противоречит и здравому смыслу и модели случайного текста. Действительно, если существует некоторая постоянная и не равная нулю вероятность появления пробела в тексте, то чем длиннее слова, тем их должно быть меньше. Конкретно, как мы уже выяснили, для случайного текста общее число слов длины d соответствует выражению:
где N - общее число слов в тексте, а P2 - вероятность появления пробела. Возьмём, например, N=1000, а P2 = 0,2. Тогда число слов в зависимости от их длины будет выглядеть так:
Точки соответствуют спадающей геометрической прогрессии или так называемой показательной функции, которая в общем виде выглядит так:
Тут A - постоянная, а y0 - значение функции в точке x=0. Если A < 1, то мы получаем спадающую функцию. В нашем случае A = 1 - 0,2 = 0,8, поэтому количество слов в зависимости от длины спадает.
Полезная особенность показательной функции заключается в том, что если представить её в координатах, в которых ось Y взята не линейной, а логарифмической, то мы увидим прямую линию, наклон которой зависит от A. Линия будет горизонтальной, если A = 1.
Итак, тот же график с логарифмической шкалой Y:
(Обратим внимание на сходство показательной функции и логарифмической функции: логарифмическая функция выглядит на диаграмме линейно, если взять логарифмической ось X, а показательная функция - если взять логарифмической ось Y. Если взять логарифмическими обе оси, то линейно в таких координатах будет выглядеть степенная функция. Позже мы особо обсудим систематичность и глубокую взаимосвязь этих разных функций.)
В наших числовых опытах со случайными текстами параметр A прямо зависел от вероятности появления пробела P2:
Поскольку вероятность появления пробела была не нулевой, мы получали A меньше 1, а значит, спадающее количество слов в зависимости от их длины, соответствующее показательной функции.
Полезно проиллюстрировать как текст, разделяемый проблами с уменьшением P2 до нуля постепенно превращается в дробящийся континуум:
Построим опытное распределение длин слов случайного текста в координатах, в которых ось Y взята логарифмической:
Мы видим: из-за того, что P2 не равна 0, распределение вполне соответствует показательной функции.
Итак, в опытном случайном тексте число слов от каскада к каскаду спадает, а значит, требование одинакового числа слов разной длины не выполняется. Чтобы их число было одинаково, необходимо, чтобы выполнялось вроде бы абсурдное требование - вероятность появления пробела P2 была бы равной нулю. Но взглянем на распределение длин слов в натуральном тексте:
Сравним опытное и натуральное распределения. Конечно, и то и другое в конечном итоге спадает - естественно, что в естественном языке очень длинные слова встречаются редко. Но между ними есть и принципиальная разница: начало натурального распределения - вплоть до слов длины в 7 букв - имеет уплощённую вершину. Это означает, что в натуральных текстах слова с длиной от 1 до 7 букв встречаются примерно одинаково часто.
Мы нашли важную разницу между случайными и натуральными текстами. Натуральные тексты, как это ни странно, лучше соответствуют модели каскадного дробления континуума - по меньшей мере, до 7 каскада общее число слов на каждом каскаде примерно одинаково. И это при том, что вероятность появления пробела P2 в натуральных текстах вовсе не равна 0.
Свидетельство 2: β меньше 1
Идеальный закон Зипфа с β = 1 в случайном тексте может выполняться при условии, что вероятность появления пробела в тексте P2 стремится к нулю. Поскольку в любом правдоподобно схожем с натуральным тексте это условие не может быть выполнено, β для частотности слов случайных текстов всегда несколько выше 1. Но даже в "абстрактных" случаях, когда вероятность пробелов крайне низкая, значение β не может быть меньше 1.
В натуральных текстах значение β заметно меньше 1 встречается довольно часто. Вот пример:
Вот ещё один:
Конечно, возможность появления в текстах β меньше 1 бросает камень и в огород модели каскадного дробления континуума (в ней β равна точно 1), но элегантного объяснения, как возможны такие величины β, модель случайного текста не даёт, это невозможно. Напротив, модель текста как результата каскадного дробления континуума предлагает тут эстетически безупречное объяснение, к которому мы ещё обратимся. Пока же зафиксируем главное: если натуральные тексты демонстрируют отличное соблюдение степенного закона в распределениях частотности слов, но при этом β существенно меньше 1, то это ставит крест на теории случайных текстов. В случайных текстах такие показатели попросту невозможны.
Свидетельство 3: не-буквенные языки
Если читатель внимательно следил за нашей логикой, он согласится: причиной появления распределений частотности слов случайных текстов, близких к закону Зипфа, является комбинаторное, вероятностное сочетание букв алфавита случайного текста. Однако, существуют натуральные языки, слова которых не являются комбинациями букв и при этом частотность слов этих языков соответствует закону Зипфа. В частности, проводились исследования древнего африканского иероглифического меротитского языка и закон Зипфа оказался полезным инструментом при его расшифровке.
Но я хочу показать, что ситуация даже серьезнее. Можно убедиться, что даже искусственные символические системы, которые даже "языками" назвать не так легко, могут демонстрировать закономерности, близкие закону Зипфа. К примеру, электронные схемы, которые в некотором роде являются "текстами" на особом языке электронной схемотехники:
Это фрагмент электронной схемы советского усилителя "Одиссей". Частотный анализ компонентов этой схемы (символов, обозначающих резисторы, конденсаторы, транзисторы и т.д.) даёт следующее распределение:
Задумаемся, что это означает. Возможно, не сам язык как знаковая система требует выполнения закона Зипфа, а какая-то особенность нашего восприятия и представления мира (в данном случае - мира электронных процессов). Совокупность этих особенностей мы и называем когнитивным порядком.
И всё же, даже если тексты являются каскадно раздробленными континуумами, реальная картина существенно отличается от нашей идеальной. Не только тем, что длинных слов в русских текстах всё же меньше, чем коротких. Дело ещё и в другом. В идеальной картине самыми частотными словами в тексте являются однобуквенные слова, состоящие из самых частотных букв. Но в натуральном языке не так. Например, в русском языке самой частотной буквой является буква "о". Но слово "о" имеет только 44 ранг по частотности - а в идеальной картине должно бы иметь первый. Наоборот, однобуквенное слово "и" в русском языке имеет первый ранг, но сама эта буква - лишь четвёртая по частотности.
Эти расхождения, вероятно, связаны с тем, что в натуральных текстах как каскадных фракталах основной единицей следует считать не отдельные буквы, а какие-то другие единицы языка. Впрочем, эта тема требует особого разговора, также как и тема неких волокон, которые должны существовать в натуральных текстах, если они представляют собой фракталы каскадного дробления.
Итак, закон Зипфа в распределениях населения по городам и в частотности слов натуральных текстов может быть фундаментально объяснён тем, что страны и провинции как социально-географические организмы, и тексты как "лингвистические организмы" представляют собой фракталы каскадного дробления континуума. Самое время заняться этим типом фракталов серьезнее. Этим мы далее и займёмся.
1
"Но в натуральных текстах буквы не равновероятны, их частотность соответствует логарифмическому распределению"
Роман, а это точно так, не степенной хвост, а экспонентциальный? Можете привести свои данные, ссылки?
С уважением,
druggist
druggist (26.11.2012 9:09)
2
Данные в сети
Можно найти хорошую статистику русского языка по большому корпусу текстов разных жанров и времени - есть какой-то справочник. По частотности слов, букв и т.д. Но точную ссылку не сохранил.
Установить, как распределяется частотность букв очень просто на основе любого текста и простейшего подсчета - закономерность становится ясной быстро. Оно точно не степенное.
С уважением,
Роман Уфимцев (26.11.2012 9:42)
3
Да, точно не степенное
Нашел также статистику для двухбуквенных сочетаний, тоже не степенное, экспонента скорее. Вот только вопрос, это данные по частоте взяты из натурального текста или из словаря(то есть каждое слово взято один раз)?
druggist (6.02.2013 19:33)
4
Не знаю, какие данные вам попались
В том справочнике, что видел я, анализировался корпус натуральных текстов. Будут ли отличия в словарных списках слов - вопрос интересный, но скорее всего качественных отличий не будет.
Роман Уфимцев (6.02.2013 21:00)
5
Хотелось бы этот момент прояснить. Возможно, менее употребительные слова появились позже по мере развития языка и формировались из менее употребительных(менее занятых?) букв. Если так, то различие при вычислении частот в обоих случаях может быть принципиальным
druggist (6.02.2013 23:22)
6
:)
А не наоборот - новые слова появлялись из самых употребительных? Уверен на 90, что именно так. От этого статистика Зипфа и появляется.
Мне кажется, вы не любите открытые и растущие системы, а язык именно открытая и растущая :)
Роман Уфимцев (7.02.2013 0:15)
7
Проверил, спад именно логарифмический, типа у=a-b*Log(x) как вы говорили. То есть "хвост" не экспоненте и даже не степенной, а еще жирнее:). Выборка что из натурального текста, что из словаря дает примерно одинаковую зависимость. Добавил знаки препинания, пробелы абзацы характер зависимости не меняется. Очень интересно...
druggist (9.02.2013 9:24)
8
Вы про буквы или про слоги?
И про какое распределение - ранговое или частотное? (Я сам немного виноват в путанице, потому что использую в Прологах и те и те).
Роман Уфимцев (9.02.2013 9:28)
9
Про буквы. Ранговое. Это значит, что плотность вероятности или частотное распределение все-таки спадающая экспонента типа A*exp(-b*x). То есть спад обычный. Виноват, поторопился. Привык работать с частотными распределениями(плотностью вероятности), они физичнее:)
druggist (9.02.2013 9:39)
10
Экспонента в распределениях частоты букв
Она обычна в физических системах. Но тут частоты букв, так что тут всё-таки есть о чём подумать. Тут может быть что-то связанное с принципом максимума энтропии.
Роман Уфимцев (9.02.2013 10:30)
11
Вот как может быть
В Прологе 76 описан процесс дельтаА(1), он как раз порождает экспоненциальные распределения. И в этом свете дело выглядит так: пусть текст - это растущее множество, в котором каждый объект это буква алфавита. Чем больше раз буква встречалась уже в тексте, тем выше масса объекта. Тогда каждая следующая буква текста - это частица, которая может присоединиться к одному из уже имеющихся объектов. Буква присоединяется с равной вероятностью к одному из имеющихся "алфавитных объектов" - это и есть принцип максимума энтропии.
Проблема только в том, что для получения экспоненциального распределения необходимо, чтобы у любой новой "налетающей" буквы был некоторый постоянный шанс стать совершенно новой буквой, которая ещё не встречалась в тексте. Пока речь идет о небольших текстах, это легко понять, но когда мы имеем дело с большими, в которых заведомо встречаются уже все буквы обычного алфавита - появляется проблема. Как в этих условиях у каждой новой "налетающей" буквы остаётся шанс стать новым объектом? Как это понимать?
Тут что-то любопытное, похоже.
Роман Уфимцев (9.02.2013 11:34)
12
Вспомните статью Симона, я вам давал ссылку. Там как раз получается экспонента, если не добавлять палочки(bar), а звездочки(star) бросать произвольно на свободное место между объектами. Это не стационарный процесс - число звездочек растет. Можно также добавлять и палочки, но тоже произвольно(важно!) на любое место ( А можно тасовать колоду и также получать экспоненту:). А вот если добавлять палочку рядом с уже имеющейся(важно!), то получается степенной спад.
Это типично для неразличимых частиц: чтобы энтропия была максимальной, числа заполнения состояний должны быть размазаны по оси m. Какое это имеет отношения к позициям в тексте и набору символов, из которых состоит текст -непонятно. Но уже при переходе вместо символов к словам и тексту вместо экспоненты имеем степенной спад (Ципф)
druggist (9.02.2013 16:12)
13
Статья Симона
Я пока отложил её, поскольку мне стало ясно как и вам, что статистика Бозе-Эйнштейна там вообще ни при чем. Что касается описанной модели звезд и перегородок, то она интересная, но по всей видимости, обе симоновские вариации окажутся двумя типами дельта-процессов, почти уверен. Так что я пока доразберусь с дельта-процессами.
Что касается закона Зипфа в текстах - он возникает, если более-менее строго выполняется условие: вероятность, что очередное слово текста окажется уникальным равна отношению объему лексикона текста к его объему в количестве слов. Вот почему это условие выполняется, мне пока не понятно.
Роман Уфимцев (9.02.2013 18:31)
14
Some Distributions Associated with Bose-Einstein Statistics
Я проанализировал два варианта модели в статье Ижири и Симона, предположения подтвердились. Первый вариант модели точно тождественен процессу дельтаM(1), то есть, процессу Юла. Второй вариант - аналитически совпадает с процессом дельтаA(1), хотя выглядит с виду иначе. Подробнее в постскриптуме к Прологу 80.
Роман Уфимцев (26.02.2013 12:10)
Ваш комментарий
image Поля, отмеченные звездочкой, нужно обязательно заполнить
Заголовок комментария:
image Текст комментария: (не более 2000 символов, HTML-разметка удаляется)
image Ваше имя:
Ваш E-mail:
image Сколько будет дважды два? (ответьте цифрой, это проверка от спам-рассылок)
Отправить комментарий
Главные темы
Внимание (8)Геогештальт (1)Гештальт (16)Динамика внимания (5)Инсайт (5)Интуиция (2)Кибернетика (5)Когнитивное управление (6)Когнитивный анализ (4)Когнитивный словарь (5)Культура наблюдения (5)Мерцающие зоны (7)Метафизика (3)Метафора (13)Механизмы восприятия (15)Мифы и парадигмы (7)Органическая логика (5)Прогнозирование (6)Роль языка (4)Симметрии (5)Синхронизмы (5)Сложные системы (10)Степенной закон (8)Творческое мышление (5)Три уровня систем (4)Управление знаниями (3)Фазы развития (7)Фракталы (18)Цветные шумы (9)
КОГНИТИВИСТ: когнитивные методы и технологии © Роман Уфимцев, при поддержке Ателье ER