edgeways.ru
Список форумов
Консилиумъ
Вопросы истории и хронологии. Научный форум. 
Задача по ТВ и комбинаторике
Пользователь: Nil (IP-адрес скрыт)
Дата: 25, August, 2017 23:15

Для простоты используем русский алфавит.

Сгруппируем согласные и гласные по группам:

1.

а.) Б, П, В, Ф;
б.) Г, K, Х, Ж
в.) Ц, Ч, Ш, Щ
г.) З, С
д.) Д, Т
е.) Л
ж.) М
з.) Н
и.) Р

2.
а) А, Я, Е, Ё, Э, О, И, Ы, Й
б) У, Ю

Пусть условно мы получили 9 согласных и 2 гласных звука.

А теперь в корнях слов рассмотрим открытые слога CV. Всего 18 смежных классов.

Возьмем ДВА языка. Пусть словарь каждого языка состоит всего из 180 слов, тогда для простоты положим, что в каждом классе оказывается по 10 слов.

Какова вероятность совпадения слов по звучанию-форме (открытым слогам) и значению?

У нас гипергеометрическое распределение
[ru.wikipedia.org]

Hypergeometric distribution for parameters N = 180, D = 10, n = 10:
0 0.556078781908773
1 0.345390547769424
2 0.086347636942356
3 0.011301122217404
4 0.000844138702215
5 0.000036835143369
6 0.000000924576892
7 0.000000012654602
8 0.000000000084741
9 0.000000000000223
10 0.000000000000000

Какова вероятность такого события для 6 слов? 0.000000924576892 ~ одна миллионная.

В жизни, конечно, все сложнее.

А если у нас словари из 1080 слов? Тогда ~ одна миллионная при 14 совпадениях:

Hypergeometric distribution for parameters N = 1080, D = 60, n = 60:
0 0.029313196650337
1 0.109810101915933
2 0.198674098112974
3 0.231339448270005
4 0.194922683461942
5 0.126689644629357
6 0.066120803140753
7 0.028484009744192
8 0.010332074298997
9 0.003203523552860
10 0.000859006676391
11 0.000201059516054
12 0.000041387508406
13 0.000007538684431
14 0.000001221249187
15 0.000000176694925
16 0.000000022912860
17 0.000000002670799
18 0.000000000280522
19 0.000000000026603
20 0.000000000002282
21 0.000000000000177
22 0.000000000000012
23 0.000000000000001

А если считать не только для открытых слогов CV? Число классов резко увеличится и сомнительно, что можно найти хотя бы 3 случайных совпадения.

Даже в нашем случае, если число согласных звуков будет 9, а гласных 4, то уже при 4 совпадениях вероятность составит ~ одну миллионную. При пяти ~ одну миллиардную.

Hypergeometric distribution for parameters N = 180, D = 5, n = 5:
0 0.867214408312659
1 0.126785732209453
2 0.005897010800440
3 0.000102260302898
4 0.000000587702890
5 0.000000000671660

Для словаря из 1080 слов вероятность ~ одна миллионная возникнет уже при 8 совпадениях.

Hypergeometric distribution for parameters N = 1080, D = 30, n = 30:
0 0.424496587113459
1 0.374188960237133
2 0.153959352034946
3 0.039330117952231
4 0.006999916012494
5 0.000923305995014
6 0.000093740455959
7 0.000007510711174
8 0.000000483118460
9 0.000000025248821
10 0.000000001081042
11 0.000000000038129
12 0.000000000001111
13 0.000000000000027
14 0.000000000000001
15 0.000000000000000

======================================

Один известный специалист по Теории Вероятностей и Комбинаторике сказал:

«Случайное совпадение внешних оболочек двух слов может соединиться со случайным совпадением их значений. В самом деле, случайных созвучий в языках так много, что по элементарным законам теории вероятностей в какой-то их доле непременно окажутся близкими также и значения созвучных слов. Таких примеров немного, но всё же они существуют. Вот некоторые примеры сходства как формы, так и значения, за которым, однако, не стоит ни отношения родства, ни отношения заимствования, то есть ничего, кроме чистой случайности.

Итальянское stran-o ‘странный’ и русское странный одинаковы по значению и имеют одинаковый корень (но итальянское слово произошло из латинского extraneus ‘внешний, посторонний, иностранный’, от extra ‘вне’, а в русском тот же корень, что в страна, сторона).

Персидское bäd ‘плохой’ как по звучанию, так и по значению практически совпадает с английским bad ‘плохой’, но родства между ними нет.

Таджикское назорат ‘надзор’ очень похоже на русское надзор (но в действительности оно заимствовано из арабского).

Чешское vudle ‘воля’ очень похоже на новогреческое ůle ‘воля’; но родства между ними нет.

Древнеяпонское womina ‘женщина’ очень похоже на английское woman ‘женщина’ (пример С. А. Старостина).»

Перейти: <>
Опции: ОтветитьЦитировать

Тема Написано Дата
Задача по ТВ и комбинаторике Nil 25.08.2017 23:15
Отв: Задача по ТВ и комбинаторике gogasy 26.08.2017 09:40
Отв: Язык средство социализации Ez_jar 26.08.2017 11:10
Отв: Язык средство социализации PycLat 26.08.2017 15:04
Отв: О "разумных" муравьях Ez_jar 26.08.2017 15:56
Отв: одна из точек зрения gogasy 26.08.2017 19:52
Самое наглядное для изучения - это куриное яйцо. Nil 26.08.2017 22:31
Отв: я о достоверной фактологии Ez_jar 27.08.2017 11:27
Муравьи Nil 26.08.2017 17:04
Отв: Муравьи не человек Ez_jar 26.08.2017 17:15
Отв: Муравьи не человек Nil 26.08.2017 22:32
Отв: Задача по ТВ и комбинаторике Nil 26.08.2017 17:06
Отв: Задача по ТВ и комбинаторике Ez_jar 26.08.2017 17:17
Отв: Задача по ТВ и комбинаторике Nil 26.08.2017 22:33
Отв: меня невозможно чем либо задеть(tu) gogasy 27.08.2017 16:57
Отв: меня невозможно чем либо задеть, а других? Ez_jar 27.08.2017 17:48
Логосчёт GuestTemp 12.09.2017 19:47
Отв: Логосчёт(tu) АН-2 12.09.2017 20:09
Отв: Логосчёт(td)(tu) грум 12.09.2017 20:32
Мастер шутит АН-2 12.09.2017 22:09
Отв: Логосчёт gogasy 13.09.2017 02:18
Отв: Логосчёт АН-2 13.09.2017 12:23


Ваше имя: 
Ваш email: 
Тема: 
Smileys
...
(loading smileys)
Незарегистрированный пользователь должен ввести код, чтобы публиковать сообщение. Действителен только последний показанный код.
Введите код:  Картинка
В онлайне
PycLat
Гости: 20

This forum powered by Phorum.

Large Visitor Globe