загрузка...

трусы женские
загрузка...
Реферати » Реферати по статистиці » Теорія ймовірності

Теорія ймовірності


Ймовірність і розподіл ймовірності.

1. Предмет теорії ймовірності. Ймовірність і статистика.

2. Основні категорії теорії ймовірності.

3. Класичне і статистичне визначення ймовірності.

4. Теорема додавання ймовірностей.

5. Теорема множення ймовірностей.

6. Слідство теорем додавання і множення ймовірностей.

7. Ймовірність гіпотез. Формула Байєса.

8. Незалежні події. Біноміальний розподіл.

9. Ймовірність рідкісних подій. Формула Пуассона.

10. Локальна теорема де Муавра-Лапласа.

11. Інтегральна формула Лапласа.

12. Залежні події. Гипергеометрическое розподіл.

13. Нормальний розподіл.

14. Порівняльна оцінка параметрів емпіричного і нормального розподілів. Критерій Пірсона.

1. Предмет теорії ймовірності. Ймовірність і статистика.

Теорія ймовірності і математична статистика - це наука, що займається вивченням закономірностей масових випадкових явищ, тобто статистичних закономірностей. Такі ж закономірності, тільки в більш вузькій предметній області соціально-економічних явищ, вивчає статистика. Між цими науками є спільність методології і високий ступінь взаємозв'язку. Практично будь-які висновки зроблені статистикою розглядаються як імовірнісні.

Особливо наочно імовірнісний характер статистичних досліджень проявляється у вибірковому методі, оскільки будь-який висновок зроблений за результатами вибірки оцінюється із заданою ймовірністю.

З розвитком ринку поступово зрощується ймовірність і статистика, особливо наочно це проявляється в управлінні ризиками, товарними запасами, портфелем цінних паперів і т.п. За кордоном теорія ймовірності та математична статистика застосуються дуже широко. У нашій країні поки широко застосовується в управлінні якістю продукції, тому поширення і впровадження в практику методів теорії ймовірності актуальне завдання.

2. Основні категорії теорії ймовірності.

Як і наука, теорія ймовірності та математична статистика оперують рядом основних категорій:

- Події;

- Ймовірність;

- Випадковість;

- Розподіл ймовірностей і т.д.

Події - називається довільне безліч деякого безлічі всіх можливих результатів, можуть бути:

. Достовірні;

. Неможливі;

. Випадкові.

Вірогідним називається подія, яка завідомо відбудеться при дотриманні певних умов.

Неможливим називається подія, яка явно не станеться при дотриманні певних умов.

Випадковим називають події, які можуть статися або статися при дотриманні певних умов.

Події називають едінственновозможнимі, якщо настання одного з них ця подія достовірне.

Події називають рівноможливими, якщо жодне з них не є більш можливим, ніж інші.

Події називають несумісними, якщо поява однієї з них виключає можливість появи іншого в тому ж випробуванні.

3. Класичне і статистичне визначення ймовірності.

Ймовірність - чисельна характеристика реальності появи тієї чи іншої події.

Класичне визначення ймовірності: якщо безліч можливих результатів кінцеве число, то ймовірністю події Є вважається відношення числа фіналів благоприятствующих цій події до загального числа едінственновозможних равновозможних результатів.

Безліч можливих результатів в теорії ймовірності називається простором елементарних подій.

Простір елементарних подій завжди можна описати числом nS = 2, nS = 6.

Якщо позначити число фіналів сприятливих події n (E), то ймовірність події Е буде виглядати. Для наших прикладів.

Виходячи з класичного визначення ймовірності, можна вивести її основні властивості:

1) Ймовірність достовірної події дорівнює 1

2) Ймовірність неможливого події дорівнює 0

3) Ймовірність випадкової події знаходиться в межах від 0 до 1

Класичне визначення ймовірності пов'язане з безпосереднім підрахунком ймовірності, вимагає точного знання числа всіх можливих результатів, і зручно для розрахунку ймовірності досить простих подій.

Розрахунок ймовірності складніших подій - це складне завдання, потребує визначення чисел всіх можливих комбінацій появи цих подій. Подібними розрахунками займається спеціальна наука - комбінаторика.
Тому на практиці часто використовується статистичне визначення ймовірності.
| Ціна, | Обсяг продажів, т | Частка в загальному обсязі продажів |
| руб. / Кг | | |
| 15 | 45 | 0,45 |
| 20 | 35 | 0,35 |
| 25 | 20 | 0,2 |
| | 100 | 1,0 |

Доведено, що при багаторазовому повторенні досвіду частости досить стійкі і колеблятся близько деякого постійного числа, що представляє собою ймовірність події.

Таким чином, в умовах масових випробувань розподіл частостей перетворюється на розподіл ймовірності випадкової зміни.

Гідність статистичного визначення ймовірності в тому, що для її розрахунку не обов'язково знати кінцеве число фіналів.

Якщо класичне визначення ймовірності здійснюється апріорі (до досвіду), то статистичне апосторіорі (після досвіду за результатами).

Розподіл частостей дискретного ряду, виражених кінцевими числами, називається дискретним розподілом ймовірності.

Якщо здійснюються дослідження масових подій частостей, які розподіляються безперервно і можуть бути виражені будь-якої функцією, називаються безперервним розподілом ймовірності.

На графіку такий розподіл відбивається безперервної плавною лінією, а площа обмежена цією лінією і віссю абсцис завжди дорівнює 1

4. Теорема додавання ймовірностей.

Сумою або об'єднанням подій Е1 і Е2, називають подією Е, що складається в появі події Е1 або Е2 або обох цих подій.

Площа прямокутника - це простір елементарних подій (число єдино можливих равновозможних результатів). Площі кіл Е1 і Е2 відповідно - це числа фіналів благоприятствующих подіям Е1 і Е2.

- Число появ фіналів благоприятствующих подіям Е1 або Е2 або обох цих подій.

Тобто ймовірність появи хоча б однієї з двох несумісних подій дорівнює сумі ймовірності цих подій.

Дана формула є окремим випадком теореми додавання ймовірностей.

Доводиться загальний випадок теореми методом математичної індукції, шляхом послідовної розбивки складної події на пари.

Приклад: За результатами спостереження за продажем чоловічих костюмів отримані наступні дані про ймовірність продажу костюмів різних розмірів.
| Розмір | 48 | 50 | 52 | 54 | 56 | 58 | 60 |
| Ймовірність | 0,16 | 0,22 | 0,2 | 0,19 | 0,07 | 0,05 | 0,02 |

Сукупність єдино можливих подій називається повною групою або повною системою.

Сума ймовірностей подій, що утворюють повну систему дорівнює 1

утворюють повну систему, тоді ймовірність появи хоча б однієї події дорівнює 1

Водночас не спільний, тоді з теорії складання ймовірностей
.

Приклад: З кожних 10 відвідувачів магазина 6 не роблять покупок.

Імовірність появи хоча б однієї з цих подій дорівнює 1

Два одноразово можливих події, що утворюють повну групу, називаються протилежними (наприклад: орел і решка).

Сума ймовірностей протилежних подій дорівнює 1

Якщо випадкова подія Е має дуже малу ймовірність, то практично можна вважати, що в одиничному випробуванні ця подія не відбудеться. Якщо
.

На практиці досить малої вважається ймовірність Р (Е) (0,1.

Ігнорувати можливість появи рідкісних подій на увазі їх малу ймовірність на практиці можна тільки в тому випадку, якщо ця подія не має катастрофічних наслідків.

Якщо випадкова подія має ймовірність дуже близьку до 1, то в конкретному випробуванні ця подія, швидше за все, відбудеться.

5. Теорема множення ймовірностей.

Дві події вважаються незалежними, якщо ймовірність однієї з них не залежить від появи або непояви іншої події.

Незалежні події мають місце при повторному відборі, коли відібрана в першому випробуванні одиниця після реєстрації результату випробування повертається в генеральну сукупність.

Ймовірність спільної появи двох незалежних подій Е1 і Е2 дорівнює добутку їх ймовірностей.

n (E1) - число фіналів сприятливих події Е1; n (E2) - число фіналів сприятливих події Е2; n1 - число фіналів сприятливих і несприятливих події Е1; n2 - число фіналів сприятливих і несприятливих події Е2.

Оскільки кожний конкретний результат випробування може здійснитися в комбінації з будь-яким іншим можливим результатом випробування, ймовірність спільної появи подій Е1 і Е2 можна визначити за формулою:

Кілька подій називаються спільно незалежними або незалежними в сукупності, якщо кожна з них і будь-яка комбінація з них містить або всі інші події, або частина з них - є події незалежні.

Е1 Е2 Е3

Е1 і Е2 - незалежні;

Е1 і Е3 - незалежні;

Е2 і Е3 - незалежні;

Е1 і Е2Е3 - незалежні;

Е2 і Е1Е3 - незалежні;

Е3 і Е1Е2 - незалежні.

Попарно незалежність подій не означає їх незалежність сукупності, проте незалежність подій в сукупності обумовлює їх попарно незалежність.

Ймовірність спільної появи декількох подій незалежні разом дорівнює добутку ймовірностей цих подій.

Так само доводиться по методу математичної індукції (тобто послідовним діленням на пари),

Імовірність появи хоча б однієї з незалежних в сукупності подій дорівнює різниці між 1 і твором ймовірностей протилежних подій.

Твір ймовірностей протилежних подій дозволяє визначити ймовірність їх спільного появи, то є ймовірність того, що не відбудеться жодної з подій.

Але спільна поява протилежних подій і якого-небудь з подій - складають повну групу, при цьому сума ймовірностей таких подій дорівнює 1

Приклад: Ймовірність придбання жіночого плаття становить 0,09.

= 0,09

= 0,03 (пальто)

= 0,02 (плащі)

Яка ймовірність, що відвідувач купить хоча б одну з цих речей?

Якщо події рівноймовірно, тобто ==, то рівноімовірні і протилежні їм події q1 = q2 = ... = qm, тоді ймовірність появи хоча б однієї з цих подій.

Дві події

Сторінки: 1 2 3 4
загрузка...
ur.co.ua

енциклопедія  з сиру  аджапсандалі  ананаси  узвар