Titre : | Chaînes de Markov : théorie, algorithmes et applications | Type de document : | texte imprime | Auteurs : | Bruno Sericola | Editeur : | Paris : Hermes science publ. | Année de publication : | DL 2013, cop. 2013 | Autre Editeur : | Lavoisier | Collection : | Collection Méthodes stochastiques appliquées,1956-6808 | Importance : | 389 p. | Format : | 24 cm | ISBN/ISSN/EAN : | 978-2-7462-3916-6 | Note générale : | Bibliogr. p. [379]-386. Index | Langues : | Français | Mots-clés : | Markov, Processus de Processus stochastiques Processus de naissance et de mort (processus stochastiques) Files d'attente, Théorie des | Index. décimale : | 519.233 | Résumé : |
Les chaînes de Markov sont des modèles probabilistes utilisés dans des domaines variés comme la logistique, l'informatique, la fiabilité, les télécommunications, ou encore la biologie et la physique-chimie. On les retrouve également dans la finance, l'économie et les sciences sociales. Cet ouvrage présente une étude approfondie des chaînes de Markov à temps discret et à temps continu avec des applications détaillées aux processus de naissance et mort et aux files d'attente. Ces applications sont illustrées par des algorithmes généraux de calcul de probabilités d'état et de distribution de temps de passage. Le développement de ces algorithmes repose sur l'utilisation de la technique d'uniformisation des chaînes de Markov qui est présentée de manière théorique et intuitive. Ce livre s'adresse aux ingénieurs et chercheurs ayant besoin de modèles probabilistes pour évaluer et prédire le comportement des systèmes qu'ils étudient ou qu'ils développent. Il est aussi très bien adapté pour un cours de master.
| Note de contenu : |
P. 13. Chapitre 1. Chaînes de Markov à temps discret
P. 13. 1.1. Définitions et propriétés
P. 17. 1.2. Propriété de Markov forte
P. 19. 1.3. Etats récurrents et transitoires
P. 24. 1.4. Classification des états
P. 26. 1.5. Visites à un état
P. 29. 1.6. Décomposition de l'espace d'états
P. 34. 1.7. Chaînes de Markov irréductibles et récurrentes
P. 41. 1.8. Chaînes de Markov apériodiques
P. 45. 1.9. Convergence vers l'équilibre
P. 51. 1.10. Théorème ergodique
P. 61. 1.11. Premier temps de passage et nombre de visites
P. 61. 1.11.1. Premier temps de passage à un état
P. 66. 1.11.2. Premier temps de passage à un sous-ensemble d'états
P. 72. 1.11.3. Nombre moyen de visites
P. 75. 1.12. Chaînes de Markov finies
P. 77. 1.13. Chaînes de Markov absorbantes
P. 82. 1.14. Exemples
P. 82. 1.14.1. Chaîne à deux états
P. 83. 1.14.2. La ruine du joueur
P. 87. 1.14.3. Suites de succès
P. 91. 1.15. Notes bibliographiques
P. 93. Chapitre 2. Chaînes de Markov à temps continu
P. 96. 2.1. Définitions et propriétés
P. 97. 2.2. Fonctions de transition et générateur infinitésimal
P. 111. 2.3. Equation backward de Kolmogorov
P. 117. 2.4. Equation forward de Kolmogorov
P. 129. 2.5. Existence et unicité des solutions
P. 131. 2.6. Etats récurrents et transitoires
P. 139. 2.7. Classification des états
P. 142. 2.8. Explosion
P. 149. 2.9. Chaînes de Markov irréductibles et récurrentes
P. 163. 2.10. Convergence vers l'équilibre
P. 166. 2.11. Théorème ergodique
P. 172. 2.12. Premiers temps de passage
P. 172. 2.12.1. Premier temps de passage à un état
P. 176. 2.12.2. Premier temps de passage à un sous-ensemble d'états
P. 183. 2.13. Chaînes de Markov absorbantes
P. 189. 2.14. Notes bibliographiques
P. 191. Chapitre 3. Processus de naissance et de mort
P. 191. 3.1. Processus de naissance et de mort discret
P. 200. 3.2. Processus de naissance et de mort discret absorbant
P. 201. 3.2.1. Temps de passage et convergence vers l'équilibre
P. 203. 3.2.2. Nombre moyen de visites
P. 207. 3.3. Processus de naissance et de mort discret périodique
P. 208. 3.4. Processus de naissance pure continu
P. 212. 3.5. Processus de naissance et de mort continu
P. 214. 3.5.1. Explosion
P. 216. 3.5.2. Récurrence positive
P. 218. 3.5.3. Premier temps de passage
P. 223. 3.5.4. Chaîne explosive ayant une probabilité invariante
P. 224. 3.5.5. Chaîne explosive sans probabilité invariante
P. 225. 3.5.6. Chaîne incluse récurrente positive ou récurrente nulle
P. 225. 3.5.6.1. X récurrente positive et Y récurrente nulle
P. 226. 3.5.6.2. X récurrente nulle et Y récurrente positive
P. 226. 3.6. Processus de naissance et de mort continu absorbant
P. 227. 3.6.1 Temps de passage et convergence vers l'équilibre
P. 229. 3.6.2. Explosion
P. 231. 3.7. Notes bibliographiques
P. 233. Chapitre 4. Uniformisation
P. 233. 4.1. Généralités
P. 235. 4.2. Espaces et algèbres de Banach
P. 241. 4.3. Matrices et vecteurs infinis
P. 246. 4.4. Processus de Poisson
P. 250. 4.4.1. Statistiques d'ordre
P. 252. 4.4.2. Calcul de la distribution de Poisson pondérée
P. 256. 4.4.3. Calcul du seuil de troncature
P. 261. 4.5. Chaînes de Markov uniformisables
P. 271. 4.6 Premier temps de passage à un sous-ensemble d'états
P. 273. 4.7. Chaînes de Markov finies
P. 273. 4.8 Régime transitoire
P. 274. 4.8.1. Calcul des probabilités d'état
P. 277. 4.8.2. Calcul de la distribution du premier temps de passage
P. 279. 4.8.3. Application aux processus de naissance et de mort
P. 283. 4.9 Notes bibliographiques
P. 285. Chapitre 5. Files d'attente
P. 286. 5.1. La file M/M/1
P. 287. 5.1.1. Probabilités d'état
P. 300. 5.1.1.1. La file est initialement vide
P. 304. 5.1.1.2. Cas général
P. 307. 5.1.2. Distribution de la durée de la période d'occupation
P. 312. 5.2 La file M/M/c
P. 314. 5.3. La file M/M/(...)
P. 318. 5.4. Distributions de type phase
P. 322. 5.5. Processus d'arrivées markoviens
P. 322. 5.5.1. Définition et régime transitoire
P. 332. 5.5.2. Distribution jointe des interarrivées
P. 336. 5.5.3. Processus de renouvellement de type phase
P. 337. 5.5.4. Processus de Poisson modulés par une chaîne de Markov
P. 338. 5.6. Processus d'arrivées markoviens par groupes
P. 338. 5.6.1. Définition et régime transitoire
P. 344. 5.6.2. Distribution jointe des interarrivées
P. 347. 5.7. Chaînes de Markov structurées par blocs
P. 350. 5.7.1. Régime transitoire des chaînes SFL
P. 350. 5.7.1.1. Probabilités d'état
P. 354. 5.7.1.2. Distribution de la durée de la période d'occupation
P. 358. 5.7.2. Régime transitoire des chaînes SFR
P. 359. 5.7.2.1. Probabilités d'état
P. 361. 5.7.2.2. Distribution de la durée de la période d'occupation
P. 364. 5.8. Applications
P. 365. 5.8.1. La file M/PH/1
P. 366. 5.8.2. La file PH/M/1
P. 367. 5.8.3. La file PH/PH/1
P. 368. 5.8.4. La file PH/PH/c
P. 370. 5.8.5. La file BMAP/PH/1
P. 371. 5.8.6. La file BMAP/PH/c
| Permalink : | ./index.php?lvl=notice_display&id=12067 |
Chaînes de Markov : théorie, algorithmes et applications [texte imprime] / Bruno Sericola . - Paris : Hermes science publ. : [S.l.] : Lavoisier, DL 2013, cop. 2013 . - 389 p. ; 24 cm. - ( Collection Méthodes stochastiques appliquées,1956-6808) . ISBN : 978-2-7462-3916-6 Bibliogr. p. [379]-386. Index Langues : Français Mots-clés : | Markov, Processus de Processus stochastiques Processus de naissance et de mort (processus stochastiques) Files d'attente, Théorie des | Index. décimale : | 519.233 | Résumé : |
Les chaînes de Markov sont des modèles probabilistes utilisés dans des domaines variés comme la logistique, l'informatique, la fiabilité, les télécommunications, ou encore la biologie et la physique-chimie. On les retrouve également dans la finance, l'économie et les sciences sociales. Cet ouvrage présente une étude approfondie des chaînes de Markov à temps discret et à temps continu avec des applications détaillées aux processus de naissance et mort et aux files d'attente. Ces applications sont illustrées par des algorithmes généraux de calcul de probabilités d'état et de distribution de temps de passage. Le développement de ces algorithmes repose sur l'utilisation de la technique d'uniformisation des chaînes de Markov qui est présentée de manière théorique et intuitive. Ce livre s'adresse aux ingénieurs et chercheurs ayant besoin de modèles probabilistes pour évaluer et prédire le comportement des systèmes qu'ils étudient ou qu'ils développent. Il est aussi très bien adapté pour un cours de master.
| Note de contenu : |
P. 13. Chapitre 1. Chaînes de Markov à temps discret
P. 13. 1.1. Définitions et propriétés
P. 17. 1.2. Propriété de Markov forte
P. 19. 1.3. Etats récurrents et transitoires
P. 24. 1.4. Classification des états
P. 26. 1.5. Visites à un état
P. 29. 1.6. Décomposition de l'espace d'états
P. 34. 1.7. Chaînes de Markov irréductibles et récurrentes
P. 41. 1.8. Chaînes de Markov apériodiques
P. 45. 1.9. Convergence vers l'équilibre
P. 51. 1.10. Théorème ergodique
P. 61. 1.11. Premier temps de passage et nombre de visites
P. 61. 1.11.1. Premier temps de passage à un état
P. 66. 1.11.2. Premier temps de passage à un sous-ensemble d'états
P. 72. 1.11.3. Nombre moyen de visites
P. 75. 1.12. Chaînes de Markov finies
P. 77. 1.13. Chaînes de Markov absorbantes
P. 82. 1.14. Exemples
P. 82. 1.14.1. Chaîne à deux états
P. 83. 1.14.2. La ruine du joueur
P. 87. 1.14.3. Suites de succès
P. 91. 1.15. Notes bibliographiques
P. 93. Chapitre 2. Chaînes de Markov à temps continu
P. 96. 2.1. Définitions et propriétés
P. 97. 2.2. Fonctions de transition et générateur infinitésimal
P. 111. 2.3. Equation backward de Kolmogorov
P. 117. 2.4. Equation forward de Kolmogorov
P. 129. 2.5. Existence et unicité des solutions
P. 131. 2.6. Etats récurrents et transitoires
P. 139. 2.7. Classification des états
P. 142. 2.8. Explosion
P. 149. 2.9. Chaînes de Markov irréductibles et récurrentes
P. 163. 2.10. Convergence vers l'équilibre
P. 166. 2.11. Théorème ergodique
P. 172. 2.12. Premiers temps de passage
P. 172. 2.12.1. Premier temps de passage à un état
P. 176. 2.12.2. Premier temps de passage à un sous-ensemble d'états
P. 183. 2.13. Chaînes de Markov absorbantes
P. 189. 2.14. Notes bibliographiques
P. 191. Chapitre 3. Processus de naissance et de mort
P. 191. 3.1. Processus de naissance et de mort discret
P. 200. 3.2. Processus de naissance et de mort discret absorbant
P. 201. 3.2.1. Temps de passage et convergence vers l'équilibre
P. 203. 3.2.2. Nombre moyen de visites
P. 207. 3.3. Processus de naissance et de mort discret périodique
P. 208. 3.4. Processus de naissance pure continu
P. 212. 3.5. Processus de naissance et de mort continu
P. 214. 3.5.1. Explosion
P. 216. 3.5.2. Récurrence positive
P. 218. 3.5.3. Premier temps de passage
P. 223. 3.5.4. Chaîne explosive ayant une probabilité invariante
P. 224. 3.5.5. Chaîne explosive sans probabilité invariante
P. 225. 3.5.6. Chaîne incluse récurrente positive ou récurrente nulle
P. 225. 3.5.6.1. X récurrente positive et Y récurrente nulle
P. 226. 3.5.6.2. X récurrente nulle et Y récurrente positive
P. 226. 3.6. Processus de naissance et de mort continu absorbant
P. 227. 3.6.1 Temps de passage et convergence vers l'équilibre
P. 229. 3.6.2. Explosion
P. 231. 3.7. Notes bibliographiques
P. 233. Chapitre 4. Uniformisation
P. 233. 4.1. Généralités
P. 235. 4.2. Espaces et algèbres de Banach
P. 241. 4.3. Matrices et vecteurs infinis
P. 246. 4.4. Processus de Poisson
P. 250. 4.4.1. Statistiques d'ordre
P. 252. 4.4.2. Calcul de la distribution de Poisson pondérée
P. 256. 4.4.3. Calcul du seuil de troncature
P. 261. 4.5. Chaînes de Markov uniformisables
P. 271. 4.6 Premier temps de passage à un sous-ensemble d'états
P. 273. 4.7. Chaînes de Markov finies
P. 273. 4.8 Régime transitoire
P. 274. 4.8.1. Calcul des probabilités d'état
P. 277. 4.8.2. Calcul de la distribution du premier temps de passage
P. 279. 4.8.3. Application aux processus de naissance et de mort
P. 283. 4.9 Notes bibliographiques
P. 285. Chapitre 5. Files d'attente
P. 286. 5.1. La file M/M/1
P. 287. 5.1.1. Probabilités d'état
P. 300. 5.1.1.1. La file est initialement vide
P. 304. 5.1.1.2. Cas général
P. 307. 5.1.2. Distribution de la durée de la période d'occupation
P. 312. 5.2 La file M/M/c
P. 314. 5.3. La file M/M/(...)
P. 318. 5.4. Distributions de type phase
P. 322. 5.5. Processus d'arrivées markoviens
P. 322. 5.5.1. Définition et régime transitoire
P. 332. 5.5.2. Distribution jointe des interarrivées
P. 336. 5.5.3. Processus de renouvellement de type phase
P. 337. 5.5.4. Processus de Poisson modulés par une chaîne de Markov
P. 338. 5.6. Processus d'arrivées markoviens par groupes
P. 338. 5.6.1. Définition et régime transitoire
P. 344. 5.6.2. Distribution jointe des interarrivées
P. 347. 5.7. Chaînes de Markov structurées par blocs
P. 350. 5.7.1. Régime transitoire des chaînes SFL
P. 350. 5.7.1.1. Probabilités d'état
P. 354. 5.7.1.2. Distribution de la durée de la période d'occupation
P. 358. 5.7.2. Régime transitoire des chaînes SFR
P. 359. 5.7.2.1. Probabilités d'état
P. 361. 5.7.2.2. Distribution de la durée de la période d'occupation
P. 364. 5.8. Applications
P. 365. 5.8.1. La file M/PH/1
P. 366. 5.8.2. La file PH/M/1
P. 367. 5.8.3. La file PH/PH/1
P. 368. 5.8.4. La file PH/PH/c
P. 370. 5.8.5. La file BMAP/PH/1
P. 371. 5.8.6. La file BMAP/PH/c
| Permalink : | ./index.php?lvl=notice_display&id=12067 |
|  |