กระบวนการมาร์คอฟ (Markov process) หมายถึงกระบวนการเฟ้นสุ่มที่มีสมบัติมาร์คอฟ นั่นคือเป็นกระบวนการเฟ้นสุ่มที่สถานะในอนาคตถูกกำหนดโดยค่าปัจจุบันเท่านั้นโดยไม่เกี่ยวข้องกับสถานะในอดีต
กระบวนการดังกล่าวสามารถพบได้ในหลายกรณี เช่น ในสภาพความเป็นไปของปรากฏการณ์ทางกายภาพที่สามารถอธิบายได้ด้วยความน่าจะเป็นเท่านั้น สถานะในอนาคตของอนุภาคถูกกำหนดโดยสถานะปัจจุบันเท่านั้น แต่สมบัตินี้ยังส่งผลสืบเนื่องไปถึงสถานการณ์ที่จำนวนอนุภาคในระบบเพิ่มขึ้นและต้องมีการวิเคราะห์ทฤษฎีความน่าจะเป็นด้วย
กระบวนการนี้ตั้งชื่อตามนักคณิตศาสตร์ชาวรัสเซีย อันเดรย์ มาร์คอฟ
ประวัติศาสตร์
อันเดรย์ มาร์คอฟได้เริ่มศึกษากระบวนการนี้ตั้งแต่ต้นศตวรรษที่ 20 และตีพิมพ์ผลงานของเขาเป็นครั้งแรกในปี 1906 กระบวนการมาร์คอฟแบบเวลาต่อเนื่องถูกค้นพบมานานแล้วตั้งแต่ก่อนงานนี้ในช่งต้นศตวรรษที่ 20 ในรูปของ มาร์คอฟได้ให้ความสนใจในการศึกษาเพิ่มเติมในส่วนของลำดับสุ่มอิสระ ซึ่งได้รับแรงบันดาลใจมาจากความจัดแย้งกับ ซึ่งได้อ้างว่าความเป็นอิสระจำเป็นสำหรับ ในงานตีพิมพ์ครั้งแรกเรื่องลูกโซ่มาร์คอฟในปี 1906 มาร์คอฟได้แสดงว่าภายใต้เงื่อนไขที่แน่นอน ผลลัพธ์เฉลี่ยของลูกโซ่มาร์คอฟจะลู่เข้าสู่เวกเตอร์ที่มีค่าคงที่ ซึ่งได้เป็นการพิสูจน์กฎจำนวนมากอย่างอ่อนโดยไม่ต้องอาศัยสมมุติฐานความเป็นอิสระ หลังจากนั้นมาร์คอฟยังได้ใช้ลูกโซ่มาร์คอฟในการศึกษาการแจกแจงของสระใน ซึ่งเขียนโดยอะเลคซันดร์ พุชกิน พิสูจน์ สำหรับห่วงโซ่มาร์คอฟ
การจำแนกประเภทของกระบวนการมาร์คอฟ
กระบวนการมาร์คอฟอาจจำแนกเป็นแบบต่าง ๆ ได้ดังนี้
- กระบวนการมาร์คอฟอย่างง่าย
- เป็นกระบวนการมาร์คอฟที่เหตุการณ์ถัดไปถูกกำหนดจากสถานะเดียว โดยทั่วไปเมื่อพูดถึงกระบวนการมาร์คอฟ มักหมายถึงกระบวนการมาร์คอฟอย่างง่าย
- กระบวนการมาร์คอฟขั้น N
- เป็นกระบวนการมาร์คอฟซึ่งเหตุการณ์ถัดไปถูกกำหนดจากชุดของสถานะ N ที่ต่อเนื่องกัน กระบวนการมาร์คอฟลำดับ N ใด ๆ สามารถแสดงเป็นกระบวนการมาร์คอฟแบบง่าย (กระบวนการมาร์คอฟขั้น 1) โดยการสร้างปริภูมิสถานะใหม่ด้วยชุดของทั้ง N สถานะ
- กระบวนการมาร์คอฟเวลาไม่ต่อเนื่อง
- เป็นกระบวนการมาร์คอฟที่พารามิเตอร์เวลาเคลื่อนไปในเซตแบบไม่ต่อเนื่อง โดยปกติแล้วเขียนเซตของเวลาในรูปของ T = {1, 2, 3, …}
- กระบวนการมาร์คอฟเวลาต่อเนื่อง
- เป็นกระบวนการที่ตรงกันข้ามกับแบบต่อเนื่อง คือเป็นกระบวนการมาร์คอฟบนเซตเวลาต่อเนื่อง เช่น T = [0, ∞)
- กระบวนการมาร์คอฟไม่ต่อเนื่อง
- เป็นกระบวนการมาร์คอฟที่มีปริภูมิสถานะเป็นเซตไม่ต่อเนื่อง กระบวนการแบบนี้มักเรียกอีกอย่างว่า ลูกโซ่มาร์คอฟ
- กระบวนการมาร์คอฟต่อเนื่อง
- เป็นกระบวนการมาร์คอฟในกรณีที่วิถีของกระบวนการมีความต่อเนื่องตามเวลาต่อเนื่องกันตามเวลา
- กระบวนการมาร์คอฟเวลาเอกพันธุ์
- เป็นกระบวนการมาร์คอฟซึ่งความน่าจะเป็นในการเปลี่ยนสถานะคงที่โดยไม่คำนึงถึงเวลาปัจจุบัน
ความน่าจะเป็นเปลี่ยนสถานะของกระบวนการมาร์คอฟ
การแจกแจงของกระบวนการมาร์คอฟที่ปรากฏตามปกติสามารถกำหนดได้จากความน่าจะเป็นเปลี่ยนสถานะ ความน่าจะเป็นเปลี่ยนสถานะของกระบวนการมาร์คอฟ Xt หมายถึงความน่าจะเป็น P(s, t; x, Y) ที่ถ้าเริ่มจากจุด x ในปริภูมิสถานะที่เวลา s แล้วจะเข้าสู่เซต Y บนปริภูมิสถานะที่เวลา t>s นิยามได้เป็น
ในกรณีของกระบวนการมาร์คอฟแบบไม่ต่อเนื่อง แค่ความน่าจะเป็นเปลี่ยนสถานะของกรณี t = s + 1 ก็เพียงพอ และความน่าจะเป็นเปลี่ยนสถานะสำหรับช่วงเวลาอื่นก็สามารถคำนวณได้โดยใช้ ในกรณีแบบเวลาเอกพันธุ์นั้น แค่มี s = 0 ก็เพียงพอแล้ว และความน่าจะเป็นเปลี่ยนสถานะในเวลาอื่นก็อาจคำนวณได้โดย P ( s, t ; x, Y ) = P (0, t - s ; x, Y )
นอกจากนี้ ในกรณีของกระบวนการมาร์คอฟแบบไม่ต่อเนื่อง แค่ใช้เพียงหนึ่งจุด y ในพื้นที่สถานะแทน Y ก็ก็เพียงพอแล้ว ซึ่งในกรณีนี้ความน่าจะเป็นเปลี่ยนสถานะจะกลายเป็นเมทริกซ์
สมการแชปแมน–คอลโมโกรอฟ
เป็นสมการที่แสดงความสัมพันธ์ระหว่างความน่าจะเป็นเปลี่ยนสถานะในระหว่าง 3 ช่วงเวลา ให้เวลาเป็น s < t < u แล้วจะได้ว่า
กล่าวคือ ความน่าจะเป็นที่จะออกจาก x ในเวลา s แล้วเข้าสู่ Z ณ เวลา u นั้นคำนวณโดยการแบ่งกรณีโดยดูว่าอยู่ไหนที่เวลา t ซึ่งอยู่ระหว่างทาง
อ้างอิง
- Charles Miller Grinstead; James Laurie Snell (1997). Introduction to Probability. American Mathematical Soc. pp. 464–466. ISBN .
- Pierre Bremaud (9 March 2013). Markov Chains: Gibbs Fields, Monte Carlo Simulation, and Queues. Springer Science & Business Media. p. ix. ISBN .
- Hayes, Brian (2013). "First links in the Markov chain". American Scientist. 101 (2): 92–96. doi:10.1511/2013.101.92.
- Sheldon M. Ross (1996). Stochastic processes. Wiley. pp. 235 and 358. ISBN .
- Jarrow, Robert; Protter, Philip (2004). "A short history of stochastic integration and mathematical finance: The early years, 1880–1970". A Festschrift for Herman Rubin. pp. 75–91. 10.1.1.114.632. doi:10.1214/lnms/1196285381. ISBN .
- Guttorp, Peter; Thorarinsdottir, Thordis L. (2012). "What Happened to Discrete Chaos, the Quenouille Process, and the Sharp Markov Property? Some History of Stochastic Point Processes". International Statistical Review. 80 (2): 253–268. doi:10.1111/j.1751-5823.2012.00181.x.
- (1996). "Markov and the Birth of Chain Dependence Theory". International Statistical Review. 64 (3): 255–257. doi:10.2307/1403785. JSTOR 1403785.
wikipedia, แบบไทย, วิกิพีเดีย, วิกิ หนังสือ, หนังสือ, ห้องสมุด, บทความ, อ่าน, ดาวน์โหลด, ฟรี, ดาวน์โหลดฟรี, mp3, วิดีโอ, mp4, 3gp, jpg, jpeg, gif, png, รูปภาพ, เพลง, เพลง, หนัง, หนังสือ, เกม, เกม, มือถือ, โทรศัพท์, Android, iOS, Apple, โทรศัพท์โมบิล, Samsung, iPhone, Xiomi, Xiaomi, Redmi, Honor, Oppo, Nokia, Sonya, MI, PC, พีซี, web, เว็บ, คอมพิวเตอร์
krabwnkarmarkhxf Markov process hmaythungkrabwnkarefnsumthimismbtimarkhxf nnkhuxepnkrabwnkarefnsumthisthanainxnakhtthukkahndodykhapccubnethannodyimekiywkhxngkbsthanainxdit krabwnkardngklawsamarthphbidinhlaykrni echn insphaphkhwamepnipkhxngpraktkarnthangkayphaphthisamarthxthibayiddwykhwamnacaepnethann sthanainxnakhtkhxngxnuphakhthukkahndodysthanapccubnethann aetsmbtiniyngsngphlsubenuxngipthungsthankarnthicanwnxnuphakhinrabbephimkhunaelatxngmikarwiekhraahthvsdikhwamnacaepndwy krabwnkarnitngchuxtamnkkhnitsastrchawrsesiy xnedry markhxfprawtisastrxnedry markhxf phuesnxaenwkhidkrabwnkarmarkhxf xnedry markhxfiderimsuksakrabwnkarnitngaettnstwrrsthi 20 aelatiphimphphlngankhxngekhaepnkhrngaerkinpi 1906 krabwnkarmarkhxfaebbewlatxenuxngthukkhnphbmananaelwtngaetkxnnganniinchngtnstwrrsthi 20 inrupkhxng markhxfidihkhwamsnicinkarsuksaephimetiminswnkhxngladbsumxisra sungidrbaerngbndalicmacakkhwamcdaeyngkb sungidxangwakhwamepnxisracaepnsahrb inngantiphimphkhrngaerkeruxnglukosmarkhxfinpi 1906 markhxfidaesdngwaphayitenguxnikhthiaennxn phllphthechliykhxnglukosmarkhxfcaluekhasuewketxrthimikhakhngthi sungidepnkarphisucnkdcanwnmakxyangxxnodyimtxngxasysmmutithankhwamepnxisra hlngcaknnmarkhxfyngidichlukosmarkhxfinkarsuksakaraeckaecngkhxngsrain sungekhiynodyxaelkhsndr phuchkin phisucn sahrbhwngosmarkhxfkarcaaenkpraephthkhxngkrabwnkarmarkhxfkrabwnkarmarkhxfxaccaaenkepnaebbtang iddngni krabwnkarmarkhxfxyangngay epnkrabwnkarmarkhxfthiehtukarnthdipthukkahndcaksthanaediyw odythwipemuxphudthungkrabwnkarmarkhxf mkhmaythungkrabwnkarmarkhxfxyangngay krabwnkarmarkhxfkhn N epnkrabwnkarmarkhxfsungehtukarnthdipthukkahndcakchudkhxngsthana N thitxenuxngkn krabwnkarmarkhxfladb N id samarthaesdngepnkrabwnkarmarkhxfaebbngay krabwnkarmarkhxfkhn 1 odykarsrangpriphumisthanaihmdwychudkhxngthng N sthana krabwnkarmarkhxfewlaimtxenuxng epnkrabwnkarmarkhxfthipharamietxrewlaekhluxnipinestaebbimtxenuxng odypktiaelwekhiynestkhxngewlainrupkhxng T 1 2 3 krabwnkarmarkhxfewlatxenuxng epnkrabwnkarthitrngknkhamkbaebbtxenuxng khuxepnkrabwnkarmarkhxfbnestewlatxenuxng echn T 0 krabwnkarmarkhxfimtxenuxng epnkrabwnkarmarkhxfthimipriphumisthanaepnestimtxenuxng krabwnkaraebbnimkeriykxikxyangwa lukosmarkhxf krabwnkarmarkhxftxenuxng epnkrabwnkarmarkhxfinkrnithiwithikhxngkrabwnkarmikhwamtxenuxngtamewlatxenuxngkntamewla krabwnkarmarkhxfewlaexkphnthu epnkrabwnkarmarkhxfsungkhwamnacaepninkarepliynsthanakhngthiodyimkhanungthungewlapccubnkhwamnacaepnepliynsthanakhxngkrabwnkarmarkhxfkaraeckaecngkhxngkrabwnkarmarkhxfthiprakttampktisamarthkahndidcakkhwamnacaepnepliynsthana khwamnacaepnepliynsthanakhxngkrabwnkarmarkhxf Xt hmaythungkhwamnacaepn P s t x Y thithaerimcakcud x inpriphumisthanathiewla s aelwcaekhasuest Y bnpriphumisthanathiewla t gt s niyamidepn P s t x Y P Xt Y Xs x displaystyle P s t x Y P X t in Y X s x inkrnikhxngkrabwnkarmarkhxfaebbimtxenuxng aekhkhwamnacaepnepliynsthanakhxngkrni t s 1 kephiyngphx aelakhwamnacaepnepliynsthanasahrbchwngewlaxunksamarthkhanwnidodyich inkrniaebbewlaexkphnthunn aekhmi s 0 kephiyngphxaelw aelakhwamnacaepnepliynsthanainewlaxunkxackhanwnidody P s t x Y P 0 t s x Y nxkcakni inkrnikhxngkrabwnkarmarkhxfaebbimtxenuxng aekhichephiynghnungcud y inphunthisthanaaethn Y kkephiyngphxaelw sunginkrninikhwamnacaepnepliynsthanacaklayepnemthriks smkaraechpaemn khxlomokrxf epnsmkarthiaesdngkhwamsmphnthrahwangkhwamnacaepnepliynsthanainrahwang 3 chwngewla ihewlaepn s lt t lt u aelwcaidwa P s u x Z P t u y Z P s t x dy displaystyle P s u x Z int P t u y Z P s t x dy klawkhux khwamnacaepnthicaxxkcak x inewla s aelwekhasu Z n ewla u nnkhanwnodykaraebngkrniodyduwaxyuihnthiewla t sungxyurahwangthangxangxingCharles Miller Grinstead James Laurie Snell 1997 Introduction to Probability American Mathematical Soc pp 464 466 ISBN 978 0 8218 0749 1 Pierre Bremaud 9 March 2013 Markov Chains Gibbs Fields Monte Carlo Simulation and Queues Springer Science amp Business Media p ix ISBN 978 1 4757 3124 8 Hayes Brian 2013 First links in the Markov chain American Scientist 101 2 92 96 doi 10 1511 2013 101 92 Sheldon M Ross 1996 Stochastic processes Wiley pp 235 and 358 ISBN 978 0 471 12062 9 Jarrow Robert Protter Philip 2004 A short history of stochastic integration and mathematical finance The early years 1880 1970 A Festschrift for Herman Rubin pp 75 91 10 1 1 114 632 doi 10 1214 lnms 1196285381 ISBN 978 0 940600 61 4 Guttorp Peter Thorarinsdottir Thordis L 2012 What Happened to Discrete Chaos the Quenouille Process and the Sharp Markov Property Some History of Stochastic Point Processes International Statistical Review 80 2 253 268 doi 10 1111 j 1751 5823 2012 00181 x 1996 Markov and the Birth of Chain Dependence Theory International Statistical Review 64 3 255 257 doi 10 2307 1403785 JSTOR 1403785