ไดเวอร์เจนซ์คัลแบ็ก–ไลบ์เลอร์ (Kullback–Leibler divergence) หรือเรียกย่อว่า ไดเวอร์เจนซ์เคแอล (KL divergence) เป็นมาตรวัดความแตกต่างระหว่างการแจกแจงความน่าจะเป็น 2 ครั้ง
ค่านี้มีการใช้งานในทฤษฎีความน่าจะเป็น และ ทฤษฎีสารสนเทศ และมีชื่อเรียกอื่นอีกหลายชื่อ เช่น
- ไดเวอร์เจนซ์ข้อมูล (information divergence)
- ไดเวอร์เจนซ์ไอ (I divergence)
- อัตราการขยายข้อมูล (information gain)
- เอนโทรปีสัมพัทธ์ (relative entropy)
นอกจากนี้ยังมีชื่อเรียกว่า ระยะทางคัลแบ็ก–ไลบ์เลอร์ ด้วย อย่างไรก็ตาม หน่วยวัดนี้ไม่เป็นไปตามนิยามความหมายของระยะทาง ดังนั้นจึงไม่ใช่ระยะทางจริงในแง่คณิตศาสตร์
ในการใช้งานจริง มักจะทำการคำนวณไดเวอร์เจนซ์คัลแบ็ก–ไลบ์เลอร์สำหรับการแจกแจงความน่าจะเป็น "ที่แท้จริง" P และการแจกแจงความน่าจะเป็นอื่นๆ Q ตัวอย่างเช่นให้ P เป็นข้อมูล, ค่าที่สังเกตได้, การแจกแจงความน่าจะเป็นที่คำนวณได้อย่างแม่นยำ ฯลฯ ส่วน Q เป็นค่าทางทฤษฎี ค่าแบบจำลอง ค่าที่ทำนายของ P เป็นต้น
แนวคิดนี้ถูกใช้ครั้งแรกในปี 1951 โดย โซโลมอน คัลแบ็ก (Solomon Kullback) และ ริชาร์ด ไลบ์เลอร์ (Richard Leibler) เพื่อพิจารณาความแตกต่างระหว่างการแจกแจง 2 แบบ แนวคิดนี้แตกต่างจาก ในการวิเคราะห์เวกเตอร์
ไดเวอร์เจนซ์คัลแบ็ก–ไลบ์เลอร์ไม่เพียงแต่ถูกนิยามสำหรับเท่านั้น แต่ยังรวมถึงด้วย และไดเวอร์เจนซ์คัลแบ็ก–ไลบ์เลอร์สำหรับการแจกแจงแบบต่อเนื่องจะไม่เปลี่ยนค่าไปเนื่องจากการแปลงตัวแปร ดังนั้นจึงอาจกล่าวได้ว่าเป็นมูลฐานมากกว่าปริมาณอื่นๆ ในทฤษฎีสารสนเทศ เช่น เอนโทรปีของข้อมูล ซึ่งไม่ได้นิยามไว้ในส่วนที่เกี่ยวกับความน่าจะเป็นแบบไม่ต่อเนื่อง และยังเปลี่ยนแปลงไปเมื่อมีการแปลงตัวแปร
คำนิยาม
ให้ P และ Q มีการแจกแจงแบบไม่ต่อเนื่องค่าไดเวอร์เจนซ์คัลแบ็ก–ไลบ์เลอร์สำหรับ P และ Q จะนิยามได้ดังนี้
โดยที่ P(i) และ Q(i) คือความน่าจะเป็นที่ค่าของตัวแปรสุ่มตามการแจกแจงความน่าจะเป็น P และ Q จะเป็น i ตามลำดับ
ส่วนในกรณีที่ P และ Q เป็นการแจกแจงความน่าจะเป็นแบบต่อเนื่อง จะนิยามดังนี้
ในที่นี้ p และ q เป็นฟังก์ชันความหนาแน่นของความน่าจะเป็นของ P และ Q ตามลำดับ
หรือโดยทั่วไปแล้ว ในกรณีที่ P กับ Q เป็น หน่วยวัดความน่าจะเป็นบนเซตที่วัดได้ X และ P กับ Q มี ต่อมาตรวัด μ จะสามารถนิยามได้ว่า
โดนในที่นี้ dPdμ และ dQdμ เป็นค่า (Radon–Nikodym derivative)
อ้างอิง
- Csiszar, I (February 1975). "I-Divergence Geometry of Probability Distributions and Minimization Problems". Ann. Probab. 3 (1): 146–158. doi:10.1214/aop/1176996454.
wikipedia, แบบไทย, วิกิพีเดีย, วิกิ หนังสือ, หนังสือ, ห้องสมุด, บทความ, อ่าน, ดาวน์โหลด, ฟรี, ดาวน์โหลดฟรี, mp3, วิดีโอ, mp4, 3gp, jpg, jpeg, gif, png, รูปภาพ, เพลง, เพลง, หนัง, หนังสือ, เกม, เกม, มือถือ, โทรศัพท์, Android, iOS, Apple, โทรศัพท์โมบิล, Samsung, iPhone, Xiomi, Xiaomi, Redmi, Honor, Oppo, Nokia, Sonya, MI, PC, พีซี, web, เว็บ, คอมพิวเตอร์
idewxrecnskhlaebk ilbelxr Kullback Leibler divergence hruxeriykyxwa idewxrecnsekhaexl KL divergence epnmatrwdkhwamaetktangrahwangkaraeckaecngkhwamnacaepn 2 khrng khanimikarichnganinthvsdikhwamnacaepn aela thvsdisarsneths aelamichuxeriykxunxikhlaychux echn idewxrecnskhxmul information divergence idewxrecnsix I divergence xtrakarkhyaykhxmul information gain exnothrpismphthth relative entropy nxkcakniyngmichuxeriykwa rayathangkhlaebk ilbelxr dwy xyangirktam hnwywdniimepniptamniyamkhwamhmaykhxngrayathang dngnncungimichrayathangcringinaengkhnitsastr inkarichngancring mkcathakarkhanwnidewxrecnskhlaebk ilbelxrsahrbkaraeckaecngkhwamnacaepn thiaethcring P aelakaraeckaecngkhwamnacaepnxun Q twxyangechnih P epnkhxmul khathisngektid karaeckaecngkhwamnacaepnthikhanwnidxyangaemnya l swn Q epnkhathangthvsdi khaaebbcalxng khathithanaykhxng P epntn aenwkhidnithukichkhrngaerkinpi 1951 ody osolmxn khlaebk Solomon Kullback aela richard ilbelxr Richard Leibler ephuxphicarnakhwamaetktangrahwangkaraeckaecng 2 aebb aenwkhidniaetktangcak inkarwiekhraahewketxr idewxrecnskhlaebk ilbelxrimephiyngaetthukniyamsahrbethann aetyngrwmthungdwy aelaidewxrecnskhlaebk ilbelxrsahrbkaraeckaecngaebbtxenuxngcaimepliynkhaipenuxngcakkaraeplngtwaepr dngnncungxacklawidwaepnmulthanmakkwaprimanxun inthvsdisarsneths echn exnothrpikhxngkhxmul sungimidniyamiwinswnthiekiywkbkhwamnacaepnaebbimtxenuxng aelayngepliynaeplngipemuxmikaraeplngtwaeprkhaniyamih P aela Q mikaraeckaecngaebbimtxenuxngkhaidewxrecnskhlaebk ilbelxrsahrb P aela Q caniyamiddngni DKL P Q iP i log P i Q i EP log P i Q i displaystyle D mathrm KL P Q sum i P i log frac P i Q i mathbb E P left log frac P i Q i right odythi P i aela Q i khuxkhwamnacaepnthikhakhxngtwaeprsumtamkaraeckaecngkhwamnacaepn P aela Q caepn i tamladb swninkrnithi P aela Q epnkaraeckaecngkhwamnacaepnaebbtxenuxng caniyamdngni DKL P Q p x log p x q x dx EP log p x q x displaystyle D mathrm KL P Q int infty infty p x log frac p x q x dx mathbb E P left log frac p x q x right inthini p aela q epnfngkchnkhwamhnaaennkhxngkhwamnacaepnkhxng P aela Q tamladb hruxodythwipaelw inkrnithi P kb Q epn hnwywdkhwamnacaepnbnestthiwdid X aela P kb Q mi txmatrwd m casamarthniyamidwa DKL P Q XdPdmlog dP dmdQ dmdm displaystyle D mathrm KL P Q int X frac dP d mu log frac dP d mu dQ d mu d mu odninthini dP dm aela dQ dm epnkha Radon Nikodym derivative xangxingCsiszar I February 1975 I Divergence Geometry of Probability Distributions and Minimization Problems Ann Probab 3 1 146 158 doi 10 1214 aop 1176996454