แบบจำลองตัวแปรแฝง (latent variable model) เป็นคำทั่วไปสำหรับเรียกแบบจำลองทางสถิติ ที่แสดงโดยของตัวแปรที่สังเกตได้และตัวแปรแฝง
ภาพรวม
ในแบบจำลองตัวแปรแฝง ถ้าให้ตัวแปรที่สังเกตได้ มีการแจกแจงเป็น และการแจกแจงความน่าจะเป็นร่วมของตัวแปรแฝง และพารามิเตอร์แบบจำลอง เป็น ในกรณีนี้ เมื่อให้การแจกแจงความน่าจะเป็นร่วมเป็น จะได้ความสัมพันธ์ว่า:
ตัวแปรแฝงสามารถแสดงได้เป็นฟังก์ชันภาวะน่าจะเป็นในรูปของการแจกแจงตามขอบ โดยฟังก์ชันของ เรียกว่าเป็น ภาวะน่าจะเป็นตามขอบ (marginal likelihood) หรือ พยานแบบจำลอง (model evidence)
ตัวอย่างของแบบจำลอง ได้แก่ ที่มีตัวแปรแฝง กล่าวอีกนัยหนึ่ง ผลคูณของแบบจำลองความน่าจะเป็นแบบมีเงื่อนไขได้มาจากการแยกตัวประกอบของการแจกแจงร่วม ในกรณีนี้ มักเรียกกันว่า "ของ " (เนื่องจากยังไม่ได้มีการสร้างเงื่อนไขโดยค่าสังเกตการณ์)
มีความพยายามในการหาวิธีการที่เหมาะสมในการประมาณค่าพารามิเตอร์ของแบบจำลองตัวแปรแฝง ตัวแปรแฝงคือตัวแปรที่มีอยู่ภายในแบบจำลอง และตามคำจำกัดความไม่สามารถกำหนดให้เป็นค่าที่สังเกตได้ ดังนั้นจึงทำโดยการปรับค่าภาวะน่าจะเป็นตามขอบ แทนที่จะใช้การแจกแจงร่วม อย่างไรก็ตาม เมื่อทำการประมาณภาวะน่าจะเป็นสูงสุด ปริพันธ์ในรูปตามขอบจะมีความซับซ้อนจนไม่สามารถหาได้ ดังนั้นจึงไม่สามารถหาวิธีการแก้ปัญหาเชิงวิเคราะห์สำหรับความน่าจะเป็นหรือตัวประมาณค่าที่มีประสิทธิผลได้
เมื่อสร้างแบบจำลองด้วยโครงข่ายแบบเบส์ความน่าจะเป็นแบบมีเงื่อนไขแต่ละแบบสามารถหาได้ ดังนั้นการกระจายแบบร่วมจึงสามารถหาได้ ดังนั้น ตามทฤษฎีบทของเบส์ ทำให้ทราบว่าสาเหตุที่หาไม่ได้นั้นมาจากภาวะน่าจะเป็นตามขอบ และ :
วิธีการที่นำมาใช้เพื่อแก้ไขปัญหานี้ได้แก่ และ ขั้นตอนวิธีเบส์แบบแปรผันเข้ารหัสอัตโนมัติ เป็นต้น
แบบจำลองตัวแปรแฝงเชิงลึก
แบบจำลองตัวแปรแฝงเชิงลึก (deep latent variable model, DLVM) เป็นแบบจำลองตัวแปรแฝงชนิดหนึ่งที่แปลงข้อมูลป้อนเข้าแบบมีเงื่อนไขของโดยใช้ โครงข่ายประสาทเทียม การแจกแจงร่วมแสดงโดยสมการดังนี้:
แบบจำลองตัวแปรแฝงเชิงลึกใช้โครงข่ายประสาทเทียมที่มีความสามารถในการประมาณแบบทั่วถึงในการแปลงตัวแปรแฝง ดังนั้นจึงสามารถแสดงการแจกแจงตามขอบ ที่ซับซ้อนของแบบจำลองความน่าจะเป็นแบบมีเงื่อนไข ออกมาได้ แม้ว่าจะใช้แค่การแจกแจงแบบง่าย ๆ .
เนื่องจากแบบจำลองตัวแปรแฝงเชิงลึกเป็นแบบจำลองตัวแปรแฝง จึงไม่สามารถทำการประมาณพารามิเตอร์โดยการประมาณภาวะน่าจะเป็นสูงสุดแบบง่ายได้
(VAE) เป็นหนึ่งในวิธีที่การที่ประยุกต์ใช้แบบจำลองตัวแปรแฝงเชิงลึก
อ้างอิง
- "a latent variable model " Kingma. (2019). An Introduction to Variational Autoencoders. Foundations and Trends in Machine Learning.
- "This is also called the (single datapoint) marginal likelihood or the model evidence, when taken as a function of θ." Kingma. (2019). An Introduction to Variational Autoencoders. Foundations and Trends in Machine Learning.
- "Perhaps the simplest, and most common, DLVM is one that is specified as factorization" Kingma. (2019). An Introduction to Variational Autoencoders. Foundations and Trends in Machine Learning.
- "The distribution is often called the prior distribution over , since it is not conditioned on any observations." Kingma. (2019). An Introduction to Variational Autoencoders. Foundations and Trends in Machine Learning.
- "This is due to the integral ... for computing the marginal likelihood ..., not having an analytic solution or efficient estimator." Kingma. (2019). An Introduction to Variational Autoencoders. Foundations and Trends in Machine Learning.
- "The intractability of pθ(x), is related to the intractability of the posterior distribution pθ(z|x). ... Since pθ(x, z) is tractable to compute, a tractable marginal likelihood pθ(x) leads to a tractable posterior pθ(z|x), and vice versa. Both are intractable in DLVMs." Kingma. (2019). An Introduction to Variational Autoencoders. Foundations and Trends in Machine Learning.
- "We use the term deep latent variable model (DLVM) to denote a latent variable model pθ(x, z) whose distributions are parameterized by neural networks." Kingma. (2019). An Introduction to Variational Autoencoders. Foundations and Trends in Machine Learning.
- "One important advantage of DLVMs, is that even when each factor (prior or conditional distribution) in the directed model is relatively simple (such as conditional Gaussian), the marginal distribution pθ(x) can be very complex"
wikipedia, แบบไทย, วิกิพีเดีย, วิกิ หนังสือ, หนังสือ, ห้องสมุด, บทความ, อ่าน, ดาวน์โหลด, ฟรี, ดาวน์โหลดฟรี, mp3, วิดีโอ, mp4, 3gp, jpg, jpeg, gif, png, รูปภาพ, เพลง, เพลง, หนัง, หนังสือ, เกม, เกม, มือถือ, โทรศัพท์, Android, iOS, Apple, โทรศัพท์โมบิล, Samsung, iPhone, Xiomi, Xiaomi, Redmi, Honor, Oppo, Nokia, Sonya, MI, PC, พีซี, web, เว็บ, คอมพิวเตอร์
aebbcalxngtwaepraefng latent variable model epnkhathwipsahrberiykaebbcalxngthangsthiti thiaesdngodykhxngtwaeprthisngektidaelatwaepraefngphaphrwminaebbcalxngtwaepraefng thaihtwaeprthisngektid x displaystyle x mikaraeckaecngepn p x displaystyle p x aelakaraeckaecngkhwamnacaepnrwmkhxngtwaepraefng z displaystyle z aelapharamietxraebbcalxng 8 displaystyle theta epn p8 x z displaystyle p theta x z inkrnini emuxihkaraeckaecngkhwamnacaepnrwmepn caidkhwamsmphnthwa p8 x p8 x z dz displaystyle p theta x int p theta x z dz twaepraefngsamarthaesdngidepnfngkchnphawanacaepninrupkhxngkaraeckaecngtamkhxb p x 8 displaystyle p x theta odyfngkchnkhxng 8 displaystyle theta eriykwaepn phawanacaepntamkhxb marginal likelihood hrux phyanaebbcalxng model evidence twxyangkhxngaebbcalxng idaek thimitwaepraefng klawxiknyhnung phlkhunkhxngaebbcalxngkhwamnacaepnaebbmienguxnikhidmacakkaraeyktwprakxbkhxngkaraeckaecngrwm p8 x z p8 x z p8 z displaystyle p theta x z p theta x z p theta z inkrnini p8 z displaystyle p theta z mkeriykknwa khxng z displaystyle z enuxngcakyngimidmikarsrangenguxnikhodykhasngektkarn mikhwamphyayaminkarhawithikarthiehmaasminkarpramankhapharamietxrkhxngaebbcalxngtwaepraefng twaepraefngkhuxtwaeprthimixyuphayinaebbcalxng aelatamkhacakdkhwamimsamarthkahndihepnkhathisngektid dngnncungthaodykarprbkhaphawanacaepntamkhxb p8 x displaystyle p theta x aethnthicaichkaraeckaecngrwm p8 x z displaystyle p theta x z xyangirktam emuxthakarpramanphawanacaepnsungsud priphnthinruptamkhxbcamikhwamsbsxncnimsamarthhaid dngnncungimsamarthhawithikaraekpyhaechingwiekhraahsahrbkhwamnacaepnhruxtwpramankhathimiprasiththiphlid emuxsrangaebbcalxngdwyokhrngkhayaebbebskhwamnacaepnaebbmienguxnikhaetlaaebbsamarthhaid dngnnkarkracayaebbrwmcungsamarthhaid dngnn tamthvsdibthkhxngebs thaihthrabwasaehtuthihaimidnnmacakphawanacaepntamkhxb p8 x displaystyle p theta x aela p8 z x displaystyle p theta z x p8 z x p8 x z p8 x displaystyle p theta z x frac p theta x z p theta x withikarthinamaichephuxaekikhpyhaniidaek aela khntxnwithiebsaebbaeprphnekharhsxtonmti epntnaebbcalxngtwaepraefngechinglukaebbcalxngtwaepraefngechingluk deep latent variable model DLVM epnaebbcalxngtwaepraefngchnidhnungthiaeplngkhxmulpxnekhaaebbmienguxnikhkhxngodyich okhrngkhayprasathethiym karaeckaecngrwmaesdngodysmkardngni p8 z0 x z1 zN i 0Np8 zi pa zi i 0Np8 zi h NeuralNet8 pa zi displaystyle p theta z 0 x z 1 z N prod i 0 N p theta z i pa z i prod i 0 N p theta z i eta NeuralNet theta pa z i aebbcalxngtwaepraefngechinglukichokhrngkhayprasathethiymthimikhwamsamarthinkarpramanaebbthwthunginkaraeplngtwaepraefng dngnncungsamarthaesdngkaraeckaecngtamkhxb p8 x displaystyle p theta x thisbsxnkhxngaebbcalxngkhwamnacaepnaebbmienguxnikh p8 zi pa zi displaystyle p theta z i pa z i xxkmaid aemwacaichaekhkaraeckaecngaebbngay enuxngcakaebbcalxngtwaepraefngechinglukepnaebbcalxngtwaepraefng cungimsamarththakarpramanpharamietxrodykarpramanphawanacaepnsungsudaebbngayid VAE epnhnunginwithithikarthiprayuktichaebbcalxngtwaepraefngechinglukxangxing a latent variable model p8 x z displaystyle p theta x z Kingma 2019 An Introduction to Variational Autoencoders Foundations and Trends in Machine Learning This is also called the single datapoint marginal likelihood or the model evidence when taken as a function of 8 Kingma 2019 An Introduction to Variational Autoencoders Foundations and Trends in Machine Learning Perhaps the simplest and most common DLVM is one that is specified as factorization Kingma 2019 An Introduction to Variational Autoencoders Foundations and Trends in Machine Learning The distribution p z displaystyle p z is often called the prior distribution over z displaystyle z since it is not conditioned on any observations Kingma 2019 An Introduction to Variational Autoencoders Foundations and Trends in Machine Learning This is due to the integral for computing the marginal likelihood not having an analytic solution or efficient estimator Kingma 2019 An Introduction to Variational Autoencoders Foundations and Trends in Machine Learning The intractability of p8 x is related to the intractability of the posterior distribution p8 z x Since p8 x z is tractable to compute a tractable marginal likelihood p8 x leads to a tractable posterior p8 z x and vice versa Both are intractable in DLVMs Kingma 2019 An Introduction to Variational Autoencoders Foundations and Trends in Machine Learning We use the term deep latent variable model DLVM to denote a latent variable model p8 x z whose distributions are parameterized by neural networks Kingma 2019 An Introduction to Variational Autoencoders Foundations and Trends in Machine Learning One important advantage of DLVMs is that even when each factor prior or conditional distribution in the directed model is relatively simple such as conditional Gaussian the marginal distribution p8 x can be very complex