ลิงก์ข้ามภาษาในบทความนี้ มีไว้ให้ผู้อ่านและผู้ร่วมแก้ไขบทความศึกษาเพิ่มเติมโดยสะดวก เนื่องจากวิกิพีเดียภาษาไทยยังไม่มีบทความดังกล่าว กระนั้น ควรรีบสร้างเป็นบทความโดยเร็วที่สุด |
ทฤษฎีสารสนเทศ (อังกฤษ: information theory) เป็นสาขาหนึ่งใน ทฤษฎีความน่าจะเป็น และ ขอบข่ายเนื้อหาของทฤษฎีนี้จะเกี่ยวข้องกับสารสนเทศ, เอนโทรปีของสารสนเทศ, , , , วิทยาการเข้ารหัสลับ, , การบีบอัดข้อมูล, และหัวข้ออื่น ๆ ที่เกี่ยวข้อง
คำแปลที่ตามราชบัณฑิต คือ "ทฤษฎีสารสนเทศ" นี้ มาจากคำว่า "information theory" ซึ่งคำว่า information เป็นคำเดียวกันกับที่หมายถึง สารสนเทศ แต่เนื่องจากความหมายของ information theory นั้นจะเกี่ยวเนื่องกับ เนื้อความในแง่ของสัญญาณ จึงอาจจะใช้คำว่า ทฤษฎีข้อมูล แทนความหมายของสารสนเทศ ที่เป็นในแง่ของเนื้อหาข่าวสาร และ หรือในบางกรณี
ตัวอย่างของการนำทฤษฎีสารสนเทศมาประยุกต์ใช้ ได้แก่ , , , อุปกรณ์สื่อสารไร้สาย อาทิ โทรศัพท์มือถือ วิทยุสื่อสาร, เครื่องเล่นซีดี และการศึกษาเกี่ยวกับหลุมดำ เป็นต้น
ประวัติ
คล็อด อี. แชนนอน ได้รับการขนานนามว่าเป็น "บิดาแห่งทฤษฎีสารสนเทศ" ทฤษฎีของแชนนอนนี้ เป็นทฤษฎีแรกที่ได้ทำการวินิจฉัยปัญหาทางการสื่อสาร ในรูปของปัญหาคณิตศาสตร์เชิงสถิติ เป็นทฤษฎีที่ได้เปิดหนทาง ให้วิศวกรการสื่อสาร สามารถคำนวณขนาด หรือปริมาณสูงสุดของช่องสัญญาณ ออกมาในหน่วยบิต (bits)
ทฤษฎีสารสนเทศที่เรารู้จักอยู่ในทุกวันนี้ เป็นที่ยอมรับโดยทั่วไปว่า เริ่มต้นจากผลงานตีพิมพ์ของแชนนอนเรื่องทฤษฎีเชิงคณิตศาสตร์ของการสื่อสาร (The Mathematical Theory of Communication) ลงในวารสารทางเทคนิคเบลล์ซิสเต็ม (Bell System Technical Journal) ฉบับเดือนมิถุนายน ในปี พ.ศ. 2491 (ค.ศ. 1948) ซึ่งงานชิ้นนี้นั้น เป็นงานที่ได้สร้างเสริมต่อมาจาก ผลงานของ ฮารี นือควิสต์ และ (Ralph Hartley)
ในงานของแชนนอน ที่ทำให้วิศวกรระบบสื่อสาร สามารถออกแบบระบบสื่อสารที่มีประสิทธิภาพสูงขึ้นได้นั้น แชนนอนได้นิยามเอนโทรปีของสารสนเทศเท่ากับ
สูตรนี้เมื่อนำไปใช้กับ แหล่งกำเนิดสารสนเทศ จะทำให้สามารถคำนวณขนาดของ ที่จำเป็นต้องใช้ในการส่งข้อมูลนั้น ในรูปของได้ โดยถ้าลอการิทึมในสมการข้างต้น เป็นฐานสอง เอนโทรปีที่วัดจะอยู่ในหน่วยบิตเช่นกัน แต่ถ้าเป็น หรือ ฐาน เอนโทรปีที่วัดจะอยู่ในหน่วย แนท (nats) [1] การวัดเอนโทรปีของแชนนอน เป็นการวัดขนาดของสารสนเทศซึ่งอยู่ใน
เมื่อไม่นานมานี้ ได้ปรากฏหลักฐานว่า เอนโทรปี นั้นได้ถูกค้นพบและนิยามในช่วงสงครามโลกครั้งที่สอง โดยแอลัน ทัวริง ที่ เบล็ทชลีย์ พาร์ค (Bletchley Park) ทัวริง ได้ตั้งชื่อปริมาณนี้ว่าน้ำหนักของหลักฐาน (weight of evidence) และใช้หน่วยวัดเป็น bans และ decibans (อย่าสับสนคำ "weight of evidence" นี้กับคำเดียวกันที่ใช้ในบทความทางด้าน หรือ statistical inference บัญญัติขึ้นโดย กู๊ด (I.J. Good) ซึ่งมีความหมายตรงกับคำที่ทัวริงใช้คือ "log-odds" หรือ "lods") ถึงแม้ว่า ทัวริง และ แชนนอน นั้นได้ทำงานร่วมกันในช่วงสงครามแต่ดูเหมือนว่าทั้งคู่นั้นต่างคนต่างพัฒนาแนวความคิดนี้ขึ้นมาด้วยตนเอง (สำหรับเอกสารอ้างอิงดู Alan Turing: The Enigma โดย แอนดรูว์ ฮอดจส์ Andrew Hodges)
ความสัมพันธ์กับเอนโทรปีของอุณหพลศาสตร์
เอนโทรปีของสารสนเทศ ที่พัฒนาต่อมาจากแนวความคิดดั้งเดิมของ แชนนอน นั้นมีความสัมพันธ์อย่างใกล้ชิดกับ เอนโทรปี ของ อุณหพลศาสตร์
(Ludwig Boltzmann และ (Willard Gibbs) นั้นมีส่วนสำคัญในการพัฒนาทางด้าน (statistical thermodynamics) งานของเขานั้นเกิดจากความพยายามในการที่จะนำคำ เอนโทรปี จาก ทฤษฎีสารสนเทศมาใช้ เอนโทรปี จากแนวความคิดของ ทฤษฎีสารสนเทศ และ แนวความคิดของ อุณหพลศาสตร์เชิงสถิติ นี้มีความสัมพันธ์กันที่ลึกซึ้ง ตัวอย่างหนึ่งที่ใช้แสดงความสัมพันธ์ระหว่าง สารสนเทศ และ เอนโทรปีของอุณหพลศาสตร์ คือ ปีศาจของแมกซ์เวลล์ (Maxwell's demon) ซึ่งเป็นปิศาจเฝ้าตูดควบคุมการเลือกผ่านของโมเลกุล เพื่อสร้างการไหลของพลังงานสวนทางกับเอนโทรปีของอุณหพลศาสตร์ ในการแหกกฎข้อที่สองของอุณหพลศาสตร์ แต่ในขณะเดียวกัน ในการคุมตูดนั้นปีศาจก็ต้องการข้อมูล ที่แม่นยำ ซึ่งทั้งสองนี้หักล้างกันไปทำให้ปิศาจไม่สามารถสร้างความได้เปรียบทางอุณหพลศาสตร์สวนกฎข้อที่สองได้
ปริมาณที่ใช้วัดข้อมูลที่มีประโยชน์ อีกปริมาณหนึ่งก็คือ (mutual information) ซึ่งเป็นปริมาณที่บ่งบอกถึงความขึ้นแก่กันทางสถิติของตัวแปรสุ่มสองตัว นิยามของสารสนเทศที่เกิดร่วมกันของเหตุการณ์ และ คือ
โดยที่ คือ เอนโทรปีร่วม นิยามโดย
และ คือ (conditional entropy) ของ มีเงื่อนไขขึ้นกับค่าสังเกตการณ์ของ ดังนั้น สารสนเทศร่วม สามารถตีความ หมายถึง ปริมาณของความไม่แน่นอนของค่า ที่ลดลงเมื่อรู้ค่าที่แน่นอนของ และในทางกลับกัน
ดูเพิ่ม
อ้างอิง
- Thomas A. Cover, Joy A Thomas Elements of Information Theory John Wiley & Sons, 1991
wikipedia, แบบไทย, วิกิพีเดีย, วิกิ หนังสือ, หนังสือ, ห้องสมุด, บทความ, อ่าน, ดาวน์โหลด, ฟรี, ดาวน์โหลดฟรี, mp3, วิดีโอ, mp4, 3gp, jpg, jpeg, gif, png, รูปภาพ, เพลง, เพลง, หนัง, หนังสือ, เกม, เกม, มือถือ, โทรศัพท์, Android, iOS, Apple, โทรศัพท์โมบิล, Samsung, iPhone, Xiomi, Xiaomi, Redmi, Honor, Oppo, Nokia, Sonya, MI, PC, พีซี, web, เว็บ, คอมพิวเตอร์
lingkkhamphasa inbthkhwamni miiwihphuxanaelaphurwmaekikhbthkhwamsuksaephimetimodysadwk enuxngcakwikiphiediyphasaithyyngimmibthkhwamdngklaw krann khwrribsrangepnbthkhwamodyerwthisud thvsdisarsneths xngkvs information theory epnsakhahnungin thvsdikhwamnacaepn aela khxbkhayenuxhakhxngthvsdinicaekiywkhxngkbsarsneths exnothrpikhxngsarsneths withyakarekharhslb karbibxdkhxmul aelahwkhxxun thiekiywkhxng khaaeplthitamrachbnthit khux thvsdisarsneths ni macakkhawa information theory sungkhawa information epnkhaediywknkbthihmaythung sarsneths aetenuxngcakkhwamhmaykhxng information theory nncaekiywenuxngkb enuxkhwaminaengkhxngsyyan cungxaccaichkhawa thvsdikhxmul aethnkhwamhmaykhxngsarsneths thiepninaengkhxngenuxhakhawsar aela hruxinbangkrni twxyangkhxngkarnathvsdisarsnethsmaprayuktich idaek xupkrnsuxsarirsay xathi othrsphthmuxthux withyusuxsar ekhruxngelnsidi aelakarsuksaekiywkbhlumda epntnprawtikhlxd xi aechnnxn idrbkarkhnannamwaepn bidaaehngthvsdisarsneths thvsdikhxngaechnnxnni epnthvsdiaerkthiidthakarwinicchypyhathangkarsuxsar inrupkhxngpyhakhnitsastrechingsthiti epnthvsdithiidepidhnthang ihwiswkrkarsuxsar samarthkhanwnkhnad hruxprimansungsudkhxngchxngsyyan xxkmainhnwybit bits thvsdisarsnethsthieraruckxyuinthukwnni epnthiyxmrbodythwipwa erimtncakphlngantiphimphkhxngaechnnxneruxngthvsdiechingkhnitsastrkhxngkarsuxsar The Mathematical Theory of Communication lnginwarsarthangethkhnikhebllsisetm Bell System Technical Journal chbbeduxnmithunayn inpi ph s 2491 kh s 1948 sungnganchinninn epnnganthiidsrangesrimtxmacak phlngankhxng hari nuxkhwist aela Ralph Hartley inngankhxngaechnnxn thithaihwiswkrrabbsuxsar samarthxxkaebbrabbsuxsarthimiprasiththiphaphsungkhunidnn aechnnxnidniyamexnothrpikhxngsarsnethsethakb H ipilog pi displaystyle mathbf H sum i p i log p i sutrniemuxnaipichkb aehlngkaenidsarsneths cathaihsamarthkhanwnkhnadkhxng thicaepntxngichinkarsngkhxmulnn inrupkhxngid odythalxkarithuminsmkarkhangtn epnthansxng exnothrpithiwdcaxyuinhnwybitechnkn aetthaepn hrux than e displaystyle e exnothrpithiwdcaxyuinhnwy aenth nats 1 karwdexnothrpikhxngaechnnxn epnkarwdkhnadkhxngsarsnethssungxyuin emuximnanmani idprakthlkthanwa exnothrpi nnidthukkhnphbaelaniyaminchwngsngkhramolkkhrngthisxng odyaexln thwring thi eblthchliy pharkh Bletchley Park thwring idtngchuxprimanniwanahnkkhxnghlkthan weight of evidence aelaichhnwywdepn bans aela decibans xyasbsnkha weight of evidence nikbkhaediywknthiichinbthkhwamthangdan hrux statistical inference byytikhunody kud I J Good sungmikhwamhmaytrngkbkhathithwringichkhux log odds hrux lods thungaemwa thwring aela aechnnxn nnidthanganrwmkninchwngsngkhramaetduehmuxnwathngkhunntangkhntangphthnaaenwkhwamkhidnikhunmadwytnexng sahrbexksarxangxingdu Alan Turing The Enigma ody aexndruw hxdcs Andrew Hodges khwamsmphnthkbexnothrpikhxngxunhphlsastrexnothrpikhxngsarsneths thiphthnatxmacakaenwkhwamkhiddngedimkhxng aechnnxn nnmikhwamsmphnthxyangiklchidkb exnothrpi khxng xunhphlsastr Ludwig Boltzmann aela Willard Gibbs nnmiswnsakhyinkarphthnathangdan statistical thermodynamics ngankhxngekhannekidcakkhwamphyayaminkarthicanakha exnothrpi cak thvsdisarsnethsmaich exnothrpi cakaenwkhwamkhidkhxng thvsdisarsneths aela aenwkhwamkhidkhxng xunhphlsastrechingsthiti nimikhwamsmphnthknthiluksung twxyanghnungthiichaesdngkhwamsmphnthrahwang sarsneths aela exnothrpikhxngxunhphlsastr khux pisackhxngaemksewll Maxwell s demon sungepnpisacefatudkhwbkhumkareluxkphankhxngomelkul ephuxsrangkarihlkhxngphlngnganswnthangkbexnothrpikhxngxunhphlsastr inkaraehkkdkhxthisxngkhxngxunhphlsastr aetinkhnaediywkn inkarkhumtudnnpisacktxngkarkhxmul thiaemnya sungthngsxngnihklangknipthaihpisacimsamarthsrangkhwamidepriybthangxunhphlsastrswnkdkhxthisxngid primanthiichwdkhxmulthimipraoychn xikprimanhnungkkhux mutual information sungepnprimanthibngbxkthungkhwamkhunaekknthangsthitikhxngtwaeprsumsxngtw niyamkhxngsarsnethsthiekidrwmknkhxngehtukarn X displaystyle X aela Y displaystyle Y khux I X Y H X H Y H X Y H X H X Y H Y H Y X displaystyle I X Y H X H Y H X Y H X H X Y H Y H Y X odythi H X Y displaystyle H X Y khux exnothrpirwm niyamody H X Y x yp x y log p x y displaystyle H X Y sum x y p x y log p x y aela H X Y displaystyle H X Y khux conditional entropy khxng X displaystyle X mienguxnikhkhunkbkhasngektkarnkhxng Y displaystyle Y dngnn sarsnethsrwm samarthtikhwam hmaythung primankhxngkhwamimaennxnkhxngkha X displaystyle X thildlngemuxrukhathiaennxnkhxng Y displaystyle Y aelainthangklbknduephimwithyakarsarsnethsxangxingThomas A Cover Joy A Thomas Elements of Information Theory John Wiley amp Sons 1991