ในสาขาการเรียนรู้ของเครื่อง ค่าแทนลักษณะ หรือ ฟีเจอร์ (feature) คือค่าตัวเลขที่ได้จากการแปลงข้อมูลเพื่อใช้ในการอธิบายลักษณะที่สำคัญของข้อมูลหรือแบบจำลอง และนำมาใช้ในการประมวลผลในภายหลัง
ภาพรวม
ค่าจากข้อมูลดิบอาจไม่ได้อยู่ในสภาพที่ดีในแง่การใช้งานเสมอไป อาจมีค่าบางอย่าง 2 ค่าที่มีความหมายเหมือนกันหรือซ้ำซ้อน หรือในทางกลับกัน อาจมีค่าบางอย่างค่าเดียวที่แฝงรวมลักษณะของ 2 ค่าเข้าไว้ด้วยกัน หากสามารถแปลงข้อมูลดิบให้อยู่ในรูปแบบที่เหมาะสมได้ ก็จะสามารถใช้ประโยชน์จากข้อมูลได้อย่างมีประสิทธิภาพ ค่าที่แปลงแล้วซึ่งมีรูปแบบที่ดีและเหมาะที่จะใช้ในงานต่อ ๆ ไปได้นั้นเรียกว่า ค่าแทนลักษณะ
ค่าแทนลักษณะถูกดึงมาจากข้อมูลดิบ วิธีการแยกข้อมูลอาจคิดขึ้นโดยใช้ความรู้ของผู้เชี่ยวชาญ หรือ อาจเรียนรู้จากข้อมูลโดยใช้เทคนิคการเรียนรู้ของเครื่องต่าง ๆ
ค่าแทนลักษณะมีการใช้งานในด้านต่าง ๆ ตัวอย่างเช่น ใช้สำหรับการจัดหมวดหมู่ "ภาพถ่าย → ค่าแทนลักษณะ → หมวดหมู่วัตถุ" การสร้างภาพจากข้อความ "ข้อความ → ค่าแทนลักษณะ → รูปภาพ" และการบีบอัดข้อมูลเสียง "เสียง → ค่าแทนลักษณะ → เสียง" เป็นต้น
ค่าแทนลักษณะที่ควรเป็นนั้นแตกต่างกันไปขึ้นอยู่กับการใช้งาน ตัวอย่างเช่น สำหรับค่าแทนลักษณะสำหรับการบีบอัดข้อมูลนั้นจะให้ความสำคัญกับขนาด แต่ในการใช้งานด้านอื่น ๆ นั้น ขนาดอาจมีความสำคัญต่ำ
วิธีการหาค่าแทนลักษณะ
ค่าแทนลักษณะถูกสร้างขึ้นโดยการแปลงข้อมูล เรียกว่า การสกัดค่าแทนลักษณะ (feature extraction) การค้นหากฎการเปลี่ยนแปลงด้วยตนเองโดยใช้ความรู้ของผู้เชี่ยวชาญเรียกว่า วิศวกรรมค่าแทนลักษณะ (feature engineering) และการค้นหากฎการเปลี่ยนแปลงโดยใช้การเรียนรู้ของเครื่อง เรียกว่าการเรียนรู้ค่าแทนลักษณะ
การแยกคุณลักษณะยังอาจเรียกว่า "การฝัง" (embedding) เนื่องจากเกี่ยวข้องกับการเชื่อมโยงค่าที่สังเกตได้/ข้อมูลดิบลงในปริภูมิค่าแทนลักษณะ ใน การประมวลภาษาธรรมชาติ การสกัดเอาค่าแทนลักษณะสำหรับคำต่าง ๆ เรียกว่า (word embedding)
การเรียนรู้ค่าแทนลักษณะ
มีหลายวิธีในการเรียนรู้ค่าแทนลักษณะ ได้แก่
- (PCA)
- (LDA)
วิธีการเหล่านี้อาจแบ่งได้เป็น แบบ/แบบ, แบบมีผู้สอน//แบบไม่มีผู้สอน, ตื้น/ลึก เป็นต้น ขึ้นกับวิธีการใช้งาน
การดำเนินการเรียนรู้หาค่าแทนลักษณะก่อนที่จะนำมาใช้ในงานการเรียนรู้หลักเรียกว่า การฝึกล่วงหน้า (pretraining) เนื่องจากการฝึกล่วงหน้าสามารถแยกต่างหากออกจากงานการเรียนรู้หลักได้ การเรียนรู้ค่าแทนลักษณะจึงอาจใช้การเรียนรู้ล่วงหน้าแบบไม่มีผู้ดูแลเพื่อดำเนินการเรียนรู้แบบมีผู้สอนโดยมีฉลากกำกับในงานการเรียนหลัก นอกจากนี้ การเรียนรู้ระยะทางคือการเรียนรู้ที่ฝังข้อมูลไว้ในปริภูมิที่สามารถวัดค่าได้ จึงสามารถใช้เป็นการเรียนรู้ค่าแทนลักษณะได้
กระบวนการเลือกค่าแทนลักษณะที่เหมาะแก่การใช้งานจากชุดของค่าลักษณะต่าง ๆ เรียกว่า
อ้างอิง
- "data representation learning is a critical step to facilitate the subsequent ... tasks. ... how to learn the intrinsic structure of data and discover valuable information from data" Zhong, et al. (2017). An overview on data representation learning: From traditional feature learning to recent deep learning.
- "manual feature engineering methods, such as image descriptors (... SIFT ... LBP ... HOG ...) and document statistics ( ... TF-IDF ...)" Zhong, et al. (2017). An overview on data representation learning: From traditional feature learning to recent deep learning.
- "Since about 100 years ago, many data representation learning methods have been proposed." Zhong, et al. (2017). An overview on data representation learning: From traditional feature learning to recent deep learning.
- "Closely related to contrastive learning is the family of losses based on metric distance learning or triplets" Khosla, et al. (2020). Supervised Contrastive Learning.
wikipedia, แบบไทย, วิกิพีเดีย, วิกิ หนังสือ, หนังสือ, ห้องสมุด, บทความ, อ่าน, ดาวน์โหลด, ฟรี, ดาวน์โหลดฟรี, mp3, วิดีโอ, mp4, 3gp, jpg, jpeg, gif, png, รูปภาพ, เพลง, เพลง, หนัง, หนังสือ, เกม, เกม, มือถือ, โทรศัพท์, Android, iOS, Apple, โทรศัพท์โมบิล, Samsung, iPhone, Xiomi, Xiaomi, Redmi, Honor, Oppo, Nokia, Sonya, MI, PC, พีซี, web, เว็บ, คอมพิวเตอร์
insakhakareriynrukhxngekhruxng khaaethnlksna hrux fiecxr feature khuxkhatwelkhthiidcakkaraeplngkhxmulephuxichinkarxthibaylksnathisakhykhxngkhxmulhruxaebbcalxng aelanamaichinkarpramwlphlinphayhlngphaphrwmkhacakkhxmuldibxacimidxyuinsphaphthidiinaengkarichnganesmxip xacmikhabangxyang 2 khathimikhwamhmayehmuxnknhruxsasxn hruxinthangklbkn xacmikhabangxyangkhaediywthiaefngrwmlksnakhxng 2 khaekhaiwdwykn haksamarthaeplngkhxmuldibihxyuinrupaebbthiehmaasmid kcasamarthichpraoychncakkhxmulidxyangmiprasiththiphaph khathiaeplngaelwsungmirupaebbthidiaelaehmaathicaichinngantx ipidnneriykwa khaaethnlksna khaaethnlksnathukdungmacakkhxmuldib withikaraeykkhxmulxackhidkhunodyichkhwamrukhxngphuechiywchay hrux xaceriynrucakkhxmulodyichethkhnikhkareriynrukhxngekhruxngtang khaaethnlksnamikarichnganindantang twxyangechn ichsahrbkarcdhmwdhmu phaphthay khaaethnlksna hmwdhmuwtthu karsrangphaphcakkhxkhwam khxkhwam khaaethnlksna rupphaph aelakarbibxdkhxmulesiyng esiyng khaaethnlksna esiyng epntn khaaethnlksnathikhwrepnnnaetktangknipkhunxyukbkarichngan twxyangechn sahrbkhaaethnlksnasahrbkarbibxdkhxmulnncaihkhwamsakhykbkhnad aetinkarichngandanxun nn khnadxacmikhwamsakhytawithikarhakhaaethnlksnakhaaethnlksnathuksrangkhunodykaraeplngkhxmul eriykwa karskdkhaaethnlksna feature extraction karkhnhakdkarepliynaeplngdwytnexngodyichkhwamrukhxngphuechiywchayeriykwa wiswkrrmkhaaethnlksna feature engineering aelakarkhnhakdkarepliynaeplngodyichkareriynrukhxngekhruxng eriykwakareriynrukhaaethnlksna karaeykkhunlksnayngxaceriykwa karfng embedding enuxngcakekiywkhxngkbkarechuxmoyngkhathisngektid khxmuldiblnginpriphumikhaaethnlksna in karpramwlphasathrrmchati karskdexakhaaethnlksnasahrbkhatang eriykwa word embedding kareriynrukhaaethnlksna mihlaywithiinkareriynrukhaaethnlksna idaek PCA LDA withikarehlanixacaebngidepn aebb aebb aebbmiphusxn aebbimmiphusxn tun luk epntn khunkbwithikarichngan kardaeninkareriynruhakhaaethnlksnakxnthicanamaichinngankareriynruhlkeriykwa karfuklwnghna pretraining enuxngcakkarfuklwnghnasamarthaeyktanghakxxkcakngankareriynruhlkid kareriynrukhaaethnlksnacungxacichkareriynrulwnghnaaebbimmiphuduaelephuxdaeninkareriynruaebbmiphusxnodymichlakkakbinngankareriynhlk nxkcakni kareriynrurayathangkhuxkareriynruthifngkhxmuliwinpriphumithisamarthwdkhaid cungsamarthichepnkareriynrukhaaethnlksnaid krabwnkareluxkkhaaethnlksnathiehmaaaekkarichngancakchudkhxngkhalksnatang eriykwaxangxing data representation learning is a critical step to facilitate the subsequent tasks how to learn the intrinsic structure of data and discover valuable information from data Zhong et al 2017 An overview on data representation learning From traditional feature learning to recent deep learning manual feature engineering methods such as image descriptors SIFT LBP HOG and document statistics TF IDF Zhong et al 2017 An overview on data representation learning From traditional feature learning to recent deep learning Since about 100 years ago many data representation learning methods have been proposed Zhong et al 2017 An overview on data representation learning From traditional feature learning to recent deep learning Closely related to contrastive learning is the family of losses based on metric distance learning or triplets Khosla et al 2020 Supervised Contrastive Learning