เพอร์เซปตรอน (อังกฤษ: perceptron) เป็นโครงข่ายประสาทเทียมประเภทหนึ่ง ที่ได้รับการพัฒนาขึ้นใน ค.ศ. 1957 โดย ที่ Cornell Aeronautical Laboratory
เพอร์เซปตรอนประกอบด้วยเซลล์ประสาทเทียม หรือนิวรอน อย่างน้อยหนึ่งชั้น, อินพุตจะถูกส่งตรงไปยังเอาต์พุต โดยผ่านชุดค่าน้ำหนัก, ด้วยเหตุนี้ จึงสามารถพิจารณาว่าเป็นโครงข่ายแบบป้อนไปหน้า (feedforward network) แบบพื้นฐานที่สุด. นิวรอนแต่ละตัวจะคำนวณผลรวมถ่วงน้ำหนักจากอินพุต, ซึ่งก็คือผลรวมของผลคูณระหว่างค่าอินพุตกับค่าน้ำหนักของแต่ละตัว, ถ้าค่าที่ได้จากการคำนวณนี้ มากกว่าขีดแบ่ง (threshold) นิวรอนก็จะให้ค่าเอาต์พุตเท่ากับ 1, ถ้าน้อยกว่าก็จะให้ค่า -1. เพื่อให้ง่ายจึงมักจะกำหนดให้ขีดแบ่ง เป็นค่าน้ำหนักตัวหนึ่งของอินพุตที่เป็นค่าคงที่, โดยฟังก์ชันค่าขีดแบ่งจะมีศูนย์กลางอยู่ที่ 0.
นิวรอนที่ใช้ (activation function) แบบนี้ อาจจะเรียกว่า นิวรอนแบบแมคคัลลอค-พิตส์ (McCulloch-Pitts neurons) หรือ นิวรอนขีดแบ่ง (threshold neurons) ในเอกสารทางวิชาการส่วนใหญ่ มักจะใช้คำว่า เพอร์เซปทรอน เมื่อพูดถึงโครงข่ายที่ประกอบด้วยนิวรอนแบบนี้เพียงหน่วยเดียว
ขั้นตอนวิธีการเรียนรู้อย่างง่าย ที่สามารถนำมาใช้กับเพอร์เซปตรอน จะเรียกว่า กฎเดลต้า (delta-rule) โดยจะคำนวณค่าความผิดพลาดระหว่างเอาต์พุตที่ได้ กับเอาต์พุตของตัวอย่าง แล้วนำค่าที่ได้ไปปรับค่าน้ำหนัก โดยนำไปใช้ในรูปแบบของการเคลื่อนลงตามความชัน (gradient descent)
แม้ว่าในช่วงแรกเพอร์เซปตรอนจะทำงานได้ตามที่ต้องการ แต่ต่อมาก็สามารถพิสูจน์ได้ว่าไม่สามารถสอนให้เพอร์เซปตรอนอย่างง่าย รู้จำรูปแบบต่างๆ หลายแบบ ทำให้งานวิจัยทางด้านนี้หยุดนิ่งไปหลายปี จนกระทั่งมีการค้นพบว่าโครงข่ายประสาทเทียมแบบสามชั้นหรือมากกว่า ให้ผลที่ดีกว่าเพอร์เซปตรอนอย่างมาก
เพอร์เซปตรอนอย่างง่าย ที่ประกอบด้วยหนึ่งหรือสองชั้นนั้น สามารถเรียนรู้เฉพาะรูปแบบที่สามารถ (linearly separable) ซึ่งใน ค.ศ. 1969 บทความที่มีชื่อเสียง ที่มีชื่อว่า Perceptrons โดย มาร์วิน มินสกี และ (Seymour Papert) ได้แสดงให้เห็นว่าไม่สามารถใช้โครงข่ายแบบนี้เรียนรู้ฟังก์ชัน และพวกเขาก็ได้คาดเดา (อย่างผิดพลาด) ว่าจะได้ผลเหมือนกัน แม้ว่าจะใช้โครงข่ายที่มีสามชั้นหรือมากกว่า
การค้นพบในทศวรรษ 1980 ว่าโครงข่ายประสาทหลายชั้น (multi-layer neural network) ไม่ได้รับผลกระทบจากปัญหานี้ (ในความเป็นจริง) ทำให้งานวิจัยด้านนี้ฟื้นกลับมาอีกครั้ง
อ้างอิง
- Rosenblatt, Frank (1958), The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain, Cornell Aeronautical Laboratory, Psychological Review, v65, No. 6, pp. 386-408.
- Minsky M L and Papert S A 1969 Perceptrons (Cambridge, MA: MIT Press)
แหล่งข้อมูลอื่น
- History of perceptrons
- Mathematics of perceptrons
wikipedia, แบบไทย, วิกิพีเดีย, วิกิ หนังสือ, หนังสือ, ห้องสมุด, บทความ, อ่าน, ดาวน์โหลด, ฟรี, ดาวน์โหลดฟรี, mp3, วิดีโอ, mp4, 3gp, jpg, jpeg, gif, png, รูปภาพ, เพลง, เพลง, หนัง, หนังสือ, เกม, เกม, มือถือ, โทรศัพท์, Android, iOS, Apple, โทรศัพท์โมบิล, Samsung, iPhone, Xiomi, Xiaomi, Redmi, Honor, Oppo, Nokia, Sonya, MI, PC, พีซี, web, เว็บ, คอมพิวเตอร์
ephxresptrxn xngkvs perceptron epnokhrngkhayprasathethiympraephthhnung thiidrbkarphthnakhunin kh s 1957 ody thi Cornell Aeronautical Laboratory ephxresptrxnprakxbdwyesllprasathethiym hruxniwrxn xyangnxyhnungchn xinphutcathuksngtrngipyngexatphut odyphanchudkhanahnk dwyehtuni cungsamarthphicarnawaepnokhrngkhayaebbpxniphna feedforward network aebbphunthanthisud niwrxnaetlatwcakhanwnphlrwmthwngnahnkcakxinphut sungkkhuxphlrwmkhxngphlkhunrahwangkhaxinphutkbkhanahnkkhxngaetlatw thakhathiidcakkarkhanwnni makkwakhidaebng threshold niwrxnkcaihkhaexatphutethakb 1 thanxykwakcaihkha 1 ephuxihngaycungmkcakahndihkhidaebng epnkhanahnktwhnungkhxngxinphutthiepnkhakhngthi odyfngkchnkhakhidaebngcamisunyklangxyuthi 0 niwrxnthiich activation function aebbni xaccaeriykwa niwrxnaebbaemkhkhllxkh phits McCulloch Pitts neurons hrux niwrxnkhidaebng threshold neurons inexksarthangwichakarswnihy mkcaichkhawa ephxrespthrxn emuxphudthungokhrngkhaythiprakxbdwyniwrxnaebbniephiynghnwyediyw khntxnwithikareriynruxyangngay thisamarthnamaichkbephxresptrxn caeriykwa kdedlta delta rule odycakhanwnkhakhwamphidphladrahwangexatphutthiid kbexatphutkhxngtwxyang aelwnakhathiidipprbkhanahnk odynaipichinrupaebbkhxngkarekhluxnlngtamkhwamchn gradient descent aemwainchwngaerkephxresptrxncathanganidtamthitxngkar aettxmaksamarthphisucnidwaimsamarthsxnihephxresptrxnxyangngay rucarupaebbtang hlayaebb thaihnganwicythangdannihyudningiphlaypi cnkrathngmikarkhnphbwaokhrngkhayprasathethiymaebbsamchnhruxmakkwa ihphlthidikwaephxresptrxnxyangmak ephxresptrxnxyangngay thiprakxbdwyhnunghruxsxngchnnn samartheriynruechphaarupaebbthisamarth linearly separable sungin kh s 1969 bthkhwamthimichuxesiyng thimichuxwa Perceptrons ody marwin minski aela Seymour Papert idaesdngihehnwaimsamarthichokhrngkhayaebbnieriynrufngkchn aelaphwkekhakidkhadeda xyangphidphlad wacaidphlehmuxnkn aemwacaichokhrngkhaythimisamchnhruxmakkwa karkhnphbinthswrrs 1980 waokhrngkhayprasathhlaychn multi layer neural network imidrbphlkrathbcakpyhani inkhwamepncring thaihnganwicydannifunklbmaxikkhrngxangxingRosenblatt Frank 1958 The Perceptron A Probabilistic Model for Information Storage and Organization in the Brain Cornell Aeronautical Laboratory Psychological Review v65 No 6 pp 386 408 Minsky M L and Papert S A 1969 Perceptrons Cambridge MA MIT Press aehlngkhxmulxunHistory of perceptrons Mathematics of perceptrons