กฎ 3 ข้อของหุ่นยนต์ ตั้งขึ้นโดย ไอแซค อสิมอฟ เพื่อใช้กับหุ่นยนต์ ในนิยายวิทยาศาสตร์ของเขา. กฎเหล่านี้ ไม่ได้เกี่ยวข้องโดยตรงกับหุ่นยนต์ในชีวิตจริงแต่อย่างใด.
- หุ่นยนต์มิอาจกระทำการอันตรายต่อผู้ที่เป็นมนุษย์ หรือนิ่งเฉยปล่อยให้ผู้ที่เป็นมนุษย์ตกอยู่ในอันตรายได้
(A robot may not harm a human being, or, through inaction, allow a human being to come to harm.) - หุ่นยนต์ต้องเชื่อฟังคำสั่งที่ได้รับจากผู้ที่เป็นมนุษย์ เว้นแต่คำสั่งนั้นๆ ขัดแย้งกับกฎข้อแรก
(A robot must obey the orders given to it by human beings, except where such orders would conflict with the First Law.) - หุ่นยนต์ต้องปกป้องสถานะความมีตัวตนของตนไว้ ตราบเท่าที่การกระทำนั้นมิได้ขัดแย้งต่อกฎข้อแรกหรือกฎข้อที่สอง
(A robot must protect its own existence, as long as such protection does not conflict with the First or Second Law.)
โดยกฎเหล่านี้สามารถเห็นได้อย่างชัดเจนในฉากเริ่มเรื่องของภาพยนตร์ ไอ โรบอท(I, Robot)
อ้างอิงจาก คู่มือหุ่นยนต์ศาสตร์ ฉบับแก้ไขครั้งที่ 56 ค.ศ. 2058
ต่อมาในภายหลัง ได้มีการเพิ่มกฎข้อ 0 ลงไป คือ
- 0. หุ่นยนต์มิอาจกระทำการอันตรายต่อมนุษยชาติ หรือนิ่งเฉยปล่อยให้มนุษยชาติตกอยู่ในอันตรายได้
- (A robot may not injure humanity, or, through inaction, allow humanity to come to harm.)
โดยการกระทำตามกฎข้อ 1, 2 และ 3 จะต้องไม่ขัดกับกฎข้อ 0 นี้
วิวัฒนาการของกฎของหุ่นยนต์
ค.ศ. 1890 บริษัทหุ่นยนต์และมนุษย์กลแห่งสหรัฐฯ ทำการดัดแปลงกฎข้อที่ 1 โดยระบุไว้เพียงแค่ว่า
- 1. หุ่นยนต์จะต้องไม่ทำร้ายมนุษย์
อ้างอิงจาก "เนสเตอร์ 10" (ข้าคือหุ่นยนต์ #1, แปลโดย ธีรวินท์) : "Little Lost Robot" (I, Robot)
ค.ศ.1900 แสดงความคิดเห็นถึงการมีอยู่ของกฎข้อที่ศูนย์ขึ้นเป็นครั้งแรกว่า
- "เครื่องจักรจะต้องไม่ทำร้ายมนุษยชาติ หรือนิ่งเฉยปล่อยให้มนุษยชาติต้องตกอยู่ในอันตราย" กฎข้อแรกถึงข้อที่สามควรถูกปรับเปลี่ยนตามให้สอดคล้องกัน
อ้างอิงจาก "เครื่องจักร" (ข้าคือหุ่นยนต์ #1, แปลโดย ธีรวินท์) : "The Evitable Conflict" (I, Robot)
ค.ศ. 1950 แย้งว่า กฎข้อที่หนึ่งมีข้อผิดพลาด และให้ความเห็นว่าน่าจะถูกระบุไว้ว่า
- "ภายใต้การรับรู้, หุ่นยนต์จะไม่ทำสิ่งใดที่เป็นอันตรายต่อมนุษย์ หรือนิ่งเฉยปล่อยให้มนุษย์ตกอยู่ในอันตราย" มากกว่า
อ้างอิงจาก นครสุริยะ (แปลโดย ประหยัด โภคะฐิติยุกต์) : The Naked Sun
ค.ศ. 2000 เพิ่มกฎข้อที่ศูนย์ให้อยู่เหนือกฎของหุ่นยนต์ดั้งเดิมสามข้อ โดยระบุว่า
- "หุ่นยนต์จะต้องไม่ทำร้ายมนุษยชาติ หรือนิ่งเฉยปล่อยให้มนุษยชาติ ต้องตกอยู่ในอันตราย" กฎข้อแรกถึงข้อที่สามควรถูกปรับเปลี่ยนตามให้สอดคล้องกัน
อ้างอิงจาก นครหุ่นยนต์ (แปลโดย ระเริงชัย) : Robot and Empire
หลังสถาปนาแห่งปฐมภพ ภพมีชีวิต (หรือภพไกอา) ได้ปรับกฎข้อแรกให้สอดคล้องกับปรัชญาแห่งตน โดยระบุไว้ว่า
- "ปฐมภพจะต้องไม่ทำร้ายสิ่งมีชีวิต หรือนิ่งเฉยปล่อยให้สิ่งมีชีวิตตกอยู่ในอันตราย"
อ้างอิงจาก สถาบันสถาปนาและปฐมภพ (แปลโดย ทศพล) : Foundation's Edge
โดยในปัจจุบันได้มีการเติมตรรกะทางความคิดให้มีความสามารถเพิ่มขึ้น โดยใช้ กฎเพียงข้อเดียวคือ รับรู้และทำตาม
wikipedia, แบบไทย, วิกิพีเดีย, วิกิ หนังสือ, หนังสือ, ห้องสมุด, บทความ, อ่าน, ดาวน์โหลด, ฟรี, ดาวน์โหลดฟรี, mp3, วิดีโอ, mp4, 3gp, jpg, jpeg, gif, png, รูปภาพ, เพลง, เพลง, หนัง, หนังสือ, เกม, เกม, มือถือ, โทรศัพท์, Android, iOS, Apple, โทรศัพท์โมบิล, Samsung, iPhone, Xiomi, Xiaomi, Redmi, Honor, Oppo, Nokia, Sonya, MI, PC, พีซี, web, เว็บ, คอมพิวเตอร์
kd 3 khxkhxnghunynt tngkhunody ixaeskh xsimxf ephuxichkbhunynt inniyaywithyasastrkhxngekha kdehlani imidekiywkhxngodytrngkbhunyntinchiwitcringaetxyangid hunyntmixackrathakarxntraytxphuthiepnmnusy hruxningechyplxyihphuthiepnmnusytkxyuinxntrayid A robot may not harm a human being or through inaction allow a human being to come to harm hunynttxngechuxfngkhasngthiidrbcakphuthiepnmnusy ewnaetkhasngnn khdaeyngkbkdkhxaerk A robot must obey the orders given to it by human beings except where such orders would conflict with the First Law hunynttxngpkpxngsthanakhwammitwtnkhxngtniw trabethathikarkrathannmiidkhdaeyngtxkdkhxaerkhruxkdkhxthisxng A robot must protect its own existence as long as such protection does not conflict with the First or Second Law hunyntxasiom hunyntkhxnghxnda odykdehlanisamarthehnidxyangchdecninchakerimeruxngkhxngphaphyntr ix orbxth I Robot xangxingcak khumuxhunyntsastr chbbaekikhkhrngthi 56 kh s 2058 txmainphayhlng idmikarephimkdkhx 0 lngip khux 0 hunyntmixackrathakarxntraytxmnusychati hruxningechyplxyihmnusychatitkxyuinxntrayid A robot may not injure humanity or through inaction allow humanity to come to harm odykarkrathatamkdkhx 1 2 aela 3 catxngimkhdkbkdkhx 0 niwiwthnakarkhxngkdkhxnghunyntkh s 1890 bristhhunyntaelamnusyklaehngshrth thakarddaeplngkdkhxthi 1 odyrabuiwephiyngaekhwa 1 hunyntcatxngimtharaymnusy xangxingcak ensetxr 10 khakhuxhunynt 1 aeplody thirwinth Little Lost Robot I Robot kh s 1900 aesdngkhwamkhidehnthungkarmixyukhxngkdkhxthisunykhunepnkhrngaerkwa ekhruxngckrcatxngimtharaymnusychati hruxningechyplxyihmnusychatitxngtkxyuinxntray kdkhxaerkthungkhxthisamkhwrthukprbepliyntamihsxdkhlxngkn xangxingcak ekhruxngckr khakhuxhunynt 1 aeplody thirwinth The Evitable Conflict I Robot kh s 1950 aeyngwa kdkhxthihnungmikhxphidphlad aelaihkhwamehnwanacathukrabuiwwa phayitkarrbru hunyntcaimthasingidthiepnxntraytxmnusy hruxningechyplxyihmnusytkxyuinxntray makkwa xangxingcak nkhrsuriya aeplody prahyd ophkhathitiyukt The Naked Sun kh s 2000 ephimkdkhxthisunyihxyuehnuxkdkhxnghunyntdngedimsamkhx odyrabuwa hunyntcatxngimtharaymnusychati hruxningechyplxyihmnusychati txngtkxyuinxntray kdkhxaerkthungkhxthisamkhwrthukprbepliyntamihsxdkhlxngkn xangxingcak nkhrhunynt aeplody raeringchy Robot and Empire hlngsthapnaaehngpthmphph phphmichiwit hruxphphikxa idprbkdkhxaerkihsxdkhlxngkbprchyaaehngtn odyrabuiwwa pthmphphcatxngimtharaysingmichiwit hruxningechyplxyihsingmichiwittkxyuinxntray xangxingcak sthabnsthapnaaelapthmphph aeplody thsphl Foundation s Edge odyinpccubnidmikaretimtrrkathangkhwamkhidihmikhwamsamarthephimkhun odyich kdephiyngkhxediywkhux rbruaelathatam