การเรียนรู้โครงข่ายประสาทเทียมเชิงลึกเพื่อการระบุตำแหน่งจุดสังเกตบนใบหน้าด้วยการทำนายค่าสัมประสิทธิ์การวิเคราะห์องค์ประกอบหลัก
Main Article Content
บทคัดย่อ
การระบุตำแหน่งจุดสังเกตบนใบหน้าเป็นขั้นตอนก่อนการประมวลผลที่สำคัญสำหรับการวิเคราะห์ภาพใบหน้าเพราะสามารถลดความหลากหลายและซับซ้อนของรูปภาพได้ งานวิจัยฉบับนี้จึงมีวัตถุประสงค์ในการปรับปรุงประสิทธิภาพการเรียนรู้โครงข่ายประสาทเทียมเชิงลึกสำหรับการตรวจจับจุดสังเกตบนใบหน้าในรูปภาพด้วยการการทำนายค่าสัมประสิทธิ์การวิเคราะห์องค์ประกอบหลักแทนที่การทำนายจุดสังเกตบนใบหน้าโดยตรง ซึ่งผลการทำนายค่าสัมประสิทธิ์นั้นสามารถแปลงกลับให้เป็นตำแหน่งจุดสังเกตได้จากแม่แบบของการวิเคราะห์องค์ประกอบหลัก จากผลการทดลองบนฐานข้อมูลมาตรฐาน 300W สรุปได้ว่าการทำนายค่าสัมประสิทธิ์การวิเคราะห์องค์ประกอบหลักนั้นมีประสิทธิภาพมากกว่าการทำนายตำแหน่งจุดสังเกตบนใบหน้าโดยตรง โดยขนาดที่เหมาะสมของค่าสัมประสิทธิ์อยู่ที่ 15 ซึ่งมีอัตราค่าเฉลี่ยความคลาดเคลื่อนน้อยที่สุดอยู่ที่ 5.723 เมื่อเปรียบเทียบกับอัตราค่าเฉลี่ยความคลาดเคลื่อนที่ 6.542 จากการทำนายจุดสังเกตบนใบหน้าโดยตรง
Article Details

อนุญาตภายใต้เงื่อนไข Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.
- เนื้อหาต้นฉบับที่ปรากฏในวารสารเป็นความรับผิดชอบของผู้เขียน ทั้งนี้ไม่รวมความผิดพลาดอันเกิดจากเทคนิคการพิมพ์
- ลิขสิทธิ์ต้นฉบับที่ได้รับการตีพิมพ์ในวารสารวิชาการ ซายน์เทค มรภ.ภูเก็ต ถือเป็นกรรมสิทธิ์ของวารสารวิชาการ ซายน์เทค มรภ.ภูเก็ต
เอกสารอ้างอิง
Jacquet, M., & Champod, C. (2020). Automated face recognition in forensic science: Review and perspectives. Forensic science international, 307, 110124.
Wu, X., He, R., Sun, Z., & Tan, T. (2018). A Light CNN for Deep Face Representation with Noisy Labels. IEEE Transactions on Information Forensics and Security, 13, 2884- 2896.
Ko, B. (2018). A brief review of facial emotion recognition based on visual information. Sensors, 18(2), 401.
Richardson, E., Alaluf, Y., Patashnik, O., Nitzan, Y., Azar, Y., Shapiro, S., & Cohen-Or, D. (2021). Encoding in style: a stylegan encoder for image-to-image translation (pp. 2287-2296). In Conference on Computer Vision and Pattern Recognition (CVPR). USA.
Choi, Y., Choi, M., Kim, M., Ha, J., Kim, S., & Choo, J. (2018). Stargan: Unified generative adversarial networks for multi-domain image-to-image translation (pp 8789-8797). In Conference on Computer Vision and Pattern Recognition (CVPR). USA.
Li, C., Wang, R., Li, J., & Fei, L. (2020). Face detection based on YOLOv3 (pp 277-284). In International Conference on Intelligent Computing, Communication and Devices (ICCD). CHINA.
เพชระ อินทานนท์, และ สุรศักดิ์ มังสิงห์. (2563). การทดสอบสมรรถนะการตรวจจับของโมเดลการตรวจจับจุดสังเกตบนใบหน้า. วารสารวิชาการซายน์เทค มหาวิทยาลัยราชภัฏภูเก็ต, 4(2), 13-22.
Li, X., Lai, S., & Qian, X. (2021). DBCFace: Towards PURE convolutional neural network face detection. IEEE Transactions on Circuits and Systems for Video Technology, 32(4), 1792-1804.
Karras, T., Laine, S., & Aila, T. (2019). A Style-Based Generator Architecture for Generative Adversarial Networks (pp 4396-4405). In Conference on Computer Vision and Pattern Recognition (CVPR). USA.
Cootes, T. F., Edwards, G. J., & Taylor, C. J. (2001). Active appearance models. IEEE Transactions on Pattern Analysis and Machine Intelligence, 23(6), 681–685.
Cristinacce, D. & Cootes, T. F. (2006). Feature detection and tracking with constrained local models (pp 95.1-95.10). In the British Machine Vision Conference (BMVC). UK.
Lowe, D. G. (2004). Distinctive image features from scale-invariant keypoints. International Journal of Computer Vision, 60(2), 91–110.
Dalal, N., & Triggs, B. (2005). Histograms of oriented gradients for human detection (pp 886-893). In Conference on Computer Vision and Pattern Recognition (CVPR). USA.
Jolliffe, I. T. (2002). Principal Component Analysis (2nd edition). New York: Springer Science & Business Media.
Sagonas, C., Tzimiropoulos, G., Zafeiriou, S., & Pantic, M. (2013). 300 faces in-the-wild challenge: The first facial landmark localization challenge (pp 397-403). In International Conference on Computer Vision Workshop (ICCV-W). Australia.
Sagonas, C., Antonakos, E., Tzimiropoulos, G., Zafeiriou, S., & Pantic, M. (2016). 300 faces in-the-wild challenge: database and results. Image and Vision Computing, 47, 3-18.
Feng, Z., Kittler, J., Awais, M., Huber, P., & Wu, X. (2018). Wing Loss for Robust Facial Landmark Localisation with Convolutional Neural Networks (pp 2235-2245). In Conference on Computer Vision and Pattern Recognition (CVPR). USA.
Feng, Z. H., Kittler, J., Awais, M., & Wu, X. J. (2020). Rectified wing loss for efficient and robust facial landmark localisation with convolutional neural networks. International Journal of Computer Vision, 128(8), 2126-2145.
Wang, X., Bo, L., & Fuxin, L. (2019). Adaptive Wing Loss for Robust Face Alignment via Heatmap Regression. (pp 6971-6981). In International Conference on Computer Vision (ICCV). Korea.
Liu, Y., Cao, Y., Li, Y., Liu, M., Song, R., Wang, Y., Zhigang X., & Ma, X. (2016). Facial expression recognition with PCA and LBP features extracting from active facial patches. (pp. 368-373). In IEEE International Conference on Real-time Computing and Robotics (RCAR). Cambodia.
Goulart, C., Valadão, C., Delisle-Rodriguez, D., Funayama, D., Favarato, A., Baldo, G., Vinícius, B., Eliete, C., & Bastos-Filho, T. (2019). Visual and thermal image processing for facial specific landmark detection to infer emotions in a child-robot interaction. Sensors, 19(13), 2844-2868.