การวิเคราะห์ภาพคนและสัมภาระสำหรับการตรวจจับวัตถุที่ปราศจากเจ้าของ
Main Article Content
บทคัดย่อ
บทความนี้นำเสนอวิธีการวิเคราะห์ภาพวิดีโอคนและสัมภาระสำหรับการตรวจจับวัตถุที่ปราศจากเจ้าของ และตรวจจับบุคคลที่มีการถือกระเป๋าประเภทต่าง ๆ เนื่องจากเหตุการณ์วางทิ้งกระเป๋าเป็นเหตุการณ์ที่มีความเสี่ยงและเกิดขึ้นได้จริงโดยเฉพาะพื้นที่สาธารณะที่ต้องการเฝ้าระวังเป็นพิเศษ เช่น สถานีรถไฟ สนามบิน หรือสถานที่สำคัญภายในอาคาร เป็นต้น การตรวจจับเพื่อระบุตำแหน่งคนและกระเป๋าใช้วิธีการเรียนรู้เชิงลึกที่ถูกฝึกสอนด้วยภาพจำนวน 12,000 ภาพ ที่ประกอบด้วยภาพคนและกระเป๋า เช่น กระเป๋าเป้ กระเป๋าถือ และกระเป๋าเดินทาง งานวิจัยนี้ใช้แบบจำลอง YOLOv3 สำหรับการตรวจจับวัตถุซึ่งประมวลผลได้แบบเรียลไทม์และมีประสิทธิภาพความถูกต้อง (Accuracy) ถึง 98% ส่วนการวิเคราะห์ความเป็นเจ้าของ และการละทิ้งกระเป๋าจะใช้วิธีการพิจารณาความสัมพันธ์ในเชิงตำแหน่งและการเคลื่อนที่ของคนและกระเป๋า ซึ่งประสิทธิภาพการระบุความเป็นเจ้าของได้ค่าความถูกต้อง (Accuracy) 65.1% และประสิทธิภาพการระบุการละทิ้งวัตถุที่ 66.6%
Article Details

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.
นโยบายการรับบทความ
กองบรรณาธิการวารสารสถาบันเทคโนโลยีไทย-ญี่ปุ่น มีความยินดีรับบทความจากอาจารย์ประจำ และผู้ทรงคุณวุฒิในสาขาวิศวกรรมศาสตร์และเทคโนโลยี ที่เขียนเป็นภาษาไทยหรือภาษาอังกฤษ ซึ่งผลงานวิชาการที่ส่งมาขอตีพิมพ์ต้องไม่เคยเผยแพร่ในสิ่งพิมพ์อื่นใดมาก่อน และต้องไม่อยู่ในระหว่างการพิจารณาของวารสารอื่นที่นำส่ง ดังนั้นผู้สนใจที่จะร่วมเผยแพร่ผลงานและความรู้ที่ศึกษามาสามารถนำส่งบทความได้ที่กองบรรณาธิการเพื่อเสนอต่อคณะกรรมการกลั่นกรองบทความพิจารณาจัดพิมพ์ในวารสารต่อไป ทั้งนี้บทความที่สามารถเผยแพร่ได้ประกอบด้วยบทความวิจัย ผู้สนใจสามารถศึกษาและจัดเตรียมบทความจากคำแนะนำสำหรับผู้เขียนบทความ
การละเมิดลิขสิทธิ์ถือเป็นความรับผิดชอบของผู้ส่งบทความโดยตรง บทความที่ได้รับการตีพิมพ์ต้องผ่านการพิจารณากลั่นกรองคุณภาพจากผู้ทรงคุณวุฒิและได้รับความเห็นชอบจากกองบรรณาธิการ
ข้อความที่ปรากฏภายในบทความของแต่ละบทความที่ตีพิมพ์ในวารสารวิชาการเล่มนี้ เป็น ความคิดเห็นส่วนตัวของผู้เขียนแต่ละท่าน ไม่เกี่ยวข้องกับสถาบันเทคโนโลยีไทย-ญี่ปุ่น และคณาจารย์ท่านอื่น ๆ ในสถาบัน แต่อย่างใด ความรับผิดชอบด้านเนื้อหาและการตรวจร่างบทความแต่ละบทความเป็นของผู้เขียนแต่ละท่าน หากมีความผิดพลาดใด ๆ ผู้เขียนแต่ละท่านจะต้องรับผิดชอบบทความของตนเองแต่ผู้เดียว
กองบรรณาธิการขอสงวนสิทธิ์มิให้นำเนื้อหา ทัศนะ หรือข้อคิดเห็นใด ๆ ของบทความในวารสารสถาบันเทคโนโลยีไทย-ญี่ปุ่น ไปเผยแพร่ก่อนได้รับอนุญาตจากผู้นิพนธ์ อย่างเป็นลายลักษณ์อักษร ผลงานที่ได้รับการตีพิมพ์ถือเป็นลิขสิทธิ์ของวารสารสถาบันเทคโนโลยีไทย-ญี่ปุ่น
ผู้ประสงค์จะส่งบทความเพื่อตีพิมพ์ในวารสารวิชาการ สถาบันเทคโนโลยีไทย-ญี่ปุ่น สามารถส่ง Online ที่ https://www.tci-thaijo.org/index.php/TNIJournal/ โปรดสมัครสมาชิก (Register) โดยกรอกรายละเอียดให้ครบถ้วนหากต้องการสอบถามข้อมูลเพิ่มเติมที่
- กองบรรณาธิการ วารสารสถาบันเทคโนโลยีไทย-ญี่ปุ่น
- ฝ่ายวิจัยและนวัตกรรม สถาบันเทคโนโลยีไทย-ญี่ปุ่น
เลขที่ 1771/1 สถาบันเทคโนโลยีไทย-ญี่ปุ่น ซอยพัฒนาการ 37-39 ถนนพัฒนาการ แขวงสวนหลวง เขตสวนหลวง กรุงเทพมหานคร 10250 ติดต่อกับคุณพิมพ์รต พิพัฒนกุล (02) 763-2752 , คุณจุฑามาศ ประสพสันติ์ (02) 763-2600 Ext. 2402 Fax. (02) 763-2754 หรือ E-mail: JEDT@tni.ac.th
References
E. Luna, J. C. San Miguel, D. Ortego, and J. M. Martínez, “Abandoned object detection in video-surveillance: survey and comparison,” Sensors, vol. 18, no. 12, pp. 1–32, Dec. 2018.
F. Porikli, “Detection of temporarily static regions by processing video at different frame rates,” in Proc. IEEE Int. Conf. Adv. Video Signal-based Surveillance, London, UK, Sep. 5–7, 2007, pp. 236–241.
F. Porikli, Y. Ivanov, and T. Haga, “Robust abandoned object detection using dual foregrounds,” EURASIP J. Adv. Signal Process., vol. 2008, Oct. 2007, Art. no. 197875 (2007).
J. Redmon, S. Divvala, R. Girshick and A. Farhadi, “You only look once: Unified, real-time object detection,” 29th IEEE Conf. Comput. Vision Pattern Recognit., Las Vegas, NV, USA, Jun. 27–30, 2016, pp. 779–788.
R. Girshick, J. Donahue, T. Darrell and J. Malik, “Rich feature hierarchies for accurate object detection and semantic segmentation,” in IEEE Conf. Comput. Vision Pattern Recognit., Columbus, OH, USA, Jun. 23–28, 2014, pp. 580–587.
T. Lin, P. Dollár, R. Girshick, K. He, B. Hariharan and S. Belongie, “Feature pyramid networks for object detection,” in IEEE Conf. Comput. Vision Pattern Recognit., Honolulu, HI, USA, Jul. 21–26, 2017, pp. 936–944, doi: 10.1109/CVPR.2017.106.
T. Bouwmans, F. Porikli, B. Höferlin, and A. Vacavant, Background Modeling and Foreground Detection for Video Surveillance, Boca Raton, FL, USA: CRC Press, 2014.
A. Borji, M. Cheng, H. Jiang and J. Li, “Salient object detection: A benchmark,” IEEE Trans. Image Process., vol. 24, no. 12, pp. 5706–5722, Dec. 2015.
F. Perazzi, J. Pont-Tuset, B. McWilliams, L. Van Gool, M. Gross, and A. Sorkine-Hornung, “A Benchmark dataset and evaluation methodology for video object segmentation,” in 29th IEEE Conf. Comput. Vision Pattern Recognit., Las Vegas, NV, USA, Jun. 27–30, 2016, pp. 724–732.
A. G. Howard, M. Zhu, B. Chen, D. Kalenichenko, W. Wang, T. Weyand, M. Andreetto, and H. Adam, “MobileNets: Efficient convolutional neural networks for mobile vision applications,” 2017. [Online]. Available: arXiv:1704.04861.
S. Smeureanu and R. T. Ionescu, “Real-time deep learning method for abandoned luggage detection in video,” in Proc. 26th Eur. Signal Process. Conf. EUSIPCO, Rome, Italy, Sep. 3–7, 2018, pp. 1775–1779.
X. Xie, C. Wang, S. Chen, G. Shi, and Z. Zhao, “Real-time illegal parking detection system based on deep learning,” in Int. Conf. Deep Learn. Technol., Chengdu, China, Jun. 2–4, 2017, pp. 23–27.
C.-Y. Lin, K. Muchtar, and C.-H. Yeh, “Robust techniques for abandoned and removed object detection based on Markov random field,” J. Vis. Commun. Image Represent., vol. 39, pp. 181–195, Aug. 2016.
I. Dahi, M. C. E. Mezouar, N. Taleb, and M. Elbahri, “An edge-based method for effective abandoned luggage detection in complex surveillance videos,” Comput. Vis. Image Underst., vol. 158, pp. 141–151, May 2017.
J. Kim and D. Kim, “Accurate abandoned and removed object classification using hierarchical finite state machine,” Image Vis. Comput., vol. 44, pp. 1–14, Dec. 2015.
T. Lin et al., “Microsoft COCO: Common Objects in Context,” 2014. [Online]. Available: arXiv:1405.0312.
A. Kuznetsova et al., “The Open Images Dataset V4 Unified Image Classification, Object Detection, and Visual Relationship Detection at Scale,” Int. J. Comput. Vis., vol. 128, pp. 1956–1981, Mar. 2020.
i-Lids dataset for AVSS 2007, Sep. 2007. [Online]. Available: http://www.eecs.qmul.ac.uk/~andrea/avss2007_d.html
P. L. Venetianer, Z. Zhang, W. Yin, and A. J. Lipton, “Stationary target detection using the objectvideo surveillance system,” in IEEE Conf. Adv. Video Signal-based Surveillance, London, UK, Sep. 5–7, 2007, pp. 242–247.