การตรวจจับความรุนแรงของแผลไหม้โดยใช้โมเดลการแบ่งส่วน: การเปรียบเทียบระหว่าง U-NET และ YOLOv8

Main Article Content

ขวัญกมล ดิฐกัญจน์
สรวิชญ์ หนูคง

บทคัดย่อ

การตรวจจับความรุนแรงแผลไหม้ โดยใช้วิธีการทำการตรวจจับพื้นที่ที่สนใจ โดยมีการแบ่งพื้นที่ของแผลไหม้ออกเป็นสามระดับที่แตกต่างกัน: (i) แผลไหม้ระดับที่หนึ่ง (ii) แผลไหม้ระดับที่สอง และ (iii) แผลไหม้ระดับที่สาม ซึ่งแต่ละระดับจะมีลักษะของแผลไหม้แตกต่างกัน เพื่อต้องการตรวจจับความรุนแรงแผลไหม้ จึงมีการนำเทคโนโลยีปัญญาประดิษฐ์ (AI) มาใช้ในการสร้างโมเดลปัญญาประดิษฐ์ นั่นคือโมเดล U-Net และ Yolov8 ซึ่งจะมีชุดข้อมูลภาพที่เป็นภาพแผลไหม้ทั้งหมด 2,000 รูปภาพ และมีรูปภาพแผลไหม้ทั้งสามระดับ เนื่องจากต้องการที่จะเปรียบเทียบประสิทธิภาพระหว่าง U-Net ที่เป็นโมเดลยอดนิยมที่ใช้ในการตรวจจับพื้นที่ที่สนใจ กับ Yolov8 ที่เป็นโมเดลที่พัฒนามาในปี 2023 ซึ่งเป็นโมเดลมาใหม่เมื่อไม่นานมานี้ โดยผลลัพธ์ในการทดลองของ U-Net และ Yolov8 พบว่าผลลัพธ์ที่ดีที่สุดของ U-Net มีค่าความแม่นยำสูงถึง 79.1% และมีค่าสูญเสีย 79.8% ส่วน Yolov8 มีผลลัพธ์ที่ดีที่สุดคือ ค่า mAP 0.5 ดีที่สุดเท่ากับ 0.657 และมีค่าสูญเสียของการแบ่งภาพอยู่ที่ 3.231 และค่าความสูญเสียของการทำนายคลาสอยู่ที่ 1.961 ซึ่งเป็นผลลัพธ์ที่ดีที่สุดของทั้งสองโมเดล

Article Details

How to Cite
ดิฐกัญจน์ ข. ., & หนูคง ส. (2024). การตรวจจับความรุนแรงของแผลไหม้โดยใช้โมเดลการแบ่งส่วน: การเปรียบเทียบระหว่าง U-NET และ YOLOv8. วารสารวิทยาการสารสนเทศและเทคโนโลยีประยุกต์, 7(1). สืบค้น จาก https://ph01.tci-thaijo.org/index.php/jait/article/view/255064
บท
บทความวิจัย

References

Ameli, Z., Nesheli, S. J., & Landis, E. N. (2023). Deep learning-based steel bridge corrosion segmentation and condition rating using mask RCNN and YOLOv8. Infrastructures, 9(1), 3. https://doi.org/10.3390/infrastructures9010003

Chang, C. W., Lai, F., Christian, M., Chen, Y. C., Hsu, C., Chen, Y. S., Chang, D. H., Roan, T. L., & Yu, Y. C. (2021). Deep learning–assisted burn wound diagnosis: Diagnostic model development study. JMIR Medical Informatics, 9(12), e22798. https://doi.org/10.2196/22798

Chauhan, J., & Goyal, P. (2021). Convolution neural network for effective burn region segmentation of color images. Burns, 47(4), 854–862. https://doi.org/10.1016/j.burns.2020.08.016

Che, S., Li, Z., Shi, Z., Gao, M., & Tang, H. (2023). Research on an underwater image segmentation algorithm based on YOLOv8. Journal of Physics: Conference Series, 2644(1), 012013. https://doi.org/10.1088/1742-6596/2644/1/012013

Cirillo, M. D., Mirdell, R., Sjöberg, F., & Pham, T. D. (2021). Improving burn depth assessment for pediatric scalds by AI based on semantic segmentation of polarized light photography images. Burns, 47(7), 1586–1593. https://doi.org/10.1016/j.burns.2021.01.011

Connolly, M., & Gangahar, R. (2021). 640 Improving junior doctors’ knowledge and confidence in assessment, management and referral of burns patients in the Emergency Department, Royal Oldham Hospital. British Journal of Surgery, 108(Supplement_6). https://doi.org/10.1093/bjs/znab259.703

Hamamoto, R., Suvarna, K., Yamada, M., Kobayashi, K., Shinkai, N., Miyake, M., Takahashi, M., Jinnai, S., Shimoyama, R., Sakai, A., Takasawa, K., Bolatkan, A., Shozu, K., Dozen, A., Machino, H., Takahashi, S., Asada, K., Komatsu, M., Sese, J., & Kaneko, S. (2020). Application of artificial intelligence technology in Oncology: Towards the establishment of precision medicine. Cancers, 12(12), 3532. https://doi.org/10.3390/cancers12123532

Haleem, A., Javaid, M., & Khan, I. H. (2019). Current status and applications of artificial intelligence (AI) in medical field: An overview. Current Medicine Research and Practice, 9(6), 231–237. https://doi.org/10.1016/j.cmrp.2019.11.005

Jiao, C., Su, K., Xie, W., & Ye, Z. (2019). Burn image segmentation based on mask regions with convolutional neural network deep learning framework: More accurate and more convenient. Burns & Trauma, 7. https://doi.org/10.1186/s41038-018-0137-9

Kotecha, V. R., Opot, N. E., & Nangole, F. (2022). Assessment and management of pain in patients sustaining burns at Emergency Department Kenyatta National Hospital, Kenya: A descriptive study. Trauma Care, 2(1), 79–86. https://doi.org/10.3390/traumacare2010007

Lee, Y., Sim, W., Park, J., & Lee, J. (2022). Evaluation of hyperparameter combinations of the U-Net model for land cover classification. Forests, 13(11), 1813. https://doi.org/10.3390/f13111813

Liang, J., Li, R., Wang, C., Zhang, R., Yue, K., Li, W., & Li, Y. (2022). A spiking neural network based on retinal ganglion cells for automatic burn image segmentation. Entropy, 24(11), 1526. https://doi.org/10.3390/e24111526

Liszka, S. (2023). Evaluation of tree planting using computer vision models YOLO and U-Net [Master Thesis, Umeå University]. Retrieved from https://urn.kb.se/resolve?urn=urn:nbn:se:umu:diva-214842

Markiewicz-Gospodarek, A., Kozioł, M., Tobiasz, M., Baj, J., Radzikowska-Büchner, E., & Przekora, A. (2022). Burn wound healing: Clinical complications, medical care, treatment, and dressing types: The current state of knowledge for clinical practice. International Journal of Environmental Research and Public Health, 19(3), 1338. https://doi.org/10.3390/ijerph19031338

Moura, F. S. E., Amin, K., & Ekwobi, C. (2021). Artificial intelligence in the management and treatment of burns: a systematic review. Burns & Trauma, 9. https://doi.org/10.1093/burnst/tkab022

Naqvi, M., Gilani, S. Q., Syed, T., Marques, O., & Kim, H.-C. (2023). Skin cancer detection using deep learning—A review. Diagnostics, 13(11), 1911. https://doi.org/10.3390/diagnostics13111911

Pandya, M. D., Shah, P. D., & Jardosh, S. (2019). Medical image diagnosis for disease detection: A deep learning approach. U-Healthcare Monitoring Systems, 37–60. https://doi.org/10.1016/b978-0-12-815370-3.00003-7

Pabitha, C., & Vanathi, B. (2020). Densemask RCNN: A hybrid model for skin burn image classification and Severity grading. Neural Processing Letters, 53(1), 319–337. https://doi.org/10.1007/s11063-020-10387-5

Román, K., Llumiquinga, J., Chancay, S., & Morocho-Cayamcela, M. E. (2023). Hyperparameter tuning in a dual channel U-Net for medical image segmentation. Information and Communication Technologies, 337–352. https://doi.org/10.1007/978-3-031-45438-7_23

Şevik, U., Karakullukçu, E., Berber, T., Akbaş, Y., & Türkyılmaz, S. (2019). Automatic classification of skin burn colour images using texture‐based feature extraction. IET Image Processing, 13(11), 2018–2028. Portico. https://doi.org/10.1049/iet-ipr.2018.5899

Singh, N. J., & Nongmeikapam, K. (2022). Semantic segmentation of satellite images using Deep-Unet. Arabian Journal for Science and Engineering, 48(2), 1193–1205. https://doi.org/10.1007/s13369-022-06734-4

Suha, S. A., & Sanam, T. F. (2022). A deep convolutional neural network-based approach for detecting burn severity from skin burn images. Machine Learning with Applications, 9, 100371. https://doi.org/10.1016/j.mlwa.2022.100371

Toussaint, J., & Singer, A. J. (2014). The evaluation and management of thermal injuries: 2014 update. Clinical and Experimental Emergency Medicine, 1(1), 8–18. https://doi.org/10.15441/ceem.14.029

Son Tran, H., Hoang Le, T., & Thanh Nguyen, T. (2016). The degree of skin burns images recognition using convolutional neural network. Indian Journal of Science and Technology, 9(45). https://doi.org/10.17485/ijst/2016/v9i45/106772

Wang, C., Anisuzzaman, D. M., Williamson, V., Dhar, M. K., Rostami, B., Niezgoda, J., Gopalakrishnan, S., & Yu, Z. (2020). Fully automatic wound segmentation with deep convolutional neural networks. Scientific Reports, 10(1). https://doi.org/10.1038/s41598-020-78799-w