Lọc theo danh mục
  • Năm xuất bản
    Xem thêm
  • Lĩnh vực
liên kết website
Lượt truy cập
 Lượt truy cập :  16,240,493

Khoa học kỹ thuật và công nghệ

BB

Phùng Thị Thu Trang*, Nguyễn Phạm Linh Chi, Nguyễn Thị Ngọc Anh, Hồ Thị Thùy Dung; Phùng Thị Thu Trang(1)

XÂY DỰNG MÔ HÌNH HỌC SÂU HIỆU QUẢ ĐỂ NHẬN DẠNG BỆNH NGOÀI DA DỰA TRÊN TỰ CHƯNG CẤT KIẾN THỨC

BUILD AN EFFICIENT DEEP LEARNING MODEL TO RECOGNIZE SKIN DISEASE BASED ON SELF-KNOWLEDGE DISTILLATION

Tạp chí Khoa học và Công nghệ - Đại học Thái Nguyên

2022

16

225 - 232

Ung thư da hiện đang là một trong các loại bệnh phổ biến nhất với tỉ lệ người mắc bệnh ngày càng cao. Chính vì vậy, việc dự đoán sớm các loại bệnh ngoài da hiện đang được các nhà nghiên cứu trên thế giới quan tâm đặc biệt là trong các cuộc thi phân loại bệnh ngoài da ISIC của các năm 2017, 2018, 2019 và 2020. Trong bài báo này, chúng tôi đề xuất một cách tiếp cận mới hiệu quả nhằm giải quyết bài toán nhận dạng bệnh ngoài da dựa trên quá trình tự chưng cất kiến thức. Phương pháp của chúng tôi khai thác và tối thiểu hóa sự khác biệt giữa hai phân bổ xác suất từ hai phiên bản khác nhau của cùng một ảnh đầu vào. Kết quả thử nghiệm được thực hiện với mạng ResNet-50 cho thấy cách tiếp cận chúng tôi đề xuất vượt trội hơn so với các phương pháp hiện đại được đề xuất gần đây trên các bộ dữ liệu chuẩn chẳng hạn như HAM10000, ISIC 2017 và ISIC 2019. Cụ thể, phương pháp của chúng tôi đạt 0,987 AUC trên bộ dữ liệu HAM10000 và 0,960 AUC, 0,901 độ chính xác, 0,910 độ nhạy và 0,866 độ đặc hiệu trên bộ dữ liệu ISIC 2017.

Skin cancer is currently one of the most common diseases with an increasing incidence. Therefore, early prediction or recognition of skin diseases is currently of great interest to researchers around the world, especially in the ISIC skin disease classification contests of 2017, 2018, 2019 and 2020. In this paper, we propose an effective new approach to solve the problem of skin disease identification based on self-knowledge distillation. Our method exploits and minimizes the difference between two probability distributions from two different versions of the same input image. The experiment results performed with the ResNet-50 network have shown that our proposed approach outperforms the state of the art proposed methods on standard datasets such as HAM10000, ISIC 2017 and ISIC 2019. Specifically, our method achieves 0.987 in terms of AUC on the HAM10000 dataset and 0.960 in terms of AUC, 0.901 in terms of accuracy, 0.910 in terms of sensitivity, and 0.866 in terms of specificity on the ISIC 2017 dataset.