Lọc theo danh mục
  • Năm xuất bản
    Xem thêm
  • Lĩnh vực
liên kết website
Lượt truy cập
 Lượt truy cập :  18,983,707
  • Công bố khoa học và công nghệ Việt Nam

50

Khoa học máy tính

BB

Trần Đức Sự, Nguyễn Tiến Dũng, Đinh Duy Khanh

Đề xuất giải pháp loại bỏ nhiễu đối kháng sử dụng mô hình tạo sinh dựa trên học sâu

Proposed method to remove adversarial perturbation using generative model based on deep learning

Tạp chí Khoa học và Công nghệ - Đại học Thái Nguyên

2024

15

95 - 102

1859-2171

Với sự tiến bộ nhanh chóng của công nghệ thông tin, trí tuệ nhân tạo ứng dụng rộng rãi trong nhiều lĩnh vực như nhận dạng đối tượng, nhận dạng khuôn mặt, vận hành xe tự hành và chăm sóc sức khỏe. Tuy nhiên, mạng nơ-ron sâu, vốn là nền tảng của nhiều hệ thống trí tuệ nhân tạo, lại dễ bị tổn thương trước các mẫu đối kháng. Các mẫu đối kháng được tạo ra bằng cách thêm các nhiễu loạn khó nhận thấy vào hình ảnh sạch, đánh lừa hiệu quả các mô hình trí tuệ nhân tạo và thể hiện các điểm yếu của mô hình. Để giải quyết thách thức này, các tác giả đề xuất một phương pháp mới để loại bỏ nhiễu đối kháng có chứa trong hình ảnh. Phương pháp này sử dụng mô hình tạo dữ liệu học các đặc trưng trực tiếp từ hình ảnh đầu vào, cho phép tái tạo hình ảnh sạch. Kết quả nghiên cứu cho thấy phương pháp này không chỉ khắc phục nhiễu hiệu quả trên các mẫu đối kháng riêng lẻ mà còn chống lại các cuộc tấn công sử dụng ảnh đối kháng. Điều này mở ra một hướng tiếp cận mới nhằm nâng cao độ chính xác và tính an toàn của các ứng dụng trí tuệ nhân tạo trong thực tế.

With the rapid advancement of information technology, artificial intelligence has found extensive applications in various fields, including object recognition, facial recognition, autonomous vehicle operation, and healthcare. However, deep neural networks, which serve as the foundation of many artificial intelligence systems, are highly vulnerable to adversarial examples. These adversarial examples are crafted by introducing subtle and imperceptible perturbations into clean images, effectively deceiving artificial intelligence models and exposing critical weaknesses. Addressing this challenge, the authors propose a new method to remove adversarial perturbation present in the images. This method employs a data generator that learns features directly f-rom the input images, enabling the reconstruction of clean (adversarial perturbations has been removed). The research results demonstrate that this method not only effectively mitigates noise in individual adversarial examples but also counters attacks utilizing adversarial images. This approach opens a new pathway to enhance the accuracy and security of artificial intelligence applications in practice.

TTKHCNQG, CTv 178