Tuy nhiên, đằng sau sự tiện lợi đó là rủi ro liên quan trực tiếp đến dữ liệu hình ảnh của trẻ em. Đây cũng là vấn đề đang được nhiều chuyên gia an toàn thông tin và bảo vệ trẻ em trên không gian mạng cảnh báo.
Điều đáng chú ý là phần lớn người dùng không nắm rõ dữ liệu sẽ được lưu ở đâu, trong bao lâu và được sử dụng vào mục đích gì trong tương lai. Các điều khoản sử dụng thường dài, phức tạp và ít khi được đọc kỹ.
Về mặt an toàn dữ liệu, đây là điểm mù phổ biến: hình ảnh tưởng chừng “đã dùng xong” nhưng thực tế vẫn có thể tồn tại trên hệ thống của nhà cung cấp dịch vụ.
Rủi ro lớn nhất của công nghệ AI không nằm ở khả năng tạo ra hình ảnh giả, mà nằm ở việc có thể “vũ khí hóa” dữ liệu đời thường. Nhiều phụ huynh thường cho rằng chỉ những hình ảnh nhạy cảm mới tiềm ẩn nguy cơ, tuy nhiên thực tế cho thấy các hệ thống deepfake có thể hoạt động chỉ với một khuôn mặt rõ nét hoặc biểu cảm tự nhiên được thu thập từ ảnh hoặc bộ sticker AI.
Thông qua các kỹ thuật tổng hợp hình ảnh, khuôn mặt của trẻ có thể bị tách khỏi ngữ cảnh ban đầu và đưa vào các nội dung hình ảnh hoặc video không phù hợp. Những nội dung này ngày càng có độ chân thực cao, khiến việc phân biệt bằng mắt thường trở nên khó khăn. Về dài hạn, chúng có thể tạo ra rủi ro liên quan đến danh dự của trẻ khi trưởng thành. Ngoài ra, các công cụ AI hiện nay còn có khả năng thay đổi hoàn toàn bối cảnh hình ảnh, bao gồm trang phục, môi trường hoặc tình huống xung quanh. Điều này khiến một bức ảnh sinh hoạt bình thường có thể bị biến đổi thành nội dung sai lệch hoàn toàn so với nguyên bản.
Một số đối tượng sử dụng hình ảnh để dựng “gia đình ảo”, từ đó kêu gọi quyên góp hoặc tạo lòng tin giả. Một số khác tạo danh tính ảo để tiếp cận và lừa đảo người dùng, bao gồm cả trẻ em trên môi trường trực tuyến. Một khi hình ảnh đã bị phát tán trên internet, khả năng kiểm soát hoặc thu hồi gần như không còn triệt để. Dữ liệu có thể bị sao chép và phân tán trên nhiều nền tảng khác nhau, hình thành dấu chân số mà chủ thể không nhận thức được ngay từ thời điểm ban đầu.
Một nghiên cứu do UNICEF, ECPAT và INTERPOL thực hiện tại 11 quốc gia* cho thấy ít nhất 1,2 triệu trẻ em cho biết hình ảnh của các em đã bị biến đổi thành deepfake mang nội dung tình dục trong vòng một năm qua. Ở một số quốc gia, con số này đồng nghĩa vơi việc cứ 25 trẻ em thì có một em từng trải qua tình huống này.
-
Hạn chế tải ảnh trẻ em lên các ứng dụng AI không rõ chính sách dữ liệu
-
Kiểm tra kỹ quyền truy cập và điều khoản sử dụng trước khi tải ảnh
-
Tránh sử dụng hình ảnh có thể định danh rõ ràng trẻ (khuôn mặt, thông tin cá nhân)
-
Cân nhắc sử dụng các công cụ xử lý ảnh chạy cục bộ thay vì tải lên server bên ngoài