2025-06-11 11:20:06

Mỹ cảnh báo nạn tống tiền tình dục bằng ảnh sex giả tạo từ AI

(NS) - Các cơ quan thực thi pháp luật và chuyên gia an ninh mạng tại Mỹ cảnh báo về một hình thức tội phạm đang gia tăng nhanh chóng: tống tiền tình dục bằng ảnh khỏa thân giả được tạo bằng trí tuệ nhân tạo (AI), nhắm vào cả thiếu niên nam và nữ thông qua các nền tảng nhắn tin điện thoại như iMessage.

Câu chuyện bi thảm của cậu bé Elijah, 16 tuổi ở bang Kentucky, đã làm dấy lên hồi chuông cảnh báo. Chỉ trong vòng một giờ vào đêm tháng 2, Elijah đã bị kẻ lạ gửi hơn 150 tin nhắn, đe dọa tung ảnh khỏa thân do AI dựng lên nếu không nộp 3.000 USD. Đến sáng hôm sau, cậu qua đời vì vết thương do súng tự gây ra.

Các cơ quan như Trung tâm Quốc gia về Trẻ em Mất tích và Bị bóc lột (NCMEC) cho biết chỉ riêng năm 2024, họ đã nhận được hơn 5.000 báo cáo về các vụ tống tiền tình dục kiểu này. Thủ phạm thường là người lớn, phần lớn sống ở nước ngoài, giả làm thiếu nữ tuổi teen để tiếp cận các thiếu niên nam trên mạng xã hội. Sau khi lấy lòng tin, chúng dụ nạn nhân chuyển cuộc trò chuyện sang nền tảng riêng như Snapchat hoặc xin số điện thoại để tiếp tục qua iMessage.

Tại đây, bọn tội phạm sử dụng hình ảnh giả mạo hoặc deepfake – ảnh khỏa thân do AI tạo ra dựa trên khuôn mặt nạn nhân – để đe dọa sẽ phát tán nếu không được chuyển tiền. iMessage, nền tảng nhắn tin phổ biến với thanh thiếu niên Mỹ, đang trở thành “kẽ hở” vì thiếu các biện pháp bảo vệ chặt chẽ như mạng xã hội.

Theo NCMEC, gần 34% các vụ tống tiền tình dục năm 2024 liên quan đến nhắn tin trên các ứng dụng tích hợp trong điện thoại. Trong ba tháng đầu năm, tỷ lệ này tăng lên 38%, phần lớn diễn ra qua iMessage – dịch vụ nhắn tin an toàn của Apple có giao diện bong bóng xanh được nhiều thanh thiếu niên tin tưởng.

Người thân của Elijah tại Nhà Trắng hôm 19/5 khi Tổng thống Trump ký ban hành đạo luật Take it down, theo sáng kiến của Đệ nhất phu nhân Melania Trump trong cuộc chiến bảo vệ nạn nhân tống tiền tình dục trên nền tảng kỹ thuật số. Ảnh: White House

Mặc dù Apple đã triển khai tính năng “an toàn giao tiếp” làm mờ ảnh nhạy cảm, nhưng tính năng này chỉ mặc định bật với tài khoản dưới 13 tuổi. Phụ huynh phải tự kích hoạt cho trẻ lớn hơn, và ngay cả khi bật, trẻ vẫn có thể chọn tiếp tục gửi hoặc xem ảnh sau cảnh báo.

Tại Hàn Quốc – quốc gia bị ảnh hưởng nặng nề nhất bởi deepfake khiêu dâm theo báo cáo của Security Hero – số vụ tội phạm tình dục công nghệ đã tăng gấp ba trong năm 2024, với 1.384 vụ được báo cáo, so với 423 vụ năm 2023. Đáng chú ý, nạn nhân và thủ phạm chủ yếu là thanh thiếu niên.

Dù trước đây nạn nhân phổ biến là nữ, hiện nay các vụ tấn công vào nam sinh đang bùng nổ. Theo NCMEC, ít nhất 30 thiếu niên nam đã tự sát kể từ năm 2021 sau khi bị tống tiền tình dục theo hình thức này. Nam thiếu niên thường dễ bị dụ dỗ gửi ảnh thân mật hơn và ít chia sẻ với người lớn do tâm lý xấu hổ.

Bà Sarah Gardner, Giám đốc điều hành Heat Initiative – tổ chức chuyên nghiên cứu bảo vệ trẻ em – nhận định: “Những kẻ săn mồi tìm trẻ em trên mạng xã hội rồi dụ dỗ chuyển sang nhắn tin điện thoại – nơi hầu như không có biện pháp kiểm soát nào.”

Tội phạm có xu hướng chuyển sang các nền tảng nhắn tin tích hợp trên điện thoại như iMessage. Ảnh: Gadget hack

Cảnh sát trưởng Dustin Stewart ở Utah cho biết ông nhận được báo cáo mỗi ngày về tống tiền tình dục qua mạng, và phần lớn các trường hợp gần đây đều có liên quan đến iMessage.

Mặc dù các nền tảng như Instagram (3,3 triệu), WhatsApp (1,8 triệu) và Snapchat (1,1 triệu) đã gửi hàng triệu báo cáo về nội dung nghi khai thác tình dục trẻ em cho NCMEC trong năm 2023, Apple chỉ gửi 250 báo cáo – con số cho thấy sự thiếu vắng báo cáo từ nền tảng iMessage do không giám sát nội dung tương tự các mạng xã hội.