AI có nguy cơ bị lợi dụng để tạo và lan truyền video lạm dụng trẻ em

IWF cho biết: “Những kẻ ấu dâm đang lợi dụng tiến bộ của AI để tạo ra các video về CSAM. Tình trạng này có thể sẽ ngày càng nhiều khi công nghệ này liên tục được cải thiện”. Trong tài liệu IWF thu thập được gần đây, đã có những video ngắn do AI tạo nên có liên quan đến CSAM hoặc video khiêu dâm người lớn nhưng được ghép với khuôn mặt của trẻ em. Dan Sexton – Giám đốc công nghệ tại IWF cho biết: “Những video như thế này chắc chắn sẽ xuất hiện nhiều hơn trong tương lai với chất lượng cao hơn và chân thực hơn”.

Các nhà phân tích của IWF cho biết họ đã tìm được 9 video trên diễn đàn từ một “web đen”, tất cả đều làm giả bằng cách sử dụng công cụ AI trực tuyến. Điều đáng lo ngại là hình ảnh CSAM do AI tạo ra hiện đã trở nên chân thực hơn so với năm 2023, thời điểm IWF lần đầu tiên phát hiện những nội dung CSAM.

Nghiên cứu ảnh chụp nhanh của IWF trong năm 2024 từ một diễn đàn “đen” đã thu thập được 12.000 hình ảnh mới do AI tạo ra, được đăng trong khoảng thời gian chỉ 1 tháng. 9/10 hình ảnh đó chân thực đến mức đáng lo ngại. Susie Hargreaves – Tổng giám đốc điều hành của IWF cho biết: “Nếu không có sự kiểm soát thích hợp, các công cụ AI sẽ bị kẻ săn mồi trực tuyến lợi dụng để thực hiện những tưởng tượng bệnh hoạn và đồi trụy nhất của chúng. Hiện IWF đã ghi nhận nhiều loại dữ liệu kiểu này được chia sẻ, bán trên các trang web “đen” về CSAM”.

IWF đang thúc đẩy những thay đổi về luật pháp của các quốc gia nhằm hình sự hóa hành vi tạo ra hướng dẫn sử dụng AI để tạo ra CSAM.

Trí tuệ nhân tạo (AI) đang trở thành lĩnh vực ngày càng quan trọng và tác động sâu rộng đến nhiều khía cạnh của cuộc sống, bên cạnh đó có nguy cơ gây hại đến trẻ em.

Theo đó, vào năm 2022, Apple đã từ bỏ kế hoạch phát hiện tài liệu lạm dụng tình dục trẻ em (CSAM) sau cáo buộc rằng hệ thống này có thể bị lạm dụng để giám sát người dùng. Thay vào đó, Apple chuyển sang bộ tính năng gọi là An toàn Giao tiếp, giúp làm mờ các bức ảnh khỏa thân được gửi cho trẻ em. Tuy nhiên, những biện pháp này không đủ để ngăn chặn hoàn toàn việc lạm dụng và báo cáo các sự cố CSAM.

Theo The Guardian, Hiệp hội Quốc gia Phòng chống Hành vi Tàn ác đối với Trẻ em (NSPCC) của Vương quốc Anh cho biết Apple đã đánh giá thấp nhiều sự cố CSAM trên các dịch vụ của mình như iCloud, FaceTime và iMessage. Tất cả công ty công nghệ Mỹ đều được yêu cầu báo cáo các trường hợp CSAM phát hiện cho Trung tâm Quốc gia về Trẻ em Mất tích & Bị bóc lột (NCMEC), và trong năm 2023, Apple đã thực hiện 267 báo cáo.

Ông Mark Kavanagh – cố vấn bảo vệ trẻ em trên môi trường mạng của UNICEF cho rằng, với 92% trẻ em Việt Nam sử dụng Internet, nếu các công ty công nghệ không có biện pháp mạnh, rủi ro cho trẻ khi chơi game, lướt mạng rất lớn. Vị này dẫn chứng 1,7 tỉ người đang chơi game trên thế giới nhưng không phải nền tảng game nào cũng ngăn chặn 100% người chơi gửi hình ảnh khiêu dâm, tình dục.

Qua nắm bắt, một số tội phạm mạng sẽ chơi game chung với trẻ để làm quen, sau khi thân thiết, chúng gửi ảnh hoặc clip khiêu dâm, từ đó dụ dỗ các em qua nền tảng khác. Khi trẻ bị phát hiện, mong giúp đỡ thì người lớn ngại ngùng, xấu hổ, lảng tránh khiến sự việc xấu đi.

Do đó, ông Mark Kavanagh đề xuất luật pháp cần quy định cụ thể các hành vi xâm hại, lạm dụng và yêu cầu các công ty công nghệ, mạng xã hội… tuân thủ.

Thanh Hiền (t/h)

Nguồn: Tạp chí điện tử chất lượng Việt Nam

Bạn cũng có thể thích