Cảnh báo gia tăng lừa đảo bằng công nghệ Deepfake

Theo Cục An toàn thông tin, tội phạm mạng thường sử dụng các cuộc gọi video Deepfake để mạo danh một cá nhân và vay mượn người thân, bạn bè của họ những khoản tiền lớn cho những trường hợp cấp bách.

Cụ thể, đối tượng làm giả/chiếm đoạt tài khoản của người dùng mạng xã hội, liên lạc với người thân trong danh sách bạn bè cho biết đang bị mắc kẹt khi du lịch tại nước ngoài và cần một khoản tiền ngay lập tức.

Sau đó, đối tượng sử dụng công nghệ Deepfake (công nghệ ứng dụng trí tuệ nhân tạo để tạo ra các đoạn video với hình ảnh, khuôn mặt nhân vật giống hệt như hình ảnh của người mà các đối tượng muốn giả mạo) và thực hiện cuộc gọi video (hình ảnh) để nạn nhân tưởng rằng đang nói chuyện với người thân của mình và nhu cầu vay tiền là có thật, từ đó chuyển tiền cho các đối tượng.

Trước tình trạng trên, Cục An toàn thông tin khuyến cáo người dùng có thể dùng chính các công cụ AI để nhận diện Deepfake nhằm giảm thiểu xác suất thành công của các vụ lừa đảo như Intel FakeCatcher, Microsoft Video Authenticator…

Đối với video deepfake, một số công cụ giúp nhận diện sự chuyển động không khớp giữa khuôn miệng và lời thoại. Một số công cụ phát hiện lưu lượng máu bất thường dưới da bằng cách phân tích độ phân giải của video vì khi tim bơm máu, tĩnh mạch của con người sẽ đổi màu. Người dùng có thể phát hiện Deepfake nhờ vào hình mờ đánh dấu tác giả.

Đặc biệt, Cục an toàn thông tin khuyến cáo người dùng cần đặc biệt nâng cao cảnh giác, không cung cấp thông tin cá nhân như căn cước công dân, tài khoản ngân hàng, mã OTP và không chuyển tiền cho người lạ qua điện thoại, mạng xã hội, các trang web có dấu hiệu lừa đảo.

Khi có yêu cầu vay/chuyển tiền vào tài khoản qua mạng xã hội, nên thực hiện các phương thức xác thực khác như gọi điện thoại truyền thống hay sử dụng các kênh liên lạc khác để xác nhận lại.

Theo Báo Tin tức/TTXVN

Nguồn: Báo doanhnghiepthuonghieu

Bạn cũng có thể thích