Giới chuyên gia khuyến nghị tăng cường quản lý công nghệ deepfake
Lá thư có đoạn nêu rõ ngày nay, deepfake thường bị sử dụng trong sáng tạo các nội dung hình ảnh khiêu dâm, gian lận hoặc lan truyền các thông tin chính trị sai lệch. Khi AI phát triển ngày càng nhanh, các hình ảnh giả mạo khuôn mặt lại càng dễ được sáng tạo thì các công cụ bảo vệ càng trở nên quan trọng hơn.
Những hình ảnh giả mạo khuôn mặt được sáng tạo nhờ các thuật toán AI và thường được dùng cho các nội dung hình ảnh, âm thanh và video bắt chước nhân vật thật. Những cải tiến không ngừng trong công nghệ này đã giúp AI tạo ra những hình ảnh khó có thể phân biệt với sản phẩm do con người tạo ra.
Lá thư với tiêu đề “Can thiệp chuỗi cung ứng giả mạo khuôn mặt” cũng có những đề xuất về cách quản lý công nghệ này, trong đó có hình sự hóa mọi hành vi dùng công nghệ deepfake để sản xuất nội dung khiêu dâm trẻ em, áp các án phạt hình sự với mọi cá nhân cố tình sáng tạo hoặc tiếp tay lan truyền các nội dung deepfake gây hại, yêu cầu các công ty AI tìm cách đảm bảo các sản phẩm của mình không bị sử dụng để tạo ra các nội dung deepfake có hại.
Tính đến sáng 21/2, trên 400 cá nhân từ các lĩnh vực khác nhau như nghiên cứu học thuật, giải trí và chính trị đã ký vào lá thư, trong đó có cả các nhà nghiên cứu của Google và OpenAI.
Kể từ khi công cụ hội thoại ChatGPT của OpenAI được tung ra thị trường năm 2022 và nhanh chóng trở nên phổ biến, các nhà quản lý đã nghiên cứu các cách thức để đảm bảo những hệ thống AI không gây hại cho xã hội. Nhiều nhân vật có uy tín trong lĩnh vực nghiên cứu AI cũng đã cảnh báo về nguy cơ tiềm ẩn nếu công nghệ này bị sử dụng cho các mục đích sai trái, đáng chú ý là lá thư của những người có ảnh hưởng như tỷ phú công nghệ Elon Musk, đã kêu gọi tạm ngừng 6 tháng việc phát triển các hệ thống mạnh hơn mô hình AI GPT-4 của OpenAI.
Theo TTXVN
Nguồn: Báo doanhnghiepthuonghieu