Microsoft cảnh báo kỹ thuật hack bẻ khóa có thể biến AI thành ‘khủng bố’
Mark Russinovich – kiến trúc sư trưởng của Microsoft Azure vừa lên tiếng cảnh báo về một kỹ thuật hack cực kỳ nguy hiểm, có thể cho phép người dùng khai thác lỗ hổng bảo mật để buộc các mô hình ngôn ngữ lớn tiết lộ thông tin nguy hiểm.
Giám đốc công nghệ của Microsoft Azure viết trên blog: “Bằng cách bỏ qua các biện pháp bảo vệ, Skeleton Key cho phép người dùng ra lệnh cho mô hình ngôn ngữ lớn thực hiện những hành vi độc hại và nguy hiểm”.
Hiện tại, Skeleton Key được phát hiện có hiệu quả đối với một số chatbot AI phổ biến như ChatGPT của OpenAI, Gemini (Google) và Claude (Anthropic).
Thay vì cố gắng thay đổi hoàn toàn các nguyên tắc của mô hình AI, những kẻ khai thác Skeleton Key sử dụng câu lệnh nhằm phá hoại hành vi của nó. Kết quả là thay vì từ chối yêu cầu như đã lập trình, chatbot sẽ đưa ra cảnh báo về nội dung có hại. Kẻ tấn công sau đó sẽ lừa chatbot tạo ra một kết quả mang tính xúc phạm, có hại, thậm chí là bất hợp pháp.
Một ví dụ được đưa ra trong bài đăng của Microsoft là truy vấn yêu cầu hướng dẫn chế tạo một loại bom xăng thô sơ. Ban đầu, chatbot từ chối và cảnh báo rằng nó được lập trình để “an toàn và hữu ích”. Tuy nhiên, người dùng trả lời truy vấn này nhằm mục đích giáo dục và đề xuất chatbot cập nhật hành vi để cung cấp thông tin đi kèm tiền tố cảnh báo. Ngay lập tức, chatbot bị đánh lừa và đưa ra thông tin hướng dẫn chế tạo bom, vốn vi phạm các nguyên tắc ban đầu được lập trình.
Skeleton Key có thể khiến buộc các mô hình ngôn ngữ lớn tiết lộ bí mật đen tối nhất của chúng. (Ảnh: Reuters).
Phía Microsoft đã lập tức phát hành một số bản cập nhật phần mềm để giảm thiểu tác động của Skeleton Key đối với các mô hình ngôn ngữ lớn trên nền tảng này, bao gồm cả trợ lý AI Copilot (một công nghệ trợ lý thông minh mới của Microsoft).
Nỗ lực mới để giải quyết
Một nhóm nhà làm luật lưỡng đảng Mỹ đã công bố một dự luật vào cuối ngày 8/5 giúp chính quyền Tổng thống Biden dễ dàng áp đặt các biện pháp kiểm soát xuất khẩu với mô hình ngôn ngữ lớn, nhằm bảo vệ công nghệ được đánh giá cao của Mỹ trước tác nhân xấu nước ngoài.
Được tài trợ bởi đảng viên Cộng hòa tại Hạ viện là Michael McCaul và John Molenaar cùng đảng viên Dân chủ Raja Krishnamoorthi và Susan Wild, dự luật này sẽ trao cho Bộ Thương mại Mỹ quyền rõ ràng để cấm người Mỹ làm việc với người nước ngoài để phát triển các hệ thống AI gây rủi ro cho an ninh quốc gia Mỹ.
Tony Samp – cố vấn chính sách AI tại hãng luật DLA Piper (Mỹ) nói các nhà hoạch định chính sách ở Washington đang cố gắng “thúc đẩy sự đổi mới và tránh các quy định nặng tay gây cản trở sự đổi mới” khi họ tìm cách giải quyết nhiều rủi ro do công nghệ gây ra. Thế nhưng, ông cảnh báo “việc ngăn chặn sự phát triển AI thông qua quy định có thể hạn chế những đột phá tiềm năng trong phát triển thuốc, cơ sở hạ tầng, an ninh quốc gia và các lĩnh vực khác, đồng thời nhường lại vị thế cho những đối thủ cạnh tranh ở nước ngoài”.
Thanh Hiền (t/h)