Phát hiện mã độc chuyên gửi email lừa đảo đến doanh nghiệp để đánh cắp dữ liệu
Theo Proofpoint, nhóm tin tặc TA547 chuyên gửi email lừa đảo có chứa mã độc hại đến các doanh nghiệp nhằm phát tán loại mã độc có tên gọi Rhadamanthys (là loại mã độc nhắm đến hệ điều hành Windows, được phát hiện lần đầu tiên vào năm 2018, nhưng liên tục được tin tặc cập nhật và phát triển). Loại mã độc này được tin tặc sử dụng để đánh cắp dữ liệu, bao gồm: Thông tin đăng nhập các tài khoản trực tuyến, tài khoản ngân hàng; mã hóa dữ liệu để tống tiền; lây lan trong mạng lưới nội bộ để gây thiệt hại lớn…
Mã độc này sử dụng kỹ thuật tiên tiến để tránh bị phát hiện bởi các phần mềm diệt virus. Ngay khi nạn nhân mở file đính kèm, mã độc sẽ xâm nhập vào máy tính của họ và hoạt động một cách âm thầm. Rhadamanthys thường được phát tán thông qua các email lừa đảo đính kèm file chứa mã độc hoặc chia sẻ trên các trang web chứa mã độc.
Các chuyên gia bảo mật đã phát hiện những điều bất ngờ trong quá trình điều tra về nhóm tin tặc TA547 và mã độc Rhadamanthys. Theo đó, khi phân tích mã nguồn của mã độc Rhadamanthys được phát triển bởi TA547, họ nhận thấy tin tặc đã sử dụng các phần mềm chatbot tích hợp AI, chẳng hạn như ChatGPT của OpenAI hay Gemini của Google… để viết các đoạn mã nguồn sử dụng trên mã độc.
Các chuyên gia bảo mật cho biết họ nhận thấy những đoạn mã nguồn của Rhadamanthys được viết một cách máy móc, kèm theo chú thích rõ ràng sau mỗi câu lệnh để nêu rõ tác dụng của từng đoạn mã lập trình. Trong khi đó các chatbot tích hợp AI sẽ thường chú thích rõ ràng trong từng đoạn mã do chúng viết ra để giải thích cụ thể tác dụng cho người dùng, tin tặc thường che giấu kỹ thuật tấn công của mình nên không viết những lời chú thích rõ ràng vào mã nguồn lập trình.
Đại diện Proofpoint chia sẻ: “Các đoạn mã lập trình trong mã độc được chú thích rất rõ ràng để giải thích mục đích cụ thể của đoạn mã, đây là điều thường thấy khi nhờ các công cụ AI viết mã lập trình giúp. Điều này cho thấy nhóm tin tặc TA547 đã lợi dụng các chatbot AI để viết mã độc giúp chúng”.
Báo cáo của Proofpoint cho thấy tin tặc đã lợi dụng các chatbot tích hợp AI để hỗ trợ chúng lập trình mã độc, giúp rút ngắn thời gian phát triển các loại mã độc trước khi phát tán đến người dùng.
Đáng chú ý, đây không phải lần đầu tiên các công cụ AI bị tin tặc lợi dụng để phát triển mã độc. Vào tháng 8 năm ngoái, Cục Điều tra Liên bang Mỹ (FBI) đã đưa ra lời cảnh báo về việc tội phạm mạng và tin tặc đang tận dụng chương trình AI để đẩy nhanh tốc độ phát triển các phần mềm độc hại, cũng như lên kịch bản cho những hành vi lừa đảo trực tuyến.
Theo FBI, tin tặc có thể qua mặt phần mềm bảo mật để xâm nhập vào máy tính của nạn nhân. Tin tặc có thể dựa vào những đoạn mã lập trình do AI viết ra, sau đó chúng có thể tinh chỉnh để thêm các chức năng nguy hiểm cho các loại mã độc.
Những cảnh báo của Proofpoint (một công ty an ninh mạng doanh nghiệp của Mỹ có trụ sở tại Sunnyvale, California) và FBI đã khiến nhiều người lo ngại khi viễn cảnh trí tuệ nhân tạo bị lợi dụng và trở thành tay sai của kẻ xấu giống như trong các bộ phim khoa học viễn tưởng hoàn toàn có thể xảy ra ngoài đời thực.
Tại Việt Nam, hàng loạt công ty, tổ chức, doanh nghiệp, trở thành mục tiêu tấn công của đối tượng lừa đảo nhằm chiếm thông tin, tài sản cũng như làm nhiễu loạn thông tin gây thiệt hại trực tiếp đến các tổ chức, doanh nghiệp nói chung và niềm tin của người dùng nói riêng.
Liên quan tới việc lợi dụng công nghệ trí tuệ nhân tạo AI, các chuyên gia đều có chung nhận định rằng tội phạm mạng ngày càng biết cách lợi dụng công nghệ AI để hỗ trợ hoạt động tấn công mạng và xu hướng này sẽ tiếp tục nở rộ trong năm 2024. Sự phát triển bùng nổ của AI tạo sinh sẽ kéo theo nhiều công cụ phục vụ mục đích xấu như lừa đảo, tấn công mạng.
Theo các chuyên gia, với sự bùng nổ của AI tạo sinh và ứng dụng phổ biến là ChatGPT, các cuộc tấn công mạng đã có sự thay đổi rõ ràng. Nếu như trước đây, các email lừa đảo gửi đến người dùng không phải diện tấn công có chủ đích thì nội dung trong mail khá ngô nghê; hiện nay, với việc sử dụng AI, lượng email lừa đảo tự động gửi đến người dùng được “may đo”, thiết kế với lời lẽ hợp lý, khiến cho người dùng dễ bị dẫn dụ mắc vào bẫy lừa đảo hơn.
Công nghệ trí tuệ nhân tạo đã có những bước phát triển thần kỳ trong năm 2023 và sẽ tiếp tục bùng nổ ứng dụng trong năm 2024. Điều này sẽ kéo theo những công cụ phục vụ mục đích xấu như lừa đảo, tấn công mạng. AI tạo sinh như ChatGPT và Deepfake sẽ được sử dụng để tự soạn các kịch bản lừa đảo nhằm chiếm đoạt tiền của nạn nhân. Mã độc và các công cụ khai thác lỗ hổng sẽ được trang bị thêm trí tuệ nhân tạo để tăng khả năng khai thác lỗ hổng cũng như giúp qua mặt các giải pháp an ninh mạng.
Nhóm nghiên cứu FortiGuard đã nhấn mạnh nguy cơ leo thang của các mối đe dọa mạng nâng cao do sự phổ cập dịch vụ tội phạm mạng và tác động của AI tạo sinh. Với việc các tác nhân đe dọa hiện được trang bị công cụ tiên tiến, sử dụng kỹ thuật tinh vi hơn và biết cách đa dạng hóa các mục tiêu, cộng đồng chuyên gia an ninh mạng cần phải thống nhất về cách thức phản ứng.
Thanh Hiền (t/h)