Sử dụng AI tạo hình ảnh và giọng nói giả mạo để lừa tiền dịp cận Tết
Bệnh viện Đà Nẵng tổ chức 4 chuyến xe đưa bệnh nhân nghèo về quê đón Tết / Đường gốm và hoa mừng xuân Giáp Thìn dài nhất Việt Nam tại Vĩnh Long
Nguyễn Thanh Hương (tên nhân vật đã được thay đổi) là nhân viên văn phòng tại Hà Nội. Trong một lần trò chuyện với bạn qua Facebook Messenger, người bạn này đã chào và kết thúc câu chuyện nhưng đột nhiên quay lại nhắn tin, hỏi vay tiền và đề nghị chuyển tiền vào một tài khoản ngân hàng. Dù tên tài khoản trùng khớp với tên bạn mình, Hương vẫn thoáng nghi ngờ nên yêu cầu gọi video để xác thực.
Người bạn đồng ý ngay nhưng cuộc gọi chỉ kéo dài vài giây do “mạng chập chờn”, theo giải thích của người bạn. Đã thấy mặt bạn mình trong cuộc gọi video, giọng nói cũng đúng của người này, Hương không còn nghi ngờ và chuyển tiền. Tuy nhiên, chỉ sau khi chuyển tiền thành công, Hương mới biết mình đã mắc bẫy của hacker.
Không chỉ Hương, nhiều nạn nhân khác là bạn bè, người thân của người bạn Hương cũng bị lừa theo cách tương tự.
Nửa cuối năm 2023, Bkav liên tục nhận được các báo cáo cũng như yêu cầu trợ giúp của nạn nhân về các vụ việc lừa đảo. Theo các chuyên gia của Bkav, trong trường hợp của bạn Hương, kẻ xấu đã kiểm soát được tài khoản Facebook nhưng không lập tức chiếm đoạt hoàn toàn mà âm thầm theo dõi, chờ cơ hội giả làm nạn nhân để hỏi vay tiền bạn bè, người thân của họ. Chúng sử dụng AI để tạo sẵn một đoạn video giả mạo gương mặt và giọng nói của chủ tài khoản Facebook (Deepfake). Khi được yêu cầu gọi điện video call để chứng thực, chúng đồng ý nhận cuộc gọi nhưng sau đó nhanh chóng ngắt kết nối để tránh bị phát hiện.
Ông Nguyễn Tiến Đạt, Tổng Giám đốc Trung tâm nghiên cứu mã độc (AntiMalware) của Bkav, cho biết: “Khả năng thu thập và phân tích dữ liệu người dùng thông qua AI cho phép tạo ra những chiến lược lừa đảo tinh vi. Điều này cũng có nghĩa là mức độ phức tạp của các kịch bản lừa đảo khi kết hợp giữa Deepfake và GPT sẽ ngày càng cao, khiến việc nhận diện lừa đảo sẽ khó khăn hơn rất nhiều”.
Bkav khuyến cáo người dùng cần đặc biệt nâng cao cảnh giác, không cung cấp thông tin cá nhân (căn cước công dân - CCCD, tài khoản ngân hàng, mã OTP…), không chuyển tiền cho người lạ qua điện thoại, mạng xã hội, các trang web có dấu hiệu lừa đảo. Khi có yêu cầu vay/chuyển tiền vào tài khoản qua mạng xã hội, nên thực hiện các phương thức xác thực khác như gọi điện thoại hay sử dụng các kênh liên lạc khác để xác nhận lại.
Dự báo về xu hướng tấn công mạng năm 2024, các chuyên gia đều thống nhất rằng, sự phát triển nhanh chóng của AI không chỉ mang lại những lợi ích rõ ràng mà còn tạo ra những nguy cơ đáng kể cho an ninh mạng.
Thách thức lớn nhất của các doanh nghiệp, tổ chức khi đối diện với công nghệ AI ngày nay là lừa đảo và tấn công có chủ đích (APT), với mức độ ngày càng phức tạp của các kịch bản lừa đảo, đặc biệt khi kết hợp giữa Deepfake và GPT. Khả năng thu thập và phân tích dữ liệu người dùng thông qua AI cho phép tạo ra những chiến lược lừa đảo tinh vi, khiến việc nhận diện lừa đảo sẽ khó khăn hơn đối với người dùng.
Việc tăng cường an ninh cho AI trở thành một xu hướng không thể phủ nhận thời gian tới.
Trong những tuần gần đây, Cục An toàn thông tin cũng liên tục phát đi những thông tin cảnh báo về các hình thức lừa đảo trên không gian mạng mà người dân cần lưu ý, nâng cao cảnh giác.
End of content
Không có tin nào tiếp theo
Xem nhiều nhất
Vận hành tàu 'hoàng hậu', xây dựng Đà Lạt - Trại Mát thành tuyến đường sắt đẹp nhất Việt Nam
Đà Nẵng: Tặng quà cho người dân và du khách trong đêm Noel
Ủy ban Thường vụ Quốc hội thống nhất mức trích chi phí quản lý BHXH, bảo hiểm thất nghiệp tối đa 1,44%
Đại hội đồng LHQ thông qua 'Công ước Hà Nội' về tội phạm mạng
Quỹ 'Vì cuộc sống tươi đẹp' được vinh danh
Quảng Nam – Đà Nẵng: Nguy cơ thiếu nước trong năm 2025 ở mức cao