Chưa phân loại

Chiêu lừa khiến nhiều người điêu đứng, Công an TP HCM cảnh báo

Kẻ gian âm thầm thu thập hình ảnh, clip có khuôn mặt của nạn nhân rồi dùng công nghệ cắt ghép thành clip "nhạy cảm" để tống tiền

Vừa qua, Công an TP HCM cho biết nhận được đơn tố cáo của một nạn nhân về việc bị kẻ gian dùng công nghệ cao cắt ghép clip “nhạy cảm” tống tiền hơn 2 tỉ đồng.

Sử dụng trí tuệ nhân tạo

Các đối tượng lừa đảo đã thu thập hình ảnh, thông tin đăng tải trên các trang mạng xã hội, tài khoản mạng xã hội của nạn nhân. Sau khi có hình ảnh nạn nhân, kẻ gian sử dụng trí tuệ nhân tạo (AI) và hàng loạt ứng dụng chỉnh sửa để tạo ra những clip nhạy cảm với động tác khớp với khuôn mặt của nạn nhân đang ở nhà nghỉ, khách sạn.

Khi có được hình ảnh đã chỉnh sửa, các đối tượng lừa đảo giả danh là thám tử tư gọi điện thoại thông báo về việc đối tượng phát hiện nạn nhân có mối quan hệ bất chính với những người phụ nữ khác và yêu cầu chuyển tiền. Nếu không thực hiện, nạn nhân sẽ bị đăng clip, hình ảnh lên mạng xã hội, gửi tới các nơi làm việc; còn thực hiện theo yêu cầu sẽ được chuộc lại các clip và hình ảnh nhạy cảm. Bằng thủ đoạn này, nạn nhân kể trên bị yêu cầu chuyển khoản tiền điện tử (USDT) với giá trị 80.000 USDT (tương đương hơn 2 tỉ đồng) vào ví điện tử.

Một clip sex được cắt ghép, chỉnh sửa bằng công nghệ Deepfake.

Với đơn tố cáo này, Công an TP HCM đã chỉ đạo lực lượng khẩn trương điều tra, truy xét các đối tượng để xử lý nghiêm theo quy định của pháp luật.

Trước đó, doanh nhân H.H cũng đã có đơn gửi các cơ quan chức năng nhờ can thiệp về một vụ việc nghiêm trọng. Theo đó, băng nhóm lừa đảo đã dùng hình ảnh để tạo clip sex bằng công nghệ Deepfake sau đó tống tiền. Tương tự, nữ ca sĩ P.M.C cũng có đơn cầu cứu về một clip xôn xao trên mạng xã hội bằng thủ đoạn chỉnh sửa, cắt ghép khuôn mặt cô đưa vào clip. Sự việc khiến nữ ca sĩ “mất ăn mất ngủ” vì lo sợ ảnh hưởng đến danh tiếng cũng như các hợp đồng truyền thông.

Nâng cao cảnh giác

Theo Công an TP HCM, thời gian gần đây, các đối tượng lừa đảo trên không gian mạng đã không ngừng xây dựng những kịch bản mới đánh vào tâm lý, nhu cầu, lòng tham của bị hại. Thủ đoạn dùng hình ảnh, thông tin cá nhân rồi dùng công nghệ Deepfake để tạo clip nhạy cảm là 1 trong 16 chiêu trò lừa đảo công nghệ cao đang thịnh hành hiện nay.

Trước tình hình trên, Công an TP HCM khuyến cáo người dân khi gặp các trường hợp tương tự phải nâng cao tinh thần cảnh giác với phương châm “Không hoảng sợ – Không làm theo yêu cầu chuyển tiền của đối tượng”.

Đồng thời, nạn nhân liên hệ ngay với cơ quan công an gần nhất hoặc bộ phận trực ban Công an TP HCM (điện thoại 069.3187.344) hoặc trực ban Phòng Cảnh sát hình sự (điện thoại 069.3187.200) để cung cấp thông tin, phối hợp cơ quan công an nhanh chóng điều tra, xử lý.

Công an TP HCM khuyến cáo về bản chất, các thủ đoạn không mới, đối tượng chỉ thay đổi “câu chuyện lừa đảo” nhưng nhiều người vẫn bị dẫn dụ và thực hiện theo yêu cầu. “Dù dưới bất kỳ hình thức nào thì mục đích cuối cùng của chúng là lừa chuyển tiền để chiếm đoạt tài sản của nạn nhân. Người dân không cung cấp số tài khoản, thẻ tín dụng, thông tin cá nhân cho bất kỳ ai, không chuyển tiền dưới bất kỳ hình thức nào khi chưa làm việc trực tiếp với cơ quan chức năng” – Công an TP HCM khuyến cáo.

Thời gian qua, Trung tâm Xử lý tin giả, thông tin xấu độc Việt Nam (VAFC) nhận được nhiều đơn cầu cứu của người dân về việc bị bôi nhọ, đe dọa bằng clip sex sử dụng công nghệ Deepfake.

Mặc dù tạo ra các sản phẩm có độ chân thật cao nhưng VAFC cũng chỉ ra một số đặc điểm để phân biệt sản phẩm Deepfake. Cụ thể, các chi tiết trên khuôn mặt hoặc giọng nói không tự nhiên; video, hình ảnh hoặc âm thanh có thể có các điểm bất thường như ánh sáng, bóng đổ, màu sắc không tự nhiên; không phù hợp với tính cách, hành vi của người trong video.

VAFC khuyến cáo: “Người dân cần thường xuyên cập nhật các kiến thức về công nghệ, đặc biệt là các kiến thức về Deepfake để có thể nhận biết và phòng tránh các thủ đoạn lừa đảo bằng công nghệ này”.