ANTD.VN - Công an phường Mễ Trì, quận Nam Từ Liêm, Hà Nội vừa thông báo qua các nhóm Zalo cộng đồng chiêu thức lừa đảo mới: gửi tin nhắn thông báo ‘nửa còn lại’… ngoại tình.
ANTD.VN - Trung tâm xử lý tin giả, thông tin xấu độc Việt Nam (VAFC) nhận được phản ánh từ ông Q.T.L. về việc các đối tượng sử dụng công nghệ Deepfake để thực hiện hành vi cắt ghép, phát tán các hình ảnh nhạy cảm trên mạng xã hội nhằm bôi nhọ danh dự, nhân phẩm và uy tín cá nhân của ông này.
ANTD.VN - Theo ghi nhận của các chuyên gia Bkav, lợi dụng tình trạng nhiều khách hàng gặp khó khăn khi cập nhật sinh trắc học trên các ứng dụng, kẻ xấu giả danh cán bộ ngân hàng vờ hỗ trợ cài đặt sinh trắc học để lừa đảo, chiếm đoạt tiền trong tài khoản của nạn nhân.
ANTD.VN - Theo Trung tâm giám sát an toàn không gian mạng quốc gia (Cục An toàn thông tin, Bộ TT-TT), Deepfake đã trở thành mối đe dọa đối với không gian mạng tại Việt Nam.
ANTD.VN - Thủ tướng Italia Giorgia Meloni đang đòi bồi thường thiệt hại 108.200 USD (100.000 euro) trong một phiên tòa dân sự sau khi hình ảnh của bà bị “chế tác” trong các video khiêu dâm “siêu giả” được tung lên mạng.
ANTD.VN - CATP Hà Nội cho biết, thời gian qua nổi lên tội phạm dùng công nghệ "deepfake" để giả mạo người có quan hệ với bị hại, sau đó thực hiện hành vi lừa đảo chiếm đoạt tài sản.
ANTD.VN - Ngày càng nhiều các trường hợp người dân bị các đối tượng lừa đảo sử dụng Deepfake để tạo ra các video, hình ảnh hoặc âm thanh giả mạo nhằm chiếm đoạt tài sản, xúc phạm danh dự hoặc phá hoại uy tín của người khác...
ANTD.VN - Tin giả tạo bởi deepfake xuất hiện từ lâu nhưng gần đây, hình thức lừa đảo này được gắn với các MC nổi tiếng và lan truyền trên TikTok, YouTube.
ANTD.VN - Theo chuyên gia, việc ghép mặt vào các video có sẵn của các app đã vô tình cung cấp data dữ liệu khuôn mặt mình cho các ứng dụng nước ngoài và dễ bị lợi dụng sau đó.
ANTD.VN - Thời gian gần đây, xuất hiện một thủ đoạn lừa đảo mới, hết sức tinh vi khiến không ít người dùng "sập bẫy". Đó là đối tượng lợi dụng công nghệ ứng dụng trí tuệ nhân tạo, tạo ra các đoạn video với hình ảnh, khuôn mặt nhân vật giống hệt như hình ảnh của người muốn giả mạo để yêu cầu "nạn nhân" chuyển tiền. Đây là thủ đoạn lừa đảo mới và rất tinh vi. Người dân cần nâng cao cảnh giác, khi nhận bất kỳ tin nhắn, cuộc gọi video với nội dung vay, mượn tiền, yêu cầu chuyển tiền qua các ứng dụng mạng xã hội.
ANTD.VN - Đối tượng lừa đảo sử dụng công nghệ Deepfake làm giả cuộc gọi video, với mục đích lấy dữ liệu khuôn mặt của khách hàng để dùng những dữ liệu này mở tài khoản tại ngân hàng.
ANTD.VN - Nhằm phòng ngừa các cuộc gọi deepfake sử dụng công nghệ trí tuệ nhân tạo AI tạo ra video giả người thân, bạn bè để lừa đảo, Cục An toàn thông tin khuyến cáo người dân 5 dấu hiệu để nhận biết được cuộc gọi kiểu này.
ANTD.VN - Ông Trần Quang Hưng- Phó Cục trưởng Cục An toàn thông tin (Bộ TT-TT) cho biết, để ngăn chặn cuộc gọi lừa đảo deepfake, Bộ TT-TT đã liên tục cảnh báo người dùng.
ANTD.VN - Theo các chuyên gia công nghệ, các ứng dụng Deepfake AI đang ngày càng phổ biến, thậm chí gây lo ngại về việc mất kiểm soát. Các đối tượng xấu có thể lợi dụng ứng dụng này để thực hiện hành vi lừa đảo.
ANTD.VN - Nhận được đề nghị vay tiền của người quen, nhiều người thận trọng kiểm tra (check) lại qua video call song vẫn bị sập bẫy lừa đảo, chuyển tiền hàng chục triệu đồng.