Dữ liệu cá nhân tại Việt Nam là một trong những thông tin dễ bị thu thập hàng loạt, do đó, những kẻ lừa đảo sử dụng deepfake sẽ tìm cách tiếp cận nhiều người nhất có thể để tăng khả năng thành công.

Thông tin cá nhân bị mua bán công khai trên các trang mạng xã hội, làm cho những kẻ lừa đảo dễ dàng tấn công nạn nhân bằng cách sử dụng các công cụ giả mạo ảnh, video.

deepfake 2

Với sự hỗ trợ của các công cụ dựng video deepfake, ai cũng có thể làm được! Ảnh: mrdeepfakes

Thời gian gần đây, hình thức lừa đảo mới xuất hiện ngày càng phổ biến tại Việt Nam là dựng video giả mạo người thân, bạn bè và sau đó yêu cầu chuyển khoản, vay mượn tiền. Cảnh báo này đã được Cục Cảnh sát phòng chống tội phạm sử dụng công nghệ cao (A05 – Bộ Công an) đưa ra.

“Tội phạm lừa đảo giả hình ảnh và giọng nói của người sở hữu tài khoản mạng xã hội nhằm chiếm được lòng tin, sau đó yêu cầu thực hiện giao dịch tài chính vay tiền hoặc chuyển tiền”, đại diện A05 cho biết tại buổi họp báo ngày 28/3.

“Ở Việt Nam, tình trạng lọt lộ thông tin dữ liệu cá nhân xảy ra thường xuyên, rất đơn giản để các hacker thu thập. Trong khi đó, video deepfake không khó để tạo ra, chỉ cần sử dụng các công cụ mã nguồn mở”, chuyên gia bảo mật tại dự án Chống Lừa Đảo, ông Ngô Minh Hiếu, chia sẻ với Zing.

Ông Hiếu giải thích rằng, để tạo ra deepfake, cần có một máy tính để bàn, có GPU rời và sử dụng phần mềm DeepFaceLab được tải miễn phí trên mạng. Chỉ mất vài giờ để ghép mặt của một người vào một video nói chuyện.

Công nghệ deepfake đang ngày càng trở nên phổ biến và dễ dàng tiếp cận đối với những người có nhu cầu sử dụng. Với chỉ một số video hướng dẫn trên mạng, người dùng có thể tự học cách tạo ra những video deepfake chỉ trong vòng 6-10 phút. Quy trình này bao gồm việc dựng video từ một đoạn video gốc và sử dụng các công cụ deepvoice và tinh chỉnh để tăng tính chân thực.

deepfake 2

Nếu quan sát kỹ và đủ bình tĩnh, chúng ta cũng sẽ nhận ra các điểm bất thường của video deepfake, trong hình là bàn tay của tổng thống Pháp. Ảnh: Twitter.

Các công cụ để dựng video deepfake hiện đã có sẵn trên mạng và có thể sử dụng dễ dàng. Nếu muốn tạo ra những video chất lượng cao, người dùng có thể sử dụng các công cụ deepvoice để chỉnh sửa giọng nói và tinh chỉnh để đồng bộ hóa chuyển động môi với lời nói. Tuy nhiên, để tạo ra những video deepfake chân thực, cần có khoảng từ 300-2.000 hình ảnh của đối tượng.

Nguồn dữ liệu để tạo ra deepfake có thể đến từ các mạng xã hội và trong một số trường hợp, kẻ lừa đảo có thể chiếm quyền tài khoản của người dùng để thu thập những hình ảnh và video của họ. Theo Giám đốc công nghệ của Công ty Công nghệ An ninh mạng Quốc gia Việt Nam, các thuật toán deepfake hiện nay thường được xây dựng trên nền tảng mã nguồn mở của Google và có khả năng tạo ra những video deepfake có độ chân thực đáng kinh ngạc. Đối với các video và hình ảnh gốc nhiều hơn, thuật toán sẽ hoạt động chính xác hơn và kết quả video giả mạo sẽ có độ chân thực càng cao.

Deepfake, một loại kỹ thuật nhân tạo mới, đang trở thành mối đe dọa đáng sợ đối với sự riêng tư và an ninh của chúng ta. Đây là một phương pháp giả dạng hình ảnh hoặc video để tạo ra một hình ảnh giống như người khác, thường là người nổi tiếng hoặc người thân quen, và sử dụng nó để lừa đảo, gây tổn hại cho người khác.

Theo một chuyên gia về an ninh mạng tại Việt Nam, deepfake có thể giả dạng bất kỳ ai, không chỉ nhắm vào một nhóm nạn nhân cụ thể. Vì vậy, cần phải tìm cách bảo vệ mình khỏi những cuộc gọi giả mạo này.

Các kẻ lừa đảo thường sử dụng các nội dung gay cấn để làm người nhận cuộc gọi video không đủ thời gian để quan sát và phát hiện ra bất thường. Tuy nhiên, các công cụ deepfake hiện tại đang được sử dụng tại Việt Nam có chất lượng hình ảnh không cao và để lại nhiều dấu vết. Hình ảnh và video deepfake thường để lại các dấu hiệu có thể nhận biết, chẳng hạn như khuôn mặt ít biểu cảm hoặc các vùng khuôn mặt bệt màu, không di chuyển đồng bộ với các bộ phận khác.

Để không bị đánh lừa, chuyên gia khuyên người nhận video giữ bình tĩnh và tìm cách kiểm chứng lại thông tin. Có thể bằng cách gọi điện trực tiếp đến số điện thoại người thân hoặc kéo dài thời gian gọi ít nhất trên một phút. Hãy đặt ra những câu hỏi cá nhân mà chỉ có bạn và người kia mới biết, vì deepfake sẽ không thể giả được một cuộc trò chuyện thật sự trong thời gian thực mà có tính chuẩn xác cao do hạn chế về cảm xúc, biểu cảm.

Các chuyên gia cũng khuyến nghị người dùng mạng xã hội hạn chế chia sẻ công khai hình ảnh hoặc video cá nhân. Áp dụng bảo mật 2 bước (MFA) với các tài khoản mạng xã hội, email để tránh trường hợp hình ảnh hoặc tài khoản rơi vào tay kẻ lừa đảo. MFA là một phương pháp bảo mật giúp ngăn chặn kẻ xấu xâm nhập vào tài khoản của bạn bằng cách yêu cầu hai yếu tố xác thực khác nhau, thường là mật khẩu và mã xác thực, trước khi bạn được phép đăng nhập vào tài khoản của mình.

Ngoài ra, nếu bạn nhận được một cuộc gọi video hoặc tin nhắn đáng ngờ, hãy giữ bình tĩnh và tìm cách kiểm chứng lại thông tin. Bạn có thể gọi điện trực tiếp đến số điện thoại người thân hoặc kéo dài thời gian gọi ít nhất trên một phút để xác minh danh tính của người gọi.

Nếu bạn phát hiện bất kỳ dấu hiệu nào của deepfake, hãy báo cáo ngay cho cơ quan chức năng hoặc nhà cung cấp dịch vụ. Bạn cũng nên sử dụng các công cụ phát hiện deepfake trực tuyến để kiểm tra xem ảnh hoặc video của bạn có bị chỉnh sửa hay không trước khi chia sẻ nó trên mạng xã hội.

Cuối cùng, hãy luôn cẩn trọng khi chia sẻ thông tin cá nhân của mình trên mạng xã hội và tránh chia sẻ quá nhiều thông tin nhạy cảm, đặc biệt là thông tin tài khoản và mật khẩu. Các kẻ lừa đảo có thể sử dụng thông tin này để đánh cắp tài sản của bạn hoặc tiến hành các hoạt động lừa đảo khác.

Nguồn: Zing News

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *

error: Content is protected !!