Cảnh giác: Siêu lừa đảo Deepfake đã trở lại một cách tinh vi hơn

27/02/2025 146

Mục lục

    Trong những năm gần đây, công nghệ Deepfake đã trở thành một mối đe dọa đáng lo ngại đối với an ninh mạng và đời sống cá nhân. Ban đầu được sử dụng cho mục đích giải trí, như thay đổi gương mặt và giọng nói của các nhân vật nổi tiếng, công nghệ Deepfake nay đã bị lợi dụng để thực hiện các hành vi lừa đảo tinh vi, gây thiệt hại cho nhiều nạn nhân.

    Công nghệ Deepfake

    Deepfake là một công nghệ sử dụng trí tuệ nhân tạo (AI) để tạo ra hình ảnh, video hoặc âm thanh giả mạo nhưng có độ chính xác cao, khiến người xem khó phân biệt thật giả. Công nghệ này ra đời vào năm 2017 và nhanh chóng phát triển, trở thành mối đe dọa lớn đối với an ninh mạng.

    lua-dao-qua-cong-nghe-deep-fake-1


    Hình thức lừa đảo với công nghệ Deepfake quay trở lại

    Chị Nguyễn Thị Hương Mơ, một nhân viên văn phòng ở quận Hoàng Mai (Hà Nội), đã chia sẻ về một trường hợp lừa đảo mà chị đã gặp phải. Trong một lần trò chuyện qua Facebook Messenger, chị Mơ đã nhận được tin nhắn từ người bạn, yêu cầu vay tiền và chuyển tiền vào một tài khoản ngân hàng. Để chắc chắn hơn, chị đã đề nghị gọi video qua Messenger để xác thực. Mặc dù cuộc gọi video chỉ kéo dài vài giây, chị vẫn thấy đúng mặt bạn mình và quyết định chuyển đủ 10 triệu đồng theo yêu cầu. Tuy nhiên, sau khi chuyển tiền, chị đã gọi điện xác minh và phát hiện rằng tài khoản Facebook của người bạn đã bị hack, và chị đã trở thành nạn nhân của một vụ lừa đảo bằng công nghệ Deepfake.

    lua-dao-qua-cong-nghe-deep-fake-2

    Tương tự như chị Mơ, anh Hoàng Anh Nghĩa, ở quận Cầu Giấy (Hà Nội), cũng gặp phải tình huống tương tự. Tuy nhiên, thay vì gọi video qua các ứng dụng mạng xã hội, anh Nghĩa đã quyết định gọi điện thoại trực tiếp cho người bạn của mình. Qua cuộc gọi, anh mới biết rằng tài khoản Facebook của bạn đã bị hack và bị kẻ xấu lợi dụng để lừa đảo bằng công nghệ Deepfake.

    Cục An Toàn Thông Tin đã cảnh báo về tình trạng tội phạm mạng sử dụng công nghệ Deepfake để giả mạo video và hình ảnh của người khác nhằm thực hiện hành vi lừa đảo. Các đối tượng tội phạm sử dụng công nghệ này để tái tạo âm thanh và hình ảnh của người nổi tiếng, lãnh đạo doanh nghiệp, hoặc những cá nhân có ảnh hưởng. Họ có thể dùng các cuộc gọi video giả mạo để thực hiện các hành vi lừa đảo tài chính. Những video giả mạo này thường khai thác yếu tố tâm lý như sự khẩn cấp, sợ hãi, hoặc quyền lực, khiến nạn nhân hành động vội vàng mà không kiểm tra kỹ tính xác thực.

    lua-dao-qua-cong-nghe-deep-fake-3

    Cách nhận biết tội phạm lừa đảo công nghệ Deepfake

    Một trong những cách dễ nhận diện video giả mạo chính là kiểm tra chuyển động trên khuôn mặt. Deepfake thường không thể tái tạo chuyển động mắt tự nhiên, đặc biệt là việc chớp mắt. Nếu bạn nhận thấy mắt không chớp hoặc chuyển động mắt không tự nhiên, đây có thể là dấu hiệu của một video giả. Ngoài ra, cảm xúc trên khuôn mặt cũng có thể không trùng khớp với nội dung, màu da, tóc và răng có thể khác biệt so với thực tế, hoặc ánh sáng kỳ lạ xuất hiện do quá trình tái tạo của trí tuệ nhân tạo. Bên cạnh đó, bạn cũng nên chú ý đến chất lượng âm thanh trong video. Vì công nghệ Deepfake chủ yếu tập trung vào hình ảnh và video, âm thanh trong video có thể không khớp với chuyển động miệng, đây là một dấu hiệu quan trọng để nhận biết video giả mạo.

    lua-dao-qua-cong-nghe-deep-fake-5

    Cảnh báo từ cơ quan chức năng

    Bkav khuyến cáo người dùng cần nâng cao cảnh giác và không cung cấp thông tin cá nhân như căn cước công dân, tài khoản ngân hàng, mã OTP hay chuyển tiền cho người lạ qua điện thoại, mạng xã hội, hoặc các trang web có dấu hiệu lừa đảo. Khi nhận được yêu cầu vay hoặc chuyển tiền qua mạng xã hội, người dùng nên xác minh thông qua các phương thức khác như gọi điện thoại truyền thống hoặc sử dụng các kênh liên lạc khác để xác nhận lại. 

    Ông Trần Quang Hưng, Phó Cục trưởng Cục An toàn thông tin, Bộ Thông tin và Truyền thông cũng nhấn mạnh rằng: "Cuộc gọi lừa đảo trực tuyến Deepfake đang trở thành mối đe dọa nghiêm trọng đối với sự trung thực và tin cậy của video, hình ảnh, với mục đích không chỉ lừa đảo mà còn có thể tấn công chính trị, tạo tin tức giả hoặc phá hoại danh tiếng".

    lua-dao-qua-cong-nghe-deep-fake-9

    Cục An toàn thông tin khuyến cáo người dân cần hết sức thận trọng với các cuộc gọi, tin nhắn hoặc email không rõ nguồn gốc. Khi nhận được các cuộc gọi lạ từ số điện thoại không phải thuê bao cố định hay di động thông thường, người dân nên cảnh giác và không nghe máy. Nếu nhận được tin nhắn, email hoặc link từ người lạ, tuyệt đối không cung cấp thông tin cá nhân hay làm theo yêu cầu của đối tượng. 

    Đặc biệt, không tin tưởng tuyệt đối vào các video, hình ảnh hoặc cuộc gọi từ người lạ; nếu có nghi ngờ, hãy dừng lại và kiểm tra kỹ thông tin trước khi hành động. Cần cảnh giác với các lời khuyên đầu tư hoặc cuộc gọi đe dọa, vì các đối tượng lừa đảo thường lợi dụng yếu tố khẩn cấp để khiến bạn hành động vội vàng. Đồng thời, khi mua bán trực tuyến, người dân cần xác minh danh tính người bán và chất lượng sản phẩm, tránh chuyển tiền trước khi có giao dịch rõ ràng.

    lua-dao-qua-cong-nghe-deep-fake-11

    Đừng để mình tụt lại phía sau! Hãy nhấn theo dõi 24hStore ngay để cập nhật ngay những tin tức công nghệ “hot” nhất và xu hướng mới nhất. Trở thành người đầu tiên nắm bắt thông tin và khám phá thế giới công nghệ cùng 24hStore!

    Nguồn: VTV, Báo Hà Tĩnh, Quân đội Nhân dân

    Hotline
    1900 0351 (8h - 22h)
    Support Zalo
    Chat Zalo (8h - 22h)