Cảnh báo: Video Call thấy mặt "chính chủ" chưa chắc được gọi từ chính chủ

04/05/2023 1689

Mục lục

    Hiện nay, kẻ lừa đảo nhờ vào công nghệ trí tuệ nhân tạo (AI) đã thực hiện những cuộc gọi video với khuôn mặt và giọng nói giả mạo “chính chủ” khiến người nhận mắc bẫy. Hãy cùng 24hStore tìm hiểu rõ hơn trong bài viết dưới đây nhé!

    Cảnh giác với cuộc gọi video được tạo bởi ứng dụng Deepfake 

    Deepfake là một công nghệ trí tuệ nhân tạo vô cùng tiên tiến, cho phép tạo ra những video và giọng nói được làm giả của một người bất kỳ. So với cách thức mạo danh truyền thống trước kia, kẻ lừa đảo sử dụng một bức ảnh chụp chân dung của nạn nhân để thực hiện cuộc gọi giả mạo thì công nghệ Deepfake cung cấp một tùy chọn linh hoạt hơn. Kẻ gian có thể tạo ra một đoạn video chân thực, bao gồm cả những cử chỉ tinh vi trên khuôn mặt và miệng, cùng với giọng nói rất giống với người mà họ giả mạo. Điều này tạo ra sự tự nhiên và độ tin cậy cao, khiến cho nạn nhân dễ dàng bị lừa.

    công nghệ deepfake mạo danh, lừa đảo

    Theo ông Vũ Thanh Thắng, Giám đốc CAIO của Công ty an ninh mạng thông minh SCS, Deepfake đang trở thành một vấn đề phổ biến tại Việt Nam. Các kẻ lừa đảo sử dụng công nghệ này để tạo ra các video giả mạo của các nạn nhân, với mục đích lừa đảo và đánh lừa người thân của họ. 

    "Cách này đang phát huy hiệu quả, vì đây là hình thức lừa đảo mới, đặc biệt khi ý thức về vấn đề an ninh mạng chưa cao, chưa có thói quen kiểm tra kỹ thông tin trước khi chuyển tiền. Trong tương lai Deepfake có thể gây ra hiểm họa lớn hơn là giả danh những người nổi tiếng, chính trị gia... để thực hiện những mục đích khác của tội phạm mạng", ông Thắng nhấn mạnh. 

    Theo chuyên gia bảo mật Ngô Minh Hiếu từ Trung tâm Giám sát an toàn không gian mạng quốc gia, đã có nhiều trường hợp người dùng bị lừa dối bằng công nghệ Deepfake. 

    Một trong những cách thức phổ biến của các kẻ lừa đảo là chiếm đoạt tài khoản Facebook của nạn nhân, sau đó sử dụng Deepfake để tạo ra video giả mạo của người dùng và gửi tin nhắn mượn tiền đến bạn bè của họ. 

    Các cuộc gọi video cũng sử dụng hình ảnh và giọng nói của nạn nhân được làm giả để xác nhận danh tính của người gọi, khiến cho người nhận tin tưởng và dễ dàng bị lừa. Do đó, người dùng nên chủ động bảo vệ thông tin cá nhân và không chia sẻ thông tin quan trọng với bất kỳ ai trên mạng.

    Ông Hiếu cũng cho rằng trong tương lai tội phạm mạng tại Việt Nam sẽ ngày càng nâng cao kỹ năng của mình trong việc sử dụng công nghệ Deepfake. Bằng cách tải xuống các công cụ phần mềm trên mạng, kẻ xấu có thể dễ dàng cắt ghép hình ảnh và video, rồi tạo ra Deepfake để lừa đảo và gây hại cho người khác. 

    "Những người tầm trung niên trở lên là đối tượng dễ bị lừa nhất, nếu không có được sự chia sẻ hướng dẫn an toàn trên không gian mạng", ông Hiếu cảnh báo.

    Cách nhận biết cuộc gọi video trên ứng dụng Deepfake

    Theo ông Vũ Thanh Thắng, thường những cuộc gọi video giả chỉ kéo dài vài giây, được tạo ra để lừa đảo bạn bè hoặc người thân của nạn nhân. Những cuộc gọi này thường được chạy thoáng qua và sau đó bị ngắt với lý do về sóng điện thoại kém hoặc vấn đề kỹ thuật. Bằng cách này, kẻ lừa đảo có thể yêu cầu mượn tiền gấp từ người nhận cuộc gọi và tạo ra cảm giác "chính chủ" đang gọi điện rất tự nhiên.

    Công nghệ Deepfake đã có sự tiến bộ đáng kể trong thời gian gần đây, tuy nhiên vẫn còn nhiều hạn chế. Chất lượng của video Deepfake hiện tại vẫn chưa thực sự tốt, với nhiều hiện tượng bị giật, bị mờ hoặc không tự nhiên. Âm thanh cũng là một vấn đề quan trọng, khi giọng nói của người bị giả dạng vẫn chưa thể được tái tạo hoàn toàn giống với người thật. 

    công nghệ deepfake mạo danh, lừa đảo

    Đối phó với việc sử dụng công nghệ Deepfake để lừa đảo, các chuyên gia an ninh mạng đề nghị người dùng tăng cường an ninh cho tài khoản của mình, bằng cách sử dụng mật khẩu phức tạp, kích hoạt xác thực hai yếu tố, đồng thời cẩn trọng với việc chia sẻ thông tin cá nhân và bảo vệ các thiết bị của mình trước các cuộc tấn công của phần mềm độc hại. Khi gặp cuộc gọi video có chất lượng thấp và đáng ngờ, hãy hỏi ngược lại để tránh sập bẫy của kẻ gian bằng những câu hỏi như: những thông tin cá nhân riêng biệt không nhiều người biết, mối liên hệ gia đình để kiểm tra xem đó có phải là người thân và bạn bè của mình không.

    Các chuyên gia an ninh mạng đều nhận định rằng việc xác thực thông tin trước khi thực hiện chuyển tiền là cực kỳ quan trọng. Để tránh bị lừa đảo, người dùng cần kiểm tra thông tin tài khoản nhận tiền, xác minh các thông tin về số tài khoản, tên tài khoản và tên ngân hàng. Ngoài ra, người dùng cũng nên thực hiện cuộc gọi qua số điện thoại bình thường để xác minh và tránh sập bẫy của các kẻ gian.

    Chuyên gia Ngô Minh Hiếu cũng cảnh báo rằng: "Hãy để ý những dấu hiệu kỳ lạ. Có thể khuôn mặt của họ thiếu tính cảm xúc và khá 'trơ' khi nói, màu da của nhân vật trong video bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí... Âm thanh cũng thường không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào clip...".

    Cảnh cáo những nguy cơ lớn hơn

    Hãng bảo mật Kaspersky cho biết, các cuộc tấn công Deepfake không chỉ có mục đích lừa đảo để trả thù cá nhân hay bắt cóc tống tiền, mà còn có thể được sử dụng để gây ảnh hưởng đến các hoạt động chính trị và kinh tế của một quốc gia. Chẳng hạn, Deepfake có thể được dùng để tạo ra những video giả mạo các nhân vật chính trị quan trọng, gây rối và tạo nên sự không ổn định trong cộng đồng. 

    công nghệ deepfake mạo danh, lừa đảo

    Một trong những ví dụ nổi tiếng về tác hại của Deepfake được đưa ra là trường hợp của giám đốc điều hành một công ty năng lượng của Anh đã bị lừa tới 243.000 USD (hơn 5,7 tỷ đồng). Trong đó, kẻ gian đã dùng giọng nói Deepfake của người đứng đầu công ty mẹ yêu cầu chuyển tiền khẩn cấp.

    Vị giám đốc điều hành này đã tin tưởng ngay và không nghĩ đến việc kiểm tra lại khi nhận được cuộc gọi có giọng nói giả giống thật đến vậy. Tiền đã được chuyển đến tài khoản ngân hàng của bên thứ ba thay vì tài khoản trụ sở chính. Ông ta chỉ thật sự nghi ngờ khi nhận được yêu cầu chuyển thêm một khoản tiền khác. Tuy nhiên, đã quá trễ để có thể lấy lại được số tiền đã chuyển trước đó. 

    Câu chuyện trên là một ví dụ rõ ràng về cách kẻ lừa đảo có thể sử dụng công nghệ Deepfake để gian lận và chiếm đoạt tiền của nạn nhân. Với sự phát triển của công nghệ, các phương thức lừa đảo ngày càng tinh vi và khó phát hiện hơn, do đó người dùng cần phải cẩn trọng và có những biện pháp phòng ngừa đối với các mối đe dọa an ninh mạng này.

    Để thường xuyên cập nhật vô vàn tin tức công nghệ bổ ích cũng như dễ dàng trải nghiệm những tính năng tuyệt vời trên Android/iOS, bạn có thể cân nhắc đến việc sắm ngay một trong những sản phẩm đến từ thương hiệu AppleSamsungOppoXiaomi trực tiếp tại 24hStore. Khi mua hàng ở đây, bạn sẽ được tặng kèm ưu đãi hấp dẫn. Ngoài ra, bộ phận tư vấn cũng sẵn sàng trao đổi mọi thông tin thật tận tình nếu bạn liên hệ trước qua hotline 19000351.

    Xem thêm các mẫu iPhone cũ chính hãng giá tốt tại 24hStore:

    Hotline
    1900 0351 (8h - 22h)
    Support Zalo
    Chat Zalo (8h - 22h)