05/05/2023 11:50
Dấu hiệu cuộc gọi video deepfake lừa đảo
Đối với các cuộc gọi deepfake như hiện nay, bằng mắt thường vẫn có thể nhận ra một số dấu hiệu như thời gian gọi thường rất ngắn chỉ vài giây, "nhân vật chính" xuất hiện trong video có khuôn mặt thiếu cảm xúc và "trơ" khi nói, tư thế lúng túng, hướng đầu và cơ thể không nhất quán.
Sáng 5/5, tại Hà Nội, Bộ Thông tin và Truyền thông (TT&TT) tổ chức họp báo cung cấp thông tin về hoạt động của Bộ, của ngành Thông tin và Truyền thông trong tháng 4 và kế hoạch triển khai thực hiện các nhiệm vụ trọng tâm của Bộ trong thời gian tới.
Đồng thời, trao đổi với các cơ quan báo chí về những vấn đề liên quan đến hoạt động của Bộ, của ngành TT&TT đang được báo chí và dư luận quan tâm.
Về lĩnh vực an toàn thông tin mạng, Bộ TT&TT cho biết, thời gian gần đây xuất hiện hình thức lừa đảo trực tuyến mới là cuộc gọi video deepfake.
Theo đó, các đối tượng sử dụng công nghệ trí tuệ nhân tạo (AI) để tạo ra những video hoặc hình ảnh giả, sao chép chân dung để tạo ra các đoạn video giả người thân, bạn bè để thực hiện các cuộc gọi lừa đảo trực tuyến.
Deepfake đang là một mối đe dọa đối với sự trung thực và tin cậy của video và hình ảnh. Nó có thể được sử dụng không chỉ để lừa đảo trực tuyến mà còn sử dụng cho các mục đích khác như tấn công chính trị, tạo ra những tin tức giả mạo hoặc phá hoại danh tiếng của người khác.
Theo đại diện Bộ TT&TT, phần lớn hình thức lừa đảo trực tuyến này nhắm tới việc lừa đảo tài chính. Đối với các cuộc gọi deepfake như hiện nay thì bằng mắt thường vẫn có thể có một số các dấu hiệu để nhận biết như thời gian gọi thường rất ngắn chỉ vài giây.
Cơ quan này cho biết với các kỹ thuật deepfake hiện nay của các đối tượng lừa đảo ở Việt Nam, người nhận cuộc gọi có thể nhìn thấy các dấu hiệu đáng ngờ. Cụ thể, "nhân vật chính" xuất hiện trong video có khuôn mặt thiếu cảm xúc và "trơ" khi nói, tư thế lúng túng, hướng đầu và cơ thể không nhất quán, theo Zing.
Về bối cảnh, ánh sáng và bóng đổ trong video không đúng vị trí, tạo cảm giác giả tạo và thiếu tự nhiên. Âm thanh trong clip sẽ không khớp với hình ảnh hoặc chuyển động môi của người nói, nhiều tiếng ồn hoặc không có âm thanh.
Bộ TT&TT cũng lưu ý một dấu hiệu đáng ngờ và dễ thấy là số tài khoản yêu cầu chuyển tiền đến không phải của người đang thực hiện cuộc gọi và thường kẻ gian sẽ ngắt giữa chừng, bảo là mất sóng, sóng yếu...
"Ngoài các giải pháp công nghệ, chúng ta cần đánh giá lại gốc của vấn đề là phần lớn lừa đảo liên quan đến tài chính. Để lấy được tiền của nạn nhân, kẻ lừa đảo cần có tài khoản ngân hàng. Trong khi đó, chúng ta vẫn còn những tài khoản ngân hàng không chính chủ, chỉ cần 2-3 triệu là mua được", ông Trần Quang Hưng, Phó cục trưởng Cục An toàn thông tin (Bộ TT&TT), cho biết tại họp báo.
"Khi nhận cuộc gọi có bất kỳ dấu hiệu bất thường nào, người nhận cần cố gắng kéo dài cuộc gọi để biết chắc đang nói chuyện với người thật chứ không phải nói chuyện với một đoạn video deepfake dựng sẵn. Ngoài ra, tuyệt đối không chuyển tiền cho các tài khoản lạ, kể cả tài khoản có tên giống với tên người thân, bạn bè", ông Ngọc Sơn lưu ý.
Tóm lại, các yếu tố kỳ lạ như trên là báo hiệu đỏ của deepfake. Do đó, Bộ TT&TT khuyến cáo người dân nên luôn cảnh giác và tuyệt đối bình tĩnh.
Trong lĩnh vực viễn thông, Bộ TT&TT cũng thông tin, công tác phát hiện và xử lý các trạm BTS giả phát tán tin nhắn rác: Cơ quan chức năng của Bộ TT&TT đã phối hợp với Cục A05, Bộ Công an phát hiện và bắt giữ 2 vụ/2 BTS giả (tại Hưng Yên, Thái Nguyên) để phát tán tin nhắn lừa đảo;
Đã mở rộng điều tra bắt 1 vụ/1 BTS giả tại Bắc Giang (trong tháng 3/2023 phát hiện và bắt 8 vụ/9 BTS giả tại Hà Nội, TP.HCM, Gia Lai, Thanh Hóa, Quảng Nam).
(Tổng hợp)
Tin liên quan
Advertisement
Advertisement