/ Pháp luật - Đời sống
/ Khuyến cáo hình thức lừa đảo mở tài khoản ngân hàng bằng công nghệ AI

Khuyến cáo hình thức lừa đảo mở tài khoản ngân hàng bằng công nghệ AI

18/06/2023 12:03 |

(LSVN) - Hiện nay, các đối tượng lừa đảo ngày càng tinh vi và khó kiểm soát do sử dụng kết hợp công nghệ AI. Trong đó, công nghệ sử dụng Deepfake thời gian gần đây nở rộ, khiến nhiều người bị sập bẫy lừa đảo vì không biệt được đâu là người thật, người giả. Để ngăn chặn nguy cơ bị lừa đảo và bảo vệ quyền lợi của khách hàng, các ngân hàng khuyến cáo người dùng nên nâng cao cảnh giác với các cuộc gọi giới thiệu là nhân viên của cơ quan nhà nước hoặc người quen, đặc biệt với các yêu cầu thực hiện các hành động lạ như: Nhìn thẳng, nhìn sang trái, nhìn lên, nhìn xuống.

Ảnh minh họa.

Mới đây, ngày 16/6, Ngân hàng Hàng Hải (MSB) tiếp tục phát đi các thông báo đến khách hàng để cảnh báo về hình thức lừa đảo mới của các đối tượng lừa đảo trên không gian mạng. Trong đó, hình thức lừa đảo mới nhất là sử dụng công nghệ Deepfake - giả hình ảnh và giọng nói để giả mạo cán bộ cơ quan nhà nước (Công an, cơ quan thuế, Tòa án,…) hoặc người quen của nạn nhân để gọi video call (cuộc gọi trực tiếp bằng hình) với nạn nhân.

Khi gọi video call, kẻ gian bằng các thủ đoạn khác nhau sẽ yêu cầu nạn nhân nhìn thẳng, nhìn sang trái, nhìn sang phải, nhìn lên, nhìn xuống. Đối tượng sẽ ghi lại video và sử dụng để mở tài khoản online (eKYC) tại các tổ chức tài chính - ngân hàng. Trong một số trường hợp, kẻ gian yêu cầu nạn nhân cung cấp thêm các thông tin cá nhân như số chứng minh nhân dân/căn cước công dân, số điện thoại, địa chỉ,…

Khách hàng vô tình thực hiện theo các yêu cầu này đã gián tiếp giúp đối tượng có dữ liệu để đăng ký mở tài khoản thành công. Cuối cùng, kẻ gian sẽ sử dụng các tài khoản này với mục đích xấu.

Trước đó, vào đầu tháng 6, nhiều ngân hàng khác cũng đã phát đi thông báo khuyến cáo người dùng nâng cao cảnh giác với các đối tượng lừa đảo sử dụng tài khoản mạng xã hội (Zalo, Facebook,...) hoặc tạo tài khoản mạng xã hội giả danh người thân của nạn nhân, sau đó các đối tượng này thu thập thông tin cá nhân, hình ảnh, video có giọng nói có sẵn và sử dụng công nghệ Deepfake để tạo ra các video giả mạo.

Từ đó, các đối sử dụng tài khoản mạng xã hội giả mạo hoặc chiếm đoạt được để nhắn tin mượn tiền hay nhờ chuyển tiền hoặc thông báo người thân của nạn nhân gặp nguy hiểm nhằm yêu cầu chuyển tiền gấp…; đồng thời thực hiện cuộc gọi video mạo danh, phát video giả nhằm xác thực thông tin, tăng độ tin cậy để lừa nạn nhân chuyển tiền.

Ngoài ra, các chiêu thức lừa đảo chiếm đoạt quyền sử dụng số điện thoại rồi lấy tiền trong ứng dụng ngân hàng, ví điện tử cũng được các ngân hàng liên tục cảnh báo. 

Để ngăn chặn nguy cơ bị lừa đảo và bảo vệ quyền lợi của khách hàng, các ngân hàng khuyến cáo người dùng nên nâng cao cảnh giác với các cuộc gọi giới thiệu là nhân viên của cơ quan nhà nước hoặc người quen, đặc biệt với các yêu cầu thực hiện các hành động lạ như: Nhìn thẳng, nhìn sang trái, nhìn lên, nhìn xuống.

Theo Bộ Công an, dấu hiệu nhận biết các cuộc gọi sử dụng công nghệ Deepfake đó là các cuộc gọi giả mạo thường có hình ảnh của nạn nhân, tuy nhiên âm thanh, hình ảnh không rõ nét, tín hiệu chập chờn, thời lượng ngắn; sau đó đối tượng lấy lý do mạng chập chờn, mất sóng, đường truyền kém để dừng cuộc gọi video. Dấu hiệu khác để nhận diện cuộc gọi mạo danh này, nội dung trả lời không trực tiếp vào câu hỏi của người nhận cuộc gọi lừa đảo hoặc không phù hợp với ngữ cảnh đang giao tiếp.

Bộ Công an khuyến cáo người dân hạn chế chia sẻ hình ảnh, video có giọng nói thật, thông tin cá nhân trên mạng xã hội. Nâng cao cảnh giác với các tin nhắn, cuộc gọi hỏi vay mượn tiền, yêu cầu chuyển tiền, kể cả xác nhận qua video nếu có dấu hiệu nghi ngờ. Chú ý kiểm tra kỹ thông tin tài khoản nhận tiền bằng cách gọi điện trực tiếp vào số điện thoại của người liên hệ (không gọi qua các ứng dụng miễn phí) để xác minh lại thông tin trước khi chuyển tiền.

PV

Cảnh báo giả mạo giấy xác nhận của Bộ Y tế để bán thực phẩm chức năng trên mạng

Bùi Thị Thanh Loan