Kết quả tìm kiếm cho "cuộc gọi video giả mạo"
Kết quả 37 - 48 trong khoảng 69
Thông tin cá nhân bị lộ lọt, bị rao bán trên mạng xã hội, tạo thành miếng mồi béo bở cho bọn tội phạm. Ngoài nhắn tin chào bán chứng khoán, bán bảo hiểm, đối tượng xấu còn “khủng bố” bằng cách tạo nhiều nick ảo, ứng dụng (app) cho vay tiền online… để lừa đảo.
Thời gian gần đây, các đối tượng sử dụng cuộc gọi lừa đảo trực tuyến deepfake (dùng công nghệ trí tuệ nhân tạo (AI) để tạo ra những video hoặc hình ảnh giả, sao chép chân dung tạo ra đoạn video giả người thân, bạn bè) để lừa đảo.
Thời gian gần đây, tình hình tội phạm lừa đảo chiếm đoạt tài sản trên không gian mạng tiếp tục diễn biến phức tạp, với nhiều phương thức, thủ đoạn tinh vi, khó phát hiện. Nắm bắt được tâm lý người dùng mạng xã hội hiện nay đã cảnh giác với thủ đoạn lừa đảo bằng tin nhắn nhờ chuyển tiền, các đối tượng đã sử dụng công nghệ Deepfake làm giả “video call” (cuộc gọi hình ảnh) nhằm chiếm đoạt tài sản.
Hiện nay, tình trạng lừa đảo qua mạng ngày càng nhiều, với hành vi, thủ đoạn ngày càng tinh vi. Bộ Công an thường xuyên thông tin, cảnh báo hành vi lừa đảo, giả mạo mới, để nâng cao nhận thức của người dân.
Ngày 18/4, Chủ tịch UBND tỉnh An Giang Nguyễn Thanh Bình đã ký Công văn 428/UBND-NC về việc tăng cường phòng ngừa tội phạm lừa đảo chiếm đoạt tài sản sử dụng công nghệ Deepfake.
Cùng với sự phát triển của công nghệ thông tin, thời gian gần đây đã xuất hiện nhiều phương thức, thủ đoạn lừa đảo mới, tinh vi trên không gian mạng nhằm đánh lừa các nạn nhân để chiếm đoạt tài sản.
Việc chuẩn hóa thông tin là tạo ra sự thống nhất, nhất quán thông tin cá nhân, từ đó tạo ra môi trường dịch vụ thông tin di động văn minh, an toàn cho các hoạt động giao dịch có liên quan đến số điện thoại.
Ngày 31/3, Công an thành phố Hà Nội cho biết, thời gian gần đây, tình hình tội phạm lừa đảo chiếm đoạt tài sản trên không gian mạng diễn biến phức tạp. Nắm bắt được tâm lý người dùng mạng xã hội cảnh giác với thủ đoạn lừa đảo bằng tin nhắn nhờ chuyển tiền, các đối tượng đã sử dụng thủ đoạn tinh vi hơn, lợi dụng công nghệ Deepfake làm giả cuộc gọi video nhằm chiếm đoạt tài sản. Do đó, Công an thành phố Hà Nội đề nghị người dân nâng cao cảnh giác khi nhận bất kỳ tin nhắn, cuộc gọi video với nội dung vay, mượn tiền qua các ứng dụng mạng xã hội.
Thảm họa động đất tại Thổ Nhĩ Kỳ và Syria hồi đầu tháng 2 một lần nữa cho thấy tầm quan trọng của thông tin liên lạc trong thời kỳ khủng hoảng.
Theo các chuyên gia công nghệ, các ứng dụng Deepfake AI đang ngày càng phổ biến, thậm chí gây lo ngại về việc mất kiểm soát. Các đối tượng xấu có thể lợi dụng ứng dụng này để thực hiện hành vi lừa đảo.
Các đối tượng sử dụng công nghệ Deepfake AI, tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video với độ chính xác rất cao để lừa đảo.
Theo Cục Viễn thông, một số đối tượng đã lợi dụng việc chuẩn hóa thông tin thuê bao viễn thông để thực hiện các hành vi có dấu hiệu mạo danh, lừa đảo, quảng cáo… vi phạm pháp luật.