Thứ Tư, 26/11/2025 09:43 GMT+7
  • ANTV
  • Hotline: 0692324026
  • Email: news@antv.gov.vn

Nhân Văn - Tin Cậy - Kịp Thời - Hấp dẫn

Sự kiện

Pháp luật

Cảnh giác lừa đảo bằng công nghệ Deepfake AI

(ANTV) - Hiện nay tội phạm sử dụng công nghệ cao để lừa đảo ngày càng tinh vi. Thay vì chỉ nhắn tin và gọi điện như trước thì giờ chúng sử dụng công nghệ Deepfake giả cả giọng nói, hình ảnh để gọi video call lừa đảo chiếm đoạt tài sản. Chỉ trong một thời gian ngắn đã có rất nhiều nạn nhân bị các đối tượng lừa đảo thông qua hình thức Deepfake AI, với số tiền lên tới hàng trăm thậm chí hàng tỷ đồng.

Cách đây ít hôm, người nhà chị Nguyễn Thị Lý đã bị một đối tượng hack Facebook, rồi call video nhờ chị chuyển khoản. Để tạo lòng tin, sau khi hack Facebook xong đối tượng thu thập thông tin cá nhân, hình ảnh, video có giọng nói được đăng tải công khai trên mạng xã hội rồi sử dụng công nghệ Deepfake AI, tạo sẵn những video rất khó phân biệt thật - giả. Do video call đúng là người nhà nên chị đã tin tưởng mà chuyển khoản không hề nghi ngờ.

Đây chỉ là 2 trong số rất nhiều nạn nhân bị lừa đảo thông qua hình thức Deepfake AI trong thời gian qua. Theo lực lượng chức năng, đặc điểm chung của những cuộc gọi video như vậy thường có âm thanh, hình ảnh không rõ nét, tín hiệu chập chờn giống như trong khu vực phủ sóng di động hoặc wifi yếu để nạn nhân khó phân biệt.

Được biêt, Deepfake là kỹ thuật sử dụng trí tuệ nhân tạo để tạo ra hình ảnh hoặc video giả mạo rất giống với người thật. Khi áp dụng vào cuộc gọi video, Deepfake có thể giả mạo giọng nói, biểu cảm khuôn mặt và cử chỉ của người bị giả mạo, dẫn đến việc người nhận cuộc gọi có thể bị lừa đảo và hoàn toàn tin vào những gì đang nhìn thấy, đang diễn ra.

Việc sử dụng công nghệ Deepfake để lừa đảo trên không gian mạng có thể gia tăng trong thời gian tới. Người dân cần luôn cảnh giác, tuyệt đối bình tĩnh và chủ động xác thực bằng cách gọi điện thoại trực tiếp hoặc Facetime ít nhất trên 1 phút để xác nhận rằng người mình đang nói chuyện là người thật chứ không phải qua công nghệ.

Bên cạnh đó, người dùng mạng xã hội cũng không nên để lộ quá nhiều thông tin cá nhân lên mạng xã hội, bởi đó cũng là nguyên nhân giúp cho các đối tượng dễ dàng xây dựng những kịch bản lừa đảo như thời gian qua.

Tin cùng chuyên mục

Tin mới nhất

 Định danh địa chỉ IP: Hướng tới một môi trường mạng an toàn

Định danh địa chỉ IP: Hướng tới một môi trường mạng an toàn

Xã hội 26/11/2025

(ANTV) - Theo thống kê, hiện việc định danh địa chỉ internet phục vụ công tác bảo vệ an ninh quốc gia, trật tự, an toàn xã hội thời gian qua còn nhiều bất cập, hạn chế, chưa đáp ứng được yêu cầu công tác nghiệp vụ, tỷ lệ tra cứu địa chỉ internet có thông tin thuê bao không quá 40%.

Khẩn trương chi trả bảo hiểm cho người dân, doanh nghiệp bị thiệt hại do mưa lũ

Khẩn trương chi trả bảo hiểm cho người dân, doanh nghiệp bị thiệt hại do mưa lũ

Kinh tế 26/11/2025

(ANTV) - Ngày 25/11, Phó Thủ tướng Hồ Đức Phớc đã ký Công điện số 228 của Thủ tướng Chính phủ về việc giải quyết chính sách, chi trả chế độ bảo hiểm đối với người dân, doanh nghiệp bị ảnh hưởng bởi lũ lụt đặc biệt lớn tại khu vực Trung Bộ, nhằm hỗ trợ người dân và doanh nghiệp bị ảnh hưởng bởi mưa lũ sớm ổn định đời sống và khôi phục sản xuất.

CEO 500 - Tea Connect kết nối doanh nghiệp toàn cầu

CEO 500 - Tea Connect kết nối doanh nghiệp toàn cầu

Kinh tế 26/11/2025

(ANTV) - Chiều 25/11, dưới sự chủ trì của Thủ tướng Phạm Minh Chính, chương trình CEO 500 - Tea Connect trong khuôn khổ Diễn đàn Kinh tế mùa thu 2025 đã trở thành không gian đối thoại chiến lược toàn cầu, thúc đẩy tầm nhìn chung và tinh thần hợp tác dài hạn.

Tổng kết phong trào thi đua “Vì an ninh Tổ quốc” cụm thi đua số 7

Tổng kết phong trào thi đua “Vì an ninh Tổ quốc” cụm thi đua số 7

Chính trị 26/11/2025

(ANTV) - Chiều 25/11, tại Hà Nội, Cụm thi đua số 7, Bộ Công an gồm các đơn vị: Cục Tổ chức cán bộ, Cục Đào tạo, Cục Công tác Chính trị, Cục Truyền thông CAND, Thanh tra Bộ Công an và Cơ quan Ủy ban kiểm tra Đảng ủy CATW đã tổ chức Hội nghị tổng kết phong trào thi đua “Vì an ninh Tổ quốc” năm 2025.

Xem thêm