AI đang giúp cuộc sống tiện lợi hơn từng ngày. Nhưng cũng chính công nghệ ấy đang bị lợi dụng để tạo ra những hình thức lừa đảo tinh vi chưa từng có, nơi giọng nói, khuôn mặt, tin nhắn và thậm chí cảm xúc đều có thể bị sao chép. Điều đáng lo ngại là: các vụ lừa đảo sử dụng AI không còn nhắm vào sự thiếu hiểu biết, mà đánh thẳng vào
niềm tin.
Deepfake không còn là trò thử nghiệm, mà là công cụ lừa đảo thực thụ Chỉ cần vài phút dữ liệu giọng nói hoặc hình ảnh, AI đã có thể tạo ra một “bản sao” gần như hoàn hảo của một con người. Những video, cuộc gọi tưởng như đến từ người thân, lãnh đạo hay người nổi tiếng thực chất có thể là sản phẩm tổng hợp hoàn toàn. Không ít người đã mất tiền vì tin rằng mình đang nghe chính Elon Musk, một doanh nhân thành đạt hay thậm chí là người quen gọi điện cầu cứu. Khi công nghệ đủ tốt để đánh lừa cả mắt lẫn tai, việc “thấy tận mắt, nghe tận tai” không còn là bảo chứng cho sự thật.
Cuộc gọi giả từ công an được Ai tạo ra. Theo báo cáo của Hiệp hội An ninh mạng quốc gia (NCA), lừa đảo ứng dụng AI và deepfake đã vươn lên nhóm đầu các phương thức nguy hiểm nhất trong năm 2025. Con số từ Bộ Công an cho thấy mức độ đáng báo động của lừa đảo trực tuyến tại Việt Nam. Riêng năm 2025, hơn 4.200 vụ việc đã bị phát hiện, với tổng thiệt hại ước tính trên 8.000 tỷ đồng. Không còn là những chiêu trò đơn lẻ, các nhóm lừa đảo hiện nay vận hành chuyên nghiệp, thường xuyên thay đổi kịch bản và có dấu hiệu móc nối với các băng nhóm tội phạm quốc tế.
Điểm đáng ngại là các nhóm tội phạm không chỉ sử dụng công nghệ, mà còn xây dựng cả một hệ sinh thái: mua bán dữ liệu cá nhân, thuê dịch vụ tạo deepfake, thuê người đóng vai “điều phối viên” tâm lý để dẫn dắt nạn nhân. Mỗi khâu đều có thể được “đặt hàng” như một dịch vụ, biến lừa đảo trở thành hoạt động mang tính công nghiệp.
Dù vậy, chỉ khoảng 20% nạn nhân lừa đảo trình báo sự việc tới cơ quan chức năng, trong khi AI, IoT và deepfake đang bị lợi dụng để tạo ra các cuộc tấn công mạng quy mô lớn, xuyên biên giới và gây ảnh hưởng nghiêm trọng tới an ninh, trật tự và lòng tin xã hội.
Trong bối cảnh deepfake ngày càng tinh vi, việc tự bảo vệ bản thân không thể chỉ trông chờ vào khả năng “nhận biết bằng cảm giác”. Khi hình ảnh và giọng nói đều có thể bị làm giả gần như hoàn hảo, nguyên tắc đầu tiên là không để cảm xúc dẫn dắt quyết định. Các cuộc gọi cầu cứu khẩn cấp, những lời thúc giục chuyển tiền gấp hay những mệnh lệnh mang tính áp đặt từ “người quen” chính là điểm yếu tâm lý mà deepfake thường khai thác. Việc tạm dừng, giữ bình tĩnh và chủ động xác minh lại thông tin qua một kênh khác - gọi trực tiếp, nhắn tin hoặc gặp mặt - là bước phòng vệ đơn giản nhưng hiệu quả nhất.
Một biện pháp quan trọng khác là xây dựng “mật khẩu xác thực” trong các mối quan hệ thân thiết, đặc biệt trong gia đình và tổ chức. Những câu hỏi riêng, thói quen cá nhân hoặc tín hiệu nhận biết chỉ người trong cuộc mới biết có thể giúp nhanh chóng phân biệt đâu là người thật, đâu là sản phẩm giả mạo. Khi deepfake đánh lừa được mắt và tai, thì những chi tiết đời thường, không có trên mạng, lại trở thành rào chắn an toàn.
Bên cạnh đó, mỗi cá nhân cần chủ động kiểm soát dấu vết số của chính mình. Việc đăng tải tràn lan video, bản ghi giọng nói, hình ảnh cận mặt trên các nền tảng công khai vô tình cung cấp “nguyên liệu” để AI tạo deepfake. Hạn chế chia sẻ thông tin cá nhân nhạy cảm, thiết lập chế độ riêng tư cho tài khoản mạng xã hội và cảnh giác với các ứng dụng yêu cầu truy cập camera, micro là những bước cần thiết trong thời đại mà dữ liệu cá nhân có thể bị tái sử dụng cho mục đích lừa đảo.
Ở cấp độ tổ chức và cộng đồng, việc phổ biến kỹ năng nhận diện deepfake cần được coi là một phần của giáo dục an toàn số. Các cơ quan, doanh nghiệp, trường học và tổ chức xã hội cần xây dựng quy trình xác minh đa lớp đối với các chỉ đạo quan trọng, đặc biệt là những yêu cầu liên quan đến tài chính. Khi mọi quyết định đều phải đi qua ít nhất hai kênh kiểm chứng, deepfake sẽ khó có cơ hội gây thiệt hại lớn.
Cuối cùng, cần nhấn mạnh rằng trong kỷ nguyên AI, không ai “miễn nhiễm” với lừa đảo công nghệ cao. Phòng vệ hiệu quả không nằm ở việc tin rằng mình đủ thông minh để không bị lừa, mà ở việc chấp nhận rằng công nghệ có thể vượt qua giác quan con người, từ đó hình thành thói quen kiểm tra, xác thực và hoài nghi có trách nhiệm. Chính sự tỉnh táo ấy mới là lớp phòng thủ cuối cùng trước deepfake.
Phishing thời AI: Khi email lừa đảo biết bạn là ai Nếu deepfake đánh vào cảm xúc bằng hình ảnh và giọng nói, thì phishing thời AI lại nguy hiểm ở chỗ nó đánh trúng nhận thức. Những email, tin nhắn hay thông báo giả mạo ngày nay không còn mang dáng dấp cẩu thả, sai chính tả hay nội dung chung chung. Nhờ AI, kẻ lừa đảo có thể cá nhân hóa thông điệp đến mức đáng sợ: biết tên người nhận, chức vụ, mối quan hệ công việc, thậm chí cả thói quen tiêu dùng và lịch trình sinh hoạt. Một email “nhắc thanh toán”, một thông báo “xác minh tài khoản” hay một lời mời hợp tác tưởng như vô hại thực chất được xây dựng dựa trên dữ liệu thật, khiến nạn nhân gần như không có lý do để nghi ngờ.
Nguy hiểm hơn, AI giúp các chiến dịch phishing vận hành như một dây chuyền công nghiệp. Nội dung được tạo tự động theo từng nhóm đối tượng, giọng văn được điều chỉnh phù hợp với từng ngành nghề, từng độ tuổi, thậm chí từng cá tính. Một cán bộ công quyền sẽ nhận được email mang ngôn ngữ hành chính chỉn chu; một nông dân hay tiểu thương lại nhận tin nhắn gắn với hỗ trợ, trợ cấp, vay vốn; còn doanh nhân có thể bị nhắm tới bằng các “cơ hội đầu tư” được trình bày bài bản, có cả tài liệu giả mạo đi kèm. Khi thông tin cá nhân bị thu thập và xử lý bằng AI, phishing không còn là trò “đánh bừa”, mà là những cú đánh có chủ đích.
Trong bối cảnh đó, bảo vệ bản thân trước lừa đảo bằng AI không còn là câu chuyện của kỹ năng công nghệ cao, mà bắt đầu từ việc thay đổi thói quen nhận diện rủi ro. Nguyên tắc quan trọng nhất là không tuyệt đối tin vào bất kỳ thông tin nào chỉ dựa trên hình thức bên ngoài, dù email có vẻ “chính thống”, giọng văn có vẻ “quen thuộc” hay người liên hệ xưng danh rất thuyết phục. Mọi yêu cầu liên quan đến tiền bạc, mật khẩu, mã xác thực hay thông tin cá nhân đều cần được kiểm chứng lại qua một kênh độc lập khác, thay vì phản hồi trực tiếp theo hướng dẫn trong email hoặc tin nhắn nhận được.
Song song với đó, việc hạn chế tối đa việc chia sẻ dữ liệu cá nhân trên không gian mạng trở thành một lớp phòng vệ quan trọng. Những thông tin tưởng như vô hại như ngày sinh, số điện thoại, nơi làm việc, danh sách bạn bè hay hình ảnh giọng nói đăng tải công khai đều có thể trở thành “nguyên liệu” để AI dựng kịch bản lừa đảo. Càng để lộ nhiều dấu vết số, khả năng bị nhắm trúng càng cao.
Ở cấp độ kỹ thuật, người dùng cần hình thành thói quen sử dụng xác thực hai lớp, quản lý mật khẩu chặt chẽ và thường xuyên cập nhật các cảnh báo an ninh từ ngân hàng, nhà mạng và cơ quan chức năng. Tuy nhiên, lớp bảo vệ quan trọng nhất vẫn là sự tỉnh táo. Khi AI có thể viết thay con người, nói thay con người và thậm chí “đóng vai” con người, thì việc chậm lại vài phút để nghi ngờ, kiểm tra và hỏi lại chính là rào chắn hiệu quả nhất trước những cú lừa được thiết kế ngày càng tinh vi.
Pig Butchering phiên bản mới: Khi bot biết kiên nhẫn và biết quan tâm Nếu deepfake đánh vào niềm tin bằng công nghệ, thì “Pig Butchering” - mô hình lừa đảo được ví như “vỗ béo rồi làm thịt” - lại khai thác triệt để yếu tố cảm xúc và tâm lý con người. Đây không còn là những cú lừa chớp nhoáng, mà là một quá trình tiếp cận có chủ đích, kéo dài hàng tuần, thậm chí hàng tháng, nhằm xây dựng niềm tin tuyệt đối trước khi ra tay.
Lừa đảo bắt đầu từ những cuộc hẹn hò. Các đối tượng thường bắt đầu bằng những tương tác tưởng chừng vô hại trên mạng xã hội, ứng dụng hẹn hò hoặc nền tảng nhắn tin. Chúng tạo dựng hình ảnh một người thành đạt, hiểu biết, quan tâm và kiên nhẫn lắng nghe. Nạn nhân không bị thúc ép chuyển tiền ngay, mà được “nuôi dưỡng” bằng sự đồng cảm, lời khuyên đầu tư, những câu chuyện thành công được dựng sẵn và cảm giác đang bước vào một mối quan hệ đặc biệt, khác biệt.
Khi niềm tin đã đủ lớn, kịch bản lừa đảo mới dần lộ diện: đầu tư tiền số, ngoại hối, chứng khoán quốc tế hoặc các nền tảng tài chính “độc quyền”. Ban đầu, nạn nhân có thể rút được tiền thật, lợi nhuận hiện lên rõ ràng trên giao diện ứng dụng giả mạo. Chính những “kết quả tích cực” này khiến họ tiếp tục rót thêm tiền, cho đến khi toàn bộ tài sản bị chiếm đoạt và đối tượng biến mất.
Theo cảnh báo của các cơ quan an ninh mạng, Pig Butchering đặc biệt nguy hiểm bởi nó không dựa vào sự thiếu hiểu biết công nghệ, mà đánh thẳng vào nhu cầu được công nhận, được tin tưởng và được kết nối – những yếu tố tâm lý phổ biến trong xã hội hiện đại, nhất là với người trẻ, người sống xa gia đình hoặc đang chịu áp lực tài chính.
Để tự bảo vệ mình trước Pig Butchering, điều quan trọng nhất là phá vỡ “vòng nuôi dưỡng” của kẻ lừa đảo ngay từ giai đoạn đầu. Bất kỳ mối quan hệ trực tuyến nào tiến triển quá nhanh, quá hoàn hảo hoặc sớm dẫn dắt sang câu chuyện tiền bạc, đầu tư đều cần được nhìn nhận bằng thái độ hoài nghi. Trong thế giới số, không có “cơ hội sinh lời an toàn” nào lại đi kèm sự riêng tư tuyệt đối và lời hứa chia sẻ bí quyết chỉ dành cho một người.
Các chuyên gia an ninh mạng cũng khuyến cáo rằng, không nên để cảm xúc cá nhân trở thành “cửa ngõ” cho các quyết định tài chính. Việc tách bạch giữa mối quan hệ xã hội và hoạt động đầu tư, luôn tham chiếu thông tin từ nguồn chính thống, đồng thời trao đổi với người thân hoặc chuyên gia độc lập trước khi chuyển tiền, là lớp phòng vệ quan trọng nhất.
AI không xấu. Nhưng nó đang bị dùng để khai thác điểm yếu lớn nhất của con người: thói quen tin vào những gì quen thuộc và có vẻ hợp lý. Điện thoại có thể giả giọng người thân. Video có thể giả gương mặt người nổi tiếng. Bình luận có thể giả cảm xúc đám đông. Nhưng thứ không thể bị sao chép, vẫn là khả năng tạm dừng, nghi ngờ và kiểm chứng của mỗi người.
Trong kỷ nguyên mà công nghệ có thể giả mạo gần như mọi thứ, sự tỉnh táo không còn là kỹ năng, mà là điều kiện sinh tồn trên Internet.
Trang Trần
https://1thegioi.vn/khi-ai-quay-sang-lua-con-nguoi-cach-tu-bao-ve-truoc-lan-song-deepfake-phishing-va-tin-gia-245997.html