Nhận diện thủ đoạn lừa đảo qua công nghệ Deepfake - Một số giải pháp phòng, tránh

Những năm gần đây, cùng với sự phát triển của trí tuệ nhân tạo (AI), công nghệ Deepfake phát triển mạnh mẽ.

Jul 25, 2024 - 18:20
Nhận diện thủ đoạn lừa đảo qua công nghệ Deepfake - Một số giải pháp phòng, tránh
Tóm tắt: Những năm gần đây, cùng với sự phát triển của trí tuệ nhân tạo (AI), công nghệ Deepfake phát triển mạnh mẽ. Tuy nhiên, cùng với sự phát triển công nghệ này, xuất hiện các đối tượng tội phạm đã lợi dụng thực hiện hành vi vi phạm pháp luật, đặc biệt là trong hoạt động ngân hàng, do đó, cần có những giải pháp thiết thực để phòng, tránh hiệu quả những tác hại mà Deepfake có thể gây ra trong lĩnh vực ngân hàng nhằm hạn chế những rủi ro phát sinh. Bài viết này tập trung khái quát về công nghệ Deepfake, qua đó nhận diện về một số thủ đoạn lừa đảo qua công nghệ Deepfake trong hoạt động ngân hàng, đồng thời đưa ra một số giải pháp khắc phục, phòng, tránh. 
 
Từ khóa: Deepfake, thủ đoạn lừa đảo, hoạt động ngân hàng, rủi ro, phòng, tránh.
 
IDENTIFYING FRAUD TRICKS THROUGH DEEPFAKE TECHNOLOGY IN BANKING ACTIVITIES
AND SOME SOLUTIONS FOR PREVENTION

Abstract: In recent years, Deepfake technology has developed strongly due to the development of the artificial intelligence era. Along with that, criminals have taken advantage of this development to commit their illegal acts, especially in the field of banking activities. Therefore, it is necessary to have the essential solutions to effectively prevent the harm that Deepfake can cause in the banking sector so that the risks can be limited. The article focuses on deepfake technology, gives some identification of fraud tricks through deepfake technology that can arise in banking activities and offers some solutions to prevent.
 
Keywords: Deepfake, scams, banking, risk, prevention.
 
1. Đặt vấn đề 
 
Vài năm trở lại đây, hiện tượng lừa đảo chiếm đoạt tài sản thông qua mạng xã hội ngày càng phổ biến. Các đối tượng lừa đảo sử dụng nhiều thủ đoạn, chiêu trò như giả danh các cơ quan chức năng, nhân viên ngân hàng, lừa đảo trúng thưởng, hack tài khoản Facebook, Zalo hoặc các tài khoản mạng xã hội khác nhắn tin cho người thân, bạn bè của chủ tài khoản để lừa đảo chiếm đoạt tài sản. Tuy nhiên, gần đây xuất hiện một loại thủ đoạn tinh vi hơn được các đối tượng lừa đảo sử dụng đó là Deepfake. Đây là một loại công nghệ có thể mô phỏng khuôn mặt con người, cho phép người dùng có thể tạo ra những hình ảnh, đoạn video giả mạo gần giống với người thật. Nhiều người dùng mạng xã hội đã bị lừa tiền bởi đoạn video, cuộc gọi video hay đoạn hội thoại giả mạo người thân được tạo ra từ công nghệ này. 
 
Xuất hiện lần đầu tiên vào năm 2017, Deepfake chỉ đơn thuần là công cụ ghép mặt người này vào người khác, tuy nhiên, đến nay, Deepfake đã bị lợi dụng trở thành công cụ cho các phi vụ lừa đảo. Việc Deepfake ngày càng phát triển cùng với việc thao tác video được tự động hóa sẽ tạo ra nhiều mối đe dọa đối với xã hội vì việc thao túng hình ảnh ngày càng trở nên dễ dàng hơn. Đây sẽ là cơ hội cho các đối tượng lừa đảo thực hiện các hành vi của mình một cách tinh vi hơn, đặc biệt là lừa đảo trong hoạt động ngân hàng để chiếm đoạt tài sản. Việc nhận diện các thủ đoạn lừa đảo qua công nghệ Deepfake trong hoạt động ngân hàng để đưa ra giải pháp phòng, tránh tốt nhất, hạn chế những rủi ro là điều rất quan trọng và cấp thiết trong bối cảnh hiện nay.
 
2. Khái quát về công nghệ Deepfake 
 
Theo tác giả Harshal Vyas, Deepfake là một từ ghép từ hai từ “Deep Learning” (học sâu) và “Fake” (giả mạo), đây là một kĩ thuật sử dụng AI, kết hợp giữa phương pháp học máy và thuật toán học sâu để tổng hợp hình ảnh con người. Thuật toán Deepfake đã sử dụng các mô hình học sâu như bộ mã hóa tự động (Autoencoders) và mạng GAN (Generative Adversarial Networks) để kiểm tra, phân tích, học tập, sao chép đường nét cùng với các biểu cảm trên khuôn mặt con người, sau đó tổng hợp thành hình ảnh một khuôn mặt khác. Trong đó, bộ mã hóa tự động đóng vai trò thu nhận, xử lý, biểu diễn dữ liệu đầu vào cho Deepfake một cách chính xác nhất; GAN đóng vai trò phân tích, sử dụng những dữ liệu đã thu thập để có thể đưa ra sản phẩm dữ liệu giả mạo có khả năng đánh lừa con người. Bằng cách sử dụng GAN, Deepfake có thể không ngừng tạo ra nhiều sản phẩm dữ liệu chất lượng cao mà mắt người bình thường không thể phát hiện được là thật hay giả.
 
Video Deepfake đầu tiên xuất hiện vào năm 2017. Sự xuất hiện của video tự tạo sử dụng công nghệ Deep Learning do một người dùng Reddit có tên “Deepfake” chia sẻ đã gây được sự chú ý đối với cộng đồng công nghệ thông tin. Ban đầu, Deepfake được ứng dụng vào mục đích giải trí khi được sử dụng để tạo ra những hình ảnh, video đổi mặt hay thay đổi giọng nói. Tuy nhiên, với sự phát triển của AI thì công nghệ này ngày càng được sử dụng phổ biến và dần trở thành một mối nguy hại cho an ninh mạng khi công nghệ này được sử dụng để làm giả mạo thông tin, gây ra những rắc rối cho con người.
 
Về bản chất, Deepfake là sự kết hợp giữa AI và kho dữ liệu hình ảnh, video. Đây là quá trình “học sâu” của AI đối với dữ liệu. Bộ mã hóa tự động mà Deepfake sử dụng sẽ cho phép nén và biểu diễn dữ liệu đầu vào một cách hiệu quả với cấu trúc hai phần gồm bộ mã hóa và bộ giải mã. GAN cũng được cấu tạo từ hai mạng, gồm một mạng thực hiện phân biệt dữ liệu (Discriminator) và một mạng thực hiện tạo ra dữ liệu (Generator). Hai mạng này sử dụng phương pháp đối nghịch nhau để tạo ra những dữ liệu nhân tạo giống với thực tế nhất có thể. Trong khi mạng Generator đang cố gắng tạo ra các dữ liệu giống như thật nhằm đánh lừa, thì mạng Discriminator sẽ cố gắng phân biệt chính xác đâu là dữ liệu được sinh ra từ Generator và đâu là dữ liệu thật. Tính cạnh tranh cao thúc đẩy hai mạng này phát triển cho đến khi mạng Generator thông thạo việc tạo ra những sản phẩm dữ liệu giống thật, có thể đánh lừa mạng Discriminator, từ đó các sản phẩm Deepfake ra đời. 
 
Deepfake đòi hỏi khối lượng dữ liệu khổng lồ về hình ảnh hoặc video, các dữ liệu có thể lấy từ nhiều nguồn khác nhau. AI sẽ thực hiện trích xuất khung hình, xác định khuôn mặt và căn chỉnh. Đây là bước quan trọng để Deepfake lấy dữ liệu một cách chính xác. Tiếp theo, dữ liệu sau khi thu thập sẽ được sử dụng để huấn luyện AI thực hiện học sâu. Sau đó, AI sẽ học cách tái tạo các đặc điểm cụ thể của khuôn mặt hoặc hình dạng của đối tượng trong video hoặc hình ảnh. Cuối cùng, sau khi đã được huấn luyện, AI sẽ thực hiện việc tạo ra Deepfake. Bắt đầu từ video, hình ảnh gốc, Deepfake sẽ phân tích các đặc điểm của đối tượng từ khuôn mặt, biểu cảm, giọng điệu... kể cả bối cảnh một cách chân thực dựa trên những gì đã học được. Từ đó, Deepfake thực hiện thay đổi khuôn mặt của người này thành khuôn mặt của người khác, tạo ra các sản phẩm Deepfake và điều chỉnh, xử lý hình ảnh, video trông giống với thật hơn. Deepfake sử dụng AI, học sâu để học và tái tạo các đặc điểm của con người hoặc đối tượng trong dữ liệu gốc, điều này khiến cho Deepfake có thể thu nhận thông tin chính xác nhất có thể. Tuy nhiên, chính vì các sản phẩm của Deepfake được tạo ra dưới sự huấn luyện của một mô hình học sâu nên có thể vẫn có những chi tiết không tự nhiên, đơ cứng trong hình ảnh, video tạo ra.
 
3. Nhận diện một số thủ đoạn lừa đảo qua công nghệ Deepfake có thể phát sinh trong hoạt động ngân hàng 
 
Bản chất của công nghệ Deepfake không phải xấu khi nó được tạo ra với mục đích ban đầu chủ yếu là để giải trí. Thậm chí cho đến nay, Deepfake vẫn được ứng dụng rất nhiều vào trong các lĩnh vực như nghệ thuật, giải trí, y tế... Nhưng chính do những mục đích xấu của một số đối tượng mà Deepfake bị lợi dụng, sử dụng như một công cụ độc hại. Trong lĩnh vực ngân hàng, công cụ này bị sử dụng để thực hiện các hoạt động lừa đảo bằng cách tạo ra video hoặc âm thanh giả mạo một cách chân thực để lừa gạt lòng tin của nạn nhân. Dưới đây là một số thủ đoạn lừa đảo có thể xảy ra trong hoạt động ngân hàng bằng Deepfake. 
 
Một là, sử dụng Deepfake để giả mạo giọng nói của nhân viên ngân hàng. Các đối tượng lừa đảo sử dụng công nghệ tạo ra cuộc gọi giả mạo giọng nói của nhân viên ngân hàng. Qua sử dụng giọng nói giả mạo này, các đối tượng có thể dễ dàng lấy được thông tin cá nhân, mật khẩu hay mã OTP (One Time Password - mật khẩu dùng 1 lần). Vì các thông tin giả được tạo lập bởi AI có thể hoàn toàn bắt chước các giao thức bảo mật của các cơ quan quản lý hay có giọng nói, hành vi trùng khớp với đối tượng bị mạo danh. Có một số trường hợp, các đối tượng mạo danh là nhân viên ngân hàng, gọi điện thoại và thông báo đến nạn nhân là có người chuyển tiền vào tài khoản nhưng do phía bên ngân hàng bị lỗi nên chưa chuyển được, yêu cầu nạn nhân cung cấp thông tin OTP để giải quyết kịp thời nếu không sẽ bị mất số tiền đó. Sau đó, các đối tượng lừa đảo sẽ sử dụng thông tin đó truy cập vào tài khoản và chiếm đoạt tiền; đối với nạn nhân sử dụng thẻ tín dụng, các đối tượng sau khi đã lấy được thông tin OTP sẽ sử dụng thủ đoạn như thông qua mua sắm để lấy tiền trong thẻ, khi đó nạn nhân sẽ phải trả số tiền nợ với ngân hàng dù bản thân không sử dụng. Hoặc có trường hợp, đối tượng lừa đảo giả làm nhân viên ngân hàng gọi điện thoại và mời chào các dịch vụ ngân hàng với những ưu đãi nhất định, nếu đồng ý thì phải đóng một số tiền để làm hồ sơ, sau khi khách hàng đồng ý các đối tượng sẽ chiếm đoạt số tiền đó.
 
Hai là, sử dụng Deepfake để giả mạo người thân, bạn bè của nạn nhân. Đầu tiên, các đối tượng sẽ tìm cách xâm nhập và chiếm đoạt tài khoản mạng xã hội như Zalo, Facebook của người dùng hoặc lập ra tài khoản giả mạo với thông tin giống như của chính chủ. Sau đó, các đối tượng sẽ sử dụng thân phận người thân, bạn bè để hỏi mượn tiền. Khi nạn nhân yêu cầu gọi video để xác minh thì các đối tượng sẽ sử dụng Deepfake để tạo ra những video có người giống như chính chủ để tạo lòng tin. Những cuộc gọi video do Deepfake tạo ra thường có đặc điểm chung là thời gian gọi rất ngắn, chỉ có vài giây. Tuy trong video là hình ảnh người quen của nạn nhân nhưng người trong video có một số điểm không tự nhiên, cuộc gọi video nằm trong tình trạng mờ, âm thanh không rõ ràng và bị tắt đột ngột. Khi nạn nhân hỏi thì các đối tượng nhắn tin lấy lý do bị nhiễu sóng, sóng yếu, 4G chậm nên phải chuyển sang nhắn tin. Sau đó, các đối tượng sẽ yêu cầu nạn nhân chuyển tiền vào tài khoản khác, không phải của chính chủ, hoặc tài khoản giả mạo với các thông tin giống hệt với tài khoản của chính chủ. Với tâm lý “thấy mặt như thấy người” sau các cuộc gọi Deepfake, nhiều người sẵn sàng thực hiện chuyển khoản và mất một số tiền lớn cho kẻ mạo danh1.
 
Ba là, dùng Deepfake giả mạo người có quyền hạn, chức vụ trong các tổ chức, doanh nghiệp. Những người giữ các chức vụ quản lý cao cấp của các doanh nghiệp, tổ chức, đặc biệt là tổ chức tài chính đều có thể trở thành mục tiêu của các cuộc tấn công Deepfake. Các đối tượng sử dụng Deepfake tạo ra video giả mạo của cấp trên để yêu cầu nhân viên thực hiện các giao dịch tài chính nhạy cảm hoặc chia sẻ thông tin quan trọng. Tuy nhiên, so với thủ đoạn giả mạo người thân, bạn bè để gọi video lừa đảo nạn nhân thì thủ đoạn này có phần tinh vi hơn. Vì mục tiêu mà kẻ lừa đảo nhắm đến là những người có hiểu biết rộng hơn nên các video Deepfake giả cũng được đầu tư tạo dựng chỉn chu hơn, chất lượng hơn. 
 
Theo Cable News Network (CNN) đưa tin, một công ty ở Hồng Kông đã bị lừa thông qua cuộc gọi video có nhiều người được tạo dựng bằng công nghệ Deepfake. Cuộc gọi video mô phỏng giám đốc tài chính của công ty cùng với tất cả các nhân viên tham gia khác (trừ nạn nhân). Cảnh sát Hồng Kông cho biết, nhân viên này đã nghi ngờ đó là lừa đảo sau khi nhận được một tin nhắn được cho là từ giám đốc tài chính của công ty có trụ sở tại Vương quốc Anh, yêu cầu nhân viên này thực hiện một giao dịch bí mật. Tuy nhiên, nhân viên này sau khi tham gia cuộc gọi video với sự hiện diện đầy đủ của giám đốc tài chính và các nhân viên khác thì đã gạt bỏ những nghi ngờ ban đầu. Nhân viên này cho biết, “trong hội nghị video nhiều người, hóa ra tất cả những người anh ấy nhìn thấy đều là giả"2
 
Bốn là, dùng Deepfake lừa đảo lấy thông tin của nạn nhân để mở tài khoản ngân hàng và thực hiện hoạt động tại các tổ chức tín dụng khác. Tương tự như thủ đoạn ở trên, các đối tượng sử dụng Deepfake để làm các video giả mạo cán bộ cơ quan Nhà nước hoặc người quen của nạn nhân. Sau đó, các đối tượng chủ động thực hiện gọi video cho nạn nhân. Bằng những mánh khóe khác nhau, kẻ lừa đảo sẽ đưa ra những yêu cầu khác nhau để nạn nhân nhìn thẳng, nhìn sang trái, nhìn sang phải, nhìn lên, nhìn xuống, giống như quá trình xác nhận khuôn mặt khi chúng ta đi làm thẻ và tài khoản ngân hàng. Các đối tượng sẽ lưu lại video nạn nhân thực hiện những hành động đó và sử dụng cho mục đích mở tài khoản online tại các tổ chức tài chính - ngân hàng. Có một số trường hợp, các đối tượng còn có thể lấy được thông tin cá nhân như số chứng minh nhân dân/căn cước công dân, số điện thoại, địa chỉ... từ phía nạn nhân. Khi đó, nạn nhân đã vô tình tạo điều kiện giúp các đối tượng lừa đảo có dữ liệu người dùng và đăng ký mở tài khoản thành công. Cuối cùng, những tài khoản đó sẽ được sử dụng với mục đích xấu, khi hậu quả xảy ra thì người chịu ảnh hưởng chính là nạn nhân. 
 
Năm là, sử dụng Deepfake để tiếp quản tài khoản và các phúc lợi khác của người mất. Bằng cách sử dụng công nghệ này, các đối tượng có thể mạo danh chính chủ để chiếm quyền kiểm soát tài khoản cá nhân, sau đó các đối tượng sẽ thay đổi cài đặt về quyền truy cập, thậm chí các đối tượng có thể loại trừ hoàn toàn người dùng thực. Một hình thức nguy hiểm của việc này là “lừa đảo ma”3. Cách thức thực hiện những vụ “lừa đảo ma” có phần giống với các thủ đoạn lừa đảo được đề cập ở trên, các đối tượng lừa đảo cũng sử dụng Deepfake để giả mạo người mất; thu thập dữ liệu cá nhân của người mất và lợi dụng dữ liệu đó để truy cập vào tài khoản ngân hàng của họ; thực hiện các khoản vay hay thậm chí yêu cầu lương hưu và các lợi ích khác một cách bất hợp pháp. 
 
4. Một số giải pháp phòng, tránh
 
Để ngăn chặn các cuộc tấn công lừa đảo qua Deepfake cần phải có sự chung tay từ Nhà nước, các tổ chức, ngân hàng đến người dân. Để có thể nhận diện và hạn chế những rủi ro phát sinh từ thủ đoạn lừa đảo do các đối tượng sử dụng công nghệ Deepfake tạo ra trong hoạt động ngân hàng, cần lưu ý một số nội dung sau: 
 
Một là, tiếp tục nâng cao nhận thức của người dân về những thủ đoạn và rủi ro có thể phát sinh từ công nghệ Deepfake. Nhận thức chính là một công cụ phòng, tránh mạnh mẽ. Khi nhận thức về vấn đề lừa đảo thông qua sử dụng AI được xây dựng tốt thì người dân sẽ nâng cao ý thức cảnh giác và kẻ lừa đảo sẽ rất khó có thể dụ dỗ. Các thông tin về những thủ thuật lừa đảo phải được cập nhật thường xuyên và chính xác nhất để người sử dụng phát hiện ra những cái bẫy đáng ngờ. Cần làm rõ một số dấu hiệu từ các cuộc gọi Deepfake cho người sử dụng các dịch vụ ngân hàng để khách hàng có thể chủ động và dễ dàng hơn trong việc phòng, tránh lừa đảo.
 
Trước các nguy cơ lừa đảo được thực hiện bởi Deepfake, khi nhận được cuộc gọi yêu cầu chuyển tiền gấp với những lý do “cầu cứu” người nhận phải bình tĩnh và thực hiện xác minh thông tin với người gọi xem có đúng sự thật không. Hãy liên hệ trực tiếp với người đó thông qua một cách khác xem có đúng là họ cần tiền và yêu cầu mượn tiền không. Trước khi chuyển tiền phải kiểm tra kĩ số tài khoản được yêu cầu chuyển tiền vào, nếu thông tin trên số tài khoản không khớp với thông tin người thực hiện cuộc gọi thì không chuyển tiền. Nếu có người gọi và tự xưng là đại diện hoặc nhân viên ngân hàng thì nên gọi lại cho ngân hàng để xác thực cuộc gọi. Hơn hết, vấn đề bảo mật đối với các tài khoản mạng xã hội, email hay tài khoản ngân hàng cần được nâng cao, tuyệt đối không cung cấp thông tin cá nhân, mật khẩu hay OTP giao dịch cho bên thứ ba. Về phía các ngân hàng, cần tích cực cùng Ngân hàng Nhà nước Việt Nam (NHNN) và Bộ Công an thực hiện việc kết nối cơ sở dữ liệu quốc gia về dân cư để xác thực thông tin tín dụng khách hàng4.
 
Hai là, sử dụng xác minh sinh trắc học. Sinh trắc học thường sử dụng các đặc điểm độc nhất trên cơ thể để xác minh như: Dấu vân tay, mống mắt... Trong thời đại khoa học công nghệ phát triển, hầu hết mọi thứ đều có thể giả mạo nhưng sinh trắc học là đặc điểm riêng của mỗi người nên khó có thể làm giả. Hơn nữa, dữ liệu sinh trắc học được các cơ quan quốc gia nắm giữ chứ không phải loại dữ liệu có thể tràn lan trên mạng. Sinh trắc học cung cấp cho các tổ chức tài chính một phương thức xác minh có độ an toàn và tính ứng dụng cao. Các tổ chức tài chính nên kết hợp với các cơ quan, tổ chức xác minh danh tính để triển khai hoạt động tín dụng một cách an toàn. Xác minh sinh trắc học khớp các danh tính của người dùng với các tài liệu đáng tin cậy sẽ làm giảm tình trạng có những tài khoản ngân hàng “rác”, các tài khoản ngân hàng không chính chủ được sử dụng với mục đích vi phạm pháp luật. Việc xác minh danh tính đa phương thức trong đó có xác minh sinh trắc học khi lập tài khoản mới là vô cùng cần thiết để gia tăng bảo mật cho tài khoản. Xác minh danh tính đa phương tiện là việc yêu cầu người dùng cung cấp hai hoặc nhiều yếu tố xác minh để có quyền truy cập vào tài khoản, đây có thể là mã OTP, số điện thoại hoặc sinh trắc học. Tăng cường các yếu tố xác minh danh tính cũng là tăng cường bảo mật cho cả người dùng và ngân hàng khi Deepfake hiện nay chưa thể giả mạo dấu vân tay. Hiện nay ở Việt Nam, việc đưa căn cước công dân gắn chíp vào trong hoạt động ngân hàng với các thông tin sinh trắc học sẽ giúp ngân hàng nhận diện, xác minh khách hàng một cách dễ dàng và chính xác hơn.
 
Ba là, tiếp tục nâng cao trình độ khoa học, công nghệ, đưa ra những giải pháp công nghệ có thể phát hiện ra video, hình ảnh do Deepfake tạo ra, sử dụng chính các công cụ AI mà Deepfake sử dụng để phát hiện và ngăn chặn các sản phẩm giả mạo của chính nó. Theo nghiên cứu Bộ dữ liệu Thử thách phát hiện Deepfake (DFDC) của nhóm tác giả Brian Dolhansky, Joanna Bitton, Ben Pflaum, Jikuo Lu, Russ Howes, Menglin Wang, Cristian Canton Ferrer, nhóm tác giả đã xây dựng một bộ dữ liệu cực lớn các video hoán đổi khuôn mặt để huấn luyện các mô hình phát hiện Deepfake. Bộ dữ liệu DFDC cho đến nay là bộ dữ liệu video hoán đổi khuôn mặt lớn nhất hiện có và được cung cấp công khai với hơn 100.000 clip có nguồn gốc từ 3.426 diễn viên trả phí, được sản xuất bằng một số phương pháp Deepfake, dựa trên GAN5. Để khắc phục kĩ thuật hoán đổi khuôn mặt, Cơ quan Dự án Nghiên cứu Tiên tiến Quốc phòng Hoa Kỳ (Defense Advanced Research Projects Agency - DARPA) đã khởi xướng một kế hoạch nghiên cứu về phát hiện Deepfake6. Khi các giải pháp công nghệ về nhận diện, phát hiện được các sản phẩm giả mạo do Deepfake tạo ra được hình thành và sử dụng sẽ góp phần quan trọng, cần thiết vào việc nâng cao hiệu quả, giảm thiểu những rủi ro do Deepfake tạo ra trong hoạt động ngân hàng.
 
Bốn là, tiếp tục xây dựng và hoàn thiện khung hành lang pháp lý đối với công nghệ AI, trong đó có Deepfake. Hiện nay, nhiều nước trên thế giới đã ban hành những đạo luật để phòng, chống Deepfake như Hoa Kỳ, Trung Quốc... Năm 2019, Hoa Kỳ đã thông qua Đạo luật Báo cáo Deepfake, yêu cầu Bộ An ninh Nội địa báo cáo việc sử dụng Deepfake và các công nghệ tương tự khác hằng năm. Cùng năm đó, Trung Quốc hình sự hóa việc sản xuất và phân phối Deepfake “gây nguy hiểm cho an ninh quốc gia, phá vỡ ổn định xã hội hoặc xâm phạm quyền và lợi ích hợp pháp của người khác”. Năm 2020, Hàn Quốc cũng hình sự hóa việc sử dụng Deepfake phát tán các nội dung gây hại cho người khác. Năm 2021, Australia đã sửa đổi luật, trong đó bao gồm vấn đề hình sự hóa việc sử dụng Deepfake để lừa dối hoặc gây hiểu nhầm7... Việt Nam có thể học hỏi kinh nghiệm từ các quốc gia này để hoàn thiện hệ thống pháp luật trong nước nhằm hạn chế rủi ro mà công nghệ Deepfake có thể gây ra. Khi hệ thống pháp luật điều chỉnh về vấn đề này được hoàn thiện sẽ tạo được khung pháp lý vững chắc để có thể nhận diện, ngăn chặn và xử lý kịp thời đối với những rủi ro mà các đối tượng xấu có thể lợi dụng công nghệ Deepfake để tạo ra.
 
5. Kết luận

Đóng vai trò là một công cụ hỗ trợ cho con người, Deepfake đương nhiên sẽ có cả mặt tích cực và mặt tiêu cực. Deepfake hiện tại tuy là nguồn gốc gây ra nhiều hậu quả nghiêm trọng cho xã hội như làm tăng thông tin sai lệch, gia tăng tỉ lệ tội phạm lừa đảo trên không gian mạng... nhưng cũng không thể phủ nhận những đóng góp tích cực của Deepfake vào cuộc sống. Ở Việt Nam, Deepfake bị lợi dụng để làm công cụ lừa đảo chiếm đoạt tài sản và các đối tượng lừa đảo ngày càng có xu hướng thực hiện lừa đảo bằng công nghệ này một cách tinh vi hơn. Tuy nhiên, cần nhìn nhận đúng bản chất là Deepfake không hoàn toàn xấu và cần có những biện pháp phòng ngừa nhất định để không bị dính chiếc bẫy mang tên Deepfake. Mọi người cần cẩn thận hơn với những gì nhìn thấy và cần có khả năng hiểu được nội dung đó là giả hay thật để tránh rủi ro đáng tiếc có thể xảy ra bởi những thủ đoạn lừa đảo tinh vi bằng công nghệ Deepfake. Nhà nước cần tiếp tục ban hành những đạo luật để đưa Deepfake hay những công nghệ AI tương tự khác vào khuôn khổ pháp luật. Các tổ chức tín dụng cần tiếp tục nâng cấp các hệ thống bảo mật để đảm bảo an toàn cho người sử dụng. Người dân cần nâng cao nhận thức về vấn đề lừa đảo tín dụng trên không gian mạng. Các biện pháp bảo mật, nhận diện dấu hiệu của Deepfake và sử dụng công nghệ phát hiện Deepfake cần được thực hiện nghiêm túc để mang lại hiệu quả.
 
1,4 Diệu Linh (2023), Lừa đảo Deepfake: “Tôn hành giả, giả hành tôn” giữa thời công nghệ, truy cập ngày 28/6/2024, https://www.agribank.com.vn/vn/ve-agribank/tin-tuc-su-kien/tai-chinh-ngan-hang/lua-dao-deepfake-ton-hanh-gia-gia-hanh-ton-giua-thoi-cong-nghe
2 Heather Chen, Kathleen Magramo (2024), Finance worker pays out $25 million after video call with deepfake ‘chief financial officer’, truy cập ngày 28/6/2024, https://edition.cnn.com/2024/02/04/asia/deepfake-cfo-scam-hong-kong-intl-hnk/index.html
3 Datavisor (2024), How Deepfakes Are Made and How Fraudsters Use Them, truy cập ngày 28/6/2024, https://www.datavisor.com/wiki/deepfakes/
5 Brian Dolhansky, Joanna Bitton, Ben Pflaum, Jikuo Lu, Russ Howes, Menglin Wang, Cristian Canton Ferrer (2020), The DeepFake Detection Challenge (DFDC) Dataset, truy cập ngày 28/6/2024, https://arxiv.org/abs/2006.07397
6 Mika Westerlund (2019), The Emergence of Deepfake Technology: A Review, truy cập ngày 28/6/2024, https://timreview.ca/article/1282
7 Bá Tân (2023), Nhiều quốc gia đã ra luật phòng chống Deepfake, truy cập ngày 28/6/2024, https://www.sggp.org.vn/nhieu-quoc-gia-da-ra-luat-phong-chong-deepfake-post683911.html

Tài liệu tham khảo:

1. Bá Tân (2023), Nhiều quốc gia đã ra luật phòng chống Deepfake, truy cập ngày 28/6/2024, https://www.sggp.org.vn/nhieu-quoc-gia-da-ra-luat-phong-chong-deepfake-post683911.html
2. Brian Dolhansky, Joanna Bitton, Ben Pflaum, Jikuo Lu, Russ Howes, Menglin Wang, Cristian Canton Ferrer (2020), The DeepFake Detection Challenge (DFDC) Dataset, truy cập ngày 28/6/2024, https://arxiv.org/abs/2006.07397
3. Datavisor (2024), How Deepfakes Are Made and How Fraudsters Use Them, truy cập ngày 28/6/2024, https://www.datavisor.com/wiki/deepfakes/
4. Diệu Linh (2023), Lừa đảo Deepfake: “Tôn hành giả, giả hành tôn” giữa thời công nghệ, truy cập ngày 28/6/2024, https://www.agribank.com.vn/vn/ve-agribank/tin-tuc-su-kien/tai-chinh-ngan-hang/lua-dao-deepfake-ton-hanh-gia-gia-hanh-ton-giua-thoi-cong-nghe
5. Heather Chen, Kathleen Magramo (2024), Finance worker pays out $25 million after video call with deepfake ‘chief financial officer’, truy cập ngày 28/6/2024, https://edition.cnn.com/2024/02/04/asia/deepfake-cfo-scam-hong-kong-intl-hnk/index.html
6. Mika Westerlund (2019), The Emergence of Deepfake Technology: A Review, truy cập ngày 28/6/2024, https://timreview.ca/article/1282
 
ThS. Trần Linh Huân, Đặng Trần Hạ Vy
Trường Đại học Luật Thành phố Hồ Chí Minh