ISSN-2815-5823
Việt Anh
Thứ hai, 10h52 08/07/2024

Công nghệ sinh trắc học sẽ phải đối đầu với công nghệ giả mạo hình ảnh

(KDPT) - Công nghệ giả mạo hình ảnh (deepfake) đang được lo ngại sẽ trở thành đối thủ nguy hiểm, bài toán cần giải đối với sinh trắc học.

Sinh trắc học liệu có thật sự bảo mật ?

Cài đặt thành công sinh trắc học có phải không còn lo lừa đảo khi chuyển tiền trên ứng dụng ngân hàng điện tử?. Đây là câu hỏi chung của nhiều người dân trong những ngày qua khi thực hiện sinh trắc học tại nhiều ngân hàng.

Người dân còn trăn trở bởi cũng vì chỉ trong thời gian gần đây, đã có người thử lấy ảnh chân dung và cho ứng dụng ngân hàng, ví điện tử quét thay vì quét trực tiếp khuôn mặt mình. Một vài ngân hàng có ứng dụng điện tử không nhận dạng được đâu là ảnh, đâu là mặt thật của chủ tài khoản. Và thế là ứng dụng đó bị "đánh lừa". Thậm chí theo một số người, việc quét ảnh thậm chí nhanh hơn khi xác thực bằng khuôn mặt thật.

Theo lãnh đạo Ngân hàng Nhà nước cũng như một số chuyên gia về an ninh mạng, tình trạng sinh trắc học trên ứng dụng một số ngân hàng bị lừa bằng một tấm ảnh chụp sẵn nói trên không phải lỗi. 

Liệu sẽ có một màn đụng độ giữa việc xác thực khuôn mặt trong thời gian tới ?. (Ảnh minh họa).
Liệu sẽ có một màn đụng độ giữa việc xác thực khuôn mặt trong thời gian tới ?. (Ảnh minh họa).

Đó là do tính năng "liveness detection" (xác định thực thể sống), một công nghệ nhằm phát hiện khuôn mặt giả mạo đã bị tắt. Do số lượng người dân cài đặt thông tin sinh trắc học trong ngày đầu quá lớn, thậm chí tăng đột biến nên một số ngân hàng đã tạm thời tắt tính năng này để bảo đảm tính ổn định, thông suốt của hệ thống. Tính năng này đã được khởi động lại, lỗ hổng xác thực bằng ảnh tĩnh đã được khắc phục. Như vậy, người dân có thể yên tâm rằng lỗi xác thực khiến không ít người dân bàn tán, xôn xao ít ngày qua đã được lý giải.

Sự nguy hiểm của công nghệ giả mạo hình ảnh 

Trong thời đại kỹ thuật số phát triển nhanh chóng, công nghệ trí tuệ nhân tạo (AI) ngày càng trở nên phổ biến. Trong đó Deepfake - một kỹ thuật tổng hợp hình ảnh, âm thanh hoặc video để tạo ra những nội dung giả mạo, nhằm gây hiểu nhầm cho người xem.

Cnghệ Deepfake xuất hiện vào năm 2017 và nhanh chóng trở thành một chủ đề nóng trong cộng đồng công nghệ thông tin. Từ đó đến nay, Deepfake đã trở thành một trong những mối đe dọa lớn nhất cho an ninh mạng và đời sống cá nhân của con người.  Ban đầu, Deepfake được sử dụng để tạo ra các video giải trí như đổi mặt các diễn viên nổi tiếng vào vai diễn khác nhau, hoặc thay đổi giọng nói của những người nổi tiếng để tạo ra những video mang tính giải trí. Đến nay, công nghệ ứng dụng trí tuệ nhân tạo AI này đang ngày một phát triển, tạo ra những khuôn mặt giống thật đến mức kinh ngạc. 

Sự lợi dụng bất chính của deepfake có thể gây ra những hậu quả nghiêm trọng cho đời sống xã hội. Ví dụ, một video deepfake có thể được sử dụng để vu khống hoặc gây hiểu nhầm về những sự kiện quan trọng, từ đó gây ra những hậu quả nghiêm trọng đến an ninh, trật tự và chính trị.

Do đó, lo ngại về việc kẻ xấu lợi dụng công nghệ deepfake trong việc lừa đảo đánh cắp tiền trong tài khoản ngân hàng của người dân, hay thậm chí là ghép mặt để đánh lừa, qua mặt công nghệ sinh trắc học là hoàn toàn có cơ sở.

Không dừng lại ở đó, Deepfake còn có thể được sử dụng để tấn công cá nhân, đặc biệt là trong lĩnh vực tài chính và doanh nghiệp. Ví dụ, kẻ xấu có thể lừa đảo bằng Deepfake để trục lợi những người điều hành tài khoản ngân hàng hoặc tạo ra các video giả mạo để lừa đảo các nhà đầu tư.

Những ngày qua, mọi người đã được nghe nhiều về những gì sinh trắc học có thể mang lại. Tuy nhiên, không có gì là tuyệt đối, sinh trắc học là công nghệ có thể nói là hiện đại nhất hiện nay trong việc bảo mật. Nhưng, Deepfake cũng "không phải dạng vừa", đây là công nghệ suốt quãng thời gian qua đang làm "điêu đứng" toàn cầu, ranh giới thật - giả là cực kỳ mong manh với Deepfake. Do vậy, người dân cần hết sức cẩn trọng, cảnh giác, các chuyên gia công nghệ cần lên kế hoạch, giải pháp để có thể linh hoạt ứng phó khi cần thiết./.

 



Kinhdoanhvaphattrien.vn | 05/11/2023

eMagazine
 
kinhdoanhvaphattrien.vn | 18/10/2024