Trí tuệ nhân tạo (AI) làm tăng nguy cơ rủi ro an ninh mạng
Trí tuệ nhân tạo (AI) vô tình tiếp tay cho tội phạm
Theo Bộ TT&TT, AI đề cập đến khoa học mô phỏng trí thông minh của nhân loại trong máy móc với mục tiêu cho phép suy nghĩ và bắt chước các hành động của con người. AI đang thực hiện các nhiệm vụ mà trước đây chỉ con người mới có thể xử lý được, thậm chí vượt qua con người trong một số lĩnh vực.
Theo Phó Cục trưởng phụ trách Cục An toàn Thông tin Trần Đăng Khoa, AI là một công nghệ lưỡng dụng được sử dụng cho cả mục đích tấn công và phòng thủ. Bên cạnh rủi ro lớn khi AI hỗ trợ các chiến dịch lừa đảo trực tuyến, ông Trần Đăng Khoa cũng chỉ ra một số rủi ro khác mà công nghệ AI đưa đến cho lĩnh vực an toàn thông tin mạng, đó là hacker sử dụng AI để tối ưu hóa các cuộc tấn công mạng, phát triển các phần mềm độc hại và đặc biệt là mã độc mã hóa dữ liệu tống tiền ransomware...
"Mối đe dọa lớn nhất là các hacker sử dụng AI để tạo ra các cuộc tấn công tinh vi hơn, tạo ra các phần mềm độc hại, dò quét và phát hiện những lỗ hổng để từ đó vượt qua các phương pháp bảo vệ và tấn công vào hệ thống thông tin," ông Khoa cho biết.
Trí tuệ nhân tạo (AI) mang lại nhiều rủi ro, thách thức
Đồng quan điểm, ông Nguyễn Anh Tuấn, Phó Giám đốc Trung tâm dữ liệu quốc gia về dân cư, Cục Cảnh sát quản lý hành chính về trật tự xã hội (Bộ Công an), cũng cho rằng AI đang mang lại nhiều rủi ro và thách thức về cả xã hội, pháp lý và an ninh mạng. Các thách thức an ninh mạng từ AI có thể kể đến như tấn công thông qua tệp tin độc hại được hỗ trợ bởi AI, hacker dùng các công nghệ đặc biệt của AI để mô phỏng hệ thống nhằm tìm điểm yếu, hay việc đối tượng lừa đảo sử dụng AI khiến nhiều người dân khó nhận biết...
Theo ông Tuấn, hacker có thể lợi dụng AI để tạo ra nhiều ứng dụng có hình ảnh, tên giả mạo các ứng dụng, trang web của Bộ Công an để người dân tải về, cài đặt và cung cấp các thông tin cá nhân nhằm lừa đảo. AI cũng có thể sử dụng để tự động hóa các cuộc tấn công mạng, giúp chúng trở nên nhanh chóng và hiệu quả, gây thiệt hại nặng hơn. Một điều nguy hiểm nữa ông Tuấn cũng tiết lộ rằng AI sẽ tự phát triển các phân mềm, mã độc lai tạo giữa nhiều dòng mã độc, có cơ chế né tránh bảo mật tinh vi hơn, tự động thay đổi các mã nguồn linh hoạt.
Trong năm 2023, ước tính các cuộc tấn công mạng trên thế giới gây thiệt hại tới 8.000 tỷ USD bởi (tương đương gần 21 tỷ USD mỗi ngày), con số đó dự kiến sẽ tăng lên 9.500 tỷ USD vào năm 2024. Cứ sau 11 giây lại có một tổ chức trên toàn cầu bị tấn công bằng ransomware.
Tại Việt Nam, theo thống kê của Cục An toàn thông tin (Bộ TT&TT), con số thiệt hại lên tới 8.000 đến 10.000 tỷ đồng.
Đề xuất 3 giải pháp giảm thiểu rủi ro từ trí tuệ nhân tạo (AI)
Về an ninh mạng, tất cả các hình thức tấn công mạng hiện nay đều có thể ứng dụng AI để tăng khả năng chủ động của kẻ tấn công, gây thiệt hại nặng hơn. Có những hình thức tấn công như qua tệp tin độc hại, mô phỏng, lừa đảo, tấn công từ chối dịch vụ quy mô lớn, qua học máy. Hiện nay, ngoài hệ thống mạng Internet, các bộ, ban, ngành, địa phương đều có mạng riêng. Đã có những đợt tấn công, truy cập trái phép và AI có thể được ứng dụng để tăng quy mô, mức độ tấn công.
Do đó, qua thực tế quản trị, triển khai cơ sở dữ liệu quốc gia (CSDLQG) về dân cư, ông Nguyễn Anh Tuấn đề xuất ba giải pháp giảm thiểu rủi ro AI.
Một là, sớm hoàn thiện hành lang pháp lý về AI để đón đầu xu thế, ban hành văn bản quy định về đạo đức trong quá trình phát triển, sản xuất, ứng dụng AI như bảo vệ quyền riêng tư, dữ liệu cá nhân, quyền con người của các đơn vị trong và ngoài nước.
Theo ông Nguyễn Anh Tuấn, Việt Nam đã có Nghị định bảo vệ dữ liệu cá nhân, nhưng việc áp dụng thực tế chưa đáp ứng yêu cầu bảo đảm an ninh, an toàn dữ liệu. Do đó, ông đề xuất có luật dữ liệu hoặc luật bảo vệ dữ liệu cá nhân. Ngoài ra, nên quy định rõ ràng hơn các hành vi phạm tội bằng AI, có quy chuẩn cụ thể về nền tảng kết nối, chia sẻ, trao đổi liên quan đến AI.
Thứ hai, nghiên cứu, ứng dụng các công trình AI để chống lại rủi ro về AI. AI do con người tạo ra, là sản phẩm của tri thức nên sẽ có biến thể “AI tốt” và “AI xấu”. Để ngăn cản sự phát triển của AI có thể dùng chính AI.
Thứ ba, phát triển AI phải song hành với vấn đề an ninh mạng và an toàn thông tin để tránh việc bị tấn công, chiếm quyền điều khiển gây ra hậu quả nghiêm trọng. Mức độ quan tâm đến an toàn thông tin của các đơn vị chưa đúng mức.
An toàn thông tin (ATTT) là yêu cầu “bắt buộc”, không phải là yếu tố để “lựa chọn”. Theo đó, 100% bộ, ngành, địa phương cần tổ chức kiểm tra, đánh giá tuân thủ quy định của pháp luật về ATTT, trong đó, ưu tiên, tập trung kiểm tra tuân thủ quy định pháp luật về bảo đảm an toàn hệ thống thông tin theo cấp độ và bảo vệ thông tin, dữ liệu cá nhân; ưu tiên kiểm tra, đánh giá đối với các đơn vị, tổ chức, doanh nghiệp đang được giao quản lý, vận hành nhiều hệ thống thông tin hoặc hệ thống thông tin quan trọng, dùng chung.
Mặt khác, chúng ta nên tăng cường theo dõi, giám sát quá trình kết nối, chia sẻ thông tin với các đơn vị để sớm phát hiện hành vi bất thường, vi phạm quy định về bảo vệ dữ liệu cá nhân trong quá trình khai thác thông tin, xử lý thông tin.
Cuối cùng là xây dựng và ứng dụng trí tuệ nhân tạo trong công tác giám sát log, phân tích lưu lượng mạng để phát hiện các hành vi bất thường có chủ đích từ AI, đồng thời kết hợp giữa học máy và ngôn ngữ tự nhiên để làm tăng độ chính xác khi đưa ra quyết định xử lý sự cố./.
- Dùng công nghệ để đẩy lùi các hành vi lừa đảo trên không gian số
- Chuyển đổi số an toàn, bảo mật mở ra nhiều cơ hội tiếp cận tài chính hơn cho mọi người