ISSN-2815-5823
Việt Anh
Thứ tư, 11h30 10/07/2024

Việt Nam nỗ lực xây dựng nguyên tắc phát triển AI có trách nhiệm

(KDPT) - Việt Nam nỗ lực xây dựng AI trên nguyên tắc về pháp luật, đạo đức và tính bền vững về kỹ thuật, công nghệ hướng tới lợi ích vì con người.

Trí tuệ nhân tạo (AI) tiềm ẩn rủi ro

Trong giai đoạn từ 2019-2024, các tổ chức quốc tế, các quốc gia và khu vực đã có những động thái tích cực, khẩn trương trong việc xây dựng thể chế, chính sách và các nguyên tắc để các đơn vị phát triển AI nhưng vẫn còn hạn chế rủi ro hay các tác động tiêu cực do AI mang lại.

Hiện nhiều quốc gia đã có bộ nguyên tắc chung như: EU, UNESCO, Trung Quốc, Mỹ, Nhật Bản, bên cạnh đó còn có bộ nguyên tắc ở từng lĩnh vực như: giáo dục, y tế... Những nội dung cốt lõi về bộ nguyên tắc đảm bảo tính tự chủ và giám sát con người, an toàn, quyền riêng tư và quản trị dữ liệu, tính minh bạch, đa dạng và bao trùm, không phân biệt đối xử và công bằng, cùng tính trách nhiệm giải trình. 

Ảnh minh họa.
Ảnh minh họa.

Tại hội thảo về xây dựng bộ nguyên tắc thúc đẩy sự phát triển và ứng dụng của AI có trách nhiệm, theo PGS.TS Nguyễn Thị Quế Anh, Hiệu trưởng Trường Đại học luật, Đại học Quốc gia Hà Nội, sự phát triển mạnh mẽ của AI đang làm dấy lên quan ngại về các rủi ro tiềm ẩn, tác động tới xã hội khi các ứng dụng AI vi phạm các chuẩn mực đạo đức và pháp lý như việc các thuật toán có thể gây ra sự thiên vị, phân biệt đối xử, xâm phạm quyền riêng tư và dữ liệu cá nhân.

Bà cho biết 5 năm qua, nhiều tổ chức quốc tế, quốc gia đã xây dựng thể chế, chính sách và triển khai xây dựng bộ nguyên tắc thúc đẩy phát triển AI đáng tin cậy và có trách nhiệm nhằm hạn chế tác động tiêu cực, hạn chế rủi ro như tổ chức OECD, UNESCO, Australia, Mỹ, Liên minh châu Âu, Trung Quốc, ASEAN. So với các quốc gia, các thảo luận chính sách về AI có đạo đức hay AI có trách nhiệm ở Việt Nam còn khá ít.

GS. TS Andy Hall, chuyên gia cao cấp CSIRO nhìn nhận việc xây dựng bộ nguyên tắc đạo đức thúc đẩy sử phát triển AI có trách nhiệm trước hết để xây dựng niềm tin của người dùng và xã hội vào các hệ thống AI vốn đang được ứng dụng mọi mặt đời sống.

Chuyên gia Australia đánh giá những tác động và rủi ro không thể lường trước như gián đoạn, rủi ro đạo đức, sử dụng công nghệ không phù hợp, tội phạm công nghệ. Ông dẫn ví dụ trước đây tại châu Âu, lo ngại về sản phẩm biến đổi gene khiến các nhà khoa học phải thảo luận về mặt trái của công nghệ bên cạnh lợi ích nó đem lại.

"Phát triển AI tiềm ẩn rủi ro, bất định do đó 'đổi mới có trách nhiệm' cần dựa vào chủ động lựa chọn công nghệ an toàn, có đạo đức và phù hợp giá trị xã hội", ông nói.

TS Đỗ Giang Nam, Trường Đại học Luật, ĐHQG Hà Nội, cho rằng để phát triển AI có trách nhiệm, cần có một hệ thống thể chế, chính sách, nguyên tắc điều chỉnh với sự kết hợp chặt chẽ giữa các quy định pháp luật cứng mang tính ràng buộc với các quy tắc "mềm" như đạo đức, hướng dẫn, khuyến nghị.

Theo ông Trần Anh Tú, Phó Vụ trưởng Vụ Công nghệ cao, Bộ Khoa học và Công nghệ, cho hay Việt Nam dựa trên kinh nghiệm quốc tế xây dựng bộ nguyên tắc riêng nhằm phát triển hệ thống AI có đạo đức, trách nhiệm. Việc nguyên tắc xây dựng không chỉ kịp với sự thay đổi thế giới còn hướng tới phát huy khai thác công nghệ tốt nhất và sử dụng AI có đạo đức trong tương lai.

Xây dựng AI có trách nhiệm bằng công cụ (RAM)

GS. TS Andy Hall cho rằng, cần xây dựng nguyên tắc mang tính linh hoạt, thích ứng bổ sung theo sự phát triển nhanh chóng của AI. Ông nhấn mạnh đánh giá giám sát tác động tiêu cực trong khoa học để thích ứng, bao gồm yếu tố dự đoán, tiếp cận rủi ro, phân tích tác động mặt trái công nghệ và phản ứng kịp thời để lựa chọn được công nghệ phù hợp. Giáo sư gợi ý cần cập nhật chính sách, quy định để giám sát quản lý chủ động và dự đoán hậu quả trong tương lai, đồng thời hợp tác thúc đẩy sáng tạo, chia sẻ minh bạch nhằm giảm thiểu rủi ro gặp phải.

TS Jonathan Wallace Baker, Trưởng đại diện UNESCO tại Việt Nam, gợi ý có thể thông qua mô hình Readiness Assessment Methodology (RAM) để xây dựng nguyên tắc đạo đức AI và đánh giá mức độ sẵn sàng của các quốc gia.

TS Jonathan Wallace Baker - Trưởng đại diện UNESCO tại Việt Nam.
TS Jonathan Wallace Baker - Trưởng đại diện UNESCO tại Việt Nam.

Ông cho hay khi thực hiện khảo sát từ 37 quốc gia nhằm tham vấn xây dựng khuyến nghị về AI, UNESCO phát hiện "khoảng trống" trong một số công cụ đánh giá về mức độ sẵn sàng AI hiện nay. Trong đó chỉ ra việc chưa có sự thống nhất về chỉ số, thu thập dữ liệu chưa chuẩn xác dẫn đến so sánh giữa các quốc gia không đồng nhất. "Cách tiếp cận của bộ công cụ RAM đảm bảo bao trùm 5 lĩnh vực chỉ số gồm pháp lý, xã hội, khoa học giáo dục, kinh tế và bao trùm công nghệ, cơ sở hạ tầng".

Hiện RAM được áp dụng trên 50 quốc gia và các nguyên tắc của UNESCO đang là cơ sở để các nước xây dựng quy định về đạo đức AI. Các nguyên tắc này xây dựng dựa trên tính đa dạng, bao trùm nhiều khía cạnh như AI tác động đến môi trường, văn hóa.

Bộ KH&CN tăng cường xây dựng hệ thống tiêu chuẩn AI

Chuyên gia cũng chỉ ra ba trụ cột cốt lõi để phát triển AI gồm tính hợp pháp, đạo đức và tính bền vững về kỹ thuật/công nghệ. Điểm chung các bộ nguyên tắc thế giới đều dựa trên lợi ích của con người, tôn trọng tính tự chủ và sự giám sát của con người đối với AI, bền vững kỹ thuật và an toàn, quyền riêng tư và quản trị dữ liệu, tính minh bạch và có thể giải thích được, tính đa dạng, bao trùm, bình đẳng, không phân biệt đối xử và công bằng, trách nhiệm và trách nhiệm giải trình.

Hiện Bộ KH&CN đang làm việc với UNESCO để thử nghiệm bộ công cụ RAM tại Việt Nam. Đồng thời, tiếp tục hợp tác với Australia trong nghiên cứu, đề xuất các nguyên tắc phát triển AI có trách nhiệm.

Ngoài ra, Bộ KH&CN cũng tăng cường nghiên cứu, xây dựng hệ thống tiêu chuẩn, quy chuẩn kỹ thuật quốc gia để phục vụ phát triển AI tại Việt Nam; chủ động xác định các vấn đề khoa học, thực tiễn liên quan đến AI cần giải quyết và ưu tiên nguồn lực từ các Chương trình KH&CN trọng điểm cấp quốc gia giai đoạn đến năm 2030 để triển khai các nhiệm vụ, giải pháp cụ thể về AI…



Kinhdoanhvaphattrien.vn | 05/11/2023

eMagazine
 
kinhdoanhvaphattrien.vn | 18/10/2024