ISSN-2815-5823
VIỆT ANH
Thứ hai, 10h52 04/03/2024

Xây dựng quy định hướng tới việc phát triển trí tuệ nhân tạo (AI) có trách nhiệm

(KDPT) - Với sự phát triển vũ bão của trí tuệ nhân tạo (AI), các quy định về đạo đức khi sử dụng công nghệ cũng đang là vấn đề cần được nhắc đến. Theo đó, dựa trên kinh nghiệm ở nhiều nước và nguyên tắc của UNESCO, Việt Nam đang xây dựng quy định nhằm phát triển trí tuệ nhân tạo (AI) một cách có đạo đức, trách nhiệm.

Tiềm ẩn nhiều nguy cơ rủi ro

Trí tuệ nhân tạo (AI) đang cách mạng hóa cách mọi người sống và làm việc, đồng thời mang lại những lợi ích to lớn cho xã hội và nền kinh tế. Tuy nhiên, nó sẽ chỉ đạt được hiệu quả thực sự khi AI được sử dụng một cách có trách nhiệm.

Nhiều người vẫn còn chưa cảm nhận được rõ ràng sự xâm chiếm của AI, nhưng càng ngày AI càng nhúng sâu vào các lĩnh vực tưởng như chỉ dành cho con người. Sự phát triển của cách mạng công nghiệp 4.0 và AI trong những năm trở lại đây được cho là sẽ tạo ra sự thay đổi mạnh mẽ đến lực lượng lao động cũng như ảnh hưởng không nhỏ tới nguồn nhân lực trong nền kinh tế thế giới.

Theo đó, trong nhiều lĩnh vực hiện nay, có rất nhiều khâu hoạt động được dự đoán sẽ bị thay thế bằng robot tự động hay được thay bằng máy móc công nghệ hiện đại. Có những ngành được dự đoán trong tương lai sẽ không cần đến sức lao động của con người hoặc là có nhưng cần rất ít.

Trong Hội thảo "Phát triển và ứng dụng trí tuệ nhân tạo có trách nhiệm: Lý luận và thực tiễn" diễn ra mới đây, Thứ trưởng Khoa học và Công nghệ Bùi Thế Duy cho biết, đạo đức AI là vấn đề phức tạp, quy mô toàn cầu, đang thu hút nhiều quốc gia, tổ chức trên thế giới tham gia tìm phương án giải quyết, gồm cả UNESCO.

Thứ trưởng Khoa học và Công nghệ Bùi Thế Duy. (Ảnh: Hoàng Giang)

Theo Thứ trưởng, "UNESCO là tổ chức thiên về văn hóa, giáo dục. Tuy nhiên, tổ chức này lần đầu tiên đưa trí tuệ nhân tạo - một nội dung thuộc lĩnh vực công nghệ, vào thảo luận. Động thái này thậm chí khiến một số nước từng rời bỏ tổ chức đã quyết định quay lại tham gia".

Theo thứ trưởng, đạo đức AI ảnh hưởng tới đa dạng khía cạnh cuộc sống như xã hội, pháp lý, cạnh tranh chính trị và cạnh tranh thương mại. Để trí tuệ nhân tạo phát triển một cách có trách nhiệm, việc quản lý cần được xem trọng từ khâu xác định mô hình AI, thu thập dữ liệu, đến bước hoàn thiện hệ thống và đưa vào ứng dụng. Với thực tiễn Việt Nam, quá trình này cần sự phối hợp của kỹ sư, nhà khoa học và các cơ quan quản lý như Bộ Khoa học và Công nghệ, Bộ Thông tin và Truyền thông, Bộ Công an.

"AI khác hoàn toàn so với những công nghệ con người từng nghiên cứu. Trong khi các sản phẩm công nghệ cũ chỉ tuân thủ mục tiêu có sẵn, AI có thể tự tạo những hướng đi mới, vượt ra ngoài sự kiểm soát của nhà phát triển", ông nói. Thứ trưởng cũng lấy ví dụ về trường hợp các nhà khoa học cho hai hệ thống máy tính trò chuyện bằng tiếng Anh. Tuy nhiên, sau một khoảng thời gian, chúng bất ngờ chuyển sang giao tiếp bằng ngôn ngữ lạ, khiến nhóm nghiên cứu không thể nắm bắt nội dung hội thoại.

Với mô hình nhận diện giọng nói bằng AI, ông ví dụ nếu chỉ thu thập nguồn dữ liệu từ người Hà Nội, hệ thống sẽ sai lệch khi tương tác với người vùng miền khác. "Mở rộng ra, nguồn dữ liệu AI có thể gây bất công giữa các giới tính, các nhóm trong xã hội, ví dụ người khuyết tật", ông nói. Do đó, để phát triển AI công bằng, ngoài sự tham gia của chuyên gia luật, còn cần đóng góp của chuyên gia tâm lý học, xã hội học.

TS. Tedros Adhanom Ghebreyesus, Tổng Giám đốc WHO từng chia sẻ: "Giống như tất cả các công nghệ mới, AI có tiềm năng to lớn trong việc cải thiện sức khỏe của hàng triệu người trên thế giới, nhưng giống như tất cả các công nghệ khác, nó cũng có thể bị lạm dụng và gây hại".

Cần có một quy chuẩn về đạo đức AI

Những rủi ro có xu hướng tiếp tục tăng lên trong bối cảnh AI ngày càng phát triển nhưng cùng với đó số lượng các tổ chức công và tư từ các công ty công nghệ, doanh nghiệp đến các tổ chức tôn giáo đang ban hành các nguyên tắc đạo đức để hướng dẫn sự phát triển và sử dụng AI cũng đang có xu hướng gia tăng.

Trên thực tế, nhiều người coi cách tiếp cận này là chiến lược giảm thiểu rủi ro chủ động hiệu quả nhất. Việc thiết lập các nguyên tắc đạo đức có thể giúp các tổ chức bảo vệ các quyền và tự do của cá nhân đồng thời cũng tăng cường phúc lợi và lợi ích chung. Các tổ chức có thể biến những nguyên tắc này thành các chuẩn mực và thông lệ để quản lý.

Ảnh minh họa

Tại Hội thảo, các chuyên gia cho biết, Việt Nam đang theo dõi việc triển khai các quy định về phát triển AI có trách nhiệm tại nhiều quốc gia, khu vực trên thế giới, để có thể nghiên cứu và xây dựng khung pháp lý phù hợp với thực tiễn trong nước.

PGS.TS Nguyễn Thị Quế Anh - Hiệu trưởng Trường Đại học Luật, Đại học Quốc gia Hà Nội cho biết: "Quá trình quản lý trí tuệ nhân tạo tại các nước cùng khu vực như Trung Quốc và Nhật Bản có thể là kinh nghiệm phát triển AI có trách nhiệm ở Việt Nam. Ngoài pháp lý, trách nhiệm ở đây còn là trách nhiệm với xã hội, con người. Ngoài ra, Việt Nam cũng đang xây dựng Luật Công nghiệp công nghệ số, trong đó có nội dung về đạo đức sản phẩm số, gồm cả trí tuệ nhân tạo".

Vào cuối năm 2023, Liên minh Châu Âu đã thông qua các nguyên tắc trong đạo luật AI Act, dự kiến công bố muộn nhất vào quý II/2024. Đây hiện là bộ luật đầu tiên và toàn diện nhất, có nhiều sáng kiến nhằm đối phó với nguy cơ từ AI.

"AI Act 2024 sẽ dựa trên rủi ro của các mô hình AI để điều chỉnh luật pháp theo hướng tương ứng, cùng với đó là khung pháp lý thử nghiệm (sandbox) và cách tiếp cận 'mềm hóa' về đạo đức, độ tin cậy và tính trách nhiệm", TS. Đỗ Giang Nam - Trường Đại học Luật, Đại học Quốc gia Hà Nội, nói tại hội thảo. Theo ông, kinh nghiệm từ bộ luật AI Act mà Việt Nam có thể ứng dụng là "không xây dựng luật một lần cho xong mà cần liên tục cập nhật, thích ứng với sự phát triển của công nghệ AI".

Bên cạnh đó, bộ nguyên tắc đạo đức AI đầu tiên của Tổ chức Hợp tác và Phát triển Kinh tế (OECD) có thể thấy bối cảnh của các nguyên tắc đạo đức AI là rất rộng lớn. Tuy nhiên, các nguyên tắc đạo đức cốt lõi của AI này đều có nguồn gốc từ các quyền cơ bản của con người được công nhận trên toàn cầu, các tuyên bố và công ước hoặc hiệp ước quốc tế - cũng như khảo sát về các quy tắc ứng xử và nguyên tắc đạo đức hiện có từ các tổ chức, công ty và sáng kiến khác nhau.

Những nguyên tắc cốt lõi có thể được chắt lọc thành các nguyên tắc chung, mang tính nhận thức và có thể cung cấp cơ sở để đánh giá cũng như đo lường tính hợp lệ về mặt đạo đức của một hệ thống AI.

Bối cảnh của các nguyên tắc này được sử dụng để so sánh và đối chiếu với các thực tiễn AI hiện đang được các tổ chức áp dụng và sau đó chúng có thể được nhúng để giúp phát triển các giải pháp và văn hóa AI phù hợp về mặt đạo đức./.



Kinhdoanhvaphattrien.vn | 05/11/2023

eMagazine
 
kinhdoanhvaphattrien.vn | 22/11/2024