Kinh nghiệm
Thứ hai , 02/03/2026, 00:00

Siết quản lý theo rủi ro, mở đường cho AI phát triển có trách nhiệm

Việc hoàn thiện khung pháp lý cho trí tuệ nhân tạo đang bước vào giai đoạn cụ thể hóa khi Bộ Khoa học và Công nghệ Việt Nam công bố dự thảo Nghị định hướng dẫn thi hành Luật Trí tuệ nhân tạo số 134/2025/QH15. Nếu Luật đặt ra các nguyên tắc chung, thì Nghị định lần này được kỳ vọng sẽ tạo nên “bộ xương vận hành” cho toàn bộ hệ sinh thái AI tại Việt Nam.

Khác với cách quản lý truyền thống, dự thảo lựa chọn phương thức tiếp cận dựa trên mức độ rủi ro. Theo đó, các hệ thống AI sẽ được chia thành ba nhóm: rủi ro cao, trung bình và thấp. Mỗi nhóm đi kèm nghĩa vụ tuân thủ riêng, thay vì áp dụng một cơ chế đồng loạt cho tất cả.

Cách tiếp cận này phản ánh quan điểm quản lý linh hoạt nhưng không buông lỏng. Đặc biệt, những hệ thống được sử dụng trong lĩnh vực nhạy cảm như y tế, tài chính, giáo dục, giao thông hoặc quản lý nhà nước sẽ chịu yêu cầu chặt chẽ hơn về kiểm thử, đánh giá độc lập và cơ chế giám sát của con người.

Cán bộ kỹ thuật giới thiệu dây chuyền và công nghệ sản xuất trong khu vực phòng sạch.

Một điểm đáng chú ý khác là đề xuất xây dựng Danh mục hệ thống AI rủi ro cao áp dụng thống nhất trên toàn quốc. Danh mục này sẽ được xác định dựa trên tiêu chí về mức độ tác động tới quyền con người, an toàn xã hội, an ninh quốc gia và quy mô ảnh hưởng.

Song song đó, dự thảo đặt trọng tâm vào minh bạch. Nội dung do AI tạo ra có thể phải gắn nhãn hoặc đánh dấu để người dùng nhận biết. Quy định này nhằm hạn chế tình trạng giả mạo, thông tin sai lệch, đặc biệt trong bối cảnh công nghệ tổng hợp sâu ngày càng tinh vi.

Để tạo không gian cho đổi mới sáng tạo, cơ chế thử nghiệm có kiểm soát (sandbox) cũng được đưa vào dự thảo. Doanh nghiệp có thể thử nghiệm sản phẩm, mô hình AI mới trong phạm vi giới hạn và dưới sự giám sát của cơ quan chức năng. Đây được xem là giải pháp cân bằng giữa thúc đẩy sáng tạo và bảo đảm an toàn.

Ngoài ra, việc hình thành Cổng thông tin điện tử một cửa và Cơ sở dữ liệu quốc gia về hệ thống AI sẽ giúp tập trung đầu mối tiếp nhận thông báo phân loại rủi ro, báo cáo sự cố và công khai thông tin theo quy định. Cơ chế này hướng đến tăng cường hậu kiểm thay vì tiền kiểm cứng nhắc.

Trên bình diện chính sách, việc ban hành Nghị định không chỉ nhằm bảo đảm Luật có hiệu lực thực thi từ ngày 01/3/2026, mà còn gửi đi thông điệp rõ ràng: Việt Nam lựa chọn phát triển AI theo hướng có trách nhiệm, minh bạch và phù hợp thông lệ quốc tế.

Nếu được thông qua, đây sẽ là nền tảng pháp lý quan trọng giúp hệ sinh thái AI trong nước vận hành ổn định, tạo niềm tin cho doanh nghiệp và nhà đầu tư trong kỷ nguyên số.

CASIC TỔNG HỢP

Bạn đang đọc bài viết Dự án: Siết quản lý theo rủi ro, mở đường cho AI phát triển có trách nhiệm tại Diễn đàn khởi nghiệp đổi mới sáng tạo Cần Thơ. Nếu có ý kiến đóng góp vui lòng để lại bình luận hoặc gửi về castihub@gmail.com
Ý kiến của bạn
(Bạn cần đăng nhập để bình luận)
Lên đầu trang