Siết quản lý chatbot AI tạo deepfake, kiểm soát rủi ro, bảo vệ quyền con người trên không gian mạng
Thực trạng một số chatbot AI tạo và lan truyền nội dung deepfake khiêu dâm trên không gian mạng đang xâm phạm nghiêm trọng quyền con người, đặt ra yêu cầu phải tìm giải pháp xử lý nhằm vừa kiểm soát rủi ro, vừa bảo đảm sự phát triển lành mạnh của công nghệ AI.

Luật Trí tuệ nhân tạo nghiêm cấm hành vi sử dụng deepfake để lừa đảo hoặc vi phạm pháp luật
Theo ông Trần Văn Sơn, Phó Viện trưởng Viện Công nghệ số và Chuyển đổi số quốc gia (Bộ KH&CN), Luật Trí tuệ nhân tạo được Quốc hội thông qua ngày 10/12/2025 và có hiệu lực từ 1/3/2026 đã xây dựng khuôn khổ pháp lý khá đầy đủ để phân loại rủi ro, quy định trách nhiệm các bên liên quan và trao quyền cho cơ quan quản lý nhà nước xử lý các hệ thống AI vi phạm.
Nghiêm cấm hành vi sử dụng deepfake để lừa đảo hoặc vi phạm pháp luật
Căn cứ vào các tiêu chí phân loại của Luật Trí tuệ nhân tạo, đa số các hệ thống trí tuệ nhân tạo tạo sinh cơ bản được xếp vào nhóm rủi ro trung bình do có khả năng tạo ra nội dung gây nhầm lẫn hoặc tác động đến người sử dụng.
Luật quy định các chủ thể liên quan phải kịp thời xử lý sự cố bằng các biện pháp kỹ thuật, kể cả tạm dừng hoặc thu hồi hệ thống để bảo đảm an toàn và trật tự xã hội; đồng thời nhà cung cấp và bên triển khai có trách nhiệm giải trình với cơ quan nhà nước về mục đích sử dụng, nguyên lý hoạt động, quản lý rủi ro và bảo vệ quyền, lợi ích hợp pháp của tổ chức, cá nhân khi xảy ra vi phạm hoặc có yêu cầu thanh tra, kiểm tra.
Luật nghiêm cấm việc sử dụng deepfake để lừa đảo hoặc vi phạm pháp luật, đồng thời yêu cầu các hệ thống AI tạo sinh phải dán nhãn thông báo đối với nội dung do AI tạo hoặc chỉnh sửa và áp dụng ký hiệu nhận dạng (watermark) cho sản phẩm AI nhằm phục vụ quản lý và truy vết.
Về thẩm quyền và biện pháp xử lý vi phạm, Bộ Khoa học và Công nghệ là cơ quan đầu mối chịu trách nhiệm chính trước Chính phủ thực hiện quản lý nhà nước về trí tuệ nhân tạo, chủ trì hướng dẫn quy trình phân loại rủi ro và đánh giá sự phù hợp.
Khi xảy ra sự cố nghiêm trọng hoặc phát hiện hệ thống có nguy cơ gây thiệt hại, cơ quan quản lý nhà nước có thẩm quyền yêu cầu nhà cung cấp tạm dừng hoạt động, thu hồi hoặc đánh giá lại hệ thống AI.
Vi phạm nghiêm trọng có thể bị xử lý hình sự
Đối với các hành vi đặc biệt nghiêm trọng như tạo deepfake khiêu dâm trẻ em hoặc gây rối trật tự an toàn xã hội, việc xử lý sẽ không chỉ dừng lại ở các biện pháp quản lý theo Luật Trí tuệ nhân tạo.
Theo quy định, ngoài việc có thể bị tạm dừng hoặc hạn chế dịch vụ AI, cá nhân và tổ chức vi phạm còn có thể bị xử phạt hành chính hoặc truy cứu trách nhiệm hình sự và phải bồi thường thiệt hại theo pháp luật dân sự. Cách tiếp cận này thể hiện quan điểm của Nhà nước là khuyến khích đổi mới sáng tạo nhưng không chấp nhận việc lạm dụng AI xâm phạm quyền con người và an toàn xã hội, nhằm bảo đảm AI được phát triển, ứng dụng có trách nhiệm, an toàn và bền vững.