Vi phạm hành chính trong lĩnh vực trí tuệ nhân tạo có thể bị phạt đến 2 tỷ đồng

Admin

Chính phủ đề xuất mức phạt tối đa 2 tỷ đồng đối với tổ chức và 1 tỷ đồng đối với cá nhân khi vi phạm hành chính trong lĩnh vực trí tuệ nhân tạo.

Tiếp tục chương trình Kỳ họp thứ 10, sáng 21/11, Bộ trưởng Khoa học và Công nghệ Nguyễn Mạnh Hùng trình Quốc hội dự án Luật Trí tuệ nhân tạo.

Vi phạm hành chính trong lĩnh vực trí tuệ nhân tạo có thể bị phạt đến 2 tỷ đồng- Ảnh 1.

Bộ trưởng Khoa học và Công nghệ Nguyễn Mạnh Hùng.

Bộ trưởng Nguyễn Mạnh Hùng cho biết, Luật quy định có hệ thống, toàn diện các biện pháp nhằm cân bằng giữa quản lý và thúc đẩy hoạt động nghiên cứu, phát triển, triển khai và ứng dụng trí tuệ nhân tạo (AI) tại Việt Nam.

" Luật Trí tuệ nhân tạo đặt con người làm trung tâm với nguyên tắc tối cao là trí tuệ nhân tạo phục vụ con người, không thay thế con người, con người giám sát trí tuệ nhân tạo ở những quyết định trọng yếu; trí tuệ nhân tạo phải minh bạch, trách nhiệm và an toàn ", ông Nguyễn Mạnh Hùng nhấn mạnh.

Tư lệnh ngành Khoa học và Công nghệ nêu rõ, dự thảo Luật quản lý hệ thống trí tuệ nhân tạo theo mức độ rủi ro, khuyến khích phát triển trí tuệ nhân tạo trong nước và tự chủ về trí tuệ nhân tạo, lấy trí tuệ nhân tạo làm động lực tăng trưởng nhanh, bền vững và bảo đảm chủ quyền số quốc gia.

Chính phủ quy định 4 mức độ rủi ro trong phát triển trí tuệ nhân tạo, gồm: không chấp nhận được (mức độ cao nhất); rủi ro cao; rủi ro trung bình và rủi ro thấp.

Với hệ thống rủi ro trung bình và cao, nhà cung cấp phải thông báo cho Bộ Khoa học và Công nghệ. Các hệ thống có rủi ro không chấp nhận được bị cấm phát triển, cung cấp, triển khai hoặc sử dụng dưới bất kỳ hình thức nào.

Chính phủ cũng đề xuất danh mục cấm bao gồm hệ thống dùng cho hành vi bị pháp luật nghiêm cấm, sử dụng yếu tố giả mạo để lừa dối, thao túng gây tổn hại nghiêm trọng, lợi dụng điểm yếu của nhóm người dễ bị tổn thương (trẻ em, người cao tuổi...), hoặc tạo nội dung giả mạo gây nguy hại nghiêm trọng đến an ninh quốc gia.

Theo phương án Chính phủ trình, tổ chức, cá nhân vi phạm trong lĩnh vực này sẽ bị xử lý kỷ luật, xử phạt vi phạm hành chính hoặc truy cứu trách nhiệm hình sự. Nếu gây thiệt hại, phải bồi thường theo pháp luật dân sự.

Trường hợp nhiều chủ thể cùng tham gia (phát triển, cung cấp, triển khai) thì phải liên đới bồi thường. Trách nhiệm bồi thường được xác định dựa trên mức độ kiểm soát thực tế, khả năng dự báo và các biện pháp quản lý rủi ro mà mỗi bên đã áp dụng.

Dự thảo luật quy định mức phạt hành chính bằng tiền tối đa 2 tỷ đồng đối với tổ chức và 1 tỷ đồng đối với cá nhân.

Với các hành vi vi phạm nghiêm trọng, mức phạt tiền tối đa có thể lên đến 2% doanh thu của năm trước liền kề của tổ chức đó. Trường hợp tái phạm thì phạt tối đa 2% doanh thu toàn cầu của năm trước liền kề của tổ chức đó.

Bên cạnh việc xử lý vi phạm, Chính phủ cũng đề xuất nhiều chính sách hỗ trợ nghiên cứu, đầu tư, đào tạo nhân lực chất lượng cao, tạo điều kiện cho doanh nghiệp, tổ chức và cá nhân tham gia phát triển và ứng dụng trí tuệ nhân tạo.

Vi phạm hành chính trong lĩnh vực trí tuệ nhân tạo có thể bị phạt đến 2 tỷ đồng- Ảnh 2.

Chủ nhiệm Ủy ban Khoa học, Công nghệ và Môi trường Nguyễn Thanh Hải trình bày báo cáo thẩm tra.

Trình bày báo cáo thẩm tra, Chủ nhiệm Ủy ban Khoa học, Công nghệ và Môi trường Nguyễn Thanh Hải cho biết, Ủy ban cơ bản nhất trí với việc phân loại rủi ro thành 4 mức (rủi ro thấp, trung bình, cao và không chấp nhận được).

" Tuy nhiên, dự thảo Luật chưa xác định rõ tiêu chí định lượng hoặc định tính để xác định và phân loại rủi ro, chưa có các quy định về biện pháp quản lý, công cụ và phương pháp đánh giá rủi ro nên việc phân loại, tự phân loại rủi ro gặp khó khăn, dẫn đến lo ngại về trách nhiệm pháp lý trong triển khai ", bà Nguyễn Thanh Hải nói.

Về các quy định mang tính tiền kiểm, cơ quan thẩm tra đề nghị rà soát, cắt giảm các quy định tiền kiểm như yêu cầu hồ sơ kỹ thuật, nhật ký hoạt động trước khi đưa sản phẩm vào lưu hành, sẽ tăng chi phí tuân thủ, chậm quá trình đổi mới và ứng dụng AI, làm giảm tính cạnh tranh và thu hút đầu tư, cần nghiên cứu chuyển mạnh sang cơ chế hậu kiểm.

Về cơ sở dữ liệu quốc gia hệ thống trí tuệ nhân tạo và cơ sở dữ liệu phục vụ trí tuệ nhân tạo, Ủy ban Khoa học, Công nghệ và Môi trường đề nghị bổ sung nguyên tắc cốt lõi để đảm bảo chất lượng đối với dữ liệu phục vụ AI như: dữ liệu phải "đúng - đủ - sạch - sống" và thống nhất dùng chung.

Bên cạnh đó, theo cơ quan thẩm tra, cần có cơ chế kết nối liên thông, chia sẻ dữ liệu không để dữ liệu bị phân tán tạo điểm nghẽn trong nghiên cứu, phát triển AI; có quy định nguyên tắc bắt buộc về đảm bảo an ninh mạng, bảo mật dữ liệu và phòng vệ đối với hạ tầng AI quốc gia, chống nguy cơ chiếm quyền điều khiển, rò rỉ dữ liệu.

Về trách nhiệm pháp lý của các bên liên quan, những hành vi và lỗi do con người thực hiện thì AI cũng có thể thực hiện. Trong khi đó, trách nhiệm pháp lý của bản thân AI còn nhiều quan điểm rất khác nhau nên rất khó xác định trách nhiệm theo nghĩa truyền thống. Khi có vụ việc phát sinh sẽ gây tranh chấp về trách nhiệm hành chính, dân sự, hình sự.

" Do vậy, cần bổ sung nguyên tắc để phân biệt trách nhiệm giữa các chủ thể, các bên liên quan kể cả đối với nhà cung cấp nước ngoài khi cung cấp dịch vụ AI xuyên biên giới và phân biệt giữa các trường hợp cố ý, không cố ý hoặc lỗi do giới hạn kỹ thuật, không tiên lượng được trước" , Chủ nhiệm Ủy ban Khoa học, Công nghệ và Môi trường nêu quan điểm.

Về các hành vi bị cấm, cơ quan thẩm tra đề nghị bổ sung quy định về các hành vi bị cấm để góp phần nhận diện sớm về các hành vi vi phạm từ khâu nghiên cứu đến triển khai sử dụng AI.

Trong đó phải gồm cả hành vi của người sử dụng, tổ chức, cá nhân lợi dụng AI thực hiện các hành vi bị cấm theo hướng: Cấm sử dụng AI để gây rối, kích động chính trị, xâm phạm an ninh quốc gia, thao túng các cuộc bỏ phiếu, bầu cử; Cấm sử dụng AI để tạo dựng những nội dung giả mạo, tạo dựng hình ảnh, video clip phục vụ lừa đảo, xúc phạm danh dự, nhân phẩm, gây chia rẽ và các mục đích xấu khác.