Đề xuất phạt tới 2 tỉ đồng với hành vi dùng AI để tạo nội dung giả mạo

Ngày 21-11, tiếp tục chương trình kỳ họp thứ 10, Chính phủ đã trình Quốc hội dự án Luật Trí tuệ nhân tạo (AI).

Theo tờ trình do Bộ trưởng Bộ Khoa học và Công nghệ Nguyễn Mạnh Hùng trình bày, AI đang trở thành công nghệ mũi nhọn của cuộc Cách mạng công nghiệp 4.0, mở ra nhiều cơ hội to lớn cho phát triển kinh tế - xã hội nhưng cũng đặt ra không ít thách thức, cấp bách về quản lý, đạo đức và an toàn mà các quy định pháp luật hiện hành chưa bao quát đầy đủ.

Đề xuất phạt tới 2 tỉ đồng với hành vi dùng AI để tạo nội dung giả mạo- Ảnh 1.

Bộ trưởng Bộ KH-CN Nguyễn Mạnh Hùng trình bày tờ trình. Ảnh: Phạm Thắng

Một số vấn đề thực tiễn đặt ra với AI như rủi ro về đạo đức, thiếu cơ chế phân loại, kiểm soát rủi ro hệ thống AI; thiếu cơ chế kiểm định, cấp phép và giám sát các hệ thống AI, đặc biệt hệ thống AI có rủi ro cao. Chính phủ cũng nêu rõ có khoảng trống về trách nhiệm pháp lý khi Al gây thiệt hại.

Sự phát triển của AI đặt ra những nguy cơ an ninh phi truyền thống rất cấp bách. Công nghệ deepfake bị lạm dụng để tạo ra các thông tin sai lệch, bôi nhọ, lừa đảo hoặc gây bất ổn chính trị xã hội. Do đó, việc xây dựng Luật Trí tuệ nhân tạo là rất cần thiết.

Theo dự thảo, hệ thống trí tuệ nhân tạo được phân loại theo rủi ro, với 4 mức độ rủi ro bao. Thứ nhất, rủi ro không chấp nhận được là hệ thống có khả năng gây tổn hại nghiêm trọng, không thể khắc phục. Thứ hai là rủi ro cao: hệ thống có thể gây thiệt hại đến tính mạng, sức khỏe, quyền, lợi ích hợp pháp.

Thứ ba là rủi ro trung bình: hệ thống có nguy cơ gây nhầm lẫn, thao túng hoặc lừa dối người sử dụng. Rủi ro thấp là các trường hợp còn lại. Nhà cung cấp AI phải tự phân loại hệ thống trước khi lưu hành và chịu trách nhiệm về kết quả phân loại.

Luật quy định trách nhiệm minh bạch, gắn nhãn và giải trình. Cụ thể, bên triển khai phải thông báo rõ và gắn nhãn đối với nội dung tạo ra hoặc chỉnh sửa có yếu tố giả mạo, mô phỏng người thật (deepfake) có thể gây hiểu lầm, hoặc nội dung do AI tạo ra nhằm mục đích truyền thông, quảng cáo. Nhà cung cấp và bên triển khai phải giải trình về kết quả xử lý của hệ thống rủi ro cao khi người bị ảnh hưởng yêu cầu.

Việc quản lý AI cũng được đề xuất quản lý theo rủi ro. Theo đó, đối với rủi ro không chấp nhận được, các hệ thống này bị cấm phát triển, cung cấp, triển khai hoặc sử dụng dưới bất kỳ hình thức nào.

Danh mục cấm bao gồm hệ thống dùng cho hành vi bị pháp luật nghiêm cấm, sử dụng yếu tố giả mạo để lừa dối, thao túng gây tổn hại nghiêm trọng, lợi dụng điểm yếu của nhóm người dễ bị tổn thương (trẻ em, người cao tuổi...), hoặc tạo nội dung giả mạo gây nguy hại nghiêm trọng đến an ninh quốc gia.

Dự thảo luật cũng đề xuất các quy định về xử lý vi phạm và trách nhiệm bồi thường thiệt hại. Theo đó, tổ chức, cá nhân có hành vi vi phạm quy định của luật này và quy định khác của pháp luật có liên quan đến trí tuệ nhân tạo thì tùy theo tính chất, mức độ, hậu quả của hành vi vi phạm có thể bị xử phạt hành chính hoặc bị truy cứu trách nhiệm hình sự; nếu gây thiệt hại thì phải bồi thường theo quy định của pháp luật.

Việc xử phạt vi phạm hành chính trong lĩnh vực trí tuệ nhân tạo thực hiện theo quy định sau đây và pháp luật về xử lý vi phạm hành chính. Cụ thể, phạt tối đa 2% doanh thu tại Việt Nam của năm trước liền kề của tổ chức đó đối với hành vi vi phạm quy định tại Điều 11 của Luật này; trong trường hợp tái phạm thì phạt tối đa 2% doanh thu toàn cầu của năm trước liền kề của tổ chức đó. Trường hợp không có doanh thu của năm trước liền kề hoặc mức phạt tính theo doanh thu thấp hơn mức phạt tiền tối đa theo quy định thì áp dụng mức phạt tiền tối đa 2 tỉ đồng với tổ chức, tối đa 1 tỉ đồng với cá nhân.

Đối với hành vi vi phạm không quy định tại Điều 11 của luật này thì mức phạt tiền tối đa là 2 tỉ đồng đối với tổ chức; cá nhân thực hiện cùng hành vi vi phạm thì mức phạt tiền tối đa bằng một phần hai mức phạt tiền đối với tổ chức (tối đa 1 tỉ đồng – PV).

Đề xuất phạt tới 2 tỉ đồng với hành vi dùng AI để tạo nội dung giả mạo- Ảnh 2.

Chủ nhiệm Uỷ ban Khoa học, Công nghệ và Môi trường Nguyễn Thanh Hải trình bày báo cáo thẩm tra. Ảnh: Phạm Thắng

Trình bày báo cáo thẩm tra, Chủ nhiệm Uỷ ban Khoa học, Công nghệ và Môi trường của Quốc hội Nguyễn Thanh Hải cho biết, quy trình quản lý đối với các hệ thống AI rủi ro cao cần được thiết kế đơn giản, minh bạch và khả thi cho doanh nghiệp.

Theo đó, đề nghị áp dụng quy trình 3 bước gồm: tự đánh giá - đăng ký - hậu kiểm, trong đó doanh nghiệp tự đánh giá và công bố mức độ rủi ro của hệ thống theo tiêu chí thống nhất do Nhà nước quy định (phạm vi tác động, loại dữ liệu sử dụng, mức độ tự động ra quyết định...), sau đó gửi hồ sơ đăng ký điện tử để cơ quan quản lý theo dõi.

Về quản lý mô hình AI đa dụng có rủi ro hệ thống, cơ quan thẩm tra đề nghị cân nhắc kỹ lưỡng quy định về việc quản lý các mô hình AI đa dụng (ví dụ như OpenAI - ChatGPT; Google - Gemini…), đặc biệt là những mô hình gốc (foundation models) được phát triển ở nước ngoài, đòi hỏi nguồn lực hạ tầng, dữ liệu và tính toán khổng lồ mà Việt Nam hiện chưa đủ năng lực để tự phát triển.

Do đó, việc áp dụng cơ chế quản lý trực tiếp đối với các mô hình AI đa dụng là khó khả thi. Đề nghị nghiên cứu chuyển hướng quản lý sang khâu ứng dụng, triển khai và khai thác mô hình tại Việt Nam, thay vì quản lý trực tiếp các nền tảng gốc ở nước ngoài.

Điều 11. Hệ thống trí tuệ nhân tạo có rủi ro không chấp nhận được

1. Hệ thống trí tuệ nhân tạo có rủi ro không chấp nhận được bị cấm phát triển, cung cấp, triển khai hoặc sử dụng dưới bất kỳ hình thức nào tại Việt Nam.

2. Hệ thống trí tuệ nhân tạo có rủi ro không chấp nhận được là hệ thống được thiết kế, phát triển hoặc triển khai nhằm mục đích sau:

a) Thực hiện các hành vi bị pháp luật nghiêm cấm;

b) Sử dụng yếu tố giả mạo hoặc mô phỏng người, sự kiện thật để lừa dối hoặc thao túng nhận thức, hành vi của con người một cách có chủ đích và có hệ thống, gây tổn hại nghiêm trọng đến quyền, lợi ích hợp pháp của con người;

c) Lợi dụng điểm yếu của nhóm người dễ bị tổn thương, gồm trẻ em, người cao tuổi, người khuyết tật hoặc người hạn chế nhận thức, để gây tổn hại cho chính họ hoặc người khác;

d) Tạo ra hoặc phổ biến nội dung giả mạo có khả năng gây nguy hại nghiêm trọng đến an ninh quốc gia, trật tự, an toàn xã hội.

Link nội dung: https://phunuvathoidaivn.com/de-xuat-phat-toi-2-ti-dong-voi-hanh-vi-dung-ai-de-tao-noi-dung-gia-mao-a152615.html