Công nghệ trí tuệ nhân tạo (AI) đã và đang phát triển nhanh chóng, giúp cải thiện chất lượng công việc, chất lượng cuộc sống của con người. Tuy nhiên các nhà khoa học và chuyên gia công nghệ cảnh báo, nếu phát triển một cách không kiểm soát, hoặc được lập trình với mục đích không đúng đắn, AI có thể gây ra những hậu quả nghiêm trọng.
Sự ra đời của ChatGPT, một ứng dụng AI được công ty OpenAI Inc (trụ sở tại Mỹ) phát triển, có khả năng viết các bài tiểu luận, lời bài hát, thơ, kịch bản, đồng thời trả lời các câu hỏi về mọi điều từ các công việc hàng ngày, xây dựng thói quen, công thức nấu nướng đến các vấn đề kỹ thuật,… đã gây xôn xao các công ty, trường học, chính phủ và công chúng nói chung, vì khả năng xử lý lượng thông tin khổng lồ và tạo ra nội dung phức tạp từ yêu cầu của người dùng. Song song với những mặt tích cực, AI cũng đang trở thành tâm điểm lo ngại về khả năng tạo ảnh giả sâu và các thông tin sai lệch khác.
Tại Mỹ, chính phủ liên bang đang trong quá trình lấy ý kiến đóng góp về các quy định quản lý và vận dụng các luật hiện hành để kiểm soát sự nguy hiểm của AI. Một trong các quy định là công ty công nghệ có trách nhiệm đảm bảo sản phẩm của họ an toàn trước khi công bố rộng rãi. Hồi tháng 4, Thượng nghị sĩ Michael Bennet đã đưa ra dự luật thành lập một lực lượng đặc nhiệm để xem xét các chính sách của Mỹ về AI và tìm ra cách tốt nhất để giảm thiểu các mối đe dọa đối với quyền riêng tư, quyền tự do dân sự và quy trình tố tụng.
Không thành lập cơ quan mới như Mỹ, nhưng chính phủ Anh cho biết sẽ phân chia trách nhiệm quản lý AI giữa các cơ quan quản lý nhân quyền, sức khỏe và an toàn cũng như cạnh tranh. Ví dụ, Cơ quan quản lý tài chính đã được giao nhiệm vụ soạn thảo các hướng dẫn mới về AI, trong khi cơ quan quản lý cạnh tranh cho biết, họ sẽ bắt đầu kiểm tra tác động của AI đối với người tiêu dùng, doanh nghiệp và nền kinh tế.
“Chính những người tiên phong về AI đang cảnh báo về những cách mà công nghệ này có thể làm suy yếu các giá trị và quyền tự do, dẫn đến những rủi ro cực đoan nhất. Đó là lý do tại sao khi dẫn đầu về công nghệ AI, chúng ta cũng cần đi đầu về an toàn AI”, Thủ tướng Anh Rishi Sunak cho biết.
Tại Trung Quốc, chính phủ nước này muốn các công ty gửi đánh giá bảo mật cho chính quyền trước khi họ tung ra các dịch vụ cho công chúng. Các nhà lập pháp EU đã đồng ý về dự thảo các quy tắc cứng rắn hơn, để kiềm chế trí tuệ nhân tạo tạo sinh (Generative AI) và đề xuất lệnh cấm giám sát khuôn mặt. Nghị viện châu Âu sẽ bỏ phiếu về dự thảo Đạo luật AI của EU trong tháng 6 này. Israel, Nhật Bản cũng đang nghiên cứu các quy định về AI để đạt được sự cân bằng hợp lý giữa sáng tạo và bảo vệ quyền con người cũng như các biện pháp bảo vệ công dân.
Những mối nguy hại tiềm tàng của AI là không có biên giới quốc gia, nên rất cần sự hợp tác giữa các nước và giữa các phòng thí nghiệm. Vương quốc Anh sẽ tổ chức hội nghị thượng đỉnh đầu tiên vào cuối năm nay, về sự phối hợp quốc tế để giải quyết các rủi ro mà AI gây ra. Giám đốc điều hành của OpenAI, ông Sam Altman sau khi kết thúc chuyến công tác tại một số quốc gia cho biết, ông "khá lạc quan" về triển vọng hợp tác toàn cầu giúp giảm thiểu rủi ro từ AI.
Tổng thư ký LHQ Antonio Guterres mới đây cũng đã lên tiếng ủng hộ đề xuất của các công ty AI hàng đầu, đó là thành lập 1 cơ quan quốc tế giám sát AI như mô hình Cơ quan năng lượng Nguyên tử quốc tế (IAEA).
“Công nghệ AI đang phát triển với tốc độ chóng mặt cùng các mối đe dọa đi kèm với nó. Đã có những hồi chuông cảnh báo về dạng trí tuệ nhân tạo mới nhất, đó là AI tạo sinh. Các nhà khoa học và chuyên gia đã kêu gọi thế giới hành động, tuyên bố AI là mối đe dọa hiện hữu đối với nhân loại ngang với nguy cơ chiến tranh hạt nhân. Chúng ta phải thực hiện những cảnh báo đó một cách nghiêm túc. Lợi thế của IAEA là một tổ chức rất vững chắc, dựa trên tri thức với một số chức năng điều tiết. Vì vậy, tôi tin rằng đây là một mô hình rất thú vị có thể áp dụng đối với AI”, Tổng thư ký LHQ Antonio Guterres nói./.