AI giải Toán ngang huy chương vàng Olympic Toán quốc tế

Admin

AlphaGeometry2, công cụ giải toán sử dụng AI, đã giải quyết được 42/50 bài hình học trong kỳ thi IMO suốt 25 năm qua.

AlphaGeometry2, công cụ giải toán sử dụng AI, đã giải quyết được 42/50 bài toán hình học trong kỳ thi IMO suốt 25 năm qua, trong khi mức trung bình của các thí sinh giành huy chương vàng là 40,9.

Thông tin này được đăng tải trên tạp chí khoa học hàng đầu thế giới, Nature, vào cuối tuần trước. Nhóm nghiên cứu phát triển AlphaGeometry2 làm việc tại Google DeepMind, gồm 10 thành viên, trong đó có 4 người Việt.

Đây là phiên bản nâng cấp của AlphaGeometry, vốn đã giải quyết được 53% số bài toán khi mới ra mắt.

Năm ngoái, các nhóm nghiên cứu tại Ấn Độ và Trung Quốc đã áp dụng những phương pháp tiếp cận khác để AI đạt thành tích ngang huy chương vàng Olympic Toán quốc tế (IMO) về hình học, nhưng số bài thử nghiệm không nhiều như AlphaGeometry2.

"Tôi tin rằng không lâu nữa máy tính sẽ đạt điểm tuyệt đối trong kỳ thi IMO", Kevin Buzzard, nhà Toán học tại Đại học Hoàng gia London, Anh, nhận định.

AI giải Toán ngang huy chương vàng Olympic Toán quốc tế- Ảnh 1.

Bài toán thứ 3 trong kỳ IMO 2014. AlphaGeometry giải bằng cách dựng điểm phụ (Ảnh: Google DeepMind)

AlphaGeometry là sự kết hợp giữa một mô hình ngôn ngữ chuyên biệt và "công cụ biểu tượng" (symbolic engine), chuyên về lập luận logic. Mô hình này được đào tạo để diễn đạt ngôn ngữ toán học chuẩn, đảm bảo tính chặt chẽ về mặt logic và loại bỏ những nhận định không mạch lạc hoặc không chính xác mà AI có thể đưa ra.

AlphaGeometry2 có một số cải tiến, bao gồm việc tích hợp mô hình ngôn ngữ lớn hiện đại của Google - Gemini. Mô hình này hỗ trợ "công cụ biểu tượng", sử dụng các quy tắc toán học để suy luận giải pháp cho các bài toán, đồng thời đưa ra những chứng minh khả thi cho một định lý hình học nhất định.

Các bài toán hình học trong kỳ thi Olympic yêu cầu bổ sung "cấu trúc" vào sơ đồ để có thể giải quyết, ví dụ như điểm, đường thẳng hoặc hình tròn. Mô hình Gemini của AlphaGeometry2 dự đoán các cấu trúc hữu ích có thể thêm vào sơ đồ, và công cụ này tham chiếu chúng để đưa ra các suy luận.

Nhóm nghiên cứu cho biết những cải tiến trong tương lai sẽ bao gồm việc giải quyết các bài toán liên quan đến bất đẳng thức và phương trình phi tuyến tính, với mục tiêu "giải toàn bộ bài toán hình học".

Ông Buzzard đánh giá rằng AI còn nhiều thách thức cần vượt qua trước khi có thể giải quyết các bài toán ở cấp độ nghiên cứu.

Hình học Euclid là một trong bốn chủ đề chính của kỳ thi IMO, bên cạnh lý thuyết số, đại số và tổ hợp. AI cần có các kỹ năng đặc biệt vì các bài thi yêu cầu lập luận chặt chẽ về các đối tượng hình học trên mặt phẳng.

Vào tháng 7 năm ngoái, ngoài AlphaGeometry2, DeepMind đã ra mắt AlphaProof để giải quyết các câu hỏi ngoài hình học. AlphaProof sau đó đã giải quyết thành công 4 trên 6 bài thi trong đề thi IMO 2024, đạt 28/42 điểm - ngang với thành tích của thí sinh giành huy chương bạc.

Các nhà nghiên cứu AI đang háo hức chờ đợi kỳ thi IMO tiếp theo, sẽ diễn ra tại Australia vào tháng 7 năm nay. Khi đề thi được công khai, các hệ thống AI cũng sẽ được sử dụng để giải quyết chúng.

Các bài toán mới được xem là bài kiểm tra đáng tin cậy đối với các hệ thống học máy, vì lời giải của chúng khó có thể tồn tại trên Internet hoặc bị "rò rỉ" vào các tập dữ liệu đào tạo, gây sai lệch kết quả.