Tiếng chuông tỉnh "cơn say A.I"
Suốt 3 năm qua, kể từ khi các mô hình ngôn ngữ lớn trở nên phổ biến, phần lớn các cuộc đối thoại về A.I xoay quanh một trục duy nhất. Ảnh: shutterstock.com
Tính “vạn năng” từng là niềm tự hào của Big Tech giờ trở thành những rủi ro tiềm tàng...Luật Trí tuệ nhân tạo số 134/2025/QH15 chính thức có hiệu lực. Đây là lần đầu tiên Việt Nam có một bộ luật chuyên biệt cho trí tuệ nhân tạo (A.I) và cũng là một trong những quốc gia đầu tiên trên thế giới có bộ luật này. Đọc toàn văn bộ luật, tôi tâm đắc với câu hỏi nền tảng mà bộ luật đặt ra, một câu hỏi mà hàng triệu người dùng A.I mỗi ngày dường như đã quên: bạn đang hỏi “A.I làm được gì?” hay đang hỏi “Việc này tác động gì tới con người?”. Hai câu hỏi đó thoạt nghe tưởng giống nhau, nhưng mở ra 2 cách tiếp cận hoàn toàn khác biệt.
Trong cơn say tính năng, con người bị bỏ quên
Suốt 3 năm qua, kể từ khi các mô hình ngôn ngữ lớn trở nên phổ biến, phần lớn các cuộc đối thoại về A.I xoay quanh một trục duy nhất: tính năng - A.I viết được bài, vẽ được tranh, phân tích được dữ liệu, thậm chí lập trình được phần mềm... Cơn say tính năng ấy cũng dễ hiểu, vì A.I thực sự mạnh. Nhưng cơn say nào cũng có cái giá.
Cái giá ở đây là khi mải mê hỏi “A.I làm được gì?”, con người quên hỏi “A.I đang làm gì với con người?”, “Sản phẩm A.I tạo ra tác động thế nào tới nhận thức và cảm xúc của người thụ hưởng?”, “Ai chịu trách nhiệm khi hình ảnh giả mạo gây tổn thương cả một cộng đồng?”, ”Đứa trẻ nào đang bị thuật toán khai thác mà không hề hay biết?”... Bộ luật này chính là tiếng chuông gọi tỉnh giữa cơn say ấy.
![]() |
Con người luôn phải là trung tâm
Nguyên tắc đầu tiên của bộ luật ghi rõ rằng: “Trí tuệ nhân tạo phục vụ con người, không thay thế thẩm quyền và trách nhiệm của con người”. Có ít nhất 3 tầng ý nghĩa:
Tầng thứ nhất là bảo vệ chủ quyền nhận thức. Bộ luật buộc mọi hệ thống A.I phải thông báo rõ khi người dùng đang tương tác với máy, đồng thời gắn dấu hiệu nhận biết trên mọi nội dung do A.I tạo ra. Đây không đơn thuần là quy định kỹ thuật, mà là hành động bảo vệ quyền tự quyết của tâm trí. Giữa thế giới ngập tràn nội dung, nếu bạn không biết cái mình đang xem là thật hay giả, bạn không thể phán đoán đúng đắn. Mà mất khả năng phán đoán, suy cho cùng, là mất phẩm giá và quyền tự chủ.
Tầng thứ 2 là bảo vệ người dễ bị tổn thương. Bộ luật nghiêm cấm lợi dụng A.I để khai thác điểm yếu của trẻ em, người cao tuổi, người khuyết tật. Là nhà giáo dục gần 20 năm, tôi thấy điều này đặc biệt cần thiết, vì trẻ em không có đủ vốn sống để nhận ra khi nào mình đang bị thuật toán thao túng. Bảo vệ họ là nghĩa vụ đạo đức, không chỉ là quy phạm pháp luật.
Tầng thứ 3 là trách nhiệm xuyên suốt chuỗi giá trị. Bộ luật phân định rõ trách nhiệm cho nhà phát triển, nhà cung cấp, bên triển khai và người sử dụng. Không ai được nói “Tôi chỉ làm công nghệ, việc người ta dùng sao không phải là chuyện của tôi” và cũng không ai được biện minh “Tôi chỉ là người dùng, không biết không có tội”. Chúng ta đều có trách nhiệm với mình và với nhau, qua những gì mình đưa ra thế giới, dù có dùng A.I hay không.
Hai góc nhìn, một bài toán chung
Cộng đồng công nghệ có những lo ngại chính đáng. Nhiều chuyên gia bày tỏ quan ngại rằng các tiêu chí phân loại rủi ro có thể cứng nhắc, chi phí tuân thủ sẽ tạo gánh nặng cho doanh nghiệp, thậm chí có người cho rằng cách làm này “có thể đặt dấu chấm hết cho A.I Việt Nam”. Đó là tiếng nói cần được lắng nghe.
![]() |
Nhưng đây không phải là cuộc đối đầu giữa “phát triển” và “kiểm soát”. Khi bạn tạo ra sản phẩm có khả năng gây rủi ro cho con người, bạn buộc phải chịu trách nhiệm. Câu hỏi đúng không phải là “quản lý hay không” mà là “quản lý để phát triển bền vững hay quản lý để kìm hãm”. Tinh thần của bộ luật này nghiêng rõ về hướng đầu: vừa thiết lập cơ chế thử nghiệm có kiểm soát (sandbox), vừa thành lập Quỹ Phát triển Trí tuệ nhân tạo quốc gia, vừa đặt ra chính sách ưu đãi cho doanh nghiệp.
Từ “hoàn thành” đến “hoàn thiện”
Góc nhìn tôi muốn đóng góp xuất phát từ triết lý giáo dục nhân bản: A.I của người, do người, vì người. “Của người” nghĩa là công nghệ này sinh ra từ trí tuệ và kinh nghiệm sống của con người, không tự sinh ra từ hư không. “Do người” nghĩa là con người phải giữ quyền kiểm soát cuối cùng. “Vì người” nghĩa là mục đích cuối cùng không phải là hoàn thành công việc nhanh hơn, mà là hoàn thiện con người sâu hơn.
Đây là chỗ tôi thấy bộ luật tạo ra một khung tham chiếu quý giá, nhưng cũng là chỗ mỗi người cần tự hỏi thêm. Luật có thể buộc nhà cung cấp gắn nhãn, buộc nhà phát triển đánh giá rủi ro, nhưng luật không thể buộc bạn dừng lại 3 giây trước khi nhấn nút “tạo nội dung” để tự hỏi: “Sản phẩm này sẽ tác động gì tới người nhận nó?”. Câu hỏi ấy, không bộ luật nào thay bạn hỏi được. Đó là trách nhiệm của một con người tự do. Bộ luật này là tiếng chuông, nhưng tỉnh dậy hay không là chuyện của mỗi người. Vậy lần sắp tới khi mở một công cụ A.I, bạn sẽ hỏi câu nào trước: “Nó làm được gì cho mình?” hay “Điều mình sắp làm sẽ tác động gì tới người khác?”
Theo dõi Nhịp Cầu Đầu Tư


