OpenAI dường như đã vi phạm luật an toàn AI của California với việc phát hành mô hình mới nhất, theo cáo buộc của cơ quan giám sát

OpenAI có thể đã vi phạm luật an toàn AI mới của California khi phát hành mô hình mã hóa mới nhất của mình, theo cáo buộc từ một nhóm giám sát AI.

Vi phạm này có thể khiến công ty phải đối mặt với hàng triệu đô la tiền phạt và vụ việc có thể trở thành tiền lệ cho thử nghiệm đầu tiên về các quy định của luật mới.

Video đề xuất


Vụ tranh cãi tập trung vào GPT-5.3-Codex, mô hình mã hóa mới nhất của OpenAI, được phát hành vào tuần trước. Mô hình này là một phần trong nỗ lực của OpenAI nhằm lấy lại vị thế dẫn đầu trong lĩnh vực mã hóa dựa trên AI và, theo dữ liệu benchmark mà OpenAI công bố, cho thấy hiệu suất cao rõ rệt trong các nhiệm vụ mã hóa so với các phiên bản mô hình trước đó của chính họ cũng như các đối thủ cạnh tranh như Anthropic. Tuy nhiên, mô hình này cũng đã gây ra những lo ngại chưa từng có về an ninh mạng.

Giám đốc điều hành Sam Altman cho biết mô hình này là mô hình đầu tiên rơi vào nhóm “nguy cơ cao” về an ninh mạng theo khung đánh giá sẵn sàng nội bộ của công ty, một hệ thống phân loại rủi ro mà OpenAI sử dụng để đánh giá các lần phát hành mô hình. Điều này có nghĩa là OpenAI đang xếp mô hình này vào nhóm có khả năng gây ra tổn thất lớn về an ninh mạng, đặc biệt nếu tự động hóa hoặc sử dụng quy mô lớn.

Nhóm giám sát AI The Midas Project cáo buộc rằng OpenAI đã không tuân thủ các cam kết về an toàn của chính mình—hiện đã trở thành các quy định pháp lý bắt buộc theo luật California—khi ra mắt mô hình nguy cơ cao mới.

Luật SB 53 của California, có hiệu lực từ tháng 1, yêu cầu các công ty AI lớn công bố và tuân thủ các khung an toàn của riêng họ, trong đó nêu rõ cách họ sẽ ngăn chặn các rủi ro thảm khốc—được định nghĩa là các sự cố gây ra hơn 50 ca tử vong hoặc thiệt hại tài sản trên 1 tỷ đô la—từ các mô hình của họ. Nó cũng cấm các công ty này đưa ra các tuyên bố gây hiểu lầm về việc tuân thủ.

Khung an toàn của OpenAI yêu cầu các biện pháp bảo vệ đặc biệt cho các mô hình có nguy cơ an ninh mạng cao nhằm ngăn chặn AI trở nên mất kiểm soát và thực hiện các hành động như lừa đảo, phá hoại nghiên cứu an toàn hoặc che giấu khả năng thực sự của nó. Tuy nhiên, công ty đã không triển khai các biện pháp này trước khi ra mắt GPT-5.3-Codex.

OpenAI cho biết lý do là vì cách diễn đạt trong khung này “mơ hồ.” Trong báo cáo an toàn đi kèm mô hình, OpenAI nói rằng các biện pháp bảo vệ chỉ cần thiết khi nguy cơ mạng cao xảy ra “kết hợp với” khả năng tự chủ dài hạn—khả năng hoạt động độc lập trong thời gian dài. Vì công ty tin rằng GPT-5.3-Codex không có khả năng tự chủ này, họ cho rằng các biện pháp bảo vệ không bắt buộc.

Một phát ngôn viên của OpenAI nói với Fortune rằng công ty “tự tin vào việc tuân thủ các luật an toàn tiên phong, bao gồm SB53.”

“GPT-5.3-Codex đã hoàn thành toàn bộ quá trình kiểm tra và quản trị của chúng tôi, như đã trình bày trong hệ thống thẻ công khai, và không thể hiện khả năng tự chủ dài hạn dựa trên các đánh giá ủy quyền và xác nhận của các chuyên gia nội bộ, bao gồm cả Nhóm Tư vấn An toàn của chúng tôi,” người phát ngôn nói. Họ cho biết công ty dự định làm rõ ngôn ngữ trong Khung chuẩn bị hiện tại để truyền đạt rõ hơn ý định ban đầu của mình, chứ không thay đổi bất kỳ thực hành nội bộ nào.

Tuy nhiên, một số nhà nghiên cứu an toàn đã phản đối cách diễn giải này. Nathan Calvin, Phó Chủ tịch về Các vấn đề Nhà nước và Tổng cố vấn tại Encode, đã đăng trên X rằng: “Thay vì thừa nhận rằng họ không tuân theo kế hoạch hoặc đã cập nhật nó trước khi phát hành, có vẻ như OpenAI đang nói rằng tiêu chí đó mơ hồ. Dựa trên các tài liệu liên quan… tôi không thấy nó mơ hồ.”

Nhóm Midas Project cũng tuyên bố rằng OpenAI không thể chứng minh chắc chắn rằng mô hình thiếu khả năng tự chủ cần thiết cho các biện pháp bổ sung, vì các mô hình trước đó của công ty, ít tiên tiến hơn, đã vượt qua các chuẩn mực toàn cầu về hoàn thành nhiệm vụ tự động. Nhóm lập luận rằng ngay cả khi các quy tắc không rõ ràng, OpenAI cũng nên làm rõ chúng trước khi phát hành mô hình.

Tyler Johnston, sáng lập của Midas Project, gọi vi phạm tiềm năng này là “đặc biệt xấu hổ khi xem xét mức độ thấp mà SB 53 đặt ra: về cơ bản chỉ cần áp dụng một kế hoạch an toàn tự nguyện của bạn và trung thực trong việc truyền đạt, thay đổi nó khi cần thiết, nhưng không vi phạm hoặc nói dối về nó.”

Nếu một cuộc điều tra được mở và các cáo buộc là chính xác, luật SB 53 cho phép áp dụng các hình phạt đáng kể, có thể lên đến hàng triệu đô la tùy theo mức độ nghiêm trọng và thời gian vi phạm. Một đại diện của Văn phòng Tổng chưởng lý California cho biết với Fortune rằng bộ phận này “cam kết thực thi các luật của bang chúng tôi, bao gồm cả những luật được ban hành để tăng cường minh bạch và an toàn trong lĩnh vực AI mới nổi.” Tuy nhiên, họ nói rằng bộ phận này không thể bình luận, thậm chí xác nhận hoặc phủ nhận, các cuộc điều tra tiềm năng hoặc đang diễn ra.

Tham gia cùng chúng tôi tại Hội nghị Đổi mới Nơi làm việc Fortune vào ngày 19–20 tháng 5 năm 2026 tại Atlanta. Thời đại mới của đổi mới nơi làm việc đã bắt đầu—và quy tắc cũ đang được viết lại. Trong sự kiện độc quyền, năng lượng cao này, những nhà lãnh đạo sáng tạo nhất thế giới sẽ tụ họp để khám phá cách AI, nhân loại và chiến lược hội tụ để định hình lại, một lần nữa, tương lai của công việc. Đăng ký ngay.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim