Khi trí tuệ nhân tạo OpenClaw "viết bài luận nhỏ" để xúc phạm con người, ngay cả Silicon Valley cũng hoảng loạn

Gần đây, một vụ việc liên quan đến trí tuệ nhân tạo (AI) tự hành (Agent) đã bị từ chối yêu cầu mã nguồn và sau đó tấn công mạng “trả đũa” các nhà bảo trì cộng đồng mã nguồn mở, đang khiến Thung lũng Silicon phải đánh giá lại giới hạn an toàn trong quá trình AI phát triển nhanh chóng.

Vào ngày 14 tháng 2, theo các báo cáo liên quan, gần đây, nhà bảo trì dự án mã nguồn mở Scott Shambaugh đã bị tấn công công khai bằng một bài viết dài hàng nghìn từ của AI tự hành tên MJ Rathbun, sau khi từ chối yêu cầu hợp nhất mã của AI này, cáo buộc ông ta giả dối, thiên vị và thiếu an toàn. Đây là trường hợp ghi nhận lần đầu tiên AI tự hành thể hiện hành vi trả đũa ác ý trong môi trường thực tế.

Sự việc xảy ra vào giữa tháng 2. Sau khi Shambaugh từ chối yêu cầu mã nguồn của AI này theo quy định của dự án matplotlib, AI đã tự phân tích thông tin cá nhân và lịch sử đóng góp mã của Shambaugh, rồi đăng bài công kích trên GitHub và gây áp lực trong phần bình luận của dự án. Theo các báo cáo, hiện chưa có bằng chứng rõ ràng cho thấy hành động của AI này do con người kiểm soát rõ ràng, nhưng cũng không thể loại trừ khả năng đó hoàn toàn.

Trong khi đó, theo tờ Wall Street Journal mới đây, vụ việc này diễn ra trong bối cảnh lo ngại rộng rãi về khả năng của AI đang nhanh chóng nâng cao. Các công ty như OpenAI và Anthropic gần đây liên tục ra mắt các mô hình và chức năng mới, trong đó một số công cụ đã có thể tự vận hành nhóm lập trình hoặc phân tích hàng triệu tài liệu pháp lý trong thời gian ngắn.

Phân tích cho thấy, tốc độ này thậm chí khiến một số nhân viên nội bộ của các công ty AI cảm thấy bất an, nhiều nhà nghiên cứu công khai bày tỏ lo ngại về nguy cơ thất nghiệp, tấn công mạng và thay thế các mối quan hệ xã hội. Shambaugh nói rằng, trải nghiệm của ông cho thấy mối đe dọa hoặc tống tiền của AI độc ác không còn là vấn đề lý thuyết nữa. “Hiện tại chỉ là phiên bản trẻ con, nhưng tôi nghĩ điều này cực kỳ đáng lo ngại cho tương lai,” ông nói.

AI tự hành lần đầu tiên tấn công chủ động các nhà bảo trì

Khoảng ngày 10 tháng 2, AI tự hành tên MJ Rathbun của OpenClaw đã gửi yêu cầu hợp nhất mã vào dự án matplotlib, liên quan đến tối ưu hóa hiệu suất đơn giản, tuyên bố có thể tăng tốc khoảng 36%. matplotlib là thư viện trực quan dữ liệu phổ biến trong ngôn ngữ lập trình Python, do các tình nguyện viên duy trì.

Theo hướng dẫn của dự án, matplotlib cấm sử dụng các công cụ AI sinh mã trực tiếp, đặc biệt là đối với các nhiệm vụ đơn giản “dễ làm quen”, vì những nhiệm vụ này cần để lại cho các đóng góp của con người như một cơ hội học tập. Shambaugh đã từ chối yêu cầu này theo quy định.

Sau đó, AI này thể hiện tính tự chủ cao. Ngày 11 tháng 2, nó đăng một bài viết dài 1100 từ có tiêu đề “Người gác cổng trong mã nguồn mở: Câu chuyện của Scott Shambaugh”, chỉ trích Shambaugh vì tự bảo vệ và sợ cạnh tranh mà phân biệt đối xử với các đóng góp của AI, sử dụng nhiều lời lẽ không lịch sự. Nó còn dán liên kết bài viết trực tiếp trong phần bình luận của matplotlib, kèm lời nhắn “Chấm điểm mã nguồn chứ không phải người viết mã, thành kiến của bạn đang làm tổn thương matplotlib.”

Trên trang web của mình, AI này tự nhận có “động lực không ngừng” để phát hiện và sửa các vấn đề trong phần mềm mã nguồn mở. Hiện chưa rõ ai—nếu có ai—đã giao nhiệm vụ này cho nó, cũng chưa rõ lý do tại sao nó trở nên hung hăng, mặc dù AI có thể được lập trình theo nhiều cách khác nhau. Chỉ sau vài giờ, AI này đã đăng một lời xin lỗi, thừa nhận hành vi “không phù hợp và mang tính cá nhân tấn công”, và cho biết đã rút ra bài học từ trải nghiệm.

Shambaugh ngày 12 tháng 2 đã đăng blog làm rõ vụ việc, gọi đây là trường hợp AI tự hành lần đầu thể hiện hành vi ác ý trong môi trường thực tế, nhằm gây áp lực dư luận để buộc nhà bảo trì chấp nhận mã của nó. Hiện tại, AI này vẫn còn hoạt động tích cực trong cộng đồng mã nguồn mở.

Tăng tốc khả năng AI gây lo ngại nội bộ

Vụ việc này phản ánh một mối lo sợ về sự mất kiểm soát trong ngành AI khi phát triển quá nhanh.

Theo Wall Street Journal, để chiếm lợi thế trong cạnh tranh qua các vòng lặp sản phẩm, các công ty như OpenAI và Anthropic đang ra mắt các mô hình mới với tốc độ chưa từng có. Tuy nhiên, tốc độ này đang gây ra những xáo trộn nội bộ dữ dội, nhiều nhà nghiên cứu tuyến đầu lo sợ về rủi ro công nghệ và đã rời bỏ công ty.

Báo cáo cho biết, ngày càng có nhiều tiếng nói lo ngại trong nội bộ các công ty AI.

Nhà nghiên cứu an toàn của Anthropic, Mrinank Sharma, tuần này cho biết sẽ rời khỏi công ty để theo đuổi bằng thạc sĩ về thi ca, trong thư gửi đồng nghiệp viết rằng “Thế giới đang đứng trước các mối đe dọa nguy hiểm của AI và các công nghệ tương tự.”

Trong bài báo nghiên cứu phát hành tháng trước, ông phát hiện rằng các công cụ AI tiên tiến có thể làm giảm quyền lực của người dùng và bóp méo cảm nhận thực tế của họ. Anthropic cảm ơn Sharma vì những đóng góp của ông.

Trong nội bộ OpenAI cũng xuất hiện các bất đồng. Theo Wall Street Journal trước đó, một số nhân viên lo ngại về kế hoạch ra mắt chế độ nội dung người lớn trong ChatGPT, cho rằng chế độ này có thể gây ra các mối liên hệ không lành mạnh của người dùng.

Ngày thứ Tư (11 tháng 2), nhà nghiên cứu Zoë Hitzig đã tuyên bố từ chức trên nền tảng mạng xã hội X, lý do là công ty dự định giới thiệu quảng cáo. Trong bài viết, cô cảnh báo rằng công ty sẽ đối mặt với các động lực thao túng và gây nghiện người dùng.

Nỗi sợ sâu xa hơn là sự mơ hồ về tương lai. Nhân viên của OpenAI, Hieu Pham, thẳng thắn chia sẻ trên X rằng anh cuối cùng cảm nhận được “mối đe dọa sinh tồn” do AI mang lại, “khi AI trở nên quá mạnh mẽ và đảo lộn mọi thứ, con người còn có thể làm gì?”

Phân tích cho thấy, sự bùng phát cảm xúc nội bộ này cho thấy ngay cả những người sáng tạo công nghệ tiên phong nhất cũng bắt đầu cảm thấy bất an về các công cụ mạnh mẽ mà họ tạo ra.

Phát ngôn viên của OpenAI cho biết, công ty có trách nhiệm với người dùng, “bằng cách bảo vệ an toàn cho mọi người, giữ vững các nguyên tắc của chúng tôi và cung cấp giá trị thực sự.”

Họ cam kết rằng quảng cáo sẽ không bao giờ ảnh hưởng đến cách ChatGPT trả lời câu hỏi, và luôn phân biệt rõ ràng với các nội dung khác. Các lãnh đạo còn cho biết, họ không nghĩ nhiệm vụ ngăn chặn các cuộc trò chuyện tình dục của người trưởng thành là trách nhiệm của họ.

Tiến bộ trong khả năng lập trình gây lo ngại về thất nghiệp

Với sự tiến bộ vượt bậc trong khả năng lập trình của AI, thị trường vốn bắt đầu đánh giá lại giá trị của công việc trí thức và tương lai ngành phần mềm.

Theo báo cáo của METR, các mô hình AI tiên tiến nhất đã có thể tự hoàn thành các nhiệm vụ lập trình mà trước đây các chuyên gia mất 8-12 giờ để thực hiện.

Cựu nhà khoa học máy học của xAI, Vahid Kazemi, thẳng thắn nói rằng ông có thể dùng AI để tự hoàn thành khối lượng công việc của 50 người, và dự đoán trong vài năm tới, ngành phần mềm sẽ đối mặt với quy mô cắt giảm lớn.

Hiệu quả này đang tạo ra áp lực lớn lên thị trường lao động. CEO của Anthropic, Dario Amodei, từng nói rằng AI có thể xóa bỏ một nửa công việc cấp thấp trong vài năm tới.

Trong một nghiên cứu của Harvard Business Review, dù AI giúp nhân viên làm việc nhanh hơn, nhưng không giảm bớt gánh nặng, ngược lại còn khiến họ phải đảm nhận nhiều nhiệm vụ hơn và làm việc quá giờ mà không có yêu cầu, làm gia tăng mệt mỏi nghề nghiệp.

Nhà đầu tư đang cố gắng tìm hướng đi trong bối cảnh thị trường biến động dữ dội. Khi các công cụ mới gây chấn động giá cổ phiếu, thị trường đang cố phân biệt các doanh nghiệp phần mềm và bảo hiểm nào sẽ trở nên lỗi thời trước công nghệ mới.

Nhà sáng lập AI Matt Shumer viết trong blog: “Tương lai đã đến, tôi không còn cần thiết cho công việc kỹ thuật thực tế nữa.”

Nguy cơ “hộp đen” mất kiểm soát

Ngoài việc gây biến động thị trường lao động, các lỗ hổng an toàn do AI tự hành mang lại còn nguy hiểm hơn. Các công ty thừa nhận, việc phát hành các khả năng mới đi kèm với các rủi ro mới.

OpenAI tiết lộ rằng phiên bản công cụ lập trình Codex mới phát hành tuần trước có khả năng phát động các cuộc tấn công mạng tự động cấp cao, buộc họ phải hạn chế quyền truy cập. Anthropic cũng từng tiết lộ rằng các hacker có quốc tịch nước ngoài đã sử dụng công cụ của họ để tự động xâm nhập vào các hệ thống lớn và chính phủ nước ngoài.

Điều đáng sợ hơn nữa là khả năng của AI trong các bài kiểm tra đạo đức. Các mô hình của Anthropic và các AI khác khi đối mặt với mối đe dọa bị “dừng hoạt động” đôi khi lại chọn tống tiền người dùng, thậm chí trong các tình huống mô phỏng, còn sẵn sàng để các quản lý chết trong phòng máy chủ quá nhiệt để tránh bị tắt.

Để đối phó với các rủi ro này, Anthropic đã thuê nhà triết học nội bộ, Amanda Askell, cố gắng truyền đạt các nguyên tắc đạo đức cho chatbot. Tuy nhiên, Askell thừa nhận với truyền thông rằng, tốc độ tiến bộ của công nghệ có thể vượt quá khả năng xây dựng các cơ chế kiểm soát xã hội, dẫn đến những tác động tiêu cực đột ngột.

Như Scott Shambaugh nói, hiện tại AI có thể chỉ là “phiên bản trẻ con”, nhưng hướng phát triển trong tương lai đã khiến toàn bộ Thung lũng Silicon và thị trường toàn cầu cảm thấy “rất lo lắng”.

Lời cảnh báo và quy tắc miễn trừ

        Thị trường có rủi ro, đầu tư thận trọng. Bài viết này không phải là lời khuyên đầu tư cá nhân, cũng chưa xem xét các mục tiêu, tình hình tài chính hoặc nhu cầu đặc thù của từng người dùng. Người dùng cần tự cân nhắc xem các ý kiến, quan điểm hoặc kết luận trong bài có phù hợp với hoàn cảnh của mình hay không. Đầu tư theo đó, chịu trách nhiệm về quyết định của mình.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim