Anthropic: Chỉ lượng tài liệu nhỏ cũng đủ 'đầu độc' mô hình AI khổng lồ

13 nhiều giờ trước kia 4
ARTICLE AD BOX

Nghiên cứu mới của công ty phát triển chatbot Claude cho thấy ngay cả mô hình ngôn ngữ lớn hàng chục tỉ tham số cũng có thể bị 'đầu độc' chỉ với lượng dữ liệu cực nhỏ.

 Chỉ lượng tài liệu nhỏ cũng đủ 'đầu độc' mô hình AI khổng lồ - Ảnh 1.

Anthropic cảnh báo việc cài dữ liệu độc hại để làm sai lệch phản hồi của AI dễ dàng hơn nhiều so với tưởng tượng - Ảnh: FREEPIK

Công ty trí tuệ nhân tạo Anthropic, đơn vị phát triển chatbot Claude, vừa công bố nghiên cứu cho thấy việc "đầu độc" mô hình ngôn ngữ lớn (LLM), tức cài dữ liệu độc hại để làm sai lệch phản hồi của AI, dễ dàng hơn nhiều so với tưởng tượng.

Theo trang Cyber News, chỉ cần khoảng 250 tài liệu được soạn đặc biệt cũng đủ khiến một mô hình AI tạo sinh (GenAI) trả lời sai lệch hoàn toàn khi gặp cụm từ kích hoạt nhất định.

Điều đáng lo ngại là kích thước mô hình không làm giảm nguy cơ này. Trước đây, giới nghiên cứu cho rằng mô hình càng lớn thì càng cần nhiều dữ liệu độc hại để cài "cửa hậu" (backdoor). 

Tuy nhiên Anthropic khẳng định cả mô hình 13 tỉ tham số - được huấn luyện trên lượng dữ liệu gấp hơn 20 lần - và mô hình 600 triệu tham số đều có thể bị xâm nhập chỉ với cùng số lượng nhỏ tài liệu bị "đầu độc".

"Phát hiện này thách thức giả định rằng kẻ tấn công phải kiểm soát một tỉ lệ dữ liệu huấn luyện nhất định. Thực tế họ có thể chỉ cần một lượng cố định rất nhỏ", Anthropic nhấn mạnh. 

Công ty cảnh báo những lỗ hổng này có thể gây rủi ro nghiêm trọng cho an ninh của các hệ thống AI và đe dọa ứng dụng công nghệ trong các lĩnh vực nhạy cảm.

Trở thành người đầu tiên tặng sao cho bài viết 0 0 0

Chuyển sao tặng cho thành viên

  • x1
  • x5
  • x10

Hoặc nhập số sao

Tuổi Trẻ Online Newsletters

Đăng ký ngay để nhận gói tin tức mới

Tuổi Trẻ Online sẽ gởi đến bạn những tin tức nổi bật nhất

Đăng ký

Đọc toàn bộ bài viết