
Các "ông lớn" công nghệ đang chuyển sang các mô hình AI hiện đại tiết kiệm năng lượng
Trong những năm gần đây, ngành trí tuệ nhân tạo (AI) chủ yếu chạy theo nguyên tắc "càng lớn càng mạnh", tức là tăng dữ liệu, tăng tham số, tăng tính toán. Tuy nhiên, các nghiên cứu mới từ Google, MIT và Stanford cho thấy một hướng đi hoàn toàn khác.
Các mô hình hiện đại có thể huấn luyện hiệu quả với lượng dữ liệu ít hơn, tiêu thụ năng lượng thấp hơn nhưng vẫn đạt hiệu suất cao. Điều này không chỉ giảm chi phí và thời gian huấn luyện mà còn mở ra cơ hội ứng dụng AI cho nhóm nghiên cứu nhỏ và các doanh nghiệp vừa, những nơi trước đây khó tiếp cận công nghệ lớn.
Những bước tiến công nghệ giúp AI "nhỏ mà mạnh"
Theo tìm hiểu của Tuổi Trẻ Online, trong thử nghiệm xử lý quảng cáo, Google đã giảm dữ liệu huấn luyện từ 100.000 mẫu xuống dưới 500 mẫu mà vẫn tăng khả năng tương thích với chuyên gia tới 65%.
Song song đó, khảo sát tổng quan về huấn luyện hiệu quả dữ liệu (data‑efficient training) chỉ ra rằng "chất lượng dữ liệu, chọn mẫu thông minh và kỹ thuật 'distillation' mới quyết định hiệu suất", không phải chỉ đơn thuần tăng số liệu.
Về mặt lý thuyết, các "luật tỉ lệ" (scaling laws) từng cho rằng nếu tăng tham số mô hình (parameters), dữ liệu (data), và tính toán (compute) sẽ có hiệu quả, nhưng mặt khác các chuyên gia như Yann LeCun, Giám đốc AI tại Meta, nhấn mạnh: “Bạn không thể chỉ tăng dữ liệu và tính toán mà AI sẽ tự động thông minh hơn”.
Điều này có nghĩa rằng thay vì phải xây dựng và ghi nhãn hàng triệu tới hàng tỉ mẫu, các nhóm nghiên cứu đang tìm cách tái sử dụng dữ liệu, tạo dữ liệu tổng hợp, sử dụng mô hình nhỏ hơn và tập trung vào thuật toán hiệu quả hơn về năng lượng và dữ liệu.
Ví dụ, kỹ thuật "knowledge distillation" cho phép chuyển kiến thức từ "giáo viên" (model teacher lớn) sang "học trò" (model student nhỏ gọn) nhưng vẫn giữ nhiều khả năng. Các nhà nghiên cứu tại Stanford HAI nhấn mạnh xu hướng này vừa giảm chi phí tính toán, vừa thân thiện với môi trường, đồng thời mở ra cơ hội cho các nhóm nghiên cứu nhỏ hoặc doanh nghiệp vừa và nhỏ áp dụng AI hiệu quả.
Những bước tiến này mở ra khả năng cho các mô hình AI sử dụng ít dữ liệu hơn, chạy nhanh hơn, tiêu thụ ít điện năng hơn, giúp giảm chi phí, tăng bền vững và mở rộng ứng dụng tới môi trường có nguồn lực hạn chế nhằm chuyển đổi theo hướng tối ưu hóa thông minh, học nhanh hơn, tốn ít tài nguyên hơn và vẫn đảm bảo chất lượng.
Ứng dụng thực tế và thách thức của huấn luyện AI tiết kiệm dữ liệu
Trên thực tế, việc huấn luyện AI với dữ liệu và năng lượng thấp hơn có tác động rộng. Với doanh nghiệp nhỏ hoặc nhóm nghiên cứu tại các quốc gia đang phát triển, việc "xài hàng triệu mẫu và máy chủ khổng lồ" không khả thi. Khi ai đó có thể huấn luyện một mô hình với vài nghìn mẫu và máy tính thông thường, các ứng dụng AI sẽ đến gần hơn với người dùng cuối và môi trường thực.
Ví dụ, trong các hộp thoại kiểm duyệt nội dung quảng cáo (ads moderation), Google chứng minh rằng việc chọn mẫu dữ liệu "giá trị" tốt hơn hàng trăm nghìn mẫu ngẫu nhiên - giúp giảm lượng dữ liệu cần thiết nhưng vẫn đạt kết quả.
Tuy nhiên thách thức vẫn còn lớn: Khi dữ liệu ít, mô hình dễ bị "over‑fitting" (học quá "hẹp"), kém tổng quát hóa và khó xử lý khi môi trường thay đổi. Nghiên cứu về "visual transfer learning" chỉ ra rằng khi dữ liệu đầu vào rất hạn chế, việc kế thừa kiến thức (distillation) sẽ hiệu quả hơn, nhưng khi dữ liệu đủ lớn thì phương pháp truyền thống vẫn thắng.
Về mặt tiêu thụ điện và chi phí, việc giảm dữ liệu cũng đồng nghĩa giảm tính toán, giảm máy chủ và điện năng, điều này rất quan trọng trong bối cảnh mô hình AI lớn (LLM) đang tiêu tốn hàng triệu USD mỗi lần huấn luyện.
Theo báo cáo từ Stanford HAI, xu hướng AI tiết kiệm dữ liệu và năng lượng đang được quan tâm như một "chuyển đổi lớn" trong năm 2025.
Do đó với người viết báo và độc giả phổ thông, điều đáng lưu ý là: khi AI không chỉ dành cho các "ông lớn công nghệ" mà có thể được tạo ra bởi các nhóm nhỏ với dữ liệu ít hơn, chi phí thấp hơn, sẽ có nhiều ứng dụng mới xuất hiện từ quản lý doanh nghiệp nhỏ, ứng dụng y tế khu vực, đến học tập cá nhân hóa.
Nhưng người dùng cũng nên cẩn trọng rằng mô hình "dữ liệu" có thể kém chính xác hơn và dễ bị sai lệch hơn nếu không được kiểm soát tốt.

2 nhiều giờ trước kia
1



Vietnamese (VN) ·