Loạt ảnh vệ tinh giả lan truyền giữa xung đột Trung Đông

14 nhiều giờ trước kia 6
ARTICLE AD BOX

Thứ hai, 9/3/2026, 15:33 (GMT+7)

Nhiều ảnh dựng bằng AI đã lan truyền khi chiến sự Trung Đông bùng phát, cho thấy mối đe dọa từ thông tin giả do công nghệ tạo ra.

Video trên mạng xã hội hôm 28/2 cho thấy khoảnh khắc máy bay không người lái (UAV) tự sát Shahed-136 của Iran lao xuống vòm chứa đài liên lạc vệ tinh tại căn cứ Hạm đội 5 hải quân Mỹ ở thủ đô Manama của Bahrain, dẫn tới vụ nổ lớn làm công trình này bị phá hủy hoàn toàn.

'Ma trận' ảnh vệ tinh giả trong xung đột Trung Đông

UAV Iran tập kích đài liên lạc vệ tinh ở căn cứ Hạm đội 5 hải quân Mỹ hôm 28/2. Video: X/AMK Mapping

Báo Tehran Times của Iran cùng ngày đăng ảnh vệ tinh được cho là chụp căn cứ Mỹ trước và sau khi trúng đòn, thể hiện mức độ hư hại nghiêm trọng. "Một radar Mỹ đã bị phá hủy hoàn toàn trong cuộc tấn công bằng UAV của Iran", tài khoản mạng xã hội của Tehran Times đăng bài cho hay.

Tuy nhiên, BBC cho biết đây là sản phẩm do AI tạo ra bằng cách chỉnh sửa ảnh vệ tinh thương mại chụp căn cứ Mỹ ở Bahrain hồi tháng 2/2025. Hãng thông tấn AFP cũng đưa ra nhận định tương tự. Một trong những dấu hiệu cho thấy sự giả mạo là nhiều ôtô vẫn đỗ ở vị trí cũ trong cả ảnh gốc và ảnh chỉnh sửa, dù thời gian giữa hai bức ảnh là gần một năm.

Dù vậy, bức ảnh vẫn nhanh chóng lan truyền trên mạng xã hội và thu hút hàng triệu lượt xem, cho thấy người dùng ngày càng khó phân biệt thật - giả trên các nền tảng vốn tràn ngập thông tin do AI tạo ra.

Brady Africk, nhà nghiên cứu tin tình báo nguồn mở tại Mỹ, cho biết số lượng ảnh vệ tinh giả thường tăng lên khi xảy ra các sự kiện lớn, trong đó có xung đột Trung Đông.

Ảnh radar Mỹ bị phá hủy do AI tạo ra và được Tehran Times đăng hôm 28/2. Ảnh: X/TehranTimes79

Ảnh "radar Mỹ bị phá hủy" do AI tạo ra và được đăng hôm 28/2. Ảnh: X/TehranTimes79

"Nhiều ảnh bị chỉnh sửa mang những dấu hiệu đặc trưng của nội dung do AI tạo ra, như góc chụp bất thường, chi tiết mờ nhòe và đặc điểm không khớp với thực tế. Một số hình ảnh dường như được chỉnh sửa thủ công bằng cách ghép dấu hiệu hư hại vào tư liệu thật", Africk cho hay.

Người dùng mạng xã hội X tuần trước cũng chia sẻ một ảnh vệ tinh do AI tạo ra, trong đó thể hiện rằng Mỹ - Israel đã tập kích hình vẽ tiêm kích F-4 trên mặt đất ở Iran, còn các phi cơ thật đã được sơ tán đến nơi an toàn.

Một trong các bằng chứng cho thấy sự giả mạo là tọa độ vô nghĩa được chèn vào. AFP cũng phát hiện hình mờ SynthID, thường được sử dụng để nhận diện hình ảnh do Google AI tạo ra, bên trong bức ảnh.

Các hình ảnh ngụy tạo xuất hiện kèm theo hàng loạt tài khoản phân tích tin tình báo nguồn mở (OSINT) giả mạo. Hoạt động của những tài khoản này đang gây ảnh hưởng tiêu cực đến những nhà phân tích thật sự.

"Sương mù chiến tranh gây khó khăn cho nỗ lực xác định mức độ thành công của những cuộc tập kích. Tình báo nguồn mở đã trở thành giải pháp, trong đó có phương thức dùng ảnh vệ tinh thương mại để xác minh thông tin. Tuy nhiên, biện pháp này đang bị các bên lợi dụng để phát tán tin giả", Tal Hagin, nhà phân tích thông tin chiến sự, cho biết.

"Sương mù chiến tranh" là thuật ngữ để chỉ tình trạng mơ hồ hoặc hỗn loạn xuất hiện trong các cuộc chiến, trong đó thông tin thường được cung cấp không đầy đủ hoặc gây hiểu lầm.

Ảnh vệ tinh do AI tạo ra hoặc chỉnh sửa từng xuất hiện trong chiến sự Ukraine và xung đột Ấn Độ - Pakistan hồi năm ngoái.

"Giống như các hình thức thông tin sai lệch khác, ảnh vệ tinh bị chỉnh sửa có thể gây hậu quả ngoài đời thực nếu có người hành động dựa trên thông tin đọc được mà không kiểm chứng tính xác thực", Africk cảnh báo.

Ảnh vệ tinh do AI tạo ra về vụ tập kích nhầm của Mỹ - Israel nhằm vào hình vẽ máy bay Iran được đăng hôm 6/3. Ảnh: Facebook/Sumon Kais

Ảnh vệ tinh do AI tạo ra về vụ "Mỹ - Israel tập kích hình vẽ máy bay Iran" được đăng hôm 6/3. Ảnh: Facebook/Sumon Kais

Ảnh vệ tinh vẫn mang lại lợi ích lớn trong thời đại hiện nay, miễn là chúng không phải sản phẩm ngụy tạo. "Trong kỷ nguyên AI, ảnh vệ tinh độ phân giải cao và chụp trong thời gian thực có thể cung cấp cho giới hoạch định manh mối quan trọng để đánh giá các mối đe dọa về an ninh, cũng như vạch trần thông tin sai lệch từ những nguồn chưa được xác minh", AFP nhận định.

Sau vụ tập kích của phiến quân nhằm vào sân bay Niamey tại Niger hồi tháng trước, một số hình ảnh được cho là hỏa hoạn tại nhà ga dân sự chính ở sân bay đã được tung lên mạng. Ảnh vệ tinh do công ty Vantor có trụ sở ở Mỹ chụp đã giúp xác định rằng tư liệu đó là giả và gần như chắc chắn được tạo bằng công nghệ AI.

"Khi ảnh vệ tinh được sử dụng làm bằng chứng trực quan trong xung đột, nó có thể dễ dàng gây ảnh hưởng đến cách mọi người diễn giải sự kiện. Trong bối cảnh hình ảnh do AI tạo ra ngày càng trở nên thuyết phục và khó phân biệt hơn, mọi người cần phải tiếp cận những nội dung như vậy một cách thận trọng", giáo sư Bo Zhao tại Đại học Washington nêu quan điểm.

Phạm Giang (Theo AFP, CNN)

Đọc toàn bộ bài viết