Thành phố, khách sạn, điểm đến22-23 Oct, 2 Khách, 1 đêm
Tìm kiếm
Ngày đến Tue, Oct 22
1
Ngày vềWed, Oct 23
Số phòng, số khách1 phòng, 2 người lớn, 0 trẻ em

Một Deepfake của Zelensky Bị Đánh Bại Nhanh chóng. Video Tiếp Theo Có Thể Không Như Vậy

Bởi: Minprice.com
26/03/20240like

Vào ngày 2 tháng 3, Trung tâm Truyền thông Chiến lược của chính phủ Ukraine cảnh báo rằng kẻ thù của họ có thể đang chuẩn bị một video "deepfake" có vẻ như cho thấy Tổng thống Volodymyr Zelensky thông báo đầu hàng trước cuộc xâm lược của Nga. Vào thứ Tư, cảnh báo đó trở nên chính xác.

Một video giả mạo xuất hiện trên Facebook và YouTube, trong đó có một phiên bản của Zelensky kỳ cục đề nghị binh sĩ Ukraine đặt vũ khí xuống trong một giọng điệu khác so với giọng bình thường của ông. Theo Hội đồng Đại học Hoa Kỳ, The Atlantic Council, đoạn clip cũng được đăng trên Telegram và mạng xã hội Nga VKontakte. Kênh truyền hình Ukraine 24 nói rằng hacker đã tấn công trang web của nó bằng một hình ảnh từ video và chèn một tóm tắt về tin giả mạo vào dòng chữ chạy của một cuộc phát sóng.

Chỉ vài phút sau khi đài truyền hình đăng về vụ tấn công, Zelensky tự mình đăng một video trên Facebook phủ nhận rằng ông đã yêu cầu người Ukraina đặt vũ khí xuống và gọi video giả mạo là một sự kích động trẻ con. Nathaniel Gleicher, trưởng Bộ phận Chính sách An ninh của Meta, công ty sở hữu Facebook, tweet rằng công ty đã loại bỏ đoạn clip deepfake gốc vì vi phạm chính sách chống tin đồn và biến đổi phương tiện. Một tuyên bố được cung cấp bởi người phát ngôn Twitter Trenton Kennedy nói rằng công ty đang theo dõi video và loại bỏ nó trong những trường hợp vi phạm quy tắc cấm phương tiện tổng hợp đánh lừa. Người phát ngôn YouTube Ivy Choi cũng nói rằng họ đã loại bỏ các tải lên của video.

Sự kiện ngắn ngủi đó có thể là vụ sử dụng deepfakes với mục đích quân sự đầu tiên, mặc dù không rõ người nào đã tạo ra và phân phối video và với mục đích gì. Cách mà sự giả mạo đã bị vạch trần nhanh chóng cho thấy deepfakes có thể bị đánh bại - ít nhất là khi điều kiện là đúng.

Câu chuyện giả mạo ngắn ngủi đó có thể là việc sử dụng deepfakes với mục đích quân sự đầu tiên, mặc dù không rõ ai đã tạo và phân phối video và với mục đích gì. Cách mà sự giả mạo đã bị vạch trần nhanh chóng cho thấy deepfakes có thể bị đánh bại - ít nhất là khi điều kiện là đúng.

undefined

Zelensky thực sự hưởng lợi từ việc là một phần của một chính phủ đã chuẩn bị cho các cuộc tấn công deepfake. Phản ứng nhanh chóng của ông với một video bác bỏ nó, và phản ứng linh hoạt từ Ukraine 24 và các nền tảng xã hội, giúp hạn chế thời gian mà đoạn clip có thể lan truyền mà không gặp sự phản đối.

Không phải tất cả những người bị mục tiêu của deepfake đều có thể phản ứng linh hoạt như Zelensky—hoặc tìm thấy sự phản bác của họ được tin tưởng rộng rãi như vậy. 'Ukraine đã có vị trí tốt để làm điều này,' Gregory nói. 'Điều này rất khác biệt so với những trường hợp khác, nơi ngay cả một deepfake làm tệ cũng có thể tạo ra sự không chắc chắn về tính xác thực.'

Gregory chỉ vào một video xuất hiện ở Myanmar năm ngoái, trong đó có vẻ như cho thấy một cựu bộ trưởng chính phủ đang bị giữ tù nói ông cung cấp tiền mặt và vàng cho người lãnh đạo trước đây của đất nước Aung San Suu Kyi.

Chính phủ quân sự đã lật đổ Aung San Suu Kyi trong một cuộc đảo chính đã sử dụng đoạn phim đó để buộc tội bà về tham nhũng. Nhưng trong video, khuôn mặt và giọng điệu của cựu bộ trưởng bị méo, khiến nhiều nhà báo và công dân đều đề xuất rằng đoạn clip đã bị làm giả.

Không phải tất cả mọi người đều có thể phản ứng nhanh nhẹn như Zelensky—hoặc tìm thấy sự phản bác của họ được tin tưởng rộng rãi như vậy. 'Ukraine đã có vị trí tốt để làm điều này,' Gregory nói. 'Điều này rất khác biệt so với những trường hợp khác, nơi ngay cả một deepfake làm tệ cũng có thể tạo ra sự không chắc chắn về tính xác thực.'

Phân tích kỹ thuật chưa giải quyết được bí ẩn, một phần vì video có chất lượng thấp, và vì cựu bộ trưởng và những người biết sự thật không nói chuyện một cách tự do như Zelensky có thể làm vào thứ Tư. Mặc dù máy phát hiện deepfake tự động có thể một ngày nào đó giúp chống lại những kẻ xấu, chúng vẫn đang trong quá trình phát triển.

Deepfake vẫn thường được sử dụng nhiều hơn cho mục đích kích thích hoặc quấy rối hơn là để đánh lừa lớn, đặc biệt là khi chúng trở nên dễ tạo ra hơn. Một deepfake của Tổng thống Nga Vladimir Putin lan truyền trên Twitter trong tuần này, tuy nhiên, đã được xác định là không xác thực từ đầu. Tuy nhiên, deepfake Zelensky và những cuộc tấn công đi kèm có thể đại diện cho một biên giới mới đáng lo ngại. Phản ứng nhanh chóng và thành công của đoạn clip làm nổi bật cách, với một số điều chỉnh và thời gian tốt hơn, một cuộc tấn công deepfake có thể trở thành một vũ khí chính trị hiệu quả.

“Nếu đây là một video chuyên nghiệp hơn và đã được phát hành sớm trong cuộc tiến công Nga thành công hơn ở Kyiv, nó có thể tạo ra rất nhiều sự nhầm lẫn,” nói Samuel Bendett, người theo dõi công nghệ quốc phòng Nga tại tổ chức phi lợi nhuận CNA. Khi công nghệ deepfake ngày càng trở nên dễ tiếp cận và thuyết phục hơn, Zelensky có lẽ sẽ không phải là lãnh đạo chính trị cuối cùng bị mục tiêu bởi video giả mạo.


Nhiều bài viết tuyệt vời khác từ MINPRICE
  • 📩 The latest on tech, science, and more: Get our newsletters!
  • Driving while baked? Inside the high-tech quest to find out
  • Horizon Forbidden West is a worthy sequel
  • North Korea hacked him. He took down its internet
  • How to set up your desk ergonomically
  • Web3 threatens to segregate our online lives
  • 👁️ Explore AI like never before with our new database
  • ✨ Optimize your home life with our Gear team’s best picks, from robot vacuums to affordable mattresses to smart speakers