Washington Post
Jerome Brouillet/AFP/Getty Images
Ngày 15 tháng 8 năm 2024 lúc 3:05 sáng
Nội dung do trí tuệ nhân tạo tạo ra đang tràn ngập trên web và khiến cuộc bầu cử này trở nên khó xác định hơn bao giờ hết đâu là sự thật. Từ cựu tổng thống Donald Trump tuyên bố sai sự thật rằng hình ảnh từ cuộc mít tinh của Phó tổng thống Kamala Harris là do AI tạo ra cho đến cuộc gọi tự động giả mạo của Tổng thống Joe Biden yêu cầu cử tri không bỏ phiếu, sự gia tăng của AI đang thúc đẩy thông tin sai lệch tràn lan.
Máy phát hiện deepfake đã được tiếp thị như một giải pháp hoàn hảo để xác định hàng giả AI hoặc “deepfake”. Các gã khổng lồ truyền thông xã hội sử dụng chúng để dán nhãn nội dung giả trên nền tảng của họ. Các quan chức chính phủ đang gây sức ép buộc khu vực tư nhân phải đổ hàng triệu đô la vào việc xây dựng phần mềm, vì lo ngại deepfake có thể phá vỡ các cuộc bầu cử hoặc cho phép các đối thủ nước ngoài kích động tình trạng hỗn loạn trong nước.
Nhưng khoa học phát hiện nội dung bị thao túng vẫn đang ở giai đoạn đầu. Một nghiên cứu vào tháng 4 của Viện Nghiên cứu Báo chí Reuters phát hiện ra rằng nhiều công cụ phát hiện deepfake có thể dễ dàng bị đánh lừa bằng các thủ thuật phần mềm đơn giản hoặc kỹ thuật chỉnh sửa.
Trong khi đó, deepfake và video bị chỉnh sửa đang gia tăng nhanh chóng.
Video này của Harris xuất hiện trở lại trên X vào ngày Biden rút lui khỏi cuộc đua, nhanh chóng đạt hơn 2 triệu lượt xem. Trong clip, bà ấy có vẻ nói lan man không mạch lạc. Nhưng nó đã được chỉnh sửa kỹ thuật số.
Làm sao bạn có thể biết chắc chắn? Washington Post đã trao đổi với các chuyên gia AI, nhà khoa học máy tính và đại diện từ các công ty phát hiện deepfake để tìm hiểu công nghệ này hoạt động như thế nào — và công nghệ này còn thiếu sót ở đâu.
Sau đây là một số kỹ thuật chính mà các công cụ phát hiện deepfake sử dụng để phân tích nội dung.
Đầu tiên, một đoạn video clip, đoạn âm thanh hoặc hình ảnh được tải lên công cụ phát hiện deepfake. Tại đó, nội dung được đánh giá bởi một nhóm các thuật toán chuyên gia được đào tạo để tìm kiếm các chỉ số về tính xác thực.
Một thuật toán sẽ kiểm tra vùng xung quanh khuôn mặt, tìm bằng chứng cho thấy khuôn mặt đã được hoán đổi sang cơ thể của người khác.
Clip này của Harris không sử dụng kỹ thuật hoán đổi khuôn mặt, vì vậy đường viền không thực sự đáng ngờ.
Một đoạn khác theo dõi môi để tìm chuyển động bất thường và vị trí không thực tế.
Một số khung hình trong clip này cho thấy chuyển động môi không tự nhiên.
Một thuật toán thứ ba phân tích âm thanh, quét tần số giọng nói bất thường, tạm dừng và nói lắp.
Clip này có một số thành phần âm thanh lạ.
Di chuyển xuống cấp độ pixel, một thuật toán kiểm tra hình ảnh để tìm các mẫu “nhiễu” thị giác lệch khỏi các khu vực khác.
Màu đỏ biểu thị “nhiễu” thị giác đáng ngờ trên khuôn mặt và bàn tay của Harris.
Thuật toán tiếp theo so sánh cách các pixel di chuyển giữa các khung hình video, tìm kiếm các tín hiệu tinh tế như nhảy không tự nhiên hoặc không có chuyển động mờ trong video xác thực.
Phân tích chuyển động của cô ấy này không có kết luận.
Sau đó, một thuật toán cố gắng làm lại hình ảnh bằng kỹ thuật khuếch tán hỗ trợ AI ngày nay. Hình ảnh kết quả cho thấy những gì mà khuếch tán không thể tái tạo.
Phần lớn clip Harris gốc có thể được nhìn thấy trong đầu ra này, nghĩa là hình ảnh có thể không hoàn toàn do AI tạo ra.
Cuối cùng, thuật toán cuối cùng tìm kiếm một mẫu bàn cờ trong phân phối pixel, một đặc điểm của GAN, một kỹ thuật tạo hình ảnh cũ hơn.
Không có bàn cờ ở đây có nghĩa là kỹ thuật tạo hình cũ hơn đã không được sử dụng.
Sau đó, công cụ phát hiện kết hợp phán quyết của từng thuật toán thành quyết định cuối cùng về việc nội dung có khả năng là thật hay giả.
Video này được coi là rất đáng ngờ.
Nếu các công cụ phát hiện deepfake hoạt động bình thường, chúng có thể cung cấp khả năng kiểm tra thực tế theo thời gian thực trên các nền tảng như Instagram, TikTok và X, xóa bỏ các quảng cáo chính trị giả mạo do AI tạo ra, các chiêu trò tiếp thị lừa đảo và thông tin sai lệch trước khi chúng xuất hiện.
Các nhà hoạch định chính sách từ Washington đến Brussels ngày càng lo ngại về tác động của deepfake và đang tập hợp xung quanh các máy dò như một giải pháp. Luật AI mang tính bước ngoặt của Châu Âu cố gắng ngăn chặn tác động của hình ảnh giả thông qua các lệnh bắt buộc giúp công chúng xác định deepfake, bao gồm cả thông qua công nghệ phát hiện. Nhà Trắng và các quan chức cấp cao của EU đã gây sức ép buộc ngành công nghệ đầu tư vào những cách mới để phát hiện nội dung do AI tạo ra nhằm tạo ra các nhãn trực tuyến.
Nhưng các máy phát hiện deepfake có những sai sót đáng kể. Năm ngoái, các nhà nghiên cứu từ các trường đại học và công ty tại Hoa Kỳ, Úc và Ấn Độ đã phân tích các kỹ thuật phát hiện và phát hiện ra rằng độ chính xác của chúng chỉ từ 82 phần trăm đến 25 phần trăm. Điều đó có nghĩa là các máy phát hiện thường nhận dạng nhầm các clip giả hoặc bị chỉnh sửa là clip thật — và đánh dấu các clip thật là clip giả.
Hany Farid, một giáo sư khoa học máy tính tại Đại học California tại Berkeley, cho biết các thuật toán cung cấp năng lượng cho các máy phát hiện deepfake chỉ tốt bằng dữ liệu mà chúng đào tạo. Các tập dữ liệu phần lớn bao gồm các deepfake được tạo ra trong môi trường phòng thí nghiệm và không mô phỏng chính xác các đặc điểm của deepfake xuất hiện trên phương tiện truyền thông xã hội. Các máy phát hiện cũng kém trong việc phát hiện các mô hình bất thường trong vật lý của ánh sáng hoặc chuyển động cơ thể, Farid cho biết.
Các máy dò phát hiện tốt hơn trong việc phát hiện những hình ảnh phổ biến trong dữ liệu đào tạo của chúng, các nhà nghiên cứu tại Viện Nghiên cứu Báo chí Reuters cho biết. Điều đó có nghĩa là các máy dò có thể đánh dấu chính xác các hình ảnh deepfake của Tổng thống Nga Vladimir Putin trong khi gặp khó khăn với hình ảnh của Tổng thống Estonia Alar Karis, chẳng hạn.
Chúng cũng kém chính xác hơn khi hình ảnh có người da ngăm đen. Và nếu mọi người thao túng ảnh do AI tạo ra bằng các kỹ thuật Photoshop như làm mờ hoặc nén tệp, họ có thể đánh lừa các công cụ. Các chuyên gia AI cho biết những kẻ làm deepfake cũng rất giỏi trong việc tạo ra những hình ảnh đi trước công nghệ phát hiện một bước.
Một mẹo đơn giản để đánh lừa các máy phát hiện deepfake: Giảm chất lượng hình ảnh
Ở chất lượng cao nhất, hình ảnh giả mạo của giáo hoàng mặc áo khoác phao được phân loại chính xác là do AI tạo ra. Nhưng nếu hình ảnh được lưu lại dưới dạng JPEG chất lượng thấp hơn, thì máy phát hiện đó sẽ nói sai rằng hình ảnh đó là ảnh thật.
Máy phát hiện hình ảnh AI phổ biến
Các chuyên gia cho biết vì máy phát hiện không hoàn hảo nên con người có thể sử dụng các phương pháp cũ để phát hiện hình ảnh và video giả trực tuyến. Phóng to ảnh và video cho phép mọi người kiểm tra các hiện vật bất thường, chẳng hạn như bàn tay biến dạng hoặc hình dạng kỳ lạ trong các chi tiết nền, chẳng hạn như gạch lát sàn hoặc tường. Trong âm thanh giả, việc không có khoảng dừng và ngữ điệu giọng nói có thể khiến một người nghe giống như người máy.
Việc phân tích các deepfake bị nghi ngờ để tìm manh mối theo ngữ cảnh cũng rất quan trọng. Ví dụ, trong video của Harris, biển hiệu bục giảng có nội dung “Ramble Rants”, đây là tên tài khoản của kẻ làm deepfake.
Hàng chục công ty ở Thung lũng Silicon đã tận tụy phát hiện ra deepfake AI, nhưng hầu hết các phương pháp đều không hiệu quả.
Cho đến nay, hy vọng lớn nhất của ngành là tạo hình mờ, một quy trình nhúng hình ảnh bằng một dấu hiệu vô hình mà chỉ máy tính mới có thể phát hiện. Nhưng hình mờ có thể dễ dàng bị giả mạo hoặc sao chép, gây nhầm lẫn cho phần mềm có chức năng đọc chúng.
Năm ngoái, các công ty hàng đầu bao gồm OpenAI, Google, Microsoft và Meta đã ký một cam kết tự nguyện yêu cầu họ phát triển các công cụ để giúp công chúng phát hiện ra hình ảnh do AI tạo ra. Nhưng các giám đốc điều hành công nghệ lại tỏ ra nghi ngờ về dự án này.
“Tôi đã nhận được nhiều câu trả lời trái chiều từ Big Tech”, Věra Jourová, một quan chức cấp cao của Liên minh châu Âu, đã nói với The Post tại một sự kiện của Hội đồng Đại Tây Dương. “Một số nền tảng nói với tôi rằng điều này là không thể”.
Việc không thể phát hiện ra hình ảnh do AI tạo ra có thể gây ra hậu quả trong thế giới thực. Vào cuối tháng 7, hình ảnh một người đàn ông theo đạo Sikh đi tiểu vào một chiếc cốc tại một trạm xăng ở Canada đã lan truyền trên X, làm dấy lên làn sóng phản đối người nhập cư. Nhưng theo một bài đăng trên X, chủ sở hữu trạm xăng khẳng định sự cố này chưa bao giờ xảy ra.
The Post đã tải hình ảnh lên một công cụ phát hiện deepfake phổ biến từ công ty AI phi lợi nhuận TrueMedia. Hình ảnh được dán nhãn là có “ít bằng chứng về sự thao túng”, cho thấy nó có thể là thật.
Sau đó, The Post nhận được một email cho biết một nhà phân tích con người tại công ty đã tìm thấy “bằng chứng đáng kể về sự thao túng”. Oren Etzioni, người sáng lập TrueMedia, cho biết các máy dò AI của họ “không chính xác 100%” và dựa vào các nhà phân tích con người để xem xét kết quả. Ông cho biết các kết quả đã hiệu chỉnh được sử dụng để “đào tạo thêm các máy dò AI và cải thiện hiệu suất”.
Farid cho biết những kết quả không nhất quán như vậy rất nguy hiểm vì mọi người đang “biến” chúng thành vũ khí để thay đổi khái niệm về thực tế của xã hội.
Ông cho biết “Nó khiến chúng ta không tin tưởng hoặc tin vào bất cứ điều gì hoặc bất kỳ ai”. “Bây giờ thì mọi thứ trở nên hỗn loạn”.