Video giả hoàn hảo sẽ được trí tuệ nhân tạo nhận diện
Video giả hoàn hảo sẽ được trí tuệ nhân tạo nhận diện

Video: Video giả hoàn hảo sẽ được trí tuệ nhân tạo nhận diện

Video: Video giả hoàn hảo sẽ được trí tuệ nhân tạo nhận diện
Video: PETER BOY - THE JOY OF BEING PRESENT FOR OTHERS - YouTube 2024, Tháng tư
Anonim
Buổi ra mắt vở opera về vụ đầu độc Litvinenko bắt đầu ở Anh
Buổi ra mắt vở opera về vụ đầu độc Litvinenko bắt đầu ở Anh

Một năm trước, Manish Agrawala của Stanford đã giúp phát triển công nghệ đồng bộ hóa môi cho phép người chỉnh sửa video thay đổi lời nói của người nói một cách gần như không thể nhận thấy. Công cụ này có thể dễ dàng chèn những từ mà một người chưa bao giờ nói, ngay cả ở giữa câu hoặc xóa những từ mà người đó đã nói. Mọi thứ sẽ trông thực tế bằng mắt thường và thậm chí đối với nhiều hệ thống máy tính.

Công cụ này đã giúp việc sửa lỗi trở nên dễ dàng hơn nhiều mà không cần quay lại toàn bộ cảnh và cũng đã điều chỉnh các chương trình truyền hình hoặc phim cho các đối tượng khác nhau ở những nơi khác nhau. Nhưng công nghệ này cũng đã tạo ra những cơ hội mới đáng lo ngại cho các video giả khó tìm, với mục đích bóp méo sự thật rõ ràng. Ví dụ: một video gần đây của Đảng Cộng hòa đã sử dụng một kỹ thuật thô bạo hơn cho cuộc phỏng vấn với Joe Biden.

Mùa hè này, Agrawala và các đồng nghiệp tại Stanford và UC Berkeley đã tiết lộ một phương pháp tiếp cận dựa trên trí tuệ nhân tạo đối với công nghệ hát nhép. Chương trình mới phát hiện chính xác hơn 80% hàng giả, nhận ra sự khác biệt nhỏ nhất giữa âm thanh của con người và hình dạng miệng của họ.

Nhưng Agrawala, giám đốc Viện Đổi mới Truyền thông Stanford và giáo sư khoa học máy tính tại Forest Baskett, người cũng liên kết với Viện Trí tuệ nhân tạo lấy con người làm trung tâm của Stanford, cảnh báo rằng không có giải pháp kỹ thuật lâu dài nào cho hàng giả sâu sắc.

Làm thế nào hàng giả hoạt động

Có những lý do chính đáng cho việc thao túng video. Ví dụ: bất kỳ ai đang quay một chương trình truyền hình, phim hoặc quảng cáo hư cấu đều có thể tiết kiệm thời gian và tiền bạc bằng cách sử dụng các công cụ kỹ thuật số để sửa lỗi hoặc tùy chỉnh kịch bản.

Vấn đề nảy sinh khi những công cụ này được cố tình sử dụng để lan truyền thông tin sai lệch. Và nhiều kỹ thuật là vô hình đối với người xem bình thường.

Nhiều video giả mạo sâu sắc dựa vào hoán đổi khuôn mặt, theo nghĩa đen là ghép khuôn mặt của một người lên video của người khác. Nhưng trong khi các công cụ thay đổi khuôn mặt có thể hấp dẫn, chúng tương đối thô và thường để lại các hiện vật kỹ thuật số hoặc trực quan mà máy tính có thể phát hiện được.

Mặt khác, các công nghệ hát nhép ít được nhìn thấy hơn và do đó khó bị phát hiện hơn. Họ điều khiển một phần nhỏ hơn nhiều của hình ảnh và sau đó tổng hợp các chuyển động của môi khớp với chính xác cách miệng của một người sẽ thực sự cử động nếu người đó nói những từ nhất định. Theo Agrawal, với đủ mẫu hình ảnh và giọng nói của một người, một nhà sản xuất giả có thể khiến một người "nói" bất cứ điều gì.

Phát hiện hàng giả

Lo ngại về việc sử dụng công nghệ này một cách phi đạo đức, Agrawala đã làm việc với Ohad Freed, một nghiên cứu sinh tiến sĩ tại Stanford, để phát triển một công cụ phát hiện; Hani Farid, giáo sư tại Đại học California, Trường Thông tin Berkeley; và Shruti Agarwal, một nghiên cứu sinh tiến sĩ tại Berkeley.

Lúc đầu, các nhà nghiên cứu đã thử nghiệm bằng một kỹ thuật hoàn toàn thủ công, trong đó những người quan sát nghiên cứu các cảnh quay video. Nó hoạt động tốt, nhưng trong thực tế, nó tốn nhiều công sức và thời gian.

Sau đó, các nhà nghiên cứu đã thử nghiệm một mạng nơ-ron dựa trên trí tuệ nhân tạo sẽ nhanh hơn nhiều để thực hiện phân tích tương tự sau khi được huấn luyện qua video với cựu Tổng thống Barack Obama. Mạng nơ-ron đã phát hiện ra hơn 90% hoạt động hát nhép của chính Obama, mặc dù độ chính xác đối với những người nói khác giảm xuống còn khoảng 81%.

Một thử nghiệm thực sự của sự thật

Các nhà nghiên cứu cho biết cách tiếp cận của họ chỉ là một phần của trò chơi mèo vờn chuột. Khi các kỹ thuật giả mạo sâu được cải thiện, chúng sẽ để lại ít chìa khóa hơn.

Cuối cùng, Agrawala nói, vấn đề thực sự không nằm ở việc chống lại các video giả mạo sâu sắc mà chống lại thông tin sai lệch. Trên thực tế, ông lưu ý, phần lớn thông tin sai lệch phát sinh từ việc bóp méo ý nghĩa của những gì mọi người thực sự đã nói.

Ông nói: “Để giảm thông tin sai lệch, chúng ta cần cải thiện kiến thức truyền thông và phát triển hệ thống trách nhiệm giải trình. "Điều này có nghĩa là luật cấm cố ý sản xuất thông tin sai lệch và hậu quả của việc vi phạm chúng, cũng như các cơ chế để loại bỏ tác hại gây ra."

Đề xuất: