Trang Chủ Ý kiến Bất cứ điều gì có thể bảo vệ chúng ta khỏi deepfakes? | ben Dickson

Bất cứ điều gì có thể bảo vệ chúng ta khỏi deepfakes? | ben Dickson

Mục lục:

Video: I used "deep fakes" to fix the Lion King (Tháng Chín 2024)

Video: I used "deep fakes" to fix the Lion King (Tháng Chín 2024)
Anonim

Vào cuối năm 2017, Motherboard đã báo cáo về một công nghệ AI có thể hoán đổi khuôn mặt trong video. Vào thời điểm đó, giới công nghệ sau đó gọi là Deepfakes, đã tạo ra những kết quả thô thiển, thô thiển và chủ yếu được sử dụng để tạo ra các video khiêu dâm giả có sự góp mặt của những người nổi tiếng và chính trị gia.

Hai năm sau, công nghệ đã phát triển vượt bậc và khó phát hiện hơn bằng mắt thường. Cùng với tin tức giả mạo, các video giả mạo đã trở thành mối quan tâm an ninh quốc gia, đặc biệt là khi cuộc bầu cử tổng thống năm 2020 sắp diễn ra.

Kể từ khi deepfakes xuất hiện, một số tổ chức và công ty đã phát triển các công nghệ để phát hiện các video giả mạo AI. Nhưng có một nỗi sợ rằng một ngày nào đó, công nghệ deepfakes sẽ không thể phát hiện ra.

Các nhà nghiên cứu tại Đại học Surrey đã phát triển một giải pháp có thể giải quyết vấn đề: thay vì phát hiện những gì sai, nó sẽ chứng minh điều gì là đúng. Dự kiến ​​sẽ được trình bày tại Hội nghị sắp tới về Tầm nhìn máy tính và Nhận dạng mẫu (CVPR), công nghệ có tên Archangel, sử dụng AI và blockchain để tạo và đăng ký dấu vân tay kỹ thuật số chống giả mạo cho video xác thực. Dấu vân tay có thể được sử dụng như một điểm tham chiếu để xác minh tính hợp lệ của phương tiện truyền thông được phân phối trực tuyến hoặc phát trên truyền hình.

Sử dụng AI để ký video

Cách cổ điển để chứng minh tính xác thực của tài liệu nhị phân là sử dụng chữ ký số. Các nhà xuất bản chạy tài liệu của họ thông qua một thuật toán mã hóa, chẳng hạn như SHA256, MD5 hoặc Blowfish, tạo ra một "hàm băm", một chuỗi byte ngắn biểu thị nội dung của tệp đó và trở thành chữ ký số của nó. Chạy cùng một tệp thông qua thuật toán băm bất cứ lúc nào sẽ tạo ra cùng một hàm băm nếu nội dung của nó không thay đổi.

Băm là siêu nhạy đối với những thay đổi trong cấu trúc nhị phân của tệp nguồn. Khi bạn sửa đổi một byte đơn trong tệp băm và chạy lại nó thông qua thuật toán, nó sẽ tạo ra một kết quả hoàn toàn khác.

Nhưng trong khi băm hoạt động tốt cho các tệp văn bản và ứng dụng, chúng đưa ra các thách thức cho video, có thể được lưu trữ ở các định dạng khác nhau, theo John Collomosse, giáo sư thị giác máy tính tại Đại học Surrey và lãnh đạo dự án cho Archangel.

"Chúng tôi muốn chữ ký giống nhau bất kể codec được nén bằng video nào, " Collomosse nói. "Nếu tôi lấy video của mình và chuyển đổi nó từ, giả sử MPEG-2 sang MPEG-4, thì tệp đó sẽ có độ dài hoàn toàn khác và các bit sẽ thay đổi hoàn toàn, sẽ tạo ra một hàm băm khác. là một thuật toán băm nhận thức nội dung. "

Để giải quyết vấn đề này, Collomosse và các đồng nghiệp đã phát triển một mạng lưới thần kinh sâu sắc, nhạy cảm với nội dung có trong video. Mạng lưới thần kinh sâu là một loại xây dựng AI phát triển hành vi của nó thông qua việc phân tích một lượng lớn các ví dụ. Thật thú vị, mạng lưới thần kinh cũng là công nghệ trung tâm của deepfakes.

Khi tạo các hình ảnh sâu, nhà phát triển cung cấp cho mạng hình ảnh khuôn mặt của một đối tượng. Mạng lưới thần kinh học các đặc điểm của khuôn mặt và, với sự huấn luyện đủ, có khả năng tìm và hoán đổi khuôn mặt trong các video khác với khuôn mặt của đối tượng.

Mạng lưới thần kinh của Archangel được đào tạo về video đó là dấu vân tay. "Mạng đang xem xét nội dung của video chứ không phải các bit và byte cơ bản của nó", Collomosse nói.

Sau khi đào tạo, khi bạn chạy một video mới qua mạng, nó sẽ xác thực nó khi nó chứa cùng một nội dung với video nguồn bất kể định dạng của nó và sẽ từ chối nó khi đó là một video khác hoặc đã bị giả mạo hoặc chỉnh sửa.

Theo Collomosse, công nghệ này có thể phát hiện cả giả mạo không gian và thời gian. Xáo trộn không gian là những thay đổi được thực hiện cho từng khung hình, chẳng hạn như các chỉnh sửa đổi mặt được thực hiện trong các hình ảnh sâu.

Nhưng deepfakes không phải là cách duy nhất video có thể bị giả mạo. Ít thảo luận hơn nhưng không kém phần nguy hiểm là những thay đổi có chủ ý đối với chuỗi khung hình và tốc độ và thời lượng của video. Một video giả mạo được lưu hành rộng rãi gần đây của Chủ tịch Hạ viện Nancy Pelosi đã không sử dụng các tác phẩm sâu nhưng được tạo ra thông qua việc sử dụng cẩn thận các kỹ thuật chỉnh sửa đơn giản khiến cô ấy có vẻ bối rối.

"Một trong những hình thức giả mạo mà chúng tôi có thể phát hiện là loại bỏ các đoạn ngắn của video. Đây là các hình thức giả mạo tạm thời. Và chúng tôi có thể phát hiện tối đa ba giây giả mạo. Vì vậy, nếu một video dài vài giờ và bạn chỉ cần xóa ba vài giây của video đó, chúng tôi có thể phát hiện ra điều đó ", Collomosse nói và cho biết thêm Archangel cũng sẽ phát hiện những thay đổi được thực hiện đối với tốc độ của video gốc, như đã được thực hiện trong video Pelosi.

Đăng ký vân tay trên Blockchain

Thành phần thứ hai của dự án Archangel là blockchain, cơ sở dữ liệu chống giả mạo, nơi thông tin mới có thể được lưu trữ nhưng không thay đổi lý tưởng đối với lưu trữ video, không thay đổi video khi chúng đã được đăng ký.

Công nghệ chuỗi khối làm nền tảng cho các loại tiền kỹ thuật số như Bitcoin và Ether. Đó là một sổ cái kỹ thuật số được duy trì bởi một số bên độc lập. Phần lớn các bên phải đồng ý về các thay đổi được thực hiện đối với blockchain, điều này khiến cho bất kỳ bên nào không thể đơn phương can thiệp vào sổ cái.

Về mặt kỹ thuật có thể tấn công và thay đổi nội dung của blockchain nếu hơn 50 phần trăm người tham gia của nó thông đồng. Nhưng trên thực tế, điều đó cực kỳ khó khăn, đặc biệt là khi blockchain được duy trì bởi nhiều bên độc lập với các mục tiêu và lợi ích khác nhau.

Blockchain của Archangel hơi khác so với blockchain công khai. Đầu tiên, nó không tạo ra tiền điện tử và chỉ lưu trữ mã định danh, dấu vân tay nhận biết nội dung và hàm băm nhị phân của mạng thần kinh xác minh cho mỗi video trong kho lưu trữ (blockchains không phù hợp để lưu trữ lượng lớn dữ liệu, đó là lý do tại sao video và mạng nơ-ron được lưu trữ ngoài chuỗi).

Ngoài ra, đó là một blockchain được phép hoặc "riêng tư". Điều này có nghĩa là không giống như blockchain Bitcoin, nơi mọi người có thể ghi lại các giao dịch mới, chỉ các bên được phép mới có thể lưu trữ các bản ghi mới trên blockchain Archangel.

Archangel hiện đang được thử nghiệm bởi một mạng lưới lưu trữ của chính phủ quốc gia từ Anh, Estonia, Na Uy, Úc và Mỹ: Để lưu trữ thông tin mới, mọi quốc gia liên quan đều phải thực hiện bổ sung. Nhưng trong khi chỉ có tài liệu lưu trữ quốc gia của các quốc gia tham gia mới có quyền thêm hồ sơ, mọi người khác đã đọc quyền truy cập vào blockchain và có thể sử dụng nó để xác thực các video khác đối với kho lưu trữ.

  • Khai thác AI và Machine Learning, Deepfakes, giờ khó phát hiện hơn AI và khai thác học máy, Deepfakes, giờ khó phát hiện hơn
  • Video Deepfake có ở đây và chúng tôi chưa sẵn sàng Video Deepfake ở đây và chúng tôi chưa sẵn sàng
  • AI mới của Adobe phát hiện các khuôn mặt được Photoshop Các AI mới của Adobe phát hiện các khuôn mặt được Photoshop

"Đây là một ứng dụng của blockchain vì lợi ích công cộng, " Collomosse nói. "Theo quan điểm của tôi, việc sử dụng blockchain hợp lý duy nhất là khi bạn có các tổ chức độc lập không nhất thiết phải tin tưởng lẫn nhau nhưng họ có quyền lợi này trong mục tiêu chung là tin tưởng lẫn nhau. Và điều chúng tôi muốn làm là bảo mật tài liệu lưu trữ quốc gia của chính phủ trên toàn thế giới, để chúng tôi có thể bảo vệ sự toàn vẹn của họ bằng công nghệ này. "

Bởi vì việc tạo các video giả mạo trở nên dễ dàng hơn, nhanh hơn và dễ tiếp cận hơn, mọi người sẽ cần tất cả sự giúp đỡ để họ có thể đảm bảo tính toàn vẹn của tài liệu lưu trữ video của họ, đặc biệt là các chính phủ.

"Tôi nghĩ rằng deepfakes gần giống như một cuộc chạy đua vũ trang, " Collomosse nói. "Bởi vì mọi người đang tạo ra những tác phẩm sâu ngày càng thuyết phục và một ngày nào đó có thể không thể phát hiện ra chúng. Đó là lý do tại sao điều tốt nhất bạn có thể làm là cố gắng chứng minh nguồn gốc của video."

Bất cứ điều gì có thể bảo vệ chúng ta khỏi deepfakes? | ben Dickson