Trang Chủ Kinh doanh Ai và máy học khai thác, deepfakes, bây giờ khó phát hiện hơn

Ai và máy học khai thác, deepfakes, bây giờ khó phát hiện hơn

Mục lục:

Video: Fake Voice Text to Speech Deep Learning ft. Elon Musk, Trump, Obama, and Joe Rogan (Tháng Chín 2024)

Video: Fake Voice Text to Speech Deep Learning ft. Elon Musk, Trump, Obama, and Joe Rogan (Tháng Chín 2024)
Anonim

Khi chúng ta bước vào mùa chiến dịch bầu cử tổng thống tiếp theo, bạn sẽ muốn cảnh giác với những nguy cơ tiềm ẩn mà các video trực tuyến giả mạo mang lại thông qua việc sử dụng trí tuệ nhân tạo (AI) và học máy (ML). Sử dụng phần mềm AI, mọi người có thể tạo các video deepfake (viết tắt của "học sâu và giả") trong đó thuật toán ML được sử dụng để thực hiện hoán đổi khuôn mặt để tạo ảo giác rằng ai đó nói điều gì đó mà họ không nói hoặc là ai đó họ nói lại không. Các video Deepfake đang xuất hiện trong nhiều đấu trường khác nhau, từ giải trí đến chính trị cho đến thế giới doanh nghiệp. Các video không chỉ có thể gây ảnh hưởng không công bằng đến các cuộc bầu cử với các thông điệp sai lệch mà còn có thể gây bối rối cá nhân hoặc gây ra các thông điệp thương hiệu sai lệch nếu, giả sử, họ cho thấy một CEO thông báo ra mắt sản phẩm hoặc mua lại thực sự không xảy ra.

Deepfakes là một phần của một thể loại AI được gọi là "Mạng đối thủ tạo" hoặc GAN, trong đó hai mạng thần kinh cạnh tranh để tạo ra những bức ảnh hoặc video có vẻ như thật. GAN bao gồm một trình tạo, tạo ra một tập hợp dữ liệu mới như video giả và trình phân biệt đối xử, sử dụng thuật toán ML để tổng hợp và so sánh dữ liệu từ video thực. Trình tạo tiếp tục cố gắng tổng hợp video giả với video cũ cho đến khi người phân biệt đối xử không thể nói rằng dữ liệu là mới.

Như Steve Grobman, Phó chủ tịch cấp cao và Giám đốc công nghệ (CTO) của McAfee, đã chỉ ra tại Hội nghị RSA 2019 vào tháng 3 ở San Francisco, những bức ảnh giả đã xuất hiện kể từ khi phát minh ra nhiếp ảnh. Ông cho biết việc thay đổi ảnh là một nhiệm vụ đơn giản mà bạn có thể thực hiện trong một ứng dụng như Adobe Photoshop. Nhưng giờ đây, các loại khả năng chỉnh sửa nâng cao này cũng đang chuyển sang video và họ đang thực hiện bằng các công cụ phần mềm có khả năng truy cập cao và dễ truy cập.

Làm thế nào Deepfakes được tạo ra

Mặc dù hiểu các khái niệm AI là hữu ích, nhưng không cần thiết phải là một nhà khoa học dữ liệu để xây dựng một video sâu. Nó chỉ liên quan đến việc làm theo một số hướng dẫn trực tuyến, theo Grobman. Tại Hội nghị RSA 2019 (xem video ở trên), ông đã tiết lộ một video sâu sắc cùng với Tiến sĩ Celeste Fralick, Nhà khoa học dữ liệu trưởng và Kỹ sư hiệu trưởng cao cấp tại McAfee. Video deepfake minh họa mối đe dọa mà công nghệ này thể hiện. Grobman và Fralick đã cho thấy một quan chức công cộng trong video nói điều gì đó nguy hiểm có thể đánh lừa công chúng nghĩ rằng thông điệp này là có thật.

Để tạo video của họ, Grobman và Fralick đã tải xuống phần mềm deepfake. Sau đó, họ đã quay video Grobman làm chứng trước Thượng viện Hoa Kỳ năm 2017 và dán miệng Fralick lên miệng Grobman.

Fralick nói với khán giả RSA từ trên sân khấu: "Tôi đã sử dụng các bình luận công khai có sẵn miễn phí bằng cách tạo và đào tạo một mô hình ML; điều đó cho phép tôi phát triển một video sâu sắc với những lời nói ra khỏi miệng". Fralick tiếp tục nói rằng các video deepfake có thể được sử dụng để khai thác xã hội và chiến tranh thông tin.

Để tạo video deepfake của họ, Grobman và Fralick đã sử dụng một công cụ mà người dùng Reddit đã phát triển có tên FakeApp, sử dụng thuật toán ML và ảnh để hoán đổi khuôn mặt trên video. Trong bài thuyết trình RSA của họ, Grobman đã giải thích các bước tiếp theo. "Chúng tôi chia các video thành hình ảnh tĩnh, chúng tôi trích xuất khuôn mặt và chúng tôi đã làm sạch chúng bằng cách sắp xếp chúng và làm sạch chúng trong Instagram."

Các kịch bản Python cho phép nhóm McAfee xây dựng các cử động miệng để có lời nói của Fralick khớp với miệng của Grobman. Sau đó, họ cần phải viết một số kịch bản tùy chỉnh. Grobman nói, thách thức trong việc tạo ra một tác phẩm sâu sắc đầy thuyết phục là khi các đặc điểm như giới tính, tuổi tác và màu da không phù hợp với nhau, Grobman nói.

Sau đó, anh và Fralick đã sử dụng thuật toán AI cuối cùng để khớp với hình ảnh của Grobman làm chứng trước Thượng viện với bài phát biểu của Fralick. Grobman nói thêm rằng phải mất 12 giờ để đào tạo các thuật toán ML này.

McAfee đã phác thảo các bước cần thiết để tạo một video deepfake được hiển thị tại Hội nghị RSA 2019. Nó đã sử dụng phần mềm deepfake có tên FakeApp và đào tạo các mô hình ML để thay đổi video của Grobman với bài phát biểu từ Fralick. (Tín dụng hình ảnh: McAfee).

Hậu quả của Deepfakes

Các video deepfake do Hacker tạo ra có khả năng gây ra nhiều vấn đề. Tất cả mọi thứ từ các quan chức chính phủ truyền bá thông tin sai lệch đến những người nổi tiếng đều lúng túng trong các video mà họ thực sự không tham gia vào các công ty gây thiệt hại cho thị trường chứng khoán. Nhận thức được những vấn đề này, các nhà lập pháp hồi tháng 9 đã gửi thư cho Daniel Coats, Giám đốc Tình báo Quốc gia Hoa Kỳ, để yêu cầu xem xét lại mối đe dọa mà các tác nhân gây ra. Bức thư cảnh báo rằng các quốc gia như Nga có thể sử dụng các tác phẩm sâu trên phương tiện truyền thông xã hội để truyền bá thông tin sai lệch. Vào tháng 12, các nhà lập pháp đã giới thiệu Đạo luật Cấm giả mạo độc hại năm 2018 nhằm chống lại hành vi gian lận liên quan đến "hồ sơ nghe nhìn", trong đó đề cập đến các vụ lừa đảo. Nó vẫn còn để xem nếu hóa đơn sẽ thông qua.

Như đã đề cập, những người nổi tiếng có thể phải chịu sự bối rối từ những video mà khuôn mặt của họ bị chồng lên trên khuôn mặt của các ngôi sao khiêu dâm, như trường hợp của Gal Gadot. Hoặc tưởng tượng một CEO được cho là thông báo tin tức về sản phẩm và đánh chìm cổ phiếu của một công ty. Các chuyên gia bảo mật có thể sử dụng ML để phát hiện các loại tấn công này, nhưng nếu chúng không được phát hiện kịp thời, chúng có thể mang lại thiệt hại không cần thiết cho một quốc gia hoặc thương hiệu.

"Với Deepfakes, nếu bạn biết bạn đang làm gì và bạn biết nhắm mục tiêu vào ai, bạn thực sự có thể đưa ra một video thuyết phục để gây ra nhiều thiệt hại cho một thương hiệu", Tiến sĩ Chase Cickyham, Chuyên gia phân tích chính của Forrester Research, nói . Ông nói thêm rằng, nếu bạn phân phối các tin nhắn này trên LinkedIn hoặc Twitter hoặc sử dụng một hình thức bot, "bạn có thể nghiền nát cổ phiếu của một công ty dựa trên tổng số video không có thật mà không cần nhiều nỗ lực."

Thông qua các video deepfake, người tiêu dùng có thể bị lừa tin rằng một sản phẩm có thể làm điều gì đó mà nó không thể. Castyham lưu ý rằng, nếu Giám đốc điều hành của một nhà sản xuất ô tô lớn nói trong một video không có thật rằng công ty sẽ không còn sản xuất xe chạy bằng khí đốt và sau đó lan truyền thông điệp đó trên Twitter hoặc LinkedIn trong video đó, thì hành động đó có thể dễ dàng làm hỏng thương hiệu.

"Thật thú vị từ nghiên cứu của tôi, mọi người đưa ra quyết định dựa trên các tiêu đề và video trong 37 giây, Cickyham nói." Vì vậy, bạn có thể tưởng tượng nếu bạn có thể nhận được một video dài hơn 37 giây, bạn có thể khiến mọi người đưa ra quyết định dựa trên dù thực tế hay không. Và điều đó thật đáng sợ. "

Vì phương tiện truyền thông xã hội là một nơi dễ bị tổn thương, nơi các video deepfake có thể lan truyền, các trang truyền thông xã hội đang tích cực làm việc để chống lại mối đe dọa của các tác phẩm sâu. Ví dụ, Facebook triển khai các nhóm kỹ thuật có thể phát hiện ra các bức ảnh, âm thanh và video bị thao túng. Ngoài việc sử dụng phần mềm, Facebook (và các công ty truyền thông xã hội khác) thuê người để tự tìm kiếm các tác phẩm sâu.

"Chúng tôi đã mở rộng những nỗ lực liên tục của mình để chống lại các phương tiện bị thao túng để bao gồm cả việc giải quyết các vấn đề sâu", một đại diện của Facebook cho biết trong một tuyên bố. "Chúng tôi biết sự xuất hiện liên tục của tất cả các hình thức truyền thông bị thao túng đưa ra những thách thức thực sự cho xã hội. Đó là lý do tại sao chúng tôi đầu tư vào các giải pháp kỹ thuật mới, học hỏi từ nghiên cứu học thuật và làm việc với những người khác trong ngành để hiểu sâu hơn và các hình thức truyền thông bị thao túng khác . "

Không phải tất cả các Deepfakes đều xấu

Như chúng ta đã thấy với video deepfake giáo dục của McAfee và các video deepfake hài hước trên TV đêm khuya, một số video deepfake không hẳn là xấu. Trên thực tế, trong khi chính trị có thể phơi bày những mối nguy hiểm thực sự của các video deepfake, thì ngành công nghiệp giải trí thường chỉ cho thấy khía cạnh nhẹ hơn của các video deepfake.

Ví dụ, trong một tập gần đây của The late show With Stephen Colbert, một đoạn video sâu vui nhộn được chiếu trong đó khuôn mặt của nam diễn viên Steve Buscemi được đặt trên cơ thể của nữ diễn viên Jennifer Lawrence. Trong một trường hợp khác, diễn viên hài Jordan Peeler đã thay thế một đoạn video về cựu Tổng thống Barack Obama nói bằng giọng nói của chính mình. Những video deepfake hài hước như thế này cũng đã xuất hiện trực tuyến, trong đó khuôn mặt của Tổng thống Trump được đặt chồng lên trên khuôn mặt của Thủ tướng Đức Angela Merkel khi người này nói.

Một lần nữa, nếu các video deepfake được sử dụng cho mục đích châm biếm hoặc hài hước hoặc đơn giản là để giải trí, thì các nền tảng truyền thông xã hội và thậm chí các nhà sản xuất phim cho phép hoặc sử dụng chúng. Ví dụ: Facebook cho phép loại nội dung này trên nền tảng của mình và Lucasfilm đã sử dụng một loại hình giải trí kỹ thuật số để giới thiệu một Carrie Fisher trẻ tuổi trên cơ thể của nữ diễn viên Ingvild Deila trong "Rogue One: A Star Wars Story".

Grobman của McAfee lưu ý rằng một số công nghệ đằng sau các tác phẩm sâu được sử dụng tốt với các pha nguy hiểm nhân đôi trong việc di chuyển để giữ an toàn cho các diễn viên. "Bối cảnh là tất cả. Nếu nó nhằm mục đích hài hước và rõ ràng là nó không có thật, thì đó là thứ sử dụng hợp pháp công nghệ", Grobman nói. "Nhận ra rằng nó có thể được sử dụng cho tất cả các mục đích khác nhau là chìa khóa."

(Tín dụng hình ảnh: Statista)

Cách phát hiện video Deepfake

McAfee không phải là công ty bảo mật duy nhất thử nghiệm cách phát hiện video giả mạo. Trong bài viết được gửi tại Black Hat 2018 có tựa đề: "AI Gone Rogue: Exterminating Deep Fakes Before They Cided Menace", hai chuyên gia bảo mật Symantec, Trưởng nhóm phản ứng bảo mật Vijay Thwar và Kỹ sư phát triển phần mềm Niranjan Agnihotri, viết rằng họ đã tạo ra một công cụ để phát hiện video giả mạo dựa trên Google FaceNet. Google FaceNet là một kiến ​​trúc mạng thần kinh mà các nhà nghiên cứu của Google đã phát triển để giúp xác minh và nhận dạng khuôn mặt. Người dùng huấn luyện một mô hình FaceNet trên một hình ảnh cụ thể và sau đó có thể xác minh danh tính của họ trong các thử nghiệm sau đó.

Để cố gắng ngăn chặn sự lan truyền của các video deepfake, AI Foundation, một tổ chức phi lợi nhuận tập trung vào tương tác giữa con người và AI, cung cấp phần mềm có tên "Defender thực tế" để phát hiện nội dung giả mạo. Nó có thể quét hình ảnh và video để xem chúng có bị thay đổi khi sử dụng AI không. Nếu họ có, họ sẽ nhận được "Watermark AI trung thực".

  • Hướng dẫn kinh doanh về học máy Hướng dẫn kinh doanh về học máy
  • PornHub, Twitter Ban 'Deepfake' Khiêu dâm thay đổi AI Khiêu dâm, Twitter Ban 'Deepfake' Khiêu dâm sửa đổi AI
  • Deepfake Tech mới nhất sẽ có bạn nhảy như Bruno Mars Công nghệ Deepfake mới nhất sẽ có bạn nhảy như Bruno Mars

Một chiến lược khác là ghi nhớ khái niệm về Zero Trust, có nghĩa là "không bao giờ tin tưởng, luôn xác minh" phương châm an ninh mạng có nghĩa là các chuyên gia CNTT nên xác nhận tất cả người dùng là hợp pháp trước khi cấp đặc quyền truy cập. Vẫn còn hoài nghi về tính hợp lệ của nội dung video sẽ là cần thiết. Bạn cũng sẽ muốn phần mềm có khả năng phân tích kỹ thuật số để phát hiện nội dung giả mạo.

Tìm kiếm Deepfakes

Trong tương lai, chúng ta cần thận trọng hơn với nội dung video và ghi nhớ những nguy hiểm họ có thể gây ra cho xã hội nếu bị lạm dụng. Như Grobman lưu ý, "Trong thời gian tới, mọi người cần phải hoài nghi hơn về những gì họ nhìn thấy và nhận ra rằng video và âm thanh có thể được chế tạo."


Vì vậy, hãy để mắt đến những video hoài nghi về các video chính trị mà bạn xem khi chúng ta bước vào mùa bầu cử tiếp theo và đừng tin vào tất cả các video có các nhà lãnh đạo công ty. Bởi vì những gì bạn nghe được có thể không phải là những gì thực sự được nói, và những video gây hiểu lầm sâu sắc có khả năng thực sự gây thiệt hại cho xã hội của chúng ta.

Ai và máy học khai thác, deepfakes, bây giờ khó phát hiện hơn