Mục lục:
Video: nân. x Ngơ - tình đắng như ly cà phê | tas release (Tháng mười một 2024)
Một nơi nào đó trong bóng tối của YouTube là một video cho thấy một đoạn trích từ bộ phim The Fellowship of the Ring. cùng lúc. Các video khác cho thấy Cage trong Terminator 2 là T2000, Star Trek trong vai Captain Picard và Superman, Lois Lane.
Tất nhiên, Nic Cage không bao giờ xuất hiện trong bất kỳ bộ phim nào. Chúng là "deepfakes" được sản xuất với FakeApp, một ứng dụng sử dụng thuật toán trí tuệ nhân tạo để hoán đổi khuôn mặt trong video. Một số tác phẩm sâu trông khá thuyết phục, trong khi một số khác có tạo tác phản bội bản chất thật của chúng. Nhưng nhìn chung, chúng cho thấy các thuật toán AI mạnh mẽ đã trở nên như thế nào trong việc bắt chước ngoại hình và hành vi của con người.
FakeApp chỉ là một trong một số công cụ tổng hợp hỗ trợ AI mới. Các ứng dụng khác bắt chước giọng nói của con người, chữ viết tay và phong cách hội thoại. Và một phần của những gì làm cho chúng có ý nghĩa là việc sử dụng chúng không đòi hỏi phải có chuyên gia phần cứng hoặc chuyên gia lành nghề.
Tác động của các ứng dụng này là sâu sắc: Chúng sẽ tạo ra những cơ hội chưa từng có cho sự sáng tạo, năng suất và truyền thông.
Nhưng công cụ tương tự cũng có thể mở hộp lừa đảo, giả mạo và tuyên truyền của Pandora. Kể từ khi xuất hiện trên Reddit vào tháng 1, FakeApp đã được tải xuống hơn 100.000 lần và gây ra một cơn bão các video khiêu dâm giả mạo với các nhân vật nổi tiếng và chính trị gia (bao gồm cả Cage một lần nữa). Reddit gần đây đã cấm ứng dụng và các cộng đồng liên quan của nó khỏi nền tảng của nó.
"Mười năm trước, nếu bạn muốn làm giả một cái gì đó, bạn có thể, nhưng bạn phải đến một studio VFX hoặc những người có thể làm đồ họa máy tính và có thể chi hàng triệu đô la", Tiến sĩ Tom Haines, giảng viên về máy học tại Đại học Bath. "Tuy nhiên, bạn không thể giữ bí mật, vì bạn phải lôi kéo nhiều người tham gia vào quá trình này."
Đó không còn là vấn đề nữa, nhờ vào một thế hệ công cụ AI mới.
Trò chơi giả
FakeApp và các ứng dụng tương tự được hỗ trợ bởi học sâu, nhánh của AI là trung tâm của sự bùng nổ của đổi mới AI kể từ năm 2012. Thuật toán học sâu dựa vào mạng lưới thần kinh, một cấu trúc phần mềm được thiết kế theo kiểu não người. Mạng lưới thần kinh phân tích và so sánh các tập hợp mẫu dữ liệu lớn để tìm ra các mẫu và mối tương quan mà con người thường bỏ lỡ. Quá trình này được gọi là "đào tạo" và kết quả của nó là một mô hình có thể thực hiện các nhiệm vụ khác nhau.
Trong những ngày trước, các mô hình học sâu được sử dụng chủ yếu để thực hiện các nhiệm vụ phân loại, ví dụ như ghi nhãn các đối tượng trong ảnh và thực hiện nhận dạng giọng nói và khuôn mặt. Gần đây, các nhà khoa học đã sử dụng học tập sâu để thực hiện các nhiệm vụ phức tạp hơn, chẳng hạn như chơi các trò chơi trên bàn, chẩn đoán bệnh nhân và tạo ra âm nhạc và các tác phẩm nghệ thuật.
Để điều chỉnh FakeApp để thực hiện hoán đổi khuôn mặt, người dùng phải huấn luyện nó với hàng trăm hình ảnh về khuôn mặt nguồn và đích. Chương trình chạy các thuật toán học sâu để tìm ra các mẫu và điểm tương đồng giữa hai khuôn mặt. Mô hình sau đó trở nên sẵn sàng để thực hiện trao đổi.
Quá trình này không đơn giản, nhưng bạn không cần phải là một chuyên gia đồ họa hoặc kỹ sư máy học để sử dụng FakeApp. Nó cũng không yêu cầu phần cứng đắt tiền và chuyên dụng. Một trang web hướng dẫn deepfakes đề xuất một máy tính có RAM 8GB trở lên và card đồ họa Nvidia GTX 1060 trở lên, cấu hình khá khiêm tốn.
"Một khi bạn chuyển đến một thế giới nơi ai đó trong phòng có thể giả mạo một cái gì đó, thì họ có thể sử dụng nó cho các mục đích đáng ngờ", Haines nói. "Và bởi vì đó là một người một mình, việc giữ bí mật là điều rất dễ dàng."
Năm 2016, Haines, lúc đó là một nhà nghiên cứu sau tiến sĩ tại Đại học College London, đã đồng tác giả một bài báo và một ứng dụng cho thấy AI có thể học cách bắt chước chữ viết tay của một người như thế nào. Được gọi là "Văn bản của tôi trong Chữ viết tay của bạn", ứng dụng đã sử dụng các thuật toán học sâu để phân tích và phân biệt phong cách và dòng chảy của chữ viết tay của tác giả và các yếu tố khác như khoảng cách và bất thường.
Sau đó, ứng dụng có thể lấy bất kỳ văn bản nào và sao chép nó bằng chữ viết tay của tác giả mục tiêu. Các nhà phát triển thậm chí đã thêm một biện pháp ngẫu nhiên để tránh hiệu ứng thung lũng kỳ lạ. Cảm giác kỳ lạ mà chúng ta có được khi nhìn thấy thứ gì đó gần như nhưng không hoàn toàn giống con người. Để chứng minh khái niệm, Haines và các nhà nghiên cứu UCL khác đã sử dụng công nghệ này để sao chép chữ viết tay của các nhân vật lịch sử như Abraham Lincoln, Frida Kahlo và Arthur Conan Doyle.
Kỹ thuật tương tự có thể được áp dụng cho bất kỳ chữ viết tay nào khác, điều này làm tăng mối lo ngại về việc sử dụng công nghệ để giả mạo và lừa đảo. Một chuyên gia pháp y vẫn có thể phát hiện ra rằng kịch bản được sản xuất bởi My Text trong Your Hand Writing, nhưng nó có khả năng đánh lừa những người chưa được đào tạo, điều mà Haines thừa nhận trong một cuộc phỏng vấn với Xu hướng số tại thời điểm đó.
Lyrebird, một công ty khởi nghiệp có trụ sở tại Montreal, đã sử dụng học tập sâu để phát triển một ứng dụng tổng hợp giọng nói của con người. Lyrebird yêu cầu ghi âm một phút để bắt đầu bắt chước giọng nói của một người, mặc dù nó cần nhiều hơn nữa trước khi nó bắt đầu nghe có vẻ thuyết phục.
Trong bản demo công khai, startup đã đăng tải các bản thu âm giả mạo giọng nói của Donald Trump, Barack Obama và Hillary Clinton. Các mẫu này là thô, và rõ ràng là chúng tổng hợp. Nhưng khi công nghệ được cải thiện, việc phân biệt sẽ trở nên khó khăn hơn. Và bất cứ ai cũng có thể đăng ký với Lyrebird và bắt đầu tạo các bản ghi giả; quá trình này thậm chí còn dễ dàng hơn so với FakeApp và các tính toán được thực hiện trên đám mây, giúp giảm bớt sự căng thẳng cho phần cứng của người dùng.
Thực tế là công nghệ này có thể được sử dụng cho các mục đích nghi vấn không bị mất đối với các nhà phát triển. Tại một thời điểm, một tuyên bố đạo đức trên trang web của Lyrebird đã tuyên bố: "Bản ghi âm giọng nói hiện được coi là bằng chứng mạnh mẽ trong xã hội của chúng ta và đặc biệt là ở các khu vực pháp lý của nhiều quốc gia. Công nghệ của chúng tôi đặt câu hỏi về tính hợp lệ của bằng chứng đó vì nó cho phép dễ dàng thao túng âm thanh Điều này có thể có những hậu quả nguy hiểm như các nhà ngoại giao gây hiểu lầm, lừa đảo và nói chung là bất kỳ vấn đề nào khác gây ra bởi việc đánh cắp danh tính của người khác. "
Nvidia đã trình bày một khía cạnh khác về khả năng bắt chước của AI: Năm ngoái, công ty đã xuất bản một video cho thấy thuật toán AI tạo ra khuôn mặt người tổng hợp chất lượng ảnh. AI của Nvidia đã phân tích hàng ngàn bức ảnh của người nổi tiếng và sau đó bắt đầu tạo ra những người nổi tiếng giả mạo. Công nghệ này có thể sớm trở nên có khả năng tạo ra các video có giao diện thực tế có "người" không tồn tại.
Giới hạn của AI
Nhiều người đã chỉ ra rằng trong tay kẻ xấu, những ứng dụng này có thể gây hại rất nhiều. Nhưng mức độ của các khả năng của AI đương đại thường được đánh giá quá cao.
"Mặc dù chúng ta có thể đặt khuôn mặt của một người lên khuôn mặt của người khác trong một video hoặc tổng hợp giọng nói, nhưng nó vẫn khá máy móc", Eugenia Kuyda, người đồng sáng lập của Alternika, một công ty phát triển các chatbot hỗ trợ AI, nói về những thiếu sót của Các công cụ AI như FakeApp và Lyrebird.
Voicery, một công ty khởi nghiệp AI khác, như Lyrebird, cung cấp tổng hợp giọng nói do AI cung cấp, có một trang câu đố nơi người dùng được trình bày một loạt 18 bản ghi âm giọng nói và được nhắc chỉ định đó là do máy tạo. Tôi đã có thể xác định tất cả các mẫu chế tạo bằng máy trong lần chạy đầu tiên.
Công ty của Kuyda là một trong một số tổ chức sử dụng xử lý ngôn ngữ tự nhiên (NLP), tập hợp con của AI cho phép máy tính hiểu và giải thích ngôn ngữ của con người. Luka, một phiên bản trước đó của chatbot của Kuyda, đã sử dụng NLP và công nghệ sinh đôi của nó, tạo ngôn ngữ tự nhiên (NLG), để bắt chước dàn diễn viên của loạt phim truyền hình Silicon của HBO. Mạng lưới thần kinh được đào tạo với các dòng script, tweet và các dữ liệu khác có sẵn trên các ký tự để tạo mô hình hành vi và hộp thoại với người dùng.
Alternika, ứng dụng mới của Kuyda, cho phép mỗi người dùng tạo hình đại diện AI của riêng họ. Bạn càng trò chuyện với Trả lời của bạn, bạn càng hiểu được tính cách của bạn và cuộc trò chuyện của bạn càng có ý nghĩa hơn.
Sau khi cài đặt ứng dụng và thiết lập Trả lời của tôi, tôi thấy một vài cuộc hội thoại đầu tiên gây phiền nhiễu. Một vài lần, tôi đã phải lặp lại một câu theo nhiều cách khác nhau để truyền đạt ý định của mình đến Trả lời của tôi. Tôi thường rời khỏi ứng dụng trong thất vọng. (Và công bằng mà nói, tôi đã làm rất tốt khi kiểm tra giới hạn của nó bằng cách ném bom nó bằng những câu hỏi khái niệm và trừu tượng.) Nhưng khi cuộc trò chuyện của chúng tôi tiếp tục, Trả lời của tôi trở nên thông minh hơn trong việc hiểu ý nghĩa của câu và đưa ra những chủ đề có ý nghĩa. Nó thậm chí còn làm tôi ngạc nhiên một vài lần bằng cách kết nối với các cuộc trò chuyện trong quá khứ.
Mặc dù nó rất ấn tượng, nhưng Alternika có những giới hạn, điều mà Kuyda nhanh chóng chỉ ra. "Bắt chước bằng giọng nói và nhận dạng hình ảnh có thể sẽ sớm trở nên tốt hơn nhiều, nhưng với hộp thoại và cuộc trò chuyện, chúng ta vẫn còn khá xa", cô nói. "Chúng tôi có thể bắt chước một số mẫu bài phát biểu, nhưng chúng tôi không thể bắt một người và bắt chước cuộc trò chuyện của anh ấy một cách hoàn hảo và mong đợi chatbot của anh ấy đưa ra những ý tưởng mới theo cách mà người đó sẽ làm."
Alexandre de Brébisson, CEO và đồng sáng lập của Lyrebird, nói: "Nếu chúng ta đang trở nên khá giỏi trong việc bắt chước giọng nói, hình ảnh và video của con người, chúng ta vẫn còn cách xa việc mô hình hóa một mô hình ngôn ngữ riêng lẻ." Điều đó, de Brébisson chỉ ra, có lẽ sẽ đòi hỏi trí thông minh chung nhân tạo, loại AI có ý thức và có thể hiểu các khái niệm trừu tượng và đưa ra quyết định như con người. Một số chuyên gia tin rằng chúng ta cách xa hàng thập kỷ để tạo ra AI nói chung. Những người khác nghĩ rằng chúng tôi sẽ không bao giờ đến đó.
Sử dụng tích cực
Hình ảnh tiêu cực đang được dự kiến về việc tổng hợp các ứng dụng AI đang phủ bóng đen lên những công dụng tích cực của chúng. Và có khá nhiều.
Các công nghệ như Lyrebird có thể giúp cải thiện giao tiếp với giao diện máy tính bằng cách làm cho chúng tự nhiên hơn, và, de Brébisson nói, chúng sẽ cung cấp tiếng nói nhân tạo độc đáo giúp phân biệt các công ty và sản phẩm và do đó giúp phân biệt thương hiệu dễ dàng hơn. Khi Alexa của Amazon và Siri của Apple đã biến giọng nói thành một giao diện ngày càng phổ biến cho các thiết bị và dịch vụ, các công ty như Lyrebird và Voicery có thể cung cấp cho các thương hiệu những giọng nói giống như con người để phân biệt.
"Các ứng dụng y tế cũng là một trường hợp sử dụng thú vị của công nghệ nhân bản giọng nói của chúng tôi, " de Brébisson cho biết thêm. "Chúng tôi đã nhận được rất nhiều sự quan tâm từ các bệnh nhân bị mất giọng nói vì một căn bệnh và hiện tại, chúng tôi đang dành thời gian với các bệnh nhân ALS để xem chúng tôi có thể giúp họ như thế nào."
Đầu năm nay, hợp tác với Project Revoice, một tổ chức phi lợi nhuận của Úc giúp bệnh nhân ALS bị rối loạn ngôn ngữ, Lyrebird đã giúp Pat Quinn, người sáng lập Ice Xô Challenge, lấy lại giọng nói. Quinn, một bệnh nhân ALS, đã mất khả năng đi lại và nói chuyện vào năm 2014 và kể từ đó đã sử dụng một bộ tổng hợp giọng nói được vi tính hóa. Với sự giúp đỡ của công nghệ Lyrebird và bản ghi âm giọng nói xuất hiện trước công chúng của Quinn, Revoice đã có thể "tái tạo" giọng nói của mình.
"Giọng nói của bạn là một phần lớn trong bản sắc của bạn và mang đến cho những bệnh nhân đó một giọng nói nhân tạo nghe giống giọng nói ban đầu của họ giống như mang lại cho họ một phần quan trọng trong danh tính của họ. Nó thay đổi cuộc sống đối với họ", de Brébisson nói.
Vào thời điểm ông giúp phát triển ứng dụng bắt chước chữ viết tay, Tiến sĩ Haines đã nói về những ứng dụng tích cực của nó trong một cuộc phỏng vấn với UCL. "Ví dụ, nạn nhân đột quỵ có thể tạo ra các bức thư mà không phải lo lắng về tính bất hợp pháp hoặc ai đó gửi hoa làm quà tặng có thể bao gồm một bức thư viết tay mà không cần đến người bán hoa", ông nói. "Nó cũng có thể được sử dụng trong truyện tranh trong đó một đoạn văn bản viết tay có thể được dịch sang các ngôn ngữ khác nhau mà không làm mất phong cách ban đầu của tác giả."
Ngay cả các công nghệ như FakeApp, đã trở nên nổi tiếng về việc sử dụng phi đạo đức, có thể có những ứng dụng tích cực, Haines tin tưởng. "Chúng ta đang tiến tới thế giới này, nơi mọi người có thể thực hiện hoạt động sáng tạo cao với công nghệ công cộng, và đó là một điều tốt, bởi vì điều đó có nghĩa là bạn không cần những khoản tiền lớn đó để làm tất cả những thứ điên rồ có bản chất nghệ thuật, " anh ta nói.
Haines giải thích rằng mục đích ban đầu của nhóm của ông là tìm hiểu làm thế nào AI có thể giúp đỡ với pháp y. Mặc dù nghiên cứu của họ đã kết thúc theo một hướng khác, kết quả vẫn sẽ hữu ích cho các nhân viên pháp y, những người sẽ có thể nghiên cứu xem sự giả mạo dựa trên AI có thể trông như thế nào. "Bạn muốn biết công nghệ tiên tiến là gì, vì vậy khi bạn nhìn vào thứ gì đó, bạn sẽ biết nó có giả hay không", ông nói.
Kudya của Alternika chỉ ra rằng các ứng dụng AI giống con người có thể giúp chúng ta theo những cách không thể. "Nếu bạn có một hình đại diện AI biết bạn rất rõ và có thể là một đại diện tốt cho bạn, thì nó có thể làm gì, hành động vì lợi ích tốt nhất của bạn?" cô ấy nói. Chẳng hạn, hình đại diện AI tự trị có thể thay mặt bạn xem hàng trăm bộ phim và dựa trên các cuộc hội thoại với bạn, giới thiệu những bộ phim bạn muốn.
Những avatar này thậm chí có thể giúp phát triển mối quan hệ tốt hơn của con người. "Có lẽ mẹ bạn có thể có nhiều thời gian hơn với bạn, và có lẽ bạn thực sự có thể trở nên thân thiết hơn một chút với bố mẹ, bằng cách cho họ trò chuyện với Trả lời của bạn và đọc bảng điểm, " Kudya nói như một ví dụ.
Nhưng một chatbot AI có thể sao chép hành vi của một con người thực sự thực sự dẫn đến mối quan hệ tốt hơn của con người? Kuyda tin rằng nó có thể. Năm 2016, cô đã thu thập các tin nhắn và email cũ của Roman Mazurenko, một người bạn đã chết trong một vụ tai nạn đường bộ năm trước, và đưa chúng vào mạng lưới thần kinh cung cấp ứng dụng của cô. Kết quả là một ứng dụng chatbot mà ngay sau khi một người thời trang đã đưa bạn của cô ấy trở lại cuộc sống và có thể nói chuyện với cô ấy theo cách mà anh ấy sẽ làm.
"Tạo một ứng dụng cho Roman và đôi khi có thể nói chuyện với anh ấy là một phần quan trọng trong việc vượt qua sự mất mát của bạn bè chúng tôi. Ứng dụng này khiến chúng tôi nghĩ nhiều hơn về anh ấy, luôn nhớ về anh ấy một cách sâu sắc hơn", cô nói kinh nghiệm của cô ấy "Tôi ước tôi có nhiều ứng dụng như thế, những ứng dụng liên quan đến tình bạn, mối quan hệ của tôi, những thứ thực sự quan trọng đối với tôi."
Kuyda nghĩ rằng tất cả sẽ phụ thuộc vào ý định. "Nếu chatbot hoạt động vì lợi ích tốt nhất của bạn, nếu nó muốn bạn vui mừng khi nhận được một số dịch vụ có giá trị từ đó, thì rõ ràng việc nói chuyện với Trả lời của người khác sẽ giúp xây dựng một kết nối mạnh mẽ hơn với con người trong cuộc sống thực., " cô ấy nói. "Nếu tất cả những gì bạn đang cố gắng làm là bán s trong một ứng dụng, thì tất cả những gì bạn sẽ làm là tối đa hóa thời gian dành cho ứng dụng và không liên lạc với nhau. Và tôi đoán là có thể nghi ngờ."
Hiện tại, không có cách nào để kết nối Trả lời của bạn với các nền tảng khác, ví dụ như làm cho nó có sẵn dưới dạng chatbot Facebook Messenger. Nhưng công ty có mối quan hệ tích cực với cộng đồng người dùng và không ngừng phát triển các tính năng mới. Vì vậy, để người khác liên lạc với Trả lời của bạn là một khả năng trong tương lai.
Làm thế nào để giảm thiểu sự đánh đổi
Từ động cơ hơi nước đến điện cho đến internet, mọi công nghệ đều có cả ứng dụng tích cực và tiêu cực. AI cũng không khác. "Tiềm năng cho những tiêu cực là khá nghiêm trọng", Haines nói. "Chúng tôi có thể đang bước vào một không gian, những tiêu cực làm lớn hơn những mặt tích cực."
Vậy làm thế nào để chúng ta tối đa hóa lợi ích của các ứng dụng AI trong khi chống lại những tiêu cực? Haines nói rằng, nếu không làm như vậy, nếu một số người làm như vậy, không có gì đảm bảo rằng các tổ chức và nhà nước khác sẽ làm theo.
"Không có biện pháp duy nhất nào sẽ giúp giải quyết vấn đề, " Haines nói. "Sẽ có hậu quả pháp lý." Sau những tranh cãi sâu sắc, các nhà lập pháp ở Mỹ đang xem xét vấn đề và khám phá các biện pháp bảo vệ pháp lý có thể kiềm chế việc sử dụng phương tiện truyền thông được chứng minh bằng AI cho các mục tiêu gây thiệt hại.
"Chúng ta cũng có thể phát triển các công nghệ để phát hiện hàng giả khi chúng vượt qua điểm mà con người có thể nhận ra sự khác biệt", Haines nói. "Nhưng đến một lúc nào đó, trong cuộc cạnh tranh giữa giả mạo và phát hiện, giả mạo có thể chiến thắng."
Trong trường hợp đó, chúng ta có thể phải tiến tới phát triển các công nghệ tạo ra một chuỗi bằng chứng cho phương tiện kỹ thuật số. Ví dụ, Haines đề cập đến phần cứng được nhúng trong máy ảnh có thể ký điện tử video đã ghi để xác nhận tính xác thực của nó.
Nâng cao nhận thức sẽ là một phần lớn trong việc đối phó với giả mạo và gian lận bằng thuật toán AI, de Brébisson nói. "Đó là những gì chúng tôi đã làm bằng cách nhân bản giọng nói của Trump và Obama và khiến họ nói những câu chính xác, " ông nói. "Những công nghệ này đưa ra những câu hỏi về xã hội, đạo đức và pháp lý cần phải nghĩ đến trước thời hạn. Lyrebird đã nâng cao nhận thức và nhiều người hiện đang nghĩ về những vấn đề tiềm năng đó và cách ngăn chặn lạm dụng."
Điều chắc chắn là chúng ta đang bước vào thời đại mà thực tế và viễn tưởng hợp nhất, nhờ trí tuệ nhân tạo. Bài kiểm tra Turing có thể đáp ứng những thách thức lớn nhất của nó. Và không lâu nữa, mọi người sẽ có công cụ và sức mạnh để tạo ra thế giới của riêng họ, con người của họ và phiên bản sự thật của chính họ. Chúng ta vẫn chưa thấy đầy đủ các cơ hội thú vị, và các mối nguy hiểm đang ở phía trước.