Trang Chủ Ý kiến Làm thế nào cảnh báo tin tức giả của openai kích hoạt tin tức giả thực tế

Làm thế nào cảnh báo tin tức giả của openai kích hoạt tin tức giả thực tế

Mục lục:

Video: Chẳng cần tình yêu mãnh liệt, tôi mong gặp bạn trai không quan trọng tiểu tiết (Tháng Chín 2024)

Video: Chẳng cần tình yêu mãnh liệt, tôi mong gặp bạn trai không quan trọng tiểu tiết (Tháng Chín 2024)
Anonim

Phòng thí nghiệm nghiên cứu AI phi lợi nhuận OpenAI đã gây ra làn sóng hoảng loạn về ngày tận thế AI vào tháng trước khi giới thiệu một AI tạo văn bản hiện đại có tên là GPT-2. Nhưng trong khi nó tôn vinh những thành tựu của GPT-2, OpenAI tuyên bố họ sẽ không phát hành mô hình AI của mình ra công chúng, vì sợ rằng trong tay kẻ xấu, GPT-2 có thể được sử dụng cho các mục đích độc hại như tạo ra các bài báo sai lệch, mạo danh người khác trực tuyến và tự động hóa việc sản xuất nội dung giả mạo trên phương tiện truyền thông xã hội.

Có thể dự đoán, thông báo của OpenAI đã tạo ra một loạt các câu chuyện tin tức giật gân, nhưng trong khi bất kỳ công nghệ tiên tiến nào cũng có thể được vũ khí hóa, AI vẫn còn phải đi xa trước khi nó làm chủ thế hệ văn bản. Thậm chí sau đó, phải mất nhiều hơn AI tạo văn bản để tạo ra một cuộc khủng hoảng tin tức giả mạo. Trong ánh sáng này, các cảnh báo của OpenAI đã bị thổi phồng.

AI và ngôn ngữ của con người

Máy tính có lịch sử đấu tranh để xử lý ngôn ngữ của con người. Có rất nhiều phức tạp và sắc thái trong văn bản bằng văn bản mà việc chuyển đổi tất cả chúng thành các quy tắc phần mềm cổ điển là hầu như không thể. Nhưng những tiến bộ gần đây trong học tập sâu và mạng lưới thần kinh đã mở đường cho một cách tiếp cận khác để tạo ra phần mềm có thể xử lý các nhiệm vụ liên quan đến ngôn ngữ.

Học sâu đã mang lại những cải tiến lớn cho các lĩnh vực như dịch máy, tóm tắt văn bản, trả lời câu hỏi và tạo ngôn ngữ tự nhiên. Nó cho phép các kỹ sư phần mềm tạo ra các thuật toán phát triển hành vi của chính họ bằng cách phân tích nhiều ví dụ. Đối với các nhiệm vụ liên quan đến ngôn ngữ, các kỹ sư cung cấp cho các mạng thần kinh nội dung số hóa như câu chuyện tin tức, trang Wikipedia và bài đăng trên phương tiện truyền thông xã hội. Các mạng lưới thần kinh so sánh cẩn thận dữ liệu và lưu ý về cách các từ nhất định theo sau các từ khác trong các chuỗi định kỳ. Sau đó, họ biến các mẫu này thành các phương trình toán học phức tạp giúp họ giải quyết các nhiệm vụ liên quan đến ngôn ngữ như dự đoán các từ còn thiếu trong chuỗi văn bản. Nói chung, dữ liệu đào tạo chất lượng hơn mà bạn cung cấp cho một mô hình học sâu, nó càng trở nên tốt hơn khi thực hiện nhiệm vụ của mình.

Theo OpenAI, GPT-2 đã được đào tạo trên 8 triệu trang web và hàng tỷ từ, nhiều hơn so với các mô hình tương tự khác. Nó cũng sử dụng các mô hình AI tiên tiến để áp dụng các mẫu văn bản tốt hơn. Kết quả đầu ra mẫu từ GPT-2 cho thấy mô hình quản lý để duy trì sự gắn kết trong các chuỗi văn bản dài hơn so với các phiên bản trước.

Nhưng trong khi GPT-2 là một bước tiến trong lĩnh vực tạo ra ngôn ngữ tự nhiên, nó không phải là một bước đột phá về công nghệ để tạo ra AI có thể hiểu ý nghĩa và bối cảnh của văn bản viết. GPT-2 vẫn đang sử dụng các thuật toán để tạo ra các chuỗi từ giống nhau về mặt thống kê với hàng tỷ đoạn trích văn bản mà nó đã thấy trước đây, nó hoàn toàn không hiểu gì về những gì nó tạo ra.

Trong một phân tích chuyên sâu, Tiernan Ray của ZDNet chỉ ra một số trường hợp trong đó các mẫu đầu ra của GPT-2 phản bội bản chất nhân tạo của chúng bằng các tạo tác nổi tiếng như trùng lặp các thuật ngữ và thiếu logic và nhất quán trong thực tế. "Khi GPT-2 chuyển sang xử lý văn bản đòi hỏi sự phát triển nhiều hơn về ý tưởng và logic, các vết nứt vỡ ra khá rộng", Ray lưu ý.

Học thống kê có thể giúp máy tính tạo ra văn bản đúng ngữ pháp, nhưng cần có sự hiểu biết khái niệm sâu hơn để duy trì tính nhất quán logic và thực tế. Thật không may, đó vẫn là một thách thức mà sự pha trộn hiện tại của AI chưa vượt qua. Đó là lý do tại sao GPT-2 có thể tạo ra các đoạn văn bản hay nhưng có lẽ khó có thể tạo ra một bài viết dài xác thực hoặc mạo danh ai đó một cách thuyết phục và trong một khoảng thời gian dài.

Tại sao AI Fake-News Panic bị thổi phồng

Một vấn đề khác với lý luận của OpenAI: Nó giả định rằng AI có thể tạo ra một cuộc khủng hoảng tin tức giả mạo.

Năm 2016, một nhóm thanh thiếu niên người Macedonia đã lan truyền những câu chuyện giả mạo về cuộc bầu cử tổng thống Mỹ tới hàng triệu người. Trớ trêu thay, họ thậm chí không có kỹ năng tiếng Anh thích hợp; họ đã tìm thấy câu chuyện của mình trên web và ghép các nội dung khác nhau lại với nhau. Họ đã thành công vì họ đã tạo ra các trang web trông đủ xác thực để thuyết phục khách truy cập tin tưởng họ là nguồn tin đáng tin cậy. Các tiêu đề giật gân, người dùng phương tiện truyền thông xã hội cẩu thả và các thuật toán xu hướng đã làm phần còn lại.

Sau đó vào năm 2017, các diễn viên độc hại đã gây ra một cuộc khủng hoảng ngoại giao ở khu vực Vịnh Ba Tư bằng cách hack các trang web tin tức nhà nước Qatari và các tài khoản truyền thông xã hội của chính phủ và xuất bản các nhận xét giả mạo thay cho ông Sheikh Tamim bin Hamad Al Thani, Tiểu vương quốc Qatar.

Như những câu chuyện này cho thấy, sự thành công của các chiến dịch tin tức giả bản lề trong việc thiết lập (và phản bội) niềm tin, chứ không phải tạo ra một lượng lớn văn bản tiếng Anh mạch lạc.

Mặc dù vậy, cảnh báo của OpenAI về việc tự động hóa việc sản xuất nội dung giả mạo để đăng lên phương tiện truyền thông xã hội được bảo đảm hơn, bởi vì quy mô và khối lượng đóng vai trò quan trọng hơn trong các mạng xã hội so với các phương tiện truyền thông truyền thống. Giả định là một AI như GPT-2 sẽ có thể tràn ngập phương tiện truyền thông xã hội với hàng triệu bài đăng độc đáo về một chủ đề cụ thể, ảnh hưởng đến các thuật toán xu hướng và thảo luận công khai.

Tuy nhiên, các cảnh báo giảm thực tế. Trong vài năm qua, các công ty truyền thông xã hội đã liên tục phát triển các khả năng để phát hiện và ngăn chặn hành vi tự động. Vì vậy, một diễn viên độc hại được trang bị AI tạo văn bản sẽ phải vượt qua một số thách thức ngoài việc tạo ra nội dung độc đáo.

Chẳng hạn, họ sẽ cần hàng ngàn tài khoản truyền thông xã hội giả mạo để đăng nội dung do AI tạo ra. Thậm chí khó khăn hơn, để đảm bảo rằng không có cách nào để kết nối các tài khoản giả, họ sẽ cần một thiết bị và địa chỉ IP duy nhất cho mỗi tài khoản.

Nó trở nên tồi tệ hơn: Các tài khoản sẽ phải được tạo vào các thời điểm khác nhau, có thể hơn một năm hoặc lâu hơn, để giảm sự tương đồng. Năm ngoái, một cuộc điều tra của New York Times cho thấy chỉ riêng ngày tạo tài khoản có thể giúp khám phá các tài khoản bot. Sau đó, để che giấu bản chất tự động của họ khỏi những người dùng khác và thuật toán kiểm soát, các tài khoản sẽ phải tham gia vào hành vi giống con người, chẳng hạn như tương tác với người dùng khác và đặt âm điệu độc đáo trong bài đăng của họ.

Không có thách thức nào trong số này là không thể vượt qua, nhưng chúng cho thấy nội dung chỉ là một phần trong nỗ lực cần thiết để thực hiện trong một chiến dịch tin tức giả trên phương tiện truyền thông xã hội. Và một lần nữa, niềm tin đóng một vai trò quan trọng. Một vài người có ảnh hưởng truyền thông xã hội đáng tin cậy đưa ra một vài bài đăng tin tức giả sẽ có tác động lớn hơn một loạt các tài khoản không xác định tạo ra khối lượng lớn nội dung.

Bảo vệ các cảnh báo của OpenAI

Những cảnh báo phóng đại của OpenAI đã gây ra một chu kỳ thổi phồng truyền thông và hoảng loạn rằng, trớ trêu thay, lại giáp với tin tức giả mạo, khiến chỉ trích từ các chuyên gia AI nổi tiếng.

Họ đã mời những người làm truyền thông để có quyền truy cập sớm vào kết quả, với lệnh cấm vận báo chí để tất cả được công khai trong cùng một ngày. Không có nhà nghiên cứu nào tôi biết phải xem mô hình lớn, nhưng các nhà báo đã làm. Vâng, họ cố tình thổi nó lên.

- Matt Gardner (@nlpmattg) ngày 19 tháng 2 năm 2019

Mỗi con người mới có khả năng có thể được sử dụng để tạo ra tin tức giả, phổ biến các thuyết âm mưu và gây ảnh hưởng đến mọi người.

Chúng ta có nên ngừng làm em bé sau đó?

- Yann LeCun (@ylecun) ngày 19 tháng 2 năm 2019

Chỉ muốn cho bạn tất cả ngẩng cao đầu, phòng thí nghiệm của chúng tôi đã tìm thấy một bước đột phá đáng kinh ngạc trong việc hiểu ngôn ngữ. nhưng chúng tôi cũng lo lắng nó có thể rơi vào tay kẻ xấu. vì vậy chúng tôi quyết định loại bỏ nó và chỉ xuất bản các công cụ * ACL thông thường thay thế. Sự tôn trọng lớn cho đội vì công việc tuyệt vời của họ.

- (((? () (? () 'Yoav)))) (@yoavgo) ngày 15 tháng 2 năm 2019

Zachary Lipton, nhà nghiên cứu AI và biên tập viên của Khoảng gần đúng, đã chỉ ra lịch sử của OpenAI về việc "sử dụng blog của họ và chú ý đến công việc của máy phóng chưa thành công trong quan điểm của công chúng, và thường chơi các khía cạnh an toàn của con người trong công việc chưa có trí tuệ chân để đứng. "

Mặc dù OpenAI xứng đáng với tất cả những lời chỉ trích và sức nóng mà nó nhận được sau khi nhận xét sai lệch, nhưng cũng thật sự lo lắng về việc sử dụng công nghệ độc hại có thể có của công nghệ, ngay cả khi công ty sử dụng một cách vô trách nhiệm để giáo dục công chúng về nó.

  • Năm tính toán đạo đức của ngành công nghiệp AI Năm tính toán đạo đức của ngành công nghiệp AI
  • Lợi thế không công bằng: Đừng mong đợi AI chơi như một con người Lợi thế không công bằng: Đừng mong đợi AI chơi như một con người
  • AI này dự đoán Trolling trực tuyến trước khi nó xảy ra AI này dự đoán Trolling trực tuyến trước khi nó xảy ra

Trong những năm qua, chúng ta đã thấy các công nghệ AI được công khai mà không cần suy nghĩ và phản ánh có thể được vũ khí hóa cho các ý định độc hại. Một ví dụ là FakeApp, một ứng dụng AI có thể hoán đổi khuôn mặt trong video. Ngay sau khi FakeApp được phát hành, nó đã được sử dụng để tạo ra các video khiêu dâm giả mạo có sự góp mặt của những người nổi tiếng và chính trị gia, gây lo ngại về mối đe dọa giả mạo do AI cung cấp.

Quyết định của OpenAI cho thấy rằng chúng ta cần tạm dừng và suy nghĩ về sự phân nhánh có thể có của công nghệ phát hành công khai. Và chúng ta cần có những cuộc thảo luận tích cực hơn về những rủi ro của công nghệ AI.

"Một tổ chức tạm dừng một dự án cụ thể sẽ không thực sự thay đổi bất cứ điều gì lâu dài. Nhưng OpenAI nhận được nhiều sự chú ý cho bất cứ điều gì họ làm và tôi nghĩ họ nên được hoan nghênh vì đã chú ý đến vấn đề này", David Bau, một nhà nghiên cứu tại Phòng thí nghiệm Khoa học Máy tính và Trí tuệ Nhân tạo (CSAIL) của MIT, nói với Slate.

Làm thế nào cảnh báo tin tức giả của openai kích hoạt tin tức giả thực tế