Trang Chủ Ý kiến Tại sao ai phải tiết lộ rằng đó là ai

Tại sao ai phải tiết lộ rằng đó là ai

Mục lục:

Video: [Nhạc chế 16+] - NHỮNG CHỊ ĐẠI HỌC ĐƯỜNG - Hậu Hoàng ft Nhung Phương (Tháng Chín 2024)

Video: [Nhạc chế 16+] - NHỮNG CHỊ ĐẠI HỌC ĐƯỜNG - Hậu Hoàng ft Nhung Phương (Tháng Chín 2024)
Anonim

Google gần đây đã từ chối duplex để tiết lộ rõ ​​ràng với chủ nhà hàng và nhân viên của tiệm rằng họ đang nói chuyện với Trợ lý Google và đang được ghi lại.

Google đã bỏ qua chi tiết nhỏ nhưng quan trọng này khi lần đầu tiên giới thiệu Duplex tại hội nghị nhà phát triển I / O vào tháng 5. Một phản ứng dữ dội của truyền thông xảy ra sau đó, và các nhà phê bình đã làm mới lại những lo ngại cũ về hệ lụy của các tác nhân AI có thể mạo danh hành vi của con người theo những cách không thể phân biệt được.

Bằng cách điều chỉnh Duplex, Google đưa ra một số lời chỉ trích đó. Nhưng tại sao điều quan trọng là các công ty phải minh bạch về danh tính của các tác nhân AI của họ?

Trợ lý AI có thể phục vụ mục đích xấu?

"Có một kỳ vọng ngày càng tăng rằng khi bạn nhắn tin cho một doanh nghiệp, bạn có thể tương tác với một chatbot do AI cung cấp. Nhưng khi bạn thực sự nghe thấy tiếng người nói, bạn thường mong đợi đó là một người thực sự", Joshua March, CEO nói. của xã hội.

March nói rằng chúng ta là người bắt đầu có những tương tác có ý nghĩa với AI một cách thường xuyên và những tiến bộ trong lĩnh vực này đã tạo ra nỗi sợ rằng tin tặc có thể khai thác các tác nhân AI cho mục đích xấu.

Marcio Avillez, SVP của Networks tại Cujo AI cho biết: "Trong một trường hợp tốt nhất, các bot AI với mục đích xấu có thể xúc phạm mọi người". Nhưng Marcio cho biết thêm rằng chúng ta có thể phải đối mặt với những mối đe dọa khủng khiếp hơn. Ví dụ, AI có thể học các mô hình ngôn ngữ cụ thể, giúp dễ dàng điều chỉnh công nghệ để thao túng con người, mạo danh nạn nhân và tấn công lừa đảo trên sân khấu (lừa đảo bằng giọng nói) và các hoạt động tương tự.

Nhiều chuyên gia đồng ý mối đe dọa là có thật. Trong một chuyên mục về CIO, Steven Brykman đã đưa ra những cách khác nhau mà một công nghệ như Duplex có thể được khai thác: "Ít nhất với con người gọi con người, vẫn còn một yếu tố hạn chế mà con người chỉ có thể thực hiện nhiều cuộc gọi mỗi giờ mỗi ngày. Con người phải được trả tiền, nghỉ giải lao, v.v. Nhưng một chatbot AI thực sự có thể thực hiện một số lượng cuộc gọi không giới hạn tới một số lượng người không giới hạn theo nhiều cách không giới hạn! "

Ở giai đoạn này, hầu hết những gì chúng ta nghe là đầu cơ; chúng ta vẫn chưa biết mức độ và mức độ nghiêm trọng của các mối đe dọa có thể phát sinh với sự ra đời của các trợ lý giọng nói. Nhưng nhiều cuộc tấn công tiềm năng liên quan đến trợ lý dựa trên giọng nói có thể bị loại bỏ nếu công ty cung cấp công nghệ này giao tiếp rõ ràng với người dùng khi họ tương tác với một tác nhân AI.

Mối quan tâm riêng tư

Một vấn đề khác xung quanh việc sử dụng các công nghệ như Duplex là rủi ro tiềm ẩn đối với quyền riêng tư. Các hệ thống do AI cung cấp cần dữ liệu người dùng để đào tạo và cải thiện thuật toán của họ, và Duplex cũng không ngoại lệ. Làm thế nào nó sẽ lưu trữ, bảo mật và sử dụng dữ liệu đó là rất quan trọng.

Các quy định mới đang xuất hiện yêu cầu các công ty phải có được sự đồng ý rõ ràng của người dùng khi họ muốn thu thập thông tin của họ, nhưng chúng hầu hết được thiết kế để bao gồm các công nghệ nơi người dùng cố tình bắt đầu tương tác. Điều này có ý nghĩa đối với các trợ lý AI như Siri và Alexa, được kích hoạt bởi người dùng. Nhưng không rõ các quy tắc mới sẽ áp dụng như thế nào cho các trợ lý AI tiếp cận với người dùng mà không bị kích hoạt.

Trong bài viết của mình, Brykman nhấn mạnh sự cần thiết phải thiết lập các biện pháp bảo vệ theo quy định, chẳng hạn như luật yêu cầu các công ty tuyên bố sự hiện diện của một đặc vụ AI hay một luật mà khi bạn hỏi một chatbot liệu đó có phải là một chatbot hay không, thì phải nói: "Có, Tôi là một chatbot. " Các biện pháp như vậy sẽ cho phép người đối thoại của con người có cơ hội buông tha hoặc ít nhất là quyết định xem họ có muốn tương tác với một hệ thống AI ghi lại giọng nói của họ hay không.

Ngay cả với luật pháp như vậy, mối quan tâm riêng tư sẽ không biến mất. "Rủi ro lớn nhất mà tôi thấy trước trong sự hiện thân của công nghệ là nó sẽ cung cấp cho Google thêm dữ liệu về cuộc sống riêng tư của chúng tôi mà nó chưa có. Cho đến thời điểm này, họ chỉ biết về truyền thông trực tuyến của chúng tôi, giờ họ sẽ hiểu rõ hơn về cuộc trò chuyện trong thế giới thực của chúng tôi, "Vian Chinner, người sáng lập và CEO của Xineoh nói.

Những vụ bê bối về quyền riêng tư gần đây liên quan đến các công ty công nghệ lớn, trong đó họ đã sử dụng dữ liệu người dùng theo những cách đáng ngờ cho lợi ích riêng của họ, đã tạo ra cảm giác không tin tưởng về việc cho họ thêm cửa sổ vào cuộc sống của chúng ta. "Mọi người nói chung cảm thấy rằng các công ty lớn ở Thung lũng Silicon đang xem họ là hàng tồn kho thay vì khách hàng và có một mức độ không tin tưởng lớn đối với hầu hết mọi thứ họ làm, bất kể nó sẽ đột phá và thay đổi cuộc sống như thế nào, " Chinner nói.

Lỗi chức năng

Mặc dù có giọng nói và âm sắc tự nhiên và sử dụng các âm thanh giống như con người như "mmhm" và "ummm", song song không khác gì các công nghệ AI hiện đại khác và chịu những hạn chế tương tự.

Cho dù giọng nói hay văn bản được sử dụng làm giao diện, các tác nhân AI đều giỏi trong việc giải quyết các vấn đề cụ thể. Đó là lý do tại sao chúng ta gọi chúng là "AI hẹp" (trái ngược với loại trí thông minh nhân tạo "AI nói chung" có thể tham gia vào việc giải quyết vấn đề chung, như tâm trí con người làm). Mặc dù AI hẹp có thể đặc biệt tốt trong việc thực hiện các nhiệm vụ được lập trình, nhưng nó có thể thất bại một cách ngoạn mục khi nó đưa ra một kịch bản lệch khỏi miền vấn đề của nó.

"Nếu người tiêu dùng nghĩ rằng họ đang nói chuyện với con người, họ có thể sẽ hỏi điều gì đó nằm ngoài kịch bản thông thường của AI và sau đó sẽ nhận được phản hồi bực bội khi bot không hiểu", Marchocial nói.

Ngược lại, khi một người biết rằng họ đang nói chuyện với AI đã được đào tạo để đặt bàn tại nhà hàng, họ sẽ cố gắng tránh sử dụng ngôn ngữ sẽ gây nhầm lẫn cho AI và khiến nó hành xử theo những cách bất ngờ, đặc biệt là nếu nó mang lại họ là khách hàng

Avillez nói: "Các nhân viên nhận được cuộc gọi từ Duplex cũng sẽ nhận được lời giới thiệu đơn giản rằng đây không phải là người thật. Điều này sẽ giúp việc liên lạc giữa các nhân viên và AI trở nên bảo thủ và rõ ràng hơn".

Vì lý do này, cho đến khi (và nếu) chúng tôi phát triển AI có thể hoạt động ngang tầm với trí thông minh của con người, đó là lợi ích của chính các công ty để minh bạch về việc sử dụng AI của họ.

Vào cuối ngày, một phần của nỗi sợ các trợ lý giọng nói như Duplex là do thực tế là chúng mới và chúng ta vẫn quen với việc gặp chúng trong các cài đặt mới và các trường hợp sử dụng. "Ít nhất một số người có vẻ rất khó chịu với ý tưởng nói chuyện với robot mà không biết về nó, vì vậy trong thời gian này, có lẽ nên tiết lộ cho các đối tác trong cuộc trò chuyện, " Chinner nói.

  • AI là (cũng) là một lực lượng cho AI tốt (cũng) là một lực lượng tốt
  • Khi AI làm mờ ranh giới giữa thực tế và viễn tưởng Khi AI làm mờ ranh giới giữa thực tế và viễn tưởng
  • Trí tuệ nhân tạo có vấn đề về thiên vị và đó là lỗi của chúng tôi Trí thông minh nhân tạo có vấn đề về thiên vị và đó là lỗi của chúng tôi

Nhưng về lâu dài, chúng ta sẽ quen với việc tương tác với các tác nhân AI thông minh hơn và có khả năng thực hiện các nhiệm vụ trước đây được cho là miền độc quyền của các nhà khai thác con người.

"Thế hệ tiếp theo sẽ không quan tâm nếu họ nói chuyện với AI hay con người khi họ liên hệ với một doanh nghiệp. Họ sẽ chỉ muốn nhận được câu trả lời nhanh chóng và dễ dàng, và họ sẽ lớn lên nói chuyện với Alexa. giữ để nói chuyện với một con người sẽ khó chịu hơn nhiều so với việc chỉ tương tác với một con bot, "tháng ba của Conversocial nói.

Tại sao ai phải tiết lộ rằng đó là ai