Trang Chủ Đặc trưng 10 thuật toán xấu hổ thất bại

10 thuật toán xấu hổ thất bại

Mục lục:

Video: Ngắm Hoa Lệ Rơi - Châu Khải Phong [ Lyrics MV ] (Tháng mười một 2024)

Video: Ngắm Hoa Lệ Rơi - Châu Khải Phong [ Lyrics MV ] (Tháng mười một 2024)
Anonim

Công nghệ không chỉ dành cho những người đam mê, nó dành cho tất cả mọi người, và đó là rất nhiều người. Chỉ với một số ít các công ty kiểm soát hầu hết các phần cứng và phần mềm từ Apple và Amazon đến Facebook, Microsoft và Google, họ chỉ có thể làm rất nhiều để kiểm soát ví và nhãn cầu của bạn. Một tập đoàn nghèo, khổng lồ để làm gì? Dựa vào các thuật toán để đưa ra một số quyết định quan trọng.

Từ điển Oxford Living định nghĩa thuật toán là "một quy trình hoặc bộ quy tắc cần tuân thủ trong các tính toán hoặc các hoạt động giải quyết vấn đề khác, đặc biệt là bằng máy tính." Một ví dụ hoàn hảo là Nguồn cấp tin tức Facebook. Không ai biết nó hoạt động như thế nào khi một số bài đăng của bạn hiển thị trên News Feed của một số người hay không, nhưng Facebook thì có. Hoặc làm thế nào về Amazon hiển thị cho bạn những cuốn sách liên quan? Tìm kiếm liên quan trên Google? Tất cả những điều này là những bí mật được bảo vệ chặt chẽ, làm rất nhiều việc cho công ty và có thể ảnh hưởng lớn đến cuộc sống của bạn.

Nhưng thuật toán không hoàn hảo. Họ thất bại và một số thất bại ngoạn mục. Thêm vào ánh sáng chói của truyền thông xã hội, và một trục trặc nhỏ có thể biến thành cơn ác mộng PR thực sự nhanh chóng. Nó hiếm khi độc hại; những thứ này có xu hướng là thứ mà Thời báo New York gọi là "Khoảnh khắc Frankenstein", nơi sinh vật mà ai đó tạo ra biến thành quái vật. Nhưng nó đã xảy ra, và chúng tôi đã tổng hợp một số ví dụ gần đây nhất dưới đây. Hãy cho chúng tôi biết yêu thích của bạn trong các ý kiến ​​dưới đây.

    1 quảng cáo nghi vấn của Instagram

    Theo báo cáo của The Guardian, Facebook thích chạy quảng cáo cho dịch vụ Instagram của mình với các bài đăng từ chính người dùng của mình. Nhưng thuật toán đã chọn sai "bức ảnh" để gửi cho bạn bè của Olivia Solon, bản thân cô là phóng viên của The Guardian, chọn một ảnh chụp màn hình một năm tuổi mà cô đã chụp một email đe dọa.

    2 quảng cáo phân biệt chủng tộc được nhắm mục tiêu

    Tuần trước, ProPublica đã báo cáo rằng Facebook cho phép các nhà quảng cáo nhắm mục tiêu các loại người gây khó chịu, như "người ghét người Do Thái". Trang web đã trả 30 đô la cho một quảng cáo (ở trên) nhắm đến đối tượng sẽ phản hồi tích cực với những điều như "tại sao người Do Thái hủy hoại thế giới" và "Hitler không làm gì sai". Nó đã được phê duyệt trong vòng 15 phút.

    Slate tìm thấy các danh mục gây khó chịu tương tự, và nó trở thành một mục khác trong hàng dài các mặt hàng mà Facebook không chỉ xin lỗi mà còn hứa sẽ khắc phục với sự giám sát của con người. Bạn biết đấy, giống như khi nó đặt quảng cáo bầu cử trị giá 100.000 đô la cho Nga.

    Trong một bài đăng trên Facebook, COO Sheryl Sandberg nói rằng cô "ghê tởm và thất vọng về những từ đó" và thông báo thay đổi công cụ quảng cáo của mình.

    BuzzFeed đã kiểm tra xem Google sẽ xử lý những việc tương tự như thế nào và nhận thấy thật dễ dàng để thiết lập quảng cáo được nhắm mục tiêu để được nhìn thấy bởi những kẻ phân biệt chủng tộc và những kẻ lớn. Daily Beast đã kiểm tra nó trên Twitter và tìm thấy hàng triệu quảng cáo sử dụng các thuật ngữ như "Nazi", "wetback" và từ N.

    3 năm đánh giá Facebook

    Nếu bạn đang ở trên Facebook, chắc chắn bạn đã xem các video được tạo bằng thuật toán vào cuối năm với các video nổi bật từ 12 tháng trước. Hoặc đối với một số người, đèn thấp. Vào năm 2014, một người cha đã nhìn thấy một bức ảnh của con gái quá cố của mình, trong khi một người khác nhìn thấy những bức ảnh chụp ngôi nhà của anh ta trong biển lửa. Các ví dụ khác bao gồm những người nhìn thấy thú cưng quá cố của họ, đầy tro cốt của cha mẹ và những người bạn đã qua đời. Năm 2015, Facebook hứa sẽ lọc ra những ký ức buồn.

  • Tai nạn tự động 4 Tesla

    Hầu hết các snafus thuật toán là xa gây tử vong, nhưng thế giới của những chiếc xe tự lái sẽ mang đến một mức độ nguy hiểm hoàn toàn mới. Điều đó đã xảy ra ít nhất một lần. Một chủ sở hữu Tesla trên đường cao tốc Florida đã sử dụng chế độ bán tự trị (Autopilot) và đâm vào xe đầu kéo đã cắt đứt anh ta. Tesla đã nhanh chóng đưa ra các bản nâng cấp, nhưng đó có thực sự là lỗi của chế độ Autopilot không? Cục Quản lý An toàn Giao thông Đường cao tốc Quốc gia cho biết có thể không phải vì hệ thống yêu cầu người lái xe cảnh giác với các vấn đề, như bạn có thể thấy trong video trên. Bây giờ, Tesla ngăn Autopilot thậm chí không được tham gia nếu người lái xe không phản ứng với tín hiệu thị giác trước.

  • 5 Tay phân biệt chủng tộc Microsoft AI

    Một vài năm trước, các bot chat được cho là sẽ gây bão trên toàn thế giới, thay thế các đại diện dịch vụ khách hàng và biến thế giới trực tuyến thành một nơi trò chuyện để lấy thông tin. Microsoft đã trả lời vào tháng 3 năm 2016 bằng cách đưa ra một AI có tên Tay mà mọi người, cụ thể là những người từ 18 đến 24 tuổi, có thể tương tác với nhau trên Twitter. Tay lần lượt sẽ làm tweet công khai cho công chúng. Nhưng chỉ trong chưa đầy 24 giờ, học hỏi từ đám đông hôi miệng, Tay đã trở thành một kẻ phân biệt chủng tộc toàn diện. Microsoft kéo Tay xuống ngay lập tức; cô đã trở lại với tư cách là một AI mới có tên Zo vào tháng 12 năm 2016, với "sự kiểm tra và cân bằng mạnh mẽ để bảo vệ cô khỏi bị bóc lột".

    6 Chúc mừng cho em bé (Không tồn tại) của bạn!

    Tiết lộ đầy đủ: Khi tôi viết bài này, vợ tôi thực sự đang mang thai. Cả hai chúng tôi đều nhận được email này từ Amazon nói rằng ai đó đã mua thứ gì đó cho chúng tôi từ sổ đăng ký bé. Chúng tôi chưa công khai, nhưng nó không gây sốc. Trong khi đó, vài triệu khách hàng khác của Amazon cũng nhận được lưu ý tương tự, bao gồm một số không có đăng ký … hoặc em bé đang trên đường. Nó có thể là một phần của kế hoạch lừa đảo, nhưng thực tế không phải vậy. Amazon đã bắt lỗi và gửi email xin lỗi tiếp theo. Đến lúc đó, nhiều người đã phàn nàn rằng điều này là không phù hợp hoặc không nhạy cảm. Đây là thuật toán ít hơn so với máy chủ email trục trặc, nhưng sẽ cho bạn thấy rằng nó luôn dễ bị xúc phạm.

    7 Vật liệu bom 'khuyến nghị' của Amazon

    Mọi người đã nhảy vào cái này sau khi nó được báo cáo bởi Channel 4 News, từ Fox News đến New York Times . Người ta cho rằng tính năng "thường xuyên mua cùng nhau" của Amazon sẽ cho mọi người thấy những gì họ cần để chế tạo bom, nếu họ bắt đầu với một trong những thành phần mà trang web sẽ không nêu tên (đó là kali nitrat).

    Những gì thuật toán của Amazon thực sự đã làm cho người mua thấy các thành phần để tạo ra bột đen với số lượng nhỏ, hoàn toàn hợp pháp tại Vương quốc Anh, và được sử dụng cho tất cả những thứ như vụ bắn pháo hoa như một cách nhanh chóng được chỉ ra trong một suy nghĩ cực kỳ tốt ra bài viết trên blog tại Idle Words. Thay vào đó, tất cả các báo cáo đều nói về cách Amazon đang xem xét nó, bởi vì đó là những gì họ phải nói rằng họ đang làm trong một thế giới sợ khủng bố và logic.

    8 Google Maps được phân biệt chủng tộc

    Vào năm 2015, Google đã phải xin lỗi khi Google Maps tìm kiếm "n ***** king" và "n *** a house", dẫn đến Nhà Trắng, nơi vẫn còn bị Barack Obama chiếm đóng vào thời điểm đó. Đây là kết quả của "Googlebomb", trong đó thuật ngữ được sử dụng nhiều lần được công cụ tìm kiếm chọn và đánh dấu là "phổ biến" để kết quả được đưa lên đầu tìm kiếm. Đó là cách từ "Santorum" có định nghĩa mới.

    9 Google Tags Con người là Khỉ đột

    Google Photos là một ứng dụng / dịch vụ tuyệt vời lưu trữ tất cả hình ảnh của bạn và hơn thế nữa. Một trong những điều đó là tự động gắn thẻ người và vật trong ảnh. Nó sử dụng nhận dạng khuôn mặt cho mọi người để thu hẹp họ xuống đúng người. Tôi thậm chí có một thư mục của tất cả những con chó của tôi, và tôi đã không gắn thẻ bất kỳ con nào trong số chúng. Cũng như nó hoạt động, thật là nghiêm trọng khi năm 2015 Google phải xin lỗi lập trình viên máy tính Jacky Alciné khi anh ta và một người bạn của cả hai người họ da đen bị dịch vụ đánh dấu là khỉ đột. "Chúng tôi rất kinh hoàng và thực sự xin lỗi vì điều này đã xảy ra", Google nói với PCMag.

    10 an ninh robot đánh trẻ em, tự sát

    Knightscope chế tạo robot an ninh tự trị gọi là K5 để tuần tra trường học và trung tâm thương mại và khu phố. Những chiếc nón Dalek-esque cao 5 feet trên bánh xe mà theo tín dụng của họ, vẫn đang trong giai đoạn thử nghiệm beta có xu hướng làm cho tin tức không phải để ngăn chặn tội phạm mà là cho những trục trặc.

    Chẳng hạn, vào tháng 7 năm 2016, chiếc K5 trong Trung tâm mua sắm Stanford ở Palo Alto đã chạy qua chân của một đứa trẻ 16 tháng tuổi và Knightscope phải chính thức xin lỗi. Cùng một vị trí, có lẽ cùng một droid, đã có một cuộc cãi vã trong bãi đậu xe với một người say rượu, nhưng ít nhất đó không phải là lỗi của K5. Ban bồi thẩm vẫn ra khỏi đơn vị K5 ở Georgetown, văn phòng / khu mua sắm ở Washington DC, nơi một người được cho là đã đi xuống cầu thang vào đài phun nước chỉ sau một tuần làm việc. Nó không tốt cho quân đội của Skynet.

10 thuật toán xấu hổ thất bại