Trang Chủ Ý kiến Năm của ngành công nghiệp ai tính toán

Năm của ngành công nghiệp ai tính toán

Mục lục:

Video: Về Đây Em Lo | Huỳnh Ái Vy | Bài hát gây bão trên TikTok (Tháng Chín 2024)

Video: Về Đây Em Lo | Huỳnh Ái Vy | Bài hát gây bão trên TikTok (Tháng Chín 2024)
Anonim

Kể từ khi các mạng lưới thần kinh sâu đã giành chiến thắng trong cuộc thi nhận dạng hình ảnh quan trọng nhất thế giới vào năm 2012, mọi người đều hào hứng với những gì trí tuệ nhân tạo có thể giải phóng. Nhưng trong cuộc đua phát triển các kỹ thuật và ứng dụng AI mới, các tác động tiêu cực có thể xảy ra đã bị lạc hậu.

Bây giờ chúng ta đang chứng kiến ​​sự thay đổi về nhận thức nhiều hơn về đạo đức AI. Năm 2018, các nhà phát triển AI trở nên ý thức hơn về sự phân nhánh có thể có của các sáng tạo của họ. Nhiều kỹ sư, nhà nghiên cứu và nhà phát triển đã nói rõ rằng họ sẽ không xây dựng các công nghệ gây hại hoặc gây thiệt hại cho cuộc sống của những người vô tội và họ đã nắm giữ các công ty của họ.

Nhận diện khuôn mặt trong thực thi pháp luật

Trong quá khứ, việc tạo các ứng dụng nhận dạng khuôn mặt rất khó khăn, tốn nhiều tài nguyên và dễ bị lỗi. Nhưng với những tiến bộ trong tầm nhìn máy tính, bộ phụ của AI cho phép máy tính nhận ra nội dung của hình ảnh và video, việc tạo các ứng dụng nhận dạng khuôn mặt trở nên dễ dàng hơn nhiều và trong tầm tay của mọi người.

Các công ty công nghệ lớn như Microsoft, Amazon và IBM bắt đầu cung cấp các dịch vụ dựa trên đám mây cho phép bất kỳ nhà phát triển nào tích hợp công nghệ nhận dạng khuôn mặt vào phần mềm của họ. Điều này đã mở khóa nhiều trường hợp sử dụng và ứng dụng mới trong các lĩnh vực khác nhau, chẳng hạn như bảo vệ danh tính và xác thực, bảo mật nhà thông minh và bán lẻ. Nhưng các nhà hoạt động về quyền riêng tư lên tiếng lo ngại về khả năng lạm dụng.

Vào tháng 5 năm 2018, Liên minh Tự do Dân sự Hoa Kỳ tiết lộ rằng Amazon đang tiếp thị Rekognition, một công nghệ phân tích video thời gian thực, cho các cơ quan thực thi pháp luật và chính phủ. Theo ACLU, cảnh sát ở ít nhất ba bang đang sử dụng Rekognition để nhận dạng khuôn mặt trên các nguồn cấp dữ liệu video giám sát.

"Với Rekognition, một chính phủ giờ đây có thể xây dựng một hệ thống để tự động hóa nhận dạng và theo dõi của bất kỳ ai. Ví dụ, nếu camera của cảnh sát được trang bị nhận dạng khuôn mặt, các thiết bị dành cho tính minh bạch của nhân viên và trách nhiệm sẽ chuyển thành máy giám sát nhằm vào công khai, "ACLU cảnh báo. "Bằng cách tự động hóa giám sát hàng loạt, các hệ thống nhận dạng khuôn mặt như Rekognition đe dọa sự tự do này, gây ra mối đe dọa đặc biệt đối với các cộng đồng đã bị nhắm mục tiêu một cách bất công trong môi trường chính trị hiện tại. Một khi các hệ thống giám sát mạnh mẽ như thế này được xây dựng và triển khai, tác hại sẽ vô cùng khó khăn để hoàn tác . "

Những lo ngại của ACLU đã được lặp lại bởi các nhân viên của Amazon, người vào tháng 6 đã viết một lá thư cho Jeff Bezos, CEO của công ty và yêu cầu ông ngừng bán Rekognition cho cơ quan thực thi pháp luật. Bức thư viết: "Công ty của chúng tôi không nên hoạt động trong lĩnh vực giám sát; chúng tôi không nên kinh doanh trong lĩnh vực kiểm soát; chúng tôi không nên hỗ trợ những người theo dõi và đàn áp dân cư bên lề".

Vào tháng 10, một nhân viên nặc danh của Amazon tiết lộ rằng ít nhất 450 nhân viên đã ký một bức thư khác kêu gọi Bezos và các giám đốc điều hành khác ngừng bán Rekognition cho cảnh sát. "Chúng tôi không thể thu lợi từ một tập hợp khách hàng hùng mạnh bằng chi phí của cộng đồng của chúng tôi; chúng tôi không thể đảo mắt khỏi chi phí nhân lực cho doanh nghiệp của mình. Chúng tôi sẽ không âm thầm xây dựng công nghệ để đàn áp và giết người, dù ở nước ta hay ở người khác, " nó nói rằng.

Dự án AI quân sự của Fallout

Trong khi Amazon đang đối phó với phản ứng dữ dội nội bộ này, Google đã trải qua những cuộc đấu tranh tương tự đối với hợp đồng phát triển AI cho quân đội Hoa Kỳ, được đặt tên là Project Maven.

Google được cho là đang giúp Bộ Quốc phòng phát triển công nghệ thị giác máy tính sẽ xử lý các cảnh quay video bằng máy bay không người lái. Lượng cảnh quay video được ghi lại bởi máy bay không người lái mỗi ngày là quá nhiều để các nhà phân tích của con người xem xét và Lầu Năm Góc muốn tự động hóa một phần của quy trình.

Thừa nhận tính chất gây tranh cãi của nhiệm vụ, người phát ngôn của Google quy định rằng họ chỉ cung cấp API cho TensorFlow, nền tảng học máy của mình, để phát hiện các đối tượng trong nguồn cấp dữ liệu video. Google cũng nhấn mạnh họ đang phát triển các chính sách và biện pháp bảo vệ để giải quyết các khía cạnh đạo đức trong công nghệ của mình.

Nhưng Project Maven không hợp với các nhân viên của Google, 3.000 người, trong đó có hàng chục kỹ sư, đã sớm ký một bức thư ngỏ tới CEO Sundar Pichai kêu gọi chấm dứt chương trình.

"Chúng tôi tin rằng Google không nên tham gia vào chiến tranh", bức thư viết. Họ yêu cầu công ty "soạn thảo, công khai và thực thi một chính sách rõ ràng tuyên bố rằng cả Google và các nhà thầu của họ sẽ không bao giờ xây dựng công nghệ chiến tranh."

Các nhân viên của Google cũng cảnh báo rằng chủ nhân của họ đang gây nguy hiểm cho danh tiếng và khả năng cạnh tranh tài năng của họ trong tương lai. "Chúng tôi không thể thuê ngoài trách nhiệm đạo đức của các công nghệ của mình cho các bên thứ ba", các nhân viên của Google nhấn mạnh.

Ngay sau đó, một bản kiến ​​nghị được ký bởi 90 học giả và nhà nghiên cứu đã kêu gọi các giám đốc điều hành hàng đầu của Google ngừng công việc về công nghệ quân sự. Các bên ký kết cảnh báo rằng công việc của Google sẽ tạo tiền đề cho "hệ thống vũ khí tự động nhận dạng mục tiêu và tự động". Họ cũng cảnh báo rằng khi công nghệ phát triển, họ sẽ đứng "một bước ngắn để ủy quyền cho máy bay không người lái tự động tự sát, không có sự giám sát của con người hoặc sự kiểm soát của con người có ý nghĩa".

Khi căng thẳng gia tăng, một số nhân viên của Google đã từ chức để phản đối.

Các nhà lãnh đạo công nghệ đã phản ứng như thế nào

Trước áp lực, Google đã tuyên bố vào tháng 6 rằng họ sẽ không gia hạn hợp đồng với Bộ Quốc phòng về Dự án Maven sau khi hết hạn vào năm 2019.

Trong một bài đăng trên blog, CEO Sundar Pichai (ảnh dưới) đã tuyên bố một bộ các nguyên tắc đạo đức sẽ chi phối sự phát triển và bán công nghệ AI của công ty. Theo Pichai, từ nay, công ty sẽ xem xét các dự án vì lợi ích của toàn xã hội và tránh sự phát triển của AI củng cố những thành kiến ​​không công bằng hiện có hoặc làm suy yếu an toàn công cộng.

Pichai cũng tuyên bố rõ ràng rằng công ty của ông sẽ không hoạt động trên các công nghệ vi phạm các quy tắc nhân quyền.

Bezos của Amazon đã bớt bối rối trước sự phẫn nộ đối với Rekognition. "Chúng tôi sẽ tiếp tục hỗ trợ DoD, và tôi nghĩ chúng ta nên làm vậy", Bezos nói tại một hội nghị công nghệ ở San Francisco vào tháng 10. "Một trong những công việc của lãnh đạo cấp cao là đưa ra quyết định đúng đắn, ngay cả khi nó không phổ biến."

Bezos cũng nhấn mạnh sự cần thiết của cộng đồng công nghệ để hỗ trợ quân đội. "Nếu các công ty công nghệ lớn sẽ quay lưng lại với DoD, đất nước này sẽ gặp rắc rối", ông nói.

Chủ tịch Microsoft Brad Smith, công ty phải đối mặt với những lời chỉ trích về công việc của mình với ICE, đã xuất bản một bài đăng trên blog vào tháng 7, trong đó ông kêu gọi một cách tiếp cận đo lường trong việc bán công nghệ nhạy cảm cho các cơ quan chính phủ. Trong khi Smith không loại trừ việc bán các dịch vụ nhận diện khuôn mặt cho cơ quan thực thi pháp luật và quân đội, ông nhấn mạnh sự cần thiết phải có quy định tốt hơn và minh bạch trong lĩnh vực công nghệ.

  • MIT chi 1 tỷ đô la cho chương trình nghiên cứu đạo đức AI MIT dành 1 tỷ đô la cho chương trình nghiên cứu đạo đức AI
  • Liệu AI thực sự nói được ngôn ngữ của chúng ta? Liệu AI thực sự nói được ngôn ngữ của chúng ta?
  • Phá vỡ Nhà máy AI không thể ngăn cản của Trung Quốc Phá vỡ Nhà máy AI không thể ngăn cản của Trung Quốc

"Chúng tôi đã bầu các đại diện trong Quốc hội có các công cụ cần thiết để đánh giá công nghệ mới này, với tất cả các phân nhánh của nó. Chúng tôi được hưởng lợi từ việc kiểm tra và cân bằng Hiến pháp đã chứng kiến ​​chúng tôi từ thời đại nến đến thời đại trí tuệ nhân tạo. rất nhiều lần trong quá khứ, chúng ta cần đảm bảo rằng những phát minh mới phục vụ các quyền tự do dân chủ của chúng ta theo luật pháp, "Smith viết.

Năm 2018, các mối đe dọa từ xa của robot giết người và thất nghiệp hàng loạt đã nhường chỗ cho những lo ngại về tác động xã hội và đạo đức ngay lập tức hơn của AI. Theo nhiều cách, những phát triển này chỉ ra rằng ngành công nghiệp đang trưởng thành, khi các thuật toán AI trở nên nổi bật hơn trong các nhiệm vụ quan trọng. Nhưng khi các thuật toán và tự động hóa trở nên ăn sâu hơn trong cuộc sống hàng ngày của chúng ta, sẽ có nhiều cuộc tranh luận hơn.

Năm của ngành công nghiệp ai tính toán