Video: Nhạc Phim Sự Chuyển Đổi Của Ma Tốc Độ (Tháng mười một 2024)
Một trong những thông báo thú vị nhất - và bất ngờ - mà Google đưa ra tại hội nghị các nhà phát triển I / O tuần trước là họ đã thiết kế và triển khai chip riêng cho việc học máy. Trong bài phát biểu của mình, Giám đốc điều hành Google Sundar Pichai đã giới thiệu cái mà ông gọi là Đơn vị xử lý kéo căng (TPU), cho biết công ty đã sử dụng những thứ này trong các máy AlphaGo của mình, đã đánh bại nhà vô địch cờ vây Lee Sedol.
"TPU là một thứ tự có hiệu suất cao hơn trên mỗi watt so với các GPU và GPU thương mại", Pichai nói. Trong khi ông không đưa ra nhiều chi tiết, kỹ sư phần cứng nổi tiếng của Google Norm Jouppi đã giải thích trong một bài đăng trên blog rằng TPU là một ASIC tùy chỉnh (mạch tích hợp dành riêng cho ứng dụng). Nói cách khác, đó là một con chip được thiết kế đặc biệt để chạy máy học và được thiết kế đặc biệt cho khung máy học của TensorFlow, của Google.
Hình ảnh, tưởng tượng
Trong bài đăng, Jouppi nói rằng nó "khoan dung hơn" với độ chính xác tính toán giảm, điều đó có nghĩa là nó đòi hỏi ít bóng bán dẫn hơn trên mỗi hoạt động. Điều này cho phép Google có được nhiều hoạt động hơn mỗi giây, cho phép người dùng nhận được kết quả nhanh hơn. Ông cho biết một bo mạch có TPU vừa với khe ổ đĩa cứng trong giá đỡ trung tâm dữ liệu của nó và cho thấy hình ảnh của giá đỡ máy chủ chứa đầy TPU, mà ông nói đã được sử dụng trong các máy AlphaGo của công ty.
Ngoài ra, Jouppi cho biết TPU đã hoạt động trên một số ứng dụng tại Google, bao gồm RankBrain, được sử dụng để cải thiện mức độ liên quan của kết quả tìm kiếm và Chế độ xem phố, để cải thiện độ chính xác và chất lượng của bản đồ và điều hướng.
Trong một cuộc họp báo, VP VP của Google về Cơ sở hạ tầng kỹ thuật Urs Hölzle đã xác nhận rằng TPU chạy bằng toán học số nguyên 8 bit, thay vì toán học dấu phẩy động có độ chính xác cao hơn mà hầu hết các CPU và GPU hiện đại được thiết kế. Hầu hết các thuật toán học máy có thể hoạt động tốt với dữ liệu độ phân giải thấp hơn, điều đó có nghĩa là chip có thể xử lý nhiều hoạt động hơn trong một khu vực nhất định và giải quyết các mô hình phức tạp hơn một cách hiệu quả. Đây không phải là một ý tưởng mới, mô-đun Nvidia Drive PX 2, được công bố vào đầu năm nay tại CES, có khả năng 8 teraflop với độ chính xác điểm nổi 32 bit nhưng đạt tới 24 "teraops" học sâu (thuật ngữ của công ty cho 8 toán học số nguyên -bit).
Mặc dù Hölzle từ chối đi vào chi tiết cụ thể, các báo cáo cho biết ông xác nhận rằng Google đang sử dụng cả TPU và GPU ngày nay. Ông nói điều này sẽ tiếp tục trong một thời gian nhưng cho rằng Google xem GPU quá chung chung, thích một con chip được tối ưu hóa hơn cho việc học máy. Ông nói rằng công ty sẽ phát hành một bài báo mô tả lợi ích của chip sau đó, nhưng làm rõ rằng chúng được thiết kế để chỉ sử dụng nội bộ, không bán cho các công ty khác. Một ứng dụng khác mà ông mô tả là sử dụng chip để xử lý một phần điện toán đằng sau công cụ nhận dạng giọng nói được sử dụng trên điện thoại Android.
Lựa chọn sử dụng ASIC là một đặt cược thú vị của Google. Những tiến bộ lớn nhất trong học máy trong những năm gần đây, công nghệ đằng sau sự thúc đẩy lớn đối với mạng lưới thần kinh sâu sắc là việc áp dụng GPU, đặc biệt là dòng Nvidia Tesla, để đào tạo các mô hình này. Gần đây, Intel đã mua Altera, một nhà sản xuất hàng đầu về đồ họa (mảng cổng lập trình trường), nằm ở đâu đó ở giữa; chúng không có mục đích chung như GPU hoặc được thiết kế riêng cho TensorFlow như chip của Google, nhưng có thể được lập trình để thực hiện nhiều nhiệm vụ khác nhau. Microsoft đã thử nghiệm với Altera FPGA để tìm hiểu sâu. IBM đang phát triển chip TrueNorth Neurosynaptic được thiết kế dành riêng cho mạng lưới thần kinh, gần đây đã bắt đầu được sử dụng trong nhiều ứng dụng. Cadence (Tensilica), Freescale và Synopsys đang đẩy DSP (bộ xử lý tín hiệu số) của họ để chạy các mô hình này; Mobileye và NXP gần đây đã công bố chip được thiết kế dành riêng cho ADAS và xe tự lái; và một số công ty nhỏ hơn bao gồm Movidius và Nervana đã công bố kế hoạch cho các chip được thiết kế dành riêng cho AI.
Vẫn còn quá sớm để biết cách tiếp cận nào sẽ tốt nhất trong thời gian dài, nhưng có một số tùy chọn rất khác nhau có nghĩa là chúng ta có thể sẽ thấy một số cạnh tranh thú vị trong vài năm tới.