Trang Chủ Suy nghĩ tiến tới Nvidia nhắm đến đồ họa và 'học sâu'

Nvidia nhắm đến đồ họa và 'học sâu'

Video: NVIDIA GeForce RTX 30 Series | Official Launch Event [4K] (Tháng mười một 2024)

Video: NVIDIA GeForce RTX 30 Series | Official Launch Event [4K] (Tháng mười một 2024)
Anonim

Bộ xử lý đồ họa Titan X mới của Nvidia dựa trên bộ xử lý GM200, đây là một con chip khổng lồ, tận dụng sức mạnh của 8 tỷ bóng bán dẫn, 3.072 lõi xử lý và 12GB bộ nhớ GDDR5 trên bo mạch cho 7 teraflop hiệu năng chính xác đơn cực đại. Con chip này, được xem trước tại Hội nghị các nhà phát triển trò chơi hai tuần trước, dựa trên cùng các lõi Maxwell có trong bộ xử lý hiện tại của công ty và được sản xuất trên cùng quy trình 28nm.

Nhưng Nvidia cho biết trong tuần này rằng GPU GeForce hàng đầu mới của nó sẽ cung cấp hiệu suất gấp đôi và tăng gấp đôi hiệu suất năng lượng của người tiền nhiệm. Đây cũng là một con chip rất lớn ở mức 601 mm2, khoảng chip có kích thước lớn nhất hiện được sản xuất và sẽ tiêu thụ 250 watt năng lượng. Và tất nhiên, nó sẽ là chip đồ họa chung đắt nhất với giá bán lẻ đề xuất là 999 USD.

Hầu hết các đánh giá từ các trang web như ExtremeTech, Anandtech và TechReport đều khá tích cực. Tất nhiên, trong thế giới thực, không ai thấy hiệu suất tăng gấp đôi mà nhà cung cấp tuyên bố, mặc dù có một số lợi ích tốt đẹp. Nhìn chung, Titan X dường như đánh bại rõ ràng các thẻ GPU đơn khác và thực hiện công việc đáng tin cậy khi so sánh với GPU kép Radeon R9 295X2 của AMD hoặc GeForce GTX 980 SLI của Nvidia. Trong nhiều trường hợp, thẻ GPU kép của một trong hai nhà cung cấp sẽ nhanh hơn bất kỳ thẻ GPU đơn nào, nhưng nhiều trò chơi không sử dụng cả hai thẻ và trong các trường hợp khác, thiết lập thẻ kép thể hiện tình trạng nói lắp nhiều hơn. Đặc biệt, rất nhiều đánh giá tập trung vào việc Titan X hoạt động tốt như thế nào ở 4K.

Tất nhiên, đối thủ chính của Nvidia trong thế giới cạnh tranh của đồ họa PC không có khả năng ngồi chặt chẽ AMD AMD được đồn đại là có thẻ mới của riêng họ đang chờ đợi.

Mặc dù vậy, một lần nữa, điều tôi nghĩ là thú vị nhất về việc giới thiệu Titan X tại Hội nghị Công nghệ GPU (GTC) vào thứ ba là tập trung vào việc sử dụng chip trong các ứng dụng học sâu, với Giám đốc điều hành của Nvidia, Jen-Hsun Huang nói về cách các nhà nghiên cứu đã phát hiện ra rằng các kỹ thuật học sâu có thể được tăng tốc đáng kể bằng cách sử dụng GPU.

Cụ thể, Huang đã nói về các ứng dụng, từ nhận dạng hình ảnh với viết chú thích tự động đến nghiên cứu y tế cho đến phương tiện tự trị. Thị trường ô tô là trọng tâm chính của Nvidia tại CES, khi họ giới thiệu chip Tegra X1 và giải pháp Drive PX cho ngành công nghiệp ô tô. Ý tưởng là tăng cường các hệ thống hỗ trợ người lái tiên tiến (ADAS) hiện có để chúng trở nên thông minh hơn và thông minh hơn theo thời gian. "Tôi tin rằng Big Bang của những chiếc xe tự lái sắp ra mắt trong vài năm tới." Hoàng nói.

Sau đó, Elon Musk, CEO của Tesla Motors đã tham gia Huang trên sân khấu GTC để nói rằng việc phát triển những chiếc xe tự lái thực sự an toàn hơn những người có con người lái xe không còn quá xa. Musk cho biết dãy cảm biến hiện tại trong một Tesla đã có khả năng tính năng hỗ trợ tiên tiến-lái xe, nhưng tự lái trong một môi trường đô thị với tốc độ của 10-40 dặm một giờ sẽ đòi hỏi sức mạnh xử lý hơn. Tuy nhiên, ông nói rằng quá trình chuyển đổi sẽ mất nhiều thời gian, vì đội xe trên đường rất lớn. "Thật kỳ lạ khi chúng ta đang ở rất gần với sự ra đời của AI, " Musk nói. "Tôi chỉ hy vọng có một cái gì đó còn lại cho con người chúng ta làm."

Học máy khác với hầu hết các ứng dụng điện toán hiệu năng cao (HPC) nơi Nvidia đang đẩy mạnh các máy gia tốc Tesla của mình. Các ứng dụng đó thường yêu cầu điểm chính xác kép, trong khi các ứng dụng học sâu thường chỉ cần độ chính xác đơn. Titan X chỉ cung cấp độ chính xác duy nhất. Đối với các ứng dụng học sâu, Nvidia đang cung cấp một khung mới có tên là DIGITS, Hệ thống đào tạo GPU sâu cho các nhà khoa học dữ liệu và một thiết bị trị giá 15.000 đô la mới có tên là DIGITS DevBox.

Nhìn về phía trước, Huang cho biết kiến ​​trúc GPU Pascal, được thiết lập để ra mắt vào năm tới, sẽ tăng tốc các ứng dụng học sâu gấp mười lần tốc độ của bộ xử lý Maxwell thế hệ hiện tại. Điều này xuất phát từ ba tính năng mới: độ chính xác hỗn hợp (sử dụng nhiều hơn dấu phẩy động 16 bit); Dung lượng bộ nhớ gấp 2, 7 lần với tối đa 32GB thông qua việc sử dụng bộ nhớ xếp chồng 3D với băng thông bộ nhớ gấp ba lần và kết nối NV Link cho phép tối đa tám GPU cao cấp trong DevBox hoặc máy trạm tương tự (trái ngược với bốn Titan X GPU trong một lần vận chuyển vào tháng 5). Người ta không nói, nhưng có khả năng các chip dựa trên kiến ​​trúc này sẽ sử dụng công nghệ xử lý thế hệ tiếp theo. Rốt cuộc, các chip 28nm đầu tiên đã được giới thiệu vào năm 2011 và bắt đầu bán ra vào năm 2012, vì vậy vào năm tới, tôi hy vọng chúng ta sẽ thấy các chip đồ họa rời 16nm hoặc 14nm.

Nvidia nhắm đến đồ họa và 'học sâu'