Trang Chủ Suy nghĩ tiến tới Hội nghị thượng đỉnh tính toán mở cho thấy sự đổi mới phần cứng rất lớn

Hội nghị thượng đỉnh tính toán mở cho thấy sự đổi mới phần cứng rất lớn

Video: Nạn nhân bị sàm sỡ phản đối mức phạt với thủ phạm chỉ 200.000 đồng (Tháng Chín 2024)

Video: Nạn nhân bị sàm sỡ phản đối mức phạt với thủ phạm chỉ 200.000 đồng (Tháng Chín 2024)
Anonim

Có lẽ xu hướng thú vị nhất trong phần cứng máy tính hiện nay là Dự án tính toán mở và những nỗ lực mà nó đang hướng tới để chuyển sang các tiêu chuẩn chung, hiệu quả cho thiết bị trung tâm dữ liệu, thay vì phần cứng và phần mềm độc quyền mà chúng ta có ngày nay. Khi chúng tôi lần đầu nghe về Open Compute, có vẻ như đây là một cách tốt để các công ty Web siêu quy mô thiết kế các máy chủ tiết kiệm năng lượng hơn, dễ bảo trì hơn. Nhưng kể từ đó, Open Compute đã phát triển để bao gồm nhiều dạng phần cứng khác từ lưu trữ đến kết nối mạng và đang trở nên áp dụng cho điện toán doanh nghiệp, không chỉ các công ty phần mềm đám mây.

Tất cả những điều này khá rõ ràng tại Hội nghị thượng đỉnh dự án tính toán mở tuần trước, nơi một loạt các công ty giới thiệu phần cứng mới được thiết kế để hoạt động với phần cứng và thông số kỹ thuật của Open Compute, từ máy chủ đến kết nối mạng.

"Trở lại năm 2011, chúng tôi đã trồng một vài hạt giống", Frank Frankovsky của Facebook, chủ tịch Quỹ OCP, cho biết khi khai mạc hội nghị. "Điều gì sẽ xảy ra nếu chúng ta áp dụng các nguyên tắc nguồn mở vào không gian phần cứng? Công việc mà chúng ta đang làm cùng nhau là chuyển đổi cơ bản ngành công nghiệp."

Chip và thông số kỹ thuật mới Đẩy máy chủ dựa trên ARM

Một số điều được công bố trong tuần nổi bật. Phần lớn các máy chủ, trong thế giới thực và trong Dự án tính toán mở, dựa trên bộ xử lý Xeon của Intel và kiến ​​trúc x86. Mặc dù điều đó khó có thể thay đổi sớm, nhưng các đối thủ như ARM và AMD đã có một số lựa chọn thay thế thú vị.

AMD đã công bố CPU máy chủ dựa trên ARM 64 bit đầu tiên của họ, Opteron A1100 Series 28nm (tên mã Seattle), mà Andrew Feldman, tổng giám đốc và phó chủ tịch công ty, cho biết sẽ lấy mẫu cho khách hàng "trong vòng vài tuần, " mặc dù đó là dự kiến ​​sẽ không có sẵn rộng rãi cho đến gần cuối năm nay. A1100 bao gồm bộ xử lý ARM Cortex-A57 4 hoặc 8 lõi, tối đa 4 MB bộ nhớ cache chia sẻ L2 và 8 MB, các kênh bộ nhớ DDR3 hoặc DDR4 kép với ECC, ARM TrustZone để bảo mật và đồng xử lý để mã hóa và dữ liệu nén.

Feldman đã nói về Bộ công cụ phát triển A Series với bộ xử lý A1100 và cho biết công ty đã hợp tác chặt chẽ với Linaro Enterprise Group và các nhà cung cấp phần mềm để phát triển hệ điều hành Linux tương thích dựa trên Fedora của Red Hat, hỗ trợ LAMP được tối ưu hóa, hỗ trợ Java và khác phần mềm bao gồm các ứng dụng, trình ảo hóa, trình biên dịch và trình mô phỏng. Feldman đã thiết kế một máy chủ siêu nhỏ, sử dụng AMD Opteron A-Series và đặc tả khe cắm chung của Dự án tính toán mở cho các bo mạch chủ được gọi là "Group Hug" và thông báo rằng công ty đã đóng góp nó cho dự án để các công ty phần cứng có thể bắt đầu xây dựng các máy chủ dựa trên nó

Trong khi Feldman nói rằng AMD cam kết với x86 và ARM, anh ta đề nghị mạnh mẽ rằng tương lai của trung tâm dữ liệu sẽ hướng đến các máy chủ dựa trên ARM. "Trong lịch sử máy tính CPU nhỏ hơn, chi phí thấp hơn và khối lượng lớn hơn luôn giành chiến thắng", Feldman nói. "Không có ngoại lệ cho điều này." Ông lưu ý rằng năm ngoái đã có 8 tỷ CPU ARM được xuất xưởng so với 13 triệu CPU máy chủ x86. (Đây có vẻ là một so sánh ngớ ngẩn vì nó bao gồm CPU ARM được sử dụng trong tất cả các loại ứng dụng phi trung tâm dữ liệu nhưng loại trừ x86 được sử dụng trong mọi thứ trừ máy chủ.) Feldman dự đoán rằng vào năm 2019, ARM sẽ điều khiển một phần tư thị trường máy chủ và tùy chỉnh ARM SoC sẽ là chuẩn mực cho các trung tâm dữ liệu lớn trong khi CPU x86 nhỏ hơn, hiệu quả hơn sẽ thống trị thị trường máy chủ x86.

Cũng về phía chip, Application Micro cho biết X-Gene 2 của họ sẽ lấy mẫu vào mùa xuân năm nay với những gì công ty cho biết sẽ là triển khai ARMv8 đầu tiên được thiết kế cho các máy chủ. Feldman cũng cho biết điều này sẽ được theo dõi vào năm tới bởi một X-Gene 3 với 16 lõi ARM trở lên được tạo ra trên bộ xử lý FinFET.

Một mối quan tâm mà một số người đã có về các máy chủ dựa trên ARM là sự phân mảnh. Để chống lại điều này, Ian Drew, phó chủ tịch điều hành phát triển kinh doanh và giám đốc tiếp thị của ARM, đã công bố một Kiến trúc hệ thống cơ sở máy chủ mới. Ý tưởng là có một thông số phần cứng cơ bản cho các nhà phát triển phần mềm và hệ điều hành và một hình ảnh HĐH duy nhất cho tất cả các máy chủ dựa trên ARMv8-A. "Đó là một đặc điểm kỹ thuật phần cứng được viết bởi những người phần cứng và những người phần mềm với nhau", Drew nói. Ông lưu ý rằng đây không phải là một tiêu chuẩn hóa, nơi mọi người sẽ nguyên khối mà thay vào đó được thiết kế để sự khác biệt xảy ra ở đúng lớp vào đúng thời điểm.

Drew cho biết ARM muốn đảm bảo mọi người đều tham gia với nó, vì vậy nó có sẵn công khai trên trang web của ARM. Nó có sự hỗ trợ từ các OEM và một số đối tác bán dẫn, bao gồm AMD, Ứng dụng Micro, Broadcom và Cavium.

Microsoft tham gia OCP

Microsoft cho biết họ đã tham gia OCP và đóng góp một bộ thông số kỹ thuật đầy đủ cho các máy chủ cung cấp năng lượng cho Office 365, Windows Azure và Bing. Phó chủ tịch tập đoàn Bill Laing cho biết công ty muốn thúc đẩy sự đổi mới trong các trung tâm dữ liệu đám mây. Thiết kế ban đầu này rất khác so với giá đỡ 21 inch tiêu chuẩn ban đầu do Facebook đóng góp đã xác định phần lớn các máy chủ Open Compute cho đến nay. Thay vào đó, nó là khung gầm 12U vừa với giá đỡ tiêu chuẩn với lưỡi dao tính toán, lưỡi dao lưu trữ, bảng nối đa năng, chia sẻ năng lượng và làm mát và nút quản lý.

Laing cho biết những thiết kế này có thể được lắp ráp sẵn và tích hợp tại chỗ tối thiểu, vì các khay hoàn chỉnh có thể được gỡ bỏ và thay thế. So với một máy chủ doanh nghiệp truyền thống, ông cho biết thiết kế này giúp tiết kiệm tới 40% chi phí, tăng tới 15% hiệu suất năng lượng và cải thiện 50% về thời gian triển khai và dịch vụ. Ý tưởng là cho phép khách hàng nhận được những lợi ích tương tự và "thúc đẩy điện toán đám mây giống như chúng tôi đã chuyển đổi điện toán trung tâm dữ liệu doanh nghiệp".

Microsoft vận hành hơn 200 dịch vụ đám mây trên toàn cầu, phục vụ hơn 1 tỷ khách hàng và hơn 20 triệu doanh nghiệp tại hơn 90 thị trường và hiện đang triển khai hơn 1 triệu máy chủ trong các trung tâm dữ liệu của mình, Laing cho biết.

Mở tính toán thêm mạng

Một dự án mới là mạng, được chính thức ra mắt vào tháng 5 năm ngoái. "Thật kỳ lạ khi nguồn mở đã có tác động cực kỳ tích cực đến phần mềm và máy chủ và trung tâm dữ liệu và lưu trữ và chúng tôi có những hòn đảo công nghệ nguồn mở đáng yêu này, nhưng những gì kết nối những hòn đảo đó lại với nhau vẫn là một hộp đen độc quyền, " Frankovsky nói. "Vì vậy, chúng tôi đã quyết định mở hộp đen đó và mang đến cho khách hàng sự linh hoạt và lựa chọn trong mạng lưới và tính minh bạch của họ. Điều tương tự thu hút mọi người đối với phần mềm nguồn mở là điều thu hút chúng tôi vào phần cứng nguồn mở. Đó là sự tò mò tự nhiên của con người về cách thức công việc này và nó sẽ hoạt động khác như thế nào nếu tôi tách nó ra và đặt nó trở lại theo cách tôi muốn đặt nó lại với nhau? "

Trong vài tháng, ông nói, OCP đã nhận được sự đóng góp từ Broadcom, Intel, Mellanox, Big Switch và Cumulus Networks.

Trong khi một số công ty đã nói về các thiết bị chuyển mạch hàng đầu không thuộc sở hữu độc quyền, tôi rất thích thú khi thấy Dell công bố một thỏa thuận với Cumulus Networks, theo đó công ty phần cứng sẽ bán lại phần mềm mạng dựa trên Linux của Cumulus trên mạng tuân thủ OCP phần cứng.

Các tin tức phần cứng thú vị khác tại triển lãm bao gồm thông báo của Seagate rằng họ đang đóng góp nền tảng lưu trữ Kinetic của mình cho OCP, cho phép các ứng dụng kết nối với lưu trữ trực tiếp qua Ethernet thay vì đi qua các máy chủ lưu trữ truyền thống.

Tối ưu hóa cơ sở hạ tầng toàn bộ của Facebook

Với vai trò chính là khởi chạy Open Compute, không có gì đáng ngạc nhiên khi Facebook là một trong những công ty hàng đầu trong việc áp dụng hầu hết các công nghệ. Jay Parikh, phó chủ tịch cơ sở hạ tầng của Facebook, đã trình bày về "tại sao tất cả những gì Facebook đang làm với cơ sở hạ tầng thực sự quan trọng." Ban đầu, nhóm cơ sở hạ tầng của Facebook chỉ tập trung vào việc duy trì mọi thứ hoạt động, Parikh nói. Nhưng khi nó tiếp tục phát triển, nhóm nhanh chóng đạt đến giới hạn của phần cứng và phần mềm. Họ đã có một số "thất bại ngoạn mục", ông nói, nhưng trong quá trình học được một điều cơ bản: Ở quy mô, tất cả các vấn đề của bạn đều được phóng đại.

Trên đường đi, họ đã tạo ra một thiết kế máy chủ mới tiết kiệm chi phí và năng lượng hơn và giúp quản lý và sửa chữa máy chủ dễ dàng hơn. Ngày nay, Facebook có một trung tâm dữ liệu tùy chỉnh với giá đỡ tùy chỉnh, máy chủ tính toán và lưu trữ và kết nối mạng.

"Theo thời gian, chúng tôi buộc phải giành quyền kiểm soát từng phần của ngăn xếp vì chúng tôi phải theo kịp sự phát triển", Parikh nói. Ông đã nói về khái niệm "tối ưu hóa cơ sở hạ tầng đầy đủ", bao gồm phần mềm, mạng, máy chủ và lưu trữ. Bây giờ công ty chỉ sử dụng phần cứng Open Compute Project. "Chúng tôi thực sự đang tiết kiệm một tấn tiền, " ông nói. Trong ba năm qua, tối ưu hóa toàn bộ ngăn xếp đã tiết kiệm cho Facebook hơn 1, 2 tỷ đô la.

Parikh sau đó đã cập nhật về kho lạnh của Facebook. Ông nói rằng cơ sở lưu trữ lạnh mới đầu tiên của công ty, với công suất 30 petabyte, đã đi vào hoạt động và cơ sở thứ hai sẽ sớm được đưa lên mạng, nâng tổng dung lượng lưu trữ lên "hơn 100 petabyte" trong vài tháng tới. Mỗi cơ sở được thiết kế để lưu trữ tối đa ba exabyte nên có rất nhiều chỗ để phát triển.

Lần đầu tiên Parikh cho thấy một nguyên mẫu máy chủ lưu trữ của Facebook sử dụng đĩa Blu-ray (một ý tưởng mà công ty đã nói đến tại hội nghị thượng đỉnh năm ngoái). Máy chủ nội các chứa 10.000 đĩa Blu-ray cho tổng dung lượng 1 petabyte và Facebook có kế hoạch cuối cùng sẽ tăng mật độ lên 5 petabyte mỗi rack. So với hệ thống lưu trữ lạnh dựa trên ổ cứng hiện tại, các máy chủ Blu-ray có thể cắt giảm một nửa chi phí và giảm 80% mức sử dụng năng lượng, Parikh nói. Facebook có kế hoạch thử nghiệm một hệ thống sản xuất vào cuối năm nay và sẽ sử dụng các máy chủ Blu-ray để lưu trữ lạnh các ảnh và video của người dùng hiếm khi truy cập.

Mở tính toán và các công ty nhỏ hơn

Một trong những điều khiến tôi tò mò nhất từ ​​hội nghị thượng đỉnh là dấu hiệu cho thấy đó không chỉ là các công ty có quy mô đám mây như Facebook, Rackspace và Microsoft đang nắm lấy khái niệm này. Thay vào đó, Frankovsky chỉ ra các khách hàng doanh nghiệp lớn như Bloomberg, Fidelity và Goldman Sachs đang trong quá trình triển khai Open Compute.

Thật thú vị khi giờ đây có nhiều cách sử dụng các bộ phận giá 19 inch tiêu chuẩn hơn với hộp đựng Open Rack 21 inch và ngược lại. Chẳng hạn, Frankovsky chỉ ra rằng Fidelity đi kèm với Giá đỡ cầu mở cho giá EIA tiêu chuẩn vào Giá mở. Hyve Solutions đã lấy một số bảng hệ thống tính toán mở và đóng gói lại thành các khay 19 inch tiêu chuẩn, và đóng góp thiết kế trở lại nền tảng.

Trong một cuộc thảo luận nhóm, Marc Andreessen, đồng sáng lập và đối tác chung tại Andreessen Horowitz, và Andy Bechtolsheim, người sáng lập, giám đốc phát triển và chủ tịch của Arista Networks, đã nói về xu hướng của các trung tâm dữ liệu ít tốn kém hơn đang thay đổi các doanh nghiệp.

Andreessen cho biết hiện có một cơ hội triệt để để kết hợp phần mềm nguồn mở và phần cứng nguồn mở với khối lượng lớn để giảm đáng kể chi phí của các hệ thống và cung cấp các dịch vụ dựa trên đám mây trong các lĩnh vực như chăm sóc sức khỏe và giáo dục. Các công ty mới có thể chạy gần như hoàn toàn trên đám mây, do đó, kết quả là, 500.000 đô la hiện mua một công ty khởi nghiệp hai năm để ra mắt sản phẩm. Mặc dù Facebook (Andreessen đang ở trong hội đồng quản trị) hiện có ngân sách vốn lớn, nhưng theo ông, nó đã tồn tại vào năm 1999, nó sẽ cần một ngân sách vốn lớn hơn 50 đến 100 lần so với hiện tại, có thể chi 100 tỷ đô la một năm cho vốn thiết bị, đó là điều không thể Sự phát triển của phần cứng chi phí thấp hơn, khối lượng cao hơn là những gì làm cho các dịch vụ như Facebook hoặc Google có thể. Nếu bạn dự đoán thêm 10 năm nữa, ông nói, các dịch vụ sẽ có thể sẽ bị thổi bay tâm trí.

"Tất cả sự tăng trưởng là trong đám mây, " Bechtolsheim nói, với chi tiêu CNTT truyền thống không thay đổi. Arista Networks đang phát triển thiết bị mạng đáp ứng nhu cầu của các trung tâm dữ liệu quy mô đám mây này. Ông nói rằng nó rất có ý nghĩa để chuẩn hóa phần cứng mạng. Cho đến khi Dự án tính toán mở ra đời, Bechtolsheim cho biết, ngành công nghiệp chưa bao giờ có một diễn đàn về đổi mới phần cứng mở, hợp tác. Bây giờ mặc dù vẫn còn một vài công ty tự sản xuất chip và ông tin rằng đó là một mô hình cũ. Điều về mạng là bạn cần một ngăn xếp phần mềm thực sự hoạt động. Phần cứng thì dễ, phần mềm thì khó, anh nói, đó là lý do Arista có một nhóm phần mềm lớn hơn nhiều.

Bechtolsheim cho biết sự xuất hiện của máy tính 64 bit và ARM SoC với tần số cao hơn (ít nhất là 2GHz) là điều sẽ khiến ARM trở nên khả thi trong trung tâm dữ liệu. Nó có khả năng xảy ra khi nó có ý nghĩa, ông nói. Ông cũng cho biết "để bảo vệ Intel", họ đã thực hiện một công việc đáng chú ý là tận dụng công nghệ xử lý của mình để cung cấp các bộ xử lý sever tiết kiệm năng lượng hơn, ít tốn kém hơn. Intel là một đối thủ đáng gờm ở đây và bạn cần các cuộc thi để tiếp tục đổi mới, ông nói. Với tốc độ tiến bộ hiện tại, trung tâm dữ liệu có giá 1 tỷ đô la ngày nay sẽ chỉ có giá 10.000 đô la trong một thập kỷ. Điều đó sẽ cho phép các thế hệ ứng dụng tiếp theo.

Để giúp các sản phẩm Open Compute được chấp nhận rộng rãi hơn, Frankovsky đã công bố một loại giấy phép công nghệ khác giống như GPL, vì vậy mọi tác phẩm phái sinh sẽ được trao lại cho nền tảng, cũng như chứng nhận phần cứng Open Compute sử dụng các phòng thí nghiệm mới ở Đài Loan và tại Đại học Texas ở San Antonio.

Hội nghị thượng đỉnh tính toán mở cho thấy sự đổi mới phần cứng rất lớn