Video: Đại Ca Lớp 12A ( Túy Âm + Save Me Parody ) - LEG (Tháng mười một 2024)
Tôi đã dành nhiều thời gian trong tuần này tại hội nghị EMC World hàng năm và tự hỏi: các bộ phận CNTT có thực sự lên kế hoạch cho các loại gián đoạn mà các nhà cung cấp công nghiệp và các học giả nghĩ là đang ở trong cửa hàng không? Cụ thể, EMC đã thay đổi thông điệp chính của mình từ "Hành trình đến đám mây riêng" thành một "Dẫn dắt sự chuyển đổi của bạn" chung chung hơn. Điều này phản ánh một giả định cơ bản rằng các phân tích dữ liệu di động, xã hội, đám mây và dữ liệu lớn sẽ thay đổi sự hiểu biết của chúng ta về vai trò của bộ phận CNTT.
EMC được biết đến là nhà cung cấp hệ thống lưu trữ doanh nghiệp lớn nhất nhưng công ty thực sự là một liên đoàn của các công ty cơ bản khác nhau: EMC cốt lõi, cung cấp các chức năng lưu trữ, sao chép, sao lưu và khôi phục; RSA, một bộ phận bảo mật và danh tính trong EMC; VMware (phần lớn thuộc sở hữu của EMC), cung cấp phần mềm ảo hóa và các công cụ quản lý trung tâm dữ liệu; và bổ sung mới nhất, Pivotal, đã tạo ra một nền tảng đám mây cho các phân tích dữ liệu lớn (và được sở hữu bởi EMC, VMware và GE).
Nhưng từ mỗi bộ phận này, thông điệp về sự thay đổi đã phát ra to và rõ ràng.
Trong bài phát biểu quan trọng của mình, Chủ tịch và Giám đốc điều hành EMC Joe Tucci (ở trên) đã mô tả các xu hướng di động, đám mây, dữ liệu lớn và xã hội vừa gây rối vừa là cơ hội cho CNTT. Ông kêu gọi khán giả sử dụng những xu hướng này để thay đổi mô hình kinh doanh của họ. Một loạt các hình ảnh động cho thấy rằng bạn có thể cần phải trở thành một siêu anh hùng để làm tất cả điều này mặc dù.
Tucci trích dẫn IDC nói rằng chúng tôi đang chuyển sang nền tảng điện toán lớn thứ ba. Với nền tảng đầu tiên, chúng tôi đã có các thiết bị đầu cuối kết nối với máy tính lớn và máy tính mini với hàng triệu người dùng và hàng ngàn ứng dụng. Nền tảng thứ hai liên quan đến PC kết nối qua mạng LAN trong môi trường máy khách / máy chủ với hàng trăm triệu người dùng và hàng chục nghìn ứng dụng. Bây giờ, ông nói, chúng tôi đang đến với nền tảng thứ ba, với các thiết bị di động kết nối với đám mây và tạo ra dữ liệu lớn, dẫn đến hàng tỷ người dùng và hàng triệu ứng dụng.
Ông cho biết chỉ có một nhà cung cấp, IBM, đã chuyển thành công từ thứ nhất sang thứ hai. Hầu hết các nhà cung cấp ngày nay, ông nói, sẽ đấu tranh tương tự trong quá trình chuyển đổi, ngoại trừ, EMC một phần vì đầu tư lớn vào R & D và mua lại công nghệ. Ông dường như gợi ý rằng nhiều bộ phận CNTT sẽ phải vật lộn với quá trình chuyển đổi tương tự, nếu không có gì khác vì sự tăng trưởng lớn về dữ liệu, ứng dụng và người dùng.
Giải pháp tổng thể mà tất cả các công ty EMC đang thúc đẩy xoay quanh cái mà họ gọi là "trung tâm dữ liệu được xác định bằng phần mềm", dựa trên khái niệm rằng các bộ phận CNTT cần "trừu tượng hóa, tổng hợp và tự động hóa" tất cả các quy trình của họ.
Rất nhiều khái niệm này xuất phát từ ảo hóa, và hầu hết các tổ chức CNTT quan trọng có phần lớn cơ sở hạ tầng tính toán của họ đã chạy trên các trình ảo hóa, tạo ra thứ mà VMware đã gọi là máy tính được xác định bằng phần mềm.
Nhưng EMC đã thúc đẩy "khái niệm định nghĩa phần mềm" xa hơn rất nhiều. VMware đã mua lại Nicira, một trong những công ty hàng đầu về mạng được định nghĩa bằng phần mềm. Bộ phận RSA của nó đã nói về "bảo mật được xác định bằng phần mềm".
Có lẽ thông báo lớn nhất tại triển lãm từ bộ phận EMC là một sản phẩm có tên ViPR, cung cấp "lưu trữ được xác định bằng phần mềm" được thiết kế để cho phép bạn quản lý các kho lưu trữ từ EMC, đối thủ cạnh tranh hoặc chỉ là ổ cứng chung, do đó, một quy trình có thể xác định nơi dữ liệu của một ứng dụng sẽ nằm trong đó.
Kết hợp tất cả các tính năng này lại với nhau và bạn có một hệ thống có thể trừu tượng hóa tất cả các phần cứng vật lý, máy tính, lưu trữ và mạng, nhưng vẫn có thể tận dụng trí thông minh của phần cứng cơ bản, điều này xác định rõ tầm nhìn của EMC lớn hơn.
Về mặt lý thuyết, bộ phận CNTT có thể chọn bất kỳ nhà cung cấp máy chủ, nhà cung cấp lưu trữ hoặc nhà cung cấp mạng nào và quản lý tất cả những thứ này cùng nhau. Ý tưởng là bạn có thể chạy bất kỳ ứng dụng nào trên bất kỳ "đám mây" nào trong những gì EMC và VMware đang gọi là "trung tâm dữ liệu được xác định bằng phần mềm".
Khái niệm này rất hấp dẫn, đặc biệt là phần nói rằng bạn sẽ có thể di chuyển các ứng dụng giữa nhiều đám mây, bao gồm cả mạng riêng và nhà cung cấp công cộng, và nghĩ rằng nhiều trung tâm dữ liệu có thể được tự động hóa. Câu hỏi thực sự, tất nhiên, sẽ là tất cả những thứ này hoạt động tốt như thế nào trong thế giới thực. Tôi đặc biệt tò mò liệu khái niệm này sẽ có hiệu quả chi phí cho bất cứ điều gì trừ các công ty lớn nhất.
Phần tôi thấy thú vị nhất là cuộc thảo luận về Pivotal, mục tiêu là tạo ra một nền tảng phân tích dữ liệu lớn chạy trên tất cả các loại "đám mây". Đây là một công ty mới đã hấp thụ các công nghệ khác nhau từ EMC và VMware (bao gồm nền tảng Greenplum BI, khung công tác Spring cho Java và Cloud Foundry) nhưng mục tiêu là một nền tảng lớn hơn nhiều.
Giám đốc điều hành Pivotal Paul Maritz (ở trên, trước đây là Giám đốc điều hành của VMware) cho biết Pivotal tập trung vào việc xây dựng một loại nền tảng mới sẽ kết hợp "dữ liệu lớn, dữ liệu nhanh và thế hệ ứng dụng mới theo cách độc lập hoặc di động giữa các loại mây khác nhau. "
Thế giới đang hướng tới một phong cách lập trình và nền tảng mới, ông nói, bắt đầu từ những người tiên phong đầu tiên tại các công ty có quy mô Internet như Google, Facebook, Amazon và Yahoo. Các công ty này cần lưu trữ và lý giải lượng dữ liệu rất lớn hiệu quả hơn so với cơ sở dữ liệu và kho dữ liệu truyền thống được phép, vì vậy họ đã tạo ra các công nghệ mới như Hadoop. Họ cũng tin vào sự phát triển ứng dụng rất nhanh, với Maritz lưu ý rằng một nhân viên mới của Facebook được khuyến khích triển khai ứng dụng đầu tiên của họ vào ngày làm việc đầu tiên. Các công ty như vậy cần phải hoạt động ở quy mô một cách tự động cao.
Nhưng đó không chỉ là dữ liệu Internet. Maritz đã nói chuyện một cách say mê về "Internet vạn vật", mô tả cách thức "từ xa lan tỏa" trong tất cả các loại thiết bị sẽ dẫn đến một lũ dữ liệu khổng lồ. Chẳng hạn, theo ông, trong một chuyến bay xuyên Đại Tây Dương, một chiếc Boeing 777 sẽ tạo ra 30TB dữ liệu. Do đó, ông nói, các ứng dụng cần phải ăn một số lượng lớn các sự kiện. Đây là lý do mà GE đã quyết định mua 10% Pivotal, Maritz nói.
Nền tảng mới, được gọi là Pivotal One, sẽ bao gồm vải dữ liệu, vải ứng dụng và vải đám mây. Điều này sẽ chứa cấu trúc dữ liệu thế hệ tiếp theo bao gồm triển khai Hadoop với các tính năng truy vấn; một phương pháp thời gian thực để nhập dữ liệu; một công cụ phân tích; một loại vải ứng dụng sẽ kết hợp khung Spring; và Cloud Foundry, cho phép nền tảng chạy trên tất cả các loại "đám mây" từ đám mây riêng sang vCloud của VMware để tham chiếu nền tảng đám mây như Amazon Web Services và OpenStack. Nền tảng đầy đủ dự kiến sẽ không được phát hành cho đến quý IV, nhưng các phần khác nhau hiện đã có sẵn.
Pivotal chắc chắn có một mục tiêu đầy tham vọng là tạo ra một nền tảng hoàn toàn mới nhưng có vẻ như đó là một thay đổi lớn trong cách làm việc của các lập trình viên. Nó có thể sẽ phải đối mặt với sự cạnh tranh từ cả các nền tảng phát triển hiện có và hệ sinh thái nguồn mở khổng lồ.