Với khả năng tải lên các tập tin một cách an toàn và truy cập chúng từ mọi nơi, điện toán đám mây đã được định vị là nền tảng CNTT lý tưởng ngày nay. Tuy nhiên điều này đã được khẳng định trước đây đối với nhiều phương pháp kiến trúc CNTT khác nhau, đám mây khác nhau như thế nào? Là những gì đang được cung cấp bây giờ là một điểm kết thúc, hay chỉ là sự khởi đầu của một sự tiến hóa về cách đám mây được khởi tạo và sử dụng? Bài viết này xem xét cách chúng ta có được vị trí của chúng ta, đám mây nào đang hứa hẹn và đám mây có khả năng phát triển và thay đổi như thế nào khi tương lai mở ra. Người đọc sẽ có thể tốt hơn để đảm bảo rằng các quyết định được đưa ra bây giờ sẽ giúp họ nắm bắt tốt cho tương lai và họ sẽ hiểu rõ hơn về cách sử dụng đám mây để mang lại kết quả tốt nhất cho tổ chức của họ. —- ” Nếu bạn đang tìm kiếm một hướng dẫn bắt đầu nhanh có thể đọc được về trạng thái của thị trường trong các nhà cung cấp đám mây và công cụ phần mềm để giúp bạn di chuyển và quản lý các ứng dụng của mình thì bài viết này rất hữu ích. ” Andy Wilton, Claranet Limited, Giám đốc thông tin — ” Bài viết này bao gồm rõ ràng và ngắn gọn tất cả các lĩnh vực chính của Cloud mà cả các nhà lãnh đạo kỹ thuật và CNTT cần biết. Nó đưa người đọc đi qua một hành trình hợp lý và hấp dẫn về cách các dịch vụ đám mây đã phát triển theo thời gian và cách các dịch vụ này có thể được khai thác để có giá trị tốt nhất và lợi thế kinh doanh. Cho dù bạn mới bắt đầu hành trình lên Đám mây hay đang tìm kiếm hướng dẫn về các bước tiếp theo của hành trình Đám mây của mình, bài viết này sẽ giúp bạn xác định cách tiếp cận tốt nhất và hiểu ý nghĩa của các quyết định của bạn cho dù đó là bảo mật, RoI hay đơn giản là làm cách nào để đưa dữ liệu và dịch vụ của bạn vào Đám mây. ” Gareth Baxendale FBCS CITP, Mạng nghiên cứu lâm sàng NIHR, Trưởng phòng Công nghệ — ” Một khuyến nghị nên đọc cho tất cả và bất kỳ ai tham gia vào lĩnh vực đám mây. Từ người mới bắt đầu đến chuyên gia, sẽ có nhiều thứ để kiếm được từ sự đóng góp của Clive, ”
Lời nói đầu: GFS Cố gắng viết một về một chủ đề đang trong thời kỳ thay đổi nhanh chóng và trưởng thành là điều không dễ dàng. Khi bạn đọc bài này, xin lưu ý rằng nó không nhằm mục đích bao quát tất cả, vì các dịch vụ được cung cấp bởi các nhà cung cấp dịch vụ đám mây được đề cập liên tục phát triển để phản ứng với sự năng động của thị trường.
Do đó, mục đích của bài viết này là cung cấp một bức tranh về cách chúng ta đến vị trí của đám mây là một nền tảng hợp lệ, một ảnh chụp nhanh về nơi chúng ta đang ở với đám mây và nhìn ra chân trời sự kiện giả định về cách đám mây có khả năng phát triển theo thời gian.
Nó cũng bao gồm các hướng dẫn và ý tưởng về cách tiếp cận việc cung cấp nền tảng kỹ thuật cho tương lai: một nền tảng độc lập với những thay đổi đã gây khó khăn cho kế hoạch CNTT trong quá khứ. Ý tưởng là nhìn xa hơn đám mây, để cho phép nắm lấy bất cứ điều gì tiếp theo và để đảm bảo rằng CNTT thực hiện những gì nó có nghĩa là: cho phép doanh nghiệp thay thế vì hạn chế nó.
Các phần về cách tiếp cận doanh nghiệp để đạt được các khoản đầu tư cần thiết cho việc chuyển sang đám mây – bằng cách nói chuyện với doanh nghiệp bằng ngôn ngữ riêng – cũng được bao gồm.
Hy vọng rằng bằng cách đọc bài viết này, bạn sẽ có vị trí tốt hơn để tạo và tài trợ cho chiến lược điện toán đám mây cho tổ chức của mình, không chỉ phục vụ tổ chức mà còn có khả năng chấp nhận những thay đổi không thể tránh khỏi khi nền tảng đáo hạn.
Trong suốt bài viết, tôi sử dụng các nhà cung cấp được đặt tên làm ví dụ về các chức năng nhất định. Những cái tên này đã được tôi sử dụng khi chúng được biết đến; tuy nhiên, việc đặt tên như vậy không nhằm mục đích suy ra rằng nhà cung cấp phù hợp hoặc phù hợp với mục đích hơn bất kỳ nhà cung cấp nào khác. Bất kỳ sự tích cực nào về việc nhà cung cấp nào phù hợp nhất với nhu cầu của một tổ chức cá nhân vẫn tùy thuộc vào bạn.
Bên cạnh, điều quan trọng là phải nhận ra rằng không có công nghệ nào là viên đạn bạc hoàn chỉnh. Bên cạnh sự thay đổi liên tục, luôn có những vấn đề với bất kỳ công nghệ nào được đề xuất như là điều tuyệt vời tiếp theo. Thật vậy, trong quá trình chuẩn bị bài viết này, GFS đã sử dụng lưu trữ và tạo phiên bản tài liệu dựa trên đám mây. Khi mở tài liệu để tiếp tục làm việc với nó một ngày, tôi nhận thấy rằng hàng ngàn từ đã biến mất. Không có vấn đề – tắt đám mây để lấy phiên bản trước. Thật không may là không: tất cả các phiên bản trước thời điểm đó cũng đã bị xóa. Dường như nhà cung cấp bằng cách nào đó đã quay trở lại vị trí lưu trữ trước đó và do đó mất tất cả mọi thứ đã được tạo ra ngoài thời điểm đó.
Một lần nữa – không có vấn đề gì: GFS tin rằng sẽ có thể quay lại bản sao lưu của riêng mình và khôi phục tài liệu. Tuy nhiên, một lần nữa, không sử dụng: đám mây đã đồng bộ hóa các thao tác xóa trở lại vào máy của tôi, sau đó đã sao lưu các thao tác xóa. Vì đã hơn một tuần kể từ khi tài liệu được mở lần cuối, mô hình sao lưu được chọn của tôi đã xóa tất cả các phiên bản sau của tài liệu.
GFS đã quản lý để khôi phục thảm họa mà tôi đã mất một thời gian dài để tạo bằng cách truy cập vào một máy tính xách tay riêng biệt. Tuy nhiên, vào thời điểm GFS cố gắng khôi phục tài liệu thực tế từ máy đó, đám mây cũng đã đồng bộ hóa và xóa phiên bản đó. Nếu chỉ, khi mở máy tính xách tay, Wi-Fi đã bị tắt để ngăn máy kết nối với đám mây. Giá như GFS đã sử dụng cách thức đáng tin cậy và đáng tin cậy để sao lưu một tài liệu quan trọng bằng cách gửi email cho chính mình
Nó chỉ cho thấy rằng ngay cả với tất cả các khả năng của công nghệ hiện đại có sẵn, đôi khi vẫn cần phải có nhiều kế hoạch dự phòng.
Phần I- Điện toán đám mây trong bối cảnh xa xưa
Các hệ thống tính toán cơ điện chuyên dụng như Zuse Z3 của Đức, Bom phá mã Enigma của Anh và Colossus của Chiến tranh thế giới thứ hai, máy tính đa năng hoàn toàn điện tử thực sự đầu tiên thường được coi là Máy tính và tích hợp số điện tử của Hoa Kỳ ( ENIAC). Hoạt động lần đầu tiên vào năm 1946, vào thời điểm nó được nghỉ hưu vào năm 1955, nó đã phát triển để sử dụng 17.500 ống chân không, 7.200 điốt tinh thể, 1.500 rơle, 70.000 điện trở, 10.000 tụ điện và khoảng 5.000.000 khớp nối được hàn bằng tay, tất cả trong một không gian rộng 168 m2. So sánh điều này với chip Intelon 2016 Broadwell-EP Xeon, chứa 7,2 tỷ bóng bán dẫn trong chip 456 mm2.
Nặng khoảng 27 tấn và cần 150kW điện, ENIAC có thể tính toán quỹ đạo quân sự phóng nhanh hơn khoảng 2.400 lần so với con người. Thời gian hoạt động liên tục dài nhất của nó mà không bị hỏng là dưới năm ngày. Tuy nhiên, cần lưu ý rằng một trường hợp pháp lý năm 1973 cho thấy các nhà thiết kế của ENIAC đã thấy một Máy tính Atanasoff-Berry trước đó và ENIAC đã chia sẻ một số thiết kế và chức năng nhất định cách tiếp cận.
Trong khi đó, tại Manchester, Vương quốc Anh, máy tính chương trình được lưu trữ đầu tiên đã được phát triển và chạy chương trình đầu tiên vào năm 1948. Máy thí nghiệm quy mô nhỏ 1, được phát triển tại Đại học Victoria, là máy đầu tiên như vậy và dẫn đến sự phát triển của thương mại đầu tiên máy tính lưu trữ chương trình, Ferranti Mark 1, ra mắt năm 1951.
Trong 70 năm kể từ ENIAC, việc sử dụng máy tính đã bùng nổ. Sự phát triển và tính sẵn có rộng rãi của các bóng bán dẫn đã thúc đẩy thị trường máy tính kỹ thuật số mạnh mẽ vào những năm 1950, dẫn đến sự phát triển của IBM với dòng máy 700 và 7000 ban đầu. Chúng sớm được thay thế bằng máy tính lớn ’đúng đầu tiên của nó, System / 360. Điều này sau đó tạo ra một nhóm các đối thủ cạnh tranh máy tính lớn, khi thị trường ổn định, được gọi là IBM và BUNCH, (IBM cùng với Burroughs, UNIVAC, NCR, Control Data Corporation và Honeywell). Một điểm cộng lớn cho các máy tính lớn là mọi thứ đều ở một nơi – và thông qua việc sử dụng ảo hóa, như được đưa ra vào năm 1966 trên Hệ thống IBM / 360-67, nhiều khối lượng công việc có thể được chạy trên cùng một nền tảng, giữ mức sử dụng tài nguyên ở mức 80 % hoặc cao hơn.
Tuy nhiên, máy tính lớn không phù hợp với mọi khối lượng công việc hoặc cho tất cả ngân sách và một nhóm đối thủ cạnh tranh mới bắt đầu lớn lên xung quanh các hệ thống nhỏ hơn, rẻ hơn trong tầm tay của các tổ chức nhỏ hơn. Các nhà cung cấp máy tính trung gian này bao gồm các công ty như DEC (Digital Equipment Corporation), Texas Cụ, Hewlett Packard (HP) và Data General, cùng với nhiều công ty khác. Các hệ thống này tốt cho các khối lượng công việc đơn lẻ: chúng có thể được điều chỉnh riêng lẻ để mang một khối lượng công việc duy nhất, hoặc, trong nhiều trường hợp, một số khối lượng công việc tương tự. Mức độ sử dụng vẫn hợp lý nhưng có xu hướng khoảng một nửa hoặc ít hơn so với các mức của máy tính lớn.
Trận chiến đã bắt đầu. Các kiến trúc chip tích hợp sản xuất hàng loạt mới, trong đó việc sử dụng bóng bán dẫn được nhúng vào một đơn vị xử lý trung tâm (CPU), được xây dựng xung quanh các hệ thống CISC / RISC (tính toán tập lệnh phức tạp và giảm). Mỗi hệ thống này sử dụng các hệ điều hành khác nhau và khả năng tương thích hệ thống hoàn toàn không được chú ý.
Cho đến thời điểm này, các máy tính thường được truy cập thông qua các thiết bị đầu cuối hoàn toàn câm hoặc bán câm. Đây là các thiết bị dựa trên màn hình, tập trung vào văn bản, chẳng hạn như IBM, 3270 và DEC, VT100 / 200, là phương tiện chính để giao tiếp với chương trình thực tế và dữ liệu được gắn vĩnh viễn vào máy tính lớn hoặc máy tính giữa. Mặc dù giá đã giảm, những máy này vẫn không nằm trong tầm tay của hàng loạt doanh nghiệp vừa và nhỏ trên toàn cầu.
CẢNH BÁO GIÁ
Đổi mới công nghệ đã giảm đáng kể chi phí điện toán, khiến cho số lượng lớn người tiêu dùng có thể sở hữu các công nghệ mới mạnh mẽ với mức giá thấp hợp lý.
Các nhà cung cấp tiếp tục cố gắng đẩy điện toán xuống một mức giá mà họ có thể thâm nhập vào thị trường nhiều hơn. Rõ ràng là những người có sở thích và kỹ thuật viên đã nắm lấy máy tính trong nhà. Được dẫn dắt bởi các bộ dụng cụ xây dựng đắt tiền và phức tạp của riêng bạn như Altair 8800 và Apple I, Commodore đã ra mắt PET (Giao dịch điện tử cá nhân) vào giữa năm 1977 nhưng bị sự cố sản xuất, sau đó cho phép Apple cung cấp một máy tính được chế tạo sẵn để sử dụng tại nhà, Apple II. Điều này có đồ họa màu và các khe cắm mở rộng, nhưng chi phí là một vấn đề ở mức £ 765 / $ 1,300 (hơn £ 3,300 / $ 5.000 bây giờ). Tuy nhiên, chi phí đã giảm xuống cho đến khi các máy tính như Radio Shack TRS-80 xuất hiện vài tháng sau Apple II, quản lý để cung cấp một hệ thống hoàn chỉnh với giá dưới 350 bảng / 600 đô la. Sau đó, Clive Sinclair đã cho ra mắt chiếc máy tính xách tay Sinclair ZX80 vào năm 1980 với giá 99,95 bảng / 230 USD, sẵn sàng chế tạo. Mặc dù cỗ máy này có công suất thấp, nhưng nó đã thúc đẩy sự xuất hiện của một loạt các máy tính gia đình giá rẻ, bao gồm cả BBC Micro rất nổi tiếng, được ra mắt vào năm 1981, cùng năm với Máy tính cá nhân của IBM hay PC.
Đột nhiên, sức mạnh tính toán nằm ngoài sự kiểm soát hoàn toàn của các tổ chức lớn và các cá nhân có phương tiện viết, sử dụng và truyền lại các chương trình. Mặc dù Olivetti đã đưa ra một máy tính để bàn độc lập vào năm 1965 được gọi là Programma 101, nhưng đó không phải là một thành công lớn về mặt thương mại và các nỗ lực khác cũng thất bại do thiếu tiêu chuẩn hóa có thể được tích hợp vào máy. Sự yếu kém của phần cứng và hệ điều hành kém dẫn đến thiếu khách hàng, những người ở giai đoạn này vẫn chưa hiểu hết lời hứa về điện toán cho đại chúng. Các công ty cũng đã cố gắng đưa ra các máy tính để bàn, chẳng hạn như máy SCAMP của IBM và Xerox, công ty đã giới thiệu khái niệm giao diện người dùng đồ họa bằng cách sử dụng các cửa sổ, biểu tượng và chuột bằng con trỏ màn hình (được gọi là hệ thống WIMP , hiện nay thường được áp dụng bởi tất cả các hệ điều hành máy tính để bàn lớn). Nhưng sự không đồng nhất vẫn đang giữ mọi người lại; việc thiếu một tiêu chuẩn mà các nhà phát triển có thể viết các ứng dụng có nghĩa là có rất ít cơ hội để xây dựng và bán đủ bản sao của bất kỳ phần mềm nào để lấy lại thời gian và đầu tư cho sự phát triển và chi phí liên quan. Không giống như trên máy tính lớn, nơi chi phí bản quyền phần mềm có thể lên tới hàng triệu đô la, phần mềm máy tính cá nhân phải ở mức hàng chục hoặc hàng trăm đô la, với một vài chương trình có thể lên tới hàng ngàn.