Cloud Computing wird dezentralisiert: Future of Computers P5

IMAGE CREDIT: Quantenlauf

Cloud Computing wird dezentralisiert: Future of Computers P5

    Es ist ein abstrakter Begriff, der sich in unser öffentliches Bewusstsein geschlichen hat: die Cloud. Heutzutage wissen die meisten Menschen unter 40, dass die moderne Welt ohne sie nicht leben kann persönlich kann nicht ohne leben, aber die meisten Menschen verstehen auch kaum, was die Cloud wirklich ist, geschweige denn die kommende Revolution, die sie auf den Kopf stellen wird.

    In diesem Kapitel unserer Serie „Future of Computers“ werden wir untersuchen, was die Cloud ist, warum sie wichtig ist, die Trends, die ihr Wachstum vorantreiben, und dann den Makrotrend, der sie für immer verändern wird. Freundlicher Hinweis: Die Zukunft der Cloud liegt in der Vergangenheit.

    Was ist die „Wolke“ wirklich?

    Bevor wir uns mit den großen Trends befassen, die Cloud Computing neu definieren werden, lohnt es sich, den weniger technikbegeisterten Lesern eine kurze Zusammenfassung dessen zu geben, was die Cloud eigentlich ist.

    Zunächst einmal besteht die Cloud aus einem Server oder einem Netzwerk von Servern, die selbst einfach ein Computer oder Computerprogramm sind, das den Zugriff auf eine zentralisierte Ressource verwaltet (ich weiß, bloß mit mir). Beispielsweise gibt es private Server, die ein Intranet (ein internes Computernetzwerk) innerhalb eines bestimmten großen Gebäudes oder Unternehmens verwalten.

    Und dann gibt es noch kommerzielle Server, auf denen das moderne Internet läuft. Ihr PC stellt eine Verbindung zum Internetserver des lokalen Telekommunikationsanbieters her, der Sie dann mit dem gesamten Internet verbindet, wo Sie dann mit jeder öffentlich zugänglichen Website oder jedem Online-Dienst interagieren können. Aber hinter den Kulissen interagieren Sie wirklich nur mit den Servern der verschiedenen Unternehmen, die diese Websites betreiben. Wenn Sie beispielsweise Google.com besuchen, sendet Ihr Computer erneut eine Anfrage über Ihren lokalen Telekommunikationsserver an den nächstgelegenen Google-Server und bittet um Erlaubnis, auf seine Dienste zuzugreifen. Bei Genehmigung wird Ihrem Computer die Startseite von Google angezeigt.

    Mit anderen Worten, ein Server ist jede Anwendung, die Anfragen über ein Netzwerk abhört und dann eine Aktion als Reaktion auf diese Anfrage ausführt.

    Wenn Menschen also von der Cloud sprechen, beziehen sie sich eigentlich auf eine Gruppe von Servern, auf denen digitale Informationen und Online-Dienste zentral gespeichert und abgerufen werden können, anstatt auf einzelnen Computern.

    Warum die Cloud zum zentralen Bestandteil des modernen Informationstechnologiesektors wurde

    Vor der Cloud hatten Unternehmen private Server, um ihre internen Netzwerke und Datenbanken zu betreiben. In der Regel bedeutete dies, neue Serverhardware zu kaufen, auf deren Ankunft zu warten, ein Betriebssystem zu installieren, die Hardware in einem Rack einzurichten und sie dann in Ihr Rechenzentrum zu integrieren. Dieser Prozess erforderte viele Genehmigungsebenen, eine große und teure IT-Abteilung, laufende Upgrade- und Wartungskosten und chronisch versäumte Fristen.

    Dann beschloss Amazon Anfang der 2000er Jahre, einen neuen Dienst zu kommerzialisieren, der es Unternehmen ermöglichen würde, ihre Datenbanken und Online-Dienste auf den Servern von Amazon auszuführen. Dies bedeutete, dass Unternehmen weiterhin über das Internet auf ihre Daten und Dienste zugreifen konnten, aber was dann zu Amazon Web Services wurde, würde alle Hardware- und Software-Upgrade- und Wartungskosten übernehmen. Wenn ein Unternehmen zusätzlichen Datenspeicher, Serverbandbreite oder Software-Upgrades benötigt, um seine Rechenaufgaben zu bewältigen, kann es die zusätzlichen Ressourcen einfach mit wenigen Klicks bestellen, anstatt sich durch den oben beschriebenen monatelangen manuellen Prozess zu quälen.

    Tatsächlich sind wir von einer Ära der dezentralisierten Serververwaltung, in der jedes Unternehmen sein eigenes Servernetzwerk besaß und betrieb, zu einem zentralisierten Framework übergegangen, in dem Tausende bis Millionen von Unternehmen erhebliche Kosten sparen, indem sie ihre Datenspeicherung und Computerinfrastruktur an eine sehr kleine Anzahl auslagern von spezialisierten „Cloud“-Serviceplattformen. Ab 2018 gehören zu den Top-Konkurrenten im Cloud-Services-Sektor Amazon Web Services, Microsoft Azure und Google Cloud.

    Was das anhaltende Wachstum der Cloud antreibt

    Seit 2018 befinden sich über 75 Prozent der weltweiten Daten in der Cloud, mit weit mehr als XNUMX Prozent 90 Prozent der Unternehmen betreiben inzwischen auch einen Teil ihrer Dienste in der Cloud – dazu gehören alle von Online-Giganten wie Netflix an Regierungsorganisationen, wie z CIA. Aber diese Verschiebung ist nicht nur auf Kosteneinsparungen, überlegenen Service und Einfachheit zurückzuführen, es gibt eine Reihe anderer Faktoren, die das Wachstum der Cloud vorantreiben – vier solcher Faktoren sind:

    Software as a Service (SaaS). Neben der Auslagerung der Kosten für die Speicherung von Big Data werden immer mehr Business-Services ausschließlich über das Internet angeboten. Beispielsweise nutzen Unternehmen Online-Dienste wie Salesforce.com, um alle ihre Vertriebs- und Kundenbeziehungsmanagement-Anforderungen zu verwalten und dabei alle ihre wertvollsten Kundenverkaufsdaten in den Rechenzentren (Cloud-Servern) von Salesforce zu speichern.

    Ähnliche Dienste wurden entwickelt, um die interne Kommunikation, E-Mail-Zustellung, Personalwesen, Logistik und mehr eines Unternehmens zu verwalten, sodass Unternehmen alle Geschäftsfunktionen, die nicht ihre Kernkompetenz sind, an kostengünstige Anbieter auslagern können, die ausschließlich über die Cloud zugänglich sind. Im Wesentlichen treibt dieser Trend Unternehmen von einem zentralisierten zu einem dezentralisierten Betriebsmodell, das normalerweise effizienter und kostengünstiger ist.

    Big Data. So wie Computer ständig exponentiell leistungsfähiger werden, so wächst auch die Datenmenge, die unsere globale Gesellschaft Jahr für Jahr generiert. Wir treten in das Zeitalter von Big Data ein, in dem alles gemessen, alles gespeichert und nichts gelöscht wird.

    Dieser Datenberg ist Problem und Chance zugleich. Das Problem sind die physischen Kosten für die Speicherung immer größerer Datenmengen, die den oben erwähnten Vorstoß beschleunigen, Daten in die Cloud zu verschieben. In der Zwischenzeit liegt die Gelegenheit darin, leistungsstarke Supercomputer und fortschrittliche Software zu verwenden, um profitable Muster innerhalb des Datenbergs zu entdecken – ein Punkt, der weiter unten erörtert wird.

    Internet der Dinge. Einer der größten Verursacher dieses Tsunamis von Big Data ist das Internet der Dinge (IoT). Zuerst erklärt in unserem Internet der Dinge Kapitel unserer Zukunft des Internets Serie ist das IoT ein Netzwerk, das entwickelt wurde, um physische Objekte mit dem Internet zu verbinden, um unbelebten Objekten „Leben einzuhauchen“, indem es ihnen ermöglicht wird, ihre Nutzungsdaten über das Internet zu teilen, um eine Reihe neuer Anwendungen zu ermöglichen.  

    Zu diesem Zweck werden Unternehmen damit beginnen, Miniatur- bis mikroskopisch kleine Sensoren auf oder in jedes hergestellte Produkt, in die Maschinen, die diese hergestellten Produkte herstellen, und (in einigen Fällen) sogar in die Rohstoffe einzubauen, die in die Maschinen eingespeist werden, die diese herstellen Produkte.

    All diese verbundenen Dinge werden einen konstanten und wachsenden Datenstrom erzeugen, der ebenfalls eine konstante Nachfrage nach Datenspeicherung schaffen wird, die nur Cloud-Service-Anbieter erschwinglich und in großem Umfang anbieten können.

    Großes Rechnen. Schließlich ist, wie oben angedeutet, all diese Datensammlung nutzlos, wenn wir nicht die Rechenleistung haben, sie in wertvolle Erkenntnisse umzuwandeln. Und auch hier kommt die Cloud ins Spiel.

    Die meisten Unternehmen haben nicht das Budget, um Supercomputer für den internen Gebrauch zu kaufen, geschweige denn das Budget und das Fachwissen, um sie jährlich aufzurüsten, und dann viele zusätzliche Supercomputer zu kaufen, wenn ihre Anforderungen an die Datenverarbeitung wachsen. Hier nutzen Cloud-Service-Unternehmen wie Amazon, Google und Microsoft ihre Größenvorteile, um kleineren Unternehmen den Zugriff auf unbegrenzten Datenspeicher und (nahezu) unbegrenzte Datenverarbeitungsdienste nach Bedarf zu ermöglichen.  

    Infolgedessen können verschiedene Organisationen erstaunliche Leistungen erbringen. Google nutzt seinen Berg an Suchmaschinendaten, um Ihnen nicht nur die besten Antworten auf Ihre alltäglichen Fragen zu geben, sondern Ihnen auch auf Ihre Interessen zugeschnittene Anzeigen zu liefern. Uber nutzt seinen Berg an Verkehrs- und Fahrerdaten, um Gewinne aus unterversorgten Pendlern zu erzielen. Auswählen Polizeidienststellen testen weltweit neue Software, um verschiedene Verkehrs-, Video- und Social-Media-Feeds zu verfolgen, um nicht nur Kriminelle zu lokalisieren, sondern auch vorherzusagen, wann und wo Verbrechen wahrscheinlich auftreten werden, Minority Report-Stil.

    Okay, jetzt, da wir die Grundlagen aus dem Weg geräumt haben, lassen Sie uns über die Zukunft der Cloud sprechen.

    Die Cloud wird serverlos

    Auf dem heutigen Cloud-Markt können Unternehmen Cloud-Speicher/Rechenkapazität nach Bedarf hinzufügen oder entfernen, naja, irgendwie. Oft, insbesondere für größere Organisationen, ist die Aktualisierung Ihrer Cloud-Speicher-/Computing-Anforderungen einfach, aber nicht in Echtzeit; Das Ergebnis ist, dass Sie, selbst wenn Sie für eine Stunde zusätzliche 100 GB Speicher benötigen, diese zusätzliche Kapazität möglicherweise für einen halben Tag vermieten müssen. Nicht die effizienteste Allokation von Ressourcen.

    Mit der Umstellung auf eine serverlose Cloud werden Servermaschinen vollständig „virtualisiert“, sodass Unternehmen Serverkapazität dynamisch (genauer gesagt) vermieten können. Wenn Sie also im vorherigen Beispiel 100 GB zusätzlichen Speicher für eine Stunde benötigen, erhalten Sie diese Kapazität und es wird nur diese Stunde berechnet. Keine verschwendete Ressourcenzuweisung mehr.

    Aber es zeichnet sich ein noch größerer Trend ab.

    Die Cloud wird dezentralisiert

    Erinnern Sie sich noch, als wir das IoT erwähnt haben, die Technologie, die viele unbelebte Objekte „intelligent“ macht? Zu dieser Technologie gesellt sich der Aufstieg fortschrittlicher Roboter, autonomer Fahrzeuge (AVs, diskutiert in unserem Zukunft des Verkehrs Serie) und Augmented Reality (AR), die alle die Grenzen der Cloud verschieben werden. Wieso den?

    Wenn ein fahrerloses Auto über eine Kreuzung fährt und eine Person versehentlich davor auf die Straße geht, muss das Auto innerhalb von Millisekunden die Entscheidung treffen, auszuweichen oder zu bremsen; Es kann sich nicht leisten, verschwendete Sekunden damit zu verbringen, das Bild der Person an die Cloud zu senden und darauf zu warten, dass die Cloud den Bremsbefehl zurücksendet. Fertigungsroboter, die mit der 10-fachen Geschwindigkeit von Menschen am Fließband arbeiten, können es kaum erwarten, dass sie anhalten dürfen, wenn ein Mensch versehentlich davor stolpert. Und wenn Sie eine zukünftige Augmented-Reality-Brille tragen, wären Sie sauer, wenn Ihr Pokeball nicht schnell genug geladen würde, um das Pikachu einzufangen, bevor es davonläuft.

    Die Gefahr in diesen Szenarien ist das, was der Laie als „Lag“ bezeichnet, im Fachjargon jedoch als „Latenz“. Bei einer großen Anzahl der wichtigsten Zukunftstechnologien, die in den nächsten ein bis zwei Jahrzehnten online gehen, kann selbst eine Millisekunde Latenz diese Technologien unsicher und unbrauchbar machen.

    Infolgedessen liegt die Zukunft des Computing (ironischerweise) in der Vergangenheit.

    In den 1960-70er Jahren dominierten Großrechner, riesige Computer, die die Datenverarbeitung für geschäftliche Zwecke zentralisierten. Dann, in den 1980-2000er Jahren, kamen Personal Computer auf den Plan, die Computer für die Massen dezentralisierten und demokratisierten. Dann, zwischen 2005 und 2020, wurde das Internet zum Mainstream, kurz darauf folgte die Einführung des Mobiltelefons, das es Einzelpersonen ermöglicht, auf eine unbegrenzte Auswahl an Online-Angeboten zuzugreifen, die wirtschaftlich nur durch die Zentralisierung digitaler Dienste in der Cloud angeboten werden könnten.

    Und schon bald in den 2020er Jahren werden IoT, AVs, Roboter, AR und andere solche „Edge-Technologien“ der nächsten Generation das Pendel wieder in Richtung Dezentralisierung schwingen lassen. Denn damit diese Technologien funktionieren, müssen sie über die Rechenleistung und Speicherkapazität verfügen, um ihre Umgebung zu verstehen und in Echtzeit zu reagieren, ohne ständig von der Cloud abhängig zu sein.

    Zurück zum AV-Beispiel: Dies bedeutet eine Zukunft, in der Autobahnen mit Supercomputern in Form von AVs geladen sind, die jeweils unabhängig voneinander riesige Mengen an Standort-, Sicht-, Temperatur-, Schwerkraft- und Beschleunigungsdaten sammeln, um sicher zu fahren, und diese Daten dann mit ihnen teilen die AVs um sie herum, damit sie gemeinsam sicherer fahren, und schließlich die Weitergabe dieser Daten an die Cloud, um alle AVs in der Stadt anzuweisen, den Verkehr effizient zu regeln. In diesem Szenario finden Verarbeitung und Entscheidungsfindung am Boden statt, während das Lernen und die längerfristige Datenspeicherung in der Cloud stattfinden.

     

    Insgesamt werden diese Edge-Computing-Anforderungen eine wachsende Nachfrage nach immer leistungsstärkeren Computern und digitalen Speichergeräten anregen. Und wie es immer der Fall ist, wachsen mit zunehmender Rechenleistung die Anwendungen für diese Rechenleistung, was zu einer erhöhten Nutzung und Nachfrage führt, was dann zu einer Preissenkung aufgrund von Skaleneffekten führt und schließlich zu einer Welt führt, die wird von Daten verbraucht. Mit anderen Worten, die Zukunft gehört der IT-Abteilung, also seien Sie nett zu ihr.

    Diese wachsende Nachfrage nach Rechenleistung ist auch der Grund, warum wir diese Serie mit einer Diskussion über Supercomputer beenden, gefolgt von der kommenden Revolution, dem Quantencomputer. Lesen Sie weiter, um mehr zu erfahren.

    Reihe Zukunft der Computer

    Aufkommende Benutzerschnittstellen zur Neudefinition der Menschheit: Die Zukunft der Computer P1

    Zukunft der Softwareentwicklung: Zukunft der Computer P2

    Die digitale Speicherrevolution: Die Zukunft der Computer P3

    Ein schwindendes Mooresches Gesetz, um ein grundlegendes Umdenken bei Mikrochips auszulösen: Future of Computers P4

    Warum konkurrieren Länder um den Bau der größten Supercomputer? Zukunft der Computer P6

    Wie Quantencomputer die Welt verändern werden: Future of Computers P7     

     

    Nächstes geplantes Update für diese Prognose

    2023-02-09