Cloud Computing

Gesellschaftliche Implikationen der Technologie des Cloud Computing  – Expertise zur Forschungsplanung der Arbeitsgemeinschaft für Sozialforschung e.V. – von Norbert Kostede  

 

Um die Frage der AfS nach forschungsrelevanten Bereichen der Technologie des Cloud Computing (1) zu beantworten, wird in dieser Expertise zunächst allgemein die Bedeutung dieser Technologie für den gesellschaftlichen Wandel in den kommenden Jahrzehnten skizziert. Dies betrifft sowohl Potentiale wie Risiken dieser Technologie.

Als Ausgangspunkte bieten sich zwei Definitionstypen an, ein wissenschaftlicher und ein alltagssprachlicher; letzterer wird zumeist von den Anbietern kommerzieller CC-Rechenzentren formuliert. Während die zentralen Begriffe einer wissenschaftlichen Definition (Skalierung, Virtualisierung, Hybridität etc.) dem Laien meist unverständlich bleiben und die gesellschaftlichen Implikationen in solchen Definitionen meist ausgeblendet werden, sind alltagssprachliche Versuche entweder marketing-lastig („CC – die neue Internetrevolution“) oder derart flach (zum Beispiel: „Bereitstellung von gemeinsam nutzbaren und damit kostensparenden IT-Leistungen“), dass weder die historische Dimension dieser Technologie noch ihr Risikopotential begriffen werden kann.

Auch eine Aufzählung von aktuellen, bereits realisierbaren Leistungen dieser Technologie hilft als Ausgangspunkt einer Expertise nicht weiter: Vernetzte Minicomputer, die im Kontakt mit einer „Datenwolke“ unsere Automobile steuern, die Häuser und Wohnungen überwachen; mit deren Hilfe wir unsere Gesundheit prüfen lassen oder unseren familiären und beruflichen Alltag abstimmen können; mit deren Hilfe immer mehr Städte ihre Verwaltung, ihre Energieversorgung oder Verkehrssysteme steuern.

Im Grunde begleitet diese Technologie das Internet von Anfang an – gewissermaßen „in nuce“. Denn seit Jahrzehnten nutzt jeder Internet-Teilnehmer Dienste und Anwendungen, die man im Großen und Ganzen als Cloud Computing begreifen kann: Ob wir Texte, Bilder, Zahlen, Graphiken, Videos oder Musikaufnahmen über das Internet in fremde Datenbanken eingeben oder sie aus ihnen herunterladen, sie in diesen Datenbanken bearbeiten oder bearbeiten lassen, überall dort begeben wir uns in die „Datenwolke“. – Aber die Genese und bloße Phänomene zu betrachten, heißt noch lange nicht, Cloud Computing auch zu verstehen.

Selbst das Ausmalen von Visionen bringt uns dem Verständnis dieser Technologie nicht näher: Minisensoren, „Smart Dust“ genannt, mit denen wir weltweit und engmaschig Daten über die Verschmutzung der Meere oder die Ankunft von Erdbeben oder Vulkanausbrüchen sammeln; mit denen wir Daten über Wetterphänomene und die Entwicklung des Erdklimas sammeln; feine globale Netze, mit denen wir Daten über Virenattacken und alle nur denkbaren Krankheitsausbüche sammeln – kurzum „Big-Data-Phänomene“, die mit Hilfe von Cloud Computing integriert, ausgewertet und mit eben dieser Technologie dann als Frühwarn-SMS und Verhaltensempfehlung Milliarden von Menschen zugestellt werden könnten. Keine Frage, all das wird in irgendeiner Form recht bald auf die Menschheit zukommen und ihr Weltverständnis prägen, aber derartige Visionen bringen uns dem Verständnis dieser Technologie auch nicht viel näher.

1   Potentiale

Vergessen wir derartige Definitionen, Phänomene und Visionen. Führen wir die Komplexität dieser Technologie stattdessen auf drei vereinfachte, miteinander verbundene Grundgedanken zurück, die uns das Cloud Computing gleichwohl verständlich machen können und seine historische Tragweite erkennbar werden lassen.

1.1  Cloud Computing als Entlastungstechnologie

Wie jeder technologische Fortschritt „entlastet“ auch das Cloud Computing. Aber wie? Ob für Privatpersonen oder Wirtschaftsunternehmen, ob für öffentliche Verwaltungen oder medizinische Einrichtungen – für sie alle galt in den 1980er und 1990er Jahren: Neben der jeweiligen Hauptaufgabe oder dem jeweiligen Geschäftszweck musste man viel Geld, viel Zeit und Aufmerksamkeit aufwenden, um in puncto Hard- und Software sowie bei dazugehörigen Informatikkenntnissen zumindest auf dem Laufenden zu bleiben. So manche Firma ging bankrott, weil sie über die beständige Mobilisierung ihrer IT das eigentliche Kerngeschäft vernachlässigte.

Heutzutage, das Informationszeitalter ist mittlerweile erwachsen und reifer geworden, reichen kompatible Strukturen auf Nutzerseite, um sich von den Infrastrukturen, Plattformen und Anwendungen der Anbieter des Cloud Computing helfen zu lassen. Dies gilt selbst für Privatpersonen und ihre Smartphones oder Notebooks, wenn sie mit und in der „Wolke“ kommunizieren oder arbeiten wollen. Wer über kompatible Endgeräte mit ausreichender Intelligenz verfügt, spart Zeit und Geld, obwohl er vom immer höheren Leistungsvermögen der Informationstechnologie profitiert. Um diesen Gesichtspunkt etwas lapidar und salopp zu formulieren: Von den notwendigen IT-Spezialisten abgesehen, erspart die „Wolke“ der Welt ein langjähriges Informatikstudium. Wir Normal-User können relaxen, Grundkenntnisse reichen aus.

1.2  Cloud Computing und globale Effizienz

In den frühen Jahren dieser Technologie stand die betriebswirtschaftliche Effizienz und die betriebswirtschaftliche Kostenreduktion im Mittelpunkt der Diskussion. Die Werbebotschaften der Betreiber sahen ungefähr so aus: „Unsere Rechenzentren stellen Ihrer Firma Speicherkapazitäten und Rechenleistungen zur Verfügung, die Sie bedarfsgerecht und flexibel über das Internet abrufen und nach jeweiliger Nutzung abrechnen können.“ Als Vorteil dieser Technologie wurde hervorgehoben, dass sich in den riesigen Rechenzentren der Betreiber alle entscheidenden Faktoren – Hard- und Software, Arbeitskraft, Sicherheitsmaßnahmen – permanent optimieren und effizienter nutzen lassen als in einem dezentralisierten System, in dem jede einzelne Firma eigene Speicher- und Rechenkapazitäten bereitstellen sowie instand halten muss – die sie zudem nie oder allein in Ausnahmefällen voll auslasten wird.

Ökonomen und Wirtschaftspolitiker in aller Welt haben natürlich sofort erkannt, dass Cloud Computing damit auch ein volkswirtschaftlicher Effizienztreiber ist: Jedes Land, welches das Potential dieser Technologie – aus welchen Gründen auch immer – nicht ausschöpft, droht im internationalen Wettbewerb zurückzufallen. Aber selbst das ist noch zu kurz gedacht:  Letztlich zielt Cloud Computing auf globale Effizienz.

Man kann sich dies am Beispiel des Energieverbrauchs vor Augen führen:  Der enorme Energiebedarf von Rechenzentren, die dem Cloud Computing dienen, war für verschiedene Umweltschützer zuweilen ein Argument, sich gegen den Bau solcher Anlagen und gegen diese Technologie auszusprechen. Was kurzfristig und im regionalen Umfeld plausibel sein kann, ist jedoch global und langfristig gesehen ein Kurzschluss: Unterstellen wir dieselbe Kapazität der Datenverarbeitung, dann ist der Energiebedarf eines zentralisierten, effizient genutzten Systems der Datenverarbeitung zweifelsohne geringer als der eines dezentralen Systems mit ineffizienter Nutzung. Pointiert ließe sich sagen: Eine „Welt mit Wolke“ nutzt ihre intelligenten und natürlichen Ressourcen weitaus besser als eine „Welt ohne Wolke“.

1.3  Eine Erfindung zur Erfindung

Cloud Computing ist zugleich ein Antreiber von Innovationen, „eine Erfindung zur Erfindung“.  Auch dies lässt sich grundsätzlich von jeder Technologie sagen, aber diese Formel bekommt durch die „virtuelle Verdopplung der Welt“ eine besondere Bedeutung:

Bekannt ist, dass Wirtschaftsunternehmen, öffentliche Verwaltungen oder Gesundheitseinrichtungen schon heute durch diese Technologie in die Lage versetzt werden, völlig neuartige Geschäftsmodelle zu entwickeln. So lassen sich zum Beispiel Maschinen, Industrieanlagen oder medizinische Apparate, die über virtuelle Ebenbilder und vernetzte Komponenten („embedded systems“) verfügen, von ihren Herstellern mit Hilfe von Cloud Computing weltweit nicht allein steuern und überwachen, sondern auch reparieren und verbessern, ja sogar flexibel für neue Aufgaben umfunktionieren – Vorgänge, die zur Zeit unter dem Titel „Industrie 4.0“ diskutiert oder bereits realisiert werden.

Je mehr Produkte und Dienstleistungen über virtuelle Ebenbilder verfügen, je mehr werden auch die zugehörigen Verfahren zu ihrer Herstellung, die innovativen Prozesse, virtualisiert. Das Zusammenspiel aller Komponenten und Prozesse wird gewissermaßen mit Hilfe eines digitalen Zwillings entwickelt und getestet, lange bevor Technologien materialisiert oder Dienstleistungen verwirklicht werden. Das Ergebnis heißt nicht zuletzt Beschleunigung: Die Zeit zwischen erster Idee und realisierter Innovation verkürzt sich beständig. Wie immer Cloud Computing in den kommenden Jahrzehnten auch weiterentwickelt werden mag, für die Zukunft von Technik und Industrie lässt sich schon heute sagen, jeder ihrer Fortschritte findet zu allererst in der „Wolke“ statt. –

Besser als Definitionen, bloße Phänomene und schöne Visionen führen uns diese drei Grundgedanken zu einem angemessenen Verständnis des Cloud Computing und seiner historischen Tragweite. Gedanken freilich, die ausschließlich die positive Seite dieser Technologie beschrieben haben.

 

2     Risikokonzepte

Es wäre fahrlässig, nicht auch die Risiken, die mit dieser Technologie einhergehen, mit gleichgroßen Maßstäben zu messen. (2) Durch kriminelle oder terroristische Zugriffe, durch monopolitische oder autoritärstaatliche Strukturen ließe sich das Potential des Cloud Computing durchaus destruktiv nutzen. Allein dann, wenn seine Risiken erkannt und benannt werden, wenn sich diese Risiken mit Hilfe einer Sicherheitsarchitektur und Ordnungspolitik erfolgreich begrenzen lassen – einem Ensemble, das nicht weniger komplex ist als diese Technologie selber – können Wirtschaft und Gesellschaft auf Dauer von der „Wolke“ profitieren.

Auch mit Blick auf die Risiken der globalen Vernetzung und des Cloud Computing im Besonderen ersparen wir uns die Beschreibung vergangener Ereignisse (staatlich organisierter und/oder wirtschaftlich motivierter Datendiebstahl, Präventivattacken auf militärische Rüstungskomplexe gegnerischer Staaten) und zukünftiger  Risikopotentiale, seien es konventionelle Angriffe auf CC-Rechenzentren oder großflächige Cyber-Attacken auf informationstechnologisch basierte, nationale Energie-, Verkehrs-, Gesundheitssysteme. Außerdem sei darauf hingewiesen, dass Risiken, die gemeinhin unter dem Titel „privacy risks“ firmieren (kommerziell oder sicherheitspolitisch motiviertes Ausspähen privater Daten), in dieser Expertise unter dem Oberbegriff „Sicherheitsrisiko“ subsumiert sind.

Dies vorausgesetzt, lassen sich die Risiken dieser Technologie und die Strategien zu ihrer Begrenzung mit Hilfe dreier „Konzepttypen“ formulieren; Konzept hier verstanden als Art und Weise der Erkenntnis und Behandlung von Risiken.

2.1  gesellschaftswissenschaftliche Konzepte

In ihnen geht es primär um Erkenntnisinteressen. Kulturkritiker haben in den 1990er Jahren das Internet bekanntlich als eine Art Kampfarena beschrieben, in der „menschliche Vitalität“ mit „seelenlosen Algorithmen“ konfrontiert würde. (3) In einer weitaus präziseren Fassung lässt sich diese Gegenüberstellung soziologisch als Kontingenzproblematik formulieren: Im Internet – und damit auch in seiner entwickelten Gestalt des Cloud Computing – stößt der Wille zur mathematischen Berechnung und technischen Perfektion auf die Imperfektibilität, Unberechenbarkeit und prinzipielle Offenheit des sozialen und kulturellen Lebens.

Oder vereinfacht formuliert: Technik und Gesellschaft gehen im Internet derart komplizierte Verbindungen ein, dass es immer wieder zu spontanen, unvorhersehbaren, ungeplanten Entwicklungen kommt; zu „Emergenzen“, die sowohl die hohe Intelligenz wie zugleich die permanente Anfälligkeit dieses Systems ausmachen. Bereits in den Grundstrukturen des Internet ist angelegt, dass jeder Innovationssprung sowohl Chancen wie Risiken erzeugt: kein offener und freier Netzzugang ohne Cyber-Kriminalität oder Hass-Attacken; keine digitale Transparenz von Märkten ohne entsprechende Transparenz privater Konsumorientierungen; kein Vorteil durch Cloud Computing ohne neue Abhängigkeiten von deren Anbietern.

Im Rahmen dieser Konzepte geht es also nicht in erster Linie um die Frage, wie sich technologische Risiken begrenzen lassen, sondern um einen angemessenen Begriff moderner Gesellschaften („Risikogesellschaft“, „Netzwerk-Gesellschaft“ usw.) bis hin zu elementaren Konstrukten ihres Weltverständnisses (etwa Anthropozentrismus, objektiver Realismus). Wer Kontroversen zu solchen Theorien und Schulen anreichern will, kommt um profunde Analysen der globalen Vernetzung im Stadium des Cloud Computing nicht herum – ein Defizit, das viele diesbezügliche Beiträge auszeichnet.

2.2  ordnungspolitische Konzepte

Um Risikobegrenzung geht es erst, wenn wir ordnungspolitische Konzepte betrachten. (5) Es war nur eine Frage der Zeit, bis das frühe Internet, im Wesentlichen ein „Netzwerk von Wissenschaftlern“, derart von ökonomischen, sicherheitspolitischen bis militärischen Interessen ergriffen und durchdrungen wurde, dass sowohl selbstregulative wie politisch-regulative Strategien und Maßnahmen auf den Plan gerufen wurden.

Im Mainstream der internetbezogenen Ordnungspolitik geht es um ein Sowohl-als-auch. Angesichts der heutigen Kommerzialisierung und im Rückblick auf das frühe Wissenschaftlernetz mag zwar, was selbstregulativ-risikobegrenzende Maßnahmen der Branche angeht, Skepsis angebracht sein. Wie jedoch die Genese des Internet nicht ohne die ungeheure Mobilisierung des Kapitalmarktes, ohne globale Anbieter von standardisierter Software, Hardware und Netzwerktechnologien, ohne den Aufbau zentraler Rechenzentren  und Infrastrukturen verstanden werden kann, so lässt sich auch keine nachhaltige Zukunft des Internet im Stadium von Cloud Computing denken, in der man ohne Kapitalmobilisierung zur Risikobegrenzung und ohne branchenspezifisches Know how auskäme.

Zuweilen liegt es im Interesse einer nachhaltigen Unternehmensentwicklung selber, nicht allein auf Gesetze und gesellschaftliche Erwartungen zu reagieren. Dazu ein markantes Beispiel: Um den freien Zugang gegenüber großen Cloud-Anbietern zu sichern, können freiwillige Branchenvereinbarungen garantieren, dass die Interoperabilität zwischen unterschiedlichen Unternehmensplattformen nicht durch exklusive Architekturen eingeschränkt wird; Schnittstellen können so standardisiert werden; offene und proprietärer Software-Angebote können so kompatibel bleiben. Weil und solange die Akzeptanz und das Vertrauen ihrer Kunden die Offenheit und den flexiblen Wechsel zwischen unterschiedlichen Cloud Services erfordern, ist Selbstregulation kein bloßes Wunschdenken .

Wo sie jedoch versagt oder unzureichend ist, werden politische Eingriffe erforderlich, auch wenn diese unter den Bedingungen von Global Governance schwieriger und zweitaufwendiger zu realisieren sind als unter nationalstaatlichen Prämissen. Die Branche ist unumkehrbar global aufgestellt und übersteigt allein schon in puncto Finanzkraft die große Mehrheit der nationalstaatlichen Budgets. Die großen CC-Datenbankbetreiber, ob sie nun primär als Suchmaschinen, Handelsplattformen, Soziale Netzwerke, Softwarehersteller oder Telekommunikationsunternehmen tätig sind, stellen Oberzentren des Internet dar, die man politisch beeinflussen und mitgestalten, aber nicht „zerschlagen“ kann. (Die Grundstruktur des Internet lässt sich ohnehin nur als Funktion skalenfreier Netze begreifen (4), also als extrem dezentrales Netz mit ebenso extrem wenigen, machtvollen Knotenpunkten – Ersteres setzt Letzteres voraus.) Je größer die Masse des in den CC-Rechenzentren bewältigten Netzverkehrs, um dringlicher das Gebot, monopolistische Strukturen oder gar Kartellbildungen zu verhindern. Wo „Netzneutralität“ zur Debatte steht und die Selbstregulation der Branche zu versagen droht, müssen internationale Vereinbarungen den freien Zugang gegenüber großen Netzwerkbetreibern sichern und Regeln für ein diskriminierungsfreies Netzmanagement durchgesetzt werden.

Freier und gleichberechtigter Zugang zum Internet setzt nicht allein eine radikal marktwirtschaftliche, sondern letztlich auch die demokratische Einbettung von Technologie und Ökonomie des entwickelten Internets voraus. Schon heute erzeugen autoritärstaaatliche und sicherheitspolitische Eingriffe Kontroll- und Überwachungsresultate von Orwellscher Dimension – nicht allein unter den Modernisierungsregimes sozialistischer oder kapitalistischer Provenienz. –

So ungefähr lassen sich die aktuellen Debatten und internationalen Verhandlungen zu konkurrierenden ordnungspolitischen Konzepten abstecken und beschreiben. Von einer kohärenten globalen Ordnungspolitik, was Konzeption wie Praxis betrifft, sind wir noch weit entfernt. Weltweit, aber auch innerhalb der Europäischen Union, sehen sich die Anbieter von Cloud Services von Land zu Land unterschiedlich hohen Anforderungen hinsichtlich Datensicherheit und Datenschutz ausgesetzt. Nationalstaatlichen Strategien zur Risikobegrenzung kommt jedoch immer nur eine (wenngleich notwendige) Initiativfunktion in der globalen Gestaltung der Technologie und Ökonomie des Internet zu.

2.3  pragmatische Konzepte

Auch wenn wir diese Konzepte im Rahmen der Expertise vernachlässigen können, sei betont, dass „pragmatisch“ hier nicht abwertend gemeint ist. Jede Art von Risikobegrenzung funktioniert immer nur mit einem technologischen und unternehmerischen Unterbau. Drei prominente Strategien, ohne die eine Risikobegrenzung im Stadium des Cloud Computing  nicht funktionieren kann, seien mit wenigen Stichworten beschrieben:

Gradualistische Strategien: Wirtschaftsunternehmen haben die Wahl, wie viel an lokaler IT sie aufrechterhalten und wie viel Cloud Services sie in Anspruch nehmen wollen; wo sie standardisierte und wo individuell zugeschnittene IT einsetzen wollen; ob sie – im Fall von Großunternehmen – eigene (Privat Cloud) oder fremde Cloud-Kapazitäten nutzen wollen (Public Cloud). Bis weit hinein in die mittelständische Wirtschaft werden wir in Zukunft unterschiedlichste Mixturen von Eigen- und Fremdbetrieb erleben (Hybrid Cloud).

Kryptographische und Zertifizierungsstrategien: In aller Welt forschen IT-Expertenteams an neuen Techniken zur Datensicherung, Datenverschlüsselung und Datenlöschung. „Friendly Hackers“ treiben mit raffinierten Cyber-Attacken die technischen Sicherheitsstandards von Wirtschaftsunternehmen wie die der CC-Rechenzentren in die Höhe. Unabhängige Forschungsinstitute arbeiten daran, die Resultate derartiger Bemühungen in konkrete Zertifizierungskriterien zu übersetzen und diese zur Geltung zu bringen. –

3   Fazit

Für die Forschungsplanung der Arbeitsgemeinschaft für Sozialforschung kommen die unter 2.1 und 2.2 genannten Themen und Aufgabenstellungen in Frage, je nachdem ob der Fokus der zukünftigen Arbeit eher gesellschaftstheoretisch oder ordnungspolitisch-beratend gestaltet werden soll. Markante Defizite des Forschungsstands in beiden Themenbereichen wurden benannt. Zur Ausarbeitung eines konkreten Forschungsvorhabens stünde ich selbstverständlich mit weiterem Rat zur Verfügung.

Berlin, 23. September 2016

 

1) Zur Einführung in diese Technologie, ihrer Chancen und Risiken, empfohlen: R. Puttini, Th. E. Zaigham Mahmood: Cloud Computing – Concepts, Technology & Architecture, Prentice Hall 2013, Upper Saddle River/New Jersey. Ch. Metzger et al: Cloud Computing: Chancen und Risiken aus technischer und unternehmerischer Sicht, Hanser/München 2011

2) Grundlegendes zur Risikoproblematik des Internet hat Jeanette Hofmann beigetragen: The Libertarian Origins of Cybercrime: Unintended Side-Effects of a Political Utopia. In: Social Science Research Network  –  http://ssrn.com/abstract=171077

3) Die kulturkritische Debatte wurde in Deutschland vor allem vom FAZ-Herausgeber Frank Schirrmacher inspiriert: Payback, Blessing Verlag/München 2009. – Grundlegend für die soziologische Debatte waren die drei Bände von Manuel Castells: Das Informationszeitalter, Verlag Leske und Budrich/Leverkusen 2001-2003

4) Siehe dazu A. L. Barabási /E. Bonabeau: Scale-Free Networks. In: Scientific American / Division of Nature,  May 2003, p. 50ff

5) Eine Gesamtschau liefern die Bände von G.B. Kutais: Internet Policies & Issues, erschienen im Verlag Nova Science Publishers/New York. – Die deutsche Diskussion resümiert Florian Tille anhand von SPIEGEL-Online Beiträgen zu diesem Thema: Netz ohne Gesetz?, Akademieverlag 2015