Das Marktvolumen im Bereich Informationstechnologie hat in Deutschland im Jahr 2018 zum ersten Mal die Marke von 90 Milliarden Euro überschritten. Im Jahr 2019 wurden in Deutschland mit Hardware, Software und IT-Services dann Umsatzerlöse von rund 93 Milliarden Euro erzielt. Für das Gesamtjahr 2020 wird ein Rückgang auf rund 88 Milliarden Euro prognostiziert. Umsatzstärkstes Segment im Jahr 2019 war die IT-Dienstleistungsbranche mit knapp 40 Milliarden Euro, gefolgt von den Bereichen Hardware und Software. Statistiken zum Thema
Die Themen Multi Cloud-Management, Container-basierte App-Entwicklung und Modernisierung, Analytics in der Cloud, Green IT und Cloud Security werden 2022 im Fokus stehen. Warum das so sein wird und muss, erklärt Peter Schmidt, Director Business Development bei Syntax.
Unternehmen, die ihre IT-Systeme komplett in der Public Cloud betreiben, sind eher die Ausnahme, meistens kommen Hybrid- oder Multi-Cloud-Modelle zum Einsatz – mit verschiedenen Kombinationen aus Public-Cloud– und Private-Cloud-Umgebungen sowie klassischen On-Premises-Rechenzentren und Edge-Infrastruktur. Einer der wichtigsten Trends im nächsten Jahr: Einheitliche Steuerungs- und Kontrollmechanismen für die Multi Cloud schaffen, um den „Flickenteppich“ über alle Instanzen hinweg managen zu können – zentral, effizient und gemäß gesetzlichen Vorgaben, beispielsweise zum Datenschutz.
Trend 2: Containertechnologie als Treiber für „Cloud Native“
Auf dem Weg zu einem Cloud-nativen Ansatz gewinnen Container und eine Strategie für Aufbau und Betrieb einer Containermanagement-Infrastruktur an Bedeutung. Container spielen dabei sowohl für die schrittweise Migration von Funktionen klassischer monolithischer Applikationen als auch für das Deployment von Applikationsteilen auf Edge Devices, beispielsweise für IoT-Szenarien, eine Rolle. Als ausgereifte Technologie werden sich Container damit fest in den IT-Infrastrukturen von Unternehmen etablieren. Diese setzen beispielsweise zunehmend auf die SAP Digital Manufacturing Cloud, die durch den Einsatz von Containertechnologie auch auf angeschlossene Edge Devices erweitert werden kann. Das schafft transparentere Prozesse und bedeutet einen wichtigen Schritt in Richtung digitale Produktion.
Trend 3: KI- und ML-basierte Analytics in der Cloud
Unternehmen werden noch stärker auf cloud-basierte Analytics setzen, um ihre Prozesse auf Basis fundierter strategischer Entscheidungen zu optimieren und zu automatisieren. Algorithmen, die künstliche Intelligenz und Machine Learning einsetzen, fördern wertvolle Einblicke zutage. Hier bietet die Cloud – auch in Verbindung mit entsprechenden Data-Lake-Services der Hyperscaler – weitreichende Möglichkeiten, die in den meisten Fällen die Leistungsfähigkeit klassischer On-Premises-Umgebungen übersteigen – speziell im Bereich der digitalen Fertigung.
Trend 4: Nachhaltigkeit und Green IT
Das Thema Nachhaltigkeit in der IT wird bei Unternehmen ganz weit oben auf der Agenda stehen. Der Bedarf an Rechenleistung und der damit verbundene Energieverbrauch steigen stetig. Ein Umzug in die Cloud bedeutet einen effizienteren, bedarfsgesteuerten Einsatz von IT-Ressourcen, Einsparungen bei der Hardware und die Nutzung von energieeffizienten Rechenzentren der Hyperscaler. Microsoft betreibt seine Azure-Server nach eigenen Angaben bereits seit 2012 CO2-neutral und will bis 2025 komplett auf erneuerbare Energien umsteigen. Und auch Amazon plant, ab 2030 ausschließlich regenerative Energiequellen für AWS zu nutzen. Die Public Cloud bringt also Vorteile für das Business – und ist besser für die Umwelt.
Trend 5: Managed Cloud Security
Der sprunghafte Anstieg von Ransomware-Attacken auf unternehmenseigene Rechenzentren wird immer mehr IT-Verantwortliche dazu bewegen, ihre geschäftskritischen Daten über Disaster-Recovery-Mechanismen in der Cloud zu sichern. Gerade in hybriden und Multi-Cloud-Umgebungen ist das in der Regel ein sehr komplexes Unterfangen. Als Alternative zum Aufbau eines eigenen Security Operations Center (SOC) geht der Trend hier immer stärker zu einem Auslagern dieser Tätigkeiten an einen versierten Dienstleister mit entsprechenden Kapazitäten und ausgewiesener Expertise für Managed Cloud Security im Rahmen eines professionellen Security Operations-Betriebes.
Lesen Sie, welche IT-Trends CIOs 2022 im Auge behalten sollten, um gestärkt aus der Corona-Krise zu komm
Die COVID19-Pandemie unterscheidet sich in vielerlei Hinsicht von anderen Krisen. Sie stellt die Belastbarkeit von Unternehmen auf die Probe: Angefangen bei der finanziellen Stabilität über die organisatorische und technologische Resilienz bis hin zu ganz Grundsätzlichem wie der Tragfähigkeit des Geschäftsmodells. Mit Blick auf IT und Technologie im Allgemeinen hat sich in der Pandemie erwiesen: Je fortgeschrittener ein Unternehmen diesbezüglich aufgestellt ist, desto besser kam und kommt es durch die aktuelle Krise.
Mit neuen Technologien sind aber auch neue Risiken verbunden, etwa das zunehmende Bedrohungspotenzial von Cyber-Angriffen. Und es deutet viel darauf hin, dass das Fahrwasser für Unternehmen auch nach der Pandemie nicht ruhiger werden wird. Die IT-Trends für 2022 offenbaren nicht nur technische Aspekte. Sie geben auch Aufschluss darüber, wie sich Unternehmen zum einen organisatorisch und zum anderen von ihrem Business her zukunftsfähig und robust aufstellen können. Alles zu IT Trends auf CIO.de
Trend 1: Public Cloud (Native) First Strategy
Der Fokus im Cloud Computing liegt eindeutig nicht mehr auf der technologischen Ebene, sondern auf dem Business und seinen Applikationen. Unternehmenskunden wollen ihre Strategien zur digitalen Transformation beschleunigen, ihre Legacy-Umgebungen modernisieren und in die Cloud wechseln. Dies umfasst mittlerweile auch Legacy-Systeme aus dem Mainframe-Umfeld. Alles zu Cloud Computing auf CIO.de Alles zu Strategien auf CIO.de
Unternehmen profitieren deshalb von immer ausgereifteren Migrationskonzepten und -hilfen. Diese kommen sowohl von den IT-Dienstleistern beziehungsweise den Partnern der Hyperscaler als auch von den Hyperscalern selbst. Im Mittelpunkt stehen die Bewertung der individuellen Unternehmenssituation sowie die Analyse der damit verbundenen Anwendungslandschaft. In diesem Kontext ist zu erwähnen, dass Cloud-Programmierschnittstellen und Analytics-Funktionen an Bedeutung gewinnen. Auch richten Firmen ihre Migrationsstrategien stärker an Geschäftsszenarien aus und suchen nach differenzierten Deployment-Modellen.
ISG verzeichnete zuletzt eine deutlich wachsende Nachfrage nach Multi-Cloud-Diensten, und dies weitgehend unabhängig von der Unternehmensgröße. Zwar operieren viele Firmen schon länger mit mehreren Cloud-Lösungen. Doch laufen diese meistens noch unabhängig voneinander. Dementsprechend rücken die Integration und die gemeinsame Verwaltung dieser Einzellösungen nun in den Blickpunkt. Ziel ist es, die Systeme und ihre Daten so weit zu integrieren, dass sich ihr Nutzungsverhalten und die damit verbundenen Kosten prognostizieren (und optimieren) lassen.
Spätestens mit der Pandemie sind zudem die Flexibilität der Lösungen und ihre Anpassungsfähigkeit an sich ändernde Marktverhältnisse wichtig oder erfolgskritisch geworden. Deshalb spielen die Qualität der Daten und ihre Auswertbarkeit eine wesentliche Rolle, wenn Unternehmen faktenbasierte Entscheidungen treffen wollen.
Immer mehr Unternehmen setzen Cloud-native-Modelle konsequent um. Gepaart mit Hyperscaler-Verträgen und DevOps-Teams wird damit ein so hoher Automatisierungsgrad erreicht, dass einige IT-Dienstleister mit ihren bisherigen vorgefertigten Cloud-Managed-Service-Angeboten Schwierigkeiten haben, im Wettbewerb zu bestehen.
So nimmt der Markt für Cloud-native-Lösungen derzeit schnell Fahrt auf, auch im Mittelstand. Eine Umfrage, die ISG gemeinsam mit EuroCloud Native (ECN) im September 2021 unter 200 deutschen IT-Entscheidern mittelständischer Unternehmen durchgeführt hat, zeigt: 22 Prozent der Befragten arbeiten bereits mit Cloud-native-Ansätzen. 27 Prozent planen den Einstieg in den nächsten zwölf Monaten und weitere 23 Prozent berichten über konkrete Pläne. Dementsprechend überzeugen vor allem solche IT-Serviceanbieter, die eine Spezialisierung auf „Cloud Native“ vorweisen können. Für 57 Prozent der Befragten ist dies ein wichtiges Merkmal, für weitere 28 Prozent sogar sehr wichtig.
Trend 2: AI Driven Automation & Autonomous Services
Laut ISG Research befinden sich die meisten Unternehmen weiterhin in den frühen Phasen der Automatisierung. Nur sieben Prozent weltweit reichern die einfache Robotic Process Automation (RPA) mit intelligenter Automatisierung an, die sich unter anderem künstlicher Intelligenz (KI) bedient. Häufig fehlt das Know-how, mit unstrukturierten Daten umgehen zu können. Aber auch unzureichende KI-Kenntnisse und zu wenig interne Weiterbildung behindern solche Vorhaben. Das treibt Unternehmenskunden dazu, nach transformativen Sourcing-Optionen zu suchen, die intelligente Automatisierung beinhalten.
Dazu gehören etwa Software-Bots, die auch mit unstrukturierten Daten interagieren können und zudem die folgenden Fähigkeiten mitbringen: Bilderkennung, die Verarbeitung von gesprochener Sprache (Natural Language Processing, NLP), kognitive Fähigkeiten sowie automatisierte (Kunden-)Dialogsysteme (Conversational AI). Dank solcher Automatisierungstechnologien und in Kombination mit Fortschritten etwa beim Process Mining lassen sich inzwischen Prozesse automatisieren, die bislang als nicht automatisierbar galten.
Trend 3: Trusted Cyber Security Mesh
Der aktuelle Cyber-Security-Markt wird 2022 erneut zweistellig wachsen. Er ist weiter geprägt von vielen Allianzen, Partnerschaften und Co-Innovationen unter Sicherheitsanbietern: hier die Beratungs-, Implementierungs- und Management-Provider, dort die Technologie- und Lösungsanbieter. Auf dem Vormarsch sind dabei „Zero Trust“-Architekturen, die dem Ansatz „vertrauen, aber überprüfen“ folgen. Insofern verlassen sich Unternehmen nicht mehr vorrangig auf reaktive, sondern auf proaktive und präventive Maßnahmen, um ihre Datenbestände vor Angreifern zu schützen. Alles zu Security auf CIO.de
Security-Frameworks sind jedoch nur so gut wie die IT-Mitarbeiter, die sie umsetzen. Zudem müssen Cybersicherheits-Experten mit neuen Ansätzen wie „Cybersecurity Mesh“ vertraut sein. Dazu werden mobile Sicherheitszonen um die einzelnen Anwender herum errichtet, die auch außerhalb der herkömmlichen Sicherheitszonen im Unternehmensnetzwerk funktionieren. Zudem verbreitet sich der DataSecOps-Ansatz immer weiter, bei dem IT- und Datenwissenschaftler von Anfang an bei der Integration von Sicherheitsmaßnahmen in die Infrastruktur zusammenarbeiten. Dies stellt sicher, dass Anwendungen transparent in das Sicherheitsnetz eingebunden werden, um die Integration aller relevanten Systeme und Geräte zu verbessern.
Syntax wirft einen Blick auf das kommende Jahr und beleuchtet die wichtigsten Trends rund um das Thema Cloud. Laut Peter Schmidt, Director Business Development bei Syntax, stehen 2022 vor allem die Themen Multi Cloud-Management, Container-basierte App-Entwicklung und Modernisierung, Analytics in der Cloud, Green IT und Cloud Security im Fokus.
Unternehmen, die ihre IT-Systeme komplett in der Public Cloud betreiben, sind eher die Ausnahme, meistens kommen Hybrid oder Multi Cloud-Modelle zum Einsatz – mit verschiedenen Kombinationen aus Public Cloud- und Private Cloud-Umgebungen sowie klassischen On-Premises-Rechenzentren und Edge-Infrastruktur. Einer der wichtigsten Trends im nächsten Jahr: einheitliche Steuerungs- und Kontrollmechanismen für die Multi Cloud schaffen, um den „Flickenteppich“ über alle Instanzen hinweg managen zu können – zentral, effizient und gemäß gesetzlichen Vorgaben, beispielsweise zum Datenschutz.
Jetzt die smarten News aus der IT-Welt abonnieren! 💌
Mit Klick auf den Button „Zum Newsletter anmelden“ stimme ich der Datenschutzerklärung zu.
Trend 2: Containertechnologie als Treiber für „Cloud-native“
Auf dem Weg zu einem Cloud-nativen Ansatz gewinnen Container und eine Strategie für Aufbau und Betrieb einer Containermanagement-Infrastruktur an Bedeutung. Container spielen dabei sowohl für die schrittweise Migration von Funktionen klassischer monolithischer Applikationen als auch für das Deployment von Applikationsteilen auf Edge Devices, beispielsweise für IoT-Szenarien, eine Rolle. Als ausgereifte Technologie werden sich Container damit fest in den IT-Infrastrukturen von Unternehmen etablieren. Diese setzen beispielsweise zunehmend auf die SAP Digital Manufacturing Cloud, die durch den Einsatz von Containertechnologie auch auf angeschlossene Edge Devices erweitert werden kann. Das schafft transparentere Prozesse und bedeutet einen wichtigen Schritt in Richtung digitale Produktion.
Trend 3: KI- und ML-basierte Analytics in der Cloud
Unternehmen werden noch stärker auf Cloud-basierte Analytics setzen, um ihre Prozesse auf Basis fundierter strategischer Entscheidungen zu optimieren und zu automatisieren. Algorithmen, die Künstliche Intelligenz und Machine Learning einsetzen, fördern wertvolle Einblicke zutage. Hier bietet die Cloud – auch in Verbindung mit entsprechenden Data Lake-Services der Hyperscaler – weitreichende Möglichkeiten, die in den meisten Fällen die Leistungsfähigkeit klassischer On-Premises-Umgebungen übersteigen – speziell im Bereich der digitalen Fertigung.
Trend 4: Nachhaltigkeit und Green IT
Das Thema Nachhaltigkeit in der IT wird bei Unternehmen ganz weit oben auf der Agenda stehen. Der Bedarf an Rechenleistung und der damit verbundene Energieverbrauch steigen stetig. Ein Umzug in die Cloud bedeutet einen effizienteren, bedarfsgesteuerten Einsatz von IT-Ressourcen, Einsparungen bei der Hardware und die Nutzung von energieeffizienten Rechenzentren der Hyperscaler. Microsoft betreibt seine Azure-Server nach eigenen Angaben bereits seit 2012 CO2-neutral und will bis 2025 komplett auf erneuerbare Energien umsteigen. Und auch Amazon plant, ab 2030 ausschließlich regernative Energiequellen für AWS zu nutzen. Die Public Cloud bringt also Vorteile für das Business – und ist besser für die Umwelt.
Trend 5: Managed Cloud Security
Der sprunghafte Anstieg von Ransomware-Attacken auf unternehmenseigene Rechenzentren wird immer mehr IT-Verantwortliche dazu bewegen, ihre geschäftskritischen Daten über Disaster Recovery-Mechanismen in der Cloud zu sichern. Gerade in hybriden und Multi Cloud-Umgebungen ist das in der Regel ein sehr komplexes Unterfangen. Als Alternative zum Aufbau eines eigenen Security Operations Center (SOC) geht der Trend hier immer stärker zu einem Auslagern dieser Tätigkeiten an einen versierten Dienstleister mit entsprechenden Kapazitäten und ausgewiesener Expertise für Managed Cloud Security im Rahmen eines professionellen Security Operations-Betriebes.
Unternehmen, die in Sachen IT aufholen wollen, müssen jetzt die richtigen strategischen Entscheidungen treffen. Die IT-Trends 2022 helfen dabei.
Unbegrenzte Interaktion, vernetzte Intelligenz, selbstlernende Datensysteme, grenzenlose Modularität, selbstoptimierende DevOps und eine Zero-Trust-Architektur sind die entscheidenden Trends 2022 und in den nachfolgenden Jahren.
Noch ist in knapp der Hälfte der Unternehmen eine herkömmliche IT-Architektur, die ein zügiges Vorankommen verzögert, die Regel. Darüber hinaus fehlen zum Teil technische Fertigkeiten.
Unternehmen können aufholen, wenn sie strategische Weichenstellungen vornehmen, dabei rasch Ambitionen, Betriebsmodell sowie Infrastruktur definieren sowie Klarheit hinsichtlich Ressourceneinsatz und Transformationsprozess schaffen.
Alphabet, Amazon, Apple, Microsoft, Saudi Aramco: Ein Blick auf den Branchenmix der fünf weltweit höchstkapitalisierten Unternehmen reicht aus, um zu erkennen, welchen zentralen Stellenwert moderne Technologien eingangs der 2020er-Jahre haben. Und die digitale Revolution geht weiter. Eine Befragung des Weltwirtschaftsforums hat ergeben, dass Unternehmen auch nach der Corona-Pandemie vorrangig die Digitalisierung und Automatisierung von Prozessen vorantreiben wollen. Sie wissen, dass sie Kundenwünsche nur dann zeitnah erfüllen können, wenn sie State-of-the-Art-Technologien einsetzen und IT-Trends frühzeitig aufgreifen. Und dass sie nur auf diese Weise neue Wachstumschancen erschließen und zugleich ihre Effizienz nachhaltig steigern können.
Was aber sind die entscheidenden Trends? Aus Sicht von Bain geht die Tendenz derzeit hin zu unbegrenzter Interaktion, vernetzter Intelligenz, selbstlernenden Datensystemen, grenzenloser Modularität, selbstoptimierenden DevOps und einer Zero-Trust-Architektur. Zum Teil finden sich entsprechende Anwendungen bereits im Einsatz. Dabei tun sich vor allem digitale Angreifer hervor, die ganze Wirtschaftssektoren wie Banken oder die Energieindustrie vor sich hertreiben. Sie haben erkannt, in welchem Umfang innovative Technologien die Welt in den 2020er-Jahren prägen werden. Alles zu DevOps auf CIO.de
Trend 1: Unbegrenzte Interaktion
Die Kundinnen und Kunden von morgen nutzen eine unbegrenzte Zahl an Endgeräten und interagieren mit Unternehmen über viele Kanäle. Apps sind dabei künftig lediglich ein Zugang unter vielen. Die Devices der Zukunft verstehen Sprache und Gesten sowie deren Kontext und reagieren auf Blicke ebenso wie auf Körpersignale. Darauf müssen sich Unternehmen einstellen und beispielsweise mit offenen Schnittstellen einen endgeräteübergreifenden Zugang sowie einen kontinuierlichen Datenaustausch gewährleisten. Da der Kundschaft nunmehr zahlreiche unterschiedliche Geräte zur Verfügung stehen, wird das Konzept der Kundenkanäle (Omnikanal) um Dimensionen komplexer. Nur mit einer dezentralen Verarbeitung von Daten (Edge Computing) können Unternehmen künftig noch die Informationsflut bewältigen und einen Mehrwert daraus ziehen, zumal die Geräte von morgen auch untereinander interagieren.
Trend 2: Vernetzte Intelligenz
Noch obliegen Einsatz und Nutzung von künstlicher Intelligenz (KI) meist kleinen Teams von Spezialisten. Doch in Zukunft wird KI Bestandteil einer jeden Kundeninteraktion und eines jeden Prozesses im Unternehmen sein. Künstliche Intelligenz verbindet fortan in Echtzeit alle strukturierten und unstrukturierten Informationen und ermöglicht damit Angebote und Services, die wirklich personalisiert sind. Dadurch werden digitale Technologien endgültig zum Herzstück nahezu aller Geschäftsmodelle, was wiederum eine Neudefinition des Begriffs Fachbereich erforderlich macht. Damit steht auch die Frage im Raum, wie sich IT und operative Einheiten in Zukunft abgrenzen beziehungsweise bestehende Übergänge aufgelöst werden. Alles zu Künstliche Intelligenz auf CIO.de
Trend 3: Selbstlernende Datensysteme
Seit Jahren kämpfen Unternehmen damit, aus der Datenflut einen echten Mehrwert zu generieren. Innovative Technologien sind ihnen dabei nun behilflich. Sie erzeugen, bewegen, speichern und nutzen Daten in Echtzeit über verschiedene Systeme hinweg und lernen ständig hinzu. Bisher getrennte Daten fließen in einem Data Lake zusammen, wo neue Methoden für Struktur und Zugang, vor allem aber für eine sinnvolle Verknüpfung von Informationen sorgen. Mit Distributed Ledgers beziehungsweise Blockchain-Techniken gewinnt darüber hinaus eine alternative Form der Speicherung von Informationen weiter an Bedeutung.
Trend 4: Grenzenlose Modularität
Die IT der 2020er-Jahre kennt keine Grenzen mehr. Modulare Komponenten fügen sich zu Anwendungen zusammen und sind unendlich skalierbar. Vielfältige Schnittstellen lassen die Grenzen zwischen internen und externen Systemen verschwimmen, was IT-Anwendern die Arbeit erleichtert. Function-as-a-Service-Modelle gehören zunehmend zum Alltag. Dahinter steht eine dezentralisierte Multi-Cloud-Infrastruktur.
Trend 5: Selbstoptimierende DevOps
Agile Arbeitsweisen und DevOps, also die Verzahnung von Softwareentwicklung und IT-Betrieb, sind bereits in vielen Unternehmen Usus. Nun rollt die nächste Welle heran. Künftig sind DevOps nur noch ein Bestandteil einer übergreifenden XOps-Landschaft für sämtliche Anwendungen bis hin zur Steuerung und Absicherung (SecOps). Codes, die sich selbst modifizieren, nehmen Programmierern dabei einen Teil ihrer Arbeit ab. An die Stelle der gewohnten Sprints und iterativen Fortschritte tritt ein kontinuierlicher Optimierungsprozess. Alles zu Agile auf CIO.de
Trend 6: Zero-Trust-Architektur
Die Anzeichen mehren sich, dass Cyberattacken in den kommenden Jahren ein noch größeres Ausmaß erreichen als bisher. Unternehmen müssen daher weiter aufrüsten. Am Ende steht eine sogenannte Zero-Trust-Architektur, bei der jeder externer Input argwöhnisch beäugt wird. So werden strikte Authentifizierungsprozesse sowie eine föderale Identität den Zugriff von außen erschweren.
Defizite trotz deutlicher Fortschritte
Gerade in puncto Sicherheit und bei DevOps hat es in jüngster Zeit vielerorts erhebliche Fortschritte gegeben. Doch in den Augen der meisten Verantwortlichen reichen diese noch nicht aus. Eine weltweite Bain-Befragung unter mehr als 200 IT-Führungskräften hat 2021 gezeigt, dass gerade einmal 14 Prozent ihr Unternehmen als Technologieführer betrachten. 39 Prozent bescheinigen ihrer Firma zumindest eine moderne IT-Architektur und ein zeitgemäßes Betriebsmodell. Knapp die Hälfte sieht dagegen Defizite. 22 Prozent der Unternehmen arbeiten noch mit einer herkömmlichen, eher schwerfälligen IT-Architektur, bei 25 Prozent fehlen grundlegende technische Fähigkeiten.
Jetzt die richtigen Weichen stellen
Die Flexibilität und Modularität moderner IT-Systeme ermöglichen es, solche Defizite Schritt für Schritt zu beheben und zu den Technologieführern aufzuschließen. Damit dies auch gelingt, sollten CIOs rasch Weichenstellungen vornehmen. Dies gilt besonders für die folgenden Aspekte:
1. Ambition: Die zentrale Frage lautet: Setzt ein Unternehmen auf inkrementelle Verbesserungen oder braucht es den viel zitierten Neustart auf der grünen Wiese? In der Praxis läuft der Aufbau neuer Geschäftsmodelle mit neuen Systemen oft parallel zur Weiterentwicklung der IT für das bisherige Geschäft.
2. Betriebsmodell: Der Ambition folgend können Unternehmen mit einer separaten IT und einem zeitgemäßen Betriebsmodell einen Neuanfang wagen oder nach und nach die bestehenden Systeme modernisieren.
3. Migration: Eine schrittweise Erneuerung der existierenden IT ist genauso denkbar wie der Aufbau einer modernen IT-Architektur und eine Migration am Tag X.
4. Fachkräfte: Unternehmen haben die Möglichkeit, die bestehende Belegschaft weiterzuentwickeln und zu ergänzen oder über Zukäufe beziehungsweise Partnerschaften mit IT-Dienstleistern ihr Know-how auf einen Schlag auszubauen.
5. Finanzierung: Im Grunde können Unternehmen die Modernisierung ihrer IT aus bis dahin erreichten Effizienzgewinnen oder über ein gesondertes Budget finanzieren. Doch angesichts der zentralen Bedeutung der IT wird der Gedanke der Selbstfinanzierung schnell fallen gelassen. Besser fahren Firmen, wenn operative Einheiten und IT zu einem Konsens kommen, was die erforderlichen Initiativen angeht, und dafür die jeweils notwendigen finanziellen Ressourcen bereitstellen.
6. Veränderungsgeschwindigkeit: Eine graduelle Modernisierung der IT dauert in der Regel je nach Ausgangslage drei bis sieben Jahre. Wer der Transformation Vorrang einräumt, kann es innerhalb von zwei bis drei Jahren schaffen.
7. Umsetzung: Den Umbau vorantreiben kann entweder ein dezidiertes Transformationsteam oder die bestehende IT-Abteilung. Je höher die Komplexität ist, desto eher empfiehlt sich die Bündelung von Kompetenzen in einem gesonderten Team.
Die Entscheidung, ob schrittweise umgebaut oder zumindest teilweise neu angefangen wird, hängt von einer Reihe von Faktoren ab. Dazu zählen die Wettbewerbsposition eines Unternehmens und der Veränderungsdruck am Markt ebenso wie die finanziellen und personellen Ressourcen. Auf dem Status quo zu verharren verbietet sich jedoch. Denn mit den genannten Trends wächst die Bedeutung einer modernen IT für die Wettbewerbsfähigkeit von Unternehmen noch einmal deutlich. Mit der richtigen technologischen Basis werden sie schneller, effizienter und wachstumsstärker. Von daher dürften technologiegetriebene Unternehmen auch in dieser Dekade das Ranking der Börsenwerte mit der höchsten Marktkapitalisierung anführen. (wh)
Mit dem Trend zur Cloud sorgt sich die deutsche ITK-Branche um ihr Geschäftsmodell. Bei Hewlett-Packard, T-Systems und sogar SAP werden Arbeitsplätze abgebaut. Arbeitnehmervertreter berichten. Von Carmen Molitor
In Zeiten, in denen die digitale Technik dafür sorgt, dass überall rationalisiert, beschleunigt und optimiert werden kann wie noch nie, sollten die Jobs bei den Rationalisierern, Beschleunigern und Optimierern eine sichere Bank sein. Denkt man. Doch selbst beim deutschen Softwaregiganten SAP stehen erstmals in der 42-jährigen Firmengeschichte 260 Arbeitsplätze auf der Kippe, werden betriebsbedingte Kündigungen nicht ausgeschlossen.
Dabei meldete der Hightech-Verband BITKOM im Oktober einen neuen Beschäftigungsrekord: Demnach sind 9 530 000 Menschen bei Unternehmen der Informationstechnologie und Telekommunikation beschäftigt, fast 10 000 mehr als Ende 2013. „Digitalisierung ist der entscheidende Innovationstreiber für alle Sektoren“, jubelte der Branchenverband. 41 000 IT-Fachkräfte würden gesucht. Jobmaschinen sind vor allem kleine und mittelständische Unternehmen, sie bieten jeden zweiten Arbeitsplatz in der Branche.
Beschäftigte von großen ITK-Unternehmen sorgen sich dagegen längst um ihren Job. Branchengrößen geraten ins Trudeln, weil ihnen die Digitalisierung gewohnte Geschäftsmodelle kaputtmacht und ihnen nicht schnell genug Alternativen einfallen. „Wir stellen fest, dass alle größeren ITK-Unternehmen Personal abbauen“, sagt Michael Jäkel, der als ver.di-Bundesfachgruppenleiter für IT/DV auf Bundesebene und als Aufsichtsrat von T-Systems und der DATEV einen genauen Einblick in die Branche hat. Eine Auflistung der Sorgenkinder liest sich wie das Who’s who im IT-Markt: Hewlett-Packard entlässt bis 2015 weltweit 55 000 Beschäftigte und spaltet die Firma in zwei Teile auf. Microsoft streicht global 18 000 Stellen, davon aber bisher nur „eine zweistellige Zahl“ in Deutschland. IBM Deutschland baute in den vergangenen fünf Jahren fast 500 Jobs schleichend und ohne Kündigungen ab. Es bestehe die Gefahr, dass es bald statt früher 20 000 nur noch knapp die Hälfte IBM-Stammbeschäftigte hierzulande gebe, sagt Jäkel. Vor allem die „Classic IT“, die mit Programmierung über die Beratung bis hin zur Übernahme von IT-Abteilungen anderer Unternehmen einen Großteil der Geschäfte vieler Großer ausmachte, bereitet Probleme. „Es fehlt an Ideen, wie sich künftig Geld verdienen lässt. Jetzt wird überall versucht, im Bereich digitale Arbeit neues Potenzial zu erschließen, aber das geht sehr schleppend und bietet längst nicht in dem Maße Arbeitsplätze, wie sie bisher vorhanden waren“, erklärt Jäkel. „Niemand kann derzeit die Frage beantworten, welche Qualifikationen ein Beschäftigter in der Branche in Zukunft haben muss, damit sein Job einigermaßen sicher ist.“
SAP ENTLÄSST, ANSTATT UMZUSCHULEN
Was ist los? „Digitalisierung ist seit jeher unser Kerngeschäft, damit sind wir groß und erfolgreich geworden“, antwortet SAP-Betriebsrat Mario Rosa-Bian. Das Unternehmen war seit der Gründung 1972 der Treiber dafür, dass Firmen ihre Abläufe rationalisieren und so Kosten und Personal einsparen. Dass Geschäftsmodelle wegbrechen und neue entstehen, ist man hier gewohnt, macht Rosa-Bian klar, der es als erster Gewerkschafter und ver.di-Betriebsrat in den Aufsichtsrat, den EBR und den KBR der SAP SE geschafft hat. Aber nun soll auch hier rationalisiert werden.
„Simplify and optimize“ – vereinfache und optimiere – heißt das Rationalisierungsprogramm, das bei SAP in Deutschland 260 Arbeitsplätze aus allen Bereichen kosten wird. Wer innerhalb von SAP zwangsversetzt oder wem betriebsbedingt gekündigt wird, sei nach „intransparenten Regeln“ entschieden worden, kritisiert Mario Rosa-Bian. Der Abbau bedeute auch nicht, dass SAP künftig weniger Mitarbeiter beschäftigen will. „Man baut einerseits ab, stellt andererseits aber wieder ein“, erklärt der Betriebsrat. „Ich finde es schräg, dass die Firma die Leute nicht umschulen will und sie lieber entlässt und ihnen Abfindungen zahlt. Mit diesem Geld könnte man alle Betroffenen auf neue Kompetenzen schulen.“ Der Softwaregigant schichtet die Belegschaft offenbar daraufhin um, mit wem er glaubt, besser auf den Märkten der Zukunft bestehen zu können.
Überflüssig könnten bei SAP bald viele Berater werden. Das Unternehmen investiert im großen Stil darin, Daten-Clouds aufzubauen, um ein gewohntes Geschäftsmodell zu verändern: Statt eigens auf die Betriebe zugeschnittene Software zu verkaufen, stellt man sie den Kunden künftig per Abo in der Datenwolke zur Verfügung. „Bisher haben die Kunden bei uns beispielsweise für eine Finanzbuchhaltung oder ein Personaladministrationsprogramm Lizenzen gekauft und mussten dafür rund 20 Prozent Wartungsgebühr im Jahr zahlen“, erläutert Mario Rosa-Bian. „Die Betriebskosten dafür waren für die Firmen hoch.“ Nun setzt SAP auf einen Trend aus den USA. Die Idee: Teilen statt kaufen. „Die Software wird nicht mehr auf dem Rechner des Kunden betrieben, sondern läuft auf einem geschützten Server in irgendeinem Land der Welt“, so Rosa-Bian. Kunden nutzen gemeinsam die Software in der Cloud und legen die so gewonnenen Daten wie gewohnt individuell ab.
Um das gefragte Cloud-Modell anbieten zu können, hat SAP in den vergangenen Jahren Cloud-Firmen aufgekauft. „Der Vorstand muss sich fragen lassen, aus welchen Gründen er nicht beizeiten dieses Cloud-Modell beauftragte“, kritisiert Rosa-Bian. „Wenn wir uns nicht in diesen Zukunftsmarkt einkaufen, besteht die Gefahr, dass bald niemand mehr unsere Software haben will. Sich anzupassen ist völlig alternativlos, damit wir nicht irgendwann als Dinosaurier untergehen.“ Wenn sich das Modell durchsetzt, wird SAP weniger eigene Berater brauchen, die bisher Kunden bei der Anpassung der gekauften Software helfen. Für Rosa-Bian stellt sich dann eine Frage: „Reicht die natürliche Fluktuation, um diesen voraussichtlichen Rückgang aufzufangen?“
ENDE DES KLASSISCHEN IT-GESCHÄFTS
Hans-Jürgen Kallmeier, Vorsitzender des Gesamtbetriebsrats und Aufsichtsrat der T-Systems International GmbH, macht sich keine Illusionen, dass im Laufe der Transformation, die sein Unternehmen durchläuft, alle Jobs dauerhaft gehalten werden könnten. 2014/2015 will T-Systems noch sozialverträglich über 4000 Stellen abbauen. Aber danach könnten noch viel mehr Arbeitsplätze verloren gehen, weil das Unternehmen den Rückgang des Geschäfts mit den klassischen IT-Dienstleistungen nicht einmal annähernd kompensieren kann, befürchtet Kallmeier. Ehemals gefragte Angebote wie das Outsourcing von IT kann heute die ausländische Konkurrenz viel günstiger anbieten. Für Wachstum sollen bei T-Systems Angebote für Vernetzung in Beruf und Alltag, für die Bereitstellung eines verlässlichen Netzes und Dienstleistungen rund um eine sichere Cloud sorgen. Innovative Ideen dafür treibt die neue Digital Divison (DD) voran. Große Hoffnung setzt man in die Entwicklung von technischen Plattformen in Zusammenarbeit mit Maschinenbau- und Automobilfirmen. Solch eine Plattform macht es mittels Big Data etwa möglich, dass ein Auto meldet, wann es das nächste Mal zur Wartung muss. Oder dass ein Chip in der Waschmaschine meldet, wenn sie Waschpulver braucht.
„Wir bauen die technische Plattform, vernetzen die Geräte, bereiten die Daten auf und stellen sie den Kunden zur Verfügung“, erklärt Kallmeier. „Das Gerät bleibt eine Miele-Waschmaschine oder ein BMW, und diese Firmen behalten auch direkten Zugang zu ihren Kunden. Aber die Vernetzung der Information machen wir. Das können wir in Deutschland am besten.“ Auch der Trend, dass manche Firmen, wie Mercedes, ITK-Aufgaben nicht mehr an Dienstleister wie T-Systems auslagern, sondern wieder insourcen wollen, beunruhigt ihn nicht. „Sie werden diese Plattformen nicht allein machen können, denn dazu benötigt man Netze, um die Daten zusammenzuführen“, prognostiziert er. „Mercedes kann zwar eine Mercedes-spezifische Lösung bauen. Aber die Kunst ist ja, etwas mit unterschiedlichen Daten – etwa zu Logistik oder Navigation – zu vernetzen.“ Kallmeier ist Optimist, aber er befürchtet selbst für den Fall, dass alle von der DD beackerten Zukunftsfelder wie gewünscht aufblühen sollten, eine schlimme Beschäftigungslücke.
Ver.di-Fachmann Michael Jäkel sieht bei den strategischen Allianzen, wie T-Systems sie mit Maschinen- und Autobauern zurzeit eingeht, die Hauptchance dafür, in großen deutschen ITK-Unternehmen Beschäftigung zu sichern. „Es kommt darauf an, werthaltige neue Geschäftsfelder zu entwickeln“, sagt er. Die Konkurrenz ist internationaler denn je, und Google, Amazon und Facebook auch aufgrund geringer gesetzlicher Regulierungen auf vielen Feldern meilenweit voraus. „Es wird schwer, Deutschland perspektivisch als innovatives IT-Zentrum zu entwickeln“, glaubt er.
BUKAREST STATT BÖBLINGEN
Auf die Umwälzungen im Markt reagiert auch Hewlett-Packard mit drastischen Schritten. Der Konzern hat traditionell sein Geschäft mit dem Verkauf von Hardware an Endkunden gemacht und baute daneben durch Firmenzukäufe seine IT-Dienstleistungen aus. „Wir bieten alles, was notwendig ist, um für ein Unternehmen eine passende IT-Infrastruktur zu betreiben“, erklärt Ludwig Bauer, seit April neuer Vorsitzender des GBR. „Wir zeigen dem Kunden, wie er IT managen, gestalten und für deren Sicherheit sorgen kann, und haben die nötigen Geräte für ihn.“ Längst verschiebt auch HP Arbeit in Niedriglohnländer. War früher Böblingen mit rund 4000 Beschäftigten der größte europäische HP-Standort, ist es heute Bukarest.
Kostengründe vermuten Arbeitnehmervertreter auch hinter der abrupten Schließung des Standorts Rüsselsheim 2013. Hier waren viele der 1100 Mitarbeiter mit der Administration von ausgelagerten IT-Tätigkeiten befasst, einer Dienstleistung, die aus dem Ausland billiger zu bekommen ist. Der Großteil der Mitarbeiter unterschrieb Aufhebungsverträge, über 100 wechselten zum größten Kunden, der Adam Opel AG, die IT-Aktivitäten wieder ins eigene Haus zurückholt.
Obwohl die Geschäfte in Deutschland laut Bauer „sehr gut“ laufen, werden hierzulande weitere der insgesamt 8000 HP-Arbeitsplätze verloren gehen. Der Konzern will seine Hardware- und Dienstleistungsschiene bis 31. Oktober 2015 in zwei börsennotierte Teile aufsplitten und davor 55 000 HP-Beschäftigte entlassen. Wie viele davon es in Deutschland sind, ist unbekannt. Insider vermuten, dass die deutschen Standorte nicht ungeschoren davonkommen, aber auch nicht überproportional betroffen sein werden. Der Betriebsrat rechnet nicht mit harten Abbaumaßnahmen, solange der Arbeitgeber damit beschäftigt ist, den Split zu organisieren. Davor schütze das deutsche Arbeits- und Mitbestimmungsrecht. Der GBR setze zurzeit alle Hebel in Bewegung, um mit juristischer Hilfe Nachteile für die Beschäftigten auf ein Minimum zu reduzieren. Man hofft darauf, dass HP nach der Aufsplitterung in ruhigeres Fahrwasser gerät und seinen Platz als ein weltweit führender IT-Dienstleister in einem völlig neu aufgestellten IT-Markt behaupten kann.
IT Company is a modern, stylish, feature-rich and robust WordPress theme for information technology companies, IT start-ups, app launchers, mobile game launches, ecommerce websites, corporates, digital agencies, Content Marketting firm, Startup, IT Solutions, Marketing, Consulting, add development, video marketting, networking, banking, data handling, techno-savvy firms, IT and business endeavours, cybersecurity, block chain, core app development, software testing, security audits, crypto curruency, web hosting services, technical businesses, web development companies, Networking and security company and similar websites. Its developers have designed the theme to present all your products and services with absolute precision without compromising on the professional look of the website. With its visual composer plugin, you can create or edit the content on the web page. The elementor page builder saves you a lot of time while creating pages. It also shows compatibility with popular plugins such as WooCommerce, social media, etc. It is a retina ready theme with absolute stunning look on varying screen sizes and browsers with its responsive layout and cross-browser compatibility. With sliders and banners, the website looks impressive. The theme is readily translatable into different languages. It is secured with clean and bug-free Bootstrap based coding. It is optimized for search engines to get good traffic influx. IT Company theme is extremely lightweight loading with a lightning fast speed. It is deeply customizable to give the website any look through theme customizer which offers customization options right at your fingertips. Give an easy publicity to your website by using social media icons. This theme offers integration of different media like image, videos, audios, links etc. Demo: https://www.themesglance.com/it-company-pro/
Information Technology (IT) und Operation Technology (OT) kommen sich immer näher. Aber was genau steckt hinter diesen beiden Begriffen? Und wie wachsen die beiden Technologien im Zuge der Digitalisierung zusammen?
Nach wie vor sehen Industrieunternehmen in Deutschland digitale Plattformen in ihren Betrieben als kritisch an – das ist ein Kernergebnis einer Umfrage des Branchenverband Bitkoms unter 502 deutschen Firmen mit mehr als 20 Mitarbeitern im April 2020. Dabei könnte IIOT (Industrial Internet of Things) der deutschen Industrie helfen, ihren Vorsprung auf den weltweiten Märkten zu verbessern. In der Bitkom-Studie gaben allerdings 41 Prozent der Befragten an, dass sie „digitale Plattformen eher als Risiko für das eigene Geschäft ansehen“. Dem stehen 37 Prozent gegenüber, die sie als Chance betrachten. Der Digitalisierung an sich stehen sie jedoch nicht so kritisch gegenüber. Diese wird von 96 Prozent der Teilnehmer an der Studie als Chance eingestuft, nur 3 Prozent halten sie für ein Risiko.
Motivation für eine veränderte Situation
Die zunehmende Digitalisierung der Produktion angefangen bei MES (Manufacturing Execution Systems), über „intelligente“ Maschinen und Anlagen bis hin zu smarten Produkten und dem schon oft thematisierten Digitalen Zwilling führt zu einer Veränderung in den Aufgaben für alle produktionsnahen Bereiche. Am Anfang der digitalen Revolution übernahm die klassische IT diese neuen Aufgaben. Durch die vermehrte Digitalisierung gerät sie aber an ihre Grenzen.
Auf der anderen Seite verändern sich die Aufgaben in den Produktionsplanungs- und Steuerungsabteilungen (PPS) gravierend. Lange Zeit waren die Umfänge durch Layout und Wertstromdesign bestimmt. Die Auswahl der Maschinenlieferanten stand vielfach am Ende ihrer Tätigkeiten. Natürlich erfolgt schon seit geraumer Zeit die Planung der Abläufe in der digitalen Fabrik. Dies wurde in der Vergangenheit mehr oder minder intensiv betrieben.
Diese Art der Tätigkeiten gehört zwar nicht der Vergangenheit an, es muss aber ein digitales Umdenken einsetzen. Die „Smart Factory“ erfordert darüber hinaus gehende Tätigkeiten und Qualifikationen und auch ein verändertes Rollenverständnis aller Beteiligten inklusive der IT-Abteilung.
Definition Information Technology
Der Begriff der IT (Informationstechnologie, Information Technology) hat sich seit Jahrzehnten etabliert. Hierfür existieren dementsprechend anerkannte Definitionen, die zwar im Detail immer etwas unterschiedlich ausfallen, die aber im Wesentlichen das gesamte Spektrum und damit alle Technologien zur Datenverarbeitung mittels Software beschreiben. Hardware und die dazugehörige Kommunikationstechnologie gehören hier natürlich auch dazu. Eingebettete Systeme (Embedded Systems) werden allerdings bewusst ausgeklammert.
Diese Definition soll nun im Kontext einer „Smart Factory“ und deren Herausforderungen etwas erweitert werden. Ausgangspunkt ist hierbei das ISA95-Modell, siehe Abbildung 1:
Das Modell wurde schon mehrfach totgesagt. Zur Standortbestimmung und damit zur Orientierung ist es aber mehr als hilfreich und ausreichend. Eine Erweiterung des ISA95-Modells ist auf Grund der neuen Themen rund um die Smart Factory aber erforderlich.
Die Rolle von IT in Unternehmen
Aus obiger Definition und dem ISA95-Modell ergibt sich auch deren Rolle in den Unternehmen. Die IT ist für alle Kernsysteme im Unternehmen und deren Steuerung, also etwa ERP und PLM verantwortlich – also für die Ebene 5 und 4 im ISA95-Modell, siehe Abbildung 2:
Kommunikationsthemen wie WLAN oder 5G fallen aufgrund der Generalität des Themas und der vielen dort bereits gesammelten Erfahrungen in die Domäne der IT, gleiches gilt für das Thema Cyber-Security. Hierbei handelt es auch nicht um ein neues Thema. Durch die zunehmende Vernetzung und die vertikale Integration gewinnt es aber an Brisanz.
Somit sind wir auch beim Thema Cloud angelangt. In der Smart Factory kann jedes CPS (Cyber Physical System) oder FTF (fahrerloses Transportfahrzeug) sowie smarte Maschinen und Anlagen, aber auch sensitive Roboter mit der unternehmenseigenen Cloud oder auch mit der Cloud des jeweiligen Herstellers kommunizieren. Inwieweit das gewollt und sinnvoll ist, soll jeder für sich entscheiden. Ungeachtet der Sinnhaftigkeit ist am Ende des Tages die IT für die sichere und performante Connectivity verantwortlich.
Beim digitalen Zwilling wird die Sache schwierig. Zuerst gilt es festzulegen, um welchen Zwilling es sich handelt. Beim Produktions-Zwilling (vielfach auch als Performance-Zwilling bezeichnet) werden alle Daten, die im Laufe der Produktion eines einzelnen Produktes anfallen, subsumiert. Eine Speicherung erfolgt auf Grund der Heterogenität der Daten vielfach in einem Big Data-System. Somit fällt der Zwilling in die Domäne der IT (Ebene 4).
Einfacher gestaltet es sich mit dem Thema der digitalen Fabrik. Sie liegt auf Ebene 4. Darin ist auch die Simulation der Produktionsabläufe angesiedelt.
Gefahren und Sicherheit der Informationstechnologie
Die Gefahren durch Cyber-Attacken und damit gleichzeitig die Anforderungen an die Informationstechnologie (IT) und IT-Sicherheit steigen. Mittlerweile kommt die Relevanz des Themas auch in den Chefetagen der Unternehmen an.
Nicht nur die mobilen Endgeräte und gegebenenfalls deren privaten Nutzung, sondern auch die zunehmende Vernetzung von „allem mit jedem“ in Kombination mit immer ausgefeilteren Angriffsstrategien machen den Cyber-Abwehrspezialisten das Leben nicht einfach. Daher braucht es nicht zu verwundern, dass auch hier „aufgerüstet“ wird.
Maschinelles Lernen hilft etwa beim schnellen Aufspüren von Angriffen. Darüber hinaus gilt es, den Zugriff auf die unternehmenseigene Cloud und auf externe Cloud-Umgebungen sicher zu gestalten. Unternehmensdaten gilt es zu sichern und zu verschlüsseln. Maschinen müssen sich im Unternehmensnetz eindeutig authentifizieren. Somit wächst das Aufgabenspektrum der IT enorm an.
Definition Operation Technology
Im Gegensatz zur Begrifflichkeit der IT ist jener der OT (Operation Technology) ein sehr neuer Begriff. Gartner hat es folgendermaßen formuliert: „OT ist Hardware und Software, die eine Änderung durch die direkte Überwachung und/oder Kontrolle von physikalischen Geräten, Prozessen und Ereignissen im Unternehmen erkennen oder verursachen.“
Eine alternative Definition zu Gartner und deutlich praxisorientierter: OT umfasst die produktionsnahe Steuerung aller operativen Abläufe von CPS (Cyber Physical Systems) in der Smart Factory.
Somit ist die OT nach dem erweiterten ISA95-Modell für die Ebenen 3, 2 und 1 verantwortlich. Im Kontext einer Smart Factory kommen hier also CPS als „neue“ Elemente hinzu.
Die Rolle von OT in Unternehmen
Gemäß obiger Definition ist die OT ganz klar im Fachbereich angesiedelt oder genauer gesagt: im Bereich Produktionsplanung und -Steuerung (PPS). Durch die zunehmende Digitalisierung und deren Herausforderungen ergeben sich auch neue Themen sowohl für die Planungsabteilungen als auch für die operativen Steuermänner
Die Hardware-nahen Geräte und Produkte in Form von CPS sind für die Smart Factory von zentraler Bedeutung. Sie liefern die Daten, welche den Ausgangspunkt für entsprechende Optimierungen der Produktionsabläufe aber auch für neue Geschäftsmodelle bilden. Die Connectivity spielt hier eine zentrale Rolle. Diese Connectivity ist aber gleichzeitig eine Herausforderung für die zentrale IT-Abteilung, denn die „Smart Devices“ generieren Unmengen an Daten, vielfach im Terabyte-Bereich. Darüber hinaus gilt es, die Kommunikation – meist M2M (Machine to Machine) und über OPC UA (Open Platform Communications Unified Architecture) zwischen den einzelnen CPS in Echtzeit abzusichern. Neue Steuerungen, etwa von Siemens, können sich leicht mit der eigenen Cloud-basierten IIoT-Plattform (Industrial Internet of Things) verbinden.
Das Thema Edge Computing fällt ebenfalls in die Domäne der OT. Hierzu gehört auch die maschinennahe Auswertung der Daten mittels der KI (Künstliche Intelligenz). Somit sind wir im Graubereich der IT angelangt. Die IT ist ja für die Big Data-Systeme verantwortlich.
Gefahren und Sicherheit Operation Technology
Bei industriellen Systemen ist das Gefahrenpotential vollkommen anders strukturiert als bei der klassischen Unternehmens-IT. Durch den Ausfall von Maschinen und Anlagen (etwa bei einem Stromausfall) können erhebliche Schäden entstehen. Hier reichen oftmals schon Millisekunden aus. Darüber hinaus können im Gegensatz zu Unternehmens.IT-Systemen Menschen durch den Ausfall von Systemen oder deren Fehlfunktion in Gefahr geraten.
Und das ist aber noch immer nicht das „Ende der Fahnenstange“. Vielfach existieren im Produktionsumfeld noch veraltete Systeme. Windows 98 oder Windows XP kann einem da schon mal begegnen, mit den damit verbundenen Sicherheitsproblemen. Somit ist das Gefahrenpotential extrem vielfältig. Klassische Ansätze wirken, unabhängig vom Alter der Systeme, auch nur sehr begrenzt. In der Produktion herrschen Echtzeitanforderungen vor – nicht nur für die Kommunikation. Darüber hinaus müssen die Systeme rund um die Uhr (7×24 Stunden) verfügbar sein. Somit stehen keine Service-Zeiten für Updates zur Verfügung.
Mit dem Einsatz der CPS (Cyber Physical Systems) steigt im produktionsnahen Umfeld das Gefahrenpotential noch weiter an. Das Hacken von SCADA-Systemen (Supervisory Control and Data Acquisition) gehört schon fast zum guten Ton in der einschlägigen Szene. Durch die zunehmende Vernetzung der einzelnen Maschinen und Anlagen und mit neuen Geschäftsmodellen (Beispiel: Service statt Kauf von Maschinen, Anlagen oder fahrerlosen Transportsystemen) entsteht eine neue Transparenz. Durch die harten Echtzeitanforderungen und Themen wie digitaler Zwilling angefeuert entsteht ein Zielkonflikt, der immer schwerer aufzulösen ist. Herkömmliche aus der Unternehmens-IT bekannte Mechanismen zur Abwehr von Cyber-Angriffen wirken schon lange nicht mehr in der harten Echtzeitwelt der Produktion.
Aufgrund der immer stärker praktizierten vertikalen Integration bedarf es ganzheitlicher Ansätze, um einen wirkungsvollen Schutz von Cyber-Angriffen in dne Unternehmen zu gewährleisten. Somit schließt sich hier der Kreis zwischen IT und OT. Genau sowenig wie die IT die produktionsnahen Herausforderungen meistern kann, vermag die OT die Sicherheitsanforderungen alleine zu meistern.
Beides vereint im Industrial Internet of Things (IIoT)
Beide Bereiche, IT und OT, müssen Hand in Hand zusammenwirken, und dieser Zwang zur Zusammenarbeit wir im Zuge der zunehmender Digitalisierung immer stärker. Dies gilt nicht nur für das Thema Cyber-Sicherheit. Eine weitere Schnittmenge ist Advanced Analytics (kurz AA) und damit Big Data, wie schon kurz angesprochen. Maschinen- und Anlagendaten der CPS bilden die Ausgangsbasis für AA-Anwendungen. CPS fallen in die Verantwortung der OT, wohingegen Big Data und AA klar in der IT angesiedelt sind. Somit liefert die OT die Daten zur Optimierung der Produktionsabläufe in der IT. Ein weiterer Aspekt kommt durch die Simulation der Produktionsplanung hinzu. Diese ist ein integraler Bestandteil eines MES (Manufacturing Execution System), beziehungsweise sie sollte es sein. Vielfach bildet sie aber ein eigenständiges IT-System und fällt somit in den Bereich der klassischen IT.
Fahrerloste Transportsysteme (FTS) und die zugehörigen Fahrerlosen Transportfahrzeuge (FTF) stellen ebenfalls einen Graubereich dar. Hier ist es entscheidend, wie die Steuerung erfolgt; zentral oder dezentral? Bei einer dezentralen Steuerung befindet sich die Steuerungslogik in den FTF (also in der Verantwortung der OT).
Vor allem im logistischen Bereich erfolgt die Steuerung allerdings zentral. Darüber hinaus sind FTS ein zentraler Bestandteil von modularen Produktions-Systemen – sogenannten CPPS (Cyber Physical Production Systems). Da Produktionssysteme klar in die Verantwortlichkeit des Fachbereiches fallen (also der Produktion) scheint auf den ersten Blick eine Zuordnung der damit erforderlichen FTS und CPPS auf die OT und damit in obiger Darstellung auf Ebene 3.
Bei näherer Betrachtung ergibt sich aber ein anderes Bild. Erfolgt doch bisher durch ein MES die operative Steuerung der Produktion und ist damit auf Ebene 4 angesiedelt. Bei FTF handelt es sich um CPS (also Cyber Physical Systems), also um hardwarenahe Systeme. Diese fallen ganz klar in die Verantwortlichkeit der OT und damit auf Ebene 2.
Das übergeordnete Steuerungssystem in Form des FTS ist aber Bestandteil der Ebene 4. Man könnte als Analogie das MES und die hierüber gesteuerten Maschinen sehen. Somit obliegt Steuerung der FTS der IT. Auf Grund der sehr komplexen Steuerungsalgorithmen ist diese Zuordnung auch durchaus sinnvoll. Diese Algorithmen sind vergleichbar mit jenen aus Planungstools.
In einem MES ist ja auch das Produktionssystem abgebildet – soweit es softwareseitig sinnvoll ist. Vielfach werden aber in der Praxis FTS der OT zugeordnet. Dies resultiert aus dem schon angesprochenen starken Bezug zum Produktionssystem. Bei den bereits erwähnten dezentralen Steuerungs-Ansätzen wird die Sache allerdings etwas schwieriger. Laut unserer Logik befinden sie sich auf Ebene 2 und gehören damit der OT. In wie weit dies sinnvoll ist, gilt es zu diskutieren.
Ein ähnliches Bild ergibt sich bei IIOT-Plattformen (Industrial Internet of Things). Diese werden von der Unternehmens-IT betrieben. Angeschlossen an derartige Plattformen sind aber auch die CPS (aus der OT). Die Grenzen zwischen OT und IT verschwimmen hier also immer mehr.
Konsequenzen
Wichtiger als die Diskussion über die Abgrenzung oder die Verantwortlichkeiten sind die Konsequenzen, die sich aus der zunehmenden Digitalisierung der Produktion ergeben. Berufsbilder verändern sich gravierend, neue Tätigkeitsprofile entstehen. Dies betrifft vor allem die Produktionsplanung und -Steuerung (PPS). Ob nun ein Bachelor-Absolvent in Zukunft eine modulare Fertigung überwachen und betreiben kann, bleibt der Fantasie des Lesers überlassen.
Derartige Aufgaben werden zukünftig aber definitiv deutlich anspruchsvoller. Fakt ist, die Produktionsplanung muss zukünftig immer mehr Know-How im Bereich smarter Technologien aufbauen – unabhängig „welchen Namen man dem Kind gibt“. Sie muss sich zumindest mittelfristig neu definieren.
Anstatt Hardware in Form von Maschinen und Anlagen wird zukünftig immer mehr in Software investiert. Derartige Ansätze beeinflussen auch das Produktionssystem (Stichwort: modulare Fertigung). Es gilt, all die neuen Techniken gnicht nur einzuführen, sondern auch zu nutzen, um die gewünschten Potentiale zu heben.
Somit sind wir bei der Produktionssteuerung angelangt. Auch hier gilt es, massiv Know-how aufzubauen. Ansonsten werden Produktionssteuerer permanent in die neuen Steuerungsalgorithmen eingreifen, obwohl dies nicht erforderlich ist (oder umgekehrt). Es gilt auch die neuen hardwarebasierten Systeme (CPS) zu warten. Somit ist auch dafür gesorgt, dass es bei der Instandhaltung der Systeme nie langweilig wird – auch Know-how-seitig nicht.
Der Einsatz von smarten Technologien hat auch einen gravierenden Einfluss auf die Funktionalität eines MES. Je mehr Intelligenz auf den Ebenen 3, 2 und 1 im erweiterten ISA95-Modell angesiedelt sind, desto weniger Funktionalität bleibt auf MES-Ebene übrig. Dies führt somit zu einer vereinfachten Einführung von MES, aber leider auch zu einer immer komplexer werdenden Einführung der darunterliegenden Ebenen. Alternativ erfolgt die Einführung von CPPS (Cyber Physical Production Systems).
Wertstromkinematik
Ein vergleichsweise neuer Trend ist die Wertstromkinematik. Sie wurde vom Karlsruher Institut für Kinematik (KIT) entwickelt, um die Produktion in der Smart Factory weiter zu flexibilisieren. Dabei werden standardisierte Roboter eingesetzt, die sogenannten Kinematiken, um den Konflikt zwischen „starren Produktionslinien bei hoher Produktivität oder flexibler Fertigung mit niedriger Effizienz“ aufzuheben. Das KIT arbeitet mit Siemens im Bereich Steuerungstechnik und dem Werkzeugmaschinenhersteller GROB als Hardwareentwickler und Integrator zusammen, um die Kinematiken zu verbessern.
„Produktionstechnologien müssen den sich ändernden Bedingungen des Marktes und den stetig steigenden technologischen Anforderungen gerecht werden. Unser Ziel ist es, für neue Prozesse und Anforderungen innovative Lösungen zu identifizieren und entwickeln“, erläutert Professor Jürgen Fleischer, Leiter des wbk Instituts für Produktionstechnik und Initiator der Wertstromkinematik.
Fazit
In der Smart Factory nimmt die Integration von IT in OT immer stärker zu. Nichtsdestotrotz lassen sich beide Bereiche noch gut voneinander abgrenzen. Man kann natürlich ständig über die Zuordnung einzelner konkreter Themen zu IT oder OT diskutieren. Aber ungeachtet der Zuordnung: nur im Zusammenspiel ergeben sich wirtschaftliche Potentiale und genau darum geht es ja schlussendlich bei der digitalen Transformation.
Neuer IT-Job gefällig? Anders arbeiten bei integrate-it.
Unsere Firma integrate-it ist ein Berliner Systemhaus, das bereits seit 1999 existiert. Wir sind spezialisiert auf IT-Outsourcing und Cloud-Lösungen für mittelständische Unternehmen. Unsere Kunden kommen überwiegend aus Berlin und sind ein bunter Mix aus Verbänden, NGOs, Agenturen und anderen Dienstleistern. Mit den unterschiedlichen Strukturen unserer Kunden gibt es natürlich auch unterschiedliche Anforderungen an die IT: Das macht den Job sehr vielfältig und interessant. Da unser Unternehmen weiterhin expandiert, suchen wir ab sofort weitere Mitarbeiter für verschiedene Bereiche.
Das ist integrate-it: Ein paar Einblicke
Warum unsere Firma integrate-it etwas anders ist
Bei uns gibt es flache Hierarchien, ein offenes und lockeres Betriebsklima und ein hohes Maß an Selbstorganisation. Die Anforderungen und zu lösenden IT-Probleme sind vielfältig, deshalb ist die Arbeit bei uns abwechslungsreich. Du kannst mit deinen Aufgaben wachsen, dafür sorgen auch unsere Schulungsangebote, die dir aktuelles Knowhow nach deinen Interessen vermitteln. Das Wichtigste: Wir legen Wert auf authentische Persönlichkeiten und gegenseitigen Respekt. Bei uns muss sich niemand verbiegen, sondern jeder und jede kann so sein wie er oder sie ist.
Unser Angebot: Ein sicherer Job in einem angenehmen Umfeld
Wenn Du jetzt Lust bekommen hast, auf einen neuen Job in Festanstellung bei einem wirklich sympathischen Unternehmen in mitten von Berlin, dann check die Stellenangebote und schreib uns doch einfach!
Wir bieten Dir abwechslungsreiche und spannende Aufgaben in einem motivierten Team mit sehr guten Möglichkeiten, Dich beruflich zu entwickeln. Darüber hinaus haben wir Kunden, mit denen die Arbeit wirklich Spaß macht. Und weil wir wissen, dass die IT auch ganz schön anspruchsvoll sein kann, legen wir großen Wert auf eine gute Stimmung im Team und familienfreundliche, flexible Arbeitszeiten. Sicherheit ist Dir wichtig? Dieser Job ist ein Arbeitsplatz mit langfristiger Perspektive!
Aktuelle Stellenangebote im Systemhaus integrate-it
Und das sind unsere aktuell offenen Stellen. Jeder Job hat natürlich unterschiedliche Anforderungen, die du auf der Detailseite siehst:
Hinweis: Liebe Schüler, leider können wir derzeit aus verschiedenen Gründen keine Schülerpraktika anbieten.Wir freuen uns auf Deine Bewerbung!Bitte per Email an: bewerbung@integrate-it.net Für erste Fragen steht Dir auch Brian Mandel unter der Telefonnummer 030 467 83 97 0 gerne zur Verfügung. Bitte nur Direktbewerbungen von Interessenten – Bitte keine Angebote und Vorschläge von Personaldienstleistern.
Informationssicherheit ist die Voraussetzung für eine erfolgreiche Digitalisierung. Der IT-Grundschutz liefert hierfür ein solides fachliches Fundament und ein umfangreiches Arbeitswerkzeug. Er ist Methode, Anleitung, Empfehlung und Hilfe zur Selbsthilfe für Behörden, Unternehmen und Institutionen, die sich mit der Absicherung ihrer Daten, Systeme und Informationen befassen wollen. Zentral ist dabei ein ganzheitlicher Ansatz zur Informationssicherheit: Neben technischen Aspekten werden auch infrastrukturelle, organisatorische und personelle Themen betrachtet. Dies ermöglicht ein systematisches Vorgehen, um notwendige Sicherheitsmaßnahmen zu identifizieren und umzusetzen. Die BSI-Standards liefern hierzu bewährte Vorgehensweisen, das IT-Grundschutz-Kompendium konkrete Anforderungen. Auf Basis der drei Vorgehensweisen Basis-, Standard- und Kern-Absicherung kann in einer Institution ein Managementsystem für Informationssicherheit (ISMS) implementiert werden.
Informationssicherheit schafft Vertrauen
Der IT-Grundschutz hilft dabei, das Niveau der Informationssicherheit in einer Institution anzuheben und aufrechtzuerhalten. Er ist der bewährte Standard zum Aufbau eines ISMS. Mit einem ISO 27001-Zertifikat auf der Basis des IT-Grundschutzes kann eine Institution belegen, dass die umgesetzten Maßnahmen zur Informationssicherheit anerkannten internationalen Standards entsprechen und dadurch zusätzliches Vertrauen bei Kunden und Partnern schaffen.
Ein Angebot für viele Anwender
Der IT-Grundschutz richtet sich an unterschiedliche Anwendergruppen: Zuständige für Informationssicherheit, ob Einsteiger oder Profi, ob im behördlichen oder Unternehmensumfeld. Sie alle können mit den Angeboten des IT-Grundschutzes das Sicherheitsniveau in ihrer Institution realistisch einschätzen und die notwendigen Maßnahmen zur Absicherung umsetzen. Das IT-Grundschutz-Kompendium und die IT-Grundschutz-Profile eignen sich besonders für den Aufbau eines ISMS in kleinen und mittleren Unternehmen (KMU), die einen eigenständigen IT-Betrieb haben. Für kleine und Kleinstunternehmen (KKU) sind der Aufbau und Betrieb eines vollwertigen ISMS nach IT-Grundschutz in der Regel nicht geeignet.
Informationssicherheit ist ein Prozess, der IT-Grundschutz der bewährte Begleiter.
Wir freuen uns über Anmerkungen, Anregungen und Fragen an die E-Mail-Adresse it-grundschutz@bsi.bund.de .
Ob Hochwasser-Katastrophe, Feuer, Computer-Virus oder Ransomware, eine Frage bleibt essenziell: Wie schütze ich meine Daten, damit ich im Notfall meine Sicherheitskopien noch erreichen kann? Denn … Zum Beitrag →
Jeder vierte Deutsche sichert seine Daten weniger als einmal jährlich Was weg ist, ist weg! Und das kann sehr ärgerlich, sehr teuer – und für … Zum Beitrag →
Die Meldung vom 18. Juni 2021 auf NTV von dpa ist nicht überraschend: Der niedersächsische Kultusminister Grant Hendrik Tonne (SPD) will mehr Tempo bei der … Zum Beitrag →
Trotz Förderprogrammen wie dem DigitalPakt Schule verläuft die Digitalisierung an Schulen noch immer schleppend. Das geht aus einer neuen Studie hervor, die von der Gewerkschaft …
Digitale Infrastrukturen im Krankenhaus werden ausgeweitet. Dabei darf die Compliance und die IT-Sicherheit nicht zu kurz kommen.
Welche Fördermöglichkeiten für Datenschutz- und Datensicherheit gibt es im Zuge der Digitalisierung?
Für Krankenhäuser, die nach der KRITIS-Verordnung des Bundesamts für Sicherheit in der Informationstechnik (BSI) zu den kritischen Infrastrukturen (KRITIS) gehören, gelten besondere Regelungen. Ihnen wurden in der Krankenhausstrukturfonds-Verordnung bereits vor dem Krankenhauszukunftsgesetz (KHZG) Mittel zur Verbesserung der IT-Sicherheit bereitgestellt. Das hauptsächliche Ziel der Fördertatbestände des KHZGs ist nun die Stärkung der medizinischen Versorgung – unter Einbezug von IT-Sicherheit: In jedem Fördervorhaben sind 15% für IT-Sicherheit veranschlagt. Zusätzlich gibt es für Nicht-KRITIS-Krankenhäuser einen eigenen Fördertatbestand IT-Security.
Welche Standards und Sicherheitsanforderungen sind zu beachten?
Krankenhäuser, die als kritische Einrichtungen definiert wurden, müssen ihre IT-Sicherheitsmaßnahmen an einem branchenspezifischen Sicherheitsstandard (B3S für Krankenhäuser) ausrichten. Für Nicht-KRITIS-Einrichtungen dient der Standard und die Sicherheitsanforderungen als Orientierung beim Schutz ihrer kritischen Systembereiche:
– Mittelpunkt des B3S ist die Umsetzung eines Informationsrisikomanagements zur Identifizierung und Einordnung von Risiken für den Betriebsablauf.
– Darüber hinaus ist für wesentliche und kritische Systeme wie ausgewählte Medizintechnik, zentrale medizinische Anwendungen und bedeutende IKT Infrastruktur die Umsetzung grundlegender Sicherheitsanforderungen festgelegt.
IT-Sicherheit von Beginn an
Standardmechanismen, die nicht zuletzt auch über die B3S-Umsetzung geschaffen wurden, können direkt in neu zu entwickelnden Lösungen integriert werden. Aber auch spezielle Sicherheitsmaßnahmen, die auf bestimmte Zwecke zugeschnitten sind – von Patientenportalen bis Machine Learning – sind von vornherein einzuplanen, ja sogar im Rahmen von geförderten KHZG Vorhaben verpflichtend nachzuweisen sind. Dies bringt es unter anderem mit sich, dass Sicherheitsbeauftragte frühzeitig eingebunden werden und nicht, wie häufig zu beobachten ist, hinterherlaufen müssen. Dass hier noch Potenzial besteht, zeigt der eine oder andere medial wirksam gewordene Sicherheitsvorfall der letzten Jahre.
Die Zukunft beginnt heute
Die heutige Datenverarbeitung bündelt sich mehr und mehr in hyperkonvergente Infrastrukturen – virtualisierte zentralisierte Architekturen, die aufgrund von Compliance-Vorgaben häufig noch „on premise“ betrieben werden und sich stark in Richtung Auslagerung (Cloud) bewegen. Um die lokalen Wirkungskreise medizinscher Versorgung – Labore, Medizintechnik, Auswerteanalytik, Medizinrobotik, uvm. – sicher anzubinden, werden Konzepte zu secure Edge Computing, Federated Machine Learning und Trusted Cloud Infrastructure erprobt und pilotiert. Hier gilt es, Sicherheitsfragen in Einklang mit der deutschen Gesetzgebung zu bringen und die verfügbaren Sicherheitstechnologien als Basis für zahlreiche neue Anwendungen zu implementieren.
Von der Theorie in die Praxis
Wieso Web-Isolation im Krankenhaus wichtig ist
Ein ungehinderter Fluss von Informationen ist eine der wichtigsten Voraussetzungen für erfolgreiche Diagnose und Therapie: Patientenakten müssen zugänglich sein, Ärztinnen und Ärzte müssen auf aktuellste Studienergebnisse zugreifen können, der Austausch zwischen Fachgruppen im Krankenhaus und mit externen Spezialisten muss reibungslos verlaufen. Krankenhäuser sind daher immer mehr auf ihre digitale Infrastruktur angewiesen. Wie lässt sich Cybersicherheit gewährleisten, ohne den täglichen Betrieb zu belasten? Das Klinikum Fürth hat gute Erfahrungen mit secunet safe surfer gemacht.
Sicherheit durch Trennung von Arbeitsplatz und Internetzugang
Anstoß für die Einführung des safe surfer gaben Berichte in der Fachpresse über Cyberangriffe auf große Kliniken sowie ein direkter Angriff (Emotet) auf das Klinikum im Dezember 2019. Ransomware kann auf einen Schlag sowohl Arbeitsplätze als auch ganze IT-Netzwerke lahmlegen.
Gefragt ist eine Lösung, die den Nutzern einen komfortablen Zugriff auf das Internet gestattet und gleichzeitig das Eindringen von Schadsoftware effektiv unterbindet. secunet safe surfer als Web-Isolationslösung und Datenschleuse wurde so entwickelt, dass er wie ein herkömmlicher Browser mit allen Komfortfunktionen genutzt werden kann. Somit ist die Akzeptanz bei den Nutzern gut und IT-Abteilungen werden nicht mit aufwändigen Schulungsmaßnahmen belastet. Das bestätigen auch die Erfahrungen aus dem Klinikum Fürth, das den safe surfer 2020 hausweit eingeführt hat.
„Schon in der einmonatigen Teststellung überzeugte die unkomplizierte Nutzung des safe surfer, so dass wir die Zahl der Lizenzen im Einführungsprojekt auf Mitarbeiterwunsch hin deutlich erhöht haben und damit nun alle Bereiche des Hauses mit einem sicheren Internetzugang versorgen“, so Alexander Zetlmeisl, Leiter der IT am Klinikum Fürth.
„Die Nutzung des Browsers funktioniert nahezu wie gewohnt. Ich kann beispielsweise Links in die Browserleiste kopieren, online Dateneingaben vornehmen oder entsprechende Daten sicher downloaden. Gerade in dynamischen Zeiten, wie in der aktuellen Pandemie, ist ein schneller, unkomplizierter und sicherer Datenaustausch mit anderen Kliniken – zum Beispiel auf Online-Portalen zu freien Behandlungskapazitäten – unerlässlich und für die tägliche Arbeit essentiell“, so Dr. Manfred Wagner, Medizinischer Direktor und Pandemiebeauftragter am Klinikum Fürth.