O slideshow foi denunciado.
Utilizamos seu perfil e dados de atividades no LinkedIn para personalizar e exibir anúncios mais relevantes. Altere suas preferências de anúncios quando desejar.

CIO-Briefing 09-2017

498 visualizações

Publicada em

Die besten Artikel der 7 IT-Insider-Portale auf 60 Seiten: Top-Infos für CIOs zum Thema Infrastruktur, Applikations-Entwicklung/Delivery und Digitalisierung – werbefrei.

Alle CIO-Briefings finden Sie hier: http://www.cloudcomputing-insider.de/cio

Publicada em: Tecnologia
  • Seja o primeiro a comentar

CIO-Briefing 09-2017

  1. 1. Technology-Update für IT-Manager CIOBRIEFING 09/2017 +++ Proaktiver Webseitenschutz aus einer Hand +++ Die Zeit ist reif für SDN +++ Standards für ethisches KI-Design in Arbeit +++ Das ­Datensubjekt bekommt durch die DSGVO größere Rechte +++ Fach- kräfte dringend gesucht: Wege zum Cloud-Profi +++ So organisieren Sie ein ­verteiltes Team +++ Quanta Cloud Technology ­expandiert und verdrängt die (Ex-)Auftraggeber +++ Drohnenabwehr mit Laser, Richt- funk und Netz +++ Automatisierte Netzwerk-Virtualisierung mit VMware­ NSX +++ So werden Daten bei Edge Analytics geschützt +++ Wer will schon 60-prozentiges NVMe/f? +++ ERP-Pakete aus der Cloud müs- sen performant, sicher und anpassbar sein +++ IDEs und Tools für Dapps und Smart Contracts +++ Die Top 10 für Backup und ­Recovery ISSN 2364-3188 www.ciobriefing.de powered by
  2. 2. MANAGEMENT & STRATEGIE Proaktiver Webseitenschutz aus einer Hand..............................................3 Die Zeit ist reif für SDN..............................................................................9 Standards für ethisches KI-Design in Arbeit............................................13 Das Datensubjekt bekommt durch die DSGVO größere Rechte............... 17 Fachkräfte dringend gesucht: Wege zum Cloud-Profi..............................21 So organisieren Sie ein ­verteiltes Team...................................................25 Quanta Cloud Technology ­expandiert und verdrängt die (Ex-)Auftraggeber..............................................................................30 TECHNOLOGIE & ZUKUNFT Drohnenabwehr mit Laser, Richtfunk und Netz.......................................35 Automatisierte Netzwerk-Virtualisierung mit VMware NSX........................39 So werden Daten bei Edge Analytics geschützt......................................43 Wer will schon 60-prozentiges NVMe/f?..................................................46 ERP-Pakete aus der Cloud müssen performant, sicher und anpassbar sein................................................................................49 IDEs und Tools für Dapps und Smart Contracts......................................55 Die Top 10 für Backup und ­Recovery......................................................59 CIOBRIEFING 09/2017 IMPRESSUM: Vogel IT-Medien GmbH August-Wessels-Str. 27 86156 Augsburg Tel.: +49(0)821-2177-0 Fax: +49(0)821-2177-150 Email: zentrale@vogel-it.de Internet: www.vogel-it.de Handelsregister Augsburg HRB 1 19 43 Umsatzsteueridentifikationsnummer: DE 127502716 Geschäftsführer: Werner Nieberle Inhaltlich Verantwortliche gemäß § 55 Absatz 2 RStV: Nico Litzel, Florian Karlstetter, Ulrike Ostler, Stephan Augsten, Andreas Donner, Peter Schmitz, Rainer Graefen (Anschrift siehe Verlag) Vogel IT-Medien Die Vogel IT-Medien GmbH, Augsburg, ist eine 100prozentige Tochtergesellschaft der Vogel Business Media, Würzburg. Seit 1991 gibt der Verlag Fachmedien für Entscheider heraus, die mit der Produktion, der Beschaffung oder dem Einsatz von Informationstech- nologie beruflich befasst sind. Dabei bietet er neben Print- und Online-Medien auch ein breites Veranstaltungsportfolio an. Die wichtigsten Angebote des Verlages sind IT-BUSINESS, eGovernment Computing, BigData-Insider.de, CloudComputing-Insider.de, DataCenter-Insider.de, Dev-Insider.de, IP-Insider.de, Security-Insider.de, Storage-Insider.de. Vogel Business Media Das Fachmedienhaus Vogel Business Media ist einer der führenden deutschen Fachinformationsanbieter mit rund 100 Fachzeitschrif- ten und 60 Webseiten sowie zahlreichen internationalen Aktivitäten. Hauptsitz ist Würzburg. Die Print- und Online-Medien bedienen vor allem die Branchen Industrie, Automobil, Informationstechnologie und Recht/Wirtschaft/Steuern.
  3. 3. CIOBRIEFING 09/2017 Seite 3 Security-Startups im Blickpunkt: Net Wächter Proaktiver Webseitenschutz aus einer Hand Webseiten sind das Aushängeschild jedes Unterneh- mens und immer öfter auch das wirtschaftliche Zent- rum. Cyberkriminelle nutzen das gerne aus um Geld zu erpressen, Malware zu verteilen oder Rufschädigung zu betreiben. Das Startup Net Wächter bietet Unternehmen deshalb einen umfassenden Webseitenschutz an, der nicht nur einen konkurrenzfähigen Preis hat, sondern zu- sätzlich noch ein interessantes „Bonbon“ bietet. Der Zugriff per Browser auf Daten und das Angebot von generel- len aber auch individuellen Services, ist heutzutage eine Funkti- on die ein Unternehmen einfach anbieten muss. Der Schutz der Webseiten ist auch für KMU eine Aufgabe von zunehmender Dringlichkeit die auch über den Unternehmenserfolg mitent- scheidet. Dies haben auch die beiden Firmengründer Swjatoslav Cicer und Yuliy Finkelstein erkannt, als sie im Jahr 2016 vergeb- lich auf der Suche nach einem einfach zu handhabenden Tool für ihre Kunden waren, welches einen anspruchsvollen, digitalen Schutz erbringt. Aus dieser unerfüllten Suche heraus entstand das Startup Net Wächter mit Firmensitz im baden-württembergischen Ostfildern (Nähe Stuttgart). Ein Unternehmen, das Security-Insider im Rah- men seiner Vorstellungen von innovativen und kreativen Securi- ty-Startups aus Deutschland, Österreich und der Schweiz heute vorstellt. Vielleicht fühlten sich die Firmengründer von Bertolt Brecht inspiriert, der sagte „Ändere die Welt; sie braucht es“, als sie Net Wächter entwickelten? Denn ihr Ziel war es, mit Net Wächter eine proaktive, leistungsstarke und bezahlbare Dienst- leistung anzubieten, die Webseiten vor Cyberkriminellen schützt. Net Wächter will für KMU und Enterprise passenden, proaktiven Webseitenschutz und -überwachung aus einer Hand liefern. Bild:©alphaspirit-Fotolia.com
  4. 4. CIOBRIEFING 09/2017 Seite 4 Budget und Leistung „Über Geld spricht man nicht“, so ein bekanntes Sprichwort. Aber man sollte zumindest genau hinschauen, was man für sein Geld bekommt. Bei Net Wächter kann man drei verschiedene Ta- rife buchen (oder eine individuelle Konfiguration) für den Schutz der eigenen Webseite. Der günstigste Basic-Tarif ist bereits für monatlich 14,99 Euro (plus MwSt.) zu erhalten und liefert einen guten Basisschutz. Etwas mehr Sicherheit erhält man im Busi- ness-Tarif (29,99 Euro plus MwSt.), der sicherlich für viele An- wendungen bereits einen soliden Schutz bietet. Wem dies noch nicht genügt, der wählt den Premium-Tarif für 149,99 Euro pro Monat (zzgl. MwSt.), der alle Standard-Funktionen beinhaltet. Im Business-Tarif ist u.a. einen Online-Monitoring, ein DDoS- Schutz, eine AntiMalware-Prüfung und ein Blacklist-Monitoring enthalten. Net Wächter entwickelt seine Schutzkomponenten be- vorzugt selbst, nutzt aber auch die Produkte von Spezialisten, wie z.B. Kaspersky Lab im Antivirus-Umfeld, innerhalb seiner Lösung. Net Wächter zielt darauf ab, proaktiv zu agieren, also Attacken bereits dann abzufangen, bevor sie die Webseite durch Manipu- lationen oder Defacements beeinträchtigen können. Dies wird er- reicht, durch Vorschalten eines Name Servers der durch Net Wäch- ter bereitgestellt wird und als proaktiver Filter, für unerwünschte und gefährliche Zugriffe fungiert. Dort werden beispielsweise alle Zugriffe eliminiert, die von einer IP-Adresse kommen, die als Angreifer, Spammer oder DDoS-Quelle bekannt ist. Ob es sich nun um Angreifer handelt, die per SQL-Injection, Vul- nerability Scan oder per Hacking-Tool angreift, oder um einen normalen Besucher der Webseite – Net Wächter prüft alle Zu- griffe und eliminiert die unerwünschten. Im Wesentlichen sind es drei Komponenten, die Net Wächter seinen Kunden offeriert: ● Schutz: Web Application Firewall (WAF) und AntiMalwa- re-Schutz sowie Schutz vor den in OWASP 10 (OWASP Top Ten Projekt) definierten Angriffe (Cross Site Request Forgery (CSRF), Cross Site Scripting (XSS) u.a.) ● Beschleunigung: Content-Caching auf SSD-Platten mit einer vorgegebenen Gültigkeitszeit (Lease Time). Optional auch ab- schaltbar, falls es mit Affiliate-Marketing-Programmen etc. zu Kollisionen kommen sollte. ● Überwachung: Verfügbarkeit der Webseite (Uptime), Lade- zeit der Webseite und Kontrolle, ob die Website auf Blacklists steht und als „gefährlich“ gemeldet wird (Reputationsverlust).
  5. 5. CIOBRIEFING 09/2017 Seite 5 Da Net Wächter ein noch junges Startup ist, darf man gespannt sein, was die Macher noch an weiteren Schutz-Funktionalitäten implementieren werden. Technik Um ein Webseiten-Monitoring zu implementieren gibt es traditi- onell zwei unterschiedliche Wege. Entweder man agiert von au- ßerhalb und meldet, wenn Angriffe erfolgen. Oder man arbeitet als Webseiten-Komponente innerhalb und erkennt dort die An- griffe, meldet diese und versucht zu verhindern, was machbar ist. Net Wächter beschreitet hier einen innovativen Ansatz, indem man zwar von außerhalb agiert, aber trotzdem als Komponen- te des Webauftritts funktioniert – ohne jedoch zusätzliche API‘s oder DLL’s zu integrieren. Dies wird erreicht, durch Vorschalten bzw. umlenken des Name Servers. Ein von Net Wächter bereitge- stellter Name Server ersetzt hier den Name Server des Web-Pro- viders oder den eigenen des Unternehmens. Über diesen Name Server werden die Security-Funktionen von Net Wächter akti- viert und diese verifizieren alle Zugriffe auf die Webseite. Ein cleveres Prinzip, welches üblicherweise auch durch Web-Pro- vider unterstützt werden kann. Denn das ersetzen der Standard- Einträge für eine Webseite auf dem Name Server des Providers durch die Daten von Net Wächter ist eine Minutensache. Im Nor- malfall kann man dies entweder per GUI bei seinem Web-Pro- vider selbst erledigen oder mit einer entsprechend formulierten Bitte bzw. einem Auftrag an den Web-Hoster per Support-Sys- tem. Größere Firmen, die einen eigenen Name Server betreiben, können dies selbst erledigen. Net Wächter unterstützt hierbei http- und https-Webseiten, wo- bei bei letzterem das SSL-Zertifikat bei Net Wächter hochgela- den werden muss. Wenn man noch kein SSL-Zertifikat hat, aber bereits plant diese Schutzfunktionalität zu implementieren, kann man auch für den kostenlosen 14-Tage-Test via Net Wächter ein Gratis-Trial-Zertifikat bei COMODO ordern und so erste Erfah- rungen sammeln. Der 14-Tage-Test bei Net Wächter ist wie üblich gratis abrufbar und vermittelt einen guten Eindruck, wie es um die Sicherheit der eigenen Webseite steht und wie häufig diese bereits attackiert wird! Bonbon gefällig? Ein besonderes Bonbon das Net Wächter seinen Kunden bietet, soll hier nicht unerwähnt bleiben. Net Wächter bzw. die Mutter-
  6. 6. CIOBRIEFING 09/2017 Seite 6 firma GZIS GmbH ist einer der wenigen deutschsprachigen Part- ner des bekannten Security-Unternehmens Acunetix. Im Rahmen dieser Partnerschaft wird während des Testbetriebs auch ein ein- maliger Gratis-Check der Webseite durch Acunetix durchgeführt. Dabei wird das Sicherheitsniveau der Webseite selbst durch- leuchtet – also, wie aktuell sind die eingesetzten Tools, können bekannte Vulnerabilities ausgenutzt werden, wie steht es um die Code-Sicherheit und vieles mehr. Dieser Report erlaubt es dem Web-Admin, entdeckte Schwachstellen innerhalb seines Web- Auftritts zu beseitigen, bevor andere diese ausnutzen. Wer dieses Feature dauerhaft nutzen will, da der Webauftritt sehr dynamisch ist oder aus einer Vielzahl von Komponenten besteht, kann diesen Acunetix-Service auch über Net Wächter einkaufen. Gesetzliche Anforderungen Bei Net Wächter erhält man Sicherheit für den eigenen Websei- tenauftritt, ohne dass man sich mit dieser im Detail auseinander- setzen muss. Falls es aber doch mal erforderlich ist und bei der Implantation oder einen erforderlichen Webseiten-Umgestaltung aus Security-Gründen zu Schwierigkeiten kommt, bietet Net Wächter auch Consulting-Leistungen. Denn das Motto ist: Pro- aktiver Schutz, aus einer Hand! Auch wenn es sich noch nicht überall herumgesprochen hat, dass Telemediengesetz (TMG) fordert in seiner aktuellen Fassung im Paragraph 13 Pflichten des Diensteanbieters, Absatz 7: Diensteanbieter haben, soweit dies technisch möglich und wirt- schaftlich zumutbar ist, im Rahmen ihrer jeweiligen Verantwort- lichkeit für geschäftsmäßig angebotene Telemedien durch tech- nische und organisatorische Vorkehrungen sicherzustellen, dass 1. kein unerlaubter Zugriff auf die für ihre Telemedienangebo- te genutzten technischen Einrichtungen möglich ist und 2. diese a) gegen Verletzungen des Schutzes personenbezogener Daten und b) gegen Störungen, auch soweit sie durch äußere Angriffe be- dingt sind, gesichert sind. Vorkehrungen nach Satz 1 müssen den Stand der Technik berücksichtigen. Eine Maßnahme nach Satz 1 ist insbe- sondere die Anwendung eines als sicher anerkannten Verschlüs- selungsverfahrens.
  7. 7. CIOBRIEFING 09/2017 Seite 7 Was dies beispielsweise bei einem DDoS-Angriff in der Praxis bedeutet,lässt sich direkt bei Net Wächter nachlesen. Net Wäch- ter, als Security-Dienstleister, sorgt auch dafür, dass Anforderun- gen der Kunden bezüglich Datenschutz und Revisionssicherheit berücksichtigt werden. So sind alle Services bei Rechenzentren in Deutschland gehostet die nach ISO27001 zertifiziert sind. Net Wächter ist unter anderem Mitglied bei „IT Security Made in Germany“ (ITSMIG), einem Zusammenschluss verschiedenen Security-Unternehmen unter dem Dach von TeleTrusT (Arbeits- gruppe „ITSMIG“). Resümee Bei Net Wächter hat man sich intensiv Gedanken um die Sicher- heit gemacht und kann bereits zu diesem frühen Startup-Zeit- punkt (Online seit April 2017) durch eine Vielzahl durchdachter Features punkten. Das Tool Net Wächter wird sicherlich seinen Weg machen und den Markt für Webseiten-Monitoring und -Schutz aufmischen. Denn die Kombination aus Standard-Leistungen und nützlichen neuen Features wird den Endkunden ansprechen. Wer für seine Webseiten einen All-In-One Security-Dienstleister sucht, muss sich Net Wächter auf jeden Fall näher ansehen. Net Wächter auf einen Blick Name Net Wächter Webseite https://netwaechter.de/ Geschäftsform GmbH Standort Ostfildern – Stuttgart Gründungszeitpunkt Oktober 2016 Geschäftsführer Swjatoslav Cicer, Yuliy Finkelstein NET WÄCHTER youtube
  8. 8. CIOBRIEFING 09/2017 Seite 8 Anzahl Mitarbeiter 12 Security-Sparte Web-Security-Suite für KMU und Enterprise Produkt NET WÄCHTER Innovation Einfache Konfiguration ohne IT-Secu- rity Know-how, Schutz, Beschleuni- gung und Überwachung Unternehmens-Blog https://netwaechter.de/blog/ Investitionen möglich Ja Startfinanzierung / Umsatz letztes Jahr – ■ Ralph Dombach Mehr zum Thema Security finden Sie auf www.security-insider.de Technology-Update für IT-Manager CIOBRIEFING
  9. 9. CIOBRIEFING 09/2017 Seite 9 Software-Defined Networking und On-Demand Services Die Zeit ist reif für SDN Dieses Jahr wird das Jahr, in dem Software-Defined Net- working (SDN) endlich im Geschäftsalltag ankommt. Das beschleunigt die digitale Transformation und verändert die Art, wie Unternehmen mit ihrem Netzwerk interagie- ren. Bald wird es ein Ding der Unmöglichkeit sein, dem Internet der Dinge (IoT) zu entkommen. Schon heute ist das Netz überall. Es läuft in der Hosentasche auf dem Smartphone, im Wohnzimmer auf Fernsehern und in Büros auf Rechnern. In Zukunft wird es noch omnipräsenter. Laut einer McKinsey-Studie wird sich der Umsatz der Informa- tions- und Telekommunikationsbranche in Deutschland mit dem IoT bis 2020 mehr als verdoppeln. Er wird auf bis zu 23 Mil- liarden Euro pro Jahr ansteigen. Bis 2020 wird laut Studie der Preis für ein grundlegendes IoT-Modul, das Hardware ans Inter- net anschließt, von heute vier auf ein bis zwei Euro fallen. Das verändert den Alltag von Unternehmen. Allein auf der Hannover Messe 2017 wurden mehr als 500 Anwendungsbeispiele für „In- dustrie 4.0“-Lösungen gezeigt. Infrastruktur für IoT, 5G und die Cloud Das Internet der Dinge wird jedoch nur so stark wachsen, wenn auch die Infrastruktur im Hintergrund wächst. Netzwerke müs- sen sich den ständig ändernden Gegebenheiten anpassen. Das gilt für IoT, den 5G-Ausbau und die Cloud. In den vergangenen Jah- ren ist der cloudbasierte Datenverkehr deutlich gewachsen. Bis 2020 wird er sich laut dem sechsten Cisco Global Cloud Index fast vervierfachen und auf 14,1 Zetabyte ansteigen. „SDN und On-Demand Services verändern auch die Art, wie Unterneh- men in Zukunft für Netze zahlen.“ (Süleyman ­Karaman, Geschäfts­ führer Colt Technology Services GmbH in Deutschland) Bild:ColtTechnologyServices
  10. 10. CIOBRIEFING 09/2017 Seite 10 Gründe für die Beliebtheit der Cloud ist neben der Skalierbarkeit die höhere Workload-Leistung. Das überzeugt auch die Deutsche Bahn. Der Konzern hat vor kurzem angekündigt, dass er bis 2022 das eigene Rechenzentrum überflüssig machen will. Die Bahn will stattdessen auf die Amazon-Cloud setzen. Während bei der Deutschen Bahn der Umzug in die Cloud erst begonnen hat, sind andere Unternehmen schon weiter. Dedizierter Zugriff auf die Cloud hhpberlin ist Marktführer im Brandschutz in Europa und hat mehr als 180 Mitarbeiter. Die meisten davon sind hoch spezialisierte Ingenieure. Das Unternehmen setzt auf die Microsoft-Cloud und eine digitale Infrastruktur. Diese verbindet alle Mitarbeiter mit dem Hauptstandort in Berlin, egal wo auf der Welt sie leben oder arbeiten. Die Cloud hilft den Ingenieuren, komplexere Simulatio- nen zu erstellen und dadurch bessere Entscheidungen zu treffen. Der Zugriff auf die Cloud erfolgt aus Performance- und Sicher- heitsgründen nicht über das öffentliche Internet, sondern über ei- nen dedizierten Zugang. Für diese Art von Zugängen stehen bei professionellen Anbietern eine Vielzahl von Konnektivitätsop- tionen zur Verfügung: zum Beispiel Ethernet Punkt-zu-Punkt, Ethernet Hub-and-Spoke, IP VPN oder Managed-Router-Lösun- gen für Punkt-zu-Punkt-Verbindungen in die Cloud. Das Brandschutzunternehmen entschied sich für eine Ethernet Hub-and-Spoke-Lösung mit Managed Layer 3 CPE. Der Haupts- tandort wurde mit einem vorhandenen Hub mit doppelter Hauszu- führung ausgestattet. Zusätzlich wurden zwei dedizierte Zugriffe mit je 200 Mbit/s Bandbreite zu Microsoft Azure in Amsterdam geschaltet. Das Beispiel zeigt, wie wichtig neben der Wahl des richtigen Cloud-Anbieters auch der Zugang in die Cloud ist. Was nutzen Software as a Service, Plattform as a Service oder Infra- structure as a Server, wenn ein langsames oder unflexibles Netz- werk die Vorteile der Cloud ausbremst? On-Demand und Software-Defined Networking Bisher mussten Unternehmen Investitionen in ihre Netze lange im Voraus planen. Wenn ein Unternehmen mehr Bandbreite benötig- te, begann die Planung Wochen oder sogar Monate vor der Be- reitstellung. Es dauerte, bis Anschlüsse und Leitungen verlegt und geschaltet wurden. In Zukunft wird sich das ändern. Unternehmen reagieren dann flexibel auf Leistungsspitzen im Geschäftsbetrieb.
  11. 11. CIOBRIEFING 09/2017 Seite 11 Beispiel Deutsche Bahn: Kunden fahren etwa zwischen fünf Uhr morgens und 23 Uhr abends, nachts müssen die Server nicht mit voller Leistung laufen, das gilt auch für das Netzwerk. Beispiel Berlinale: Im Herbst steigt der Bandbreitenbedarf des Filmfesti- vals rapide an. Dann treffen die ersten Beiträge in Berlin ein und die Sichtungen beginnen. Während der Festivaltage im Februar wird die Bandbreite je nach Verbindung auf 1 Gbit/s beziehungs- weise bis zu 10 Gbit/s erhöht. Zwischen den Festivals, über den Rest des Jahres, ist der Bandbreitenbedarf grundsätzlich geringer. Mit intelligenten Netzwerken können Unternehmen ihre Band- breiten flexibel an diese temporären Lastspitzen anpassen – und zwar immer genau dann, wenn sie diese benötigen. Steigt in Zu- kunft der Bedarf an Bandbreite, lassen sich SDN-basierte On- Demand-Cloud-Verbindungen je nach Bedarf flexibel über ein Online-Portal hoch und runter skalieren. In diesen Portalen definiert der Nutzer zwei Endpunkte, reserviert die dazugehörigen Ports und gibt diese frei. Neben dem Land, der Stadt und dem Standort kann man auch die zugehörige Verka- belung wählen. Um einen Cloud-Port anzulegen, reserviert man einen Port und fügt ihn dem Konto hinzu. Sobald man zwei oder mehr Ports bereitgestellt hat, kann man sie in Minutenschnelle verbinden und dabei die VLAN-Konfiguration, die Bandbreite und das Preismodell auswählen. Damit umgehen Unternehmen die bisher auftretenden langwie- rigen Bereitstellungsprozesse. SDN und On-Demand Services verändern auch die Art, wie Unternehmen in Zukunft für Net- ze zahlen. Sie müssen für eine 100-Gbit/s-Leitung, die sie nur wenige Tage im Jahr benötigen, nicht mehr dauerhaft konstant hohe Beträge zahlen. In Zukunft zahlen Unternehmen nur für die Netzwerkdienste, die sie tatsächlich beanspruchen. Gemeinsame SDN-Schnittstellen Führende Netzwerkanbieter arbeiten zusammen mit dem Me- tro Ethernet Forum (MEF) daran, Standards für gemeinsame SDN-APIs zu definieren. ATT und Colt haben zum Beispiel den ersten erfolgreichen Feldversuch für SDN-Interoperabili- tät durchgeführt, der beweist, dass die SDN-Architekturen von Netzwerk-Service-Providern sogar über Kontinente hinweg zu- sammenarbeiten können. Die Einführung der ersten APIs ist für Ende des Jahres geplant. Dies ist ein wichtiger Schritt zur Ein- führung abgestimmter On-Demand Services über automatisierte und verbundene Netzwerke.
  12. 12. CIOBRIEFING 09/2017 Seite 12 Service Provider werden die standardisierten Schnittstellen nut- zen können, um mit den SDN-Architekturen der anderen nahezu in Echtzeit zu arbeiten. Es ist geplant, acht API-Definitionen zu standardisieren. Sie sollen auf den branchenweit abgestimmten Open APIs basieren, die von den Mitgliedern des TM Forum entwickelt wurden. Die ersten drei der unten aufgeführten APIs werden in der ersten Phase des Projektes in diesem Jahr definiert: 1. Adress-Validierung 2. Service-Verfügbarkeit 3. Bestellung 4. Quotierung 5. Abrechnung 6. Performance 7. Tests 8. Ticketing Diese APIs werden dazu beitragen, die Schwierigkeiten frag- mentierter Netzwerke zu reduzieren. Dadurch können Unter- nehmen skalierbare, flexible On-Demand Netzwerkservices über Software-Plattformen wie ECOMP provisionieren. ECOMP ist ein Open-Source-Projekt der Linux Foundation. Die verbunde- nen Netzwerke werden Kosten sparen und agiler sein. Dadurch können Unternehmen ihren Betrieb effizienter gestalten und auf jedes neue Ding flexibel reagieren, egal ob es IoT oder 5G heißt oder einen Namen trägt, den wir heute noch gar nicht kennen. ■ Süleyman Karaman
  13. 13. CIOBRIEFING 09/2017 Seite 13 Künstliche Intelligenz und Ethik Standards für ethisches KI-De- sign in Arbeit Umfassende Personenprofile, Drohnen, Hacks auf Par- lamente, politische Hetze in sozialen Medien … Anlässe, über die Ethik der IT zu reden, gibt es genug. Genau zu diesem Zweck traf sich Ende Juni in München das Welt- forum für Geschäftsethik zur Münchner Konferenz „Ge- staltung einer humanen vierten Industriellen Revolution.“ In den vergangenen Jahren hat die IT durch neue technologische Entwicklungen endgültig ihre Unschuld verloren. Der Grund: Informationstechnik ist nicht mehr auf eine mehr oder weniger abgeschlossene Digitalsphäre beschränkt, sondern durchdringt unser Leben unsichtbar allgegenwärtig. Sie wird inzwischen zur unverzichtbaren Komponente der großen Systeme, die Gesell- schaften am Leben halten: Strom- und Wasserversorgung, Fi- nanzsystem, politischer Diskurs. Auch banale Geräte und Alltagsdinge, zum Beispiel Kleidung, werden zu Datenlieferanten, deren Output häufig auf wenig trans- parente Weise genutzt wird. Und Maschinen können inzwischen autonom darüber entscheiden, wen sie, beispielsweise auf dem Schlachtfeld oder bei Polizeieinsätzen, töten. Künstliche Intelli- genz (KI) werde schon bald den Menschen überflügeln, glauben Singularitäts-Propagandisten wie Ray Kurzweil, der, um seinen Tod bis zum Transfer seines Geistes in eine Maschine hinauszu- zögern, angeblich täglich unzählige Nahrungsergänzungs-Tab- letten schluckt. Dr. Alex Walz, Senior ­Research Fellow, MPI, erklärt am Rednerpult sein abgestuftes ­Regulierungsmodell für ethische Fragen in der Informationstechnik. Bild:Rüdiger
  14. 14. CIOBRIEFING 09/2017 Seite 14 Mit anderen Worten: Nachdenken über die Gestaltung der IT und Regulierung der Akteure tut not. Im Deutschen Patent- und Markenamt waren Fachleute aus aller Welt versammelt und bo- ten einen Einblick darin, wie weit die Berücksichtigung ethischer Maßstäbe bei der Gestaltung von IT- oder intelligenten Systemen und Anwendungen schon gediehen ist. Wohl am konkretesten in dieser Hinsicht sind die Bemühungen der IEEE. Sie arbeitet derzeit an einem ganzen Satz von Standards. „Wir wünschen uns, dass deren Einhaltung genauso selbstver- ständlich wird wie die anderer IEEE-Standards“, sagt Kay-Firth Butterfield, stellvertretende Vorsitzende der IEEE – Global Ini- tiative for Ethical Considerations in the Design of Autonomous Systems (Weltweite Initiative für Ethische Überlegungen bei der Entwicklung autonomer Systeme. Auch am Max-Planck-Institut für Innovation und Wettbewerb arbeitet man an diesen Fragen. Seine bisherigen Ergebnisse referierte Dr. Axel Walz, der dort Senior Research Fellow ist. Abgestufte Herangehensweise Walz beschäftigt sich damit, wie es möglich ist, Ethik in KI zu implementieren. „Wir stehen am Scheideweg“, betonte er. „Unse- re Entscheidungen beeinflussen maßgeblich, wie die zukünftige Gesellschaft aussieht.“ Wie KI jeweils implementiert werden sol- le, sei in Hinblick darauf zu entscheiden, welche ethischen Werte jeweils geschätzt werden sollten. Es sei durchaus ein Unterschied, ob eine Software lediglich individuelle persönliche Einstellungen respektieren solle oder gegebenenfalls fundamentale ethische Kernwerte beeinträchtige, etwa die Menschenrechte, Menschen- würde oder das Leben: Gehe es um individuelle Einstellungen, reiche, mit Zertifizierungen der betreffenden Systeme, vertrag- lichen Vereinbarungen zwischen Anbieter und Nutzer und ähn- lichen Mitteln zu arbeiten, um ethische Ergebnisse zu erreichen. Gehe es dagegen um fundamentale Rechtsfragen die die Men- schenrechte, die Menschenwürde und ähnlich hoch angesiedelte Werte beträfen und diese schlimmstenfalls in Konflikt mit der Privatautonomie brächten, sei ein breit angelegter, nötigenfalls auch globaler demokratischer Diskurs und Prozess erforderlich, um zu Entscheidungen zu kommen, die anschließend auch breit akzeptiert werden. Als Beispiel für die erstgenannte Gruppe nannte Walz etwa eine Software, die Rezepte bereitstellt, die den Regeln einer Religion entsprechen. Hier würde es reichen, wenn sich der Anbieter der
  15. 15. CIOBRIEFING 09/2017 Seite 15 Lösung entsprechend zertifizieren würde. Sollen Systeme dage- gen über das Leben von Menschen autonom entscheiden, kann der Diskurs gar nicht intensiv genug sein. Weit weniger abstrakt verläuft derzeit der Standardisierungs- prozess, der in die Standards der Gruppe IEEE P 7000 mündet und unter dem Titel „Ethical Alligned Design“ läuft. An ihm be- teiligen sich bisher rund 240 interdisziplinäre Experten. Da der Prozess offen ist, forderte Butterfield ausdrücklich alle Experten, die sich mit Themen rund um IT und Ethik beschäftigen, zur Teilnahme an der Arbeit der Gruppe auf. Besonders junge Spezi- alisten sollten sich melden, denn, so Butterfield: „Wir entwickeln gerade die Welt, in der Sie einmal leben sollen.“ Derzeit gibt es bereits zehn Arbeitsgruppen, die sich mit diversen Unterstan- dards beschäftigen. Ein neuer Satz Standards für digitale Ethik Grundlegend ist der Standard P7000, („Model Profess for Addres- sing Ethical Concerns During System Design”), der einen Prozess beschreibt, mit dessen Hilfe ethische Erwägungen von Anfang an ins Systemdesign einfließen. Am weitesten fortgeschritten ist derzeit der Standard P7001, der sich mit der Transparenz autono- mer Systeme befasst – gerade fürs autonome Fahren von höchs- ter Bedeutung. Schließlich werden Verkehrsrichter eines Tages darüber zu entscheiden haben, ob ein Todesopfer im Verkehr auf das Versagen der Maschine oder eines menschlichen Verkehrs- teilnehmers zurückgeführt werden muss. P7002 (Data Privacy Process) beschäftigt sich mit Systemen und Software, die persönliche Daten sammeln und auswerten. P7003 (Algorithmic Bias Considerations) beschreibt, wie man verhin- dert, dass sich die – positiven oder negativen - Vorurteile von Programmierern oder Auftraggebern in angeblich neutralen Al- gorithmen wiederfinden. P7004 (Standard for Child and Student Data Governance) entwickelt Richtlinien dafür, wie Bildungsin- stitutionen mit den Daten von Schülern und Studenten umgehen sollen, um diese zu schützen. P7005 (Standard for Transparent Employer Data Governance) tut dasselbe für Unternehmen beziehungsweise Mitarbeiterdaten, soll aber gleichzeitig den Angestellten von Unternehmen ermög- lichen, ihre Daten sicher und geschützt mit anderen Mitarbeitern zu teilen. Vorbild war hier die Europäische Datenschutzverord- nung, die im Mai kommenden Jahres in Kraft tritt. P7006 (Stan- dard for Personal Data Artificial Intelligence Agent) befasst sich
  16. 16. CIOBRIEFING 09/2017 Seite 16 damit, wie Verwaltung und Unternehmen ethische Werte bei der Gestaltung autonom entscheidender Algorithmen berücksichti- gen können. Ziel ist, dass Einzelne im Detail bestimmen können, wie und welche ihrer Daten verwendet werden, sodass sie ihr di- gitales Profil kontrollieren können. IEEE P7007 – bisher nur im Kongress, nicht auf der IEEE-Seite im Web sichtbar – beschreibt ontologische Standards für ethisch betriebene Roboter und Automatisierungssysteme, P7008 mit dem resilienten Design autonomer und halbautonomer Systeme, P7009 befasst sich mit ethischem „Nudging“ für Roboter, in- telligente und autonome Systeme und P7010 mit der Schaffung von „Tokku“-Gebieten – das sind Gebiete, in denen autonome intelligente Systeme praktisch im echten Leben erprobt werden. Außerdem gibt die Gruppe ein jährlich überarbeitetes Handbuch „Ethically Alligned Design“ heraus, das kostenlos heruntergela- den werden kann (Registrierung erforderlich). Es beschäftigt sich mit dem derzeitigen Stand der Dinge auf diesem wahrscheinlich diskursintensiven, um nicht zu sagen, umstrittenen Gebiet. ■ Ariane Rüdiger Mehr zum Thema Big Data finden Sie auf www.bigdata-insider.de Technology-Update für IT-Manager CIOBRIEFING
  17. 17. CIOBRIEFING 09/2017 Seite 17 Die Datenschutz-Grundverordnung und die Rolle von Objektspeichern Das Datensubjekt bekommt durch die DSGVO größere Rechte Die neue Datenschutz-Grundverordnung (DSGVO), die am 25. Mai 2018 allgemein in Kraft treten wird, beruht auf dem aktuellen Datenschutzgesetz und wird einige Aspekte strenger regulieren. Von Abwarten, raten die Experten ab. Die neue DSGVO enthält einige Zusätze hinsichtlich der effek- tiven Datenspeicherung, d. h., Daten müssen auf neue Art und Weise langfristig gespeichert werden. Klassische Offsite-Lösungen werden dann nicht mehr die neuen Anforderungen erfüllen können. Die beliebte öffentliche Cloud hat zwar neue Standards in Sachen Preis, Agilität und Verfügbar- keit gesetzt, kann aber die Datensicherheit und -hoheit kompro- mittieren. Die Zusätze zu den bestehenden Bestimmungen sind: ● Meldung von Sicherheitsverletzungen und Angriffen innerhalb von 72 Stunden, nachdem sie aufgetreten sind. Die Organisati- onen müssen eine höhere Sichtbarkeit der Daten, der Zugriffs- methoden und der Datenverwendung gewährleisten, damit sie sensible persönliche Daten schneller wiederherstellen können. ● Höhere Strafe – bis zu 2 Millionen US-Dollar oder 4 Prozent des weltweiten Umsatzes, je nachdem, welcher Wert höher ist ● Das Recht auf Löschung - Datensubjekte haben das Recht, die Löschung ihrer persönlichen Daten anzufordern Storage-Lösungen mit Objektspeichern und Software-definierter Speichertechnologie ­unterstützen die er­ folgreiche Umsetzung von Projekten zur Er­ füllung der DSGVO. Bild:Scality
  18. 18. CIOBRIEFING 09/2017 Seite 18 Technische Einschränkung oder Geschäftsgelegenheit? Die relevanten Zusätze der Verordnung rufen nach einem lang- fristigen Speicher, auf den man dennoch sofort zugreifen kann. Solch ein Modell wäre aber finanziell und technisch absolut un- tragbar, wenn dafür weiterhin die bestehenden Speicher-Applian- ces eingesetzt werden würden. Es ist sehr attraktiv, Daten online zu speichern, da sie dort viel genauer analysiert werden können, was wiederum ein erheblicher Geschäftsvorteil ist. Öffentliche Clouds für die Speicherung ma- chen vor, wie preiswerte Onlinespeicherung funktioniert. Durch die neuen Anforderungen an die Datenverfügbarkeit und die Speicherorte kommen allerdings bald nur noch teure öffent- liche Clouds infrage. Daher ist die Speicherung in einer priva- ten Cloud die attraktivste Lösung, da solch ein Modell ebenso preiswert wie die öffentliche Cloud sein kann und On-Premise- Sicherheit, die Bandbreite von lokalen Netzwerken sowie die un- schätzbare Möglichkeit bietet, vollständig auf personalisierbare Geschäftsinformationen zuzugreifen. Die schwindende Bedeutung des Magnetbands Bisher waren Magnetbänder durch ihre geringen Kosten und ihre Portabilität eines der wichtigsten Backup-Medien. Jedoch passen genau diese Portabilität und die langen Wiederherstellungszeiten nicht mehr zur neuen DSGVO, in der mehr Sichtbarkeit und ein einfacherer Zugriff gefordert werden. Magnetbänder sind nach wie vor eine preiswerte Option, jedoch bestärken die Anforderung, mehrere redundante Kopien aufzu- bewahren, hohe Handlingkosten und eine teure Technologie die Ansicht, dass die langfristigen Gesamtbetriebskosten drei- bis viermal so hoch wie die Infrastrukturkosten sind. Nicht zuletzt aus diesem Grund wird die Cloud mittlerweile als sinnvolle Al- ternative für dieses Langzeitspeichermedium angesehen. Wichtige DSGVO-Anwendungsfälle der Objektspeicherung Wie die folgenden Anwendungsfälle exemplarisch zeigen, helfen verteilte, absolut sichere Objektspeicher gemeinsam mit ihrer er- weiterbaren Kapazität, der besseren Performance und der Spei- cherortkontrolle den Staaten und privaten Unternehmen dabei, die Compliance ihrer immer strengeren Sicherheitsrichtlinien zu erreichen.
  19. 19. CIOBRIEFING 09/2017 Seite 19 Als Backup- und Archiv-Ziel Einige der größten Datensätze befinden sich in Offline-Backup- und Archiv-Infrastrukturen, wo das Abrufen von Daten extrem zeitaufwändig ist. Die Kosten von Objektspeichern nähern sich denen des Magnetbands an (einschließlich des gesamten langfris- tigen Handlings und der Migrationskosten), was es immer sinn- voller werden lässt, Objektspeicher als Backup- und Archiv-Ziele zu nutzen. Durch die Scale-Out-Performance kann die Speicherplattform mehrere parallele Backup- und Datenströme mit Kabelgeschwin- digkeit handeln, wenn die Kapazität zunimmt. Zudem profitieren die Unternehmen von einem Namespace, der sich über mehrere Rechenzentren erstreckt, sodass eine Datei von mehreren Stand- orten aus aufgerufen werden kann. Compliance und Archivierung Die Datenspeicherung in regulierten Branchen unterliegt stren- gen Regelungen, die nur mit einer konformen Speichertechnolo- gie erfüllt werden können. Die Benutzer sollten sich nach einer Objektspeicherplattform mit einer iCAS-Schnittstelle (Internet Content Addressable Storage) umsehen, die die nötigen Funkti- onen für die Sicherung von Daten wie Verschlüsselung, Verrie- gelung in Containern und Datenaufbewahrung/ablauf umfassen. Diese Funktionen machen Objektspeicher zu einem ausgezeichne- ten Ersatz von bestehenden Compliance-Plattformen. Außerdem bieten sie die Verfügbarkeit, Agilität und Skalierbarkeit, die von aktuellen und zukünftigen Speicherplattformen erwartet werden. Logging as a Service Mit der Aussicht auf noch mehr Vorgaben von den Regulierungs- behörden entwickeln viele Institutionen gerade Systeme, die als Self-Service-Portal funktionieren können. Die Daten aus unter- schiedlichen Quellen wie Handelssystemen, Stimmaufnahmen, Mitteilungen, E-Mails und mehr werden dann nach Kunde und Datum gespeichert und ohne Zutun des IT-Teams auf einer Be- nutzeroberfläche dargestellt. Es braucht nicht viel, um zu verstehen, dass ein klassisches Datei- system dafür nicht skalierbar genug ist und dass Objektspeicher perfekt für so eine Anwendung sind. Zudem ist Scality RING der einzige Objektspeicher, der sowohl große als auch kleine Dateien und Objekte handeln kann.
  20. 20. CIOBRIEFING 09/2017 Seite 20 Objektspeicher hinsichtlich der DSGVO bewerten Storage-Lösungen mit Objektspeichern und Software-definierter Speichertechnologie, die mit Funktionen der Enterprise-Klasse erweitert werden, können den Zugriff und die Verwaltung erheb- lich verbessern und unterstützen die erfolgreiche Umsetzung von Projekten zur Erfüllung der DSGVO. Sie sollten bei der Bewer- tung von Objektspeicherlösungen auf die folgenden Eigenschaften achten: Geringe Kosten: Die Bereitstellung einer softwaredefinierten Storagelösung auf Standardservern sorgt für planbare niedrige Kosten. Eine einzige Datenkopie in einem Objektspeicher hat die gleiche Lebensdauer wie drei Kopien auf einer Festplatte oder fünf Kopien auf einem Magnetband. Daher ist Forrester Research zu dem Ergebnis gekommen, dass führende Objektspeicherplatt- formen über einen Zeitraum von fünf Jahren bis zu 70 % weniger Gesamtbetriebskosten als bestehende Dateispeicher haben. Garantierte Verfügbarkeit: Die Unternehmen sollten nach Ob- jektspeichern suchen, die für 100 % Verfügbarkeit ausgelegt sind und die auch den Ausfall von mehreren Servern und Komponen- ten einschließlich ganzer Rechenzentren überstehen. Hohe Leistung: Daten vor Ort sind von Natur aus schneller abzurufen. Dennoch sollten Sie wissen, dass es einige Objekt- speicherplattformen gibt, die ausgezeichnetes Datenstreaming bieten, was sie zu idealen Backup-Zielen macht und gleichzeitig blitzschnelle Antworten auf Datenanfragen gewährleistet. Enterprise-ready: Die Unternehmen sollten sich nach einer Plattform mit einem umfassenden Satz an Sicherungs-, Verwal- tungs- und Automatisierungsfunktionen umsehen, da diese so auch für globale Unternehmen geeignet sind. Diese Funktionen umfassen verschiedene Verbundauthentifizierungsstandards, Verschlüsselung und Schlüsselmanagement. Fazit Die Objektspeicherung ist die ideale Speichertechnologie für zahlreiche Projekte zur Erfüllung der DSGVO-Anforderungen. Gleichzeitig steigert sie die allgemeine Performance, Effizienz und Resilienz. Jetzt ist der richtige Zeitpunkt, um auf die lang- fristige Speicherung und Sicherung von morgen umzusteigen. ■ Nigel Houghton
  21. 21. CIOBRIEFING 09/2017 Seite 21 Qualifizierung für Cloud-Umgebungen – Der Cloud-Administrator Fachkräfte dringend gesucht: Wege zum Cloud-Profi IT-Entscheider und IT-Professionals müssen sich drin- gender denn je mit der Frage auseinandersetzen: Wie halten wir Schritt mit dem digitalen Wandel, wenn die Fachkräfte fehlen? Dies gilt auch und vor allem für das Thema Cloud. Um Wege zur praxisnahen Qualifizierung zu erleichtern, hat der größte private Bildungsanbieter in Deutschland, TÜV Rheinland, das erste herstellerunab- hängige Cloud-Kompetenzmodell für IT-Entscheider und IT-Professionals entwickelt. In einer dreiteiligen Serie beschreiben Peter Holländer und Man- dy Tiedemann von der TÜV Rheinland Akademie das Aufgaben- Spektrum und die beruflichen Aussichten von Cloud-Spezialisten wie Cloud Administrator, Cloud Developer und Cloud Architekt. Teil 1: Was macht eigentlich… ein Cloud-Administrator? Kostenvorteile, Ergebnisverbesserungen und Innovationspoten- ziale: In der Cloud sieht das Top-Management viele Vorteile. Die Fachbereiche versprechen sich davon Kostensenkung, Skalier- barkeit, Hochverfügbarkeit, eine beschleunigte Produktentwick- lung, Standardisierung oder Zentralisierung. Was macht eigentlich… ein ­Cloud-Administrator? Wege zur Qualifizierung. Bild:©Gorodenkoff/stock.adobe.com
  22. 22. CIOBRIEFING 09/2017 Seite 22 Dennoch plagen sich viele deutsche Unternehmen nach wie vor mit Sicherheitsbedenken, wobei diese bei den verschiedenen in- nerbetrieblichen Interessensgruppen unterschiedlich ausgeprägt sind. Während Fachfunktionen und Stakeholder aus den Busi- ness-Prozessen vor allem beschleunigte Dynamiken für ihr Ge- schäft sehen, stehen die Funktionen für IT-Sicherheit und Daten- schutz dem Thema erfahrungsgemäß eher kritisch gegenüber: Auch weil es in den Unternehmen an Qualifikationen bzw. Spezi- alisten fehlt, die sich mit der Thematik wirklich auskennen. An- gesichts des quasi leergefegten Fachkräfte-Markts werden sich Unternehmen verstärkt selbst um den Fach-Nachwuchs kümmern und interne Mitarbeiter zu Cloud-Spezialisten weiter qualifizie- ren müssen. Eine Management-Aufgabe, die top-down gesteuert werden muss, denn häufig ist damit nichts weniger als die Zu- kunftsfähigkeit des Unternehmens verbunden. Der Weg in die Datenwolke ist immer auch ein Change-Prozess, denn die Cloud bedeutet loszulassen ohne die Hoheit und Kont- rolle über die eigenen Assets abzugeben. Interne IT-Mitarbeiter und Cloud-Spezialisten nehmen hier die unerlässliche Funktion der Schaltzentrale ein, denn die Anforderungen an den Cloud- Einsatz müssen fachlich richtig gesteuert werden. Dazu bedarf es IT-Know-hows, möglicherweise sind auch neue Prozesse, Kompetenzen und Schnittstellen zu definieren, zugleich aber Technologie und Prozesse des Cloud Providers zu verstehen. Doch was zeichnet Cloud-Spezialisten aus? Dr. Constantin Söld- ner, Geschäftsführer der Söldner Consult GmbH und Spezialist für Cloud-Trainings, hat es auf den Punkt gebracht: „Die Cloud hebt das Silo-Denken auf, weg vom Spezialisten für Networking oder Storage, hin zum Generalisten, der sich in vielen verschie- denen Bereichen zurechtfindet. Cloud-Experten müssen daher einen ganzheitlichen Blick auf die spezifischen Anforderungen ihrer Anwendungen an die Cloud einnehmen.“ Security und Datenschutz Angesichts der dynamischen Bedrohungslage und immer restrik- tiverer regulatorischer Anforderungen ist Awareness für sensiti- ve Themen wie Cyber Security und Datenschutz nach Meinung des Experten für Cloud-Trainings von immer höherer Relevanz. „Themen wie Docker und DevOps erfordern neue Herangehens- weisen und mehr Querschnittsdenken. Gefragt sind auch Ent- wicklerfähigkeiten, Skriptsprachen zu beherrschen gehört zu den Mindestanforderungen“, weiß Dr. Söldner aus seiner langjähri- gen Trainings- und Beratungspraxis.
  23. 23. CIOBRIEFING 09/2017 Seite 23 Weil Unternehmen im Rahmen der digitalen Transformation zunehmend schneller und agiler reagieren müssen, müssen sich Cloud-Spezialisten nicht nur mit Automatisierungstools ausken- nen. Darüber hinaus sind sie Kosten-Controller: „Weil der Auf- wand in der Cloud on-Demand abgerechnet wird, müssen sie die laufenden Kosten im Blick behalten, also bestehende Architektu- ren regelmäßig auf den Prüfstand stellen können“, so Dr. Söldner. Eine weitere Aufgabe, die ihnen eine wichtige Rolle im Unter- nehmen sichert und spannende wie dynamische Tätigkeiten in einem zukunftsorientierten Umfeld verspricht. Um Unternehmen wie IT-Professionals eine praxisnahe Qua- lifizierung zu ermöglichen, hat TÜV Rheinland das hersteller- neutrale Cloud-Kompetenzmodell entwickelt. Es deckt die drei wichtigsten Schlüsselqualifikationen ab, die Unternehmen und Märkte heute benötigen: den Cloud Administrator, den Cloud- Entwickler und den Cloud-Architekt. Fortbildungen, bei denen übrigens auch Führungskräfte das Know-how aufbauen können, das ihnen für Entscheidungen beim Übergang von On Premises- Infrastrukturen zur Cloud mehr Sicherheit verleiht. Der Cloud-Administrator ist eine unverzichtbare Schlüsselkom- petenz im Unternehmen, doch was genau macht er eigentlich? Nach dem Kompetenzmodell, das TÜV Rheinland entwickelt hat, liegt der Fokus hier mehr im administrativen Bereich der Systeme. Cloud-Administratoren kennen die Möglichkeiten, die Cloud-Strukturen Unternehmen bieten und sind Experten im Umgang, Wartung und dem Patching in der Cloud. Die primäre Rolle des Cloud-Administrators umfasst die Instal- lation, Konfiguration und Administration von Hersteller-Techno- logien, bestehend aus On-Premise-Infrastruktur, Private, Hybrid und Public-Cloud-Lösungen. Fundamentales Grundwissen zur Sicherheit und Userverwaltung gehört zu seinen Kernkompeten- zen. Wesentliche administrative Aufgaben und Verantwortlich- keiten betreffen die Administration des Active Directory, den Hosted Exchange sowie die Drittanbieter-E-Mail-Archivierung. Professionelle Cloud-Administratoren sollten sich mit den Da- tenwolke-Angeboten der Cloud-Anbieter und Hersteller wie Mi- crosoft, Oracle, VMware und Amazon AWS auskennen. Kompetenzmodell der TÜV Rheinland Akademie Im Rahmen des Kompetenzmodells der TÜV Rheinland Akade- mie erlernen Cloud-Admins eine Cloud von Grund auf zu planen, zeitlich optimal bereitzustellen, sie zu überwachen und alle Sys-
  24. 24. CIOBRIEFING 09/2017 Seite 24 teme sicher zu analysieren. Sie erfahren, wie man eine On-Pre- mises-Infrastruktur installiert und Private-, Hybrid- und Public- Cloud-Lösungen etabliert. Sie können schließlich eine Vielzahl von Servern in der Cloud verwalten, kennen die Unterschiede zwischen den Cloud-Technologien und wissen, was für welche Bedarfe im Unternehmen geeignet ist. Darüber hinaus verste- hen sie, wie die Cloud mit der bestehenden IT-Infrastruktur des Unternehmens im eigenen Rechenzentrum interagiert. Sie kön- nen Office 365 installieren und selbständig administrieren und schließlich auch eine Private Cloud nicht nur betreiben und moni- toren, sondern auch eigenständig konfigurieren und bereitstellen. Am Ende der Qualifizierung, wie sie TÜV Rheinland anbietet, sind Cloud-Admins in der Lage, mehrere Tausend Server in der Cloud zu verwalten und kennen hilfreiche Strategien für den si- cheren und effizienten Betrieb, darunter Incident Response Ma- nagement oder die Verzahnung von Cloud-Strategien mit Identi- ty-und-Access-Management. Fazit: Der Cloud-Administrator ist der „Tempelwächter“ der Unternehmens-Cloud-Architektur und zugleich der Business- Enabler. Denn er weiß, was das Unternehmen businessseitig an Ressourcen benötigt, andererseits kennt er die Angebote der Cloud-Service-Provider und weiß, welche Services am besten ge- eignet sind, den technologischen Bedarf des Unternehmens zu decken. Die Qualifizierung zum Cloud-Administrator beinhaltet Theorie und Anwendungsbeispiele und dauert je nach Vorkennt- nissen und angestrebter Tiefe zwischen 10 und 25 Tage, sofern herstellerspezifische Kompetenzen im Rahmen der Weiterbil- dung mit aufgebaut werden sollen. Sie verläuft dreistufig, wobei die Module aufeinander aufbauen. Voraussetzung für die Zertifizierung zum Cloud Administrator nach TÜV Rheinland sind Kenntnisse und Erfahrung in gängi- gen IT-Infrastrukturen. Die Gehaltsperspektiven: je nach Qua- lifikation, Einsatzort, Unternehmensgröße und Personalverant- wortung zwischen 2600 bis 5400 Euro monatlich. Damit liegt er unter dem eines Cloud-Entwicklers bzw. Cloud Developers. Welche Aufgaben der Cloud Developer hat und wie er sich vom Cloud-Admin unterscheidet, erfahren Sie in der 2. Folge: Was macht eigentlich… der Cloud Developer? ■ Peter Holländer
  25. 25. CIOBRIEFING 09/2017 Seite 25 Strategien für verteilte Teams So organisieren Sie ein ­verteiltes Team Die Softwareentwicklung in verteilten Teams ist nicht im- mer einfach, weshalb es dringend nötig ist, diese sinn- voll zu organisieren. Hierarchien, Vorgehensweisen und Verantwortlichkeiten sollten klar definiert sein, um von vornherein Probleme auszuschließen. Das beginnt schon bei der Technik und der Auswahl der Team-Mitglieder. Das Arbeiten in verteilten Teams ist immer mehr die Regel als die Ausnahme bei der Software-Entwicklung. Kein Wunder: Bei allen Vorteilen lokaler Teams wie kurzer Wege und spontaner Meetings sind Remote-Teams im Zweifel kreativer, produktiver und kostengünstiger. Verteilte Teams wollen aber von Grund auf deutlich effektiver organisiert sein, als es bei lokalen Teams der Fall wäre. Für Ver- antwortliche ist das größte Problem dabei die fehlende persönli- che Greifbarkeit einzelner Entwickler, die ja im Zweifel in einer anderen Stadt oder gar einem anderen Land arbeiten. Spontane Korrekturen werden dadurch schwieriger, das Risiko redundanter Arbeit und fehlender Beiträge wächst. Vor diesem Hintergrund ist es wichtig, die Organisation verteilter Teams von vornherein effektiv zu gestalten. Für Verantwortliche in weltweit verteilten ­Softwareprojekten ist das größte Problem die fehlende persönliche Greifbarkeit einzelner Entwickler. Bild:geralt-Pixabay.com/CC0
  26. 26. CIOBRIEFING 09/2017 Seite 26 Kommunikation klären und für funktionierende Technik sorgen Das A und O eines jeden verteilten Teams ist natürlich, dass die zugrundeliegende Technik funktioniert und die Kommunikati- on stimmt. Das bedeutet konkret, dass neue Remote-Mitarbeiter umgehend an das hauseigene System, an Groupware-Lösungen wie Slack oder an Projektmanagement-Tools wie Trello angebun- den werden müssen. Gleichzeitig sollten auch zusätzliche Kommunikationskanäle jenseits dieser Infrastruktur (etwa ein Messenger wie Skype oder schlicht E-Mail) vereinbart werden. So lässt sich sicherstellen, dass die Kommunikation auch dann funktioniert, wenn das „gro- ße“ System ausfällt oder aus anderen Gründen nicht erreichbar ist. Hier sollte bei Entwicklern, die zum Beispiel von Standorten mit unzuverlässiger Stromversorgung und damit Internetanbindung arbeiten, eventuell auch ganz klassisch die Telefonleitung zum Einsatz kommen. Auf diese Weise sind technische und kommu- nikative Hürden, die Abläufe in verteilten Teams stören können, von vornherein ausgeschlossen. Mögliche Sprachbarrieren kön- nen mit der Wahl der englischen Sprache als Teamsprache um- gangen werden. Individuelle Situation der Mitarbeiter beachten In vielen Fällen entstehen verteilte Teams, weil Mitarbeiter pro- jektbasiert angeworben werden: Selbstständige Entwickler wer- den für ein Softwareprojekt oder einen Teilbereich eingebunden und nach Abschluss wieder „entlassen“. Jedem Team-Manager sollte bei der Arbeit mit diesen Mitarbei- tern klar sein, dass diese im Zweifel noch andere Projekte be- treuen und gegebenenfalls tagtäglich an mehreren „Baustellen“ arbeiten. Gleichzeitig kann es bei weltweit verteilten Teams zu- sätzlich noch zu Zeitzonen-Problemen kommen: Wenn in Ban- galore die Sonne untergeht, geht sie im Silicon Valley gerade auf und in Deutschland ist dann Mittagspause. Daher ist es notwendig, Meetings möglichst frühzeitig zu planen und basierend auf den individuellen Bedürfnissen der einzelnen Remote-Mitarbeiter anzuberaumen. Die mangelnde Flexibilität in dieser Hinsicht wird im Zweifel durch die große Diversität der Mitarbeiter und die dadurch resultierende Flexibilität des Teams ausgeglichen.
  27. 27. CIOBRIEFING 09/2017 Seite 27 Regeln lokaler Teams bei Recruitment anwenden Doch ganz egal, ob die Team-Mitglieder später in Bangalore, der Bay-Area oder Berlin sitzen: Bei der Auswahl der Mitarbeiter sollten die gleichen Regeln zum Einsatz kommen, die auch bei der Zusammenstellung lokaler Teams wichtig sind. Neben Hard- Skills wie den technischen Grundkenntnissen, Sprachkenntnis- sen und natürlich der Fähigkeit, in Remote-Teams zu arbeiten, sollte auch Wert auf die Soft-Skills wie Zuverlässigkeit, methodi- sche Kompetenz und Teamfähigkeit gelegt werden. Gleichzeitig sollte der Mitarbeiter ins Team passen, so verstreut es auch ist. Denn in der Praxis müssen sich die Entwickler na- türlich auch in verteilten Teams untereinander austauschen und direkt miteinander kommunizieren. Fällt hier einer aus dem Rah- men, können die gleichen negativen Dynamiken auftreten, mit denen Teamleiter auch bei lokalen Teams zu kämpfen haben. Sofern die Möglichkeit der Auswahl besteht, sollten Teamleiter bei Remote-Mitarbeitern also die gleichen Standards ansetzen, als würden diese später am Nachbar-Schreibtisch sitzen. Die Mit- arbeiter sollten natürlich auch dementsprechend behandelt wer- den. Obwohl in virtuellen Teams allein schon aufgrund der Entfer- nung und möglicher kultureller Differenzen nach der Arbeit kein Feierabendbier zusammen getrunken werden kann, gibt es na- türlich andere Möglichkeiten, das Teambonding zu fördern: So bietet sich das Aufsetzen eines Casual-Smalltalk-Chats an, der das Mitarbeiter-Geplauder an der Kaffeemaschine ersetzt. Auch Computerspielturniere via Internet sind hervorragend geeignet. Gegebenenfalls sollten Sie auch eine interne Website für alle Team-Mitglieder aufsetzen, auf der die einzelnen Mitarbeiter persönlich vorgestellt werden. Für klare Zuständigkeiten und Hierarchien sorgen Der Hauptbestandteil der Arbeit in virtuellen Teams ist aber na- türlich: die Arbeit. Und diese sollte von vornherein möglichst klar organisiert werden. Abläufe, Zuständigkeiten und nicht zu- letzt Ansprechpartner sollten möglichst klar geregelt sein. Dabei kann es helfen, das virtuelle Entwicklerteam in kleinere Einhei- ten zu unterteilen, die ihrerseits für bestimmte Teilbereiche der Softwareentwicklung zuständig sind. Das erspart dem Teamleiter unnötiges Mikro-Management, gleichzeitig sorgt es für klare Hi- erarchien und Ansprechpartner.
  28. 28. CIOBRIEFING 09/2017 Seite 28 Die Hierarchien können natürlich, wie heutzutage üblich, durch- aus flach gehalten werden. Wichtig ist nur, dass virtuelle und lo- kale Mitarbeiter wissen, mit wem sie weswegen sprechen müssen, und zwar vom größten bis ins kleinste Glied. Sollte eine Person etwa durch Krankheit ausfallen, empfiehlt es sich, auch gleich einen Stellvertreter zu benennen, der im Fall der Fälle einspringt und sich mit den bearbeiteten Inhalten auskennt. Dadurch behalten Teamleiter einfacher den Überblick und haben jederzeit Ansprechpartner, wenn ein Problem oder eine Frage auftritt. Im Grunde entspricht diese Vorgehensweise der, die auch in lokalen Teams erfolgen sollte. Allerdings ist sie bei Remote- Teams aufgrund der räumlichen Distanz absolut unverzichtbar. Ziele und Milestones definieren Aufgrund der Tatsache, dass Remote-Mitarbeiter im Zweifel nur teilweise für ein Software-Projekt arbeiten und als Freelancer hier und dort noch weitere Baustellen haben, ist es nicht selten kontraproduktiv, Tagesziele zu setzen. Stattdessen sollte das gro- ße Ganze im Auge behalten werden. Feste Abgabetermine sind natürlich Pflicht, doch die genaue Zeiteinteilung sollte – schon aufgrund der Zeitzonen-Problematik – dem Mitarbeiter oder dem entfernten Team überlassen werden. Allerdings ist die saubere Definition von Milestones sowie das regelmäßige Übermitteln und Reviewing des Codes wichtig, um Fortschritte zu dokumentieren und bei Fehlern oder Fehlentwick- lungen schnell eingreifen zu können. Redundanzen werden auf diese Weise ebenfalls vermieden. Ein guter Team-Leiter sollte dabei immer die nötigen Schritte im Blick haben und seine Kommunikation optimieren, um durch die Entfernung, eventuelle Nebenprojekte des Mitarbeiters oder die Zeitverschiebung auftretende Probleme mit Abgabefristen von vornherein zu vermeiden. Dabei helfen, genau wie bei lokalen Teams, regelmäßige feste Meetings, die mit einzelnen Mitarbei- tern, Untergruppen oder dem ganzen virtuellen Team einberufen werden. Mit der richtigen Organisation effektiv arbeiten Zu guter Letzt ist es bei der Organisation verteilter Teams natür- lich wichtig, jederzeit offen und freundlich zu kommunizieren, um persönliche Probleme zwischen Mitarbeitern oder zwischen Team-Einheiten zu verhindern, Stichwort Wir-gegen-andere-
  29. 29. CIOBRIEFING 09/2017 Seite 29 Gefühl. Grundsätzlich gilt: In Remote-Teams gelten die gleichen sozialen Regeln wie bei lokalen Teams. Es können zudem die gleichen Probleme auftreten. Diese werden aber im Zweifel durch die räumliche Entfernung und den fehlenden persönlichen Kon- takt noch verschärft. Um effektives Arbeiten zu gewährleisten, sind die oben genann- ten Regeln zur Organisation eines virtuellen Teams also unum- gänglich und sollten schon von dem eigentlichen Aufbau des Teams vom Teamleiter genau überdacht werden. Werden diese einfachen Regeln jedoch beachtet, ist ein virtuelles Team kaum schwerer zu organisieren als eines, dessen Mitglieder nur durch Cubicle-Wände voneinander getrennt sind. ■ Christian Rentrop Mehr zum Thema Development finden Sie auf www.dev-insider.de Technology-Update für IT-Manager CIOBRIEFING
  30. 30. CIOBRIEFING 09/2017 Seite 30 QCT wächst mit Kundenorientierung, gutem ­Design und viel technischem Sachverstand Quanta Cloud Technology ­expandiert und verdrängt die (Ex-)Auftraggeber Der 2012 gegründete taiwanesische ehemals reiner Auf- tragsfertiger Quanta Cloud Technology (QCT) entstand aus der ehemaligen Enterprise Solution Business Unit von Quanta Computer Inc.. Doch der neben dem ODM- erwuchs ziemlich schnell das Direktgeschäft und so fertigt QCT nicht nur für Facebook und andere, sondern ist ein bevorzugter Partner von Intel und produziert x86- Enterprise- und -Cloud-Technik unter eigenem Label: Storage, Switches, Server, Management. Nun expandiert QCT in Europa. Die Etablierten sollten sich warm anzie- hen. Über Jahre gab es auf dem Server-Markt eigentlich nur zwei, drei große Namen. Allen voran HP und Dell – heute HPE und Dell EMC – sowie IBM, das seine Aktivitäten in dieser Richtung teil- weise an Lenovo abgegeben hat. Doch nicht nur Lenovo reüss- siert. Inspur legt kräfig zu, Huawei kommt, Asus zieht ins Re- chenzentrum und nun gibt auch QTC im europäischen Markt Gas. Die über viele Jahre praktizierte Auslagerung der Produkti- on an günstige asiatische Auftragsfertiger trägt nun halt Früchte – für die Auftragsfertiger. Quanta Cloud Techno­ logy baut Server, die sich an den OCP-­ Prinzipien orientieren: Die Komponenten sollen einfach ein- und ausbar sein, der Stromver- brauch gering und die Lesitung hoch und zu- verlässig. Bild:ArianeRüdiger
  31. 31. CIOBRIEFING 09/2017 Seite 31 Die Quanta Computer Inc. wurde 1988 gegründet und fertigte laut Wikipedia damals bereits beispielsweise mehr als 30 Prozent aller verfügbaren Notebooks weltweit. llerdings trugen diese, un- terschiedliche und oft sehr bekannte Markennamen. Heute fertigt das Unternehmen, wie Vice President und General Manager Mike Yang ausführt, unter anderem Kommunikations-, Netzwerk-und Cloud-Computing-Technik. „Das ist einmalig, dass wir von Sto- rage, und Networking, über Computer-Power bis zum Manage- ment alles im eigenen Haus fabriziren“, sagt er. Quanta beschäf- tigt mehr als 90.000 Mitarbeiter. 2012 wurde die Tochterfirma QCT (Quanta Cloud Technology) gegründet, eine der inzwischen 16 Tochterfirmen im Quanta- Konzern, die wiederum eine gleichnamige GmbH als Tochterfir- ma hat. Deren Standort ist Düsseldorf, und sie soll das Geschäft im Raum EMEA aufrollen. Aktuell arbeiten dort über 21 Mit- arbeiter, die Mitarbeiterzahl soll aber noch in diesem Jahr auf 40 steigen. In Aachen befindet sich ein Technologiezentrum und eine Fertigung für Rack-Systeme. Was Quanta für die hierzulande etablierten Hardware-Lieferan- ten gefährlich macht, ist erstens seine enge Verzahnung sowohl mit Speerspitzen der IT-Forschung wie MIT oder Harvard. Zwei- tens unterhält QCT mit Intel als wichtigstem Lieferanten von Server-Prozessoren eine sehr enge Kooperation – so bekam QCT laut Stephan Gillich, Direktor technisches Computing bei Intel, sehr früh Exemplare der neuen Prozessorserie „Xeon Scalable Platform“ zum Ausprobieren und Integrieren in seine aktuellen Server-Produkte. „Wir haben für diese Prozessorserie Tonnen möglicher Systement- würfe im Schrank“, sagt James Jau, Vice President RD bei QCT. Auch hierzulande fand eine Präsentation der zweiten Generati- on der QCT-Server-Produkte statt, am 26. Juli in München. Die Rechner tragen die Labels „Quanta Grid“ und „Qanta Plex“ statt. Das ist ziemlich zügig wenn man bedenkt, dass Intel diese neue Plattform offiziell erst am 12. Juli der Öffentlichkeit vorgestellt hat. Früher waren nur Tyan und Advantech dran – Tyan kündigte gar schon am 11. Juli an, man werde bald Server mit Prozessoren der Scalable-Serie im Programm haben. Spätestens zur „Mobi- le World 2018“ will QCT dort weitere Lösungen, unter anderem fürs Edge, vorführen. Schon heute arbeiteten mehr als 1.000 Entwicklungsingenieure daran, die Möglichkeiten der neuen Architektur in individuali- sierte Produkte für die Anforderungen spezifischer Anwendun-
  32. 32. CIOBRIEFING 09/2017 Seite 32 gen umzusetzen – handele es sich nun um Deep oder Machine Learning, Hochleistungsrechnen oder schlicht höchste Skalier- barkeit, wie sie schnell wachsende Cloud-Anbieter brauchen. Das Entwicklungsteam soll zudem noch in diesem Jahr um weitere 500 Ingenieure wachsen. Für den konservativen Markt in Deutschland müssen asiatsche Firmen viele Vorurteile bezüglich Qualität und Sicherheit über- winden. Da hillft es, dass es an Erfahrung und Referenzen bei- leibe nicht mangelt. Quanta fertigt alles – Server, Netztechnik, Storage und auch Racks – schon seit vielen Jahren, wenngleich für andere und nun unter eigenem Label, mit eigenem Design. „Kaum jemand kann diese Vielfalt aus eigener Fertigung und Entwicklung vorweisen“, sagt QCT-Chef Yang. Kundenorentierung statt Friss-oder-Stirb Außerdem – und das ist vielleicht der wichtigste Punkt - wis- se QCT aus seinen Jahren als reiner Auftragsfertiger besser als viele andere Hersteller, was Kundenorientierung bedeute. Früher konnten die Erfindungen der Entwicklungsingenieure ohne viel Geplänkel mit den Anwendern in neue Produkte umgesetzt wer- den, die man den Herstellern dann in der Regel höchstpreisig aus den Händen riss. Diese Zeiten seien längst vorüber, doch die alte Mentalität des La- borforschers sei bei den klassischen IT-Playern noch präsent und im Cloud-Zeitalter möglicherweise hinderlich. Denn im Moment geben nicht mehr die genialen Entwicklungsdiven der Computer- bauer den Takt vor, sondern die gnadenlosen Anforderungen der Cloud-Provider, die sich notfalls ihre eigenen Server bauen oder bauen lassen – ganz ohne die Phalanx der etablierten Hersteller. So arbeitet QCT schon lange intensiv an dem von Facebook ins Leben gerufenen Open Compute Project (OCP) mit und brachte 2013 mit „Rackgo X“ seine erste OCP-inspirierte Rack-Architek- tur auf den Markt, der inzwischen weitere folgten. Man unterhält auch enge Beziehungen zu anderen Cloud- Anbietern und -Re- chenzentren. In Deutschland ist man beispielsweise inzwischen im Geschäft mit 11, dessen Hosting-Plattform partiell von QCT stammt. „Unsere dedizierten Server lassen wir zwar nach wie vor von einem deutschen Integrator nach eigenen Entwürfen fertigen, wir sind aber von der Kooperation mit QCT positiv beeindruckt und können uns durchaus vorstellen, sie auszubauen“, berichtete Rai-
  33. 33. CIOBRIEFING 09/2017 Seite 33 ner Sträter, Head of Global Platform Hosting bei der 11 Internet SE anlässlich der Präsentation in München. Eines der Kaufargu- mente: „Wir können Einfluss nehmen.“ Und dieser Einfluss kann weit reichen. So ist Intel wiederum am Feedback nicht nur von QCT und anderen Hardwarebauern inte- ressiert, sondern auch an dem ihrer Kunden. Der Erfolg Der Lohn der Mühen: Zumindest HPE und IBM verlieren zwei- stellig Marktanteile im Server-Markt, der Anteil der sonstigen Hersteller, hinter denen sich auch Quanta versteckt, ist nach Zah- len von Marlktanalysten zum vierten Quartal 2016 auf rund 34 Prozent angestiegen; laut IDC sind es etwa 25 Prozent. Das ist keine Marginalie. Beim Design hat QCT sichtbar versucht, dringliche Probleme von Providern zu berücksichtigen. Das drückt sich in scheinbar unwich- tigen Kleinigkeiten aus, die aber im Alltag von Administratoren mit Tausenden zu verwaltender Server erhebliches Gewicht haben. So ist der Austausch von Komponenten wie Lüfter, Festplatten, PCI-Karten oder DIMM-Modulen grundsätzlich ohne jedes Werk- zeug möglich und so einfach und wenig kraftraubend, dass sie nur noch Sekunden dauern, wie in München vorgeführt (und von den Gästen der Veranstaltung selbst nachgemacht) wurde. Außermdem bleibt die neue Systemgeneration im laufenden Be- trieb kühler als die alte, trotz größerer Komponentendichte. Alan Chang, Produktmanager QCT: „Wir haben das gesamte Layout und die Kühltechniken überarbeitet. So montieren wir sechs Doppelventilatoren mit kleineren Rotoren und daher größerer Drehgeschwindigkeit statt der üblichen fünf, was mehr Kühlef- fizienz bedeutet.“ Der Idle-Verbrauch wurde auf knapp über 40 Watt begrenzt. Cheng: „Viele Server arbeiten meistens nicht und sollen dann möglichst wenig verbrauchen.“ Ein Beispiel für die konsequente Umsetzung von OCP-Prinzi- pien, die größtmögliche Unabhängigkeit der Kompoenenten und Flexibiltät fordern, ist der „QuantaPlex T22SF-1U“ für zwei Ser- ver-Knoten: So nutzen die Knoten keine gemeinsamen Kompo- nenten, arbeiten also vollkommen unabhängig voneinander. Das Rack enthält für jeden Knoten redundante Stromversorgun- gen und Lüfter (2 +1Ü). Gleichzeitig sind die Knoten-Blades so gestaltet, dass sie sowohl in den rechten als auch in den linken Einschub des Gehäuses passen. Das funktioniert, weil der Cage
  34. 34. CIOBRIEFING 09/2017 Seite 34 für die beiden vorgesehenen SSD-Festplatten am Ende des Kno- tenmoduls auf einer Schiene montiert ist und sich daher je nach- dem, ob das Modul rechts oder links im Gehäuse steckt, geführt von einer Schiene, an die passende Position verschiebt. Federn am Cage stabilisieren ihn nahe der Mittenposition, aus der er nur so weit wie gerade nötig verschoben wird. „So muss man für diesen Rechner jeweils nur ein Knotenmodul vor Ort in Re- serve halten statt mindestens zwei“, erklärt ein QCT-Mitarbeiter. Weitere Geräte: Zu den neuen Geräten gehören drei hocheffiziente Compute- Server für Aufgaben wie HPC, vier hochskalierbare Servermo- delle für Anwendungen wie VDI, Hyperskalierung oder vSAN, zwei Systeme für AI-Aufgaben mit bis zu acht GPUs und vier Storage-Server, die mit Aufgaben wie Hadoop, Big Data oder hy- perskalierbarer Storage am besten fertig werden. Zwei Modelle aus der hochskalierbaren Serie „QuantaPlex T42“ und zwei der HPC-Systeme unter dem Label Quanta Grid sind bereits global verfügbar, der Rest der Server kommt im Herbst. William Shih, Country Manager EMEA, will von Düsseldorf aus den deutschen und europäischen Markt erschließen. Der Mana- ger, der zuvor für Acer tätig war, wird sich zunächst um Provi- der und auch Enterprises kümmern – der Mittelstand wird weiter über Distis bedient. „Wir bieten Produkte, die etwa so viel kosten wie die von HP. Unser derzeit hier noch recht kleiner Marktanteil soll sich jedes Jahr verdoppeln bis verdreifachen.“ Das ist bei einem von Shih aktuell angenommenen Anteil eigener Produkte am deutschen Serve-Markt von 0,5 Prozent sicher noch keine Bedrohung, könnte sich aber schnell dazu auswachsen, wenn die Wachstumswünsche des Unternehmens sich erfüllen oder gar übertroffen werden. ■ Ariane Rüdiger
  35. 35. CIOBRIEFING 09/2017 Seite 35 Abwehr von unbemannten Fluggeräten Drohnenabwehr mit Laser, Richtfunk und Netz Immer mehr Drohnen bewegen sich im deutschen Luft- raum. Die Systeme können nicht nur den Flugverkehr gefährden, sondern auch eine Bedrohung für Großver- anstaltungen, Stadien, Forschungszentren oder auch Rechenzentren darstellen. Es ist also wenig verwunder- lich, dass verschiedene Akteure inzwischen Abwehrmaß- nahmen entwickeln. Wir geben einen ein Überblick über aktuell verfügbare Erkennungs- und Abwehrsysteme. Nach Daten von Gartner sollen 2017 weltweit drei Millionen Drohnen im Wert von 6 Milliarden Dollar über den Tresen gehen, was einem Umsatzanstieg von 34 Prozent und einem Anstieg der verkauften Geräte sogar um 39 Prozent gegenüber dem Vorjahr entspricht. Im Jahr 2020 soll der Markt schon auf 11,2 Milliarden Dollar weltweit angewachsen sein. Dabei liegen die Modelle für die private Nutzung mit 2,8 Millionen Stück mengenmäßig vor, in Hinblick auf den Umsatz aber mit 2,8 Milliarden Dollar hinter den 174.000 kommerziellen Drohnen zurück, mit denen 3,7 Mil- liarden umgesetzt wurden. In Deutschland wurden laut GFK im Jahr 2016 rund 300.000 Kameradrohnen für die private Anwen- dung verkauft, die Prognose fürs laufende Jahr liegt bei 500.000. Millionen Drohnen ­befinden sich heute schon in privater Hand. Deutsche Sicherheits­ behörden halten sogar Drohnenangriffe auf Fußballstadien und ­andere Massenveran- staltungen für möglich. (Bild:Pixabay/CC0
  36. 36. CIOBRIEFING 09/2017 Seite 36 Wie oft deutsche Rechenzentren mit der Absicht, diese auszu­ spionieren oder anzugreifen, überflogen werden, weiß kei- ner. „Uns ist bisher kein solcher Fall bekannt“, sagt Jan Peter Schween, beim deutschen Drohnenabwehr-Spezialisten Dedrone für den Vertrieb zuständig. Doch ist jede mit Kamera ausgestat- tete Drohne theoretisch dazu in der Lage, ein Forschungszentrum oder Data Center auszuspionieren – professionelle Drohnen kön- nen neben normalen Videos Geräusche, Infrarotbilder etc. ein- sammeln von Lasten, zum Beispiel explosives Material, auf ein Ziel abwerfen. Kein Wunder also, dass mittlerweile auch eine Drohnenabwehr- industrie entsteht. In Deutschland am bekanntesten ist die Zu- sammenarbeit der Deutschen Telekom mit Dedrone. Die Telekom bastelt an einem „Drohnenschutzschild“ der über Magenta Se- curity angeboten werden soll. Dedrones Produkt dient in erster Linie dazu, Sender und Drohnen mit Hilfe intelligenter Software und eines Multisensors, der Bilder, Geräusche und Funkwellen im frequenzfreien Bereich aufzeichnet, zu finden, die Flugroute der Drohne zu verfolgen und am Bildschirm darzustellen. Bei der Klassifikation der Drohnen hilft eine Bilddatenbank, in die laufend weltweit alle verfügbaren Bilder und die dazugehörigen Daten wie der Drohnentyp eingespeist werden, um jedes unbe- mannten Flugkörpers in der Nähe eines RZ so sicher wie möglich zu klassifizieren. Auch privat gebaute Drohnenvarianten können so erfasst werden. Ein anderer Anbieter von Detektionslösungen ist Squarehead Technology aus Norwegen. Das Unternehmen liefert die Hard- und Software für das optoakustische Erkennungssystem von Nor- sonic, das zusammen mit einem dritten Unternehmen, der auf die Analyse optoakustischer Signale spezialisierte Orelia SAS, zu ei- nem Drohnenerkennungs- und Abwehrsystem ausgebaut werden soll. Dabei greift Squarehead auf superschnelles Array-Compu- ting zurück, um das Gesehene und Gehörte mehr oder weniger in Echtzeit auszuwerten. Störfunk gegen Fluggeräte Drone Labs findet mit dem Drone Detector Drohnen und Steuer- geräte im Umkreis von mehr als einem Kilometer, selbst, wenn sie noch nicht gestartet sind. Sie müssen nur eingeschaltet sein. Dabei werden nicht nur fliegende, sondern auch fahrende oder schwimmende Drohnen mit Hilfe von Radiofrequenzdetektion und GPS-Analyse, Radar, Audio, Video oder Temperaturanalyse
  37. 37. CIOBRIEFING 09/2017 Seite 37 gefunden, und zwar auch dann, wenn sie sich nicht in Sichtlinie mit dem Detektionsgerät befinden. Allerdings ist die Technologie bisher hauptsächlich in den USA erhältlich. Das System Anti-AUDS (Autonome UAV Defense System) des britischen Unternehmens Blighter Surveillance kombiniert meh- rere Elemente: Den A400-Radar für die professionelle Überwa- chung des Luftraums, beispielsweise an Flughäfen, mit einer Reichweite von bis zu zehn Kilometern, eine Kombination aus Video- und Thermaldetektor, Chess Danamics Hawkeye Deplo- yable System (DS) und EO Videotracker, um fliegende Drohnen zu verfolgen und, zusammen mit der beim Radar gesammelten Informationen, zu klassifizieren. Das ECS (Enterprise Control System), ein zielgenaues Gerät mit intelligent gesteuerten Rich- tungsantennen, stört dann selektiv die Kommunikationskanäle der Drohne und hindert sie dadurch daran, ihre Mission zu erfül- len, ohne den übrigen Flugverkehr zu beeinträchtigen. Diese Lö- sung dürfte fürs durchschnittliche Rechenzentrum eher zu groß sein. Schon handlicher ist die Drone Gun der australischen Firma Dro- ne Shield. Der gewehrähnliche Jammer hat eine Reichweite von bis zu zwei Kilometern. Drone Shield erkennt Drohnen insbe- sondere am Fluggeräusch, das für jeden Drohnentyp individuell und speziell ist. Diese Geräusche speichert Drone Shield in einer Datenbank, in die alle verfügbaren Drohnen-Fluggeräusche ein- gespeist werden. Aktuelle Drohnengeräusche werden daran abge- glichen. Allerdings ist diese Lösung bisher in Deutschland nicht erhältlich. Auf der CES im Januar 2017 präsentierte auch Airbus DS Elec- tronics and Border Security (EBS) mit Xpeller ein System, das Wärmebildkamera, Radar und einen Störsender kombiniert und sich auch für andere Zwecke einsetzen lässt. Die inzwischen un- ter dem Firmennamen Hensoldt vermarkteten Systeme gibt es in mehreren Größenordnungen, auch tragbar im Rucksack. Boeing hat mit dem Compact Laser Weapons System eine laser- gestützte Lösung entwickelt, um Drohnen abzuschießen. Dabei wird ein hochenergetischer Laserstrahl auf das Objekt gerichtet und bringt es zum Absturz, indem es durch die Hitze des Lasers innerhalb von 15 Sekunden in Brand gesetzt wird. Ein mobiles Kleinsystem hat eine Leistung von 2 kW und besteht aus Küh- leinheit, Batterien, einem Gerät, das den Strahl richtig ausrichtet, und einen Farblaser. Eine Person kann das System betreiben. Der geplante Anwendungsbereich ist vorwiegend militärisch.
  38. 38. CIOBRIEFING 09/2017 Seite 38 Drohnen fischen Aber nicht immer reicht es den Anwendern, eine Drohne ledig- lich zu detektieren und irgendwie vom Himmel zu bekommen. Wer die Drohne physisch intakt einfängt, hat die Chance, ihre Technologie und vor allem die geladene Software sowie eventuell die bereits aufgezeichneten Daten des bisherigen Flugs zu ana- lysieren. In diese Richtung zielt beispielsweise der Skywall 100, eine Lösung des britischen Startups Openworks Engineering. Sie wurde während des Besuches des ehemaligen US-Präsidenten Obama in Berlin eingesetzt. Dabei schießt ein von einer Person tragbarer Launcher mit Druckluft ein Netz mit Fallschirm direkt auf die Drohne und fängt sie ein. Eine intelligente Optik gibt Si- gnal, wenn der Launcher korrekt ausgerichtet ist. Der Fallschirm sorgt dafür, dass das Fluggerät nicht auf dem Boden zerschellt. Der Launcher hat Luft und Netze für mehrere Schuss und kann deshalb kurz hintereinander mehrere Drohnen vom Himmel ho- len. Eine Gegendrohne setzt die französische MALOU Tech (Mission Aérienne Légère à Organisation Unique) Systems mit dem MP200 ein. Dabei gibt es dieses System als reinen Detektor (MP200) und als Abwehrdrohne (MPI200). Die Abwehrdrohne nähert sich der angreifenden Drohne und fängt sie in einem Netz ein. Die De- tektionsdrohne hat eine integrierte Kamera, SD-Speichermedien und funkt auf 5,8 GHz in einer Reichweite von 0,6 Meilen. Sie ist mit einem roten LED für Nachtflüge ausgerüstet. Die Abfang- Drohne kann Drohnen bis 6 kg in ihrem Netz einsammeln und sicher zum Boden bringen. Und dann gibt es noch die „natürliche Methode“: Wie sich heraus- gestellt hat, attackieren Raubvögel, z.B. Adler, recht erfolgreich Drohnen. Diese Methode will beispielsweise die niederländische Polizei einsetzen. Doch ob es für Rechenzentren sinnvoll ist, ne- ben spezialisierten RZ-Dienstleistern auch noch einen Falkner zu beauftragen, darf getrost bezweifelt werden. ■ Ariane Rüdiger
  39. 39. CIOBRIEFING 09/2017 Seite 39 Mit SDN auf dem Weg zum Software-Defined Data Center Automatisierte Netzwerk-Virtua- lisierung mit VMware NSX LangehatsichamBetriebsmodellfürdasNetzwerknichts verändert – wodurch die Bereitstellung neuer Applikati- onen ausgebremst wurde. Die automatisierte Netzwerk- Virtualisierung via VMware NSX ist der nächste Schritt auf dem Weg zum Software Defined Data Center. Aus Hardware wird Software. Mit dieser Vorgehensweise wer- den IT-Services in Unternehmen agiler, flexibler und verfügba- rer. Unternehmen bauen seitdem viele logische Serverinstanzen auf einer Hardware auf. Die Virtualisierung der Serverumgebung schafft logische Pools, die Ressourcen für Speicher und Compu- ting bereitstellen – Hardware wird gewissermaßen zustandslos. Der Trend zur Virtualisierung erreicht nun die Netzwerke. VMware zielt mit NSX darauf ab, diesen nächsten logischen Schritt im Rechenzentrum zu gehen. Unternehmen erhalten so im Netzwerk ähnliche Mehrwerte wie bei der Servervirtua- lisierung. Das verspricht der Hersteller vollkommen zu Recht, denn die Netzwerkvirtualisierung befreit von physikalischen Abhängigkeiten. VMware führt ein Overlay-Netzwerk ein, das Hardware-unabhängig die Kommunikation von Applikationen gewährleistet und erfüllt damit einen wichtigen Grundsatz: Res- sourcen möglichst flexibel bereitstellen. Die NSX-Plattform wird über bestehende Layer-3-Netzwerke ge- spannt und transformiert das physikalische Netzwerk zum Trans- portmedium. VMware NSX ist ein Hypervisor-basiertes Netz- werk, das heißt: Hardware-typische Funktionen wie Switching, Routing, Firewall und Load Balancing werden direkt im Hyper- visor abgebildet. Screenshot VMware ­vSphere Web Client. Bild:AxiansNetworksSolutions/VMware
  40. 40. CIOBRIEFING 09/2017 Seite 40 Die Motivation, sich mit der Virtualisierung von Netzwerken zu beschäftigen, liefert der IT-Betrieb. Das Implementieren der Netz- werkvirtualisierung ist jedoch eine Aufgabe für IT-Dienstleister wie Axians Networks Solutions, die über das Know-how und die Erfahrung für solche Projekte verfügen. Diese Spezialisten bewegen sich technologisch auf dem neuesten Stand, sie passen die NSX-Plattform an die Gegebenheiten der Anwenderfirma an. Ineffizientes Betriebsmodell fürs Netzwerk Mit der Virtualisierung erhält der IT-Betrieb technologisch die Chance, das Netzwerk aus seinen alten Traditionen herauszurei- ßen. Das Betriebsmodell für das Netzwerk hat sich in den vergan- genen Jahrzehnten de facto nicht verändert. Es basiert auf einem überwiegend manuellen Konfigurationsmodell und hängt von den Leistungsmerkmalen der physischen Topologie ab. Im Vergleich dazu hat sich der Alltag des Serveradministrators fundamental gewandelt. Wenn die Fachabteilung eine neue Applikation benö- tigt, dann konfiguriert er sich einfach im Self-Service eine virtu- elle Maschine zusammen. Er muss dafür keinen Server bestellen und nicht auf verschiedene Komponenten zugreifen, um etwas zu provisionieren. Jedoch kann ein Serveradministrator die angeforderte Applika- tion nicht immer sofort in Betrieb nehmen. Das liegt an den Ab- hängigkeiten, die das Netzwerk betreffen. Er braucht eben auch noch die Netzwerkkonnektivität für den neuen Dienst. Unter Umständen muss diese Applikation in einem eigenen Netz abge- bildet werden, weil das Unternehmen verschiedene Fachbereiche oder Kunden trennt. Die Netzwerkexperten treten an dieser Stelle in Aktion und konfigurieren ein neues Netzwerk für die Appli- kation. Zunächst wird ein Layer-2-Netz bereitgestellt, um die Konnekti- vität zu erreichen. Danach stehen das Vergeben von IP-Adressen, das Konfigurieren von Switching und Routing sowie das Integ- rieren logischer Teilnetze (VLAN) in den virtuellen Switch auf der Aufgabenliste. Der Nächste in der Prozesskette ist der Sicherheitsadministra- tor. Er will für das neu gebaute virtuelle Netzwerk die Firewall- Richtlinien bereitstellen. Dafür benötigt der Spezialist Angaben vom Netzwerk- sowie Serveradministrator. Wenn der virtuelle Webserver übertragen wurde, fehlt noch die Konfiguration des Load Balancings, damit die Applikation hochverfügbar bereitge- stellt wird.
  41. 41. CIOBRIEFING 09/2017 Seite 41 Die Bereitstellung einer App erfordert also einen längeren Pro- zess, bevor die Fachabteilung diese produktiv nutzen kann. Das veranschaulicht die Notwendigkeit, die automatisierte Virtua- lisierung vom Server auf das Netzwerk zu übertragen. Daraus resultiert der gewünschte Nutzen: ein beträchtlicher Gewinn an Zeit, Agilität und Verfügbarkeit. Ein neues Netzwerk für eine Anwendung bereitzustellen, kann einen Tag oder auch deutlich länger dauern. Mit VMware NSX gelingt das bereits in wenigen Sekunden. Für logisches Switching, Distributed Routing und Mi- krosegmentierung ist die Plattform aktuell Vorreiter. Die NSX-Technologie hat ihre Berechtigung auch aus der Si- cherheitsperspektive, in der sie klassische Infrastrukturen klar aussticht. Für den Sicherheitsgewinn, der so ins Rechenzent- rum einzieht, sorgt die Mikrosegmentierung. Denn heutzutage ist die Sicherung von einzelnen Applikationen von höchster Be- deutung. Die Mikrosegmentierung setzt direkt an der virtuellen Netzwerk- karte einer virtuellen Maschine (VM) an. Das Regelwerk, das die Administration zentral konfiguriert und bereitstellt, setzen die VMs in ihrem virtuellen Netzwerk durch. Damit gewinnt der Netzwerkbetrieb an Flexibilität, denn Netzgrenzen verlieren ihre Bedeutung. Ein VMware-Administrator kann mehrere VMs in einem Netz betreiben und diese voneinander isolieren und noch- mal durch eine Firewall schützen. Prädestinierte NSX-Einsatzfelder VMware NSX eignet sich vor allem für Rechenzentren, in denen mehr als 500 virtuelle Maschinen im Einsatz sind. Die NSX-Tech- nologie automatisiert und beschleunigt das Bereitstellen virtueller Netze. Außerdem vereinfacht sich das Integrieren virtueller und physischer IT-Services wie Switches, Router, Firewalls, Lastaus- gleichsfunktionen, VPNs und Sicherheitsfunktionen. Insgesamt lassen sich VMs effizient vernetzen und die Sicherheitsrichtlinien für VMs sind individuell konfigurierbar. Ein weiteres Anwendungsfeld ergibt sich durch die Self-Service- IT. Anwender können IT aus dem eigenen Rechenzentrum oder der Private Cloud beziehen. Auch wer Entwicklungs-, Test- und Produktionsumgebungen innerhalb derselben virtualisierten In- frastruktur isoliert darstellen will, sollte VMware NSX nutzen. Die Plattform erleichtert es, mandantenfähige Netzwerke einzu- richten und eine Private-Cloud-Architektur aufzubauen.
  42. 42. CIOBRIEFING 09/2017 Seite 42 VMware NSX versetzt den Administrator in die Lage, sich einfa- cher, physikalischer Ressourcen zu bedienen, die aus Netzwerk, Speicher und Server bestehen. Die Verwaltung erfolgt weiterhin über die Spezialisten mit dem entsprechenden Know-how. Der Cloud-Schub Die Netzwerkvirtualisierung mit VMware NSX ebnet den Weg zum Cloud-fähigen Rechenzentrum, das eine dynamische Last- und Ressourcenverteilung realisiert. Die Plattform von VMwa- re kann für sichere Verbindungen zu Public Clouds wie AWS, Azure oder vCloud Air, lokale Service Provider und On-Premise Datacenter sorgen. Entscheidend ist, dass sich das Bereitstellen virtueller Netze auf Minuten oder weniger verkürzt. VPN, Rou- ting, Load Balancing und Firewall lassen sich virtualisiert und direkt für den Workload betreiben und automatisiert bereitstellen – völlig entkopplet von der Hardware. ■ Onur Öztürk Mehr zum Thema Netzwerke finden Sie auf www.ip-insider.de Technology-Update für IT-Manager CIOBRIEFING
  43. 43. CIOBRIEFING 09/2017 Seite 43 Edge Analytics und Big Data Security So werden Daten bei Edge Analytics geschützt Edge Analytics als Big-Data-Analyse am „Rand des Netz- werks“ gilt als ein Zukunftsmodell der Datenanalyse im Internet of Things (IoT). Dabei sollte die Sicherheit der Daten nicht vergessen werden. Verschiedene Lösungen für Edge Analytics bieten dafür integrierte Funktionen. Edge Computing und Edge Analytics spielen sich zwar technisch gesehen „am Rand“ ab, sie sollte aber nicht nur am Rande gese- hen werden. Der weltweite Markt für Edge Analytics wird ein starkes Wachstum erfahren, von 1,94 Milliarden US-Dollar 2016 hin zu 7,96 Milliarden US-Dollar im Jahr 2021, so die Studie Edge Analytics Market von Markets and Markets. Für dieses Wachstum gibt es gute Gründe, denn Edge Analytics ist sinnvoll: Datenanalysen bei IoT-Sensoren, Compliance-Ana- lysen direkt am Geldautomaten und POS, lokale Analysen am Energieverbraucher und Services rund um Connected Cars sind nur einige Beispiele für die vielfältigen Anwendungsfälle. In vie- len zeitkritischen Big-Data-Analysen sollen Clouds nicht zum Engpass werden und Edge Analytics kommt zum Zuge. Der weltweite Markt für Edge Analytics boomt. Doch gerade bei der de- zentralen Datenanalyse darf die Sicherheit nicht außer Acht gelassen werden. Bild:©NicoElNino_stock.adobe.com
  44. 44. CIOBRIEFING 09/2017 Seite 44 Edge Analytics übernimmt kritische Bereiche der Big-Data- Analysen Big Data Analytics entwickelt sich dabei zur dezentralen Daten- analyse, aufgeteilt in Analytics mit Edge Computing (zum Bei- spiel auf dem Gerät selbst) und Analytics in der Cloud. Dabei sind es gerade die kritischen Anteile von Big Data Analytics, die zu Edge Analytics werden, wie es zum Beispiel die Studie „In- dustrial Analytics 2016/2017“ von Digital Analytics Association e. V. beschreibt. Es steht deshalb außer Zweifel, dass die Sicherheit und der Da- tenschutz bei Edge Analytics besonders gewährleistet werden müssen. Sicheres Edge Analytics ist zentraler Teil eines sicheren IoT-Szenarios, gerade auch im Industrial Internet of Things (IIoT, Industrie 4.0). Doch wie kann die Sicherheit bei Edge Analytics gewährleistet werden? Sicheres Edge Analytics bedeutet mehr als Endpoint-Sicher- heit Der Ansatz für die Absicherung von Edge Analytics muss sein, die Integrität, die Verfügbarkeit und in den meisten Fällen auch die Vertraulichkeit der Daten sicherzustellen. Dazu gehört zum einen die Device Security, also die Endgeräte-Sicherheit. Durch die große Vielzahl an Gerätetypen, die bei Edge Ana- lytics zum Einsatz kommen, reichen die üblichen Verfahren der Endpoint Security aber nicht aus. So gelingt die Installation ei- ner klassischen Anti-Malware-Lösung auf vielen IoT-Sensoren schlichtweg nicht, um nur ein Beispiel zu nennen. Integrierte Sicherheit bei Edge Analytics Ein zentraler Punkt bei der Sicherheit von Edge Analytics ist des- halb, dass die Edge-Analytics-Lösungen selbst zur Sicherheit bei- tragen müssen, also integrierte Funktionen für den Datenschutz (bei der Analyse personenbezogener Daten) und für die IT-Si- cherheit haben. Beispiele dafür gibt es auf dem Markt bereits: ● HPE Vertica verfügt insbesondere über Funktionen im Bereich Zugangskontrolle für Nutzer und Administratoren, Verschlüs- selung und Sicherheitsrichtlinien (HPE SecureData). ● Die Predix-Plattform verfügt über eine Reihe von Security- Funktionen wie Verschlüsselung und Key Management, Iden- titätsmanagement, Schwachstellenmanagement, Datenklassifi- zierung, um nur einige zu nennen.
  45. 45. CIOBRIEFING 09/2017 Seite 45 ● Thingworx bietet unter anderem ein umfangreiches Berechti- gungssystem und Monitoring-Funktionen. ● Bei dem Cisco Fog Director sorgen zusätzlich zum Logging und Monitoring zum Beispiel Cisco Industrial Security Ap- pliances und Cisco Firepower Firewall Appliances für die Da- tensicherheit (Edge-to-Enterprise IoT Analytics, powered by Cisco und SAS). ● MapR Edge sieht unter anderem eine Zugangskontrolle und Verschlüsselung vor, auch für die Datenübertragung zwischen Edge und Cloud. Ganz gleich, welche Edge Analytics Lösung gewählt wird, die integrierten Sicherheitsfunktionen sollten bei der Auswahl eine entscheidende Rolle spielen, um der kritischen Bedeutung von Edge Analytics gerecht zu werden. ■ Oliver Schonschek Mehr zum Thema Big Data finden Sie auf www.bigdata-insider.de Technology-Update für IT-Manager CIOBRIEFING
  46. 46. CIOBRIEFING 09/2017 Seite 46 Abwarten bei NVMe – ein Produkt ist noch keine Lösung Wer will schon 60-prozentiges NVMe/f? Kaum eine andere Technik wird aktuell in der Storage- Welt so forciert propagiert wie NVMe. Dementsprechend reißt die Zahl der Produktankündigungen nicht ab. Al- lerdings reagieren die Anwender recht zögerlich auf den neuesten Geschwindigkeitsschub, fehlende Funktionali- täten schrecken ab. Der Rummel um NVMe ist groß. Marktbeobachter rechnen da- mit, dass sich das Protokoll rasch durchsetzt. So sollen 2020 die Hälfte aller Enterprise-Server und 60 Prozent der angebotenen Speichergeräte mit NVMe-Einschüben ausgestattet sein. Der Anteil an NVMe-basierten All-Flash-Arrays (NVMe-AFA) wird zu diesem Zeitpunkt auf gut 40 Prozent geschätzt. Erste mit NVMe-SSDs bestückte und die NVMeOF-Spezifikationen unter- stützende All-Flash-Arrays (AFAs) sind schon heute erhältlich. Allerdings verhält es sich bei den Lösungen ein wenig wie mit Fernsehgeräten, die das „4K-Ready“-Gütesiegel trugen. Diese waren zwar auf das hochauflösende Format ausgelegt, aber ohne 4K-fähige Empfänger und Kabel, eine schnelle Breitband- verbindung und natürlich passende Inhalte änderte sich am TV- Bild erst einmal nichts. Analog dazu müssen auch bei NVMe alle Komponenten angefan- gen vom Client und den darauf betriebenen Anwendungen über das Netzwerk bis hin zum Storage-Array die Technik beherr- schen. Ansonsten bleibt der erhoffte Nutzen aus. NVMe-Zukunftsmusik: Nichtflüchtige „Post- Flash“-Speicher sollen die Latenzzeiten weiter senken und NVMeoF-­ Lösungen den Aufbau hochskalierbarer Shared-Storage-­ Lösungen ermöglichen. Bild:www.nvmexpress.org
  47. 47. CIOBRIEFING 09/2017 Seite 47 Das Design muss stimmen Für Rechenzentren geeignete NVMe-AFAs müssen daher eine Reihe an Voraussetzungen erfüllen. Hierzu zählt unter anderem, dass ● das Betriebssystem des Arrays für die Parallelverarbeitung optimiert ist, ● die Controller NVMe-fähig sind, ● das System NVMeoF für die Frontend-Anbindung von Hosts unterstützt, ● Dual-Port NVMe-SSDs zum Einsatz kommen, um für Hoch- verfügbarkeit zu sorgen, ● von klassischen Speichern vertraute Funktionen, darunter Komprimierung, Replizierung, Provisioning, RAID, Ver- schlüsselung, Snapshots und Cloning und vieles weitere mehr bereitstehen. Doch genau hier liegt der Hund begraben. Kaum ein Enterprise- Storage-System erfüllt bislang alle geforderten Kriterien, darü- ber hinaus mangelt es oft an der Integration von Anwendungen und Datendiensten. Ohne diese wird es schwer fallen, Kunden zu einem Wechsel zu bewegen. Denn wer möchte schon auf Vertrau- tes verzichten. Zudem steht NVMeoF noch am Anfang. Bislang unterstützen nur einige wenige Produkte den Standard und an Treibern, Betriebs- system-, Hypervisoren- sowie Adapter-Optimierungen wird noch gearbeitet. Dadurch lässt sich das Leistungspotenzial von NVMe heute noch nicht vollständig abrufen. Performance ja, aber nicht um jeden Preis Aus Sicht von Herstellern und Analysten soll sich dies jedoch rasch ändern. Als Hoffnungsträger gelten nichtflüchtige Speicher der nächsten Generation wie 3D XPoint, die den Grundstein für den Vorstoß in neue Performance-Dimensionen legen sollen und niedrigere Latenzzeiten verheißen. Doch diese sind zunächst ein- mal eins, noch teuerer als Flash. Womit wir bei finanziellen As- pekten angelangt wären und damit einer weiteren Hemmschwel- le, die Kunden vom Wechsel auf NVMe-basierten Storage abhält. Aus Hochverfügbarkeitsgründen ist der Einsatz von Dual-Port NVMe-SSDs in AFAs wie bereits erwähnt unverzichtbar. Die- se schneiden bei einem Preisvergleich auf Basis der Kosten pro TByte deutlich schlechter ab, als SAS- oder SATA-SSDs. Hinzu kommt, dass ein Austausch auf die um etwa zehnfach schnelle-
  48. 48. CIOBRIEFING 09/2017 Seite 48 ren Laufwerke noch lange nicht heißt, dass die Leistungswerte urplötzlich in die Höhe schießen. Wenn sich der Leistungsschub „nicht auf dei Straße bringen lässt“,,wird es schwierig, dem Kun- den eine Umstellung auf die schnellere Technik schmackhaft zu machen. Mit Storage alleine ist es zudem, wie gesagt, nicht getan. Um den Zugriff auf die Laufwerke über das Netz mit kleinstmöglichen Antwortzeiten zu ermöglichen, bedarf es NVMeoF. Damit die Kommunikation klappt, müssen eventuell Änderungen an den Clients und dem Netz vorgenommen sowie neue Komponenten zum Beispiel Host Bus Adapter oder Switches angeschafft wer- den. Aus Infrastrukturperspektive kann sich dies zu einem kost- spieligen Faktor entwickeln. Wie immer bei neuen Schnittstellen - es wird genörgelt Dennoch steht für viele - schon allein in Folge der breiten Her- stellerunterstützung - außer Zweifel, dass sich NVMe über kurz oder lang als De-Facto-Standard etabliert. Ob es sich wirklich wie häufig progagiert, um eine „disruptive“ Technik handelt oder eher um eine lang ausstehende Evolution, hängt von der Betrach- tungsweise ab. Gleichermaßen bleibt abzuwarten, wie es um die Vorteile in der Praxis tatsächlich bestellt ist. Hier fehlen bislang die Erfahrungs- werte. Ebenso wie es mit der real erzielbaren Performance aus- sieht, denn bislang stützen sich die Leistungsvergleiche auf von Anbietern durchgeführte Tests oder folgen dem Äpfel-Birnen- Prinzip. Und natürlich, ob und wie schnell sich die Preise für NVMe-SSDs den traditionellen Medien annähern und NVMe- AFAs damit erschwinglicher machen. Bis dahin wird der Einsatz von NVMe-Lösungen wohl weiterhin auf spezielle Anwendungsfälle mit hohen Performanceanforde- rungen beschränkt bleiben und denjenigen vorbehalten sein, die bereit sind, für das Leistungsplus etwas tiefer in die Tasche zu greifen. ■ Tina Billo
  49. 49. CIOBRIEFING 09/2017 Seite 49 ERP aus der Cloud – ein Stimmungsbild ERP-Pakete aus der Cloud müssen performant, sicher und anpassbar sein Die Nutzung von betriebswirtschaftlicher Standard-Soft- ware (ERP) ist kein Vorrecht von Großunternehmen mehr. Eine Umfrage des Bitkom stellte kürzlich fest: KMUs ha- ben mächtig aufgeholt – und bereits jede dritte Public- Cloud-Anwendung kommt aus dem Bereich ERP. Dar- über, welche Anforderungen Cloud-ERP erfüllen sollte, stimmen die Experten der Anbieter weitgehend überein. Bevor sich ein Interessent für einen Anbieter von Cloud-ERP ent- scheidet, muss er erst einmal klären, welches Bezugsmodell für ihn das passende ist. Denn die Wahl des entsprechenden Dienst- leisters entscheidet darüber, wie anpassbar, umfangreich, sicher und performant das künftige Cloud-ERP-Paket sein darf bzw. soll. Eine Größe, die für alle passt? Das gibt es im ERP-Bereich, im Unterschied zu Produktivitätspaketen wie MS Office 365, nur selten. Denn schließlich muss eine ERP-Lösung immer auch die Prozesse des Unternehmens widerspiegeln, und die sind in aller Regel sehr individuell. „Unternehmen in einer Aufbau- oder Modernisierungsphase greifen eher zu einem SaaS-Modell“, weiß Michael Bzdega, So- lution Architect Business Cloud bei proAlpha Software. „Hier bezieht das Unternehmen Software, IT-Services, Support und Hosting aus einer Hand. Die Anwendung ist sehr schnell verfüg- bar und bedingt keine hohen Anfangsinvestitionen in Softwareli- zenzen und Hardware.“ ERP aus der Cloud – ein aktuelles ­Stimmungsbild. Bild:©putilov_denis-Fotolia.com
  50. 50. CIOBRIEFING 09/2017 Seite 50 Aber es gibt noch andere Optionen. „Das Hosting des ERP-Sys- tems in der Cloud ist eine interessante Alternative für Unterneh- men, die ihre IT verschlanken oder ihre ERP-Lösung nicht selbst betreiben möchten“, argumentiert Bzdega. „Soll kurzfristig bei- spielsweise eine neue Produktionsstätte im Ausland angebunden werden, kann eine Mischform aus On-Premise und in der Cloud betriebenem ERP das Modell der Wahl sein.“ Mit anderen Wor- ten: die Hybrid-Cloud. Customizing Ein zentraler Aspekt bei der Auswahl ist die individuelle Anpass- barkeit und Integrierbarkeit einer Cloud-ERP-Lösung. „Ein ERP- System muss individualisierbar sein, auch wenn die Lösung aus der Cloud bezogen wird“, fordert Bzdega. „Denn nur dann wer- den die Geschäftsprozesse im Unternehmen adäquat abgebildet.“ Dies schließe mit ein, dass bereits vorhandene betriebsspezifi- sche Erweiterungen am ERP-Standardsystem bei einem Umzug problemlos mit in die Cloud übernommen werden könnten. In der Regel kann jeder Hersteller und Betreiber die Erweiterung einer Cloud-ERP-Lösung gewährleisten, aber das wirft ein Pro- blem auf: Zuviel Customizing verringert das Maß an Standardi- sierung und erhöht die Herausforderungen hinsichtlich Updates, Upgrades und Migration auf ein größeres, etwa ein branchen- spezifisches ERP-Paket. Rainer Zinow von SAP sieht aber auch einen Bonus in der Cloud-Migration: „Das Rollout eines kom- plett neuen ERPs bietet für mittelständische Unternehmen eine Gelegenheit, bisherige Insellösungen, die nebeneinander existiert haben, zu konsolidieren.“ Erweiterung und Integration „Kleine Unternehmen, die aus ihren Bestandslösungen heraus- wachsen, benötigen oft Funktionen, die dem Unternehmens- wachstum folgen, beispielsweise in der Warenwirtschaft“, er- läutert Thomas Kombrecht, Produkt Marketing Manager für die Microsoft Dynamics-Produkte. „Hingegen erfordern bestimmte Branchen auch spezifische Funktionen. MS Dynamics NAV (vor- mals von Navision) ist einerseits von Beginn an so konzipiert, dass es das Wachstum von Unternehmen nachhaltig unterstützt und verfügt andererseits über ein Partnernetzwerk mit einem breiten Portfolio an Speziallösungen für Branchen oder bran- chenneutrale Workloads.“
  51. 51. CIOBRIEFING 09/2017 Seite 51 Es ist also von Vorteil, dass Partner ihre Erweiterung des ERP- Pakets reibungslos in die Cloud bringen und mit dem Zentral- paket koppeln können. Sowohl Generalisten wie SAP und Mi- crosoft als auch Branchenspezialisten wie ProAlpha können ein solches Ökosystem vorweisen. Rainer Zinow von SAP berichtet: „SAP Cloud-Lösungen sind für eine Vielzahl von Schnittstellen konzipiert. Damit ist es möglich, die besten Cloud-Lösungen mit dem ERP zu verbinden, die Anzahl der Nutzer im System zu er- weitern oder die Zusammenarbeit innerhalb der Wertschöpfungs- kette zu verbessern.“ SAP hatte beispielsweise 2016 die Aufgabe, seine Cloud-Lösungen von Ariba, Concur und Fieldglass mitein- ander zu verbinden. Kürzlich hat Microsoft seine ERP-Suite MS Dynamics 365 Deutschland mit MS Office 365 integriert und in der deutschen Cloud bereitgestellt. „ Teilweise ist es nicht mehr erforderlich, den gewohnten Office-365-Client zu verlassen, sondern die Vorgänge können direkt in MS Outlook bearbeitet werden“, so Kombrecht. Service Level, Performance und Bedienbarkeit Dass die Antwortzeiten der Cloud-Lösung für die Akzeptanz durch die Nutzer ausschlaggebend sind, wird manchmal bei der Auswahl übersehen. Frustrierte Anwender nutzen keine Soft- ware, die im Schneckentempo arbeitet. Wenn der Dienstleister aber zu wenig Arbeitsspeicher bereitstellt, zu langsame Netz- werke betreibt oder kaum Support leistet, muss der SLA-Vertrag dringend nachgebessert werden. Auch in der Auswertung ist Geschwindigkeit gefragt. Was nützt einem ein Report mit veralteten Zahlen? „Wenn Daten aufberei- tet in einem Report vorliegen, sind sie selten vollständig und oft bereits veraltet“, weiß Rainer Zinow von SAP. „Dabei ist ein re- elles Abbild der aktuellen Geschäftssituation kritisch für beinahe alle Bereiche im Unternehmen, um damit jede Entscheidungsfin- dung zu unterstützen. Dafür sollten die Daten einheitlich über das ganze Unternehmen geführt und zugänglich sein, ohne Daten in zweifacher Ausführung.“ Aber auch die Bedienbarkeit einer ERP- Lösung ist ausschlaggebend für die Produktivität ihrer Anwen- der. Sie sollte beispielsweise Responsive Design mit HTML5 oder gleich entsprechend native Apps für Mobilgeräte unterstützen. Datensicherheit und -schutz „Viele mittelständische Unternehmen fühlen sich zunehmend überfordert, wenn sie sich mit immer höherem Aufwand vor IT-

×