Tag: Cisco




Das Rechenzentrum: Die logistische Drehscheibe der Digitalisierung

Digitalisierung. Es ist schon erstaunlich, wie es ein einzelner Terminus geschafft hat, in so kurzer Zeit zu einem Albtraum für Unternehmenslenker und IT-Entscheider weltweit aufzusteigen und zu einer Chance für Startups und neue Märkte zu werden. Was bereits seit vielen Jahren ununterbrochen fortschreitet und mit Kodak oder Blockbuster schon vor Jahren erste Opfer hervorgebracht hat, zeigt seit geraumer Zeit auch deutliche Auswirkungen in anderen Industrien und auf Unternehmen jeglicher Größe. Continue reading “Das Rechenzentrum: Die logistische Drehscheibe der Digitalisierung” »




Tops & Flops der IT-Welt (KW 07/08)

In unserer Rubrik "Tops & Flops" zeigen wir Ihnen auf einen Blick was die IT-Welt in den letzten 14 Tagen bewegt hat. Immer mit einem Augenzwinkern.


Tops  
                                                                           

1.  IBM kauft Analytics Anbieter Truven Health für 2,6 Mrd. Dollar

Dr. Watson, der Arzt dem die Daten vertrauen

Continue reading “Tops & Flops der IT-Welt (KW 07/08)” »



Tops & Flops der IT-Welt (KW 05/06)

In unserer Rubrik "Tops & Flops" zeigen wir Ihnen auf einen Blick was die IT-Welt in den letzten 14 Tagen bewegt hat. Immer mit einem Augenzwinkern.


Tops  
                                                                           

1.  Cisco kauft IoT-Spezialist Jasper Technologies für 1,4 Milliarden Dollar

Internet of Big Things

Continue reading “Tops & Flops der IT-Welt (KW 05/06)” »



Tops & Flops der IT-Welt (KW 44/45)

In unserer Rubrik "Tops & Flops" zeigen wir Ihnen auf einen Blick was die IT-Welt in den letzten 14 Tagen bewegt hat. Immer mit einem Augenzwinkern.

 

Tops                                                                             

1. AWS überschreitet beim Quartalsumsatz die 2 Mrd.-Grenze

The Wolf of Cloud Street

Continue reading “Tops & Flops der IT-Welt (KW 44/45)” »



Deutsches Cloud Rechenzentrum: Microsoft zeigt Amazon, Salesforce und Co. wie es richtig geht!

Gutes braucht Zeit. So scheint es auch bei Microsoft der Fall zu sein. Nachdem neben den Amazon Web Services alle relevanten Public Cloud Anbieter mit einem Rechenzentrum den deutschen Markt erreicht haben, startet nun auch das Unternehmen aus Redmond nach zweijähriger Planungsphase seine Cloud-Angebote auf deutschem Boden. Continue reading “Deutsches Cloud Rechenzentrum: Microsoft zeigt Amazon, Salesforce und Co. wie es richtig geht!” »



Tops & Flops der IT-Welt (KW 20/21)

In unserer Rubrik "Tops & Flops" zeigen wir Ihnen auf einen Blick was die IT-Welt in den letzten 14 Tagen bewegt hat. Immer mit einem Augenzwinkern.

Tops                                                                             

1. Salesforce schreibt wieder schwarze Zahlen

Black is beautiful Continue reading “Tops & Flops der IT-Welt (KW 20/21)” »




Cisco – das nächste prominente Opfer der Cloud

Haltet den Dieb! So schreien es die Lenker großer US Tech-Majors den Finanzmärkten zu und meinen damit die NSA-Affäre, die ihnen angeblich die Geschäftszahlen ruiniert. Cisco hat allerdings gerade bei der Vorlage seiner Quartalszahlen bewiesen, dass dem gar nicht so ist. Weltweit war der Umsatz um knapp 8 Prozent rückläufig, und das auch nur auf Kosten des Gewinns, es war also auf der Vertriebsseite sehr teuer überhaupt an diesen Punkt zu gelangen. Die Umsatzrückgänge in Nord- und Südamerika lagen sogar bei fast 13 Prozent. Es muss also andere Gründe als die NSA geben. Und die sind hausgemacht. Denn Cisco hat wie viele andere unterschätzt, welche Veränderungen das Thema Cloud Computing direkt und indirekt mit sich bringen wird. Continue reading “Cisco – das nächste prominente Opfer der Cloud” »



Fog Computing: Der effiziente Pfad der Daten und Anwendungen zum Endnutzer

Nachdem sich die Cloud auf einem guten Weg befindet in der Breite adaptiert zu werden, folgen erste Konzepte, um die Nutzung skalierbarer und flexibler Infrastrukturen, Plattformen und Applikationen um weitere Services zu erweitern, um die Daten und Informationen schneller an den Endnutzer auszuliefern. Das ist im Kern genau die Aufgabe des Fog Computing. Der Fog soll dafür sorgen, dass Cloud Services, Rechenleistung, Speicherplatz, Workloads, Anwendungen und große Datenmengen an jegliche Ecken (Edge) eines Netzwerkes (Internet) auf einer echten verteilten Art und Weise bereitgestellt werden.  Continue reading “Fog Computing: Der effiziente Pfad der Daten und Anwendungen zum Endnutzer” »



Das Business im Internet of Everything, Hybrid Cloud, Ein Koffer auf Reisen #tsy13

Während der Breakout Sessions auf dem T-Systems Symposium habe ich mir drei Themen angehört. Jeweils eines aus dem Bereich Cloud, Mobile und Collaboration bzw. The Internet of Things. Ich werde zu jedem dieser Themen zwar in den kommenden Tagen noch eine ausführliche Analyse bzw. ein Kommentar schreiben. Dennoch möchte ich schon einmal einen kurzen Vorgeschmack geben, da es sich dabei wirklich um interessante Use Cases handelt.

Geschäftstransformation im Zeitalter von Collaboration und „Internet of Everything“ (IoE)

Cisco sieht seine Zukunft als Enabler des Internet of Everything (IoE). Der Unterschied zu dem viel diskutierten Internet of Things (IoT) besteht in der Anzahl der miteinander vernetzten Objekte. Wo es sich beim IoT um die Kommunikation von Menschen mit Maschinen und Maschinen untereinander handelt, geht es beim IoE um Menschen, Prozesse, Daten und Dinge. Es geht also um deutlich mehr Konnektivität. Cisco sieht aus diesem Grund im Jahr 2020 in etwa 50 Billionen Smart Objects weltweit, die miteinander verbunden sind. Dabei soll in Zukunft Fog Computing unterstützen, welches ich erst vor kurzem vorgestellt und analysiert habe.

Ready for Hybrid Cloud mit T-Systems DSI vCloud = VMware vCloud™ Datacenter Services

Eine VMware Studie hat ergeben, dass 37 Prozent der führenden europäischen IT-Entscheider nicht erfasste Ausgaben für Cloud Services in ihrem Unternehmen vermuten. Dabei würden 58 Prozent der europäischen Wissensarbeiter ungenehmigte Cloud Services nutzen. VMware sieht eine Lösung im IT-as-a-Service. Dabei stellen sich die IT-Abteilungen als Mitbewerber zu externen Service Anbietern auf. VMware merkt aber auch an, dass historisch entstandene IT-Silos wie Storage, Netzwerk, Server, Windows, Unix oder Linux die größten Herausforderungen für IT-as-a-Service sind. Dabei soll das Software-defined Data Center, was aus den Komponenten virtualisierte Server, Software-defined Network und Software-defined Storage besteht, helfen. Das stellt für Unternehmen dann die Grundlage dar, um über eine Hybrid Cloud Workloads bei Bedarf in ein zertifiziertes vCloud Datacenter zu migrieren.

Bag2Go: Der moderne Koffer geht allein auf Reisen

Airbus will mit seinem Bag2Go, einem intelligenten Koffer, den Menschen von seinem Gepäck trennen. Das bedeutet, dass ein Koffer auch eine andere Route zum Reiseziel nehmen kann als der Reisende. Hierzu bietet der Koffer verschiedene Eigenschaften: Selbständige Gewichtsanzeige, automatisierter Check-In und selbstständige Beförderung. Auch die ständige Verfolgung des Koffers und sein Status sind möglich. Airbus verspricht, dass für den Einsatz des Koffers keine Änderungen an der bestehenden Infrastruktur an den Flughäfen notwendig ist. Airbus Ziel besteht darin, in Zukunft vollständig vernetzte Transportkapseln als Standard zu etablieren. Ein Internet of Things Use Case. Bag2Go nutzt als Infrastruktur die Business Cloud von T-Systems.



Fog Computing: Daten, Informationen, Anwendungen und Services müssen effizienter zum Endnutzer

Richtig gelesen, hier geht es nicht um CLOUD Computing sondern um FOG Computing. Nachdem sich die Cloud auf einem guten Weg befindet in der Breite adaptiert zu werden, folgen erste Konzepte, um die Nutzung skalierbarer und flexibler Infrastrukturen, Plattformen und Applikationen um weitere Services zu erweitern, um die Daten und Informationen schneller an den Endnutzer auszuliefern. Das ist im Kern genau die Aufgabe des Fog Computing. Der Fog soll dafür sorgen, dass Cloud Services, Rechenleistung, Speicherplatz, Workloads, Anwendungen und große Datenmengen an jegliche Ecken (Edge) eines Netzwerkes (Internet) auf einer echten verteilten Art und Weise bereitgestellt werden.

Was bedeutet Fog Computing?

Der Fog hat die Aufgabe, Daten und Workloads näher an den Nutzer zu bringen, der sich am Rande einer Datenverbindung befindet. In diesem Zusammenhang wird dann auch vom „Edge Computing“ gesprochen. Der Fog befindet sich organisatorisch unterhalb der Cloud und dient als optimiertes Übertragungsmedium für die Services und Daten, die sich in der Cloud befinden. Der Begriff „Fog Computing“ wurde von Cisco als ein neues Paradigma geprägt, der verteilte Endgeräte innerhalb des Internet of Things bei dem kabellosen Datentransfer unterstützen soll. Fog Computing baut konzeptionell auf bestehende und weit verbreitete Technologien wie den Content Delivery Networks (CDN) auf, soll aber, auf Grund von Cloud Technologien, das Bereitstellen von viel komplexeren Services ermöglichen.

Da immer größere Datenmengen an eine immer größer werdende Anzahl an Benutzern ausgeliefert werden müssen, sind Konzepte notwendig, welche die Idee der Cloud verbessern und es Unternehmen und Anbietern ermöglichen, ihre Inhalte an den Endkunden über eine geographisch weit verbreitete Plattform bereitzustellen. Fog Computing soll dabei helfen, die verteilten Daten näher an den Endkunden zu transportieren und dabei die Latenz und Anzahl der dafür benötigten Hops zu verringern und Mobile Computing und Streaming Services dadurch besser zu unterstützen. Neben dem Internet of Things ist die steigende Nachfrage der Nutzer, zu jeder Zeit, von jedem Ort und mit jedem Gerät auf ihre Daten zugreifen zu können, ein weiterer Grund, warum die Idee des Fog Computing an Bedeutung zunehmen wird.

Was sind Use Cases von Fog Computing?

Man sollte sich von diesem neuen Begriff nicht zu sehr verwirren lassen. Zwar handelt es sich beim Fog Computing um eine neue Terminologie. Schaut man jedoch hinter die Fassade wird schnell deutlich, dass diese Technologie bereits in modernen Rechenzentren und der Cloud eingesetzt wird. Der Blick auf ein paar Use Cases verdeutlicht dies.

Nahtlose Integration mit der Cloud und anderweitigen Services

Der Fog soll die Cloud nicht ersetzen. Durch Fog Services soll die Cloud erweitert werden, indem die Nutzerdaten isoliert werden, die sich ausschließlich am Rande (Edge) eines Netzwerks befinden. Von dort aus soll es Administratoren ermöglicht werden, analytische Auswertungen, Sicherheitsfunktionen und weitere Services direkt mit eigenen Cloud Modell zu verbinden. Die Infrastruktur wird hierbei weiterhin vollständig auf dem Cloud Konzept basieren, am Rande jedoch um das Fog Computing erweitert.

Services die vertikal auf der Cloud aufsetzen

Viele Unternehmen und unterschiedliche Arten von Services nutzen bereits die Ideen des Fog Computing, indem sie umfangreiche Inhalte zielgerichtet an ihre Kunden ausliefern. Dazu gehören u.a. Webshops oder Anbieter von Medieninhalten. Ein gutes Beispiel hierfür ist Netflix, die damit ihre zahlreichen weltweit verteilten Kunden erreichen können. Mit der Datenhaltung in einem oder zwei zentralen Rechenzentren wäre die Auslieferung des Video on-Demand Service sonst nicht effizient möglich. Fog Computing ermöglicht somit das Bereitstellen von sehr großen gestreamten Datenmengen, indem die Daten performant direkt in die Nähe des Endkunden ausgeliefert werden.

Bessere Unterstützung für mobile Endgeräte

Mit dem stetigen Wachstum mobiler Endgeräte und Daten erhalten Administratoren durch Fog Computing mehr Kontrollmöglichkeiten darüber, wo sich die Nutzer gerade befinden, von wo sie sich anmelden und wie sie auf Informationen zugreifen. Dies führt neben einer höheren Geschwindigkeit für den Endnutzer ebenfalls zu einer höheren Sicherheit und Datenschutz, indem die Daten an unterschiedlichen Eckpunkten kontrolliert werden können. Zudem erlaubt Fog Computing eine bessere Integration mit verschiedenen Cloud Services und sorgt somit für eine optimierte Verteilung über mehrere Rechenzentren hinweg.

Aufbau einer sehr engen geographischen Verteilung

Fog Computing erweitert bestehende Cloud Services, indem es ein Edge Network aufspannt, das aus vielen verteilten Endpunkten besteht. Diese dichte geographisch verteilte Infrastruktur bietet Vorteile für unterschiedliche Use Cases. Dazu gehören eine schnellere Erhebung und Analyse von Big Data, eine bessere Unterstützung für Location-based Services indem sich die gesamten WAN Strecken besser überbrücken lassen, sowie die Möglichkeit, Daten in Echtzeit und dazu noch massiv skalierbar auszuwerten.

Daten befinden sich nah beim Nutzer

Die Menge an Daten, die durch Cloud Services entsteht, erfordert das Caching der Daten oder weitere Services, die sich dieser Thematik annehmen. Diese Services befinden sich in der Nähe des Endnutzers, um damit die Latenz zu verbessern und den Datenzugriff zu optimieren. Anstatt die Daten und Informationen zentral in Rechenzentren weit entfernt von dem jeweiligen Nutzer abzulegen, sorgt der Fog für die direkte Nähe der Daten beim Kunden.

Fog Computing ergibt einen Sinn

Man kann von Buzzwords halten was man möchte. Erst wenn man hinter die Kulisse schaut wird es interessant. Denn je mehr Services, Daten und Applikationen für den Endnutzer bereitgestellt werden, desto mehr haben die Hersteller die Aufgabe Wege zu finden, um die Bereitstellungsprozesse zu optimieren. Das bedeutet, dass Informationen näher an den Nutzer herangetragen und gleichzeitig die Latenzen verringert werden müssen, um auf das Internet of Things vorbereitet zu sein. Es besteht kein Zweifel daran, dass die Consumerization of IT und BYOD die Nutzung und demnach den Verbrauch an Bandbreiten ansteigen lassen werden.

Immer mehr Nutzer greifen auf mobile Lösungen zurück, um ihre Geschäfte abzuwickeln und mit dem Privatleben in Einklang zu bringen. Immer reichhaltigere Inhalte und Daten werden über Cloud Computing Plattformen an die "Ecken" des Internets ausgeliefert wo gleichzeitig die Bedürfnisse der Anwender immer größer werden. Mit der Zunahme der Daten-und Cloud-Services Nutzung wird Fog Computing eine zentrale Rolle spielen und dabei helfen die Latenzen zu verringern und die Qualität für den Nutzer zu verbessern. In Zukunft werden wir neben immer größeren Datenmengen ebenfalls mehr Services sehen, die auf Daten zurückgreifen und dem Nutzer effizienter bereitgestellt werden müssen. Administratoren und Anbieter erhalten durch Fog Computing die Möglichkeit ihren Kunden umfangreiche Inhalte deutlich schneller und effizienter und vor allem viel wirtschaftlicher bereitzustellen. Dies führt zu einem schnelleren Zugriff auf die Daten, bessere Auswertungsmöglichkeiten für Unternehmen und gleichermaßen zu einer verbesserten Nutzung für den Endnutzer.

In erster Linie wird Cisco das Wort Fog Computing prägen wollen, um es für s(eine) groß angelegte Marketingkampagne zu nutzen. Allerdings, spätestens wenn der Fog einen ähnlichen Buzz wie die Cloud erzeugt, werden wir immer mehr CDN oder anderweitige Hersteller, die etwas in die Richtung anbieten, als Fog-Anbieter wiederfinden.



Cisco, EMC und VMware bilden Ausbildungs-Initiative für Cloud Computing und Big Data

Wenn Cloud Computing in die Unternehmen einzieht, werden IT-Profis umdenken und ihre Kenntnisse und Fähigkeiten stetig erweitern müssen, um den Nutzen von Cloud Computing, Virtualisierung, Unified Networking und Big Data für das Unternehmen zu erkennen und anzuwenden. Vorbei sind die Zeiten sich großartig mit der Installation von Hard- und Software zu beschäftigen. Es ist dann an der Zeit, dem Unternehmen auf Basis dieser neuen Technologien und Paradigmen einen Wettbewerbsvorteil zu verschaffen.

Weiterbildung in Zeiten von Cloud Computing und Big Data ist für IT-Profis von besonderer Wichtigkeit!

Cisco, EMC und VMware werden in Zukunft in diesem Bereich kooperieren und haben eine Ausbildungs-Initiative gegründet, mit der sich IT-Profis im Bereich Rechenzentrum usw. weiterbilden sollen, um den neuen Job Anforderungen gerecht zu werden. Unternehmen werden mittelfristig auf konvergente Infrastrukturen umsteigen, auf Cloud Architekturen umstellen und sich mit der Verwaltung riesiger Datenmengen (Big Data) konfrontiert sehen. Darauf müssen Unternehmen als auch die Mitarbeiter reagieren.

Eine Frage besteht bspw. darin, wie man aus klassischen Rechenzentren virtuelle macht und auf dieser Basis anschließend Cloud-basierte Rechenzentren aufbaut. Als Systemadministrator, Datenbankadministrator oder Netzwerkadministrator muss man letztendlich verstehen, wie die einzelnen Technologien in einem Cloud Rechenzentrum zusammenspielen.

Die Ausbildungs-Initiative der drei Anbieter wird mit Ressourcen von VMware unterstützt und bietet Kursunterlagen und Zertifizierungen für Cloud Architekturen, Virtualisierung, Storage, Data Center Networking und Data Science. Die einzelnen Bereiche sind nach spezifischen Job Rollen wie Cloud Architekt, Systemadministrator, Backup und Recovery, Rechenzentrum Design und Data Scientist sortiert.

Jeder Kurs des Ausbildungsmodells hat einen vorgegeben Pfad und das Ziel, Experten auszubilden. Zum Beispiel muss ein Systemadministrator folgende Kurse belegen um zu bestehen:

  • Cloud Infrastructure und Services
  • VMware vSphere: Installieren, Konfigurieren, Verwalten
  • Cisco Data Center Unified Computing Implementation (DCUCI)

Für jemanden, der sich als Netzwerk Architekt im Rechenzentrum fortbilden möchte, benötigt die folgenden Kurse:

  • EMC Cloud Infrastructure and Services
  • Cisco Data Center Unified Fabric (DCUFD)
  • Configuring Cisco Nexus Data Center (CCNDC)

Die Kurse können entweder als ein Bundle oder einzeln absolviert werden. Die Kurse können im Frontalunterricht mit einem Kursleiter in einem Trainingszentrum, über Video oder mit einem Lehrer vor Ort beim Kunden belegt werden.

PS: Ein Blick auf die Kurse zeigt natürlich deutlich, dass man hier kein Generalist wird, sondern speziell auf die Technologien von Cisco, EMC und VMware geschult wird!


Bildquelle: http://www.competence-site.de



Terremark startet Private Cloud Service

Terremark startet einen neuen Private Cloud Services, der es Unternehmen ermöglicht die Last via Cloud Bursting in Public Clouds inkl. den Amazon Web Services auszulagern. Der Service richtet sich in erster Linie an Branchen wie Finanzdienstleistungen oder Regierungsbehörden, die zwar an Cloud Services interessiert sind, aber Public Clouds nicht nutzen können bzw. dürfen.

Der Private Cloud Service wird auf der Infrastruktur von Terremark gehostet und stellt dem Nutzer dedizierte und skalierbare Rechenleistung und Speicherplatz bereit. Zudem kann die Last auf Public Clouds wie z.B. den Amazon Web Services ausgelagert werden.

In diesem Fall wird auch vom sogenannten Cloud Bursting gesprochen, wodurch sich automatisch eine Hybrid Cloud aufspannt. Zum Beispiel sind E-Commerce Anbieter zwar daran interessiert die Verarbeitung der Daten in einer Public Cloud vorzunehmen, die Daten selbst aber in der Private Cloud gespeichert werden sollen.

Die Terremark Cloud basiert auf einem VMware Hypervisor und beinhaltet weitere Technologien von Cisco, Citrix und weiteren Herstellern.


Bildquelle: http://www.cnmeonline.com