Tag: Amazon


Google Cloud Platform vs. Amazon Web Services – Ein erster Vergleich

Nachdem Google sein Cloud Portfolio mit der Compute Engine erweitert hat, fangen erste Medien an darin den Killer der Amazon Web Services zu sehen. Ein Grund mal die Cloud Services von Google und Amazon gegenüberzustellen. Wer sich für einen direkten Vergleich von Microsoft Windows Azure mit den Amazon Web Services interessiert, sollte hier weiterlesen.

Der Vergleich: Google Cloud vs. Amazon Cloud

Die folgende Tabelle stellt das Cloud Services Portfolio 1:1 gegenüber und schafft Klarheit, wer in welchem Bereich was anbietet, wie der Name des jeweiligen Service lautet und unter welcher URL weitere Informationen zu diesem zu finden sind.

Funktion

Amazon Web Services

Google Cloud Platform

Rechenleistung

Virtuelle Maschinen Elastic Compute Cloud Full Virtual Machines (Google Compute Engine)
High Performance Computing Cluster Compute Instances
-
MapReduce Elastic Map Reduce Google App Engine
Dynamische Skalierung Auto Scaling Google Compute Engine

Speicher

Unstrukturierter Speicher Simple Storage Service Google Cloud Storage
Flexible Entities SimpleDB
-
Block Level Storage Elastic Block Store Persistent disk (Google Compute Engine)

Datenbanken

RDBMS Relational Database Service Google Cloud SQL, BigQuery
NoSQL DynamoDB "Google F1"

Caching

CDN CloudFront
-
In-Memory ElastiCache
-

Netzwerk

Load Balancer Elastic Load Balancer
-
Hybrid Cloud Virtual Private Cloud
-
Peering Direct Connect
-
DNS Route 53 Public DNS

Messaging

Async Messaging Simple Queue Service
-
Push Notifications Simple Notification Service
-
Bulk Email Simple Email Service
-

Monitoring

Ressourcen Monitoring CloudWatch
-

Sicherheit

Identitätsmanagement Identity Access Management
-

Deployment

Ressourcenerstellung CloudFormation
-
Web Application Container Elastic Beanstalk Google App Engine

Wie man sieht, ist das Google Cloud Portfolio im Vergleich zum Service Angebot der Amazon Web Services noch sehr dünn. Falls ich etwas bei Google übersehen habe, macht mich darauf bitte aufmerksam. Ich werde das dann umgehend nachtragen.



Google präsentiert sein eigenes Infrastructure-as-a-Service Angebot offenbar während der Google I/O

Nachdem bereits Mitte Mai erste Gerüchte um ein Infrastructure-as-a-Service (IaaS) Angebot aus dem Hause Google aufkamen, spekuliert GigaOm weiter, dass der Suchmachinengigant den Service in dieser Woche während seiner jährlichen Entwicklerkonferenz Google I/O in San Francisco präsentieren wird.

Google präsentiert sein eigenes Infrastructure-as-a-Service Angebot offenbar während der Google I/O

Google steht im Markt zwei festen Größen gegenüber. Zum einen die Amazon Web Services, zum anderen Microsoft Windows Azure. Da auch Microsoft sein ursprüngliches Platform-as-a-Service Angebot mittlerweile zu einem vollständigen Cloud Stack mit IaaS ausgebaut hat, sieht es danach aus, dass sich ein Dreikampf um die Vorherrschaft in der Cloud entwickeln wird.

Wie Googles Strategie in der Cloud aussehen wird ist schwierig vorherzusagen. Auf der einen Seite gehört die Entwicklergemeinde zu Googles Zielgruppe, die wiederum auch zu Microsoft Schwerpunkt zählt und in dem die Redmonder wirklich sehr stark aufgestellt sind. Zum anderen wird sich Amazon als der größte Mitbewerber im IaaS Bereich herausstellen, die ebenfalls die Entwickler Communities beackern und sich zudem um Microsoft Entwickler bemühen.

Während Amazon derzeit noch verstärkt um die Startups dieser Welt bemüht ist und langsam versucht in die Unternehmen zu gelangen, bleibt der Markt für etablierte Unternehmenskunden den Public Cloud Playern dennoch weitestgehend verschlossen. Ob Google daran etwas ändern kann wird sich zeigen. Allerdings kristallisiert sich langsam der Trend heraus, dass Unternehmen sich vermehrt auf die Private Cloud konzentrieren und Entwickler sowie Startups sich zunächst die Public Cloud zu nutze machen. Letztendlich geht es immer um den Use Case.



Die Amazon Web Services überarbeiten ihre Support Angebote

Nachdem mit HP und Oracle nun zwei große der Branche ebenfalls beim Cloud Computing mitspielen, haben die Amazon Web Services (AWs) ihre Support Angebote überarbeitet. AWS hat entsprechend die Preise für seinen Premium Support verringert und wird seinen Gratis Support ausweiten.

Neben den Startups versucht Amazon seit längerer Zeit vehement auch einen Fuß bei den Enterprise Kunden in die Tür zu bekommen. Allerdings haben etablierte Anbieter wie HP und Oracle bereits mehr Erfahrung im Support für Unternehmenskunden und werden das als ein Unterscheidungsmerkmal zu Amazon sehen und bewerben. Kein Wunder also, das AWS hier nachziehen muss.

Die neuen AWS Support Angebote gliedern sich in Zukunft wie folgt:

  • Basic: Kostenloser 24x7 Support für alle AWS Kunden. Das beinhaltet Kontakt zum Kundenservice bzgl. Problemen mit dem Account und der Abrechnung sowie einem technischem Support für Probleme des AWS Systems. Darüber hinaus stehen mit technischen FAQs, Best Practise Guidelines und dem AWS Service Health Dashboard, ebenfalls die offiziellen AWS Entwickler Foren offen.
  • Developer: Ist vergleichbar mit einem Bronze Support und bietet für 49 US-Dollar pro Monat einen 1:1 E-Mail Kontakt mit Experten von AWS während der normalen Geschäftszeiten. Dazu gehören die Hilfe bei der Konfiguration, dem Betrieb und der Wartung von Applikationen, welche die Kernfunktionen- und Services von AWS nutzen.
  • Business: Nannte sich vormals Gold Support und beinhaltet den Basic und Developer Support. Hinzukommen ein 24/7 Telefon-, E-Mail und Chat-Support inkl. einer Reaktionszeit von einer Stunde sowie die Unterstützung durch einen AWS Trusted Advisor, der für die Überwachung zuständig ist und bei einem optimalem Betrieb hilft. Der Support deckt zudem die Lösungen von Drittanbietern wie E-Mail- und Datenbanklösungen ab. Die Kosten betragen ab sofort 100 US-Dollar pro Monat (vormals 400 US-Dollar) plus 3%-10% von den monatlichen Kosten für die Nutzung der AWS Infrastruktur.
  • Enterprise: Nannte sich zuvor Platinum Support und wird nun pro Nutzung abgerechnet. AWS garantiert hier eine Reaktionszeit von 15 Minuten nach Eingang des Problems, einen persönlichen technischen Ansprechpartner sowie Zugang zu AWS Architekten und Beratern.

Die neue Kostenstruktur für den AWS Support

Die Amazon Web Services überarbeiten ihre Support Angebote


Bildquelle: http://www.activegarage.com/



AWS Identity and Access Management (IAM) Rollen für EC2 Instanzen

Amazon erweitert seinen AWS Identity and Access Management (IAM) Service um Rollen für Amazon EC2 Instanzen. Das schreibt das Unternehmen auf seinem Blog. Die neue Funktion ermöglicht den sicheren API-Zugriff von Amazon EC2 Instanzen auf andere AWS Services.

Bisher mussten die Access Keys in irgendeiner Form sicher auf die EC2 Instanzen transportiert und dort hinterlegt werden. Das stellt insbesondere beim Aufbau großer skalierbarer Infrastrukturen eine Herausforderungen dar. Zudem muss sichergestellt werden, dass sich die Schlüssel regelmäßig ändern. Die neuen IAM Rollen für EC2 Instanzen kümmern sich ab sofort automatisch um beides. Dazu wird eine IAM Rolle erstellt und diese den entsprechenden Berechtigungen zugewiesen. Die EC2 Instanzen müssen anschließend mit dieser Rolle gestartet werden. Anschließend sorgt das System dafür, das die jeweiligen Access Keys mit den vorher zugewiesenen Berechtigungen auf den EC2 Instanzen hinterlegt sind.

IAM Rollen für EC2 Instanzen können mit folgenden Ressourcen genutzt werden:

  • Alle EC2 Instanten
  • Linux und Windows Instanzen
  • Alle AMIs
  • Amazon VPC
  • Spot und Reserved Instances
  • Regionen: Nordamerika, Südamerika, Europa, Asien/Pazifik

Das Rollenkonzept wurde ebenfalls in die Services Auto Scaling und AWS CloudFormation integriert, wodurch auch diese nun EC2 Instanzen inkl. IAM starten können. Die Unterstützung für AWS GovCloud wird demnächst folgen.


Bildquelle: http://www.busmanagement.com



Amazon Spot Instanzen unterstützen nun Auto Scaling und CloudFormation

Die Amazon EC2 Spot Instances können nun auch zusammen mit dem Auto Scaling und der AWS CloudFormation genutzt werden. Das schreibt AWS auf seinem Unternehmensblog. Weiterhin stehen neue Code Beispiele bereit, mit denen gezeigt wird, wie die Amazon SNS genutzt werden können, um sich über Änderungen an den Spot Instance Preisen informieren zu lassen.

Amazon Spot Instances unterstützen nun Auto Scaling und CloudFormation

Auto Scaling mit Spot Instances

Anhand der Auto Scaling Funktion lässt sich jetzt auch die Anzahl der EC2 Spot Instances bei Bedarf automatisch skalieren. Mit Spot Instances bietet ein Kunde auf ungenutzte Amazon EC2 Kapazitäten. Dazu teilt man Amazon mit, welche EC2 Instanz man gerne haben möchte und was man bereit ist dafür zu bezahlen. Anhand von Angebot und Nachfrage wird ein Spot-Preis ermittelt.

AWS CloudFormation mit Spot Instances

EC2 Spot Instances lassen sich zudem nun auch über AWS CloudFormation Templates bereitstellen. Dazu stellt AWS entsprechend drei neue CloudFormation Templates zur Verfügung, um den Einstieg zu vereinfachen. Diese Templates beinhalten bspw. ein Template für die Verwaltung der asynchronen Verarbeitung mit Amazon SQS und Auto Scaling, ein Template für den Lasttest von Webseiten zusammen mit "Bees with Machine Guns" und Auto Scaling sowie einem Template für das Grid Computing in Verbindung mit StarCluster.

Neue Code Beispiele für Amazon SNS

Mit einem neuen Code Beispiel werden zudem nun Möglichkeiten gezeigt, wie man Amazon SNS Benachrichtigungen erstellen und verwalten kann, wenn sich der Status von Amazon EC2 Spot Instanzen oder der Preis von Spot Instanzen in einer bestimmten Region ändert.



AWS ermöglicht ab sofort API Zugriff auf die Abrechnungsdaten

Fast kein Tag, an dem bei den Amazon Web Services (AWS) nichts passiert. Der Innovationsgrad ist erschreckend hoch. Da lohnt sich ja fast ein eigener AWS Blog. ;) Mit der neuesten Funktion bietet Amazon nun den programmatischen Zugriff via API auf die Abrechnungsdaten.

AWS ermöglicht ab sofort API Zugriff auf die Abrechnungsdaten

Dafür muss dem AWS Billing System zunächst der Schreibzugriff auf einen Amazon S3 Bucket (Ordner) gegeben werden. Anschließend muss der programmatische Zugriff hier freigeschaltet werden.

Ist die Einrichtung erfolgt, legt Amazon mehrmals täglich eine Rechnung mit den voraussichtlichen Kosten in den angegeben S3 Bucket ab, wo diese heruntergeladen und weiterverarbeitet werden können. Am Ende einer jeden Abrechnungsperiode wird dort zudem die endgültige Rechnung bereitgestellt.

Folgende Parameter können aus den Abrechnungsdaten abgefragt werden. Detaillierte Informationen stehen hier:

  • Invoice ID
  • Payer Account Name and ID
  • Linked Account Name and ID (for Consolidated Billing)
  • Record Type
  • Record ID
  • Billing Period Start and End Dates
  • Invoice Date
  • Taxation Address
  • Payer Purchase Order Number
  • Product Code
  • Product Name
  • Seller of Record
  • Usage Type
  • Operation
  • Rate ID
  • Item Description
  • Usage Start and Usage End Date and Time
  • Usage Quantity
  • Blended Rate (for Consolidated Billing)
  • Currency Code
  • Cost Before Tax
  • Credits
  • Tax Amount
  • Tax Type
  • Total Cost

Die meisten der oben genannten Parameter ergeben nur im Zusammenhang mit dem Consolidated Billing einen Sinn. Kurzum kann ein AWS Kunde damit mehrere AWS Accounts unter einer einzigen Rechnung zusammenfassen.

Die erzeugten Dokumente können in einem beliebigen S3 Bucket gespeichert werden. Man sollte sich jedoch bewusst machen, dass man als Kunde selbst für die dadurch entstehenden Kosten des genutzten Speicherplatz zahlt. Nach der Weiterverarbeitung können diese Daten aber natürlich wieder gelöscht werden.



Amazon Web Services – Das Mekka der Startups! Aber reicht das wirklich aus?

Die Amazon Web Services sind insbesondere bei Startups sehr beliebt. Der unkomplizierte Zugriff auf Infrastruktur Ressourcen haben es Unternehmen wie Pinterest ermöglicht, innerhalb kürzester Zeit einen fullminanten Start hinzulegen und ohne große Investitionen in eigene Infrastruktur zu wachsen. So sagt Pinterest sogar von sich selbst, dass sie ohne AWS nicht so darstehen würden wie heute. Jedoch lässt sich das große Geld bei den großen Unternehmen verdienen. Dafür hat Amazon in den vergangenen Wochen und Monaten einige strategische Entscheidungen in diese Richtung getroffen. Aber ist das Unternehmen überhaupt in der Lage mit seinem Public Cloud Angebot im lukrativen Markt für Geschäftskunden mitzuspielen oder bleiben sie eine reine Anlaufstelle für Startups?

Die Referenzen von Amazon sind beeindruckend

Ein Blick auf die Referenzen der Amazon Web Services beeindruckt. Im Laufe der Jahre sind auf der Public Cloud Infrastruktur eine Vielzahl von bekannten und in der Internetwelt hochgelobte Angebote entstanden. Zusätzlich hat sich um die AWS Solution Provider ein Ökosystem gebildet, die mit Clients, Add-On Services und Consulting die Amazon Cloud erweitern. Der jüngste Geniestreich im Ökosystem war die Veröffentlichung des AWS Marketplace, über den Anbieter und Kunden SaaS Anwendungen auf Basis des Pay per use anbieten und beziehen können.

Startups sind undankbar

Aber in dieser so scheinbar perfekten Welt gibt es auch Dinge zu hinterfragen. So wirbt Amazon auf seinen Veranstaltungen und in sonstigen Vorträgen vehement um die Aufmerksamkeit der Startups. Mit einem guten Grund. Wie ich eingangs geschrieben habe, erhalten Startups bei Amazon schließlich auch sehr unkompliziert die Ressourcen die sie benötigen. Aber lässt sich nur mit Startups wirklich viel Geld verdienen? Frank Sempert von Saugatuck Technology ist bspw. der Meinung, dass Amazon mit seinem Cloud Geschäft derzeit nicht viel verdient. Vielmehr geht er von Gewinnmargen im einstelligen Bereich aus und schätzt, dass Amazon frühestens ab dem Jahr 2015 höhere Margen zwischen 20 und 30 Prozent einfahren wird.

Ein weiterer Punkt: Startups sind undankbar! Ein Beispiel ist Zynga. Nachdem das Unternehmen in der AWS Cloud wachsen konnte, haben sie Amazon den Rücken gekehrt und sind in die eigene Private Cloud geflüchtet. So wird es in Zukunft auch mit anderen Kunden weitergehen. Denn die Amazon Cloud ist für junge Unternehmen ideal um zu wachsen und dabei auszutesten, wann sich das Wachstum bis zu einem gewissen Grad einstellt. Nachdem sich ein Maximum eingestellt hat, werden viele merken, dass eine On-Premise Lösung vielleicht doch die bessere und kostengünstigere Variante ist. Wenn der Kuchen also eine gewisse Größe erreicht hat, wird Amazon in vielen Fällen nicht davon kosten dürfen.

Auf ins Big Business

Das Ziel muss also darin bestehen, ebenfalls etablierte Unternehmen mit ins Kundenportfolio zu bekommen. Ein Blick auf die Referenzenliste zeigt nämlich nicht viele große und etablierte Kunden, was natürlich daran liegen kann, dass diese nicht kommuniziert werden möchten. Das hat Amazon aber bemerkt und ist seit Monaten weltweit auf der Suche nach neuen Mitarbeitern. Zudem bietet das Unternehmen ebenfalls einen Premium Support.

Allerdings ergibt sich für AWS hier ein Problem. Unternehmen setzen vermehrt auf das Cloud Computing. Allerdings zieht es die meisten in die Private Cloud, wobei weniger auf die Kosten und mehr auf das Thema Agilität geachtet wird. Public Clouds werden, auf Grund des Datenschutzes und eines möglichen Lock-in, der bspw. mit Services wie DynamoDB oder dem Amazon Simple Workflow auf jedenfall gegeben ist, eher abgelehnt.

Die Public Cloud wird in Zukunft daher nicht das Maß aller Dinge sein. Sie diente eher als aha Effekt bzw. Referenz für Unternehmen, um zu sehen, was Cloud Computing für Möglichkeiten bietet. Einen ersten richtigen Schritt hat Amazon daher mit der Eucalyptus Kooperation gemacht. Die Zusammenarbeit wird für Amazon der notwendige Türöffner sein, um auf Basis einer Hybrid Cloud attraktive Unternehmen anzusprechen und entsprechende Workloads oder Anwendungen in einem hybriden Modell zu betreiben.

Fazit

Die Amazon Web Services müssen den Sprung ins Big Business schaffen, denn nur mit Startups lässt sich kein Geld verdienen. Ich lasse mich natürlich gerne vom Gegenteil überzeugen, allerdings verhält sich Amazon hier sehr verschlossen und schlüsselt die Zahlen für die Amazon Web Services nicht detailliert auf.

Die aktuelle Entwicklung zeigt, dass sich das Cloud Computing bei etablierten Unternehmen mehr in die Richtung der Private Cloud orientieren wird. Ein erster strategischer Schritt war daher die Kooperation mit Eucalyptus Cloud, um den Hybrid Cloud Gedanken zu vertiefen, der mit dem VPC Service (Virtual Private Cloud) bereits seit längerem existiert. Es ist schwierig zu sagen, ob das allerdings reichen wird. Da es sich bei den Amazon Web Services jedoch um ein reines Service Unternehmen und kein Software Unternehmen handelt, werden sie den Schritt in ein reines Private Cloud Angebot nicht wagen (können). Selbst die Akquisition von Eucalyptus wäre zwar früher oder später vorstellbar, jedoch würde sich Amazon damit die Probleme eines Software Unternehmens ins Haus holen, indem sie dann auch für den Support der On-Premise Software, Upgrades, Bugfixes usw. zuständig wären.

Die Public Cloud ist für (etablierte) Unternehmen natürlich nicht vollständig uninteresant, dennoch prüfen sie, welche Daten in die Public Cloud ausgelagert werden. Denn wie habe ich vor längerer Zeit schon einmal geschrieben: "Am Ende zählt der Use Case."


Bildquelle (von mir modifiziert): http://badische-zeitung.de



AWS veröffentlicht VM Export Service für Amazon EC2

Mit dem AWS VM Import Service ermöglichen die Amazon Web Service den Import unterschiedlicher Virtual Machine Formate nach Amazon EC2, um damit virtualisierte On-Premise Ressourcen in die Amazon Cloud zu migrieren. Wie Jeff Barr auf dem Unternehmensblog berichtet, wurde der Service nun so erweitert, um virtuelle Maschinen von Amazon EC2 in die eigene On-Premise Umgebung zu exportieren.

AWS veröffentlicht VM Export Service für Amazon EC2

Diese Funktion steht mit der neuesten Version der EC2 command line (API) Tools bereit. Ein Export könnte bspw. so aussehen:

ec2-create-instance-export-task –e vmware -b NAME-OF-S3-BUCKET INSTANCE-ID

Hier wird die Instanz ID und der Name eines S3 Buckets benötigt, in dem die exportierte VM gespeichert wird.

Mit dem Befehl ec2-describe-export-tasks kann der Export Prozess überwacht und mit ec2-cancel-export-task gestoppt werden.

Ist der Exportvorgang abgeschlossen, muss das exportierte Image lediglich in die lokale On-Premise Umgebung heruntergeladen werden.

Der Service unterstützt derzeit den Export von Windows Server 2003 (R2) und Windows Server 2008 EC2 Instanzen in das VMware ESX kompatible VMDK Format sowie nach Microsoft Hyper-V VHD oder Citrix Xen VHD Images. Zudem plant AWS in Zukunft weitere Betriebssysteme, Image Formate und Virtualisierungstechnologien zu unterstützen.



BigQuery: Big Data Analyse mit Google

Google BigQuery, ein Cloud basierter Service für die Analyse sehr großer Datenmengen, kann nach einer geschlossenen Testphase mittlerweile von allen genutzt werden.

BigQuery ist ein Online Analytical Processing (OLAP) System, um Datensätze mit Milliarden von Zeilen und Terabytes an Daten zu verarbeiten und zielt auf Unternehmen und Entwickler in Unternehmen ab, die mit riesigen Datenmengen (Big Data) balancieren müssen.

BigQuery kann auf unterschiedliche Arten genutzt werden. Entweder mit einer Web-Oberfläche, einer REST API oder via Kommandozeile. Die Daten können zur Verarbeitung per CSV Format auf die Google Server hochgeladen werden.

Die Preise orientieren sich an der Menge der gespeicherten Daten und der Anzahl der Anfragen. Für den Speicherplatz berechnet Google 0,12 Dollar pro GB pro Monat bis zu einer maximalen Speichermenge von 2TB. Für die Anfragen werden 0,035 Dollar pro verarbeitetes GB berechnet. Die Limits liegen hier bei 1000 Anfragen pro Tag sowie 20TB zu verarbeitende Daten pro Tag. Für die ersten 100GB an verarbeitenden Daten pro Monat entstehen keine Kosten. Weitere Informationen stehen hier.

BigQuery ist nicht für die OLTP (Online Transaction Processing) Verarbeitung geeignet. Genauso wenig können Änderungen an den auf BigQuery gespeicherten Daten vorgenommen werden. Unternehmen, die eher eine klassische relationale Datenbank für OLTP benötigen, empfiehlt Google seine Cloud basierte Datenbank Google Cloud SQL, welche die volle SQL-Syntax unterstützt.

Mit seiner Portfolio Erweiterung um BigQuery präsentiert Google einen weiteren Service in dem mittlerweile stark umkämpften Markt von Cloud basierten Produkten für Unternehmen, in dem sich bereits namhafte Unternehmen wie Amazon, Oracle, IBM, Microsoft und viele weitere tummeln.



NetSuite veröffentlicht Commerce-as-a-Service Plattform SuiteCommerce

Mit SuiteCommerce präsentiert NetSuite seine Commerce-as-a-Service (CaaS) Plattform, die das Unternehmen selbst als eine einheitliche Schnittstelle für sämtliche e-Commerce Aktivitäten betrachtet. NetSuite geht damit in den Wettbwerb zu bestehenden Cloud basierten e-Commerce Plattformen wie Demandware.

Zwar hat NetSuite seit längerem e-Commerce Technologien im Portfolio. Allerdings zielt diese neue Lösung darauf ab, alle bisherigen Lösungen zu ersetzen. Glaubt man CEO Zach Nelson, nutzen e-Commerce Kunden nicht mehr nur die klassischen Webseiten bzw. Webshops für ihre Einkäufe, sondern greifen vermehrt auf Smartphones und Social Media zurück oder gehen tatsächlich noch "analog" einkaufen, kaum zu glauben. Hier will SuiteCommerce ansetzen und alle möglichen Arten von Transaktionen verarbeiten, selbst dann, wenn die Schnittstelle zum Kunden noch nicht definiert ist.

Das sich das Thema e-Commerce defintiv auf mobile Endgeräte verlagert hat, zeigen Lösungen wie der Amazon Windowshop für das iPad oder deutsche Startups wie CouchCommerce.

Aber auch neue Labels wie Adidas Neo versuchen neue Wege im Store selbst zu gehen, indem der Kunde von sich Photos macht und diese mit seinen Twitter Follower und Facebook Freunden teilt, um deren Meinung (in Echtzeit) zu erhalten. Da bekommt das Thema digitaler Einkaufsberater doch eine völlig neue Bedeutung, wenn man sich überlegt, dass der Facebook "Freund" aus den USA bestimmt, was der Deutsche tragen soll und sich vielleicht ein wenig ins Fäustchen lacht, da dieser Trend in den USA bereits längst out ist.

SuiteCommerce gibt es in zwei Varianten. Die eine nennt sich "SuiteCommerce Experience" und dient der parallelen Entwicklung von Benutzeroberflächen für mehrere Endgeräte. Bei der anderen handelt es sich um eine Reihe von Services, mit der die unter "SuiteCommerce Experience" entwickelten Schnittstellen mit den Back-End Komponenten, wie das Abrechnungs- und Bestellmanagement, des NetSuite Kernsystems verbunden werden. Unternehmen die bereits über ein ERP System z.B. von Oracle oder SAP verfügen, können SuiteCommerce auch separat nutzen und mit dem jeweiligen ERP-System integrieren.

Die Kosten der Version für kleine- und mittelständische Unternehmen starten bei 1.900,00 Dollar pro Monat, wohingegen die Enterprise Version erst ab 3.900,00 Dollar zu haben ist.


Bildquelle: http://www.port80.it



Amazon möchte .NET Entwickler in die AWS Cloud entführen

Die Amazon Web Services hübschen sich weiter auf, um ihre Attraktivität für Microsoft .NET Entwickler zu steigern. Dazu hat das Unternehmen kürzlich zwei Neuigkeiten angekündigt, die sich auf exakt diese Zielgruppe konzentrieren. Bei der einen handelt es sich um Amazon RDS for SQL Server, einem Service für den Microsoft Datenbankserver. Die Zweite ermöglicht nun das Deployment von .NET Anwendungen auf der Amazon Elastic Beanstalk Plattform.

Entwickler haben zusätzlich zu ihrem Code in der Regel ebenfalls mit dem Deployment und der Administration ihrer Datenbanken zu tun, was zu einer nicht trivialen Aufgabe werden kann. Insbesondere dann, wenn Updates eingespielt oder Backups erstellt werden müssen. Die Amazon Web Services haben sich seit längerem diesem Thema angenommen und unterstützen mit Amazon RDS bereits Oracle und MySQL Datenbanken.

Jetzt erweitert Amazon sein Angebot für Windows Entwickler. Amazon RDS for Microsoft SQL Server ermöglicht es der Microsoft Entwickler Gemeinde seine Datenbankoperationen für Microsoft SQL Server 2008 R2 und SQL Server 2012 in die Amazon Cloud auszulagern. Dabei wird der Microsoft SQL Server 2008 R2 bereits jetzt schon, der SQL Server 2012 im Laufe des Jahres unterstützt.

Darüber hinaus können Entwickler von ASP.NET Anwendungen nun ebenfalls Amazons PaaS Elastic Beanstalk für das Deployment in der Amazon Cloud nutzen. Um die Applikation in die Cloud hochzuladen, stellt Amazon das AWS Toolkit for Visual Studio bereit. Elastic Beanstalk übernimmt anschließend automatisch die Kapazitätsplanung, sowie die Konfiguration des Load Balacing und das Monitoring für die Anwendung.

Der AWS Elastic Beanstalk Service befindet sich aktuell noch in der Beta Phase und nutzt die Microsoft Internet Information Services (IIS) 7.5 und das Windows Server 2008 R2 AMI (Amazon Machine Image), um die .NET Anwendungen auszuführen. Neben der Nutzung von mehreren Availability unterstützt Elastic Beanstalk mittlerweile auch die Amazon Virtual Private Cloud.

Neue Kunden können Elastic Beanstalk kostenlos nutzen. Dazu erhalten sie eine Amazon RDS Micro Instance incl. SQL Server Express Edition, die ein Freikontingent von 750 Stunden pro Monat beinhaltet. Zudem dürfen für ein Jahr lang 10 Millionen I/O Anfragen pro Montag gestellt werden und Amazon spendiert sogar noch 20GB Datenbankspeicher.



AWS erweitert Amazon CloudFront um dynamische und personalisierte Inhalte

Ist zwar nicht mehr ganz aktuell, aber dennoch interessant! Amazon hat sein CDN (Content Delivery Network) CloudFront um die Unterstützung von dynamischen Inhalten erweitert, wodurch auf CloudFront gehostete Webseiten nun pro Besucher personalisiert werden können.

AWS erweitert Amazon CloudFront um dynamisch und personalisierte Inhalte

Webseiten, deren Inhalte bereits statisch auf CloudFront gehostet werden, können den Dienst nun nutzen, um die Webseite mit dynamischen Inhalten zu erweitern und somit für jeden Besucher zu personalisieren. Die Preise unterscheiden sich dabei nicht vom statischen Hosting der Daten, also 0,120 Dollar pro GB für die ersten 10 TerraByte bzw. 0,020 Dollar pro GB für die ersten 5 PetaByte sowie 0,0090 Dollar pro 10.000 HTTP-Anfragen.

CloudFront liefert die Inhalte über weltweit 30 Standorte aus. Im Vergleich zum Akamai CDN mit 1700 Standorte ein Tropfen auf dem heißen Stein.

Einer der ersten Anbieter die das neue CloudFront Feature unterstützen ist CloudBerry, der ebenfalls Tools für das Management und Verwalten von Dateien in CloudFront und Amazon S3 entwickelt. Das Unternehmen hat bereits ein kleines Tutorial veröffentlicht, das zeigt, wie man den CloudBerry S3 Explorer konfiguriert, um CloudFront mit dynamischen Inhalten zu nutzen.

AWS baut sein CDN kontinuierlich aus. Erst Anfang April wurde CloudFront um eine Live-Streaming Funktion für iOS und Silverlight erweitert.



AWS Elastic Beanstalk nun auch in Europa verfügbar

Wie Jeff Barr auf dem offiziellen AWS Blog schreibt, ist AWS Elastic Beanstalk nun auch in der EU Region verfügbar.

AWS Elastic Beanstalk nun auch in Europa verfügbar

Damit stehen jetzt insgesamt drei Regionen weltweit zur Verfügung, in denen AWS Elastic Beanstalk Anwendungen gehostet werden können.

AWS Elastic Beanstalk soll Entwickler dabei helfen, schneller und einfacher ihre Anwendungen in der AWS Cloud bereitzustellen und zu verwalten. Der Entwickler lädt seine Anwendung hoch und Elastic Beanstalk übernimmt automatisch die Deploymentaufgaben, wie die Beschaffung der benötigten Kapazitäten, das Load Balancing, Auto-Scaling sowie die Überwachung der Anwendung.

Elastic Beanstalk unterstützt derzeit drei unterschiedliche Programmiersprachen und Entwicklungsumgebungen. Dazu gehören:



Microsoft und Google planen eigene Infrastructure-as-a-Service Angebote – Konkurrenz für Amazon EC2

Wie GigaOm berichtet, planen Microsoft und Google offenbar eigene Infrastructure-as-a-Service (IaaS) Angebote, die in direkter Konkurrenz zu den Amazon Web Services (AWS) - Amazon EC2, stehen sollen.

Microsoft und Google planen eigene Infrastructure-as-a-Service Angebote - Konkurrenz für Amazon EC2

GigaOm beruft sich auf nicht genannte Quellen, die besagen, dass Google die Amazon Elastic Compute Cloud (Amazon EC2) mit einem eigenen Angebot in Angriff nehmen will. Weitere Quellen sollen Microsofts Bemühungen bestätigen, ebenfalls mit einem IaaS Angebot in den direkten Mittbewerb zu AWS gehen zu wollen. Wie GigaOms Quellen weiter wissen wollen, plant Google die Veröffentlichung seines IaaS zum Ende diesen Jahres. Wohingegen Microsoft bereits deutlich weiter sein soll und das neue Angebot während einer Veranstaltung am 7. Juni in San Francisco vorstellen wird.

Was auch immer an diesen Gerüchten speziell bei Google dran sein mag, es würde zumindest eine logische Schlussfolgerung aus den letzten Entwicklung des Suchmaschinengiganten aus Mountain View sein. In zwei Bereichen des Cloud Computing Stacks ist Google bereits vertreten. Mit Google Apps steht eine Office und Kollaborationslösung als Software-as-a-Service bereit. Die Google App Engine war eine der ersten Platform-as-a-Service Lösungen auf dem Markt. Was letztendlich noch fehlt ist ein IaaS Angebot. Neben dem kürzlich veröffentlichen Google Drive existiert seit längerem bereits der Google Cloud Storage, der sich speziell an Entwickler richtet, in unmittelbarer Konkurrenz zu Amazon S3 steht und eine gute Kombination zu einem möglichen eigenen IaaS Angebot wäre.

Microsoft hat mit Windows Azure bereits ein sehr umfangreiches Cloud Computing Infrastruktur Angebot am Markt. Auch wenn es bereits den Charakter eines IaaS besitzt, wird Windows Azure als Platform-as-a-Service vermarktet, mit dem Entwickler ihre Aktivitäten in Microsofts Cloud verlagern sollen, um dort PHP, Java, Node.js oder .NET Anwendungen auszuführen. Das Windows Azure bereits viele Funktionen wie die Amazon Web Services im Portfolio hat, zeigt dieser direkte Vergleich der einzelnen Cloud Services. Was Windows Azure derzeit noch fehlt, ist die Möglichkeit, direkt virtuelle Windows oder Linux Server pro Stunde zu beziehen, wie es von Amazon bekannt ist.

Nach zahlreichen Anbietern wie bspw. Rackspace und GoGrid oder Projekten wie OpenStack und CloudStack, greifen mit Google und Microsoft nun auch die großen der Branche zum IaaS Thron, der allerdings nicht so einfach zu besteigen sein wird, wie es aussehen mag. Die Amazon Web Services haben sich seit dem Start in 2006 eine solide Basis für ihre Angebote geschaffen, die sie jeden Monat mit neuen Services oder Funktionen stetig ausbauen. Im Vergleich zu anderen IaaS Anbietern hätten Google und Microsoft jedoch den Vorteil über eine große Entwicklergemeinde in den eigenen Reihen zu verfügen und zudem ausreichend Erfahrung im Aufbau von skalierbaren Infrastrukturen zu besitzen. Google auf Grund der Sicherstellung seines Kerngeschäfts und Microsoft anhand der langjährigen Tätigkeiten im Server- und Infrastrukturumfeld. Gewinner können am Ende jedoch wir Kunden sein, denn zu einem wird es sicherlich kommen, dem Preiskampf.



Die Amazon Web Services erhalten Zertifizierung für SAP Business-All-In-One

Die Amazon Web Services (AWS) wurden durch SAP für die SAP Business All-in-One Lösung für Linux und Windows sowie für SAP Rapid Deployment und Business Objects für Windows Server 2008 R2 zertifiziert. Dadurch können SAP-Kunden ihre Infrastruktrur- und Gesamtbetriebskosten verringern indem sie ihre SAP-Anwendungen flexibel auf der skalierbaren Cloud Plattform von AWS betreiben lassen.

SAP und Amazon führen bereits seit mehreren Jahren eine enge Partnerschaft. Im letzten Jahr schätzte SAP, dass ca. die Hälfte ihrer Anwendungen für AWS zertifiziert werden.

SAP und AWS ließen zudem ein paar Analysten auf die Infrastruktur los, um zu zeigen, dass dieser Schritt für Kunden zu Einsparungen bei ihren Infrastrukturkosten führen wird. Laut dem Beratungsunternehmen VMS AG führt die Nutzung von SAP Lösungen auf den Amazon Web Services zu Kostenvorteilen in Höhe von bis zu 69 Prozent im Vergleich zu einer eigenen On-Premise Installation. Für die Marktanalyse untersuchte VMS mehr als 2.600 SAP-IT-Landschaften.


Bildquelle: http://www.wiwo.de



Amazon erweitert seinen Cloud Drive Speicher um Desktop Anwendung

Amazon, die vor fast sieben Jahren als einer der Ersten überhaupt einen Cloud Storage Service für Unternehmen auf dem Markt gebracht haben, gehört mit seinem Cloud Drive im Privatenkunden Segment zu den Letzten mit einem Angebot. In der vergangenen Woche am 3. Mai folgte mit einer Desktop Anwendungen für Windows und Mac ein Update für den ein Jahr alten Cloud Storage.

Amazon erweitert seinen Cloud Drive Storage um Desktop Anwendung

Anstatt ständig auf die Webseite des Cloud Drive Service zu gehen, können Kunden nun über eine native Desktop Applikation für Windows und Mac auf ihre Daten in der Amazon Cloud zugreifen und die Daten des lokalen System darauf ablegen. Der neue Client unterstützt Windows Vista, Windows 7 und Mac OS 10.6 und jünger.

Cloud Drive wurde im Jahr 2011 veröffentlicht und bietet Amazon Kunden 5GB kostenlosen Speicherplatz für die gängigsten Dateitypen wie Videos, Photos, Dokumente und Musik im MP3 und ACC (Apple iTunes) Format. Der Zugriff erfolgte ausschließlich über den Webbrowser.

Wie von anderen Cloud Storage Services bekannt, können Nutzer den Speicherplatz erweitern. 20GB Speicherplatz können für 20 Dollar pro Jahr hinzugekauft werden. Darüber hinaus wird Musik, die über Amazon direkt gekauft wurde, nicht auf den den Speicherplatz angerechnet. Das bedeutet, dass bspw. trotz 5GB gekaufter MP3 Dateien weiterhin 5GB Speicherplatz zur Verfügung stehen, wenn dort bisher keine anderen Daten abgelegt wurden.

Anders als bekannte Cloud Storage Clients, ermöglicht Amazon Cloud Drive nicht die automatische Synchronisation mit Ordnern auf dem lokalen System oder das Teilen von Dateien mit anderen Cloud Drive Nutzern. Ein Missstand der neben weiteren fehlenden Möglichkeiten z.B. zur Kollaboration schnellstmöglich behoben werden sollte.



Amazon hilft mit CloudFormation beim Aufbau einer Virtual Private Cloud

Die Amazon Web Services ermöglichen nun den automatisierten Aufbau einer vollständigen Virtual Private Cloud (VPC) auf Basis eines einzelnen AWS CloudFormation Templates. Laut Jeff Barr, beschreibt das Template alle Eigenschaften, die notwendig sind, um den dafür notwendigen Ressourcenstack zu erstellen.

Amazon VPC kann bereits seit mehreren Jahren genutzt werden und erlaubt dem Nutzer den Aufbau eines für sich isolierten Bereichs auf der Amazon Cloud. Hier können Ressourcen in einem virtuellen Netzwerk ausgeführt werden und darauf mittels öffentlichen und privaten Subnetzen sowie VPNs zugegriffen werden.

Mit dem Einsatz von AWS CloudFormation müssen Anwender nicht die Reihenfolge der Provisionierung der jeweiligen AWS Services sowie deren Abhängigkeiten berücksichtigen. CloudFormation nutzt dazu Templates, die als in JSON (JavaScript Object Notation) formatierte Textdateien geschrieben werden. JSON basiert auf einer Teilmenge der Programmiersprache JavaScript und ist sowohl für Menschen als auch Maschinen lesbar.

Um Entwicklern und Systemadministratoren ein wenig unter die Arme zugreifen, hat Amazon zwei Beispiel Templates erstellt, um zu zeigen wie diese aufgebaut sind. Das erste Template erstellt eine Amazon VPC mit einer EC2 Instanz. Das zweite Template baut eine VPC inkl. einem Public und Private Subnetz sowie einem Elastic Load Balancer und einer EC2 Instanz auf.

Beide Templates können in Jeff Barrs Blogpost nachvollzogen werden.


Bildquelle: http://www.allmystery.de



Bitdefender Security for Virtualized Environments steht im AWS Marketplace bereit

Ab sofort stellt der Anti-Malware-Bekämpfer Bitdefender seine Lösung „Security for Virtualized Environments“ (SVE) auf dem Amazon Web Services (AWS) Marketplace bereit. Auf der Plattform können sich Kunden Software und Services ansehen, vergleichen und bei Bedarf sofort buchen, um sie umgehend für den Geschäftsbetrieb einzusetzen. Auf diese Weise haben Unternehmen nun die Möglichkeit, SVE als zentral verwaltete Sicherheitslösung in der Cloud einzusetzen und so ihre virtuellen Maschinen vor Online-Bedrohungen zu schützen.

Bitdefender Security for Virtualized Environments steht im AWS Marketplace bereit

Die Bitdefender-Lösung ist für Unternehmen geeignet, welche die Cloud oder eine Kombination aus Cloud und virtualisiertem Rechenzentrum nutzen. SVE sichert dabei Windows- und Linux-Systeme über die APIs (Application Programming Interfaces) des Amazon-Angebots ab. Nutzer des AWS Marketplace profitieren dabei von einem zentralisierten Scanning und Management. Über die Plattform lassen sich beispielsweise Richtlinien für User-Gruppen konfigurieren oder Logs verschiedener AWS-Regionen einsehen. Die Virtual Appliance erhöht die Scanning Performance signifikant und sorgt dafür, dass Anti-Malware-Maßnahmen bei den geschützten Komponenten weniger Ressourcen verbrauchen. Darüber hinaus reduziert Bitdefender SVE finanzielle, logistische und die Performance betreffende Kosten.

„Security for Virtualized Environments“ steht aktuell in vier unterschiedlichen Varianten bereit.

  • SVE - Security Console (zur Absicherung von 40 Instanzen)
    320,00 Dollar pro Monat + AWS Gebühren
    Linux/Unix, Ubuntu 10.04 LTS | 64-bit Amazon Machine Image (AMI)
  • SVE - Security Console (zur Absicherung von 100 Instanzen)
    600,00 Dollar pro Monat + AWS Gebühren
    Linux/Unix, Ubuntu 10.04 LTS | 64-bit Amazon Machine Image (AMI)
  • SVE - Security Console (zur Absicherung von 200 Instanzen)
    960,00 Dollar pro Monat + AWS Gebühren
    Linux/Unix, Ubuntu 10.04 LTS | 64-bit Amazon Machine Image (AMI)
  • SVE - Security Virtual Appliance
    0,00 Dollar pro Stunde + AWS Gebühren
    Linux/Unix, Ubuntu 10.04 LTS | 64-bit Amazon Machine Image (AMI)


CloudBerry Lab kündigt 3 Updates an und gibt einen Vorgeschmack auf Version 2.8

CloudBerry Lab, Anbieter von Tools für das Backup der Daten in der Cloud erweitert seinen S3 Explorer, Explorer für OpenStack und Rackspace und die Version 2.7 seiner Backup Software um weitere Funktionen. Darunter CloudFront TTL Konfigurationsmöglichkeiten und einen intelligenten Bandbreiten Scheduler. Zudem gibt das Unternehmen Informationen zum kommenden Release 2.8 und weiteren neuen Produkten bekannt.

CloudBerry Backup kündigt 3 Updates an und gibt einen Vorgeschmack auf Version 2.8

Begonnen hat CloudBerry mit dem CloudBerry S3 Explorer, einer Managementoberfläche für Amazon S3. Im Laufe der Zeit sind immer weitere Produkte für das Backup von Daten in der Cloud hinzugekommen.

Der CloudBerry S3 Explorer befindet sich mittlerweile in der Version 3.3 und erhält mit dem neuesten Update TTL (Time To Live) Konfigurationsmöglichkeiten für Amazon CloudFront. CloudBerry reagiert damit auf eine Änderung vom Amazon CloudFront Team, die kürzlich eine kürzere TTL - statt der bisherigen 60 Minuten - angekündigt hatten. Mit der neuen Funktion können Entwickler die TTL ihrer Objekte auf 0 Sekunden setzen, wodurch sehr kurze Caching Zeiträume genutzt werden können.

Eine weitere Erneuerung ist die Unterstützung von weiteren OpenStack basierten Cloud Storage wie HP Cloud und Haylix für den "CloudBerry Explorer for OpenStack and RackSpace 1.2". Zudem wurde ein Metadata Editor für die Container hinzugefügt, die nun als private und public deklariert werden können.

Darüber hinaus wurde CloudBerry Backup 2.7 mit einem intelligenten Bandbreiten Scheduler erweitert und unterstützt nun OpenStack Object Storage (Swift). Mit dem Bandbreiten Scheduler ist es bspw. möglich, die Drosselung der Bandbreite für das Backup in Echtzeit zu steuern, um die gesamte verfügbare Bandbreite während der Geschäftszeiten zu nutzen.

Ein Vorgeschmack auf die kommenden Releases

Das CloudBerry Backup 2.8 wird um konkrete Planungen für das Backup in der Cloud erweitert. Damit können automatisierte Backup-Routinen zu bestimmten Zeitpunkten erstellt werden, die für einen späteren Restore oder das Verteilen auf weiteren Maschinen genutzt werden können. Eine weitere Erneuerung für das Release 2.8 sind die Verschlüsselung von Dateien und Ordnernamen. Damit sollen Dateien und Ordner geschützt werden, die ggf. streng vertrauliche Informationen enthalten.

Mit CloudBerry Backup Drive wird eines von zwei neuen Produkten veröffentlicht. CloudBerry Backup Drive wird es ermöglichen, die lokale Festplatte als einen Cloud Storage freizugeben. CloudBerry Lab befindet sich hier noch in der Entwicklungsphase und plant demnächst eine Beta zu veröffentlichen.

CloudBerry Backup for MS SQL Server ist das zweite neue Produkt von CloudBerry Lab. Das Tool bietet Backup-und Restore-Funktionen und wurde entwickelt, um Amazon S3 und Windows Azure Storage für das Backup eines MS SQL Server zu nutzen.



Ein Drittel aller Internetnutzer greifen täglich auf die Amazon Cloud zu!

Cloud Computing Anbieter sind die kommenden Giganten im Internet. Sie werden dafür sorgen, dass wir auf Informationen zugreifen und werden den Handel und weitere Geschäftsmodelle mit ihren hochskalierbaren und hochverfügbaren Infrastruktruren stützen. Jedoch ist es schwierig nachzuvollziehen, wie groß ein Anbieter wirklich ist.

Der Cloud Intelligence Anbieter DeepField Networks hat auf seinem Unternehmensblog interessante Zahlen veröffentlicht, die zeigen, für welchen Internet-Traffic Amazon verantwortlich ist.

Demnach greifen ein Drittel aller Internetnutzer mindestens einmal pro Tag auf die Amazon Cloud zu. Zudem fließen 1% des gesamten Internet-Verkehrs (Verbraucher) von Nordamerika in die Amazon Cloud. YouTube machte im vergangenen Jahr einen Anteil von 6% des gesamten Internetverkehrs aus.

Die Bedeutung der Amazon Web Services wurde zudem letztes Jahr sehr deutlich, als ein Ausfall mehrere hoch frequentierte Webseiten und Services lahmlegte.

DeepField hat seine Daten, nach eigenen Angaben, von einer Reihe von großen Netzbetreibern, mit denen sie kooperieren. Dabei wurde nur der Verkehr von Teilnehmern der Studie gemessen und die direkte Maschine-zu-Maschine Kommunikation ebenso ausgeschlossen wie konstante Scanning und Einbruchsversuche aus China.

Der Zugriff von Unternehmen auf die Amazon Cloud-Infrastruktur wurde ebenfalls gemessen. An erster Stelle befindet sich Truste.com. Ein Service der ein Online Datenschutz Gütesiegel anbietet, das häufig in kommerziellen Webseiten eingesetzt wird. Fast 21% des täglichen Verbraucher-Traffics, der die Amazon Cloud erreicht, ist auf TRUSTe zurückzuführen.


Bildquelle: http://www.nebraskaweatherphotos.org