PurityBloggen

Datalagring, Backup, DR- & Skytjenester


Legg igjen en kommentar

Hyperkonvergens: Løsningen på alle problemer, eller alle eggene i en kurv?

Hva menes med hyperkonvergens?

Hyperkonvergens er en teknologi hvor sentral infrastruktur i datarommet er samlet i ett system. I ett tradisjonelt datarom finner vi vanligvis servere, lagring, nettverk, virutalisering og backup. I tillegg kommer administrasjonen av de ulike systemene, som alle skal spille sammen for et velfungerende miljø..

I en hyperkonvergert løsning er server, lagring, nettverk og virtualisering integrert i ett system, med ett administrasjonsverktøy for alle elementene.

Fordeler med hyperkonvergente løsninger

Hyperkonvergerte løsninger kan gi mange fordeler. Hovedargumentet for å velge hyperkonvergens er forbedret effektivitet, ettersom man drifter datarommet fra ett helhetlig system fremfor mange separate komponenter i et IT miljø.  I tillegg kommer potensialet for reduserte kostnader. Ett enkelt innkjøp gir lavere innkjøps- og driftskostnader, samt muligheten til å kvitte seg med overflødige komponenter i datasenteret, med påfølgende besparelser på plass, strøm og kjøling.

Fleksibiliteten og enkelheten i en hyperkonvergert løsning gjør at denne i tillegg til å brukes som hovedløsning for datarommet også brukes som grunnlag for å bygge en egen enterprise skyløsning. Man kan starte i det små, for deretter å utvide til en større skyløsning i takt med kravene som stilles til IT miljøet.

Flere fordeler ved en hyperkonvergert løsning er:

  • Ett administrasjonsverktøy styrer alle komponentene i datarommet og forenkler drift
  • Fleksibilitet – systemet kan skaleres / bygges ut nærmest uendelig
  • Softwaredrevet system som er kompatibelt med de fleste store hardwareleverandører.
  • Mulighet for innebygget backup og disaster recovery

Finnes det ulemper ved Hyperkonvergens?

Hyperkonvergerte løsninger har vært tilgjengelig i markedet i noen år, men etterspørselen etter denne type løsningen har økt spesielt mye i løpet av det siste  siste året.

Det finnes flere årsaker til dette, blant annet at prisene har landet på et nivå som markedet er villig til å betale for teknologien. Mer funksjonalitet og bedre stabilitet enn tidligere, gjør også at hyperconvergerte løsninger går en lys fremtid i møte.

Konsolideringen av CPU, lagring, nettverk og backup/disaster recovery i ett og samme system er et kraftig argument for hyperkonvergens, spesielt siden det bidrar til åpenbare muligheter for kostnadsbesparelse. Løsningene kan settes opp som en redundant løsning på kun en lokasjon, eller som anbefalt løsning spredd over to lokasjoner for å minimere risiko for nedetid.

Potensielle ulemper

Med så mange fordeler er det vanskelig å tenke seg at det finnes ulemper ved å samle alt i et system. Systemet gir en forlokkende mulighet til å vinke farvel til dyre og komplekse backupløsnigner.

Setter man opp en hyperkonvergert løsning med speiling mellom flere lokasjoner og smart snapshotteknologi av hver lokasjon, er det liten tvil om at de fleste incidents som krever restore kan utføres raskt og effektivt på systemene. Noen av leverandørene går endatil å langt som å garantere at systemene ikke går ned,  eller at kunden kan miste data.

Er dette en reell, 100% sikker garanti? Svaret er naturlig nok nei. For det første er de færreste IT systemer 100% stabile, og feil som har en forsvinnende liten mulighet til at forekommer inntreffer faktisk oftere enn man skulle tro.

I tillegg kommer risiko for korrupsjon av data, firmware-oppgraderinger som ikke går som planlagt, eller sabotasje og hacking. Med tanke på at IT kriminaliteten er den kriminelle aktiviteten som vokser raskest på verdensbasis er det ingen liten sannsynlighet å rammes av dette. De fleste incidents i datarommet skyldes også menneskelige feil, noe man ikke får gardert seg mot uansett hvor godt system man har liggende i bunn. Listen over risikofaktorer som kan velte et hyperkonvergert system er lang, og selv om man kan ta steg for å minimalisere risiko, kan man aldri fjerne den helt.

Hva skjer så om man mister data på systemene? Resultatet kan bli at hele IT infrastruktur i datarommet går ned parallelt, og man mister samtidig hele backup historikken. Dette vil ramme de aller fleste bedrifter hardt økonomisk. Hva bidrar systemleverandørens garantier med i et slik scenario? Garantien vil gi kunden et «nytt system», men dette har naturlig nok minimal verdi ettersom den verken reduserer eller erstatter skadeomfanget etter datatapet.

Hyperkonvergert eggekurv

Anbefaling: Ta en ekstern backup av ditt hyperkonvergerte system for å etterleve 3-2-1 regelen for sikker backup

 

Anbefalinger

Bør risikoen for omfattende datatap hindre deg i å investere i hyperkonvergerte løsninger? Nei –  vi i Purity mener absolutt at hyperkonvergens er en strålende løsning for mange bedrifter. Enten det er som erstatning til dagens infrastruktur eller i kombinasjon med eksisterende løsning, er det en spennende og fremtidsrettet teknologi.

Vi anbefaler imidlertid å ta en ekstra backup-kopi av den hyperkonvergerte løsningen, som legges «ut av huset» og over til annet medium. Her kan man skille mellom hva som er kritiske og ikke-kritiske data for å redusere kostnader.

Grunnen til dette er at man ved å legge en ekstern kopi på et alternativt lagringsmedium etterlever 3-2-1 regelen for backup: Alltid 3 kopier på 2 lokasjoner, hvorav 1 lokasjon er remote. Med 3-2-1 regelen kan du stort sett leve i trygg forvissing om at du har backet opp dataene dine på en tilfredsstillende måte.

Purity har løsninger for både backup og disaster recovery as a service og vi kan levere komplette løsninger med hyperkonvergens lokalt, og backup til sky. Datasentrene våre er lokalisert i Norge, og er forberedt på GDPR kravene som inntreffer i Mai 2018.

 

Reklamer


3 kommentarer

Many ways to off-site backup: The 3-2-1 rule

Innlegg skrevet av gjesteblogger fra vår samarbeidspartner Veeam Software: Rick Vanover (vExpert, MCITP, VCP), product strategy specialist for Veeam Software.

There are so many different data protection requirements and expectations today, but many organizations don’t have firm documented guidelines. So much so, that there are more often than not simple expectations that need to be mitigated.

In my professional virtualization experience, I frequently recommend to people to address data protection in this situation with a rather timeless rule that can help in this situation. The 3-2-1 Rule. The 3-2-1 Rule is actually more of a framework than a specific rule as it allows companies to tweak it to make more sense in specific situations.

Generally speaking, the 3-2-1 Rule states:
• Keep 3 different copies of your data
• On 2 different media
• One of which is off-site

As you can see from the figure below, it’s a simple way of addressing the requirements where block 1 is the production data (Ideally as a server, virtual machine or storage system), block 2 is a dedicated backup solution and block 3 is extending that off site.

Figure A:
Purity-dot-no-Veeam-Blog1-FigA

When I engage in discussions with the virtualization community, the 3-2-1 Rule comes up very frequently. Partly in a discussion of “what could go wrong” as the 3-2-1 Rule can address almost any failure scenario.

Many organizations may rely entirely on a storage system for data protection, in the form of snapshots being shipped off site to another storage controller. That’s all good until the storage system fails. I have nothing but evidence in the form of case studies in my role here at Veeam that storage systems do occasionally go awry.

But that’s not to say that storage systems can’t be used to address the 3-2-1 Rule, in fact, I’d challenge that they are critical to an efficient approach. That’s the beauty of the 3-2-1 Rule, if an infrastructure has a storage system that can address the off-site bit of the 3-2-1 Rule easily; then leverage it! But don’t forget the off-site element as well.

Additional ways to implement the 3-2-1 Rule include disk-based backups on-site or off-site. Disk-based backups are an interesting discussion point today as many organizations have made that transition as part of their virtualization strategy, or their own data growth. Disk-based backups offer an increase in restore and backup performance due to the potential random read nature of some restore approaches. If you are considering disk-based backups, consider that Veeam Backup & Replication makes easy work of the 3-2-1 Rule with the Backup Copy Job and Built-In WAN Acceleration to easily put restore points off-site on disk.

There still is room for tape in today’s datacenters as well, so much so that the portability and acquisition cost of tapes really can’t be challenged. For many organizations, tape can address the off-site bit as well at a price point that works for today. Chances are everyone has a tape restore failure story, but modern tape systems have truly improved over tape systems of old.

Then there is the replicated system. Whether it is a storage replication, a replicated virtual machine or possibly as replicated backup set; replication can be used as part of the 3-2-1 Rule for an organization. That’s again why the flexibility is so important as everyone’s data profiles and technologies in use are different.

Do you see the 3-2-1 Rule filling a void in today’s management strategies? If so, how? Share your comments below.

Rick Vanover, VeeamBIO

Rick Vanover (vExpert, MCITP, VCP) is a product strategy specialist for Veeam Software based in Columbus, Ohio. Rick is a popular blogger, podcaster and active member of the virtualization community. Rick’s IT experience includes system administration and IT management; with virtualization being the central theme of his career recently. Follow Rick on Twitter @RickVanover or @Veeam.