Het zal een impact hebben op het ontwerp en de architectuur van datacenters… en dus op het energieverbruik.

“De versnelling van het IoT zal grote hoeveelheden data genereren die verwerkt en geanalyseerd zullen moeten worden in realtime’, stelt Fabrizio Biscotti, Research Director, Gartner“Deze volumegroei zal zorgen voor een proportionele ontwikkeling van de workload van datacenters. Bijgevolg zullen de leveranciers het hoofd moeten bieden aan nieuwe uitdagingen zowel in termen van security als opslag- en analysecapaciteitenmaar ook energie!”

Hoeveel verbonden objecten? Volgens sommige schattingen zal de drempel van 50 miljard units overschreden worden in 2020. Maar dat is maar een indicatie. Daarbij moeten we het datavolume tellen dat een object zelf kan genereren. Tijdens een 30 minuten durende vlucht kan de apparatuur van een vliegtuig al voor 10 TB data aan gegevens over hun prestaties zorgen!

 roept datacenterbeheerders dan ook op om rekening te houden met deze perspectieven voor de dimensionering van hun toekomstige capaciteiten. Het IoT zorgt inderdaad voor talrijke nieuwe parameters. Vooreerst een complexere security gezien het enorme aantal verbonden toestellen. Verder zal de opslag nieuwe capaciteiten vergen. Het netwerk tot slot zal enorme hoeveelheden kleine berichten moeten kunnen kanaliseren naar het datacenter en de inkomende bandbreedte overbelasten. Het IoT zal kortom een impact hebben op het ontwerp en de architectuur van datacenters.

Het IoT wordt ook gekenmerkt door zeer gedistribueerde data die moeilijk te transfereren zijn naar een gecentraliseerde verwerkingssite. Concreet zullen de bedrijven er waarschijnlijk toe genoodzaakt worden om ze lokaal te aggregeren, daar waar ze vooraf verwerkt kunnen worden, voor ze te versturen naar een centrale site om tot bijkomende verwerkingen en opslag over te gaan.

Zo kan men het voorbeeld nemen van een auto waarvan alle bevestigingsberichten lokaal verwerkt worden, terwijl de foutboodschappen verstuurd worden naar een telematicacentrum. Net zo kan op een schip de positiemonitoring van containers lokaal verzekerd worden. Er worden dan alleen berichten doorgestuurd in het geval de containers verplaatst zijn. Zo kan men zowel besparen op netwerkbandbreedte als vermijden dat er een saturatie is van de datacenters.

Zoveel is duidelijk: alle informatie van IoT-apparatuur naar een cloud sturen en vervolgens het antwoord van de cloud naar verbonden objecten verzenden kan snel incompatibel worden in termen van responstijden en bandbreedtegebruik.

Vandaar dat ‘cloud’ computing plaats maakt voor ‘fog’ computing. Cisco definieert fog computing als een paradigma dat een uitbreiding is van en zijn services tot de edge devices van een netwerk. Net als de cloud levert de fog data-, opslag-, verwerkings- en applicatieservices aan de eindgebruiker. De belangrijkste kenmerken van een fog zijn zijn nabijheid tegenover de gebruiker, zijn densiteit op het vlak van geografische distributie en de mobiele ondersteuning. De services worden gehost in edge networking devices of in de verbonden objecten zelf zoals ‘set top boxes’ en access points. Door dat te doen vermindert fog computing de latentie en verhoogt het de QoS-servicekwaliteit. Resultaat: de gebruikerservaring wordt geoptimaliseer.

 

Het IoT pusht de datacenters naar het noorden!

Welk verband is er tussen de explosie van verbonden objecten en de keuze van een noordelijke inplanting van de datacenters? Het elektriciteitsverbruik! 90% van alle wereldwijd geproduceerde data werd gegenereerd in de loop van de laatste twee jaar. En dat tempo zal niet vertragen met de opkomst van de verbonden objecten…

Het IoT () zal een boost geven aan het volume inkomende gegevens op het netwerk van het datacenter. En dus zal men deze stroom en een onbeperkt aantal verbindingen voor elke gebruiker op een homogene manier moeten beheren, door correct gedimensioneerde en realtime opslag- en verwerkingscapaciteiten te verzekeren.

Als mogelijke oplossing adviseert Gartner de data te verwerken in twee fasen: een data-aggregatie in verschillende gedistribueerde minidatacenters waar er een initiële verwerking gebeurt, daarna de transfer van de meest pertinente gegevens naar een centrale installatie voor verdere verwerking.

Net daar kunnen de regio’s in het noorden hun troeven uitspelen. De energiebeperkingen zijn vandaag immers één van de beslissende elementen in verband met de keuze over de inplanting van een datacenter. En in koude regio’s kan er serieus bespaard worden op het verbruik gekoppeld aan de koeling. En dat is niet alles. Verschillende Noord-Europese landen beschikken over overvloedige en hernieuwbare bronnen – onder meer windenergie en hydro-elektriciteit. Een echte troef als men een datacenter 24 uur op 24 moet doen draaien met gestaag stijgende volumes. Hun prijs is ook meer betaalbaar en voorspelbaar, met als resultaat een duidelijke kijk op de energiebudgetten. De GAFA hebben op dat vlak trouwens al duidelijk stelling genomen, naar het voorbeeld van Facebook in Zweden of Google in Finland.

 

Summary
Van cloud computing naar fog computing
Article Name
Van cloud computing naar fog computing
Description
definieert fog computing als een paradigma dat een uitbreiding is van cloud computing en zijn services tot de edge devices van een netwerk.
Author