Video: Webutvikling | NTNU (Gjøvik) 2025
En viktig faktor når du foretar et stort dataprosjekt, er den forventede mengden sanntid og ikke-sanntid som kreves for å utføre ditt initiativ. Store data handler ofte om å gjøre ting som ikke var mulige fordi teknologien ikke var avansert nok, eller at kostnaden var uoverkommelig. Den store forandringen som skjer med store data er evnen til å utnytte enorme mengder data uten all den komplekse programmeringen som kreves tidligere.
Mange organisasjoner har et tipping-point når det gjelder å håndtere store mengder komplekse data. Store datatilnærminger vil bidra til å holde tingene i balanse, slik at bedrifter ikke går over kanten ettersom volum, variasjon og hastighet på data endres. Bedrifter har hatt en vanskelig tid å håndtere økende mengder data som må styres med høye hastigheter.
Organisasjoner måtte avgjøre for å analysere små delsett av data som ofte manglet kritisk informasjon for å få et fullt bilde som dataene kunne avsløre. Etter hvert som store datateknologier utvikler seg og blir distribuert, vil bedriftene lettere kunne analysere dataene og bruke det til å ta avgjørelser eller ta tiltak.
Realtidsaspektet av store data kan være revolusjonerende når bedrifter trenger å løse betydelige problemer. Hva er virkningen når en organisasjon kan håndtere data som streames i sanntid? Generelt er denne sanntidstilnærmingen mest relevant når svaret på et problem er tidsfølsomt og forretningskritisk. Dette kan være relatert til en trussel mot noe viktig som å oppdage utførelsen av sykehusutstyr eller forutse en potensiell inntrengingsrisiko.
Følgende liste viser eksempler på når et selskap vil utnytte denne sanntidsdataene for å få en rask fordel:
-
Overvåking for unntak med ny informasjon, som svindel / intelligens
-
Overvåking av nyhetsfeeds og sosiale medier for å avgjøre hendelser som kan påvirke finansielle markeder, for eksempel en kundereaksjon til en ny produktmelding
-
Endre annonseplasseringen din under en stor sportsbegivenhet basert på sanntids Twitter-strømmer
-
Tilbyder en kupong til en kunde basert på hva han kjøpte på salgsstedet
Noen ganger streams data kommer veldig raskt og inkluderer ikke mange forskjellige kilder, noen ganger finnes det et stort utvalg, og noen ganger er det en kombinasjon av de to.
Spørsmålet du må spørre deg selv om du flytter til sanntid, er dette: Kan dette (problemet) løses med tradisjonelle informasjonsstyringsfunksjoner, eller trenger du nyere muligheter?Er det rene volumet eller hastigheten som kommer til å overvelde våre systemer? Ofte er det en kombinasjon av de to.
Så, hvis du trenger realtidsmuligheter, hva er kravene til infrastrukturen for å støtte dette? Følgende liste fremhever noen få ting du må vurdere om et systems evne til å innta data, behandle det og analysere det i sanntid:
-
Lav latens: Latency er mengden tidsforsinkelse som gjør det mulig for en tjeneste å utføre i et miljø. Enkelte programmer krever mindre ventetid, noe som betyr at de må svare i sanntid. En sanntidsstrøm skal kreve lav ventetid. Så du må tenke på beregne kraft samt nettverk begrensninger.
-
Skalerbarhet: Skalerbarhet er evnen til å opprettholde et visst nivå av ytelse selv under økende belastninger.
-
Allsidighet: Systemet må støtte både strukturerte og ustrukturerte datastrømmer.
-
Native format: Bruk dataene i sin opprinnelige form. Transformasjon tar tid og penger. Evnen til å bruke ideen om å behandle komplekse interaksjoner i dataene som utløser hendelser, kan være transformasjonsmessig.
Behovet for å behandle stadig økende mengder forskjellig data er en av de viktigste faktorene som driver adopsjon av skygtjenester. Sky-modellen er storskala og distribuert.
