Big Data + GDPR = Dårlig kombinasjon

Big Data + GDPR = Dårlig kombinasjon

De siste tiår har datagenerering skutt i været, og vi drukner i massive mengder av ny og innsiktsrik informasjon fra en rekke ulike kilder. Basert på at milliarder av mennesker og millioner av virksomheter stadig lever mer av sine liv og arbeider online, samt at dramatiske fremskritt innen teknologi og tilkoblingsmuligheter har funnet sted, genereres det nå daglig enorme mengder data, og det forventes at dette vil dobles hvert annet år (Quartz, 2014). Men når sant skal sies, gir ikke data noe verdi i seg selv. Eller som Albert Einstein skal ha uttalt: “Not everything that can be counted counts, and not everything that counts can be counted.”

Denne bloggserien tar for seg Big Data, hvor det blant annet vil belyses hva begrepet innebærer, dets mulighetsrom, og sist men langt fra minst relevant; hvordan den nye EU forordningen GDPR (General Data Protection Regulation) vil snu maktbalansen mellom virksomheter som nyttiggjør seg av Big Data, og forbrukere, på hodet.

Hvordan oppstår slik en databølge?

For å forstå hvordan data kan gå fra å være noe som bare kan telles, til noe som faktisk teller, er det nødvendig å vite noe om hvilke ulike kilder slike datamengder genereres fra. Kildene kan grovt sett deles inn i to: menneskeskapte kilder eller kilder for såkalt «maskindata». Fra menneskeskapte kilder genereres data fra blant annet sosiale medier som Facebook og Twitter, men inkluderer også klikkdata fra websideinteraksjoner. I motsetning til menneskeskapte data er maskindata digital informasjon skapt av aktiviteten til datamaskiner, mobiltelefoner og sensorer, samt enhver annen type enhet som kan kobles opp mot internett.

Hva er Big Data, og hva innebærer uttrykket?

Om man så sammenstiller de ulike kildene, og dermed også sammenstiller ulike kategorier av data, kan man si at man har å gjøre med «Big Data». Big Data kan sies å være summen av store mengder strukturerte og ustrukturerte data. Majoriteten av all tilgjengelig informasjon faller inn i sistnevnte kategori, hvor man også finner den største veksten av tilgjengelige datamengder. Følgelig er det hensiktsmessig å unngå å definere Big Data som en gitt størrelsesorden, dette fordi den kontinuerlige økningen i lagrede datamengder endrer hva som regnes som «Big» med tiden.

Fordi det er utfordrende å definere Big Data som en gitt størrelsesorden er det i stedet vanlig å definere det som: enhver datakilde som inkluderer ekstremt høy velositet av data, ekstremt bred variasjon i data og ekstremt store volumer av data” (IBM, u.d.). Konkret betyr dette at data er raskere tilgjengelig, at data er tilgjengelig fra stadig flere ulike kilder, og at tilgjengelig data øker i omfang. Når det gjelder sistnevnte egenskap, kan det tillegges at IBM estimerer at det innen 2020 kommer til å genereres 2,3 trillioner gigabyte data hver dag, noe som tilsvarer 4,2 milliarder fulle CD-er om vi skal være gammeldagse.

Ignorance is NOT bliss

Det er åpenbart at mulighetene og utfordringene som kan knyttes til Big Data, er uendelig mange. I stedet er det ønskelig å fastslå at Big Data og relevansen av virkningene knyttet til begrepet i dagen, er for viktige til å kunne ignoreres. Dette tar jeg ta for meg i neste blogginnlegg i denne serien.

 

Om bloggeren:
Monica Bårdsen er utdannet sivilingeniør, med en bachelor i energiteknologi og en master i industriell økonomi. Hun fascineres over digitalisering og teknologisk disrupsjon, hvor hun er spesielt interessert i temaer som ligger i skjæringspunktet mellom teknologi og samfunn, samt teknologi og business.Monica følger Acandos traineeprogram for å bli en av Norges fremste konsulenter med mindre enn fem års erfaring.

comments powered by Disqus