Az élet minden területén – legyen szó a mindennapi életről, az üzleti szféráról vagy a közigazgatás különböző vetületeiről – egyre több és több adatot generálunk. Ezáltal az elmúlt években az adatok szerepe és az azokhoz való hozzáférés folyamatosan felértékelődött, kialakulóban van az adatalapú társadalom. Az adatok, s az így keletkező big data léte azonban önmagában még nem jelent számottevő változást. A kulcskérdés az ezen adatokból nyerhető információk, összefüggések megfelelő feldolgozása és elemzése, mely a levont következtetés révén hatékonyság- és termelékenység-növekedést idézhet elő.
A big data adatgyűjtés, az adatokhoz való hozzáférés és azok elemzése releváns mikro-, és makrogazdasági befolyásoló tényezőként jelenik meg. A big data adatain alapuló elemzések – legyen szó a pénzügyi szféráról és a szolgáltatásokról vagy a termelő és ipari szektorról – mikroszinten eredményezhetnek gyorsabb és jobb döntéshozatali folyamatot, mely az idő- és költséghatékonyság révén mikro- és makroszinten is versenyképességi hozadékkel bírhat. A versenyképességi faktoron túl a rendelkezésre álló nagy mennyiségű adat elemzésének eredménye a piaci szereplők és a gazdaság egészének rezilienciáját növelhetik. Halmai Péter könyvében a gazdasági reziliencia terén, a gazdaságok sokkelnyelési képességét illetően három fő tényezőt azonosított: az adott gazdaság sebezhetőségét, a sokkabszorpciós kapacitást és a bekövetkezés utáni helyreállás időbeli képességét. A big data és a kapcsolódó adatelemzés mindhárom tényezőt relevánsan befolyásolhatja: javíthatja az egyes gazdasági szereplők alkalmazkodóképességének rugalmasságát, rövidítheti azok időbeliségét, ezáltal mikro- és makroszinten elősegítheti a reziliens struktúrák kialakítását, mely a gazdasági reziliencia három tényezőjét közvetett és közvetlen módon érintheti, ezáltal előmozdítva a makroszintű rezilienciát az adott gazdaságban.
Ezzel összefüggésben elemzések kiemelik, hogy a jelenlegi kedvezőtlenebb világgazdasági környezetben is a kilábaláshoz vezető egyik kulcs az üzleti szférában a big data elemzés és a gépi tanulás lehet, melyek olyan mintázatokat azonosíthatnak, amelyek a hagyományos technikákkal rejtve maradnának. Ez a hagyományos döntési folyamatoktól elvezethet egy agilis üzleti környezet kialakításához, mely a döntések és a folyamatok racionalizálása révén hatékonysági és termelékenységi előnyt jelenthet. A big data elemzések területén azonban már vegyes kép bontakozik ki. A McKinsey & Company jelentése szerint a legtöbb ipari vállalat alkalmazza a mesterséges intelligencia és az adatelemzés különböző vetületeit. Vizsgálataik alapján a nehézipari vállalatok ugyan 75%-a próbálkozott már ezen technológiai vívmányok alkalmazásával, mindazonáltal csupán 15%-uk ért el kimutatható hatást. Ez visszavezethető az alkalmazott modellezési technikákra, melyek főképp kívülről érkező sztochasztikus alapokon nyugvó modellekre támaszkodnak, amelyek fő jellegzetessége a nagy paraméterszám és -függőség, s ezáltal a korlátozott eredmény a folyamat során. Ezáltal megállapítható, hogy a big data elemzés még a gyakorlati alkalmazhatóság terén számos kihívást és potenciált rejt magában. A gyakorlati hasznosíthatóság iránti igény azonban nagyon erős, a big data-hoz kapcsolódó adatok ugyanis a közszféra mellett főképp a közösségi média felületeken és az üzleti tevékenység során generálódnak.
A big data elemzésben rejlő lehetőségeket, valamint a kapcsolódó hatékonyságnövekedés maximalizálását azonban két tényező befolyásolhatja relevánsan: az adatok minősége és az adatvezérelt kultúra elterjedésének előmozdítása. Ezzel szoros összefüggésben McKinsey & Company elemzése is az úgynevezett „intelligens adatok” alkalmazása mellett érvel, melyek alatt az intelligens, elsődleges-elven történő funkciótervezést értik, mely elemzés a saját minőségi adatok mesterséges intelligencia alapú elemzésekre történő konvertálásán alapul. Ez utóbbival párhuzamosan a hagyományos elemzésekhez hasonlóan az adattisztítás fontos folyamat a big data elemzések lefolytatásánál is. A különbség ugyanakkor abban rejlik, hogy a hagyományos adatelemzés során az adattisztítás folyamata elsődlegesen a minta kiválasztásához és a mintában található adatokhoz kapcsolódik, addig a big data a sokaságot vagy közel a sokaságot foglalja magában, mely ugyan a reprezentativitást biztosítja, de ezzel az adattisztítási folyamat is részben átalakul, ami további kihívásokat rejt magában. Emellett a big data magában hordozz további kihívásokat is, melyek a tárolási kapacitások növekedésétől egészen az adatbiztonság kérdésköréig számos területre kiterjednek. Mindazonáltal hangsúlyozni kell, hogy a big data elemzési módszerek számottevően nem térnek el a hagyományos statisztikai módszerektől, azok a big data jellemzői mentén specializálásra kerültek, hogy az algoritmusok feltételeikben is megfeleljenek a hatalmas adatmennyiségnek. Ezáltal a versenyszféra számára a rendelkezésükre álló adatok feldolgozása olyan versenyelőnyt jelenthet, melynek csupán az adatgyűjtésre és azok összekapcsolására vonatkozó szabályzások szabhatnak korlátot. Ezáltal megállapítható, hogy az állami szabályozás az adatokhoz való hozzáférés révén jelentősen befolyásolhatja a mikro- és makroszintű versenyképesség alakulását is. Ezzel összefüggésben egy korábbi elemzés során már kifejtettük, hogy az adatalapú társadalom fokozódó világgazdasági jelenlétével párhuzamosan az egyes gazdasági erőterek közötti versenyképesség egyik kulcstényezője az adatokhoz való hozzáférés, és az azokban rejlő potenciál kiaknázása lesz.
A versenyszféra mellett a big data a közszférában is potenciális lehetőséget kínál, hiszen az állam – a különböző szintű szabályozások mellett – számottevő mennyiségű adatot generál, gyűjt és kezel. Vizsgálatok megállapították, hogy a közszféra szempontjából a big data három nagy területen eredményezhet pozitív hozadékot: a fejlett elemzési keretrendszeren és a gépi tanuláson; a hatékonyság javításának különböző dimenzióin keresztül, például a belső átláthatóság és szolgáltatások személyre szabása; valamint az ezekből való tanulási folyamat révén. Az elemzés ugyanakkor kiemeli azt is, hogy az állami szférában a fő fejlesztési irányvonalnak három területre szükséges koncentrálnia az adatelemzés skálázhatóságának területeire, az egyes mintázatok feltárására, valamint a való idejű alkalmazások elősegítésére. A big datához kapcsolódó humán erőforrások terén Ricard Munné tanulmányában hangsúlyozza, hogy a közszférában kihívást jelenthet a big data elemzésekhez kapcsolódó megfelelő képességekkel rendelkező elemzők megtalálása. Ez azon tényezőkre vezethető vissza, hogy a big data technológiák versenyszférában történő terjedésével a közszféra számára kihívás lesz a megfelelő szakemberek megtalálása. Továbbá hangsúlyozza, hogy a technológiai tudás mellett a közszféra jellegzetességeit magában foglaló tudás is hiányozhat az üzleti szféra munkavállalóiból. Ezen megállapítások maguk után vonják, hogy az államnak aktív szereplőként kell fellépnie a közszférában alkalmazott big data elemzők képzésében.
A big data-hoz kapcsolódó munkakörök – azok jellegükből fakadóan (például adatkutató, big data elemző vagy big data fejlesztő) ugyan eltérő mértékben – három fő területre koncentrálva igényelnek készségeket: informatikai, matematikai és statisztikai módszertani területre. Ezzel összefüggésben számos alterület azonosítható, melyekre szükség van: programnyelvek (például R, Python, SAS); gépi tanulási folyamatok technikáinak; adatbányászat és adatvizualizáció eszközeinek ismerete; kvantitatív módszertani és előrejelzési technikák ismerete. Ezen készségek erősítése számottevő tényező az adatelemzők számára, s ezzel párhuzamosan újra aláhúzandó egy korábban elhangzott megállapítás, hogy a big data elemzési technikák a hagyományos (ökonometriai) módszertani ismereteken alapulnak, azoknak más (kiterjesztett) megközelítései, így ezek ismerete kulcsfontosságú az elemzési tevékenységhez.