Prenekateri sladkorni bolnik, približno 400 milijonov jih je na svetu (v Sloveniji pa okrog 140.000), Sanofi pozna po lantusu, najbolj razširjenem protidiabetičnem zdravilu. Petino prihodkov francoski koncern ustvari z njim, no, je ustvarjal do letos, kajti februarja je zanj potekel patent in zato ga bo mogoče nadomestiti z generiki. V farmaciji so tovrstni »zlati prinašalci« vse redkejši in tudi Sanofi za lantus za zdaj nima naslednika. Poslovno gledano, nima inovacije za vse večji trg, kajti število sladkornih bolnikov nenehno in razmeroma hitro narašča. Vendar sodelovanje z mladim in »neznanim« podjetjem Life Sciences ni poskus iz obupa v pričakovanju čudeža, temveč poskus, kako s podatki kemikom in biologom pomagati do ideje za novo protidiabetično zdravilo.

Life Sciences je, na drugi strani, resda še ne mesec dni staro podjetje, toda poleg Sanofija sodeluje med drugim tudi s prvim (oziroma drugim) s svetovne farmacevtske lestvice Novartisom; z njim razvija kontaktno lečo, ki naj bi merila raven sladkorja v očesni tekočini. Ta kooperacija se je, kot še nekaj drugih, začela, ko podjetja še ni bilo, pač pa zgolj X Lab, precej skrivnostni »laboratorij« z nekaj desetimi vrhunskimi znanstveniki z različnih področij. In ta laboratorij je nastal na pobudo dveh ljudi z določenimi zdravstvenimi težavami oziroma (dedno) možnostjo, da jih dobita. Prvi je Larry Page, drugi Sergey Brin, oba sta ustanovitelja Googla; Parkinsonova bolezen, ki je menda Brinu zapisana v genih, je drugo prednostno področje Life Sciences, podjetja, ki je zraslo iz Googlovega X Laba.

Prvo je diabetes in kot malodane pri vseh projektih zdaj že več kot 300-članske znanstvene ekipe Life Sciences v okviru v holding Alphabet preobraženega Googla, so podatki njen ključni del. V sodelovanju s Sanofijem naj bi Life Sciences tako prišel do najmanj 10.000 sladkornih bolnikov velikega vzorca, pri čemer bo prvi »prispeval« paciente, drugi pa vmesnike s senzorji za merjenje različnih parametrov, ki se bodo po internetu neposredno stekali v bazo podatkov. S pomočjo teh podatkov naj bi, zelo poenostavljeno povedano, zdravniki in farmacevti z računalniškimi algoritmi ugotavljali vzorce težav sladkornih bolnikov, določali terapije in razvijali učinkovine.

Pustimo tukaj ob strani problem zaščite osebnih podatkov (zelo verjeten, čeprav se bodo po uradnih zagotovilih podatki kajpak zbirali anonimizirano): odkar je računalnik premagal svetovnega šahovskega prvaka in Craig Venter z »inteligentno« računalniško močjo tri leta pred rokom razvozlal človeški genom, kakšno poldrugo desetletje torej, vera v rešitev raznovrstnih problemov s pomočjo vedno večje količine podatkov narašča skladno z zmogljivostmi procesorjev. Ali celo še hitreje. Nič nenavadnega, kajti kopica podjetij – s samim Googlom na čelu – je ustvarila na stotine milijard dolarjev dobičkov prav s podatki in njihovo obdelavo oziroma uporabo.

Morda niste bili nikoli pozorni, a oglasi, ki jih dobite pred oči ob googlovih iskalnih zadetkih, na facebooku ali twitterju ter obvestila Amazona ali Ebayja, so ne tako redko »obupno mimo«, torej nimajo zveze s tistim, kar vam na podlagi prejšnjih ravnanj ponuja ta ali oni algoritem. Kar je nekakšna laična ponazoritev dejstva, da ima strojna analiza podatkov pač svoje meje in da še tolikokrat večja količina podatkov (big data) ne izboljša nujno natančnosti »analize«. Ko se je Googlu leta 2009 posrečilo, da je veliko natančneje od ameriškega centra za nadzor bolezni in preventivo napovedoval žarišča širjenja gripe, je kazalo drugače, namreč da je teza razvpitega urednika revije Wired Chrisa Andersona iz prejšnjega leta potrjena: »Z dovolj podatki številke govorijo zase. (...) Ni razloga, da bi se oklepali starih metod. Vprašati se je treba: Česa se lahko znanost nauči od Googla?« Preprosto tega: petdeset milijonov iskalnih pojmov in, hopla, vemo, kje se epidemija širi – tam, kjer iščejo lekarne, določena zdravila, simptome gripe ipd. Poceni, brez medicinskega znanja, brez slehernega »resničnega« podatka s terena, brez vsake vzročno-posledične povezave, zgolj na podlagi iskalne statistike.

Štiri leta kasneje so bile Googlove napovedi o gripi na podlagi gole korelacije iskalnih pojmov povsem napačne. Kavzalnost, ki sta ji Viktor Mayer-Schönberger in Kenneth Cukier v knjigi Big Data prerokovala »padec s podstavka primarnega vira razumevanja«, je vrnila udarec (in še ena Andersonova »tehnološko-solucionistična« teza je padla v vodo). Vendar brez dvoma le začasno. Film Stevena Spielberga Posebno poročilo (Minority Report) o predvidevanju in preprečevanju zločinov je bil leta 2002 znanstvena fantastika; ko bo prihodnji ponedeljek televizijska mreža Fox začela predvajati nanizanko Minority Report (pilotska epizoda že nekaj časa kroži po spletu), bo to utemeljeno tudi z vsakodnevnimi izkušnjami pri uporabi »big data« v nekaterih ameriških velemestnih policijah.

Podatki so preprosto preveč pomembni, da bi jih zaupali le računalniškim inženirjem.