Magyar Tudomány, 2008/03 352. o.

Tanulmány



Az adatsilóktól a tudomány kontrollforradalmáig


Z. Karvalics László


a történettudományok kandidátusa, tanszékvezető egyetemi docens

Szegedi Tudományegyetem Bölcsészettudományi Kar Könyvtártudományi Tanszék

zkl itm . bme . hu


E tanulmány közvetlen előzményeként a Magyar Tudomány egy korábbi számában (Z. Karvalics, 2007) sokoldalúan érveltem amellett, hogy a „cybertudomány” informatikai innovációival a meglévő kutatói közösség megnövelt projektméretekben és új típusú kollaborációs megoldásokkal válik alkalmassá arra, hogy a kialakult pénzügyi és irányítási mezőben megbirkózzon a saját maga által célirányosan megtermelt új adatok tömegével. Csakhogy a tudománynak ez az „intenzifikálódása” is elérkezett saját határaihoz. Ezúttal azt kívánom bemutatni, hogy a bejövő jelek tömegtermelése olyan nagyságrendekbe emelkedett, ahol számításteljesítménnyel (feldolgozási, átviteli és tárolási kapacitásokkal és mesterséges intelligencia-megoldásokkal) még sikerül követni a mennyiségi kihívást, de valódi elemző és megismerő erőt már nem lehet mellérendelni. A folyamatokból egyre inkább és egyre látványosabban az értelmezésre képes emberi agyak, vagyis a jelekből információt, jelentést és kontextust generálni képes „humán intelligencia” hiányzik. Ennek megfelelően a tudományművelés új szakaszába egy extenzív fejlődés vezethet át, robbanásszerűen gyarapítva a tudástermelésben és problémamegoldásban részt vevők számát. S mivel a legfontosabb és egyben legszűkebb erőforrások így (újra) rendelkezésre állhatnak, az extenzivitás esetleges sikerével meghaladható lehet a tudomány erősödő kontrollválsága is.


Jeltömeg és kontrollválság


„A tudósok lényegesen gyorsabban hozzák létre az új adatokat, mint ahogy azokat elemezni tudnák. Az eredmény leginkább az optikai csalódásra hasonlít.” (Hugh Kieffer)

A nagy adat- és feldolgozásigényes tudományok (elsősorban a genetika, az oceanográfia, a meteorológia/klimatológia, a környezettudományok, az atomfizika, a gyógyszervegyészet és legfőképpen a csillagászat) új generációs jeltermelésének legfontosabb ismeretelméleti újdonsága abban áll, hogy a környezetünket egyre nagyobb mértékben benépesítő, megállás nélkül adatokat szolgáltató szenzorok, szenzorhálózatok, mérőeszközök, optikai rögzítést és továbbítást végző készülékek által előállított és továbbított jelfolyam legnagyobb része feldolgozatlanul kerül a nagyteljesítményű adattárolókba, az úgynevezett adatsilókba. A tudomány történetének korábbi szakaszaiban is épültek kisebb adatsilócskák (gondoljunk csak Tycho Brahe [1546–1601] elképesztő mennyiségű rendszerezett csillagászati feljegyzésére vagy a koreaiak fantasztikus, több száz éven át vezetett vízállásregisztereire), csakhogy azokban a jelentést hordozó jelek képződését és lejegyzését tényleges elmeműködésnek köszönhetjük. Bármilyen termetesre is hízott tehát egy adatfolyam, keletkezésekor és (akár többgenerációs) gyarapításakor átment a „természetes intelligencia tisztítófürdőjén” (annak minden hibázási lehetőségével és fizikai korlátjával). Ebből fakadt a korai adatsilóknak az a tulajdonsága is, hogy az ugyancsak az emberi agy kapacitórikus képességeire szabott visszakeresés és feldolgozás folyamatai soha nem szakadtak el a még kezelhető léptéktől. Növekedésnek indult tehát számos tudományterület elemi adattömege, de bármely adat közvetlenül elsajátítható módon az érintett tudósközösségek rendelkezésére állt, mert a legfontosabb erőforrás, a feldolgozáshoz szükséges idő az emberi agy és az érzékszervek (elsősorban a szem) jelzéseket felfogó képességének fizikai sajátosságaira visszavezethetően nagyjából az előállításhoz szükséges idővel volt arányos.

A cybertudomány forradalmian új jeltermelő rendszereinek esetében a tárolás, a jeltovábbítás és az automatikus előfeldolgozás banális informatikai feladatnak tekinthető, emiatt sokan a feldolgozási deficit megszüntetését is a technológiától remélik1 – annak ellenére, hogy Kenneth Arrow már vagy félszáz éve megmutatta, nem számít, mennyit fejlődött az információfeldolgozás technológiája, az állandó korlátot az információszerzés legalapvetőbb költségeleme, az emberi agy jelenti. Az egységnyi új jel előállításához szükséges fajlagos idő-mutatók összezsugorodása következtében tapasztalható jelmennyiség-robbanást már jó ideje nem tudja követni a feldolgozáshoz rendelkezésre álló emberi életidő. Egyre szélesebb körben válik elfogadottá az a felismerés, hogy „nem több chipre van szükségünk az adatfeldolgozáshoz, hanem több neuronra. Sok-sok emberre, akiket be tudunk kapcsolni a tudományművelésbe”.2

Az intenzifikálás, az azonos területtel foglalkozó kutatók összekapcsolása csak látszólagos megoldás: mivel nem pusztán életidejüket, hanem adatsilóik tartalmát is megosztják, egyszerűen csak globális szintre helyezik korábbi, lokális problémáikat. Sőt, mivel a kooperációs logikában megszűnik a korábban ugyancsak jellemző adatvisszatartási nyomás is, mert minden szereplő immár a megosztásban érdekelt, a feldolgozás idő-deficitje valójában növekedésnek indul. (Jó példa minderre a Mars Reconnaissance Orbiter (MRO). Képességei és kapacitása olyannyira meghaladja a „rivális” űreszközökét, hogy lavinaszerűen megindult az ezidáig visszatartott eredmények nyilvánosságra hozatala.)

Az óceánok fizikai állapotának feltérképezését végző ARGO-program meggyőzően illusztrálja a megváltozó jel-volument és annak hatáskövetkezményeit. Több mint negyven ország vesz részt a közös, műholdakkal segített tengeri mérőhálózat működtetésében, amelybe 2007 végén már közel háromezer, emelkedésre-süllyedésre képes, hőmérsékletet és sótartalmat mérő, az áramlatokkal közlekedő, jeleit hosszú éveken át sugárzó szonda tartozik. Már 1999 és 2004 között, a működés első öt éve alatt az akkorra még csak ezerhétszáz darabosra duzzadt flotta „ezerszer annyi információt nyújtott, mint az elmúlt évszázadok alatt gyűjtött összes mérés” (Wirth, 2007). És az ARGO az egyik legjobb példa arra is, hogy az új nagyságrendű adatkörnyezet valóban út az új tudományos eredményekhez: a CalTech kutatói a szondák által küldött több mint egymillió hőmérsékleti profil elemzésével mutatták ki, hogy a Föld által felvett hőtöbbletet elsősorban a déli óceánok mélyebb rétegei „tárolják”, így azóta sokkal pontosabban modellezhető bolygónk hőháztartása.

A tudománytörténet leggrandiózusabb vállalkozásainak egyike, a Genfben épülő részecskegyorsító (LHC), adatok petabájtjait fogja automatikusan előállítani, amelyek fogadására és feldolgozására évek óta készül a tudományos közösség, de máris tisztában van vele minden érintett, hogy jelenlegi eszközeikkel és kapacitásaikkal csak a jeltermés töredékével tudnak „személyesen” megismerkedni.

A legtöbb és legváltozatosabb adatsilót azonban az űrkutatás eszközparkjának köszönhetjük. A virtuális obszervatórium, a háromdimenziós űrtérképezés, az új teleszkópok elképzelhetetlen mennyiségű adatot állítanak elő. Pár éve még azzal illusztráltuk a személyes emberi megismerés korlátait, hogy „ha egyetlen tudós minden galaxissal akar foglalkozni egy futó pillantás erejéig, akkor négy-ötezer évig tartana az áttekintés, galaxisonként egy perccel számolva”. A feladatok megosztása esetén még mindig csak egyetlen órányi időt töltve el egyetlen galaxissal, negyedmillió tudósra (pontosabban tudósévre) volna szükség, hogy valamennyi galaxis, még ha csak rövid időre is, „átmenjen” a megismerő értelem „beléptető kapuin”. Vessük ezt most össze azzal, hogy az ALMA-66 űrtávcső hamarosan három másodpercenként (!) fog egy-egy új galaxist felfedezni, vagyis a fenti figyelem-képesség fenntartásához akkortól percenként négyszáz, vagyis naponta több mint negyedmillió új „agyat” kellene rendszerbe állítani.

Elképesztő élességgel áll előttünk annak a dinamikának a rajzolata, amelyet Doug Engelbart, az informatikatörténet egyik legendás, a technológiai evolúcióra önálló elméletet kifejlesztő alakja hosszú ideje igyekszik megjeleníteni: „eszközeink rendszere gyorsabban mozog előre, mint az emberi (al)rendszer, és generációk munkájára van szükség, hogy a kihívásnak megfelelő emberi infrastruktúra épülhessen ki.” (Barnet, 2006)

A „Nagy Tudomány” (Big Science) formanyelvén mindez azt jelenti, hogy a gépek és a laboratóriumok (Big Machines, Big Laboratories) oldalán nem jelentkezik rendszerszintű probléma, annál inkább a humán erőforrás (Big Staff) és az azt biztosítani képes financiális háttér (Big Budgets) felől. A kormányzatok támogatáspolitikája lenne képes „pénzből kutatót” transzformálni, ennek híján a tudomány mindinkább a privát szektortól függ, és ezzel párhuzamosan a tudomány iránti bizalom és a tudományos termés „befogadhatósága” csökken.

A tudományban foglalkoztatottak létszám-növekedésének lelassulása tehát mind egyértelműbb rendszerszintű válságtüneteket koronáz meg – nem „statisztikai természete”, hanem a tudástermelési folyamatok megfelelő számú kutató híján mind elégtelenebb visszacsatolási ciklusai miatt. Gunnar Westholm és munkatársai (2004) adatai szerint a kutatók egymillió lakosra vetített aránya, mely 1997-ben majdnem átlépte az ezerfős (még mindig csak alig egy ezreléknyi) lélektani határt, azóta folyamatosan csökken: az ezredfordulón már csupán 876 fő volt. A korábbi tendenciák megfordulásával tehát a természetes népszaporulat üteme meghaladja a tudományban foglalkoztatottak gyarapodásának ütemét, tehát hiába növekszik a kutatók abszolút száma, ha arányuk csökken az össznépességen belül. S noha a mutatók Afrikában és az arab országokban a legrosszabbak, az arányok romlanak Indiában, stagnálnak Kínában és a legfejlettebb országok némelyikében is. A tudomány élenjáró országai azonban elsősorban nem az extenzív növekedés elmaradását konstatálják, hanem a kutatási intézményrendszer „feltöltésének”, újratermelésének fokozódó nehézségeivel szembesülnek. A feldolgozatlan jeltömeg ugyanis legfeljebb „elmaradt intellektuális haszonként” jelenik meg, de a megfelelő kutatási személyzet hiánya kézzelfogható károk formájában dörömböl az ajtón. Alighogy lassulásba kezdett a PhD-képzésre az Amerikai Egyesült Államokba vándorlók száma, a tudományos utánpótlás egyik legfontosabb csatornája, azonnal azzal kellett szembesülnie az amerikai kutatásiparnak, hogy egyre több „hazai” tudóspalánta hiányzik a rendszerből. A New Scientist 2005. áprilisi száma szerint a rákkutatásban a jelenlegi szűk keresztmetszet olyan szakemberek hiánya, akik birtokában vannak az elemi biotechnológiai ismereteknek, ugyanakkor professzionálisan tudják kezelni az e-Science eszköztárát jeltömeg-szinten. Nagy-Britannia egyik ipari szövetsége (a Confederation of British Industry) úgy látja, hogy potenciális fizikusok, biológusok és kémikusok ezreit veszítik el már a középiskolában a vonatkozó tananyagok, a tanári munka és a karriertanácsadás gyengeségei miatt. Emiatt a diskurzusok a jelenlegi rendszer fenntarthatóságának ördögi körébe fagynak bele, s Bush elnök SMART-programjától a magyar Nemzeti Fejlesztési Tervig az extenzivitás célja mindössze annyit jelent, hogy a „(természet)tudomány (mint életpálya) iránti érdeklődés” korai felkeltésével az utánpótlás legalább biztosítható legyen.

A tudomány pillanatnyi helyzete remekül értelmezhető a „kontrollválság” kategóriájával, miközben meggyőzően feltárhatóak az érlelődő „kontrollforradalom” meghatározó vonatkozásai is.

A James Beniger korszakos művében, Az irányítás forradalmá-ban (Beniger, 1986) megfogalmazott modell szerint a villámgyors iparosítási folyamatra adott sikeres válasz egyfajta „kontrollforradalom” volt, amely az 1830-as éveket követő évszázad alatt bontakozott ki, megszüntetve a vezetés, irányítás, döntés, végrehajtás, visszacsatolás makrociklusaiban növekvő egyensúlytalanságot. A sebesség és az energia „megzabolázása” mellett az információáramlást és -feldolgozást segítő technológiai innovációk (és a modern bürokrácia mint társadalmi innováció) révén sikerült megtalálni a kormányzás és a vállalatvezetés adekvát válaszait. Beniger korán felfigyel arra, hogy a telematika (a mindinkább összefonódó információs és kommunikációs rendszerek világa) „kettős szerepet” játszik a folyamatban. Innovációival segíti a hatékony, új kontrollstruktúrák kiépítését, ám amennyiben nem sikerül magát az információfeldolgozás folyamatait újból és újból megfelelő eljárásokkal szabályozni, akkor a visszacsatolás meggyengül, és a rendszer a kontrollválság új formáiba szalad bele.

Maga Beniger könyve megjelenése után röviddel egy önálló tanulmányban igyekezett összefoglalni, hogy miképpen terjeszthető ki modellje a „globális tudományra” (Beniger, 1988), mint par exellence az információk áramlásából felépülő rendszerre: és szinte mindenütt az erősödő kontrollválság jeleit látja. Az elsődleges fenyegetést a „telematika” új rendszereinek üzembe állításában leli fel, amelyek megzavarják, sőt túlzott radikalitásukkal (a papír alapú világtól való eltávolodás miatt) összekuszálják a már megtermelt tudások megszokott áramlási mintázatait, és tovább gyengítik a legfontosabb visszacsatolási mechanizmus, a citációs rendszer működését.

Különös, hogy mekkorát téved Beniger, amikor a tudományos közleményeket, a szakfolyóirat-kiadást, a konferenciakiadványokat mint visszacsatolási mechanizmusokat félti az információs kihívástól – másképpen: a már létrejött tudás megosztásában, az ahhoz való hozzáférésben várja a rendszerműködés zavarainak sokasodását. Beniger leginkább olyan, már felhasználása pillanatában meghaladott irodalmi hagyományra támaszkodik, amely a tudományos irodalom gyarapodásának „követhetetlenségére” épülő morális pánikkal zavarja a tisztánlátást – nem véletlen, hogy félelmeire a valóság cáfolt rá az utóbbi szűk két évtized diadalmas előrelépéseivel: a digitalizáció, a webes böngészés, a full-textes kereshetőség új környezetének megteremtésével.

Ám eközben Beniger általános modellje érvényesebb, mint valaha: a tudomány kontrollválsága ma nem a meglévő eredményekhez való hozzáférés akadályai környékén keresendő, hanem áttevődött az új tudások létrehozhatóságának és a tudomány által megtermelt jeltömeg tudássá transzformálásának színtereire. A kihívás a nyolcvanas évek végén még egyszerűen nem is létezett, de paradox módon éppen a megismerés automatizálásának sikereivel állt elő: mind jobban látjuk, hogy az erősödő visszacsatolási hiány ma már elsősorban és leginkább a jelek feldolgozásának rendszerszintű korlátaira vezethető vissza.


Jánossy hálója, Simonyi gömbje

és a Valhalla befogadóképessége

A tudósok jó ideje tisztában vannak a kontrollválsággal, ha nem is nevezik így. Mindenki a saját bőrén érzi, hogy az új modellek építéséhez, a meglepő összefüggések és hipotézisek előállításához képest „alacsonyabb szintű” műveletekhez (mérési adatok, elemi objektumok, releváns egyedi adatok áttekintése, „térkép”-struktúrák tesztelése, elemi összefüggések nagytömegű megerősítése/hitelesítése) szükséges apparátusa kicsi. Az elemi adattömeg feldolgozásának automatizálásában elért sikerek mindig egy feldolgozottsági szinttel magasabban reprodukálják a feldolgozhatatlanság élményét. Ezzel az érzéssel korábban és átmenetileg csak a szakirodalom áttekintésekor szembesültek a tudósok, amikor a könyvtári szolgáltatások, a referáló/kivonatoló/visszakereső rendszerek korlátaiba ütköztek. Ahol az automatizálás folytatható, ott időszakosan mindig enyhíthető a kontrollválság. (A génszekvenáló robot pl. óriási mennyiségű emberi életidőt szabadított fel.) Az automatizálással azonban a nagy időigényű, könnyen algoritmizálható tudományos tevékenységet lehet csak kiváltani: ahol a megértés mélysége fontosabb, ott az automatizálás megtorpan. A másik lehetséges kitörési pont, az intenzifikálás alapvető korlátja ugyanakkor abból fakad, hogy a tudományterületek össztudásának fajlagosan egyre kisebb része jelenik meg individuális tudásként. Ahogy közel negyven évvel ezelőtt a nagyszerű közgazdász, Jánossy Ferenc (1975, 294.) megfogalmazta:Éppen ezért kell óvakodnunk attól, hogy az individuális tudás hálóját erőszakkal addig próbáljuk feszíteni e megnövekedett terület fölé, amíg a szálak elszakadnak, és csupán nagy lyukak maradnak a sűrű háló helyett.” Simonyi Károly szerint (Pap, 2003) az ember által megszerzett ismeretek halmaza egy gömbbel jellemezhető. A gömb tartalma az ember tudása, és a gömbön kívül találhatóak azok az ismeretek, amelyeket az ember nem sajátított el, ez az ismeretlen információk végtelen halmaza. A gömb a felszínén érintkezik az ismeretlen világgal, és mennél nagyobb a gömb, ez az érintkezési felület annál nagyobb, annál világosabb az ember számára, hogy az ismeretek végtelen tengeréből mily keveset sikerült megismernie. Csakhogy az „individuális gömb” határain túli ismeretek első „köre” a mások által létrehozott, de az egyén által el nem sajátított aktuális tudástartalmak világa: ami azon túl van, az a megismerés potenciális világa. Ha tehát Jánossy üzenetének megfelelően kiterjesztjük Simonyi metaforáját, s az emberi agyak összesített tudástartalma (a „nooszféra”) lesz a gömb, ekkor hirtelen a „még nem ismert dolgok tartománya” és a gömb héja között találjuk azt a jeltömeget, amely a megismerő folyamatok automatizálása révén már megkezdte a „külvilágról szóló” jelzések vételét és rögzítését. A jeltömeg afféle felhőként öleli körül a gömböt, de még nem alakult belső tartalommá: nem lett belőle in-formáció, a nooszféra része. Első pillantásra reálisnak tűnik tehát a veszély: minél vastagabb „réteg” választja el a Tudás Világát a megismerendő külvilágtól, a figyelmet és a kapacitásokat lekötő jeltömeggel való bíbelődés a táplálék felvétele helyett inkább magát az emésztést nehezíti, közvetve tehát inkább a megismerés akadályát jelenti.

Talán nem véletlenül választotta hasonlata hőséül Gunnar Eliasson (2005, 436.) a germán mitológia hőseinek csarnokában, a Valhallában a viking vitézek esti eledelét jelentő disznót, Särimnert. E csodálatos négylábú, miután elfogyasztják vacsorára, másnap reggelre feltámad, hogy majd újra lakmározhassanak belőle a hősök. De mi van akkor, teszi fel a kérdést Eliasson, ha a disznó másnapra nagyobb, majd harmadnapra még nagyobb? A vitézek számára egyre lehetetlenebb feladat lesz a belőle készült táplálék elfogyasztása. A kiváló svéd kutató szerint ugyanúgy járunk Särimnerrel, mint a saját információs paradoxonába fulladó gazdaság, amelyben a tudás számunkra releváns darabjainak mennyisége gyorsabban nő, mint amennyire tanulási képességünk követni tudja.

Csakhogy Eliasson félelme „Simonyi gömbjére”, az individuális tudás korlátaira épül: ha azonban a disznó a „jeltömeg-felhőt” jelképezi, és a Valhalla lakói a tudósok, akkor az egyre nagyobb mennyiségű vacsora elfogyasztásához elégnek látszik egyre több bátor, edzett és éhes harcost meghívni a lakomára. Eliasson elfeledkezik arról, hogy „Jánossy gömbje” úgy tágul, ahogyan az abban lévő „agyak” mennyisége gyarapszik. Särimner növekedése tehát egészen addig egyensúlyban tartható, amíg marad meghívható hős a Valhallába, amíg el nem fogynak az „agyak”. A metafora allegóriává növesztésével tehát azt mondhatjuk, hogy a végső létszámhatár a teljes emberi populáció, az „agyak összessége”. A vacsoravendégek számának emelkedésével pedig időt nyernek azok a vitézek, akik két étkezés között kizárólag azon dolgoznak, hogy magát a probléma természetét alakítsák át: például megállítsák Särimnert a növekedésben, vagy nagyobb porciók elfogyasztására tegyék alkalmasabbá a hősöket.

Mindezzel témánk szempontjából három, különösen erős állítást sikerült megjeleníteni:

1. Már rövid távon is nagy a nyomás a decentralizáltabb, demokratikusabb tudástermelési modellek keresésére.

2. A tudományban foglalkoztatottak extenzív növelésének elvi-logikai végső határa a Föld teljes népessége.

3. Felértékelődik a tudománynak az az ága, amelyik avval foglalkozik, hogyan nyerhető ki a „nyers jeltömegből hasznosítható tudás”, és hogyan haladhatóak meg a jelenlegi kényszerpályák.


Előjáték az extenzív növekedéshez:

részvételi tudomány, nyílt tudomány


A nagy bejövőadat-igényű tudományokban jó ideje bevett gyakorlat, hogy a tudomány oszlopcsarnokai „megnyílnak”, és alkotó szövetségesként vonják be azokat, akik képesek idejüket, tudásukat és legfőképpen megfigyelőképességüket tudományosan is értékelhető célok szolgálatába állítani. A „hobbytudomány” képviselőinek „klasszikus” terepe a csillagászat: az asztronómusok régóta partnerként tekintenek az őket létszámban sokszorosan felülmúló „amatőr” kollégáikra, akiknek sok értékes felismerést, felfedezést, adatot köszönhetnek. Hihetetlennek tűnik, de az Egyesült Államok polgárainak negyede állítólag aktív madármegfigyelő, és folyamatosan szolgáltatják a vándorlási és viselkedési információkat a szakosított szervezetek számára. Az amatőr ornitológusok egyfajta világhálózatot (Global Bird Brain) is alkotnak, számos „amatőr” madármegfigyelési projekt eredménye épült be a madártani kánonba, rangos szakmai folyóiratokban. De említhetnénk a helytörténeti kutatásokat vagy a gépészeti innovációk világát – tömegesen tapasztaljuk a tudományos „céhen” kívül állók megjelenését és alkotó részvételét.

Ezt a jelenséget Frank von Hippel és Alan Irwin bestsellerei nyomán szokás „állampolgári tudománynak” (citizen science) vagy „részvételi tudománynak” (participatory science), esetleg – Gregory Laughlin nyomán – „állampolgári-részvételi tudománynak” (participatory citizen science) hívni.

Csakhogy a „hobbytudósok bevonásának” e hagyományos módjai még a tudomány predigitális korszakának világát tükrözik: a Valhallába való meghívás oka a kiegészítő és előfeldolgozott információk termelésére, az adatgyűjtésre való képesség. A megfigyelők afféle „humán szenzorok”, akik elsősorban környezeti kérdésekben tekinthetők teljes értékű szakértőknek.

A cybertudomány számára azonban már az válik szükségessé, hogy túlcsorduló adatsilóinak a feldolgozására vegye rá, mégpedig tömegesen, az együttműködésre hajlandó „agyakat”. Három friss csillagászati projekt, a Google Sky, a Stardust home és a Systemic tökéletesen illusztrálja az okokat, a módokat és az online infrastruktúrában rejlő lehetőségeket.

A Google Sky 2007-ben elindult GalaxyZoo programja3 200 millió galaxis osztályozásának gigantikus feladatához várja az interneten keresztül csatlakozó segéderőt. A program filozófiája szerint az emberi agy mintázatfelismerő képessége sokkal jobb, mint a legerősebb számítógépé, így az érdeklődő emberek milliói bármely számítógépes programnál hatékonyabban fedezik fel a szokatlant, a furcsát vagy éppen a gyönyörűt.

A NASA és a Planetary Society Stardust home programjában kifejlesztett űreszköz csillagközi porszemcséket ejtett foglyul egy ún. „aerogélben”. A Johnson Űrközpontban az aerogél tartalmát nagy felbontással beszkennelték, majd az interneten elérhetővé tették az anyagot. Közel hétszázezer rövid mozgófilmet vettek fel, amelyen egy-egy képsorozat az aerogél közel sókristály méretű részét mutatja. E kis területekről a fókuszt negyven alkalommal változtatva eltérő „mélységű” tartományokat rögzítettek, az aerogél felszínétől közel 100 mikrométeres mélységig. S mivel a számítógépes programok nem alkalmasak arra, hogy a részecskékhez vezető nyomokat a szükséges alapossággal tanulmányozzák, ehhez emberi szemre és emberi intelligenciára volt szükség. A kaliforniai Berkeley Egyetem olyan „virtuális mikroszkópot” fejlesztett ki,4 amelynek alkotórészei azok az önkéntesek, akik egy teszt sikeres elvégzése után „rávetik” magukat a keresésre, és képesek hiteles és valóságos módon „beazonosítani” egy elfogott részecske helyét, hozzájárulva a keresett szemcsék megtalálásához és „kivágásához”. (A szemcséket megtalálóik nevezhetik el.)

A Systemic projektben egy százezer csillagot és a hozzájuk tartozó bolygórendszereket tartalmazó adatbázisra „engedik rá” egy szoftver használatának megtanulása után az érdeklődőket, azért, hogy a szimulált és a valóságos állapotok összevetését követően képesek legyenek besorolási döntésekkel, kreatív meglátásokkal, módszertani ötletekkel és új kutatási megközelítésekkel segíteni az UCSC (University of California, Santa Cruz) csillagászait. Az adatbázis megnyitásával az automatikus osztályozási eljárásokhoz képest sokkal termékenyebbé és megbízhatóbbá válik a feldolgozás aprómunkája, amelybe így még az invenció és a kiszámíthatatlanság is beköltözik.

Az állampolgári tudomány néhány területen tehát egészen közel került ahhoz, hogy beteljesítse az ún. „nyílt tudomány” (open science) normatív ígéreteit. Paul A. David, a nyílt tudomány talán legszenvedélyesebb elemzője tucatnyi szakmunkában, egészen a reneszánszig visszanyúlóan mutatja be, miként „záródik be” a természeténél fogva „nyílt tudomány”, hogy aztán az izoláció évszázadai után éppen a cybertudománnyal kezdődjön meg újra a közeledés, az arisztokratikus eltávolodást a kollaboráció új minősége révén felváltó „demokratizálódás”. Mások szerint a csendes forradalom már végbe is ment: a tudomány soha nem volt ennyire „nyílt”, mint éppen manapság

Clifford D. Conner (2005) még ennél is határozottabban fogalmaz: az elkülönült tudomány valódi intellektuális felhajtóerejét a társadalomtörténet hajnala, a halász-vadász-gyűjtögető korszak óta a parasztok, a kézműves mesterek, a bányászok és a gyakorlati tudások más hordozói adták: a „nép”, amelyre egyre összetettebb szerkezetekkel és érdekviszonyokkal „telepedett rá” a Tudomány mint hivatásrend és szakma. Talán ezért lehet sokszor a citizen science-nek „ellenmozgalmi”, emancipatorikus jellege is. Ahogy Doug Schuler fogalmaz:5 „a tudomány túl fontos ahhoz, hogy csupán a tudósokra bízzuk”, akik saját lelkiismeretükön túlmenően „erősen kiszolgáltatottak nagyhatalmú intézményeknek”. Jól látszanak e „visszahódítási program” legfontosabb frontvonalai is: a környezet, az egészség, a közösségi szolgáltatások világa – azok a területek, ahol leginkább jelentéssel teli és téttel bíró a tudomány teljesítménye a „hétköznapi emberek” számára. De ezért lehettek az információs forradalom csendes napszámosai, a „garázstudósok” és „hobbyprogramozók” a „nép tudományának” új zászlóvivői, és így vált kifejezetten alternatív tudományos „intézménnyé” a hackerkultúra. John Willinsky (2005) szerint a nyílt forráskódú szoftverek kérdéskörének szigorúan üzleti aspektusokra való leszűkítése is csak azt a célt szolgálta, hogy el lehessen fedni a „nyílt forrás” egészen közeli és hosszú időre visszanyúló kapcsolatát a „nyílt tudománnyal”.

A „nyílt tudomány” felé való lépegetés sajátos konvergencia-mintázatot mutat. Mindinkább megkérdőjelezhetetlenné válik, hogy az „amatőrökké” degradált állampolgárok teljes értékű fogaskerekei tudnak lenni tudományos programoknak, akár az adatsilók elemi tartalmának szemlézéséről, akár a legabsztraktabb és legösszetettebb tudományos teóriák megalkotásáról van szó. (2007 végének nagy médiavisszhangot kiváltó tudományos szenzációja egy, a húrelmélet meghaladására vállalkozó hipotézis egy napjait leginkább szörföléssel töltő hobbytudóstól.)

Megszületett tehát a ProAms (professional amateurs), a „hivatásossal” egyenértékes teljesítményt nyújtó szakember kategóriája (Leadbeater – Miller, 2004). E közeledési-homogenizálódási folyamat túloldalán viszont azt tapasztaljuk, hogy a foglalkoztatási présbe szorítva a Valhalla – vagy Bruno Latour és Steve Woolgar metaforája szerint: a Laboratórium – tudós-seregének képzettségi mutatói folyamatosan romlanak. Friss amerikai adatok szerint a társadalomtudományok és az orvosi kutatás terén dolgozók 10 %-a nem végzett egyetemi tanulmányokat. A mérnöki és tudományos területen elhelyezkedő szakemberek egyre kisebb számban doktorálnak. Több mint egymillióan dolgoznak a kutatói és IT-szektorban úgy, hogy nemhogy egyetemi, de még főiskolai végzettségük sincs. (Az informatikai területen foglalkoztatottak egyötödének nincs papírja felsőfokú tanulmányairól.) A kisegítő képzésben részt vett, illetve középiskolai végzettségű alkalmazottak teszik ki a számítástechnikai és matematikai jellegű munkahelyeken foglalkoztatottak 40 százalékát, valamint a mérnökök 20 százalékát.6 Ez a konvergenciafolyamat7 már rövid távon is egyértelművé teszi, hogy elmosódnak a határok a tudományos tevékenység mint „munkavállalás” és mint „munkavégzés” között. (Latour [1998, 208–209.] mindezt a tudomány [science] és a kutatás [research] szembeállításával érzékelteti.)

Az út, mint láttuk, sokoldalúan megnyílt tehát ahhoz, hogy a tudományos problémamegoldó gépezetek „emberi komponenseinek” gyarapítása szerves, logikus és számtalan gyakorlati megerősítésre alapozó módon induljon el. Azt a kérdést, hogy az ekképpen felfogott extenzív gyarapodás vajon képes-e megoldani a tudomány kontrollválságát is, egy pillanatra tegyük félre: érdemesnek látszik egy pillantást vetni a gazdaságra is.


Rövid kitekintés:

párhuzamok az üzlet világával


„A piac és a tudomány egyaránt kollektív cselekvés.” (Howard Rheingold)

Az egyre nagyobb méretű, tudatosan kooperáló közösségek ugyanúgy kezdték el átalakítani a gazdaságot, mint a tudományt. S noha kétség sem férhet a tudomány működésének mély gazdasági beágyazásához, és maga a „nyílt tudomány” is levezethető ár–érték változásokból,8 ezúttal a tudomány humán fordulatával és extenzív növekedésével összevethető, érdekes üzleti analógiákra fordítsunk figyelmet. Elsősorban azért, mert a technológiai fejlesztéssel összekapcsolódó piaci folyamatok leginnovatívabb szereplői a tudásipar és a digitális gazdaság legjobbjai: az itt „meginduló” folyamatokhoz várhatóan nagyon hasonlítani fognak a többi nagy alrendszerben végbemenő változások.

A fogyasztói viselkedésről feldolgozó rendszerekbe ömlő adatfolyammal kapcsolatban a kilencvenes évek közepén az volt a kizárólagos cél, hogy minél több részfeladatot és elemzést a számítógép lásson el. Az „előrerohanás” néhány éve után viszont lassan minden érintett számára egyértelművé vált, hogy a számítógép nem elég kifinomult mintázatkereső eszköz: a folyamatba valahogy vissza kell csempészni az emberi elmét. Az üzleti célú felhasználásra kifejlesztett mesterséges intelligenciarendszerek mind nagyobb menynyiségben igénylik a „jó öreg” emberi munkaerőt (plain-old humans), hogy rátegyenek egy lapáttal a számítógéppel előállított, „kibányászott” nyers adattömegre (Guernsey, 2003).

Az emberi mérlegelésből származó érték-hozzáadási igény azóta specialisták sorát hívta életre: elemzőket (analysts), akik például a zenei ízlést „értik meg”, osztályozási szakértőket (categorization experts), akik referencialáncba állítják a különböző termékeket, szemlézőket (reviewers), akik a nehezen érzékelhető és váratlan mintázatokat ismerik fel, és szerkesztőket (editors), akik az első kapcsolatot hozzák létre a termék és a valószínű fogyasztási mintázatok között. A számítógép megfelelőnek bizonyul az „átlagolásban”, de a piaci választások mögött álló ízlések egyedi és bonyolult világában ez édeskevés. Emberi főkre van szükség, hogy a mennyiséggel a rendszerbe került bizonytalanság csökkenthető legyen, és előrejelző értékű következtetéseket vonhassunk le belőle. A nagy adattömeg is csak akkor ér valamit, ha hozzájárul ehhez.

A professzionális amatőrök a maguk képére formálják az üzlet világát is. Miközben élesedik a hajsza a tehetségek iránt (talent hunting), a hiányzó erőforrásokat már egyre kevésbé néhány jól kiválasztott minőségi szakember, hanem valamilyen innovatív megoldással motivált hálózati közösség (sok esetben maguk a vásárlók, felhasználók) pótolják (crowdsourcing). Az online világban egyre több részvételi folyamat helyettesíti az egykor elkülönült intézményi struktúrákat: ennek tipikus formáit a látszatra az újságírók és fotoriporterek „riválisaivá” (valójában: szövetségeseivé) lett bloggerek és a hírértékű eseményeket mobiltelefonjaikkal megörökítő botcsinálta képírók között találjuk. A „tömegek – James Surowiecki (2007 [2004]) nyomán elhíresült – bölcsessége” számos mezőben elkezdte átalakítani a gazdasági folyamatokat, megszüntetve információmonopóliumokat, lerövidítve értékláncokat, kiiktatva közvetítő szereplőket, de elsősorban is: emancipálva a „fogyasztót”, aki egyszerre válhatott „termelővé” is ugyanebben a térben (consumer + producer = prosumer). Amikor a tudomány kontrollválságából kivezető utat keressük, sok termékeny összefüggés válik érthetővé az üzlet világa felől.


Egy kontrollforradalom körvonalai


A korábban elmondottak alapján megfogalmazható, hogy a tudományban foglalkoztatottak számának a kontrollzavarokat „helyreütő” extenzív növelése, másképpen az „agyak gyarapítása a tudástermelő rendszerekben” akkor lehet sikeres, ha nem pusztán a jelenlegi hiányokat szünteti meg, vagy a mostani létszámadatokat emeli enyhén felfelé, hanem robbanásszerűen és radikálisan von be milliókat, újonnan, a tudományművelésbe.

Az állampolgári-részvételi tudomány alaposan bemutatott, egyelőre még kísérletinek tekinthető, pionír modelljei, vagy a partnerként számításba vett (esetleg professzionális) amatőrök tömegei nem jelentenek rendszerszintű választ a fenti kihívásra. A tudomány kontrollválságát nem oldhatják meg, mert rendelkezésre állásuk esetleges, létszámuk tervezhetetlen, előképzettségük nem befolyásolható, szervezésük és kooperációjuk még a fejlett online workflow eszközökkel sem megoldott, tevékenységük minőségbiztosítása kérdéses. Nem tudnak tehát olyan (Lewis Mumford szóhasználatával) megagépezeteket alkotni, amelyre a megoldandó problémák miatt szükség van.

Ha a kérdést úgy tesszük fel, hogy hol áll akkor tömegesen rendelkezésre a felsorolt kritériumoknak megfelelő „tartaléksereg” a tudományos kutatás számára, akkor egyetlen terület marad: a közoktatás.

Az UNESCO 2004-es adataiból kiinduló, felületesen óvatos extrapoláció szerint 2008-ra körülbelül 800 millió diák tartozik a 12–18 éves korosztályba, akikre körülbelül 40 millió tanár felügyel, üzemszerű rendben. A tanárok nagy része tudományos „kiképzést” kapott, és sokuknak feladata is, hogy tudományokat tanítsanak diákjaiknak. Azt régóta tudjuk, hogy különböző absztrakciós szintű és megfelelően irányított problémamegoldó folyamatokba a 12–18 éves korosztály bevonható, hogy a diákok tanáraik és a folyamatban érintett tudósok segítségével képesek lehetnek releváns új tudások létrehozására. A jelentésteli témákban (környezet, egészség, történelmi múlt, kozmikus környezet) közvetlen érintettségük és választásaik folytán erősen motiválttá is válnak a tanulásra, hiszen „illusztratív” ismeret-elsajátítás helyett felfedezésekhez vezető, eleven, in situ programokban vesznek részt, amelynek fényében a kompetenciát biztosító ismeretek elsajátítása is belülről vezérelt, funkcionális cél lehet számukra a kívülről vezérelt, öncélú ismeretátadással szemben. Vegyük észre: mindez csak egyetlen lépéssel van túl az IBSE (Inquiry-based Science Education) programján, amit uniós ajánlásként a Michel Rocard vezette szakértői bizottság 2007-es jelentésében is megfogalmazott (Science Education Now: A Renewed Pedagogy for the Future of Europe).

Azt, hogy e majdani óriásgépek miként szerveződhetnek kutatók, tanárok és diákok mélységben sokszorosan tagolt hibridjeiként, ahol az adott témával eltöltött idő, a problémamélység, illetve a méretek függvényében különülnek el a feladatok, ennek a tanulmánynak a folytatásában részletesen is elemzem majd. Befejezésként annyit kell még megjegyezni minderről, hogy amennyiben néhány generáción keresztül minden diák részévé válik, akármilyen periférikusan is, a kutatói közösségnek, egyáltalán nem szükségszerű, hogy iskoláinak befejezése után elszakadjon tőle. Másképpen: néhány emberöltő alatt a jelenlegi állampolgári-részvételi tudomány észrevétlenül alakulhatna át valami izgalmasan másba.

Ez látszólag utópisztikus, valójában nagyon is realisztikus forgatókönyv. A tudomány kontrollválságának leküzdése közben ráadásul a közoktatás olyan gyakorlati, konstruktivista jellegű fordulata is megvalósulhat, amelyre elvi és elméleti szinten már régóta készen állnak, és régóta várnak is a pedagógiai játéktér szereplői – másképpen: sikerülhet a közoktatás kontrollválságán is túllépni.

Csak ekkor nyílik remény arra, hogy az ipari korszak tudományát, közoktatását és bürokratikus szabályozó mechanizmusait magunk mögött hagyjuk. Messze túl vagyunk az (információ)technológián: az a társadalmi innováció, ami ezekben az alrendszerekben megindul, a tudományt és az akadémiai közösség tagjait a bizalmi válságból újra a (globális) társadalom legmegbecsültebb szereplői közé emelheti.


Irodalom

Barnet, Belinda (2006): Engelbart’s Theory of Technical Evolution. Continuum: Journal of Media & Cultural Studies. Dec 2006. 20, 4, 509–521.

Beniger, James R (1986): The Control Revolution. Technological and Economic Origins of the Information Society. Harvard University Press, magyarul: Az irányítás forradalma. Az információs társadalom technológiai és gazdasági forrásai. Gondolat–Infonia, Budapest, 2004

Beniger, James R. (1988): Information Society and Global Science. Annals of the American Academy of Political and Social Science. 495, January. Telescience: Scientific Communication in the Information Age. 14–28. (A tanulmány három évvel később megjelent egy igényes válogatás részeként is In: Dunlop, Charles – Kling. Rob (eds) (1991): Computerization and Controversy: Value Conflicts and Social Choices. Academic Press, San Diego)

Conner, Clifford D. (2005): A People’s History of Science. Nation Books, New York

Eliasson, Gunnar (2005): The Nature of Economic Change and Management in a New Knowledge Based Information Economy. Information Economics and Policy. 17.

Guernsey, Lisa (2003): Making Intelligence a Bit Less Artificial. New York Times. 1 May.

http://www.nytimes.com/2003/05/01/technology/circuits/01reco.html?pagewanted=print&position

Jánossy Ferenc (1975): A gazdasági fejlődés trendvonaláról. 2. bővített kiadás. Magvető, Budapest

Latour, Bruno (1998): From the World of Science to the World of Research? Science. 280.

Leadbeater, CharlesMiller, Paul (2004): The Pro-Am Revolution: How Enthusiasts Are Changing Our Economy and Society. DEMOS

Panoff, Robert (2005): Let’s Remember: The Noun is ’Science’. HPC Wire. 1 July.14, 26, http://www.hpcwire.com/hpc/411230.html

Pap László (2003): Találkozások a tanárfejedelemmel. Informatika. 6, 5, 14.

Surowiecki, James (2007): A tömegek bölcsessége. Napvilág, Budapest, angolul: The Wisdom of Crowds. Doubleday, 2004

Z. Karvalics, László (2007): A cyber-infrastruktúra mint aktuális kihívás és mint tudományszociológiai probléma. Magyar Tudomány. 4, 475–489.

Westholm, Gunnar – Tchatchoua, B. – Tindemans, P. (2004): The Great Global R&D Divide. Multinational Monitor. July/August, 25, 7–8.

http://www.multinationalmonitor.org/mm2004/07012004/july-aug04corp4.html

Wirth, Endre (2007): A beszélő hajó kifecsegi az óceánok titkait. Népszabadság. október 20. http://nol.hu/cikk/468572/

Willinsky, John (2005): The Unacknowledged Convergence of Open Source, Open Access, and Open Science. First Monday. 10, 8. http://firstmonday.org/issues/issue10_8/willinsky/index.html




1 Ezt a közkeletű vélekedést tükrözi például Gabriele Gramelsberger tételmondata a „Mapping Anthropotechnological Spaces ( http://www.expolar.de/MAS/program.html ) konferencián: „Ha abból a széles körben elfogadott felfogásból indulunk ki, hogy a tudás a feldolgozott és összefüggésbe helyezett információ, akkor a jövő kérdése, hogy milyen szoftverek, milyen modellek végzik majd az adatokból származó információ értelmezését”. Vagy egy példa a 2007. október elején Budapesten megrendezett Európai Technológiai Kerekasztal (ETRE) konferenciájáról: „Tizenhat petabájt […] információ keletkezik naponta a világban, s ezzel az adattömeggel számítógépek sűrű hálózatai és szuperkomputerek próbálnak megbirkózni.”

2 A megfigyelőállomások által kibocsátott adattengerről elmélkedő Dan Warnert idézi: Panoff, 2005.

3 http://www.galaxyzoo.org/

4 http://planetary.org/programs/projects/stardustathome/

5 Saját Citizen Science oldalán: http://diac.cpsr.org/cgi-bin/diac02/pattern.cgi/public?pattern_id=294

6 Az NSF jelentését az Sg.hu ismerteti: Egymillió amerikai informatikus dolgozik végzettség nélkül (2004. augusztus 17.) http://www.sg.hu/cikk.php?cid=33391

7 Az ekképpen felfogott konvergencia – Conner teóriájának megerősítése mellett – erősen emlékeztet Latour elhíresült „transzláció-fogalmára” is, ami az új tudományos felismeréseket nem a tudomány zárt világán belül látja megszületni, hanem egy diffúz kommunikációs „állapottérből” vezeti le.

8 Például abból, hogy az információs javak előállításának és forgalmazásának marginális költségei folyamatosan esnek, s ez „nyitja ki” a hozzáférést az adatokhoz, publikációkhoz, szakmai orgánumokhoz. Az „open science” programatikus alapirodalma egyenesen abból indul ki, hogy a „nyílt tudomány” egy teljesen új gazdasági környezetet igényel és teremt.


<-- Vissza a 2008/03 szám tartalomjegyzékére


<-- Vissza a Magyar Tudomány honlapra