teberia 6

48
NAUKA TECHNOLOGIE GOSPODARKA CZŁOWIEK NR 3(6)MARZEC ‘11 Tor zamiast uranu? Wikipedia: mądrość zbiorowa kooperacja online

description

magazyn o technologiach i innowacjach

Transcript of teberia 6

Page 1: teberia 6

NAUKA

T ECHNO LOG I E

GOSPODARKA

CZ ŁOW I EK

NR 3(6)MARZEC ‘11

Tor zamiast uranu?Wikipedia: mądrość zbiorowakooperacja online

Page 2: teberia 6

38

Page 3: teberia 6

* Skąd ta nazwa – Teberia?

…Otóż gdy pojawił się gotowy projekt witryny – portalu niestety nie było nazwy. Sugestie i nazwy sugerujące jednoznaczny związek ze Szkołą Eksploatacji Podziemnej typu novasep zostały odrzucone i w pierwszej chwili sięgnąłem do czasów starożytnych, a więc bóstw ziemi, podziemi i tak pojawiła

się nazwa Geberia, bo bóg ziemi w starożytnym Egipcie to Geb. Pierwsza myśl to Geberia, ale pa-miętałem o zaleceniach Ala i Laury Ries, autorów znakomitej książeczki „Triumf i klęska dot.comów”, którzy piszą w niej, że w dobie Internetu nazwa strony internetowej to sprawa życia i śmierci strony.

I dalej piszą „nie mamy żadnych wątpliwości, co do tego, że oryginalna i niepowtarzalna nazwa przy-służy się witrynie znacznie lepiej niż jakieś ogólnikowe hasło”. Po kilku dniach zacząłem przeglądać

wspaniała książkę Paula Johnsona „Cywilizacja starożytnego Egiptu”, gdzie spotkałem wiele informa-cji o starożytnych Tebach (obecnie Karnak i Luksor) jako jednej z największych koncentracji zabytków

w Egipcie, a być może na świecie. Skoro w naszym portalu ma być skoncentrowana tak duża ilośćwiedzy i to nie tylko górniczej, to czemu nie teberia.

Jerzy KickiPrzewodniczący Komitetu Organizacyjnego

Szkoły Eksploatacji Podziemnej

Portal teberia.pl został utworzony pod koniec 2003 roku przez grupę entuzjastów skupio-nych wokół Szkoły Eksploatacji Podziemnej jako portal tematyczny traktujący o szeroko

rozumianej branży surowców mineralnych w kraju i za granicą. Magazyn ,,teberia” nawiązuje do tradycji i popularności portalu internetowego teberia.pl, portalu, który

będzie zmieniał swoje oblicze i stawał się portalem wiedzy nie tylko górniczej, ale wiedzy o otaczającym nas świecie.

Adres redakcji:Fundacja dla Akademii Górniczo-Hutniczej

im. Stanisława Staszica w Krakowiepawilon C1 p. 322 Aal. Mickiewicza 30

30-059 Krakówtel. (012) 617 - 46 - 04fax. (012) 617 - 46 - 05

e-mail: [email protected]” www.teberia.pl

Redaktor naczelny: Jacek Srokowski ([email protected])Z-ca redaktora naczelnego: Tomasz Siobowicz ([email protected])

Dyrektor Zarządzający Projektu Teberia: Artur Dyczko ([email protected])Biuro reklamy: Małgorzata Boksa ([email protected])

Studio graficzne: Pigment design&media (www.pigment-art.com)

Wydawca: Fundacja dla Akademii Górniczo-Hutniczejim. Stanisława Staszica w Krakowie

prezes: Jerzy Kicki

[email protected]

NIP: 677-228-96-47REGON: 120471040KRS: 0000280790

Konto Fundacji:Bank PEKAO SA

ul. Kazimierza Wielkiego 7530-474 Kraków

nr rachunku: 02 1240 4575 1111 0000 5461 5391SWIFT: PKOPPLPW

IBAN; PL 02 1240 4575 1111 0000 5461 5391

Redakcja nie odpowiada za treść ogłoszeń.(C)Copyright Fundacja dla AGH Wszelkie prawa zastrzeżone.

Żaden fragment niniejszego wydania nie może być wykorzystywanyw jakiejkolwiek formie bez pisemnej zgody wydawcy.

SPIS TREŚCI:

4568

121316222631323842

WYDARZENIA

WYDARZENIA

WYDRUKUJ MI ROWER TATO

IBM - PIĘĆ INNOWACJI NA PRZYSZŁE 5 LAT

KOMENTARZ

WCZORAJ I DZIŚ ENERGETYKI JĄDROWEJ

BUDOWA ELEKTROWNI JĄDROWYCH W POLSCE BĘDZIE KONIECZNA? FUKUSHIMA A SPRAWA POLSKA

URANU NAM NIE ZABRAKNIE

O TORZE W REAKTORZE

SPECJALISTA OD PROMIENIOWANIA

MĄDROŚĆ TŁUMU - WIKIPEDIA

NIECH MOC BĘDZIE Z WAMI

PUK PUK ...OTWARTE !!

�MARZEC 2011

Page 4: teberia 6

WYDARZEN I A

Na r ynku systemów urządzeń mobilnych rządzą dziś niepodzielnie Apple i Google ze swoim Androidem. Z boku przygląda się im z zazdrością Microsoft , któr y związał się z największym producentem telefonów ko-mórkowych, f ińską Nokią, która również nie potrafi od-naleźć się na r ynku, zwłaszcza r ynku smartphonów.

Kiedy przed kilkoma tygodniami kupowałem dziecku telefon ko-mórkowy u jednego z operatorów, pytanie jaki to ma być telefon, było wtórne do tego pod jakim systemem ma on działać. Dla mojego 10-letniego syna takie nazwy jak iPhone czy Android nie stanowią żadnej tajemnicy, wie doskonale czego może się spodziewać po tychże plat-formach. Jego stara, ulubiona Nokia poszła w odstawkę. Bo po co mu Nokia skoro on chce mieć w telefonie Angry Birdsa i inne ulubione gry? Wybór padł więc na jeden z smartponów z systemem Android, bo iPhone stanowił, powiem to szczerze, zbyt duży wydatek.

Apple przewrócił rynek do góry nogami, definiując na nowo pojęcie smartfonu i przyciągając producentów oprogramowania do zamkniętego, ale bardzo silnego ekosystemu. Sukcesowi Apple`a po-zazdrościł Google, który stworzył równie sprawny ekosystem Android dedykowany smartphonom, a ostatnio także tabletom.

Ekosystem to dziś słowo kluczowe. Obejmuje nie tylko urządze-nie i jego system, ale także producentów oprogramowania, aplikacje, e-handel, reklamę, wyszukiwanie, aplikacje społecznościowe, usługi lokalizacyjne, zunifikowaną komunikację i wiele innych rzeczy.

To czym wygrywają z konkurentami Apple i Google, to potęga App Store (ponad 400 tys. dostępnych aplikacji) i Android Market (300 tys. aplikacji).

Zauważył to Stephan Elop, nowy szef Nokii.Nasi rywale nie odbierają nam rynku za pomocą urządzeń, odbie-

rają nam udziały w rynku za pomocą całych ekosystemów. To oznacza, że musimy zdecydować, jak zbudować, przekształcić albo przyłączyć się do któregoś z ekosystemów – napisał przed kilkoma tygodniami Elop zwracając się do pracowników fińskiego koncernu.

System operacyjny Nokii, Symbian okazał się zbyt trudnym środo-wiskiem dla programistów (nie udała się także jej platforma MeeGo),

więc szefostwo fińskiego koncernu postanowiło związać się z Micro-softem.

Koncern z Redmond, poza sukcesem konsoli do gier Kinecta, ma za sobą serię znaczących porażek: telefony Microsoft Kin (wycofane z rynku po zaledwie trzech miesiącach sprzedaży!), odtwarzacz Zune, system operacyjny Windows Vista.

Microsoft musi odwrócić złą passę i żeby wrócić do ścisłej czołów-ki potrzebuje spektakularnego sukcesu na rynku urządzeń mobilnych, bo to on dziś wyznacza kierunki. Jego system Windows Phone 7 i bu-dowany wokół niego ekosystem (Marketplace z 10 tys. aplikacji) posia-da zaledwie kilka procent udziału w rynku, głównie dzięki sprzedaży telefonów HTC wyposażonych w ten system. Żeby ten udział wzmoc-nić, Microsoft również potrzebował Nokii, największego producenta telefonów komórkowych w świecie.

11 lutego, Nokia i Microsoft na wspólnej konferencji w Londynie ogłosiły strategiczną współpracę – Finowie zastąpią Symbiana Win-dowsem Mobile 7.

Wprawdzie Nokia była kuszona także przez Google, ale ostatecz-nie zdecydowała się na współpracę z Microsoftem. Złośliwi twierdzą, że to zasługa faktu, iż Elop był do niedawna menadżerem w koncernie z Redmond. Mało tego, jest akcjonariuszem Microsoftu. Trudno się więc dziwić, że pojawiło się wiele teorii spiskowych mówiących, że Mi-crosoft przejmuje powoli Nokię.

W istocie Microsoft zapłaci Nokii ponad 1 miliard dolarów za pro-mocję i rozwój urządzeń opartych na systemie z Redmond. Jednocze-śnie Nokia oszczędzi około 1,2 mld dolarów rocznie obcinając wydatki na R&B (badania i rozwój) w zakresie softwaru.

Z kolei Nokia płacić będzie Microsoftowi opłaty licencyjne za ko-rzystanie z Windows Phone 7. Według informacji Bloomberga, Mi-crosoft uzyska także dostęp do portfolio niektórych patentów Nokii, chodzi głównie o technologię geolokalizacji (Nokia Navteq).

Jeszcze nie wiadomo, kiedy pojawi się pierwsza Nokia z systemem Windows Phone 7. Prawdopodobnie nie nastąpi to wcześniej niż za rok. Problem jednak w tym, że rok czasu na rynku smartphonów to cała epoka. Kto wie, jak ten rynek będzie wyglądał w 2012 r. Michał Jakubowski

Microsoft & Nokia: małżeństwo z rozsądku?

Microsoft & Nokia: małżeństwo z rozsądku?

MARZEC 2011�

Page 5: teberia 6

WYDARZEN I A

Barierę drogową, która redukuje skutki uderze-nia samochodu nawet do 90 proc. opracowali polscy naukowcy. Teraz szukają producentów gotowych do wdrożenia ich - obsypanego nagro-dami - wynalazku.

6 luty, na pierwszym odcinku specjalnym rajdu Ronde di Andora, o godz. 8.30 samochód prowadzony przez Roberta Kubicę uległ wy-padkowi. Skoda fabia uderzyła lewą stroną w barierę ochronną która nie wytrzymała uderzenia i zadziałała jak gilotyna tnąc karoserię sa-mochodu. Polski kierowca rajdowy doznał licznych obrażeń - zmiaż-dżona dłoń, zgruchotana noga. Lekarze twierdzą, że Kubica tylko cu-dem ocalał.

Bariery ochronne, które zwykle chronią kierowców, mogą w skraj-nych przypadkach być przyczyną śmierci kierowców. Wypadek Kubicy tylko to potwierdza. Polscy wynalazcy i naukowcy z Centrum Badaw-czo-Rozwojowego EPAR w Kowarach (Dolnośląskie) opracowali ba-rierę drogową, która może zapobiec w przyszłości takim sytuacjom. Technologią zainteresowana jest też Europejska Agencja Kosmiczna. Innowacyjna bariera działa w oparciu o technologię EPAR. Twórcami bariery są: Lucjan Łągiewka, Przemysław Łągiewka oraz prof. Stani-sław Gumuła.

- Od istniejących obecnie na świecie zabezpieczeń polska bariera różni się tym, że znacząco redukuje siłę bezwładności działającą na

pasażerów pojazdu - wyjaśnia Przemysław Łągiewka. - Pochłania wię-cej energii zderzenia, dlatego mniej deformuje pojazd i samą siebie. Przy tej samej masie ma dużo większą wytrzymałość na uderzenia od innych barier.

Jak przyznaje Łągiewka, bariera będzie droższa od zabezpieczeń, które są ustawiane wzdłuż zwykłych autostrad. - Tego typu bariery są już tak tanie, jak tylko się da. Tańszych od nich i tak nie da się już zrobić - wyjaśnia. Nowe bariery będą jednak tańsze od zabezpieczeń, które teraz montuje się w miejscach szczególnie niebezpiecznych: na wiaduktach, w tunelach czy tzw. czarnych punktach.

- W bariery stawiane w miejscach niebezpiecznych montuje się złożone układy, które powodują, że nie mogą się one przewrócić. Przy barierach wykorzystujących technologię EPAR układy te nie muszą już być tak złożone, bo część energii pochłaniana jest od razu przez aku-mulator – tłumaczy Łągiewka.

Samą technologię EPAR Lucjan Łągiewka opracował jeszcze w la-

tach 90. XX wieku. Jej działanie oparte jest na zamianie znacznej części energii kinetycznej obiektów zderzających się na energię kinetyczną specjalnego przetwornika akumulacyjno-rozpraszającego. Jak zapew-

niają twórcy technologii, zastosowanie metody EPAR umożliwia re-dukcję skutków zderzeń nawet o 90 proc.

Podczas zdarzenia energia zamiast zamieniać się na pracę niszczą-cą obiekt, zostaje przekazana do mechanicznych akumulatorów.

- Akumulatory - 3-kilogramowe walce ze stali - są częścią bariery i są zazwyczaj umiejscowione w jej głowni lub podstawie. To bardzo proste układy, które są w stanie zaabsorbować połowę energii uderze-nia - wyjaśnia Łągiewka.

Obecnie analizowane są różnorodne możliwości wdrożenia tej metody EPAR w przemyśle kolejowym, stoczniowym, lotniczym, gór-niczym i maszynowym.

Technologią EPAR zainteresowana jest również z Europejska Agencja Kosmiczna. Chodzi o zabezpieczenia dokowań na orbicie, m.in. bezzałogowych kapsuł zaopatrzeniowych. Technologia mogłaby też znaleźć zastosowanie jako systemy amortyzacji lądowania w lą-downikach sond międzyplanetarnych. Trzecie zastosowanie to układy amortyzujące przy rozkładaniu m.in. paneli słonecznych.

Twórcy drogowej bariery choć znaleźli już producentów, którzy chcą ją wdrożyć w Szwecji i Niemczech, wciąż szukają polskich przed-

siębiorców nią zainteresowanych, tak by bezpieczne bariery pojawiły się najpierw w kraju. Technologia zyskała uznanie na międzynarodo-wych giełdach i targach wynalazczych.

Na podstawie materiału PAP Nauka w Polsce

Bariera inna niż wszystkie

�MARZEC 2011

Page 6: teberia 6

T ECHNO LOG I E

To co wydarzyło się w XVIII wieku za sprawą rewo-lucji przemysłowej zmieniło gospodarkę i społeczeń-stwo w sposób niewyobrażalny dla ludzi tamtego czasu. Masowa produkcja dóbr dała początek nowej ekonomii – ekonomii skali. A teraz za sprawą nowej technologii – druku 3D – łatwo i tanio można wytwo-rzyć zarówno jeden jak i tysiące egzemplarzy danego przedmiotu. To podkopuje fundamenty ekonomii ska-li i może mieć tak znaczący wpływ na nasz dzisiejszy świat jaki miało powstanie pierwszych fabryk.

A działa to tak. Najpierw na ekranie komputera przywołany zo-staje szkic. Następnie manipuluje się nieco przy jego kształcie i kolo-

rze tam gdzie uzna się to za konieczne. A następnie naciska przycisk „Drukuj”.

Drukarka zaczyna swoje ciche warczenie i powoli buduje

przedmiot albo de-ponując

materiał ze swoich dysz albo selektywnie utwardzając cienką warstwę plastiku lub metalu przy pomocy maleńkich kropli kleju lub mocno zogniskowanego promienia. Przedmioty są więc budowane stop-niowo poprzez dodawanie nowego materiału warstwa po warstwie – stąd nazwa technologii: produkcja addytywna (przyłączeniowa). W końcu pojawia się produkt – część zamienna do samochodu, abażur do lampy lub skrzypce. Całe piękno tego procesu polega na tym, że nie potrzebna jest do tego cała fabryka. Niewielkie przedmioty mogą powstać dzięki maszynom wielkości drukarki biurowej. Do produk-cji większych obiektów – takich jak ramy do rowerów, części do sa-molotów – potrzeba nieco większych urządzeń. I więcej przestrzeni.

W tej chwili do produkcji mogą być wykorzystane tylko niektóre materiały, takie jak plastik, żywice lub metale. A dokładność wyko-nania oscyluje wokół dziesiątych części milimetra. Tak jak kompu-tery w latach 70. ubiegłego wielu, w chwili obecnej cała ta zabawa w produkcję jest obecnie domeną kilku akademickich i przemysłowych enklaw. I tak jak z komputerami w ubiegłych dziesięcioleciach druk 3D szybko się rozpowszechnia, jego technologia ulepsza a koszty spadają. Prosta drukarka 3D, znana również jako fabrykator, kosztu-je w tej chwili mniej niż drukarka laserowa kosztowała w 1985 roku. Spróbujmy pomyśleć o zaletach tego nowego modelu produkcji. Przede wszystkim koszty – są niższe ponieważ nie ma linii produk-

cyjnych.Odpadków jest o niebo mniej zatem i materiału

zużywa się mniejsze ilości. Można wy-konać części i kształty nie do

pomyślenia tradycyj-nymi me-

Wydrukuj mi rower tato...

Wydrukuj mi rower tato...

MARZEC 2011�

Page 7: teberia 6

T ECHNO LOG I E

todami. Pojedynczy przedmiot może zostać wykonany szybko i ta-nio – a zaraz po wykonaniu jego projekt może zostać udoskonalony.

Od lat już korzysta się z dobrodziejstw drukarek 3D w produkcji prototypów, głównie na potrzeby przemysłu lotniczego, medycznego i motoryzacyjnego. W momencie gdy zostaje ukończony projekt na-stępuje przejście do skali linii produkcyjnej gdzie produkcja i montaż części i podzespołów postępuje już tradycyjnie. Ale druk 3D został udoskonalony już do tego stopnie, że zaczyna być wykorzystywany do wytwarzania gotowych obiektów. Już teraz jest konkurencyjny w stosunku do form wtryskowych z plastiku dla partii około 1000 sztuk gotowych przedmiotów. Te liczby i obszary, gdzie stanie się konku-rencyjny, będą się powiększać wraz z dojrzewaniem tej technologii. Proszę zwrócić uwagę na następujący fakt – ponieważ każdy jeden przedmiot jest wytwarzany indywidualnie, bez matrycy, za każdym razem może zostać częściowo zmodyfikowany bez absolutnie żad-nych dodatkowych kosztów. Stąd tylko krok od masowej produkcji do masowego produkcji dostosowanej do potrzeb wszelkiego rodzaju produktów.

Spójrzmy na całe zagadnienie z jeszcze innej perspektywy. Tech-nologia druku 3D pozwala obniżyć wiele barier i poprzeczek stoją-cych przed wszystkimi, którzy chcą wejść w produkcję. Tak więc jest to ogromne pole do popisu dla wszystkich innowatorów, którzy od szkicu mogą teraz coraz łatwiej i taniej przejść do gotowego obiektu. Wystarczy coś zaprojektować i jak z kapelusza pojawia się obiekt.

Można przejść do czynności biznesowych – wydrukować kilka tuzinów i zobaczyć jak reaguje na nie rynek. Wydrukować kilka ko-lejnych tuzinów – jeśli faktycznie znajdą się nabywcy – modyfikując projekt tak jak sugerują to użytkownicy. To prawdziwe dobrodziejstwo dla wynalazców i start-upów – testowanie nowych produktów stanie się dzięki tej technologii mniej ryzykowne i mniej kosztowne. Tak

jak w przypadku współpracy programistów nad oprogramowaniem typu open-source – inżynierowie zaczynają już współ-

pracować nad projektami typu open-source dla różnego rodzaju przedmiotów i

części maszyn i urządzeń. Spróbujmy za-

stano-

wić się jakie konsekwencje dla gospodarki i procesów produkcji może mieć ta technologia? A gdyby tak decentralizacji uległa całość procesów bizne-sowych? Gdyby zatrzymany i odwrócony został proces urbanizacji towa-rzyszący industrializacji? Skoro nie będą potrzebne fabryki – każda wieś i mieścina może mieć własny fabrykator, który wyprodukuje to czego po-trzebują użytkownicy. Oczywiście nie do końca – ale możliwości dopiero się otwierają. Pomyślmy nad całym tym zagadnieniem jeszcze od innej strony – tej, która tak mocno napędza obecny model masowej produkcji. Chodzi o tanią siłę roboczą.

Druk 3D jest w stanie znacznie zredukować potrzebę istnienia licznych załóg produkcyjnych co może spowodować przesunięcie mocy produkcyj-nych z krajów trzeciego świata na powrót do krajów rozwiniętych. Oczywi-ście rynek azjatycki również przyswoi nowe technologie więc nie musi to być aż tak oczywiste. Zatem wizja nowych miejsc pracy przy produkcji w krajach rozwiniętych nie koniecznie się ziści. Zwłaszcza, że bez względu na miejsce wytwarzanie druk 3D wymaga dość niskich nakładów pracy.

Oprócz dystrybucji kapitału i pracy nie do pominięcia jest również wpływ na prawa do własności intelektualnej. Piractwo obiektów opisanych w pliku to rzecz banalna. Wystarczy zerknąć na doświadczenia przemysłu muzycznego. Gdy tylko plik z nowym wzorem zabawki czy sportowego buta wycieknie do Internetu straty jego właściciela mogą być znaczne.

Na pewno powstaną nowe uregulowania prawne dotyczące tej techno-logii. I podobnie jak z oprogramowaniem typu open-source zaistnieją nowe nie komercyjne modele działalności rynkowej. Jak to zwykle w takiej sytu-acji naciski będą zmierzały albo w stronę obostrzenia istniejących przepi-sów (co może zdusić innowacyjność) lub ich liberalizacji (co może zachęcać do piractwa). Na te kolejne zawiłości już na pewno cieszą się prawnicy.

Historia dała nam wiele przykładów zmian, których wpływ na losy ludzkości był niewyobrażalny w chwili ich zaistnienia w realnym świecie. Czy to prasa drukarska w 1450, czy silnik parowy w 1750, czy tranzystor w 1950. Na dziś dzień trudno powiedzieć cokolwiek o przyszłości i wpły-wie jaki może mieć druk 3D. Jedno jest pewnie – jej wpływ będzie nie do przecenienia i wszyscy od firm i korporacji, przez przedsiębiorców i wyna-lazców aż po ustawodawców i sprzedawców powinni zacząć o tym myśleć na poważnie. Jak w przypadku każdej zmiany i ta będzie miała w krótkim czasokresie swoich tryumfatorów i pokonanych. Lecz w dłuższej perspek-tywie na pewno pozwoli nam poszerzyć granice zarówno przemysłu jak i wyobraźni.

Tomasz SiobowiczNa podstawie: The Economist

�MARZEC 2011

Page 8: teberia 6

TR ENDY

Hologramy 3-D w telefonach, baterie wykorzystują-ce tlen do zasilania urządzeń elektronicznych, sensory dostarczające informacji, spersonalizowane podróże, centra przetwarzania danych, które zasilają miasta w energię elektryczną – to pięć innowacji technologicz-nych, które zmienią styl życia ludzi. No, przynajmniej według ekspertów IBM.

IBM zaprezentował swoją coroczną listę pięciu inno-wacji. Lista “Next 5 in 5” stworzona została w oparciu o trendy rynkowe i społeczne oraz technologie stworzo-ne w laboratoriach IBM na całym świecie.

Hologramy 3-D w telefonach

W ciągu następnych pięciu lat interfejsy 3-D, takie jak te, które widzimy w filmach, pozwolą na interakcję z hologramami 3-D naszych przyjaciół w czasie rzeczywistym.

Kina i stacje telewizje już od jakiegoś czasu stosują technologię 3-D. Wraz ze wzrostem stopnia zaawansowania i miniaturyzacji interfej-sów 3-D i kamer holograficznych w telefonach komórkowych, zyska-my możliwość zupełnie nowego rodzaju interakcji na poziomie zdjęć, przeglądania Internetu, studiowania, pracy i utrzymywania kontaktów towarzyskich z przyjaciółmi.

Naukowcy szukają sposobów przekształcenia video chatów w ho-lograficzne lub w „teleobecność 3-D”. Technologia ta wykorzystuje

wiązki światła, jakimi promieniują obiekty i rekonstruuje je w formie zdjęcia lub przedmiotu na wzór techniki wykorzystywanej przez ludz-kie oko do wizualizacji otoczenia.

W przyszłości rekonstrukcja wizerunku naszych przyjaciół w 3-D nie będzie jedyną możliwością. Tak jak płaska mapa Ziemi jest znie-kształcona na biegunach, co powoduje, że schemat lotu nie jest linią

ciągłą, tak w podobny sposób zniekształcane są informacje, które two-rzymy w dużych ilościach wraz z zaawansowaniem informacji, któ-ra staje się inteligentniejsza, np. elektroniczny foto album. Aktualnie zdjęcia są geotagowane, Internet jest w stanie zsynchronizować infor-macje pochodzące z różnych urządzeń a interfejsy komputerowe stają się coraz powszechniejsze.

Baterie wykorzystają tlen do zasilania urządzeń elek-tronicznych

Czy kiedykolwiek zdarzyło Ci się marzyć o baterii do laptopa, któ-ra nie wymagałaby ładowania przez cały dzień? Albo telefonie komór-kowym, który ładuje się poprzez noszenie go w kieszeni?

W ciągu najbliższych pięciu lat, postęp naukowy w technologii tranzystorów i baterii przedłuży zdolność funkcjonowania urządzeń

10-krotnie. A nawet, w niektórych przypadkach, baterie mogą zupeł-nie zniknąć z małych urządzeń.

Zamiast ciężkiej litowo-jonowej baterii używanej obecnie, na-ukowcy pracują nad bateriami, które wykorzystają powietrze, którym oddychamy do procesu reakcji z metalem o dużej gęstości energii eliminując kluczowy czynnik hamujący stworzenie baterii o dłuższej wytrzymałości. Jeśli badania się powiodą, stworzony zostanie lekki akumulatorek o dużej mocy przystosowany do zasilania szerokiego spektrum urządzeń - od elektrycznych samochodów do urządzeń elektronicznych.

A co powiecie na możliwość całkowitego pozbycia się baterii? Analizując podstawowy moduł konstrukcyjny urządzeń elektro-

nicznych - tranzystor - IBM ma na celu zredukowanie energii czerpa-nej przez tranzystor do mniej niż 0,5 V. Tak niskie zapotrzebowanie na energię umożliwi pozbycie się baterii w niektórych urządzeniach jak telefony komórkowe lub czytniki elektroniczne.

W ten sposób powstałyby bezbateryjne urządzenia elektroniczne ładowane za pomocą techniki zwanej „energy scavenging”. Aktualnie wykorzystują ją niektóre zegarki na rękę - nie wymagają uzwojenia a ładują się poprzez ruch ręki. Ta sama koncepcja mogłaby zostać wy-

IBM: Pięć innowacji na przyszłe pięć lat

MARZEC 2011�

Page 9: teberia 6

TR ENDY

korzystana do ładowania telefonów komórkowych, np. w sposób „po-trząśnij i wybierz numer”.

Sensory dostarczą informacji

Może nie jesteś fizykiem, ale na pewno jesteś chodzącym czujni-kiem. Za pięć lat, czujniki w twoim telefonie, samochodzie, portfelu a nawet na Twitterze będą w stanie gromadzić dane, które posłużą na-ukowcom do stworzenia obrazu twojego otoczenia w czasie rzeczywi-stym. Będzie można wykorzystać te dane do walki z globalnym ocie-pleniem, ocalenia wymierających gatunków lub wyśledzenia roślin i zwierząt stanowiących zagrożenie dla ekosystemów na całym świecie. W ciągu najbliższych pięciu lat powstanie klasa „naukowców obywa-teli” wykorzystujących proste czujniki do gromadzenia zestawów da-nych, które następnie zostaną wykorzystane w badaniach.

Proste informacje, takie jak np. kiedy w mieście następuje pierw-sza odwilż, kiedy pojawiają się pierwsze komary, jeśli nie ma bieżącej wody to gdzie można znaleźć źródło - wszystkie te informacje stano-wią cenne dane dla naukowców. Dane, których aktualnie nie posiada-ją. Nawet twój laptop może spełniać funkcję czujnika wykrywającego

aktywność sejsmiczną. Dzięki odpowiednim ustawieniom i połącze-niu z siecią innych komputerów twój laptop może zobrazować sytuację po trzęsieniu ziemi szybko, przyspieszając pracę służb ratowniczych i potencjalnie ocalając życie ludzkie.

Dojazdy do pracy będą spersonalizowane

Wyobraź sobie, że dojeżdżasz do pracy niezakorkowanymi auto-stradami, niezatłoczonym metrem, bez opóźnień spowodowanych ro-botami drogowymi i nie martwiąc się o spóźnienie do pracy. W ciągu następnych pięciu lat, zaawansowana technologia analityczna zapewni uzyskanie spersonalizowanych rekomendacji, które znacznie skrócą czas dojazdu do pracy. Systemy adaptacyjne ruchu drogowego będą intuicyjnie przyswajały wzorce podróżowania i zachowania osób, aby zwiększyć bezpieczeństwo podróży i szybciej wyznaczyć trasę podró-ży.

Wykorzystując nowe modele matematyczne i analityczne tech-nologie przewidywania IBM, naukowcy poddadzą analizie całościo-wej wiele różnych scenariuszy, które mogą mieć wpływ na ustalenie optymalnej trasy codziennego przejazdu do pracy uwzględniając wiele różnych czynników takich jak wypadki drogowe, lokalizacja dojeżdża-jących do pracy, aktualne i planowane prace drogowe, dni tygodnia o najbardziej nasilonym ruchu drogowym, oczekiwane godziny roz-poczęcia pracy, lokalne wydarzenia, które mogły mieć wpływ na ruch

drogowy, alternatywne opcje transportu takie jak kolej czy prom, do-stępność miejsc parkingowych i pogoda.

Na przykład, łącząc analitykę przewidywania z informacją w cza-

sie rzeczywistym na temat aktualnego ruchu drogowego uzyskiwaną z czujników i w oparciu o inne dane, system mógłby zasugerować lepsze sposoby na dotarcie do celu takie jak najkrótsza trasa do najbliższego węzła komunikacyjnego, dostępność miejsc parkingowych przy stacji kolejowej. Nowe systemy mogą opierać się na regularnych wzorcach podróżowania, aby następnie integrować dostępne dane i przewidywa-nia, aby wyznaczyć najlepszą możliwą trasę dojazdu.

Centra przetwarzania danych przyczynią się do zasila-nia miasta w energię elektryczną

Innowacje w dziedzinie komputerów i centrów danych umoż-liwiają wykorzystanie nadwyżki ciepła i energii generowanej przez urządzenia do ogrzewania budynków zimą i zasilania klimatyzacji la-tem. Czy możesz sobie wyobrazić, że energia, jaką konsumują centra danych na całym świecie, mogłaby zostać ponownie wykorzystana na potrzeby miasta?

Do 50% energii wykorzystywanej przez nowoczesne centra da-nych przeznaczane jest na chłodzenie urządzeń. Większość ciepła jest marnowana, ponieważ ulatnia się do atmosfery. Nowe technologie, takie jak nowoczesne chipowe systemy chłodzenia wodą stworzone przez IBM umożliwiają ponowne wykorzystanie energii cieplnej z kla-stra procesora komputerowego do podgrzewania wody w biurach i w domach.

Pilotażowy projekt przeprowadzony w Szwajcarii wykorzystujący system komputerowy wyposażony w taką technologię ma zaoszczędzić do 30 ton emisji dwutlenku węgla rocznie, co jest równe 85 procento-wi redukcji tzw. śladu węglowego. Nowatorska sieć mikrostrumienio-

wych modułów wewnątrz radiatora jest przyczepiona do powierzchni każdego chipa w klasterze komputerowym, co umożliwia pompowa-nie wody do wewnątrz mikronów półprzewodników. Przepływ wody blisko każdego chipa umożliwia bardziej skuteczne schładzanie. Woda podgrzana do 60oC jest następnie przepompowywana poprzez wy-miennik ciepła w celu skierowania ciepła w inne miejsce.

�MARZEC 2011

Page 10: teberia 6

NAUKA W PO LSCE

Laser tani i przenośny

Naukowcy z Instytutu Chemii Fizycznej PAN i Wy-działu Fizyki Uniwersytetu Warszawskiego rozpo-częli prace nad skonstruowaniem nowatorskiego lasera, w którym zostanie wykorzystana wyjątko-wa metoda wzmacniania światła. Uczeni liczą, że zacznie on działać na początku 2012 r. W kompak-towym urządzeniu, dzięki wspomnianej metodzie, pojedyncze impulsy laserowe osiągną moc dziesiąt-ków terawatów przy - rekordowych w skali świata - parametrach wzmocnienia.

W większości laserów generujących ultrakrótkie impulsy wzmoc-nienie światła następuje dzięki klasycznej technologii z użyciem kryształów szafiru. Kryształy laserowe mają jednak wiele wad, na przykład silnie się nagrzewają i zniekształcają przekrój wiązki świa-tła. Alternatywą są specjalne wzmacniacze parametryczne.- Nasz cel jest prosty. Chcemy zbudować najbardziej efektywny i kompaktowy parametryczny wzmacniacz światła na świecie - de-klaruje dr Yuriy Stepanenko z IChF PAN.Technologię optycznego wzmacniacza parametrycznego NOPCPA (Noncollinear Optical Parametric Chirped Pulse Amplifier) od kilku lat rozwija w Centrum zespół prof. Czesława Radzewicza. Polega ona na efektywnym przekazywaniu energii bezpośrednio z wiązki lasera pompującego do wiązki wzmacnianej.Ponieważ we wzmacniaczu parametrycznym energia nie jest nig-dzie gromadzona, nie pojawiają się szkodliwe efekty termiczne, a wzmocnione impulsy mają doskonałe parametry. Wzmacniacz NOPCPA ma przy tym kompaktowe rozmiary: już na długości kilku centymetrów wzmocnienie może sięgnąć setek milionów razy.- Mamy wszelkie podstawy przypuszczać, że nasza metoda wzmac-niania światła może w przyszłości pomóc konstruować stosunkowo tanie lasery do akceleracji protonów, na dodatek na tyle zwarte, że byłyby w zasadzie urządzeniami przenośnymi - mówi dr Stepanen-ko.Lasery o tak dużych mocach można dziś znaleźć tylko w kilku ośrod-kach naukowo-badawczych na świecie.

Dr Yuriy Stepanenko z Instytutu Chemii Fizycznej PAN w Warszawie przy stole optycznym z aparaturą laserową. (Źródło: IChF PAN, Grze-gorz Krzyżewski)

Sposób na mikrouszkodzenia...

Urządzenie do wibrotermograficznej detekcji uszkodzeń materiałów, w tym głównie kompozy-tów, opracował zespół naukowców z Akademii Gór-niczo-Hutniczej w Krakowie. Metoda pozwala na błyskawiczne wyszukiwania mikrouszkodzeń np. w poszyciach samolotów. Jak poinformował kierow-nik zespołu badawczego prof. Tadeusz Uhl, jest to pierwsza tego typu technologia opracowana w Pol-sce. Podobne rozwiązania wdrożyły firmy niemiec-kie i amerykańskie.

- Nasza metoda jest tak samo dokładna, jak inne dostępne w tym za-kresie. Jej podstawowe zalety to, w porównaniu z klasyczną metodą ultradźwiękową, bardzo krótki czas pomiaru wynoszący od kilku do kilkunastu sekund oraz możliwość badania całych konstrukcji bez konieczności demontażu ich na mniejsze elementy - zaznaczył prof. Uhl.Wibrotermograficzna metoda detekcji uszkodzeń bazuje na pomia-rze temperatury na powierzchni badanego obiektu przez wysokiej klasy kamerę termowizyjną. Informacja diagnostyczna opracowy-wana jest przez specjalizowane oprogramowanie komputerowe na podstawie serii zmierzonych obrazów termograficznych.Naukowcy z AGH opracowali dwa typy urządzenia: stacjonarne do użytku w warunkach laboratoryjnych i mobilne do badania dużych konstrukcji, w tym np. samolotów.Wersja finalna urządzenia, która pomyślnie przeszła testy w Polskich Zakładach Lotniczych w Mielcu. Jego rynkowa cena wyniosłaby około 500 tys. zł, podczas gdy urządzenia zagraniczne tego typu kosztują w granicach 1 mln zł.

…sposób na odporne bakterie

Nanomateriały niszczące najbardziej nawet od-porne bakterie wywołujące zakażenia wewnątrz-szpitalne opracowali naukowcy z Politechniki Wro-cławskiej, Akademii Medycznej we Wrocławiu i irlandzkiego University of Limerick.

Nowa technologia opracowana przez naukowców polega na pokry-ciu tkanin nanocząstkami dwutlenku tytanu, które nadają materia-łowi właściwości bakteriobójcze. Jak powiedziała dyrektor instytutu inżynierii biomedycznej i pomiarowej na Politechnice Wrocławskiej, prof. Halina Podbielska, pod wpływem światła nanomateriały same z siebie zaczynają niszczyć bakterie.- Gdyby jednak jakaś bakteria nie chciała się odczepić, to pokryty nanocząstkami materiał oczyszczamy w specjalnie przez nas skon-struowanym fotosterylizatorze przy pomocy promieni UV. Oszczęd-ność tego typu działań jest ogromna, bo jednorazowe fartuchy są zużywane w ogromnych ilościach, a nasze tkaniny mogą być uży-wane wielokrotnie - mówiła Podbielska. - Nasz wynalazek może być także wykorzystywany np. do pokrycia ręczników w hotelach i na basenach, krzeseł w gabinetach stomatologicznych, pokrowców siedzeń w samolotach - wyliczała.Prace nad tekstyliami o antybakteryjnych właściwościach prowa-dzono w ramach konsorcjum realizującego projekt BioElectricSur-face, finansowany przez Komisję Europejską.

Źródło: PAP - Nauka w Polsce

10 MARZEC 2011

Page 11: teberia 6
Page 12: teberia 6

KOMENTARZ

Czy jesteśmy w stanie wyobrazić sobie nasze życie bez ropy, gazu i węgla? Paliwa kopalne urucho-miły rewolucję przemysłową i od ponad 200 lat zapewniają nam rosnący komfort codziennego życia. Ten wzrost ma również swoje cienie – to-warzyszą mu zmiany klimatu, krajobrazu i życia społecznego. Te z kolei jakość życia zdecydowa-nie obniżają. Pytanie brzmi, czy można mieć to pierwsze bez tego drugiego?

Oszczędzanie energii nie rozwiąże problemu. Chyba, że towarzyszyć mu będzie zatrzymanie rozwoju gospodarczego. To, co jesteśmy w stanie zaoszczędzić dzisiaj, jutro zostanie pochłonięte przez wzrastający popyt u nas do spółki z popy-tem w krajach coraz szybciej rozwijających się. Co oczywiście nie oznacza, że nie mamy oszczę-dzać. Ale to o wiele za mało.

Perspektywa świata, w którym ani węgiel, ani ropa, ani gaz nie są już dłużej źródłami energii, nie musi nas jednak przerażać. Taki świat wcale nie musi oznaczać ani droższego ani mniej wy-godnego życia od tego, które wiedziemy teraz. Podwaliny pod taki właśnie świat (czy będzie

nowy i wspaniały, to się dopiero okaże) kładą nowatorskie pomysły inżynierów, fizyków i biolo-gów, przybierając realne kształty w ich laborato-riach i projektach w coraz większej skali.

Choć wizje świata z bateriami słonecznymi i turbinami wiatrowymi czy elektrycznymi samo-chodami wydają się nie do końca przekonujące – ci, którzy już niedługo zaczną nas nimi kusić, tym razem mówią serio. Choć wielu z nich korzy-sta z ekologicznego parawanu, bardziej lub mniej poważnie pochodząc do tego elementu całej ukła-danki, ich prawdziwym motorem działania jest ekonomia. I mając na uwadze rynkowy wymiar swoich działań wiedzą doskonale, że aby te alter-natywne scenariusze mogły się ziścić, muszą być przynajmniej równie tanie i łatwe w zastosowa-niu, jak w modelu, który próbują zastąpić.

Należy też pamiętać, że szalę ekonomicznej opłacalności na korzyść alternatywnych źródeł energii zacznie wkrótce coraz mocniej przechy-lać „podatek” od elektryczności produkowanej z węgla. Opłaty naliczane za emisje dwutlenku wę-gla na pewno nie pozostaną bez wpływu na jego cenę, która wówczas może zdetronizować „czarne złoto” jako króla taniego prądu.

Jednym ze sprzyjających czynników rozwoju nowych technologii i szansą dla nowych produ-centów jest rosnący popyt na energię. Im większy popyt, tym większy rynek i tym łatwiej znaleźć na

nim miejsce nowym, konkurencyjnym technolo-giom. Drugim czynnikiem jest długi już okres, dzięki któremu udało się przecedzić przez sito gospodarki wiele pomysłów i opcji na „techno-logie jutra”. Nikt na razie nie traktuje poważnie scenariusza rozwoju energetyki jądrowej opartej na syntezie jądrowej. Niemniej kolejne generacje reaktorów już niedługo staną się awangardą no-wego renesansu jądrowego. Entuzjazm dla silni-ków wodorowych również powoli opada. Ale za to postępy w technologiach pozyskiwania energii ze słońca i wiatru, w postaci na przykład elemen-tów mikrosieci energetycznej, zaczynają być co-raz bardziej realne i kuszące. Już dziś całe rzesze inżynierów pracują nad ulep-szaniem tych oraz innych technologii wykorzy-stania alternatywnych źródeł energii, które staną się początkiem przewrotu może nawet większego niż rozwój technologii informacyjnych pod ko-niec XX wieku.

Czy ten przewrót nastąpi dostatecznie szyb-ko, by zapobiec poważnym zmian ziemskiego kli-matu, jeszcze nie wiadomo. Wiadomo natomiast, że bez alternatywnych źródeł energii raczej się to nie uda.

Można oczywiście mieć zastrzeżenia, bo w końcu słońce świeci tylko od świtu do zmierzchu i tylko gdy na niebie nie ma chmur, a zmienność wiatru jest przysłowiowa. Ta zmienność pogody w systemach energetycznych musi być brana pod uwagę i wspierana tzw. elektrowniami rezerwo-wymi, które uzupełnią w sieci energię, gdy wiatr ucichnie lub słońce schowa się za chmury. Te elektrownie, w kraju tak nieobdarzonym górski-mi rzekami, jak nasz i polegającym na produk-cji rolniczej na cele spożywcze, raczej nie będą elektrowniami wodnymi lub opalanymi biomasą. Aby ekonomicznie móc uzupełniać kaprysy aury, potrzebne jest coś pewniejszego. A żeby móc to robić ekologicznie, dobrze by było nie emitować przy okazji zbyt dużych ilości dwutlenku węgla. Przy tak okrojonych możliwościach wybór mamy niewielki.

Dlatego nie „opłaca się” obrażać ani na al-ternatywne (do kopalnych) źródła energii, ani na energetykę jądrową. Bo może się okazać, że podczas szukania wiatru w polu, zawieje on nam w oczy dwutlenkiem węgla z elektrowni rezer-wowych. A gdy będziemy czekać na to, by elek-trownie atomowe podjęły wyzwanie rosnącego popytu, może się okazać, że nasze szanse na spo-wolnienie zmian klimatu przeminą z wiatrem.Energetyka to potężny interes. Obecnie ludzkość pochłania około 15 terawatów energii rocznie, czyli mniej więcej tyle, ile może wyprodukować prawie 3400 elektrowni wielkości naszego Beł-chatowa. Oznacza to w przybliżeniu 6 bilionów dolarów, a według ostrożnych prognoz ilość tera-watów, które zużyjemy w 2050 roku, ma się mniej więcej podwoić.

Tak więc jest wiele terawatów do wytworze-nia i wiele pieniędzy do zarobienia. Jeśli przy oka-zji uda się uratować planetę – tym lepiej.

TOMASZSIOBOWICZ

12 MARZEC 2011

Page 13: teberia 6

FAK TY

Za początkowy moment historii energetyki jądrowej uwa-ża się, trochę przypadkowe zresztą, rozszczepienie jąder uranu dokonane przez Otto Hahna i Fritza Strassmana w grudniu 1938 roku. Energię jądrową pozyskuje się głównie w wyniku rozszczepienia jąder atomowych w reaktorach jądrowych w elektrowniach jądrowych i na okrętach ją-drowych. Reakcje te mają charakter łańcuchowy - produkty reakcji (w tym głównie neutrony) mogą zainicjować kilka następ-nych. Aby uniknąć lawinowego wzrostu szybkości reakcji, reaktor dzieli się na strefy wypełnione na przemian pa-liwem, chłodziwem oraz moderatorem, czyli substancją spowalniającą neutrony.

Szybkość reakcji kontrolowana jest m.in. przez zmianę wzajemnego położenia lub proporcji tych składników, a także przez wprowadzanie dodatkowych substancji po-

chłaniających lub spowalniających neutrony, zawartych w tzw. prętach regulacyjnych (służących do normalnej re-gulacji parametrów reakcji) oraz prętach bezpieczeństwa (stosowanych do awaryjnego wyłączania reaktora).

W chwili obecnej na świecie pracuje blisko 440 reaktorów energetycznych o łącznej mocy elektrycznej ponad 370 GW, wśród nich nieco ponad 60% stanowią reaktory typu PWR, trochę ponad 20% reaktory BWR, ok. 10% reakto-ry HWR oraz po ok. 4% od dawna nie budowane reaktory brytyjskie gazowo – grafitowe i post radzieckie reaktory wodno – grafitowe.

Page 14: teberia 6

FAK TY

Pierwszy reaktor (uranowo-grafitowy) zwany CP-1 zbudo-wany został na Uniwersytecie w Chicago pod kierunkiem włoskiego uczonego Enrico Fermiego. Pierwsza kontrolo-wana reakcja łańcuchowa została w nim zapoczątkowana 2 grudnia 1942.Pierwsze reaktory składały się właśnie z cy-lindrycznych kawałków uranu wprowadzanych do dużych bloków grafitu, który służył jako moderator.Początkowo rozwój techniki reaktorowej dokonywał się, niestety, pod-

kątem jej wykorzystania do celów militarnych.

W zdecydowanej większości elektrowni jądrowych ener-gia rozszczepienia wzbogaconego uranu jest odbierana przez wodę, która w zależności od reaktora: odparowuje (reaktory wrzące BWR) lub nie (jeśli jest pod wysokim ciśnieniem - reaktory ciśnieniowe PWR i WWER).

Reaktor ZIP, w pobliżu Idaho Falls jako pierwszy w świe-cie dostarczył energii elektrycznej. 20 grudnia 1951 r. o godz. 13.23 zapaliły się pierwsze cztery 200 W żarów-ki. Obecnie ilość energii elektrycznej wyprodukowanej w elektrowniach jądrowych stanowi 16% ÷ 17% całkowitej produkcji elektryczności na świecie, choć są kraje, w któ-rych bloki z reaktorami jądrowymi dostarczają większość tej energii, np. we Francji blisko 80%, w Słowacji zaś po-

nad 50%. Najwięcej energii elektrycznej uzyskuje się z energetyki jądrowej w USA (rocznie 527 TWh, 103 re-aktory) i Francji (260 TWh, 59 reaktorów). Potęgami są tu również Japonia (55) i Rosja (31). Największy udział energetyki jądrowej w produkowanej energii elektrycz-nej mają obecnie[1]: Francja (78%), Belgia (54%), Korea Południowa (39%), Szwajcaria (37%), Japonia (30%), USA (19%), Rosja (16%).

Page 15: teberia 6

FAK TY

W przyszłości naukowcy planują wykorzystywać jako pa-liwo jądrowe tor. W wyniku rozszczepienia toru powstają

jądra atomowe o mniejszej masie niż przy rozszczepieniu uranu lub plutonu i jest wśród nich więcej jąder trwałych.

Obecnie w budowie znajduje się prawie 50 reaktorów energetycznych o łącznej mocy ponad 40 GW, co świad-czy o widocznym „renesansie” energetyki jądrowej. Do

2030 przewiduje się wzrost mocy elektrowni jądrowych na świecie do 473 GW (w wariancie optymistycznym na-wet do 748 GW).

Page 16: teberia 6

Budowaelektrowni jądrowych w Polsce będzie konieczna?

Fukushima a sprawa polska

Page 17: teberia 6

Budowaelektrowni jądrowych w Polsce będzie konieczna?

Fukushima a sprawa polska

Page 18: teberia 6

RAPORT

Awaria w japońskiej elektrowni jądrowej Fu-kushima doprowadziła do dyskusji na temat za-sadności rozwoju energetyki jądrowej w Polsce. Gdyby nie polityka energetyczna Unii Europej-skiej elektrownie jądrowe nie musiałyby w Pol-sce szybko powstawać.

Niewiele jest rzeczy, co do których zgadzałaby się wszystkie partie zasiadające w parlamencie. Jedną z nich jest rozwój energetyki jądrowej. W „Programie dla elektroenergetyki”, przyjętej w marcu 2006 r. przez rząd Kazimierza Marcinkie-wicza, jest mowa o tym, że do nowych technolo-gii, które zmniejszą oddziaływanie energetyki na środowisko i poprawia sprawność wytwarza-nia (i które zostaną przeanalizowano pod kątem możliwości ich zastosowania w Polsce) należy także wytwarzania energii elektrycznej w elek-trowniach jądrowych. Kolejny premier z PiS, Ja-rosław Kaczyński, także wprost mówił o potrze-bie rozwoju energetyki jądrowej w Polsce.

Drogą jądrową poszła także koalicja PO z PSL. W listopadzie 2009 r. Rada Ministrów przyjęła „Politykę energetyczną Polski do 2030 roku”, gdzie wśród 6 podstawowych kierunków pol-skiej polityki energetycznej znalazła się także dywersyfikacja struktury wytwarzania energii elektrycznej poprzez wprowadzenie energetyki jądrowej.

Po co Polsce atom? Polska należy do czołówki krajów Unii Europejskiej jeśli chodzi

o poziom bezpieczeństwa energetycznego. Blisko 95 proc. energii elektrycznej wytwarzanej jest z krajowych surowców energetycznych (głównie węgiel kamienny i brunatny, w znacznie mniejszym stopniu biomasa, elektrownie wodne i wiatrowe), także ok. 30 proc. zużywane-go gazu ziemnego pochodzi z krajowego wydobycia.

Struktura wytwarzania energii elektrycznej, oparta na krajowych paliwach, mogłaby być w Polsce jeszcze długo utrzymana gdyby nie polityka energetyczna Unii Europejskiej. Jednym z głównych celów polityki energetycznej jest zmniejszenie wpływy energetyki na środo-wisko naturalne, a w tym redukcja emisji gazów cieplarnianych. Jako, że energetyczne wykorzystywanie węgla, przy wykorzystaniu obecnie dostępnych technologii, jest bardziej emisyjne niż np. produkcja ener-gii z innych źródeł, oznacza to, że w praktyce polityka energetyczna UE uderza bezpośrednio w węgiel.

Ostatnim przejawem tej polityki jest przyjęta przez Komisję Euro-pejską marca br. Mapa drogowa, która proponuje zmniejszenie emisji gazów cieplarnianych przez Unię Europejską o 80-95 proc. do roku 2050 w porównaniu z poziomem z roku 1990.

Z wyliczeń KE wynika, że stworzenie nowej, unijnej gospodarki

niskoemisyjnej będzie wymagało w ciągu nadchodzących 40 lat dodat-kowych inwestycji rocznych sięgających 1,5 proc. PKB UE, czyli 270 mld euro, poza bieżącymi inwestycjami wynoszącymi 19 proc. PKB.

Obawiając się politycznego wpływu na wytwarzanie energii elek-trycznej z węgla koncerny energetyczne rezygnują stopniowo z tego typu inwestycji. Także w Polsce ta tendencja jest widoczna, wiele in-westycji w bloki węglowe, które jeszcze niedawno zapowiadano, nie

powstanie. Zamiast tego coraz częściej mówi się o budowie bloków gazowych - takie inwestycje planują m.in. Polska Grupa Energetyczna, Tauron, Energa i Fortum.

Jeszcze niedawno jako niskoemisyjną alternatywę dla węgla po-strzegano także energetykę jądrową.

Czy jest się czego bać? Po awarii w elektrowni Fukushima uaktywnili się przeciwnicy

energetyki jądrowej, zarówno ze środowisk ekologicznych jak i z sa-mej energetyki. Przekonują, że wydarzenia w Japonii są dowodem, że nie ma czegoś takiego jak bezpieczna elektrownia jądrowa, że awarie w elektrowniach jądrowych są tylko kwestią czasu. Dlatego też w Polsce nie powinny być budowane elektrownie jądrowe.

Zwolennicy energetyki jądrowej przekonują dla odmiany, że elek-trownie jądrowe są bardzo bezpieczne, a awaria w elektrowni Fukushi-ma była spowodowana wyjątkowymi okolicznościami.

- Nie ulega wątpliwości, że możliwość podobnego zdarzenia w Pol-sce jest całkowicie wykluczona ze względu na warunki lokalizacyjne, możliwe do zastosowania technologie a także opracowane przez rząd nowe przepisy bezpieczeństwa jądrowego - zapewnia Ministerstwo Gospodarki.

Resort gospodarki zapewnia, że przy budowie pierwszej polskiej elektrowni jądrowej zastosowana będzie - bez względu na wybór do-stawcy - nowa generacja reaktorów III lub III+. Różnią się one zasad-niczo od eksploatowanych już od ok. 40 lat w Fukushimie reaktorów II generacji. Nowe typy reaktorów charakteryzuje uwzględnienie już na etapie projektowania nawet najmniej prawdopodobnych awarii. Na

rynku są dostępne m.in. technologie wyposażone w tzw. pasywne sys-temy bezpieczeństwa, które w przypadku awarii nie potrzebują zasila-nia w energię elektryczną, gdyż większość procesów koniecznych do wyłączenia reaktora i schłodzenia rdzenia odbywa się z wykorzysta-niem naturalnych zjawisk przyrody takich jak grawitacja, konwekcja

1� MARZEC 2011

Page 19: teberia 6

2

278

4

7 16 26 14

6

1

17

1524

121125

21221819

510

13

23

20

9

28

3

MIEJSCA ROZWAŻANE NA LOKALIZACJĘ POLSKIEJ ELEKTROWNI ATOMOWEJ

1 BEŁCHATÓW, woj, łódzkie2 CHEŁMNO, woj. kujawsko-pomorskie3 CHOCZEWO, woj. pomorskie4 CHOTCZA, woj. lubelskie5 DĘBOGÓRA, woj. zachodniopomorskie6 GOŚCIERADÓW, woj. lubelskie7 KAROLEWO, woj. kujawsko-pomorskie8 KOPAŃ, woj. pomorskie9 KOZIERNICE, woj. mazowieckie10 KRZYMÓW, woj. zachodniopomorskie11 KRZYWIEC, woj. zachodniopomorskie12 LISOWO, woj. zachodniopomorskie13 LUBATOWO-KOPALINO, woj . pomorskie14 MAŁKINIA, woj. mazowieckie

15 NIESZAWA, woj. kujawsko-pomorskie16 NOWE MIASTO, woj. mazowieckie17 PĄTNÓW, woj. wielkopolskie18 PNIEWO, woj. zachodniopomorskie19 PNIEWO-KRAJNIK, woj. zachodniopomorskie20 POŁANIEC, woj. świętokrzyskie21 STEPNICA 1, woj. zachodniopomorskie22 STEPNICA 2, woj. zachodniopomorskie23 TCZEW, woj. pomorskie24 WARTA-KLEMPICZ, woj. wielkopolskie25 WIECHOWO, woj. zachodniopomorskie26 WYSZKÓW, woj. mazowieckie27 ŻARNOWIEC, woj. pomorskie28 ? (w trakcie lokalizacji), woj. podlaskie

lokalizzacje z lat 80. XX wieku

nowe propozycje

1�MARZEC 2011

Page 20: teberia 6

RAPORT

naturalna czy różnice ciśnień. Według Ministerstwa Gospodarki, gdy-by reaktory elektrowni Fukushima I zostały zaprojektowane według obowiązujących dziś standardów, do obserwowanych tam awarii naj-prawdopodobniej w ogóle by nie doszło. Jednym skutkiem trzęsienia ziemi i tsunami byłoby automatyczne, planowe wyłączenie reaktorów, po którym nastąpiłoby stopniowe schłodzenie rdzeni.

Dodatkowo Polska, w przeciwieństwie do Japonii, jest krajem wol-nym od zagrożeń o charakterze sejsmicznym. Resort gospodarki przy-pomina, że trzęsienie ziemi w Japonii miało 9 stopni w skali Richtera,

było wydarzeniem bez precedensu w historii nowoczesnej cywilizacji technicznej.

Przeciwnicy energetyki jądrowej oceniają jednak, że technologie jądrowe generacji III lub III+ są niesprawdzone.

- Na świecie nie ma jeszcze ani jednego działającego reaktora ge-neracji III+. Pierwsze reaktory tego typu są dopiero w trakcie budowy: Olkiluoto 3 w Finlandii i Flamanville 3 we Francji. Fiński regulator ds. bezpieczeństwa atomowego STUK wykrył ponad 3 tys. naruszeń zasad bezpieczeństwa w Olkiluoto 3, przez co budowa opóźnia się już o ponad trzy lata i przekroczyła planowany budżet o miliardy euro. Podobnie sprawa wygląda we Francji - mówi Jan Haverkamp, ekspert

Greenpeace ds. energetyki atomowej. Bloki Olkiluoto 3 i Flamanville 3 zostaną wyposażone w reaktory

EPR, oferowane przez francuski koncern Areva. Ten typ reaktora jest także jednym z trzech, który może zostać wykorzystany w pierwszej polskiej elektrowni jądrowej. Dwa pozostałe reaktory, jakie mogą być wykorzystane w Polsce, to AP 1000 oferowany przez Westinghouse Toshiba i ESBWR produkcji GE Hitachi.

Nikt nic nie wieZgodnie z rządowymi planami pierwszy blok jądrowy w Polsce ma

zostać oddany doeksploatacji w roku 2020. Nie wiadomo jednak gdzie ten blok miał-

by powstać, jaką technologię ma wykorzystywać i ile ma kosztować. Polska Grupa Energetyczna, która ma wybudować pierwszą elek-

trownię jądrową w Polsce już zawarła z wszystkimi trzema dostaw-cami porozumienia o współpracy. Każdy z potencjalnych dostawców zapewnia, że możliwe jest wybudowanie w Polsce elektrowni jądrowej do 2020 r. w oferowanej przez nich technologii. Muszą być jednak speł-nione określone warunki, takie jak m.in. wdrożenie kompleksowych przepisów dotyczących energetyki jądrowej, niezwłoczne utworzenie dozoru jądrowego czy wybudowanie sieci przesyłowych. Te zastrzeże-nia sugerują, że termin oddania pierwszego bloku jądrowego w 2020 r. jest bardzo mało realny i nastąpi to kilka lat później.

Rząd i PGE szacują, że łączne nakłady na budowę elektrowni ją-drowej o mocy ok. 3000 MW wyniosą ok. 35-55 mld zł. Niższa kwota jest jednak całkowicie nierealna. Realne szacunki, podawane przez ekspertów, mówią, że 1000 MW elektrowni jądrowej będzie kosztować ok. 4,5-4,7 mld euro. Licząc 4,5 mln euro za 1 MW, mnożąc razy 3 tys. MW otrzymujemy 13,5 mld euro. Licząc za 1 euro 4 zł. otrzymujemy kwotę ok. 54 mld zł.

Jacek Sanocki

20 MARZEC 2011

Page 21: teberia 6

5 etapów rozwoju energetyki jądrowej w Polsce

teraz - 30 czerwca 2011 r.przyjęcie „Programu polskiej energetyki jądrowej” przez rząd oraz uchwalenie i wejście w życie przepisów prawnych niezbędnych do rozwoju i funkcjonowania energetyki jądrowej

1 lipca 2011 r. – 31 grudnia 2013 r. ustalenie lokalizacji i zawarcie kontraktu na budowę pierwszej elektrowni jądrowej

1 stycznia 2014 r. – 31 grudnia 2015 r.wykonanie projektu technicznego i uzyska-nie wymaganych prawem uzgodnień

1 stycznia 2016 r. – 31 grudnia 2020 r.wydanie pozwolenia na budowę i budowa pierwszego bloku pierwszej elektrowni jądrowej, rozpoczęcie budowy kolejnych bloków/elektrowni

1 stycznia 2021 r. – 31 grudnia 2030 r.kontynuacja i rozpoczęcie budowy kolejnych bloków/elektrowni jądro-wych

21MARZEC 2011

Page 22: teberia 6

Uranu nam nie zabraknie(tak sz ybko jak węgla)Rozmowa z doc. dr inż. Andrzejem Strupczewskim, przewodniczącym Komisji Bezpieczeństwa Jądrowego Instytutu Energii Atomowej w Świerku, wiceprezesem Stowarzyszenia Ekologów na Rzecz Energii Nuklearnej SEREN

Page 23: teberia 6

Uranu nam nie zabraknie(tak sz ybko jak węgla)

Wybiegnijmy w przyszłość – skąd na naszym globie będziemy czerpać energię za 20, 50, 100 lat?

Do połowy XXI wieku dominującą rolę będzie nadal grał węgiel i gaz, chociaż uważam, że paliwa organiczne – ropa, gaz, węgiel powinny pozostać na dal-sze setki lat jako cenne źródła surowców chemicznych. Rola energetyki jądro-wej i energii odnawialnych będzie rosła, ale nadal będą one dawały mniej energii niż surowce organiczne.W perspektywie drugiej połowy XXI wieku – energetyka jądrowa jako źródło energii pracujące w podstawie obciążenia, z wprowadzeniem IV generacji re-aktorów i zamkniętym cyklem paliwowym, energetyka odnawialna wykorzy-stywana w tak dużym stopniu jak można. W dalszej perspektywie – energia z reakcji syntezy, ale nie sądzę, by zastosowania na skalę przemysłową były możliwe przed drugą połową XXI wieku.

Page 24: teberia 6

RAPORT

RAPORT

A jakie jest najbardziej wydajne – i równocześnie opłacalne – źródło energii, którym dysponujemy?

Odpowiedź jest prosta – energia rozszczepienia, dziś z uranu, jutro także z toru. Węgiel byłby jeszcze przez dziesiątki lat konkurencyjny w pewnych rejonach ziemi, ale przy płaceniu opłat za emisję CO2 jest za drogi. Ponadto, jeśli weźmie się pod uwagę koszty zewnętrzne, czyli koszty strat zdrowia ludzi i uszkodzeń środowiska, energia jądrowa jest najtańsza nawet bez uwzględniania opłat za emisję CO2.

W przypadku węgla sprawa jest prosta – spalając go otrzymuje-my ciepło. A na czym polega „tajemnica” energii pochodzącej z pier-wiastków radioaktywnych, takich jak uran czy tor? Skąd ona się po prostu bierze? I jak zamienia się w elektryczność, która dociera do naszych domów?

Energia uzyskiwana przy rozszczepieniu uranu to skutek przemia-ny masy w energię, bo przy rozszczepieniu jądra uranu powstają dwa jądra lżejszych pierwiastków i neutrony o łącznej masie mniejszej niż masa jądra uranu. Kolejne fazy przemian tej energii są następujące:

Po rozszczepieniu jądra uranu jądra lżejszych pierwiastków odda-lają się od siebie z ogromną prędkością, hamują uderzając o inne jądra paliwa i oddają w ten sposób swoją energię tym innym jądrom, czyli powodują ich szybszy ruch, czyli podgrzewają materiał paliwowy.

Ciepło od paliwa przejmuje woda, która następnie odparowuje.Para płynie do turbiny, rozprężając się powoduje obroty wirnika turbi-ny, wirnik powoduje obracanie się rotora generatora elektrycznego, a te obroty rotora powodują wytwarzanie prądu elektrycznego w cewce

uzwojenia w statorze generatora. Proces ten jest podobny jak w przy-padku elektrowni węglowej.

Każde źródło energii wiąże się jednak z określonymi problema-mi. W przypadku węgla chodzi o zanieczyszczenie powietrza i emisję dwutlenku węgla, przy energii odnawialnej – słonecznej czy pocho-dzącej z wiatru – nie sposób nie wspomnieć o kłopotach z ciągłością dostaw. A jakie problemy przemysłu jądrowego są najtrudniejsze do rozwiązania?

Problemy techniczne są rozwiązane, albo możliwe do rozwiąza-nia. Natomiast najtrudniejszym problemem jest uzyskanie akceptacji społecznej. Nadzieję stwarza fakt, że ta akceptacja jest najwyższa w re-jonach wokoło elektrowni jądrowych, gdzie ludzie widzą, że elektrow-nie są dobrymi sąsiadami, dającymi prąd przy zachowaniu czystego powietrza, wody i gleby. Natomiast dyskusja ogólna z przeciwnikami energetyki jądrowej jest trudna, bo elektrownie jądrowe, jak i wszyst-kie inne dzieła człowieka, mają nie tylko zalety, ale i wady. W toku dyskusji zwolennicy energetyki jądrowej wzywają – rozważajmy zalety i wady na tle zalet i wad innych źródeł energii. Natomiast przeciwnicy

stawiają zarzut, że energetyka jądrowa nie jest doskonała, chociaż wca-le nie żądają doskonałości od innych źródeł energii. Przykładów jest wiele, wymienię tylko jeden – sprawę subwencji. Gdy państwo np. daje gwarancje dla energetyki jądrowej, przeciwnicy mówią, że jest to nie-uczciwa konkurencja, chociaż w całej półwiekowej historii w żadnym państwie te gwarancje nie spowodowały żadnych kosztów dla społe-czeństwa (Czarnobyl to osobna i zupełnie inna historia). Natomiast, gdy państwo daje subwencje dla energetyki odnawialnej, powodujące dwukrotny lub trzykrotny wzrost kosztu energii naprawdę płaconego przez społeczeństwo, wtedy uważa się to za naturalne i w pełni słuszne. Tymczasem energetyka jądrowa daje szansę na obniżenie kosztu ener-gii – a energia odnawialna oznacza wzrost tych kosztów.

Istotną trudność w dyskusji stanowi również element strachu – przeciwnicy energetyki jądrowej straszą ludność czymś nieznanym. Ci, którzy mają bliższy kontakt z energetyką jądrową nie boją się jej – stąd poparcie społeczne w pobliżu pracujących elektrowni jądrowych, natomiast ludzie mieszkający daleko dają sobie wmówić, że „atom to rak”. Walka ze strachem za pomocą argumentów racjonalnych jest bar-dzo trudna.

To weźmy pod uwagę racjonalność i realizm – jaki procent kra-jowego zapotrzebowania na energię jesteśmy w stanie zaspokoić w perspektywie najbliższych 10 lat z mających powstać elektrowni ją-drowych?

Nie wiem, czy pierwsza elektrownia powstanie w ciągu 10 lat. Raczej potrwa to dłużej. Optymistycznie można założyć, że do roku 2030 zbudujemy cztery bloki po 1500 MWe, każdy z nich wytwarzać będzie 12 TWh energii elektrycznej rocznie. Całkowite przewidywane zapotrzebowanie na energię elektryczną około roku 2030 to ponad 200 TWh, już po uwzględnieniu oszczędzania energii. Tak więc cztery blo-ki jądrowe po 1500 MWe będą dostarczały około 22–25 proc. energii zużywanej w Polsce.

To wszystko jednak kosztuje – ogromne są koszty wybudowa-nia nowego reaktora, którego paliwem jest uran, za który też przecież trzeba płacić. Nie należy też zapominać o kosztach i prawnych ogra-niczeniach związanych z przewozem i utylizacją odpadów radioak-tywnych. Podsumowując – ile to wszystko kosztuje?

Koszty dla reaktora uranowego III generacji, zabezpieczonego przed wszelkimi awariami, łącznie z atakiem terrorystycznym przy użyciu samolotów, to obecnie 3,25 mln euro za MWe. Dla porówna-nia, dla elektrowni węglowej koszty inwestycyjne to 1,8 mln euro/MW. Natomiast koszty paliwowe dla elektrowni węglowej o mocy 1000 MWe to 150 mln euro rocznie plus 250 mln euro za opłaty za emisję CO2. Dla elektrowni jądrowej o tej samej mocy koszty paliwa wraz z kosztami unieszkodliwiania odpadów i likwidacji elektrowni to około 56 mln euro/rok. Różnica to około 340 mln euro na korzyść elektrow-ni jądrowej. Koszty unieszkodliwiania odpadów są już w to wliczone – wynoszą one około 1 euro za MWh.

Pojawia się jednak problem nie tylko lokalizacji tych elektrow-ni, ale także tego, gdzie mogłoby być składowane paliwo do nich oraz odpady po wypaleniu w reaktorach? Czy te lokalizacje będą konsul-towane ze społeczeństwem?

Obecnie w Polsce zgłoszono 28 miejscowości, które chcą mieć elektrownie jądrowe. Największe szanse ma Żarnowiec, ale i pozo-stałe mają gorących orędowników. Paliwo dla elektrowni jądrowej to zaledwie 20 ton dla bloku 1000 MWe przez rok, składowane jest więc bez trudu w samej elektrowni, również odpady po wypaleniu paliwa są tam początkowo składowane. Oczywiście wszystkie lokalizacje są i będą konsultowane ze społeczeństwem. Docelowo paliwo wypalone w elektrowni będzie przesyłane do recyklingu, to jest będzie z niego od-dzielany uran, pluton, ameryk i inne aktynowce, a pozostałe materiały

MARZEC 20112�

Page 25: teberia 6

RAPORT

– czyli produkty rozszczepienia, jak cez czy stront – będą unieszkodli-wiane i przesyłane na składowisko. Takie składowisko pracuje od 50 lat w Różanie, a kontrole prowadzone przez dwie różne i niezależne od producenta organizacje wykazały, że nie ma zanieczyszczenia powie-trza, wody ani gleby, a ludzie są zdrowi.

Wszystkie czynności związane z budową, działaniem i likwi-dacją elektrowni atomowej ktoś musi wykonać. Czy mamy w Polsce odpowiednio wykształconą na potrzeby budowy i eksploatacji elek-trowni atomowej kadrę fachowców?

Nie, nie mamy, ale możemy i musimy wykształcić odpowiednią liczbę inżynierów i techników. Ponadto mnóstwo Polaków pracuje na budowach elektrowni jądrowych zagranicą, np. w Olkiluoto na 4000 pracowników budujących reaktor EPR aż 3000 to Polacy! I to z kierow-nikiem budowy włącznie.

W energetyce ważną kwestią jest samowystarczalność państwa. Jak długo bylibyśmy w stanie zaspokajać nasze krajowe zapotrzebo-wanie na energię korzystając z reaktorów, których paliwem byłby uran? Czy w przypadku energetyki jądrowej można mówić o nieza-leżności energetycznej Polski?

Uranu na świecie wystarczy przy obecnej technologii na ponad 200 lat, a przy uwzględnieniu postępu technologicznego – na dziesiąt-ki tysięcy lat.

W skali całej Polski łączne zasoby rozpoznane i prawdopodobne to około 100 000 ton uranu naturalnego, a więc dość dla każdego prze-widywalnego programu nuklearnego w naszym kraju. Obecnie wydo-bycie tego uranu byłoby nieopłacalne, bo tańszy uran możemy kupić z wielu krajów, np. z Australii, Kanady czy Namibii, ale w dyskusji aspektów strategicznych warto zdawać sobie sprawę, że Polska może mieć własny uran. Wielkość składowej uranowej w cenie elektrycz-ności z elektrowni jądrowej jest mała – około 5 proc., a więc nawet

podwojenie kosztu uranu nie spowoduje zauważalnego wzrostu ceny energii elektrycznej.

Nasze złoża należą wprawdzie do ubogich, ale niektóre z nich (Wambierzyce, Grzmiąca, Okrzeszyn) mają szczególną zaletę. Są to złoża pokładowe, o w miarę jednolitym charakterze, co umożliwia ich regularną eksploatację przez dziesiątki lat.

Gdyby miał Pan zarekomendować polskiemu rządowi rozwią-zanie z zakresu energetyki jądrowej, to poleciłby...?

Reaktory EPR i AP 1000 są różne, ale zapewniają podobny poziom bezpieczeństwa. Zaleciłbym rządowi przeprowadzenie przetargu i za-warcie umowy z Francją lub USA w zależności od wyników przetargu, obejmujących nie tylko cenę, ale i gwarancje udziału polskiego prze-mysłu w dostawach dla elektrowni.

Podsumowując – jak odpowiedziałby Pan na pytanie Kowal-skiego: „No dobrze, ale co ja będę miał z tej energii atomowej?”

Tanią energię elektryczną po gwarantowanej cenie przez 60 lat, a przy tym czyste powietrze, czystą wodę i glebę.

A poza tym ważne jest zachowanie surowców organicznych dla naszych wnuków. Uran przydaje się tylko do rozszczepienia, a więc zużywając go w elektrowni jądrowej robimy to, co zrobią z nim także i moje wnuki. Natomiast węgiel czy gaz to cenne surowce dla chemii, farmakologii itd. Nie wolno ich bezmyślnie spalać! Odtworzenie tych zasobów będzie bardzo kosztowne i trudne.

Rozmawiał: Tomasz Siobowicz

2�MARZEC 2011

Page 26: teberia 6

TEKST: TOMASZ SIOBOWICZ

Page 27: teberia 6

NAUKOWO

„Epoka atomu posuwa się na-przód w takim tempie, że każdy obywatel świata powinien mieć pewne zrozumienie, a przynajm-niej ogólne wyobrażenie, co do stopnia tego rozwoju o tak ogrom-nym znaczeniu dla każdego z nas.”

Fragment przemówienia Dwi-ghta D. Eisenhowera “Atomy dla pokoju” wygłoszonego przed Zgromadzeniem Ogólnym Naro-dów Zjednoczonych na temat Po-kojowego Wykorzystania Energii Atomowej, Nowy Jork, 8 grudnia 1953.

W momencie gdy prezydent Eisenhower wygłaszał tą mowę wykorzystanie technologii jądro-wej zdążyło już przeżyć wzloty zachwytów nad samowystarczal-nością energetyczną i niską ceną elektryczności i upadki militarne-go użycia i katastrofy w elektrow-ni zapadając w świadomość opinii publicznej. W chwili obecnej na naszych oczach energetyka ato-mowa odradza się w kolejnym re-nesansie swojej popularności.

Dziś priorytetem nie jest walka z wrogim

mocarstwem i dążenie do utrzymania przewa-gi militarnej. Najważniejszą bieżącą kwestią jest nie dopuścić do rozprzestrzenienia się broni ją-drowej, podnieść wydajność obecnie istniejących instalacji i wykorzystywanych w nich procesów, zredukowanie istniejących arsenałów nuklear-

nych oraz znalezienie sposobu na zmniejszenie ilości powstających odpadów radioaktywnych.

Te nowo wytyczone cele to jednocześnie tren-dy w projektowaniu reaktorów nowych generacji. Ich rozwój jest wspierany między innymi przez Międzynarodowe Forum IV Generacji (MFG), w którego skład wchodzą Stany Zjednoczona, Argentyna, Brazylia, Wielka Brytania, Kanada, Chiny, Francja, Japonia, Rosja, Południowa Afry-ka, Korea Południowa, Szwajcaria oraz Euratom – europejska organizacja zajmująca się współ-pracą w dziedzinie technologii jądrowych. MFG sporządziło listę sześciu najbardziej obiecujących projektów, które obejmują unowocześnione wer-sje istniejących reaktorów ale także zupełnie inne rozwiązania.

Pierwsze cywilne reaktory jądrowe weszły do użycia w latach 50 ubiegłego wieku. Były one oparte na projektach reaktorów wojskowych skonstruowanych z myślą o produkcji materiału rozszczepialnego na potrzeby zbrojeniowe oraz jako napęd dla jednostek pływających. Te gene-ratory „I generacji” były reaktorami wodnymi, ciśnieniowymi (typu PWR – pressurised water reaktor) i na nich wzorowano się przy budowie reaktorów „II generacji”, które stanowią więk-szość z pośród reaktorów pracujących obecnie. W cyklu pracy większości z tych reaktorów pali-wo jest wykorzystywane w rdzeniu reaktora jed-nokrotnie a pozostałości po jego „wypaleniu” są usuwane i umieszczane na składowisku. Odpady promieniotwórcze stanowią problem w związku z czasem potrzebnym do zaniku ich szkodliwości dla otoczenia ale kryją w sobie też pewne możli-wości. Wykorzystane w cyklu reaktorowym pali-wo w dalszym ciągu zawiera znaczne ilości uranu oraz pluton, który uformował się w rdzeniu reak-

tora podczas reakcji jądrowych. Jaki ma to zwią-zek a nowymi modelami elektrowni jądrowych i przyszłością tych już istniejących?

Najbliższa przyszłość, w odniesieniu do ilości pracujących obecnie elektrowni atomowych, bę-

„Mam nadzieję,że dziękinaszemuprojektowipaństwoKowalscy będąmogli korzystaćz tańszej energiielektrycznejwytwarzanejw polskichreaktorachenergetycznych”- przekonujeprofesor StefanChwaszczewski,kierownik„Thorium Project”.

2�MARZEC 2011

Page 28: teberia 6

NAUKOWO

dzie należała w dalszym ciągu do reaktorów typu PWR. Ale już w niedługim czasie zacznie funk-cjonować coraz więcej reaktorów „generacji III” i „generacji III+”. Są one modyfikacjami reaktorów „II generacji” jednak w ich konstrukcji i działaniu poprawiono kwestie związane z efektywnością termiczną, bezpieczeństwem oraz ekonomiką wykonania. Co więcej w cyklu paliwowym mogą one wykorzystywać jako domieszkę również uran i pluton wyekstrahowany z ‘przepracowanego’ paliwa. Jednak i ta technologia nie pozostaje bez wad, jak uważają jej krytycy, wskazując na wyso-kie koszty ekstrakcji uranu i plutonu z ‘wypalone-go’ paliwa oraz towarzyszące temu ryzyko zwią-zane z możliwością rozprzestrzeniania materiału do produkcji broni jądrowej.

Stąd sześć najbardziej obiecujących projektów nowej „IV generacji” wskazanych przez (MFG) spośród początkowej listy ponad 100 propozycji odchodzi zdecydowanie od modeli, w których paliwo przechodzi przez jednokrotny cykl reak-torowy, dominujących w pracujących w tej chwili elektrowniach.

Istniejące obecnie reaktory wykorzystują reakcje zachodzące w rdzeniu reaktora do pod-grzania wody krążącej w pierwotnej pętli (obieg I – primary loop) reaktora. Podgrzewa ona na-stępnie wodę krążącą w pętli wtórnej (obieg II – secondary loop), doprowadzając ją do wrzenia. Para wyprodukowana w tej pętli (obieg II) napę-dza turbiny, które obracając się wytwarzają prąd elektryczny. W tej konstrukcji woda jest wyko-rzystywana w obydwóch pętlach – w pętli wtór-nej (obieg II) jako czynnik chłodzący (chłodziwo)

oraz w pętli pierwotnej (obieg I) jako czynnik spowalniający neutrony (moderator). A oto jak różnią się zaproponowane modele reaktorów „IV generacji”.

Pierwszy z nich to reaktor, który różni się od „klasycznego” tym, że mamy w nim do czy-nienia z wodą w stanie nadkrytycznym (SCWR – supercritical water-cooled reaktor), tzn. wodą o wysokiej temperaturze (ponad 374 stopnie Cel-sjusza) oraz pod wysokim ciśnieniem (ponad 22 MPa). Zaletą tego rozwiązania jest możliwość

wyeliminowania obiegu wtórnego, co dzięki pro-stocie budowy pozwala obniżyć koszty a także osiągnąć wysoką sprawność cieplną. Wadą jest

konieczność opracowania nowych materiałów do budowy rdzenia i obiegów reaktora, które byłyby w stanie podołać panującym w nich warunkom ciśnienia i temperatury.

Drugi z projektów to reaktor, który jako chło-dziwo (obieg II) wykorzystuje hel, a jako mode-rator grafit. Pracuje przy zdecydowanie wyższych temperaturach niż model „klasyczny” (rzędu 1000 stopni Celsjusza) i osiąga bardzo wysoką sprawność (ponad 50%). Od wysokiej tempera-tury bierze zresztą swoją nazwę (VHTR – Very High Temperature Reactor). Stąd zresztą wynika-ją również wady tego projektu – potrzeba mate-riałów będących w stanie wytrzymać pracę przy tej temperaturze.

Kolejne trzy rozwiązania to tak zwane reakto-ry prędkie (w których reakcja rozszczepiania wy-woływana jest przez tzw. neutrony prędkie), które

nie zawierają moderatora. Jako medium chłodzą-ce wykorzystują sód (SFR – sodium-cooled Fast reaktor), hel (GFR – Gas-cooled Fast Reactor) lub ołów (LFR – lead-cooled fast reaktor). Te trzy modele są w stanie wykorzystywać do wytwarza-nia energii „wypalone” paliwo co przyczynia się do powstawania mniejszej ilości odpadów. W stosunku do tych rozwiązań poważnym zastrze-żeniem jest możliwość uzyskiwania w cyklu eks-ploatacyjnym plutonu, co rodzi obawy związane z rozprzestrzenieniem broni jądrowej.

MARZEC 20112�

Page 29: teberia 6

NAUKOWONAUKOWO

W ostatnim, szóstym z proponowanych reak-torów, paliwo jest rozpuszczone w roztworze flu-orków a ten działa jako chłodziwo. Moderatorem w tym układzie grafit. Zaletą tego rozwiązania jest możliwość ciągłego uzupełniania paliwa, co pozwala na wykluczenie przerw w pracy reakto-ra potrzebnych na wymianę paliwa. Zaletą jest również możliwość wykorzystania toru w cyklu paliwowym reaktora. Do tego by reaktor ten mógł pracować w oparciu o tor, pierwiastek ten musi być najpierw napromieniowany i ulec przemianie w uran by móc służyć jako paliwo.

Z tym ostatnim rozwiązaniem, w którym wykorzystuje się jako paliwo tor wiąże się spore nadzieje. Jest to rozwiązanie, od zastosowania którego dziali nas jeszcze dość dużo czasu – prze-widuje się możliwość budowy takich systemów od około 2025 roku. Zatem jest to jeszcze dość odległa przyszłość energetyki jądrowej.

Pomimo tego, że Polska nie jest atomowym potentatem, z tym przyszłościowym rozwiąza-niem, jakim jest wykorzystanie toru w reakto-rze jądrowym, stykamy się już dziś. W Instytu-cie Energii Atomowej POLATOM w dzielnicy Otwocka – Świerku w kwietniu ubiegłego roku rozpoczęły się prace w ramach projektu „Ana-liza efektów wykorzystania toru w jądrowym reaktorze energetycznym”. A zaczęło się: „...od spotkania i dyskusji z wiodącymi naukowca-mi amerykańskiej firmy Thorium Power, którzy przedstawili nam zalety oraz także wady stosowa-nia toru w energetyce jądrowej” – mówi profesor Stefan Chwaszczewski, kierownik „Thorium Pro-ject” prowadzonego w Instytucie.

„Pierwsze próby wykorzystania toru w reak-torze jądrowym rozpoczęto w 1966 r. w USA uru-chamiając wysokotemperaturowy reaktor chło-dzony helem (HTGR – High Temperature Gas cooled Reactor) – Peach Bottom. Jednocześnie, w tym samym roku w RFN uruchomiono reaktor podobnego typu AVR. Paliwem tych reaktorów był uran i tor. W 1969 roku, w USA, zastosowa-no tor w projekcie reaktora na stopionych solach. Problemy materiałowe, związane z korozją ukła-dów reaktora poddanych działaniu fluorków ura-nu i fluorków toru z wysoką temperaturą spowo-dowały zamknięcie tego projektu. W 1977 roku w USA uruchomiono energetyczny reaktor HTGR – Fort St-Vrain, a w 1985 reaktor HTGR – THTR (Thorium High Temperature Reactor), z wyko-rzystaniem toru jako materiału paliworodnego. Reaktor Peach Bottom został wyłączony z eks-ploatacji w 1975 roku natomiast reaktory AVR, Fort St-Vrain i THTR zostały wyłączone z eksplo-atacji w latach 1987 – 1989 w wyniku załamania się programu energetyki jądrowej po katastrofie reaktora w Czarnobylu.

Obecnie, program wykorzystania toru w energetyce jądrowej jest intensywnie rozwijany w Indiach, dysponujących dużymi złożami toru. Tor jest wykorzystywany razem z paliwem urano-wym w zmodyfikowanych, ciężkowodnych rek-torach reaktorach energetycznych. Jako wielkie osiągnięcie ogłoszono, że osiągnięto w tych re-aktorach 75% wytwarzanej energii w paliwie wy-

tworzonym z przemian jądrowych toru. Ostatnio, w Federacji Rosyjskiej trwają prace (finansowane przez amerykańską firmę Thorium Power) nad wykorzystaniem toru w reaktorach energetycz-nych VVER.”

Projekt torowy realizowany w Świerku ma przynieść odpowiedzi na wiele pytań, które sta-wiają sobie obecnie uczeni i firmy energetyczne na całym świecie. Pozwoli on, jak twierdzi profe-sor Chwaszczewski, znaleźć odpowiedź na pyta-nie: „Czy zastosowanie toru w reaktorach energe-tycznych zmniejszy koszt wytwarzania energii w reaktorach energetycznych a także czy nie pogor-szy charakterystyk bezpieczeństwa reaktora.”

Zadaniem profesora Chwaszczewskiego prawdopodobnie nie będzie można eksploatować reaktorów tylko z paliwem wytwarzanym w cyklu torowym, który polega na wytwarzaniu rozszcze-pialnego izotopu uranu 233 w wyniku przemian jądrowych toru 232. Jednakże przewidywany jest coraz większy udział toru w energetyce jądro-wej. Należy pamiętać, że w Polsce wykorzystanie energetyki jądrowej, nawet w wersji ‘klasycznej’ – uranowej, pozostaje na razie w sferze planów. O zastosowaniu toru jak dotąd w tych planach się nie mówi. Nie mniej w projektach takich jak ten realizowany w Instytucie będzie można udowod-nić zarówno aspekt bezpieczeństwa jądrowego jak i korzyści ekonomiczne wykorzystania toru w eksploatowanych w Polsce reaktorach energe-tycznych. To jeden z celów prowadzonego projek-tu. Po jego zakończeniu naukowcy, energetycy i politycy dostaną do ręki raporty, w których od-najdą interesujące ich kwestie. Ale jak skorzystają na tym państwo Kowalscy? Tą kwestię profesor ujmuje stwierdzeniem: „Mam nadzieje, że dzięki

naszemu projektowi państwo Kowalscy będą mo-gli korzystać z tańszej energii elektrycznej wytwa-rzanej w polskich reaktorach energetycznych.”

Tani prąd to nie jedyne co może się spodobać polskiej rodzinie dziś i za kilkadziesiąt lat. Nie do pominięcia jest aspekt ekologiczny związany z rozwojem, zarówno uranowej jak i torowej ener-getyki jądrowej. Jak stwierdza profesor Chwasz-czewski: „Energetyka jądrowa jest rozwiązaniem proekologicznym: nie emituje szkodliwych sub-stancji do środowiska, istniejące technologie umożliwiają bezpieczne odizolowanie odpadów promieniotwórczych od ich przeniknięcia do środowiska. Nie emituje również dwutlenku wę-gla, który jest postrzegany jako przyczyna zmian klimatu, choć w ostatnim okresie opinie na ten temat nie są już jednoznaczne.”

Projekt torowy,realizowanyw Świerkupozwoli znaleźćodpowiedź napytanie: „Czyzastosowanietoruw reaktorachenergetycznychzmniejszy kosztwytwarzaniaenergiiw reaktorachenergetycznych,a także czynie pogorszycharakterystykbezpieczeństwareaktora.”

2�MARZEC 2011

Page 30: teberia 6

NAUKOWO

Ciekawość nie pozwoliła nie zagadnąć o dotychczasowe wyniki prowadzonego projektu – o to na jakim etapie są teraz wykonywane w nim prace: „Jesteśmy na półmetku opracowania i testowania systemu programów numerycznych do analiz kampanii paliwowych wodno ciśnienio-wych reaktorów energetycznych, posiadamy duży zestaw informacji o konstrukcji rdzenia reaktora (konstrukcja kaset paliwowych, rozkłady wzbo-gacenia paliwa, wypalające się trucizny, elemen-ty regulacyjne itp.), przeprowadziliśmy szereg napromieniań próbek toru w reaktorze MARIA, prowadzone są analizy zawartości produktów reakcji jądrowych w tych próbkach.” Pracy jest jeszcze dużo. Jej rezultaty pomogą politykom i

energetykom podjąć decyzję co do przyszłości i kierunku rozwoju energetyki jądrowej w Polsce. Zdaniem profesora Chwaszczewskiego rada na przyszłość dla naszego rządu jest prosta – pro-fesor poleciłby: „Oczywiście budowę pierwszych reaktorów energetycznych w Polsce w oparciu o sprawdzone rozwiązania. A także zaangażowa-nie krajowego potencjału przemysłowego i ba-dawczego w opracowanie i wytwarzanie elemen-tów reaktorów energetycznych nowej generacji oraz perspektywicznych paliw jądrowych. Rynek energetyki jądrowej będzie rozwijał się bardzo dynamicznie. Przewiduję, że wartość rocznych zamówień na nowe jądrowe bloki energetyczne w latach trzydziestych przekroczy wartość 120 mld dolarów, a rynek paliw jądrowych przekro-czy wartość 60 mld dolarów. A reaktory budowa-ne w latach trzydziestych i czterdziestych będą na pewno inne, niż obecnie budowane reaktory energetyczne. Będą to reaktory wysoko tempe-raturowe do zasilania ciepłem procesów techno-

logicznych oraz reaktory powielające chłodzone gazem (helem), ciekłym sodem, ciekłym ołowiem lub eutektyką ołów-bizmut. Mam nadzieję, że bę-dzie również powrót do reaktorów na stopionych solach oferujących maksymalne wykorzystanie paliw jądrowych. Dla porównania, w obecnie

budowanych reaktorach energetycznych do wy-tworzenia 1 TWh energii elektrycznej (obecnie w Polsce wytwarzamy rocznie nieco ponad 150 TWh energii elektrycznej) niezbędne jest wydo-bycie ze środowiska około 22 ton uranu natural-nego. Tę samą ilość energii elektrycznej wytwarza reaktor na stopionych solach wykorzystując 60 kg uranu naturalnego i 60 kg toru!”

Istnieje wiele korzyści, które są niejako pro-duktami ubocznymi pracy w projekcie torowym czy innych podobnych w Instytucie. Ogromną korzyścią dla naszych przyszłych kadr, które będą zajmowały się nadzorowaniem pracy elektrowni atomowych, jest według profesora Chwaszczew-skiego: „Zaangażowanie młodych naukowców w tematykę energetyki jądrowej, zdobycie przez nich kompetencji w tej dziedzinie.” Dzięki uczest-nictwu w tym projekcie będą oni mogli także tworzyć i testować: „narzędzia do analiz kampanii paliwowych reaktorów energetycznych, takie ja: system programów obliczeniowych umożliwia-jących symulowanie procesu wytwarzania ener-gii cieplnej w całym obszarze rdzenia reaktora w okresie miedzy przeładunkami paliwa, wyzna-czanie charakterystyk wyładowanego z reaktora wypalonego paliwa.”

Dla pokrzepienia serc wątpiących w intencje osób pracujących nad przyszłością energetyczną w Polsce, oraz tym, którym ochrona środowiska i bezpieczeństwo zdrowotne są bardzo bliskie przy-toczmy raz jeszcze słowa prezydenta Eisenhowe-ra wypowiedziane ponad pół wieku temu: „Kto

może wątpić w to, że gdyby wszyscy naukowcy i inżynierowie na świecie posiadali odpowied-nią ilość materiału rozszczepialnego, z użyciem którego mogliby wdrażać i sprawdzać swoje idee, okazja ta nie przekształciłaby się w powszechne, wydajne i oszczędne jego wykorzystanie?”

W świetle powyższego problemy, o których wspomina profesor Chwaszczewski, takie jak peł-ne wykorzystanie paliwa jądrowego, będące ce-lem długoletniego programu Unii Europejskiej w zakresie energetyki jądrowej, którego hasłem jest „dzisiejsze wypalone paliwo jest paliwem jutra”, wydają się raczej wyzwaniem niż zagrożeniem. Należy mieć taka nadzieję. Wszak przyszłość energii jądrowej w Polsce ma miejsce już dziś.

Tomasz Siobowicz

MARZEC 2011�0

Page 31: teberia 6

KREATYWN I

– Zajmuję się rzeczami, którymi zajmuje się jedynie garstka ludzi. Prawników, księgowych czy managerów są miliony, a fizyków mało – mówi o swojej pracy naukowej Krzysztof Wojciech Fornal-ski, doktorant w Instytucie Problemów Jądrowych w Świerku. Wśród fizyków niewielu zajmuje się zaś wpływem promieniowania jonizującego na organi-zmy żywe.

Krzysztof Fornalski ukończył II liceum w Ostrowcu Świętokrzyskim znane z wysokie-go poziomu nauczania fizyki i matematyki. Ten fakt, jak również to, że rodzice są „ścisłowcami” – jego Mama uczyła fizyki, a Tata jest energety-kiem – sprawił, że pójście w kierunku nauk ści-słych wydawało mu się oczywiste. W swoich pla-nach początkowo miał studiowanie informatyki – dopiero w klasie maturalnej zmienił zdanie i zdecydował się na fizykę. „Raczej pod wpływem impulsu i chęci robienia czegoś niecodziennego, nieprzeciętnego” jak twierdzi. W 2002 roku roz-począł studia na Wydziale Fizyki Politechniki Warszawskiej, a zaraz po ich ukończeniu podjął studia doktoranckie w Instytucie Problemów Ją-drowych imienia Andrzeja Sołtana w Świerku koło Otwocka.

Obecnie jest studentem IV roku studiów dok-toranckich w Instytucie Problemów Jądrowych w Świerku. Jego praca doktorska będzie dotyczyła zagadnienia wpływu niskich dawek promienio-wania jonizującego na organizmy żywe. Zajmie się w niej między innymi danymi dotyczącymi otrzymywanych dawek oraz ryzyka wystąpienia chorób nowotworowych wśród pracowników in-stytutu, w którym pracuje.

Opracował całkowicie nowy, autorski model odpowiedzi komórek na dawkę promieniowania. Wykorzystał w nim podejście czysto probabili-styczne w oparciu o mechanizmy, które wyniósł ze swoich studiów na Politechnice. Choć techniczne aspekty programowania nie zawsze są najprostsze ma jednak nadzieję, że uda mu się w przyszłości jeszcze bardziej rozwinąć swój autorski model odpowiedzi na promieniowanie.

Praca w tak poważnym ośrodku jakim jest In-stytut Problemów Jądrowych pozwoliła mu rów-nież bardzo pokornie spojrzeć na rozmiar wiedzy, którą dysponujemy – poświadczyć znaną nie od dziś tezę, że tak naprawdę wiemy bardzo mało. Działanie w grupie i możliwość wymiany myśli, poglądów oraz dyskusji pozwalają mu przekonać się jak ważne i wartościowe jest poznanie opinii i zdania innych osób.

Świadomość dokładania malutkiej cegiełki – wkładu w rozwój naszej cywilizacji - daje mu ogromne poczucie spełnienia. W swojej pracy ceni sobie możliwość rozwoju oraz swobodę dzia-łania. Nie lubi stania w miejscu i wykonywania czegoś odtwórczego – to właśnie praca twórcza jest dla niego najbardziej pociągająca. Daje mu to

ogromną satysfakcję oraz poczucie, że to co robi jest ważne i jest jednocześnie możliwością budo-wania opinii o sobie.

Mimo tak wielu satysfakcjonujących czynni-ków ma świadomość, iż po skończeniu studiów doktoranckich trudno będzie w Polsce otrzymać dobrze płatną posadę w nauce. Być może fakt ten zmusi go w przyszłości do imania się wielu in-nych, nie zawsze związanych z pracą, zadań.

– Nie zawsze udaje się robić to co się lubi i jednocześnie dobrze na tym zarabiać – wyznaje szczerze.

Krzysztof nie zamierza się jednak poddawać – w dalszym ciągu dąży do realizacji swojego

twórczego potencjału choć ma też świadomość związanych z tym trudności.

Żyje nie tylko pracą. Ma różne inne pasje i zainteresowania. Od ponad 10 lat pisze wiersze, które były publikowane w wielu czasopismach, m.in. „Akant” lub w pokonkursowych mono-grafiach. Za tą swoją twórczość był wielokrotnie wyróżniany i nagradzany, m.in. na Grudniowym Akademickim Przeglądzie Artystycznym (aż cztery razy).

Pośród swoich zainteresowań ma również genealogię (posiada obszerne drzewo genealo-giczne swojej rodziny tworzone pieczołowicie od lat) i heraldykę. Udziela się również społecznie – jest członkiem Korporacji Akademickiej Sar-matia, Związku Szlachty Polskiej, Koła Naukowe-go Fizyków przy Politechnice Warszawskiej oraz członkiem-założycielem Polskiego Towarzystwa Genealogicznego.

Jego podporą jest również ukochana Rodzi-na: żona Kasia i malutka córeczka Natalia.

ts

�1MARZEC 2011

Page 32: teberia 6
Page 33: teberia 6
Page 34: teberia 6

Niezależna encyklopedia, utrzymuje się z datków użytkowników i kontrybutorów treści. Podczas zeszłorocznej zbiórki przeszło pół miliona osób ofiarowało na rozwój wolnej encyklopedii 16 milionów dolarów.

Pieniądze zostaną wykorzystane na rozwój Wikipedii. Obecnie serwis odwiedzany jest przez 400 mln internautów miesięcznie. Mają oni dostęp do ponad 17 mln artykułów napisanych w 270 językach. Polska Wikipedia została otwarta 26 września 2001 roku i obecnie jest czwartą pod względem liczby artykułów (prawie 800 tysięcy) edycją językową. I pomyśleć, że Wielka Encyklopedia PWN posiada zaledwie 156 tysięcy haseł. Wikipedia zawdzięcza swój potencjał pasji zapaleń-ców.

- Czy ja oszalałem? - tak o sobie zdaje czasami myśleć Paweł Drozd, znany jako użytkownik Drozdp. Bo jak inaczej myśleć o kimś, kto na każdym kroku ogląda się za bezprzewodowym internetem, tylko po to by zalogować się do panelu administracyjnego Wikipedii.

Paweł Drozd, stateczny przedsiębiorca z Chorzowa zaczął swoją

przygodę z Wikipedią sześć lat temu podczas... choroby. Chcąc dowie-dzieć się czegoś o swoim schorzeniu sięgnął do internetu i tym sposo-bem trafił na Wikipedię.

Pan Paweł pokochał Wikipedię bezwarunkowo. Chciał się dzielić swą wiedzą, ale może przede wszystkim, chciał wiedzę zdobywać.

- Wtedy było cudowanie, bo na polskiej Wikipedii było zaledwie 50 tysięcy haseł. Można było więc pisać prawie o wszystkim – wspomi-na. – Początkowo wydawało mi się, że ja coś wiem i mogę się podzielić swoją wiedzą, ale wnet okazywało się, że tak naprawdę wiem niewiele. Wikipedia nauczyła mnie pokory.

Jego pierwszym artykułem był colt (rewolwer). To efekt zainte-resowania bronią czarnoprochową. Do napisania tego hasła posłużył się... Wikipedią, tyle, że anglojęzyczną.

W połowie 2010 przekroczył już liczbę 15 tys. edycji, z czego po-nad 10 tysięcy w przestrzeni głównej. Pan Paweł ma też na swoim kon-cie kilkaset artykułów, pisanych od podstaw.

- Moje zainteresowania to podróże po świecie, więc zamieszczam

10 lat temu, jako projekt pomocniczy nie-istniejącej już Nupedii, powstała Wikipedia – wielojęzyczna internetowa encyklopedia, która w całości składa się z otwartej treści. Powstaje dzięki niezależnym działaniom milionów użytkowników.

MARZEC 2011��

Page 35: teberia 6

SOC I A L 2 . 0

informacje i grafiki z miejsc w których byłem np. Santa Fe (Nowy Meksyk), a jeżeli już są (informacje) a można coś dodać, to dodaję.

Dziś Paweł Drozd jest już członkiem Stowarzyszenia Wikimedia Polska. Znalazł naśladowców w rodzinie. Wnuczka też jest edytorem,

opracowuje hasła związane z Rodem Stewartem. Wikipedia wniosła do jego życia wiele dobrego, ale była też przy-

czyną upokorzeń. Niemiłym zaskoczeniem była dla niego postawa wielu znajomych, którzy gdy tylko dowiedzieli się o jego współpracy z Wikipedią zaczęli się z niego najzwyczajniej naśmiewać.

- U nas jest zupełnie inaczej niż w Europie Zachodniej. Na jed-nym ze spotkań Wikipedystów we Frankfurcie, nocowałem w schro-nisku młodzieżowym wraz z grupą redaktorów z Europy. Nade mną nocował profesor z Bazylei, a o łóżko obok docent z Freiburga. Tam współpraca z Wikipedią jest czymś nobilitującym, nawet dla naukow-ca. Polacy deprecjonują Wikipedię, naśmiewają się z nas, jej twórców, a jednocześnie korzystają z niej masowo, jest ich podstawowym źródłem informacji i to jest paradoksem – zauważa nasz rozmówca.

Popularność Wikipedii znajduje odzwierciedlenie nie tylko w licz-bie artykułów. Po 10 latach obecności w Internecie Wikipedia stała się uniwersalnym źródłem informacji na prawie każdy temat. W czasie prezydenckiej kampanii wyborczej dziennikarze wychwycili, że Bro-nisław Komorowski miał w ręku wydruk z Wikipedii o Biurze Bezpie-czeństwa Narodowego.

Według statystyk zbieranych przez ComScore Wikipedia jest w pierwszej dziesiątce najczęściej odwiedzanych stron, będąc jednocze-śnie jedyną stroną non-profit w czołówce. Korzystają z niej zarówno uczniowie i studenci, jak i nauczyciele akademiccy. Artykuły pocho-dzące z Wikipedii są cytowane oraz podawane jako źródło w pracach naukowych, książkach i pismach.

A jednak środowisko naukowe niechętnie przyznaje się do korzy-stania z z Wikipedią, a tym bardziej naukowcy niechętnie mówią o współpracy. Do tej pory korzystanie z internetowej encyklopedii przez wykładowców i nauczycieli uznawane było za obciach i zakazywano jej używania. Na wyższych uczelniach promotorzy wciąż ostrzegają swoich podopiecznych przed cytowaniem tego źródła w autorskich pracach dyplomowych.

Sytuację tą może zmienić inicjatywa naukowców z Politechniki Warszawskiej, którzy postanowili sprawdzić poprawność niektórych haseł znajdujących się w Wikipedii.

Wikipedia jest niezwykle popularnym źródłem wiedzy – głównie dzięki szybkości i prostocie dostępu do informacji. Dlatego próby wyeliminowania z procesu edukacji tej internetowej encyklopedii są z góry skazane na niepowodzenie – podkreśla dr inż. Andrzej Zalew-ski, kierownik Studiów Podyplomowych Zarządzanie Projektami na Politechnice Warszawskiej. – Dużo lepszym i ciekawszym rozwiąza-niem jest merytoryczne wsparcie Wikipedii. Ponieważ zależy nam na jak najwyższym poziomie informacji tam zawartych, postanowiliśmy wykorzystać naszą wiedzę w procesie ich redagowania.

Na początek poszły hasła z zakresu zarządzania projektami. Na-ukowcy Politechniki zweryfikowali kilkadziesiąt najważniejszych haseł już istniejących. Dodatkowo uzupełnili listę o kolejne hasła, których w tej chwili nie ma w bazie Wikipedii.

Prawdopodobnie później rozszerzymy obszar naszych zaintere-sowań poza tę tematykę – szczególnie że na Wikipedii brakuje haseł związanych z tematyką zarządzania zasobami IT, która w ostatnim czasie budzi spore zainteresowanie – dodaje.

Paweł Zienowicz ze Stowarzyszenia Wikimedia Polska przyznaje, że taka akcja nie miała precedensu. Według niego jest to dobry znak, że polscy naukowcy zaczynają uważać Wikipedię za użyteczne źródło informacji.

Metoda tworzenia Wikipedii jest bowiem radykalna. Przeciwsta-wia mądrość tłumu kultowi eksperta. W sytuacji, gdy każdy z każdym na całym świecie może się łatwo komunikować, a najnowsze technolo-gie ułatwiają nie tylko wymianę zdań, ale także gromadzenie doświad-czeń, okazuje się często, że najlepszy nawet ekspert dysponuje mniej-szą wiedzą niż rzesza skomunikowanych amatorów.

Według badań szacownego tygodnika naukowego „Nature”, po-równujących jakość artykułów z Wikipedii i z Britanniki okazało się, że owszem w encyklopedii internetowej jest nieco więcej błędów niż w tradycyjnym, wzorcowym kompendium, ale i Britannica nie jest nie-omylna.

Pewnym problemem, na co zwracają uwagę sami Wikipedyści są hasła sprawiające na pierwszy rzut oka wrażenie napisanych popraw-

nie i fachowo, ale zawierających celowo wprowadzoną nieprawdę. W latach 2004 – 2006 internauci stworzyli fikcyjną postać działacza ko-munistycznego Henryka Batuty.

Napisanie tego rodzaju hasła wymaga jednak dość sporo wysiłku, wiedzy i sprytu, a osób, które gotowe są w ten sposób wandalizować Wikipedię, jest znikoma liczba – uważają twórcy Wikipedii.

Dziś Wikipedyści prowadzą „Bezwzględną Akcję Troskliwego Uźródławiania Tysięcy Artykułów” (nomen omen pod kryptonimem

��MARZEC 2011

Page 36: teberia 6

SOC I A L 2 . 0

„Batuta”). W kolejnej już edycji akcji chcą zmierzyć się z artykułami, które nie posiadają źródeł i zazwyczaj oszpecone są szablonami z ko-munikatami domagającymi się źródeł. Druga kwestia to indywidualne wybory dziedzin wiedzy, w których brakuje źródeł, a którymi część z nas nie zajmowała się z powodu innych prac w Wikipedii. Po trzecie chcą położyć większy i skuteczniejszy nacisk na to, aby nowe hasła w Wikipedii miały źródła.

Są bowiem trzy podstawowe zasady dotyczące treści artykułów w Wikipedii. Jedną z nich jest weryfikowalność (temu właśnie mają słu-żyć źródła). Inne to neutralny punkt widzenia oraz brak twórczości własnej, gdyż Wikipedia w założeniu ma być źródłem wiedzy wtór-nej a nie pierwotnej. Artykuł, który znajdzie się w Wikipedii musi być

skądś zaczerpnięty, choćby z gazety. Najlepiej jednak, żeby źródło było poważne.

Wikipedia jako pospolite ruszenie posiada hierarchiczną struktu-rę twórców i redaktorów, zapewniająca skuteczną, społeczną kontrolę nad jakością publikowanych treści.

Bo jak przyznają osoby redagujące polską Wikipedię powszech-nym zjawiskiem są tzw. wandalizmy. Zjawisko to nasila się zwłaszcza kiedy młodzież ma ferie, bo z nudów, dla zabicia czasu, korzystając choćby z szkolnych pracowni wandalizują artykuły w Wikipedii.

Sposobem na wandalizmy i wulgaryzmy było wprowadzenie tzw. stron przejrzanych.

Informuje ona o tym, że któryś z regularnie edytujących wikipedy-stów z odpowiednimi uprawnieniami przejrzał daną wersję i oznaczył ją jako wolną od widocznych gołym okiem wandalizmów. W przypad-ku dokonania edycji przez osobę bez uprawnień do oznaczania wer-sji jako „przejrzana”, musi ona zostać przejrzana przez drugą osobę z uprawnieniami.

Wyszukiwaniem wulgaryzmów zajmują się także boty (specjalne programy, które wykonują pewne czynności w zastępstwie człowieka). Zastosowanie botów ma także szerszy zakres, tworzą one m.in. inter-wiki, łączące artykuły pomiędzy poszczególnymi edycjami językowy-mi. Boty wyszukują także martwe linki do stron zewnętrznych, a na-wet dokonują edycji. To właśnie MastiBot jest najbardziej aktywnym edytorem polskiej Wikipedii pod względem liczby kliknięć przycisku Zapisz. W polskiej Wikipedii można znaleźć jedyną bazę wszystkich polskich miejscowości. Zrobił to bot, zaciągając bazę urzędu staty-stycznego. Zresztą podobnie było we Francji czy Norwegii.

Niewielka liczba szczególnie upartych osobników psujących naszą pracę, może być odcięta od Wikipedii dzięki możliwości blokowania

dostępu do niej z określonych adresów IP. Jest to jednak środek osta-teczny, który w polskiej Wikipedii jest stosowany jak najrzadziej.

Wikipedia, jak zauważa publicysta Edwin Bendyk, okazała się wielkim laboratorium społecznym i kulturowym, w którym wolne jednostki odkrywają, że bezinteresowna praca dla wspólnego dobra może być źródłem przyjemności i spełnienia, i wypracowują normy zgodnego i efektywnego współdziałania. Ale, który wywołuje też wiele obaw i pytań o przyszłość kultury.

Model Wikipedii nie tylko doprowadził do stworzenia wielkiego zasobu wiedzy. Jednocześnie podkopał podstawy bytu wielu spraw-dzonych instytucji kultury. Wydawcy encyklopedii mają problem z przetrwaniem, a nawet National Science Foundation która w 2001 r.

zaczęła robić fantastyczną Digital Library (poszło na ten projekt blisko 200 mln dolarów) narzeka dziś, że prawie nikt nie korzysta z tych za-sobów – zauważa Bendyk.

Wikipedia stworzyła jednocześnie jedno, wielkie zjawisko Wiki. Na całym świecie powstają setki mniejszych projektów gromadzących specjalistyczną wiedzę. Jak choćby wikinezka - polska encyklopedia dotyczącą Pokémonów, licząca prawie 3 tys. haseł. Ale też jednym z projektów stworzonym w systemie wiki okazała się strona Wikileaks, która jakże namieszała w globalnej polityce.

Sensem Wikipedii jest dążenie, by każdy człowiek mógł mieć dostęp do całości wiedzy wytworzonej przez ludzkość – wyjaśnia jej twórca Jimmy Wales.

W ten sposób spełnia się dążenie Walesa, by każdy człowiek mógł mieć dostęp do całości wiedzy, a także informacji wytworzonej przez ludzkość, nawet w tak radykalnej formie.

Jacek Srokowski

MARZEC 2011��

Page 37: teberia 6

1Reguła Titiusa-Bodego był pierwszym artykułem w polskiej Wikipedii.

4polska edycja pod względem liczby artykułów ustępuje jedynie wersji angielskiej, niemieckiej i francuskiej.

7według statystyk Alexy Wikipedia zajmuje siódme miejsce w Polsce wśród popularności stron www.

10tyle lat liczy najmłodszy polski wikipedysta...

87...a tyle lat liczy najstarszy polski wikipedysta.

95,67tak procentowo wygląda poprawność artykułów (nie mylić z ja-kością) w polskiej Wikipedii (bez prostych wandalizmów).

6700 Moda na sukces to najczęściej edytowany w polskiej Wikipedii artykuł.

337 323 tyle razy przeglądany był artykuł Polska, najczęściej prze-glądany w polskiej Wikipedii.

469 830MastiBot to najbardziej aktywny edytor polskiej Wikipedii pod względem liczby kliknięć przycisku Zapisz. Niemniej ran-king ten obejmuje nie tylko wikipedystów z krwi i kości, ale także boty, IPki i skrypty serwera.

520 000tyle bajtów liczy gramatyka języka fińskiego” najdłuższa strona w polskiej Wikipedii.

762 427 tyle na koniec grudnia 2010 było artykułów w polskiej Wiki-pedii.

9 235 900to ilość użytkowników polskiej Wikipedii.

10 lat polskiej Wikipedii w liczbach

Page 38: teberia 6

Niech moc będzie z Wami

Page 39: teberia 6

Nie musisz być Einsteinem, żeby przysłużyć się nauce. Wystarczy, że poprzez internet udostępnisz naukowcom moc obliczeniową swojego komputera. Najbardziej ambitni internauci mogą też w sieci udostępnić naukowcom bystrość swojego umysłu. Internetowe projekty społecznościowe dają nauce mocnego kopa.

Niech moc będzie z Wami

Page 40: teberia 6

NAUKOWO

Najszybszym komputerem na świecie jest komputer, którego fizycznie nie ma. SETI@home na próżno szukać na liście Top 500 naj-szybszych komputerów świata. SETI@home to przedsięwzięcie zainicjowane przez naukow-ców Uniwersytetu Kalifornijskiego w Barkley, w ramach którego powstało oprogramowanie i platforma współpracy, umożliwiające milio-nom użytkowników połączenie zasobów ob-liczeniowych w jeden potężny komputer. We-dług szacunków z listopada 2009, SETI@home miał możliwość obliczania z prędkością 769 teraflops. Dla porównania Cray Jaguar, któ-ry był wtedy najszybszym superkomputerem (również superdrogim) osiągał 2,331 teraflops. Szybkość obliczeniowa SETI@home zapewnia-ło mu ponad 278 832 aktywnych komputerów w systemie, rozsianych po 234 krajach. Łącznie jednak w projekcie uczestniczyło 2,4 miliona komputerów!

A to tylko wygaszacz!

Każdy użytkownik biorący udział biorący udział w projekcie musi pobrać zaledwie niewiel-ki wygaszacz ekranu. Kiedy komputer przestaje być aktywny, włącza się wygaszacz, który pobie-ra zadania do obliczenia i rozwiązuje je. SETI@home pomaga w poszukiwaniu inteligencji po-zaziemskiej, ale na podobnej zasadzie działa już wiele innych projektów skupionych wokół plat-formy BOINC.

BOINC pozwala na bezkolizyjną pracę teo-retycznie nieograniczonej ilości projektów prze-twarzania rozproszonego na jednym komputerze.

Jest to możliwe dzięki ujednoliconej strukturze wszystkich projektów. Co więcej, każdy użytkow-nik może w łatwy sposób ustalić, ile czasu jego komputer poświęci na pracę z poszczególnymi projektami. BOINC potrafi także zmagazynować dane wejściowe i wyjściowe, aby pracować bez przerw, gdy połączenie z serwerem projektu jest niemożliwe.

Projekty BOINC (jest ich już kilkadziesiąt) pozwalają naukowcom m.in. lepiej poznać natu-rę wszechświata (projekt LHC wspiera budowę akceleratora cząsteczek w CERN), wynaleźć leki na AIDS, raka (WCG), a także na wiele innych chorób (projekty białkowe - Rosetta, SIMAP, Predictor, TANPAKU). Mogą być źródłem lep-szego przewidywania zmian globalnego klimatu (CPDN, SAP), uzyskania dalszych dowodów na poprawność teorii względności (Einstein, LHC), rozwoju matematyki (ABC, RCN, Sztaki, Prime-

Grid, Riesel Sieve), rozwoju chemii i nanotechno-logii (QMC, Spinhenge, NanoHive).

W sierpniu 2006 roku powstał pierwszy pol-ski projekt BOINC nazwany Nagrzewanie Stali@home. Projekt został uruchomiony w ramach pracy magisterskiej studenta informatyki. Projekt działał przez niecały tydzień, gromadząc w tym czasie ponad 130 uczestników z całego świata.

W lecie 2007 roku powstał projekt Enigma@Home mający na celu wspomożenie innego pro-jektu próbującego złamać zaszyfrowaną Enigmą wiadomość z okrętu podwodnego.

Od stycznia 2009 roku w ramach projektu PrimeGrid działał podprojekt AP26, wykorzy-stujący algorytm opracowany przez Polskiego naukowca, dr. Jarosława Wróblewskiego, do znaj-dowania liczb pierwszych będących wyrazami ciągów arytmetycznych.

Uczestnicy projektów mogą się zrzeszać w ze-społy rywalizując z sobą, kto lepiej przysporzy się nauce. Za czas przeznaczony na prace z projekta-mi przyznawane są użytkownikom punkty kredy-towe, które pozwalają na współzawodnictwo.

Polish National Team – Polska Drużyna Na-rodowa zajmujemy aktualnie 18 miejsce w ran-kingu międzynarodowym na 90,891 drużyn z 272 krajów.

Mózg lepszy od komputera

Jednak komputery pod wieloma względami wciąż nie dorównują naszym mózgom i nie po-może na to nawet najliczniejsza armia maszyn.

– Komputer są znakomite, ale wszystkiego nie potrafią zrobić. W przypadku analizy obrazu

komputery wciąż są mniej wydajne od człowieka – prze-konuje dr. Lech Mankiewicz, dyrektor Centrum Fizyki Teoretycznej PAN.

W internecie została właśnie udostępniona polska wersja kolejnego społeczno-ściowego projektu naukowego – „The Milky Way Project”. W najnowszym przedsięwzięciu zespołu Zooniverse użytkow-nicy internetu mogą wspierać astronomów w klasyfikacji i

pomiarach Drogi Mlecznej. Zadaniem interna-tów jest odnajdowanie i opisywanie tajemniczych baniek na fotografiach wykonanych w podczer-wieni przez Kosmiczny Teleskop Spitzera.

Naukowcy przekonują, że ludzki mózg o wiele lepiej radzi sobie z rozpoznawaniem wzorów niż jakikolwiek komputer. Można napisać program do dzielenia galaktyk na kategorie, jednak taki program niewątpliwie nie uwzględni galaktyk niezwykłych, dziwnych ani cudownych. Dlatego potrzebują wsparcia internatów.

„The Milky Way Project” to kolejny spo-łecznościowy projekt naukowy, który powstał po sukcesie kilku odsłon „Galaktycznego Zoo”. Łącznie w projektach tego typu przygotowanych na platformie Zooniverse wzięło udział już blisko 400 tysięcy internautów, w tym ponad 30 tysięcy Polaków. Na platformie działają też wcześniejsze, już dostępne w polskiej wersji językowej projekty:

W grze internetowej

fold it internauci

rywalizują w rozwiązywaniu przestrzennych

łamigłówek. W ten sposób

pomagają badać sposoby, w jakie może zwijać się

skomplikowa-na cząsteczka

białka.

MARZEC 2011�0

Page 41: teberia 6

NAUKOWO

„Galaktyczne ZOO - Hubble”, w którym internau-ci mogą pomagać naukowcom klasyfikować ga-laktyki, oraz „Polowanie na supernowe” i „Zrozu-mieć kosmiczne zderzenia”. W dwóch ostatnich projektach internauci wspomagają uczonych w poszukiwaniu niezwykłych, gwałtownych ko-smicznych procesów.

- Dzięki takim projektom nawet nauczyciel-

ka muzyki z Holandii mogła się w istotny sposób przysłużyć naukom astronomicznym – mówi dr. Lech Mankiewicz.

Jego zdaniem astronomia mogłaby się roz-wijać bez projektów społecznościowych, ale one dają nauce wielkiego kopa.

– Wprawdzie nie udało się jeszcze odkryć po-zaziemskiej cywilizacji przy pomocy internautów, ale za to udało się odkryć sporo supernowych. Po-wstało też kilka ważnych prac naukowych, dzięki tym projektom – wylicza naukowiec. – Niestety, tylko ułamek promila internautów uczestniczy w dyskusji wyników, a szkoda. Istotne jest złamanie bariery językowej. Staramy się zatem tłumaczyć strony angielskie na język polski.

Wkrótce będzie dostępna w internecie polska strona kolejnego projektu: Planet Hunters.

Internauci pomagają badać nie tylko zagad-ki kosmosu. Wspomagają też w istotny sposób klimatologów. W projekcie Old Weather inter-nauci proszeni są o przeglądanie autentycznych dzienników pokładowych okrętów Royal Navy z początku XX w. Aby rozwijać modele klimatolo-giczne i lepiej zrozumieć ziemski klimat, uczeni desperacko potrzebują danych empirycznych.

Niestety, regularne obserwacje meteorologiczne to w dziejach cywilizacji rzecz stosunkowo nowa. Sięgając w archiwach już kilkadziesiąt lat wstecz, natrafimy na spore luki w pogodowej historii świata, a lata poprzedzające rok 1920 to już istna parada białych plam na klimatycznej mapie glo-bu. Dlatego bezcenne dla dzisiejszych uczonych są dane meteorologiczne sprzed niemal stu lat,

jakie zachowały się w dziennikach pokładowych okrętów wszechobecnej Królewskiej Marynarki Wojennej.

Ludzki mózg radzi sobie także świetnie z my-śleniem przestrzennym czy rozwiązywaniem zło-żonych problemów. Wykorzystali to naukowcy z Uniwersytetu Washington, którzy postanowili problemy naukowe przerobić na grę, która uza-leżni tysiące internautów na całym świecie.

Gracze trenują programy rozpoznające grafi-kę i systemy sztucznej inteligencji, a także poma-gają badać sposoby, w jakie może zwijać się skom-plikowana cząsteczka białka. W tym ostatnim przypadku projekt ma postać gry internetowej fold it, w której ludzie rywalizują w rozwiązywa-niu przestrzennych łamigłówek.

Większość wspomnianych projektów ma jeszcze jedną niewątpliwą cechę, nikt nikomu nie płaci za udział w projekcie. Nagrodą jest możli-wość udziału w powszechnie dostępnej nagrodzie za rozwiązanie problemu naukowego.

Michał Jakubowski

Zadaniem internatów w projekcie „The Milky Way Project” jest odnajdowanie i opisywanie tajemniczych baniek na fotografiach wykonanych w podczerwieni przez Kosmiczny Teleskop Spitzera.

�1MARZEC 2011

Page 42: teberia 6

puk, p

uk… Otwarte!!

Page 43: teberia 6

Wiele ciekawych rzeczy dzieję się dziś w nie-rzeczywistym świecie. Rozwija się kultura i sztuka, kwitnie biznes. Powstają dzieła sztu-

ki, literatury, filmy oraz narzędzia służą-ce ich produkcji. Otwarta współpraca

(open collaboration) jest kolejnym trendem po otwartym oprogramo-waniu (open software) i otwartej treści (open content).

puk, p

uk… Otwarte!!

Page 44: teberia 6

KU LTURA

Stoi za tym nie tylko coraz obszerniejsza literatura. To również efekt przedsięwzięć, w których powstają usługi oraz produk-ty w sposób tak dobrze zorganizowany i nakierowany na cel jak to ma miejsce w przypadku ich licencjonowanych i opa-trzonych korporacyjnym logo odpowiedni-ków. Powinno nas to dziwić, gdyż projekty otwartego oprogramowania powstające we współpracy on-line (skróćmy to sobie do OOWwO) zależą przecież w dużej mie-rze od luźno skoordynowanych wysiłków grupy ochotników. A przecież ten model produkcji był do niedawna postrzegany jako niekonkurencyjny w starciu z wysoce zorganizowanymi zespołami inżynierów i deweloperów, zarządzanych przez profe-sjonalistów w projektach komercyjnych.

OOWwO z sukcesemJednak projekty OOWwO zaczęły odnosić sukcesy co przyciągnę-

ło zarówno naukowe jak i przemysłowe kręgi do zagadnienia otwartej innowacji sensu lato – czyli każdego procesu, w którym w powstawaniu innowacji wszelkiego rodzaju otwarcie się uczestniczy oraz nad którymi współpracuje więcej niż jedna osoba. W centrum takich działań znaj-duje się zwykle użytkownik, który nie jest już ograniczony do roli kon-sumenta dóbr, ale jest w stanie aktywnie brać udział w procesie tworze-nia innowacji. Tak rodzi się coś co zwie się demokratyzacją innowacji.Proces ten nie jest czymś unikalnym dla OOWwO, choć to właśnie w kręgach i społecznościach współpracujących nad oprogramowaniem znajdu-

je swoich najbardziej żarliwych orędowników i praktyków. Demokra-tyzacja przy okazji tworzenia oprogramowania zrodziła kolejne swe formy znane i powszedniejące dziś w innych formach produkcji – tworzeniu dóbr kultury lub takich, które posiadają wartość rozrywko-wą – co znane jest pod postacią tak ogromnie popularnych serwisów jak Wikipedia, Flickr, YouTube czy wiele innych społeczności interne-towych, które obrały sobie za cel produkcję i komunikację treści mul-timedialnych – w odróżnieniu od tak jednostronnie zorientowanych na element społecznościowy jak MySpace czy Facebook. Podobnie jak w przypadku OOWwO, społeczności skupione wokół tworzenia dóbr z zakresu kultury czy rozrywki są napędzane wkładem użytkowników oraz rosnącymi umiejętnościami artystów profesjonalnych i amato-rów to komunikacji bezpośredniej z ich publicznością w sieci. To dość znaczący krok, który pomija tradycyjne kanały dystrybucji i reklamy. Powstają całe tomy nowych zagadnień związanych z licencjonowa-niem, udziałem oraz zachowaniami użytkowników, który uczestniczą w produkcji treści multimedialnych dostępnych następnie w otwartej przestrzeni rynkowej ery post-Web 2.0.

Powodzenie projektów spod znaku OOWwO doprowadziło do skonstatowania i szerokiej aklamacji dla faktu, że dostęp do kodu źró-dłowego oraz możliwość współpracy użytkowników o różnym stop-niu umiejętności przy tworzeniu i rozbudowie tegoż kodu prowadzi do powstania lepszego oprogramowania. A wynika to z prostego fak-tu, że zarówno umiejętności jak i wiedza na temat potrzeb są rozpro-szone wśród użytkowników. Podobnie w przypadku demokratyzacji procesu produkcji dóbr kulturalnych i rozrywkowych nakładają się dwa czynniki – rozproszenie umiejętności oraz gustów wśród odbior-ców.

Made in networkNie sposób sobie wyobrazić jak projekty spod znaku OOWwO

mogłyby odnieść sukces gdyby nie współpraca na duże odległości w ogromnej skali, możliwa dzięki Internetowi oraz powstaniu w nim społeczności. Nie istnieje nawet jeden użytkownik, czy nawet pro-fesjonalny programista, który dysponowałby pełną wiedzą z zakre-su technik programowania, projektowania, interfejsów czy języków programowania jakiej wymaga stworzenie nowoczesnej, złożonej aplikacji. Aby stanąć na wysokości zadania jakim jest stworzenie ta-kiego oprogramowania duże, specjalistyczne firmy, zaangażowane w dostarczanie takich rozwiązań, zatrudniają, bądź częściej wynajmu-ją i organizują współpracę licznych deweloperów w rozproszonych po świecie zespołach. Jest to konieczne by móc rozbić wysiłek po-trzebny na stworzenie tych rozwiązań na mniejsze zadania, którymi można łatwiej zarządzać. Nie mniej nawet gdy uda im się pozyskać

�� MARZEC 2011

Page 45: teberia 6

KU LTURA

znakomitych inżynierów oraz talenty w dziedzinie projektowania oprogramowania, nawet te firmy mogą stanąć przed faktem znalezie-nia się ich flagowych produktów stających w rynkowe szranki łeb w łeb z wysokiej jakości produktami stworzonymi w ramach OOWwO.

Sytuacja nabiera dodatkowych rumieńców i przysparza kolejnych wrzodów sprzedawcom produktów komercyjnych w związku z tym, że rezultaty działania OOWwO są dostępne za darmo i stale udosko-nalane przez zespoły ochotników, pośród których znajdują się niejed-nokrotnie bardzo zdolni programiści. Nie bez znaczenia jest również fakt, że poprzez otwartą współpracę i dostępność kodu źródłowego współuczestnicy takich projektów są w stanie uczyć się jedni od dru-gich i w ten sposób rozwijać swoje umiejętności.

Podobnie ma się rzecz ze zdolnościami twórczymi – nie są one równomiernie rozproszone wśród ludzi ani też nie są skupione je-dynie w małej garstce jej przedstawicieli. Tak samo ma się rzecz z oryginalnymi pomysłami i rozwiązaniami. Nie ulega wątpliwości, że niektóre osoby są bardziej „utalentowane” niż większość – w tym sen-sie, że potrafią osiągnąć więcej przy mniejszym nakładzie wysiłku jak również dotrzeć na wyższy poziom kreatywności przy takim samym wkładzie pracy i koncentracji.

Nawet mimo to zaskakująca popularność wyprodukowanych przez użytkowników mediów pod postacią filmów video ze skecza-mi, występami karaoke czy ciętą satyrą dają świadectwo mocy jakie drzemią w amatorskiej kreatywności oraz entuzjazmu jaki napędza produkcje takich treści. Najwidoczniej jest dość znaczne zapotrzebo-wanie na treści, które niektórzy z nas uznaliby za bezwartościowe.

Internet okazuje się być najwydajniejszym jak dotąd medium równoważącym popyt i podaż i możliwości dla stale rosnącej liczby użytkowników, którzy wykorzystują do tego serwisy społecznościowe zarówno dla znalezienia publiczności jak i możliwości poddania ich wytworów ocenie, a także znalezienia podobnych sobie użytkowni-ków, którzy posiadają umiejętności, talenty i wiedzę, mogące stano-wić dla nich uzupełnienie.

Mix onlineNikomu nie trzeba chyba przedstawiać takich serwisów jak

YouTube, Revver czy Friendster natomiast dobrym przykładem opi-sywanego trendu korzystania w ten właśnie sposób z sieci jest spo-łeczność Kompoz.com. W tym serwisie użytkownicy udostępniają pojedyncze ścieżki np. gitary, które nagrali i szukają innych muzyków, którzy byliby zainteresowani dodaniem swoich ścieżek basu, perkusji, wokalu aby stworzyć wspólny mix. I podobnie jak miało to miejsce w przypadku społeczności skupionych wokół OOWwO tutaj również niektórzy z użytkowników będą podejmowali próby wyprodukowa-

nia lepszych wersji istniejących ścieżek tak by pomysł nabrał nowego blasku dopełniającego muzyczny mix. W ten sposób internauci mogą nie tylko stworzyć wirtualny odpowiednik zespołu muzycznego, ale potencjalnie również dodać do swoich nagrań setki wirtualnych członków zespołu, którzy udostępnią różne fragmenty utworu nagra-ne tak jak właśnie oni umieją najlepiej.

Przez ostatnie lata pojawiło się więcej społeczności skupionych wokół muzyki, takich jak EM411, last.fm czy Soundclick. Pojawiły się również niezależne wytwórnie takie jak CDBaby, Magnatune czy Jamendo oraz takie, które jak Kompoz mają za zadanie ułatwić kre-atywne korzystanie z udostępnianego materiału jak chociażby Spli-ce, ccMixter, Yourspins, Jamglue czy Acid Planet. Większość z użyt-kowników, zgodnie z wiodącym trendem, praktykuje remixowanie, lub bardziej ogólnie kreatywne, ponowne wykorzystanie elementów wcześniej stworzonych dzieł i utworów. Jest to obecnie szeroko sto-sowana praktyka w sztukach plastycznych (nazywane tu kolażem) lecz także w nauce i technice – w przypadku wspomnianych serwi-sów można obserwować powstawanie utworów i dzieł niemal w cza-sie rzeczywistym w związku z niespotykaną do tej pory dostępnością zarówno skończonych opracowań jak i meta-danych na kontach użyt-kowników.

Nie tylko proces produkcji oraz ilość materiału stanowią różni-cę w porównaniu z tym co było dostępne i praktykowane wcześniej. Ruch w stronę od tradycyjnych kanałów transmisji, takich jak radio i telewizja i fizycznie dystrybuowanych mediów (CD, DVD) do dys-trybucji w Internecie zmienił również naturę samego medium. Dla przykładu – aktorzy, którzy mogą nigdy nie stać się gwiazdami wiel-kiego ekranu sięgają jednak po jej nawet niewielki ekwiwalent w sieci poprzez krótkie produkcje, którym rozpędu i popularności przydaje tzw. wiralna (zaraźliwa) dystrybucja poprzez polecenia na forach, blo-gach oraz społecznościowe ocenianie a także strony z doniesieniami wygenerowanymi przez użytkowników takie jak Digg.com czy znany wszem i wobec Twitter.

Kultura 2.0Przejście od pełnometrażowych filmów i profesjonalnego sprzętu

nagrywającego do krótkich video klipów w niskiej rozdzielczości z wykorzystaniem kamer internetowych lub telefonów komórkowych pozwoliło niektórym utalentowanym jednostkom odkryć, że są w sta-nie wyprodukować bardzo atrakcyjne, zabawne i oryginalne krótkie produkcje. Nie dotarłyby one do publiczności, do której są skierowa-ne przed erą Web 2.0. Innymi słowy otwarcie możliwości produkcji treści związanych z kulturą przez użytkowników Internetu stworzyło popyt na nowe umiejętności – lub może trafniej ujmując – stworzyło

��MARZEC 2011

Page 46: teberia 6

użytkownikom okazję zaprezentowania swoich umiejętności, które nie nadawałyby się lub nie zostałyby uznane za wystarczająco atrakcyjne aby dostać się do tradycyjnej dystrybucji kinowej lub innych, uzna-nych form kulturalnej konsumpcji.

To w dużym stopniu przypomina zadowolenie, jakie musiało być udziałem deweloperów OOWwO, które odczuwali gdy po raz pierw-szy zdali sobie sprawę, że oni także są w stanie włożyć swój wkład w rozwój ważnych i złożonych projektów programistycznych nie rusza-jąc się ze swoich foteli. Najprawdopodobniej dopiero teraz zaczynamy sobie zdawać sprawę z tego co agencje wyszukujące talenty, wydawcy i wytwórnie płytowe doświadczyły na własnej skórze – powodzenie w przemyśle, w którym liczy się kreatywność, jest w równej mierze sprawą talentu jak szczęścia i osiągnięcia odpowiedniego progu po-pularności. Może się okazać, że Ci spośród nas, którzy nie są w stanie osiągnąć sławy w klasycznym rozumieniu jako pisarze, aktorzy czy muzycy mogą mimo to mieć możliwość wyprodukowania czegoś co będzie przedstawiało określoną wartość dla jakiejś szczególnej rzeszy odbiorców. Tu problem jest zwykle taki sam – chodzi o to by dotrzeć do odbiorcy, który oceni naszą produkcję na tyle wysoko, że będzie chciał pomóc w jej promocji, a może też wesprze twórczy wkład finan-sowo – bezpośrednio (np. przez mikro płatności) lub pośrednio przez wygenerowanie przychodów z reklamy.

Innym z istotnych aspektów całego zagadnienia jest również fakt, że nie konsumujemy funkcjonalnych (np. oprogramowania) i kultural-nych (np. utwór muzyczny) dóbr jednakowo. Społeczeństwo w sensie ogółu nie będzie czerpało przyjemności z samego faktu istnienia wielu wersji tego samego funkcjonalnej innowacji – wersji oprogramowania – natomiast istnienie wielu interpretacji popularnej piosenki na ogół jest obiektem zainteresowania. Czyli choć otwarta innowacja i otwarta kultura są jednako produktem współpracy i źródłem większego wybo-ru, co jest z korzyścią dla użytkownika, jednakże wielość dostępnych wersji jest na ogół bardziej pożądana w tej drugiej. Ponadto sama na-tura procesu produkcji jest jakościowo inna.

Aby wyprodukować wysokiej klasy narzędzia potrzebne są spo-łeczności deweloperów, które posiadają zbliżoną wizję funkcjonalno-ści, jaka ma być składową tychże narzędzi oraz zgodności co do tego

jak jej poszczególne elementy mają ze sobą pracować. W produkcji kulturalnej chodzi niemal o coś dokładnie przeciwnego – to różnice w wizji twórczej powodują jej rozwój i dają w efekcie bogactwo wyrazowe dzieła. Tak więc kluczową kwestią dla otwartej innowacji jest wspoma-ganie dzielenia się wiedzą i umiejętnościami podczas gdy w otwartej treści kulturalnej chodzi o pewien intuicyjny traf. Dzięki temu trafowi zostają odkryte nowe melodie, tematy muzyczne, efekty dźwiękowe, które stają się pożywką dla kolejnych eksperymentów – niezamierzone lub nieprawidłowe użycie jakiejś techniki lub środka wyrazu może stać się językiem spustowym uruchamiającym we współpracujących umy-słach nowe spojrzenie, wersję, która stanie się przekazem budzącym zachwyt i zyskującym popularność.

Jak to ujął jeden z artystów nowych mediów: „Inżynierom chodzi o kontrolowanie i nie dopuszczanie do wypadków, natomiast w sztuce jesteśmy nimi jak najbardziej zainteresowani”.

Pośród tych różnic i podobieństw w procesie produkowania oraz w użytkowaniu otwartych dóbr wyłania się obraz bezprecedensowej jakości dostępnej dzięki masie krytycznej rozproszonych po odległych zakamarkach ziemi użytkowników. Wielość możliwości zarówno kon-sumpcji jak i produkcji treści, które internauci współdzielą, stwarza okazję dostosowania zarówno tego co tworzą jak i tego jak i czym uczestniczą w życiu w wymiarze zawodowym i poza nim. Pytanie czy będziemy w stanie w tej nieustannej wymianie i dokładaniu naszych 3 groszy dostrzec jeszcze indywidualny wymiar i unikalność naszych pomysłów i rozwiązań jak również gustów i możliwości. Na szczęście wielość kombinacji i kolejnych remixów pozwala mieć nadzieję, że każdy znajdzie to co przypadnie mu do gustu – choćby do następnego zamknięcia okna na wirtualną rzeczywistość, które każdego dnia ofe-ruje miriady możliwości włączenia się w proces tworzenia i odkrywa-nia. Dopóki istnieje Internet drzwi do tego świata pozostają otwarte.

Tomasz Siobowicz

Page 47: teberia 6

Jednym z projektów, które powstały w otwartej współpracy jest BB 2.0 (dostępny pod adresem: http://www.inbflat.net/). Zaproponowany przez Darrena Solomona z zespołu Science for Girls jest kolażem muzyki i słowa mówionego współtworzonym i rozwijanym z wykorzystaniem wkładu ze strony internautów.W swojej formie jest zbiorem video klipów, które mogą być w dowolnej liczbie odtwarzane równo-cześnie. Każda ścieżka będzie współgrała z resztą a powstający mix może być dostrajany za pomo-cą suwaków głośności każdego z nich.Skąd wziął się pomysł? Otóż pewnego dnia Darren pracował nad stroną, na której były zagnież-dżone klipy video z YouTube. W pewnym momencie zdał sobie sprawę, że można odtwarzać kilka klipów równocześnie. Zaczął się zastanawiać czy istnieje możliwość wykorzystania tego fakty w jakiś sposób w muzyce. Zaczął nagrywać kilka instrumentów i w ten sposób powstało BB v1. Sam nagrał kilka ze ścieżek do obecnego projektu – między innymi gitarę, pianino i bass. Resztę otrzymał od użytkowników, których zaprosił do współpracy drogą mailową. Stworzył stronę inter-netową i na niej również zamieścił zaproszenie do przesyłania ścieżek dźwiękowych od użytkow-ników. Podał przy tym kilka prostych wskazówek: należy śpiewać lub grać w tonacji B-dur, ma to być prosta tekstura bez własnego tempa z dużą ilością pauz pomiędzy poszczególnymi frazami, ma trwać 1 – 2 minuty, należy nagrywać w cichym otoczeniu z możliwie małą ilością szumów pocho-dzących z tła itp.W związku z taką formą powstania tego projektu muzycznego nie da się wprost odpowiedzieć na pytanie kto napisał, skomponował w nim muzykę. Tradycyjna koncepcja autorstwa nie ma tu zastosowania. Każdy z uczestników napisał do niego muzykę – aby móc określić, przypisać komuś autorstwo należałoby najprawdopodobniej napisać „muzyka: inbflat.net”.

Page 48: teberia 6

�� MARZEC 2011