'The Industrial Revolution and Beyond'

14
Opracowanie na podstawie: Joel Mokyr The Gifts of Athena: Historical Origins of the Knowledge Economy Chapter 3 - The Industrial Revolution and Beyond Copyright © 2002 by Princeton University Press Tomasz Bukowski nr albumu: 159542 Przedmiot: Procesy innowacyjne i gospodarka oparta na wiedzy Wrocław 2007

Transcript of 'The Industrial Revolution and Beyond'

Opracowanie na podstawie:

Joel Mokyr The Gifts of Athena: Historical Origins of the Knowledge Economy

Chapter 3 - The Industrial Revolution and Beyond Copyright © 2002 by Princeton University Press

Tomasz Bukowski nr albumu: 159542

Przedmiot:

Procesy innowacyjne i gospodarka oparta na wiedzy

Wrocław 2007

Na przestrzeni wieków termin „rewolucja” często był i nadal jest nadużywany przez

historyków. Dzieje się tak, gdyż wszystko, co określane jest tym epitetem znacząco przyciąga

uwagę. Dziś niewielu naukowców nadal przychyla się do określania Rewolucji Przemysłowej

jako wydarzenia, które w sposób nagły i znaczący pozwoliło podnieść stopę wzrostu

gospodarczego i ogólnego dobrobytu. Większość procesów następowało bowiem stopniowo i

często były one rozłożone w latach. Możemy być jednak pewni, iż bezprecedensowy wzrost

gospodarczy z XIX wieku, nie miałby miejsca bez innowacyjnych zmian technologicznych,

które w tamtym okresie następowały.

Ludzie żyjący w okresie I Rewolucji Przemysłowej, w końcu XVIII wieku, nie byli

w większości świadomi faktu życia w okresie radykalnych i nieodwracalnych zmian. Co

więcej, nierealne wydawały im się prognozy spełnienia się w przyszłości większości obietnic

zmian technologicznych.

W końcu XIX wieku James P. Boyd, autor Triumphs and Wonders of the 19th

Century, The True Mirror of a Phenomenal Era, skonkludował, iż dzięki innowacjom i

postępowi technologicznemu, które w tamtym okresie w największym stopniu wpłynęły na

życie i całą cywilizację, „dziewiętnasty wiek osiągnął zdobycze, porównywalne…, jeśli nie

większe, niż wszystkie ubiegłe stulecia razem wzięte”.

Z ekonomicznego punktu widzenia przełomowości I Rewolucji Przemysłowej

należy szukać, nie jak się potocznie zwykło przyjmować, w tych wszystkich „wielkich

gadżetach” wytworzonych w „latach cudów”, tj. miedzy rokiem 1760 a 1790, ale właśnie w

procesach innowacyjnych, które miały miejsce w tamtym okresie. Odmiennie niż przed

rokiem 1750, kiedy to postęp technologiczny zawiódł w procesie budowania trwałego

wzrostu gospodarczego, okres I Rewolucji Przemysłowej dał impuls by skupić się nie tylko

na zmianach instytucjonalnych, które mogły być łatwo zaprzepaszczone przez nagłe zwroty

polityczne, ale przede wszystkim na zmianie sposobu postrzegania podstaw wiedzy i nauki w

społeczeństwie. W warunkach ograniczoności zasobów konieczne okazało się przejście z tzw.

gospodarki organicznej do surowcowej, która była znacznie mniej podatna na presję

społeczeństwa. Paliwa kopalniane i żelazo wyparły ówcześnie używane drewno i siłę zwierząt

pociągowych, natomiast węgiel drzewny w hutnictwie został wyparty przez koks z węgla

kamiennego. Wymagało to skonstruowania nowych, nowocześniejszych i wydajniejszych

pieców do rafinacji surówki żelaza oraz zastąpienia przestarzałego procesu kucia stali bardziej

wydajnym procesem jej walcowania. W efekcie masowa produkcja stali dobrej jakości,

zaowocowała przewrotem w całej gospodarce.

2

Przed rokiem 1750 większość używanych powszechnie, bądź uznawanych za

dopuszczalne metod, opierało się na bardzo wąskich podstawach epistemologicznych.

Dlatego wielkim odkryciom, które uformowały podstawy Rewolucji Przemysłowej,

towarzyszyło zgłębianie właśnie podstaw epistemologicznych wykorzystywanych metod . Do

tej pory skupiano się bowiem bardziej na badaniu użyteczności wiedzy, aniżeli na stronie

poznawczej sposobów działania poszczególnych wynalazków, chociażby np. smarowniczych

właściwości olei, twardości i wytrzymałości różnych typów drewna czy siły i potrzeb

żywieniowych zwierząt domowych. Zmieniło się zatem pojmowanie wiedzy. Cechy

jakościowe utraciły znaczenie na rzecz ilościowych, możliwych do zmierzenia i ilościowego

porównania. Jakości obiektywne i mierzalne uznano za najważniejsze, a subiektywne i

niemierzalne (jak kolor, zapach i smak) za mniej istotne (choć i te stopniowo starano się

uczynić mierzalnymi).

Przed rewolucją naukową problem pomiaru i ujęć ilościowych znajdował się na

marginesie ontologii, epistemologii i metodologii nauki. Obiekty i zjawiska interpretowano w

aspekcie jakościowym, w ramach ich organicznych powiązań ze wszechświatem.

Rozpatrywano je w kategoriach celu, użyteczności, wewnętrznej natury i przeznaczenia.

Dzięki temu przyczyniły się one do zwycięstwa idei, że drogą dochodzenia do ważnych

ustaleń nie jest poleganie na autorytecie, tylko możliwa do zweryfikowania teza oraz jej

dowód, polegający na pomiarze zjawisk dzięki obserwacji i eksperymentowi.

Okres dziesięcioleci około roku 1800, to czas postępów w chemii, mechanice,

energetyce, materiałoznawstwie i medycynie. Zmieniono podejście z typowego, osiąganego

metodą prób i błędów - „to działa, a to nie działa”, na

nowe, naukowe - „oto jak to działa”. Uzyskano

odpowiedzi nie tylko na pytania „jak coś działa”, ale

również „jak sprawić by coś działało efektywniej”. I

tak np. w przemyśle włókienniczym przełomem było

wynalezienie w roku 1785 mechanicznych

warsztatów tkackich i w latach 1765-69

zmechanizowanych maszyn przędzalniczych. Rewolucji w przędzalnictwie dokonała

Przędząca Jenny (ang. Spinning Jenny), maszyna przędzalnicza wynaleziona przez Jamesa

Hargreavesa w roku 1764 i udoskonalona przez Richarda Arkwrighta w roku 1767. Można

było na niej wytwarzać jednocześnie 16 nici. Początkowo Przędząca Jenny była napędzana

siłą ludzkich mięśni, lecz już w 1779 Samuel Crompton udoskonalił ją tak, aby

3

wykorzystywała jako napęd mechaniczny koło wodne. Stosowanie koła wodnego nie było

jednak wszędzie możliwe, więc wynalazcy szukali innych, efektywniejszych rozwiązań.

W 1769 roku James Watt

zmodernizował silnik parowy

Thomasa Newcomena z 1711 roku.

Watt zbudował też mechanizm, z

pomocą którego ruch posuwisty

tłoków był zamieniany na ruch

obrotowy. W roku 1784 powstała

pierwsza fabryka przędzalnicza, w

której użyto silniki parowe Watta. W

roku 1785 Edmund Cartwright

opracował krosno mechaniczne, które zwiększyło wydajność w tkactwie aż 40-krotnie!

Postępy w budowaniu podstaw epistemologicznych wydają się być jednak skromne

w porównaniu do osiągnięć, które miały nastąpić po tym okresie, a o których mało się

wspomina. Poza ogromnymi osiągnięciami Lavoisiera i jego następców, zanotowano

niezliczone mnóstwo postępów w fizyce temperatur, próbie zrozumienia lokacji złóż

mineralogicznych, mechanice, prądzie elektrycznym, hydraulice i wykorzystaniu ziemi.

Pośród największych odkryć lat

20-tych XIX wieku wyróżnić należy

również eksplozję termiczną (ang. hot

blast) Jamesa Nelsona (1828), która

wydatnie zredukowała koszty opału w

piecach hutniczych, oraz aktor reakcji

sprzężonej udoskonalony przez Richarda

Roberta. W przemyśle energetycznym

ciągły postęp techniczny w projektach

silników wysokoprężnych i pasów transmisyjnych doprowadziły w konsekwencji do

powstania w 1828 r. parowozu George’a Stephensona.

Równie paradygmatyczne w drugiej fali rozwoju były prace Michaela Eugenie

Chevereula, który odkrył naturę kwasów tłuszczowych i uczynił ze zwykłej produkcji mydła i

świeczek naukę.

4

Można stwierdzić, iż proces innowacyjny stawał się stopniowo „mniej darwinowski”

tzn. zmiany stosowanej metodologii stawały się mniej przypadkowe, a bardziej celowe,

ukierunkowane. Wiele obszarów wiedzy pojmowanej w dotychczasowy, nieformalny, wręcz

artystyczny, a przez to okrojony z podstaw epistemologicznych sposób, zostało wzbogacone

przez metody naukowe. W znacznym stopniu ta zmiana była endogeniczna i wynikała z

potrzeby przemysłu.

W rezultacie, wiele doniosłych odkryć po 1820 roku, było mniej dziełem przypadku

a raczej wynikiem wysiłków wykształconych inżynierów, chemików czy mechaników.

Niektóre z tych pomysłów na realizację musiały jednak poczekać aż do okresu po 1869 roku,

ustanawiając tym samym początek tzw. II Rewolucji Przemysłowej.

Metody badawcze, które stosowano po 1860 roku były przede wszystkim wynikiem

zastosowania nauki, która poczyniła ogromne postępy w pierwszej połowie XIX wieku.

Trudno bowiem wyobrazić sobie postępy w przemyśle chemicznym po 1860 roku bez

rozwoju chemii organicznej. To właśnie w tym okresie swój wielki początek miały

przemysłowe laboratoria badawczo – rozwojowe : B+R (ang. R&D labs), zastosowane w

przemyśle chemicznym w Niemczech. Przenikały się tutaj dwa rodzaje wiedzy,

preskryptywna i zdaniowa.

Odkrycie, które mogło zwiastować nadejście II Rewolucji Przemysłowej, czyli

bladofioletowy aminobenzen (anilina) odkryty w 1856 roku przez Williama Perkuna, było na

przykład w znaczącej mierze szczęśliwym trafem, mimo, że przytrafiło się wybitnemu

naukowcowi. Zapoczątkowało to proces zbliżenia dwóch podejść: przemysłowego i

akademickiego w chemii, co w 1869 roku zaskutkowało wynalezieniem barwników

alizarynowych. Natomiast odkryciem, które zrewolucjonizowało badania nad syntetycznymi

barwnikami była identyfikacja struktury molekularnej benzenu, przez niemieckiego chemika

Augusta von Kekule w 1865 roku. Ponieważ benzen był już znany od kilku dekad, tak więc

odkrycie jego struktury molekularnej jest paradygmatycznym przykładem rozszerzania się

podstaw epistemologicznych w obowiązujących metodach badawczych. Rezultatem

zrozumienia tych podstaw był stały strumień innowacji, które zamiast zwalniać, jak to by

miało miejsce wiek wcześniej, spiętrzyły się, by stać się rzeczywistym potokiem nowych

odkryć nad syntetycznymi barwnikami.

Wynalazczość na zasadzie metody prób i błędów, nie była całkowicie zastąpiona

przez kompleksowe zrozumienie natury przebiegających procesów. Co więcej, podczas gdy

specjalizacja sektora B+R w niektórych przemysłach rosła, badania laboratoryjne w

5

gospodarce jako całości przypominały jedynie wierzchołek góry lodowej. Większość

wynalazków bowiem, nadal była testowana w praktyce na zasadzie doświadczeń i

przypadkowych odkryć.

Paradygmatyczny wynalazek II Rewolucji

Przemysłowej, proces tworzenia stali, odkryty w 1856 roku

przez Henry’ego Bessemera, to wynalazek człowieka,

który wedle jego własnej opinii, „miał bardzo ograniczoną

wiedzę na temat metalurgii”. Materiał znany wówczas pod

nazwą stali otrzymywano poprzez dodawanie węgla do

kutego żelaza, proces ten był jednak długotrwały a

otrzymywany produkt finalny stosunkowo twardy. Używano

go zatem głównie do wyrobu narzędzi tnących. W czasie

swoich eksperymentów Bessemer stwierdził, że wdmuchiwanie powietrza w roztopione

żeliwo nie tylko je oczyszcza, ale także doprowadza je do wyższej temperatury, dzięki czemu

może być ono rozlewane do odpowiednich form. Dzięki tej rewolucyjnej technice, nazwanej

później procesem

Bessemera, możliwe stało

się otrzymywanie dużych

ilości kutego żelaza

pozbawionego zanieczysz-

czeń i dającego się w łatwy

sposób formować. Cały

proces odbywał się w

specjalnym pochylonym

konwertorze

można było wlewać surówkę

przed wdmuchaniem

powietrza od spodu. Jednak wynalazek Bessemera miał poważną wadę, mianowicie żelazo

otrzymywane jego metodą zawierało duże ilości siarki i fosforu. Metodę ich usuwania

opatentował dopiero w 1877 r. Sidney Gilchrist Thomas.

, do którego

Wielu osiemnastowiecznych naukowców na czele z wielkim francuskim fizykiem

Charlesem-Augustinem de Coulombem wierzyło, że magnetyzm i elektryczność nie są ze

sobą powiązane. Aż do czasu, gdy duński fizyk, Hans Ersted podczas eksperymentów w

6

swoim laboratorium, przyłożył igłę kompasu do drutu, po którym biegł prąd. Sprawiło to

przesunięcie igły w kierunku biegnącego prądu. Odkrycie to raz na zawsze przekreśliło mit o

braku związku tych dwóch dziedzin nauki, nazwanych później elektromagnetyzmem.

Kolejnym d

ważności rozszerzania

podstaw epistemologicznych

w procesach innowacyjnych

był przykład telegrafu. O ile,

bowiem długodystansowe

posługiwanie się nim nie

sprawiało większych pro-

blemów, o tyle trudne w

realizacji okazało się popro-

wadzenie kabla podmor-

skiego. Sygnał bowiem był w

nich słaby i powolny, a

wiadomości zniekształcone.

Z pomocą przyszła tu

technika izolacji i uzbrojenia drutu. Jednak by zastosowanie telegrafu mogło być w pełni

funkcjonalne ponownie należało skupić się na zbadaniu podstaw jego działania, czyli fizyki

przepływu impulsów elektrycznych.

owodem

Z pomocą przyszły tu badania Kelvina, który opracował zasady określające relacje

między sygnałem a opornością, pojemnością indukcyjną i długością fali oraz wyliczył

oporność miedzi i właściwości indukcyjne materiału izolacyjnego zwanego „gutaperką” (ang.

gutta-percha). Wynalazł również specjalny galwanometr, rejestrator lewarowy oraz technikę

wysyłania krótkich impulsów zwrotnych bezpośrednio śledzących impuls główny, co

spowodowało wyostrzenie sygnału.

Ta ścisła współpraca pomiędzy nauką i technologią, sprawiła, że telegraf stał się w

oczywisty sposób jak na tamte czasy wynalazkiem drugiej generacji. Poszerzenie podstaw

epistemologicznych sprawiło, że proces innowacyjny stał się szybszy i bardziej wydajny,

aniżeli tradycyjne metody badawcze oparte na metodzie prób i błędów.

7

Błędne jest jednak rozumowanie, iż bez

szerokich podstaw epistemologicznych II Rewolucja

Przemysłowa nie przyniosłaby tylu genialnych

wynalazków. Przykładem odkrycia o wybitnie wąskich

podstawach epistemologicznych była aspiryna, odkryta w

1897 roku. Nikt nie potrafił początkowo wyjaśnić

naukowo, na jakiej zasadzie działa wyizolowany z kory

wierzby specyfik, który dopiero

około roku 1820 okazał się być

salicylem, a mimo to odniesiono

sukces, bowiem przeprowadzone badania empiryczne wykazywały

brak skutków ubocznych i silne działanie lecznicze w przypadkach malarii, zatem lek działał.

Wobec powyższego oczywiste jest, że tradycyjne, przez tysiąclecia wykorzystywane

metody badawcze, miały się dość dobrze i stosowane były nadal, pomimo ich wąskich

podstaw epistemologicznych, ale należy jednoznacznie stwierdzić, że był to jednocześnie ich

główny mankament. Ograniczało to bowiem postęp naukowy i procesy udoskonalania

innowacji. Taki stan rzeczy utrzymywał się przynajmniej do czasu, gdy w pełni poznano

mechanizm działania danej innowacji od strony naukowej.

Jedną z przyczyn tej stagnacji rozwojowej w procesach innowacyjnych w

medycynie był m.in. sceptycyzm środowiska naukowego. Przykładem może tu być rozwój

anestezjologii (1840) oraz proces sterylizacji przyrządów chirurgicznych po roku 1865.

Ten drugi, dziś powszechnie znany, najprostszy i najtańszy sposób ratujący ludzkie życie,

dwukrotnie poniósł klęskę, właśnie wskutek oporów środowiska medycznego. Przyczyn tych

wątpliwości ze strony naukowców jest kilka. Pierwsza nader błaha, iż lekarze po prostu nie

byli skłonni przyznać, że sami mogą przenosić choroby z jednego pacjenta na drugiego,

poprzez brak zachowania podstawowej higieny między zabiegami; oraz druga, to właśnie

brak odpowiedzi na pytanie, dlaczego tak się dzieje, i jakie są podstawy naukowe tego

odkrycia? Dopiero poszerzenie bazy epistemologicznej na temat zarazków i bakterii

przenoszonych na instrumentach medycznych i występujących w pomieszczeniach

szpitalnych, przekonało środowisko lekarskie do przyjęcia nowej techniki. Techniki

rewolucjonizującej ówczesną medycynę, a w szczególności chirurgię i położnictwo, bowiem

radykalnie zmniejszającą liczbę zgonów matek podczas porodów i pacjentów na stołach

operacyjnych.

8

Nasuwa się zatem pytanie, skąd wzięła swój początek nowa jakość wiedzy, która

rozpędziła rozwój ekonomiczny po 1850 roku? Autorzy Fox i Guagnini (1999) uwydatniają

fakt, iż w drugiej połowie XIX wieku, inżynierowie zaczęli kłaść szczególny nacisk na

dziedzinę zwaną dzisiaj „badania i rozwój” B+R (ang. R&D), mniej eksperymentalną a

bardziej ukierunkowaną. Największe postępy wynikały tutaj wprost z rozszerzania podstaw

epistemologicznych oraz interakcji pomiędzy wiedzą preskryptywną i zdaniową. Powstał tutaj

swoisty mechanizm, którego działanie polegało na tym, że kolejne postępy w badaniach

napędzały kolejne innowacje, a te prowadziły do ogólnego wzrostu i utrzymania stałego

tempa rozwoju gospodarczego.

Wynikiem sukcesu w jednej z dziedzin były kolejne

postępy w innych, jak np. wynalezienie w 1830 roku przez

Josepha J. Listera mikroskopu pozwoliło Ludwikowi

Pasteurowi i jego następcom wykazać, że proces fermentacji

wywołują drobnoustroje. W wyniku tych badań opracowali

metodę konserwacji pożywienia poprzez obróbkę termiczną

(proces ten zwany jest od nazwiska uczonego pasteryzacją)

oraz obalili teorię samorództwa drobnoustrojów. Za

najważniejsze osiągnięcie tego okresu uznawane są jednak wyniki prac z zakresu

bakteriologii, które uwieńczone zostały opracowaniem pierwszej szczepionki ochronnej –

przeciw wściekliźnie.

Kompleksowe ujęcie podstaw wiedzy, oraz współpraca różnych instytucji naukowo

– badawczych, uczelni wyższych oraz państwa, w okresie między 1914 a 1973 rokiem,

doprowadziło do uruchomienia stałego strumienia mikrowynalazków, które stały się motorem

napędowym gospodarek. Swoistym fenomenem tego okresu jest stabilność tego wzrostu i

jego długookresowa skala oddziaływania na poziom życia i produktywność.

Powodów utrzymania przez tak długi okres tempa rozwoju technologicznego, należy

upatrywać jednak w poszerzaniu podstaw epistemologicznych w 1914 roku, które to dały

długookresowe podłoże dla ekspansji ekonomicznej i wzrostu produktywności gospodarek.

Kiedy bowiem baza ta była stosunkowo wąska, w takich sektorach jak farmacja i

materiałoznawstwo progres ten był wyhamowywany i w zasadzie zależny od szczęśliwego

trafu. Kiedy natomiast baza epistemologiczna była rozbudowywana, jak to miało miejsce w

inżynierii mechanicznej, elektryczności i metalurgii, postęp technologiczny przyjmował

formę stałego wzrostu.

9

Wobec powyższego, procesy innowacyjne w XX wieku, nazywane ostrożnie

mianem III Rewolucji Przemysłowej w znacznej większości były kontynuacją trajektorii

ustanowionych na długo przed 1914 rokiem. Należy podkreślić tutaj, iż rozwój i postęp

technologiczny w przemyśle samochodowym, chemicznym, energetyce, inżynierii

przemysłowej, procesach żywieniowych, telefonii czy komunikacji bezprzewodowej swój

początek zawdzięcza właśnie XIX-wiecznym mikrowynalazkom, a te natomiast były

rezultatem dobrze zorganizowanej bazy, określanej anachroniczne, skrótem B+R (ang. R&D).

Prawdopodobnie właśnie dlatego, największym osiągnięciem XX wieku jest zmiana

natury procesów innowacyjnych, opartych coraz częściej na współpracy korporacji, uczelni i

ośrodków naukowych oraz dodatkowo współfinansowanych przez państwo procesów B+R,

które Mowery i Rosenber (1998) nazywają „instytucjonalizacją innowacji”.

Wiek XX to wiek, w którym oba składniki, zarówno natura, jak i tempo postępu

technologicznego były czynnie określone przez politykę. Lwia część genezy procesów

technologicznych XX wieku to nieustanne poszukiwanie „złotego środka” pomiędzy

prywatnymi i publicznymi nakładami w badania i rozwój.

Głównym makroodkryciem pierw-

szej połowy XX wieku był antybiotyk.

Odkrycie, rewolucyjne, aczkolwiek oparte na

bardzo wąskich podstawach epistemolo-

gicznych. Naukowcy wiedzieli już w XIX

wieku, że niektóre organizmy przeciwdziałają

rozwojowi bakterii, powodujących choroby.

Alexander Fleming, podczas swoich badań

zauważył, że kultury bakterii nie chcą rosnąć na podłożu przypadkowo zanieczyszczonym

przez pleśń. Bez teorii zarazków, wynalezienie penicyliny nigdy by nie nastąpiło, ponieważ

nie wiedziałby on, że pleśń zabija bakterie. Wkrótce po odkryciu penicyliny pojawiły się

następne antybiotyki – naturalne, półsyntetyczne i syntetyczne.

Jednak baza epistemologiczna wyjaśniająca zasady

działania penicyliny była nadal wąska. Dopiero w 1949 roku

udało się określić strukturę molekularną penicyliny, a jej

kompletne działanie i sposób, w jaki inne substancje o

podobnym działaniu zabijają bakterie, ustalono dopiero w ostatnich kilkunastu latach.

10

Obok energii jądrowej

i antybiotyków najbardziej

spektakularnym i doniosłym

makroodkryciem XX wieku

było wynalezienie pół-

przewodnika. Mimo, iż

wszystkie trzy pojawiły się

około 1940 roku, elektronika

jest jedyną dziedziną gdzie

sprzężenie między wiedzą

preskryptywną i zdaniową, jak również ich rekombinacje z innymi odkryciami nieprzerwanie

prowadzą do podtrzymania stałego wzrostu, który jak dotychczas nie wykazuje symptomów

zwalniania i jest przez wielu uznawany jako zwiastun „nowej ekonomii”. Należy podkreślić

także nadzwyczajne właściwości półprzewodnika jako innowacji: jego zdolności do łączenia

się z innymi technologiami, stały współudział w głównych nurtach wynalazczości i

nieustająca wszechobecność w wielu zastosowaniach. Powyższe argumenty uzasadniają

zatem użycie do jego opisu określenia GPT (tj. technologia ogólnego zastosowania).

Wymienione przyczyny świadczą o tym, że odkrycia związane z półprzewodnikami

zastaną uznane przez przyszłych historyków, jako makrookdrycia. Reprezentują one bowiem

rodzaj etapu rozdzielającego jedną epokę od drugiej, zupełnie jak robiły to dwie wcześniejsze

Rewolucje Przemysłowe.

Większość postępów innowacyjnych pierwszej połowy XX wieku stanowiła zatem

hybrydę innowacji, które składały się z komponentów opracowywanych na długo wcześniej,

jeszcze przed 1914 rokiem. Wzrost produktywności w tym okresie był jednak wynikiem

dopracowywania procesów technologii produkcji i udoskonaleniem procesów innowacyjnych.

Wyróżnia się kilka podstawowych elementów modernizacji procesów produkcyjnych:

- rutynizacja (ang. routinization) – zamienność procesów produkcji

- modularyzacja (ang. modularization) – masowość produkowanych komponentów

- standaryzacja (ang. standardization) – ujednolicenie standardów produkcji

- miniaturyzacja (ang. miniaturization) – zmniejszanie rozmiarów, oszczędność przestrzeni

Ważność sektora technologii informacyjno – komunikacyjnych (ang. ICT -

Information and Communication Technology) nie polega tylko na jego wpływie na wzrost

produktywności, ale przede wszystkim na ciągłym budowaniu technologii opartej na wiedzy,

11

a przez to wpływaniu również na inne wykorzystywane techniki i metody badawcze. Istnienie

różnego rodzaju wyszukiwarek, które mogą pomóc w znalezieniu wiedzy zdaniowej przy

zachowaniu relatywnie niskich kosztów, staje się kluczowe.

Również inne technologie pozyskiwania, oceniania i sortowania informacji, które

mają na celu zapobieganie ich nadmiernemu nagromadzeniu i przeładowaniu, stają się w

dzisiejszych czasach nieodzowne.

Ogrom zebranej wiedzy wymaga zmian w technologii dostępu do baz danych ją

przechowujących. Inaczej mogłoby to doprowadzić do załamania się systemu zarządzania

wiedzą. Mózg ludzki, mimo iż jest wybitnym mechanizmem o nadzwyczajnej fleksybilności,

to jednak ma również swoje ograniczenia, choćby w postaci ograniczonej objętości czaszki.

Całkowita część dotycząca wiedzy społecznej, którą nabywa każdy człowiek maleje

proporcjonalnie do upływu czasu. Jedynym rozwiązaniem by poradzić sobie z nadmiarem

wiedzy użytkowej jest proces specjalizacji. Coraz bardziej skomplikowany rozdział wiedzy,

wymaga coraz efektywniejszych związków dostępu między ludźmi, oraz między jednostką a

urządzeniami magazynującymi wiedzę.

Nowoczesna technologia jest mniej skodyfikowana, a przez to bardziej dostępna

normalnymi kanałami, ale mimo to, nawet w XXI wieku wciąż jest bardzo duży obszar tzw.

wiedzy ukrytej (ang. tacit knowledge), której nie da się pozyskać bezpośrednio z urządzeń

magazynujących, lecz jedynie bezpośrednio – od ekspertów z danej dziedziny.

Współczesna technologia informacyjno – komunikacyjna jest w stanie ułatwić

użytkownikowi identyfikację tych ludzi i pomóc w ich zatrudnieniu. Konsultanci techniczni,

eksperci i kooperanci z wiedzą specjalistyczną potrzebną w danym momencie (ang. „just-in-

time expertise”) stają się coraz bardziej powszechni i poszukiwani na rynku.

Motorem współczesnego rozwoju gospodarczego jest przemysł zaawansowanych

technologii. Powstają nowoczesne miejsca koncentracji parków technologicznych, czyli

skupiska instytucji naukowo – badawczych i zakładów przemysłowych współpracujących w

zakresie opracowania i wdrażania do produkcji innowacji technologicznych, tzw.

technopolie.

12

Przemysł nowoczesnych technologii (ang. high-tech) obejmuje produkcję o

różnorodnym przeznaczeniu, znajdującą zastosowanie w rozmaitych działach gospodarki np.:

komputery, automaty, roboty, telefony komórkowe. W przemysłach tych proces produkcji

składa się z 2 etapów:

• faza innowacji obejmująca badania naukowe, opracowanie koncepcji

technologicznej i produkcję próbnej serii;

• masowa produkcja artykułów elektroniki użytkowej oraz wytwarzanie

półproduktów i ich montaż.

Wynalazczość jest paradygmatycznym i empirycznym procesem świadomych i

systematycznych eksperymentów i równoczesnym obserwowaniem, które z nich działają, a

które nie. Mimo zaawansowania technologicznego, proces odkryć np. w dziedzinie

farmakologii, mimo iż niezależny od przypadkowości i intuicji jak w ubiegłych stuleciach,

wciąż jest bardziej zależny od przypadku, niż od założonej strategii naukowej. Przykładem

tutaj niech będą choćby molekularne struktury białkowe, które są tak skomplikowane, że stare

i prymitywne metody badawcze, opierające się o zasadę „szukaj, i sprawdzaj co działa” (ang.

search-and-see-what-works), nadal mają zastosowanie, jakkolwiek w znacznie bardziej

skomplikowanej postaci.

Od przeszło dwóch wieków ekonomiści uważają, że nowe technologie Rewolucji

Przemysłowych wytworzone na przestrzeni stuleci podnosiły produktywność, obniżały koszty

produkcji i zwiększały podaż dóbr. To z kolei stymulowało siłę nabywczą i tworzenie nowych

miejsc pracy. O ile jednak, co do pierwszej części nie ma sprzeciwu, o tyle wydaje się, iż

zasady dotyczące zatrudnienia obowiązujące w tzw. III Rewolucji Przemysłowej mogą być,

zgoła odmienne.

Postęp technologicznych XXI wieku sprawił, iż inżynieria przemysłowa pracuje nad

coraz bardziej nowoczesnymi automatami, które będę zdolne do komunikacji głosowej i

ścisłej koordynacji, programowalne, uczące się, widzące w trzech wymiarach, poruszające

się, dokonujące autodiagnozy i autonaprawy. Oznacza to, że zakłady będą musiały w

przyszłości częściej inwestować w inteligentne maszyny, w coraz większym stopniu opierać

się na wykwalifikowanych pracownikach obsługujących te maszyny, płacić ludziom więcej, a

co za tym idzie – zmniejszać w miarę możliwości liczbę zatrudnionych. Nowe ekonomiczne

realia wskazują zatem, że ani wolny rynek, ani sektor publiczny nie będą w stanie ratować

gospodarki przed wzrostem tzw. bezrobocia technologicznego.

13

Tabela 1. Przegląd głównych nurtów Rewolucji Przemysłowej

Rewolucja przedprzemysłowa

Pierwsza rewolucja

przemysłowa

Druga rewolucja

przemysłowa

Trzecia rewolucja

przemysłowa Okres

XVI / XVII wiek XVIII / XIX wiek XIX / XX wiek lata 70-te XX wieku

Wynalazki naukowo-techniczne

maszyna parowa

maszyna tkacka

maszyna przędzalnicza

statek parowy

parowóz

rafinacja ropy naftowej

żarówka

silnik spalinowy

samochód

samolot

rozbicie jądra atomu

tranzystor

półprzewodniki

układy scalone

światłowody

biotechnologie

mikroprocesory

Główne źródła energii

woda

drewno

węgiel kamienny

węgiel kamienny

ropa naftowa

węgiel kamienny

gaz ziemny

energia jądrowa

ropa

gaz ziemny

energia jądrowa

źródła alternatywne

Wiodące gałęzie

przemysłu włókienniczy

górnictwo

hutnictwo

maszynowy

chemiczny

maszynowy

przemysły zaawansowanych

technologii

Główny czynnik

lokalizacji obszarów

koncentracji przemysłu

woda surowce mineralne (węgiel, rudy żelaza)

dogodne położenie komunikacyjne

korzyści aglomeracji

baza naukowa

wykwalifikowana siła robocza

Źródło: Opracowanie własne. Na podstawie Mokyr (2002)

14