'The Industrial Revolution and Beyond'
Transcript of 'The Industrial Revolution and Beyond'
Opracowanie na podstawie:
Joel Mokyr The Gifts of Athena: Historical Origins of the Knowledge Economy
Chapter 3 - The Industrial Revolution and Beyond Copyright © 2002 by Princeton University Press
Tomasz Bukowski nr albumu: 159542
Przedmiot:
Procesy innowacyjne i gospodarka oparta na wiedzy
Wrocław 2007
Na przestrzeni wieków termin „rewolucja” często był i nadal jest nadużywany przez
historyków. Dzieje się tak, gdyż wszystko, co określane jest tym epitetem znacząco przyciąga
uwagę. Dziś niewielu naukowców nadal przychyla się do określania Rewolucji Przemysłowej
jako wydarzenia, które w sposób nagły i znaczący pozwoliło podnieść stopę wzrostu
gospodarczego i ogólnego dobrobytu. Większość procesów następowało bowiem stopniowo i
często były one rozłożone w latach. Możemy być jednak pewni, iż bezprecedensowy wzrost
gospodarczy z XIX wieku, nie miałby miejsca bez innowacyjnych zmian technologicznych,
które w tamtym okresie następowały.
Ludzie żyjący w okresie I Rewolucji Przemysłowej, w końcu XVIII wieku, nie byli
w większości świadomi faktu życia w okresie radykalnych i nieodwracalnych zmian. Co
więcej, nierealne wydawały im się prognozy spełnienia się w przyszłości większości obietnic
zmian technologicznych.
W końcu XIX wieku James P. Boyd, autor Triumphs and Wonders of the 19th
Century, The True Mirror of a Phenomenal Era, skonkludował, iż dzięki innowacjom i
postępowi technologicznemu, które w tamtym okresie w największym stopniu wpłynęły na
życie i całą cywilizację, „dziewiętnasty wiek osiągnął zdobycze, porównywalne…, jeśli nie
większe, niż wszystkie ubiegłe stulecia razem wzięte”.
Z ekonomicznego punktu widzenia przełomowości I Rewolucji Przemysłowej
należy szukać, nie jak się potocznie zwykło przyjmować, w tych wszystkich „wielkich
gadżetach” wytworzonych w „latach cudów”, tj. miedzy rokiem 1760 a 1790, ale właśnie w
procesach innowacyjnych, które miały miejsce w tamtym okresie. Odmiennie niż przed
rokiem 1750, kiedy to postęp technologiczny zawiódł w procesie budowania trwałego
wzrostu gospodarczego, okres I Rewolucji Przemysłowej dał impuls by skupić się nie tylko
na zmianach instytucjonalnych, które mogły być łatwo zaprzepaszczone przez nagłe zwroty
polityczne, ale przede wszystkim na zmianie sposobu postrzegania podstaw wiedzy i nauki w
społeczeństwie. W warunkach ograniczoności zasobów konieczne okazało się przejście z tzw.
gospodarki organicznej do surowcowej, która była znacznie mniej podatna na presję
społeczeństwa. Paliwa kopalniane i żelazo wyparły ówcześnie używane drewno i siłę zwierząt
pociągowych, natomiast węgiel drzewny w hutnictwie został wyparty przez koks z węgla
kamiennego. Wymagało to skonstruowania nowych, nowocześniejszych i wydajniejszych
pieców do rafinacji surówki żelaza oraz zastąpienia przestarzałego procesu kucia stali bardziej
wydajnym procesem jej walcowania. W efekcie masowa produkcja stali dobrej jakości,
zaowocowała przewrotem w całej gospodarce.
2
Przed rokiem 1750 większość używanych powszechnie, bądź uznawanych za
dopuszczalne metod, opierało się na bardzo wąskich podstawach epistemologicznych.
Dlatego wielkim odkryciom, które uformowały podstawy Rewolucji Przemysłowej,
towarzyszyło zgłębianie właśnie podstaw epistemologicznych wykorzystywanych metod . Do
tej pory skupiano się bowiem bardziej na badaniu użyteczności wiedzy, aniżeli na stronie
poznawczej sposobów działania poszczególnych wynalazków, chociażby np. smarowniczych
właściwości olei, twardości i wytrzymałości różnych typów drewna czy siły i potrzeb
żywieniowych zwierząt domowych. Zmieniło się zatem pojmowanie wiedzy. Cechy
jakościowe utraciły znaczenie na rzecz ilościowych, możliwych do zmierzenia i ilościowego
porównania. Jakości obiektywne i mierzalne uznano za najważniejsze, a subiektywne i
niemierzalne (jak kolor, zapach i smak) za mniej istotne (choć i te stopniowo starano się
uczynić mierzalnymi).
Przed rewolucją naukową problem pomiaru i ujęć ilościowych znajdował się na
marginesie ontologii, epistemologii i metodologii nauki. Obiekty i zjawiska interpretowano w
aspekcie jakościowym, w ramach ich organicznych powiązań ze wszechświatem.
Rozpatrywano je w kategoriach celu, użyteczności, wewnętrznej natury i przeznaczenia.
Dzięki temu przyczyniły się one do zwycięstwa idei, że drogą dochodzenia do ważnych
ustaleń nie jest poleganie na autorytecie, tylko możliwa do zweryfikowania teza oraz jej
dowód, polegający na pomiarze zjawisk dzięki obserwacji i eksperymentowi.
Okres dziesięcioleci około roku 1800, to czas postępów w chemii, mechanice,
energetyce, materiałoznawstwie i medycynie. Zmieniono podejście z typowego, osiąganego
metodą prób i błędów - „to działa, a to nie działa”, na
nowe, naukowe - „oto jak to działa”. Uzyskano
odpowiedzi nie tylko na pytania „jak coś działa”, ale
również „jak sprawić by coś działało efektywniej”. I
tak np. w przemyśle włókienniczym przełomem było
wynalezienie w roku 1785 mechanicznych
warsztatów tkackich i w latach 1765-69
zmechanizowanych maszyn przędzalniczych. Rewolucji w przędzalnictwie dokonała
Przędząca Jenny (ang. Spinning Jenny), maszyna przędzalnicza wynaleziona przez Jamesa
Hargreavesa w roku 1764 i udoskonalona przez Richarda Arkwrighta w roku 1767. Można
było na niej wytwarzać jednocześnie 16 nici. Początkowo Przędząca Jenny była napędzana
siłą ludzkich mięśni, lecz już w 1779 Samuel Crompton udoskonalił ją tak, aby
3
wykorzystywała jako napęd mechaniczny koło wodne. Stosowanie koła wodnego nie było
jednak wszędzie możliwe, więc wynalazcy szukali innych, efektywniejszych rozwiązań.
W 1769 roku James Watt
zmodernizował silnik parowy
Thomasa Newcomena z 1711 roku.
Watt zbudował też mechanizm, z
pomocą którego ruch posuwisty
tłoków był zamieniany na ruch
obrotowy. W roku 1784 powstała
pierwsza fabryka przędzalnicza, w
której użyto silniki parowe Watta. W
roku 1785 Edmund Cartwright
opracował krosno mechaniczne, które zwiększyło wydajność w tkactwie aż 40-krotnie!
Postępy w budowaniu podstaw epistemologicznych wydają się być jednak skromne
w porównaniu do osiągnięć, które miały nastąpić po tym okresie, a o których mało się
wspomina. Poza ogromnymi osiągnięciami Lavoisiera i jego następców, zanotowano
niezliczone mnóstwo postępów w fizyce temperatur, próbie zrozumienia lokacji złóż
mineralogicznych, mechanice, prądzie elektrycznym, hydraulice i wykorzystaniu ziemi.
Pośród największych odkryć lat
20-tych XIX wieku wyróżnić należy
również eksplozję termiczną (ang. hot
blast) Jamesa Nelsona (1828), która
wydatnie zredukowała koszty opału w
piecach hutniczych, oraz aktor reakcji
sprzężonej udoskonalony przez Richarda
Roberta. W przemyśle energetycznym
ciągły postęp techniczny w projektach
silników wysokoprężnych i pasów transmisyjnych doprowadziły w konsekwencji do
powstania w 1828 r. parowozu George’a Stephensona.
Równie paradygmatyczne w drugiej fali rozwoju były prace Michaela Eugenie
Chevereula, który odkrył naturę kwasów tłuszczowych i uczynił ze zwykłej produkcji mydła i
świeczek naukę.
4
Można stwierdzić, iż proces innowacyjny stawał się stopniowo „mniej darwinowski”
tzn. zmiany stosowanej metodologii stawały się mniej przypadkowe, a bardziej celowe,
ukierunkowane. Wiele obszarów wiedzy pojmowanej w dotychczasowy, nieformalny, wręcz
artystyczny, a przez to okrojony z podstaw epistemologicznych sposób, zostało wzbogacone
przez metody naukowe. W znacznym stopniu ta zmiana była endogeniczna i wynikała z
potrzeby przemysłu.
W rezultacie, wiele doniosłych odkryć po 1820 roku, było mniej dziełem przypadku
a raczej wynikiem wysiłków wykształconych inżynierów, chemików czy mechaników.
Niektóre z tych pomysłów na realizację musiały jednak poczekać aż do okresu po 1869 roku,
ustanawiając tym samym początek tzw. II Rewolucji Przemysłowej.
Metody badawcze, które stosowano po 1860 roku były przede wszystkim wynikiem
zastosowania nauki, która poczyniła ogromne postępy w pierwszej połowie XIX wieku.
Trudno bowiem wyobrazić sobie postępy w przemyśle chemicznym po 1860 roku bez
rozwoju chemii organicznej. To właśnie w tym okresie swój wielki początek miały
przemysłowe laboratoria badawczo – rozwojowe : B+R (ang. R&D labs), zastosowane w
przemyśle chemicznym w Niemczech. Przenikały się tutaj dwa rodzaje wiedzy,
preskryptywna i zdaniowa.
Odkrycie, które mogło zwiastować nadejście II Rewolucji Przemysłowej, czyli
bladofioletowy aminobenzen (anilina) odkryty w 1856 roku przez Williama Perkuna, było na
przykład w znaczącej mierze szczęśliwym trafem, mimo, że przytrafiło się wybitnemu
naukowcowi. Zapoczątkowało to proces zbliżenia dwóch podejść: przemysłowego i
akademickiego w chemii, co w 1869 roku zaskutkowało wynalezieniem barwników
alizarynowych. Natomiast odkryciem, które zrewolucjonizowało badania nad syntetycznymi
barwnikami była identyfikacja struktury molekularnej benzenu, przez niemieckiego chemika
Augusta von Kekule w 1865 roku. Ponieważ benzen był już znany od kilku dekad, tak więc
odkrycie jego struktury molekularnej jest paradygmatycznym przykładem rozszerzania się
podstaw epistemologicznych w obowiązujących metodach badawczych. Rezultatem
zrozumienia tych podstaw był stały strumień innowacji, które zamiast zwalniać, jak to by
miało miejsce wiek wcześniej, spiętrzyły się, by stać się rzeczywistym potokiem nowych
odkryć nad syntetycznymi barwnikami.
Wynalazczość na zasadzie metody prób i błędów, nie była całkowicie zastąpiona
przez kompleksowe zrozumienie natury przebiegających procesów. Co więcej, podczas gdy
specjalizacja sektora B+R w niektórych przemysłach rosła, badania laboratoryjne w
5
gospodarce jako całości przypominały jedynie wierzchołek góry lodowej. Większość
wynalazków bowiem, nadal była testowana w praktyce na zasadzie doświadczeń i
przypadkowych odkryć.
Paradygmatyczny wynalazek II Rewolucji
Przemysłowej, proces tworzenia stali, odkryty w 1856 roku
przez Henry’ego Bessemera, to wynalazek człowieka,
który wedle jego własnej opinii, „miał bardzo ograniczoną
wiedzę na temat metalurgii”. Materiał znany wówczas pod
nazwą stali otrzymywano poprzez dodawanie węgla do
kutego żelaza, proces ten był jednak długotrwały a
otrzymywany produkt finalny stosunkowo twardy. Używano
go zatem głównie do wyrobu narzędzi tnących. W czasie
swoich eksperymentów Bessemer stwierdził, że wdmuchiwanie powietrza w roztopione
żeliwo nie tylko je oczyszcza, ale także doprowadza je do wyższej temperatury, dzięki czemu
może być ono rozlewane do odpowiednich form. Dzięki tej rewolucyjnej technice, nazwanej
później procesem
Bessemera, możliwe stało
się otrzymywanie dużych
ilości kutego żelaza
pozbawionego zanieczysz-
czeń i dającego się w łatwy
sposób formować. Cały
proces odbywał się w
specjalnym pochylonym
konwertorze
można było wlewać surówkę
przed wdmuchaniem
powietrza od spodu. Jednak wynalazek Bessemera miał poważną wadę, mianowicie żelazo
otrzymywane jego metodą zawierało duże ilości siarki i fosforu. Metodę ich usuwania
opatentował dopiero w 1877 r. Sidney Gilchrist Thomas.
, do którego
Wielu osiemnastowiecznych naukowców na czele z wielkim francuskim fizykiem
Charlesem-Augustinem de Coulombem wierzyło, że magnetyzm i elektryczność nie są ze
sobą powiązane. Aż do czasu, gdy duński fizyk, Hans Ersted podczas eksperymentów w
6
swoim laboratorium, przyłożył igłę kompasu do drutu, po którym biegł prąd. Sprawiło to
przesunięcie igły w kierunku biegnącego prądu. Odkrycie to raz na zawsze przekreśliło mit o
braku związku tych dwóch dziedzin nauki, nazwanych później elektromagnetyzmem.
Kolejnym d
ważności rozszerzania
podstaw epistemologicznych
w procesach innowacyjnych
był przykład telegrafu. O ile,
bowiem długodystansowe
posługiwanie się nim nie
sprawiało większych pro-
blemów, o tyle trudne w
realizacji okazało się popro-
wadzenie kabla podmor-
skiego. Sygnał bowiem był w
nich słaby i powolny, a
wiadomości zniekształcone.
Z pomocą przyszła tu
technika izolacji i uzbrojenia drutu. Jednak by zastosowanie telegrafu mogło być w pełni
funkcjonalne ponownie należało skupić się na zbadaniu podstaw jego działania, czyli fizyki
przepływu impulsów elektrycznych.
owodem
Z pomocą przyszły tu badania Kelvina, który opracował zasady określające relacje
między sygnałem a opornością, pojemnością indukcyjną i długością fali oraz wyliczył
oporność miedzi i właściwości indukcyjne materiału izolacyjnego zwanego „gutaperką” (ang.
gutta-percha). Wynalazł również specjalny galwanometr, rejestrator lewarowy oraz technikę
wysyłania krótkich impulsów zwrotnych bezpośrednio śledzących impuls główny, co
spowodowało wyostrzenie sygnału.
Ta ścisła współpraca pomiędzy nauką i technologią, sprawiła, że telegraf stał się w
oczywisty sposób jak na tamte czasy wynalazkiem drugiej generacji. Poszerzenie podstaw
epistemologicznych sprawiło, że proces innowacyjny stał się szybszy i bardziej wydajny,
aniżeli tradycyjne metody badawcze oparte na metodzie prób i błędów.
7
Błędne jest jednak rozumowanie, iż bez
szerokich podstaw epistemologicznych II Rewolucja
Przemysłowa nie przyniosłaby tylu genialnych
wynalazków. Przykładem odkrycia o wybitnie wąskich
podstawach epistemologicznych była aspiryna, odkryta w
1897 roku. Nikt nie potrafił początkowo wyjaśnić
naukowo, na jakiej zasadzie działa wyizolowany z kory
wierzby specyfik, który dopiero
około roku 1820 okazał się być
salicylem, a mimo to odniesiono
sukces, bowiem przeprowadzone badania empiryczne wykazywały
brak skutków ubocznych i silne działanie lecznicze w przypadkach malarii, zatem lek działał.
Wobec powyższego oczywiste jest, że tradycyjne, przez tysiąclecia wykorzystywane
metody badawcze, miały się dość dobrze i stosowane były nadal, pomimo ich wąskich
podstaw epistemologicznych, ale należy jednoznacznie stwierdzić, że był to jednocześnie ich
główny mankament. Ograniczało to bowiem postęp naukowy i procesy udoskonalania
innowacji. Taki stan rzeczy utrzymywał się przynajmniej do czasu, gdy w pełni poznano
mechanizm działania danej innowacji od strony naukowej.
Jedną z przyczyn tej stagnacji rozwojowej w procesach innowacyjnych w
medycynie był m.in. sceptycyzm środowiska naukowego. Przykładem może tu być rozwój
anestezjologii (1840) oraz proces sterylizacji przyrządów chirurgicznych po roku 1865.
Ten drugi, dziś powszechnie znany, najprostszy i najtańszy sposób ratujący ludzkie życie,
dwukrotnie poniósł klęskę, właśnie wskutek oporów środowiska medycznego. Przyczyn tych
wątpliwości ze strony naukowców jest kilka. Pierwsza nader błaha, iż lekarze po prostu nie
byli skłonni przyznać, że sami mogą przenosić choroby z jednego pacjenta na drugiego,
poprzez brak zachowania podstawowej higieny między zabiegami; oraz druga, to właśnie
brak odpowiedzi na pytanie, dlaczego tak się dzieje, i jakie są podstawy naukowe tego
odkrycia? Dopiero poszerzenie bazy epistemologicznej na temat zarazków i bakterii
przenoszonych na instrumentach medycznych i występujących w pomieszczeniach
szpitalnych, przekonało środowisko lekarskie do przyjęcia nowej techniki. Techniki
rewolucjonizującej ówczesną medycynę, a w szczególności chirurgię i położnictwo, bowiem
radykalnie zmniejszającą liczbę zgonów matek podczas porodów i pacjentów na stołach
operacyjnych.
8
Nasuwa się zatem pytanie, skąd wzięła swój początek nowa jakość wiedzy, która
rozpędziła rozwój ekonomiczny po 1850 roku? Autorzy Fox i Guagnini (1999) uwydatniają
fakt, iż w drugiej połowie XIX wieku, inżynierowie zaczęli kłaść szczególny nacisk na
dziedzinę zwaną dzisiaj „badania i rozwój” B+R (ang. R&D), mniej eksperymentalną a
bardziej ukierunkowaną. Największe postępy wynikały tutaj wprost z rozszerzania podstaw
epistemologicznych oraz interakcji pomiędzy wiedzą preskryptywną i zdaniową. Powstał tutaj
swoisty mechanizm, którego działanie polegało na tym, że kolejne postępy w badaniach
napędzały kolejne innowacje, a te prowadziły do ogólnego wzrostu i utrzymania stałego
tempa rozwoju gospodarczego.
Wynikiem sukcesu w jednej z dziedzin były kolejne
postępy w innych, jak np. wynalezienie w 1830 roku przez
Josepha J. Listera mikroskopu pozwoliło Ludwikowi
Pasteurowi i jego następcom wykazać, że proces fermentacji
wywołują drobnoustroje. W wyniku tych badań opracowali
metodę konserwacji pożywienia poprzez obróbkę termiczną
(proces ten zwany jest od nazwiska uczonego pasteryzacją)
oraz obalili teorię samorództwa drobnoustrojów. Za
najważniejsze osiągnięcie tego okresu uznawane są jednak wyniki prac z zakresu
bakteriologii, które uwieńczone zostały opracowaniem pierwszej szczepionki ochronnej –
przeciw wściekliźnie.
Kompleksowe ujęcie podstaw wiedzy, oraz współpraca różnych instytucji naukowo
– badawczych, uczelni wyższych oraz państwa, w okresie między 1914 a 1973 rokiem,
doprowadziło do uruchomienia stałego strumienia mikrowynalazków, które stały się motorem
napędowym gospodarek. Swoistym fenomenem tego okresu jest stabilność tego wzrostu i
jego długookresowa skala oddziaływania na poziom życia i produktywność.
Powodów utrzymania przez tak długi okres tempa rozwoju technologicznego, należy
upatrywać jednak w poszerzaniu podstaw epistemologicznych w 1914 roku, które to dały
długookresowe podłoże dla ekspansji ekonomicznej i wzrostu produktywności gospodarek.
Kiedy bowiem baza ta była stosunkowo wąska, w takich sektorach jak farmacja i
materiałoznawstwo progres ten był wyhamowywany i w zasadzie zależny od szczęśliwego
trafu. Kiedy natomiast baza epistemologiczna była rozbudowywana, jak to miało miejsce w
inżynierii mechanicznej, elektryczności i metalurgii, postęp technologiczny przyjmował
formę stałego wzrostu.
9
Wobec powyższego, procesy innowacyjne w XX wieku, nazywane ostrożnie
mianem III Rewolucji Przemysłowej w znacznej większości były kontynuacją trajektorii
ustanowionych na długo przed 1914 rokiem. Należy podkreślić tutaj, iż rozwój i postęp
technologiczny w przemyśle samochodowym, chemicznym, energetyce, inżynierii
przemysłowej, procesach żywieniowych, telefonii czy komunikacji bezprzewodowej swój
początek zawdzięcza właśnie XIX-wiecznym mikrowynalazkom, a te natomiast były
rezultatem dobrze zorganizowanej bazy, określanej anachroniczne, skrótem B+R (ang. R&D).
Prawdopodobnie właśnie dlatego, największym osiągnięciem XX wieku jest zmiana
natury procesów innowacyjnych, opartych coraz częściej na współpracy korporacji, uczelni i
ośrodków naukowych oraz dodatkowo współfinansowanych przez państwo procesów B+R,
które Mowery i Rosenber (1998) nazywają „instytucjonalizacją innowacji”.
Wiek XX to wiek, w którym oba składniki, zarówno natura, jak i tempo postępu
technologicznego były czynnie określone przez politykę. Lwia część genezy procesów
technologicznych XX wieku to nieustanne poszukiwanie „złotego środka” pomiędzy
prywatnymi i publicznymi nakładami w badania i rozwój.
Głównym makroodkryciem pierw-
szej połowy XX wieku był antybiotyk.
Odkrycie, rewolucyjne, aczkolwiek oparte na
bardzo wąskich podstawach epistemolo-
gicznych. Naukowcy wiedzieli już w XIX
wieku, że niektóre organizmy przeciwdziałają
rozwojowi bakterii, powodujących choroby.
Alexander Fleming, podczas swoich badań
zauważył, że kultury bakterii nie chcą rosnąć na podłożu przypadkowo zanieczyszczonym
przez pleśń. Bez teorii zarazków, wynalezienie penicyliny nigdy by nie nastąpiło, ponieważ
nie wiedziałby on, że pleśń zabija bakterie. Wkrótce po odkryciu penicyliny pojawiły się
następne antybiotyki – naturalne, półsyntetyczne i syntetyczne.
Jednak baza epistemologiczna wyjaśniająca zasady
działania penicyliny była nadal wąska. Dopiero w 1949 roku
udało się określić strukturę molekularną penicyliny, a jej
kompletne działanie i sposób, w jaki inne substancje o
podobnym działaniu zabijają bakterie, ustalono dopiero w ostatnich kilkunastu latach.
10
Obok energii jądrowej
i antybiotyków najbardziej
spektakularnym i doniosłym
makroodkryciem XX wieku
było wynalezienie pół-
przewodnika. Mimo, iż
wszystkie trzy pojawiły się
około 1940 roku, elektronika
jest jedyną dziedziną gdzie
sprzężenie między wiedzą
preskryptywną i zdaniową, jak również ich rekombinacje z innymi odkryciami nieprzerwanie
prowadzą do podtrzymania stałego wzrostu, który jak dotychczas nie wykazuje symptomów
zwalniania i jest przez wielu uznawany jako zwiastun „nowej ekonomii”. Należy podkreślić
także nadzwyczajne właściwości półprzewodnika jako innowacji: jego zdolności do łączenia
się z innymi technologiami, stały współudział w głównych nurtach wynalazczości i
nieustająca wszechobecność w wielu zastosowaniach. Powyższe argumenty uzasadniają
zatem użycie do jego opisu określenia GPT (tj. technologia ogólnego zastosowania).
Wymienione przyczyny świadczą o tym, że odkrycia związane z półprzewodnikami
zastaną uznane przez przyszłych historyków, jako makrookdrycia. Reprezentują one bowiem
rodzaj etapu rozdzielającego jedną epokę od drugiej, zupełnie jak robiły to dwie wcześniejsze
Rewolucje Przemysłowe.
Większość postępów innowacyjnych pierwszej połowy XX wieku stanowiła zatem
hybrydę innowacji, które składały się z komponentów opracowywanych na długo wcześniej,
jeszcze przed 1914 rokiem. Wzrost produktywności w tym okresie był jednak wynikiem
dopracowywania procesów technologii produkcji i udoskonaleniem procesów innowacyjnych.
Wyróżnia się kilka podstawowych elementów modernizacji procesów produkcyjnych:
- rutynizacja (ang. routinization) – zamienność procesów produkcji
- modularyzacja (ang. modularization) – masowość produkowanych komponentów
- standaryzacja (ang. standardization) – ujednolicenie standardów produkcji
- miniaturyzacja (ang. miniaturization) – zmniejszanie rozmiarów, oszczędność przestrzeni
Ważność sektora technologii informacyjno – komunikacyjnych (ang. ICT -
Information and Communication Technology) nie polega tylko na jego wpływie na wzrost
produktywności, ale przede wszystkim na ciągłym budowaniu technologii opartej na wiedzy,
11
a przez to wpływaniu również na inne wykorzystywane techniki i metody badawcze. Istnienie
różnego rodzaju wyszukiwarek, które mogą pomóc w znalezieniu wiedzy zdaniowej przy
zachowaniu relatywnie niskich kosztów, staje się kluczowe.
Również inne technologie pozyskiwania, oceniania i sortowania informacji, które
mają na celu zapobieganie ich nadmiernemu nagromadzeniu i przeładowaniu, stają się w
dzisiejszych czasach nieodzowne.
Ogrom zebranej wiedzy wymaga zmian w technologii dostępu do baz danych ją
przechowujących. Inaczej mogłoby to doprowadzić do załamania się systemu zarządzania
wiedzą. Mózg ludzki, mimo iż jest wybitnym mechanizmem o nadzwyczajnej fleksybilności,
to jednak ma również swoje ograniczenia, choćby w postaci ograniczonej objętości czaszki.
Całkowita część dotycząca wiedzy społecznej, którą nabywa każdy człowiek maleje
proporcjonalnie do upływu czasu. Jedynym rozwiązaniem by poradzić sobie z nadmiarem
wiedzy użytkowej jest proces specjalizacji. Coraz bardziej skomplikowany rozdział wiedzy,
wymaga coraz efektywniejszych związków dostępu między ludźmi, oraz między jednostką a
urządzeniami magazynującymi wiedzę.
Nowoczesna technologia jest mniej skodyfikowana, a przez to bardziej dostępna
normalnymi kanałami, ale mimo to, nawet w XXI wieku wciąż jest bardzo duży obszar tzw.
wiedzy ukrytej (ang. tacit knowledge), której nie da się pozyskać bezpośrednio z urządzeń
magazynujących, lecz jedynie bezpośrednio – od ekspertów z danej dziedziny.
Współczesna technologia informacyjno – komunikacyjna jest w stanie ułatwić
użytkownikowi identyfikację tych ludzi i pomóc w ich zatrudnieniu. Konsultanci techniczni,
eksperci i kooperanci z wiedzą specjalistyczną potrzebną w danym momencie (ang. „just-in-
time expertise”) stają się coraz bardziej powszechni i poszukiwani na rynku.
Motorem współczesnego rozwoju gospodarczego jest przemysł zaawansowanych
technologii. Powstają nowoczesne miejsca koncentracji parków technologicznych, czyli
skupiska instytucji naukowo – badawczych i zakładów przemysłowych współpracujących w
zakresie opracowania i wdrażania do produkcji innowacji technologicznych, tzw.
technopolie.
12
Przemysł nowoczesnych technologii (ang. high-tech) obejmuje produkcję o
różnorodnym przeznaczeniu, znajdującą zastosowanie w rozmaitych działach gospodarki np.:
komputery, automaty, roboty, telefony komórkowe. W przemysłach tych proces produkcji
składa się z 2 etapów:
• faza innowacji obejmująca badania naukowe, opracowanie koncepcji
technologicznej i produkcję próbnej serii;
• masowa produkcja artykułów elektroniki użytkowej oraz wytwarzanie
półproduktów i ich montaż.
Wynalazczość jest paradygmatycznym i empirycznym procesem świadomych i
systematycznych eksperymentów i równoczesnym obserwowaniem, które z nich działają, a
które nie. Mimo zaawansowania technologicznego, proces odkryć np. w dziedzinie
farmakologii, mimo iż niezależny od przypadkowości i intuicji jak w ubiegłych stuleciach,
wciąż jest bardziej zależny od przypadku, niż od założonej strategii naukowej. Przykładem
tutaj niech będą choćby molekularne struktury białkowe, które są tak skomplikowane, że stare
i prymitywne metody badawcze, opierające się o zasadę „szukaj, i sprawdzaj co działa” (ang.
search-and-see-what-works), nadal mają zastosowanie, jakkolwiek w znacznie bardziej
skomplikowanej postaci.
Od przeszło dwóch wieków ekonomiści uważają, że nowe technologie Rewolucji
Przemysłowych wytworzone na przestrzeni stuleci podnosiły produktywność, obniżały koszty
produkcji i zwiększały podaż dóbr. To z kolei stymulowało siłę nabywczą i tworzenie nowych
miejsc pracy. O ile jednak, co do pierwszej części nie ma sprzeciwu, o tyle wydaje się, iż
zasady dotyczące zatrudnienia obowiązujące w tzw. III Rewolucji Przemysłowej mogą być,
zgoła odmienne.
Postęp technologicznych XXI wieku sprawił, iż inżynieria przemysłowa pracuje nad
coraz bardziej nowoczesnymi automatami, które będę zdolne do komunikacji głosowej i
ścisłej koordynacji, programowalne, uczące się, widzące w trzech wymiarach, poruszające
się, dokonujące autodiagnozy i autonaprawy. Oznacza to, że zakłady będą musiały w
przyszłości częściej inwestować w inteligentne maszyny, w coraz większym stopniu opierać
się na wykwalifikowanych pracownikach obsługujących te maszyny, płacić ludziom więcej, a
co za tym idzie – zmniejszać w miarę możliwości liczbę zatrudnionych. Nowe ekonomiczne
realia wskazują zatem, że ani wolny rynek, ani sektor publiczny nie będą w stanie ratować
gospodarki przed wzrostem tzw. bezrobocia technologicznego.
13
Tabela 1. Przegląd głównych nurtów Rewolucji Przemysłowej
Rewolucja przedprzemysłowa
Pierwsza rewolucja
przemysłowa
Druga rewolucja
przemysłowa
Trzecia rewolucja
przemysłowa Okres
XVI / XVII wiek XVIII / XIX wiek XIX / XX wiek lata 70-te XX wieku
Wynalazki naukowo-techniczne
maszyna parowa
maszyna tkacka
maszyna przędzalnicza
statek parowy
parowóz
rafinacja ropy naftowej
żarówka
silnik spalinowy
samochód
samolot
rozbicie jądra atomu
tranzystor
półprzewodniki
układy scalone
światłowody
biotechnologie
mikroprocesory
Główne źródła energii
woda
drewno
węgiel kamienny
węgiel kamienny
ropa naftowa
węgiel kamienny
gaz ziemny
energia jądrowa
ropa
gaz ziemny
energia jądrowa
źródła alternatywne
Wiodące gałęzie
przemysłu włókienniczy
górnictwo
hutnictwo
maszynowy
chemiczny
maszynowy
przemysły zaawansowanych
technologii
Główny czynnik
lokalizacji obszarów
koncentracji przemysłu
woda surowce mineralne (węgiel, rudy żelaza)
dogodne położenie komunikacyjne
korzyści aglomeracji
baza naukowa
wykwalifikowana siła robocza
Źródło: Opracowanie własne. Na podstawie Mokyr (2002)
14