Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany...
Transcript of Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany...
Materiały pokonferencyjne
III Ogólnopolskiej Konferencji
Interdyscyplinarnej
„Współczesne zastosowania informatyki”
Siedlce 2017
Rada naukowa:
prof. dr hab. inż. Andrzej Barczak, prof. dr hab. inż. Wojciech Penczek,
dr hab. Stanisław Ambroszkiewicz, dr hab. inż. Jerzy Tchórzewski,
dr inż. Mirosław Barański, dr Renata Modzelewska-Łagodzin, dr Mirosław Szaban,
dr Anna Wawrzyńczak-Szaban
Redakcja, skład:
Koło Naukowe Programistów
e-mail: [email protected]
Witryna konferencji: www.wzi.uph.edu.pl
© Copyright by Instytut Informatyki
Uniwersytetu Przyrodniczo-Humanistycznego, Siedlce 2017
ISBN: 978-83-7051-849-3
Instytut Informatyki Uniwersytetu Przyrodniczo-Humanistycznego w Siedlcach
08-110 Siedlce, ul. 3 Maja 54, tel. (025) 643 11 27
e-mail: [email protected] www.ii.uph.edu.pl
SPIS TREŚCI
Wstęp .................................................................................................................................. 5
Jarosław Żeliński
Architektura kodu aplikacji jako pierwszy etap tworzenia oprogramowania ..................... 6
Katarzyna Donaj
Sieci Petriego .................................................................................................................... 14
Kacper Kuta
Analiza przepływów cieczy przez zawory płaskie typu przesłona ................................... 19
Klaudia Krzeszewska
Technologie informacyjne w medycynie .......................................................................... 28
Krzysztof Bałaban
Internet w pracy nauczyciela języków obcych .................................................................. 34
Paulina Julita Laskowska
Informatyka w rolnictwie, czyli rolnictwo precyzyjne ..................................................... 43
Marcin Miazio
Maszyny różnicowa i analityczna jako prototypy współczesnych komputerów .............. 49
Jakub Malinowski
Internet rzeczy – szanse i zagrożenia ................................................................................ 53
Martyna Sieczkiewicz
Magiczna torebka Hermiony, czyli algorytmy kompresji danych i złożoność
Kołmogorowa.................................................................................................................... 56
Anna Zabłocka
Matematyczna edukacja wczesnoszkolna i możliwości jej rozwoju przy użyciu
narzędzi informatycznych ................................................................................................. 61
Karolina Szostek
Tajemnica możliwości ludzkiego mózgu. Czego pragniesz dziś, o czym zapomnisz
jutro? ................................................................................................................................. 64
Patrycja Izdebska
Zagrożenia bezpieczeństwa systemów informatycznych płynących z nieznanych
źródeł ................................................................................................................................. 69
Piotr Graniszewski
The Cloud as Illustrated by Amazon Web Services Chmura na przykładzie
Amazon Web Services ...................................................................................................... 75
Maciej Nazarczuk
SDL and SFML - Basics, Similarities and Differences .................................................... 86
Adam Miros
The Use of Information Technology in the Process of Making Music ............................. 91
Jarosław Kamiński
Not Just Gadgets: How Much Computer Science Is in Cars ............................................. 94
Marcin Izdebski
Employment of Informatics in Motorization .................................................................... 97
Marta Kisielińska
Is Design Only the Appearance? – More About UX Design .......................................... 100
Kamil Chaciak
React.Js – Building Powerful Web Applications ............................................................ 113
Marlena Derlicka
Cyber - Sicherheit und typosquatting in Polen................................................................ 116
5
Wstęp
19 maja 2017 na Wydziale Nauk Ścisłych Uniwersytetu Przyrodniczo-
Humanistycznego w Siedlcach odbyła się III Ogólnopolska Konferencja
Interdyscyplinarna pt. „Współczesne zastosowania informatyki” tym razem organizowana
przez nowo powstałe Koło Naukowe Programistów. Poprzednia edycja cieszyła się dużą
popularnością i ściągnęła tak wiele osób chcących podzielić się sposobami
wykorzystywania IT w współczesnym świecie. Dlatego postanowiliśmy kontynuować to
wydarzenie, kolejny raz dając możliwość prezentacji i wymiany informacji.
Gościliśmy entuzjastów zastosowań informatyki i technologii informacyjnych w
różnych dziedzinach życia człowieka. Spotkali się tu pasjonaci wielu nauk, zarówno
technicznych, jak i przyrodniczych, ekonomicznych oraz społecznych. Uczestnicy mieli
okazję zaprezentować swoją wiedzę, analizy i używane rozwiązania techniczne. Ich
wystąpienia umożliwiły spojrzenie na używane rozwiązania informatyczne z różnej
perspektywy, spełniając tym ideę interdyscyplinarności.
Konferencja poruszająca tematy technologii informatycznych uświadomiła osobom
mniej związanym z informatyką, jak ten obszar jest ważny i jak dostępne rozwiązania IT
mogą ułatwić życie ludziom na świecie. Zaś doświadczenia uczestników z innych branż,
uświadamiają informatykom, jak wykorzystywane są tworzone przez nich narzędzia i jakie
jest zapotrzebowanie na rynku. Ta interdyscyplinarna kooperacja daje wszystkim
uczestnikom lepsze rozumienie współczesnego, otaczającego nas świata.
Organizatorami wydarzenia byli studenci siedleckiej uczelni zrzeszający się w Kole
Naukowym Programistów wraz z opiekunem koła dr Waldemarem Bartyną. Cieszymy się
z udziału w konferencji sympatyków KNP oraz studentów innych kół naukowych z uczelni
w całej Polsce. Chcielibyśmy podziękować władzom Uczelni, dzięki którym możliwe było
zrealizowanie tego wydarzenia. Dziękujemy Pani Dziekan Wydziału Nauk Ścisłych prof.
dr hab. Wiesławie Barszczewskiej oraz Prodziekanowi Wydziału Nauk Ścisłych ds.
Promocji i Rozwoju dr Mirosławowi Szabanowi za wsparcie niniejszej konferencji.
Wyrażamy wdzięczność także władzom Instytutu Informatyki: Panu prof. dr hab. inż.
Andrzejowi Barczakowi, Dyrektorowi Instytutu Informatyki oraz dr Mirosławowi
Barańskiemu, Zastępcy Dyrektora Instytutu Informatyki. Podziękowania za pomoc w
organizacji należą się również pracownikom administracji Uniwersytetu Przyrodniczo-
Humanistycznego w Siedlcach.
Niniejsza publikacja stanowi zbiór artykułów, które w formie referatów zostały
wygłoszone podczas konferencji.
Mamy nadzieję, że kolejna edycja konferencji za rok będzie równie dobra, czego
życzymy sobie - organizatorom, jak również uczestnikom.
Koło Naukowe Programistów
6
Jarosław Żeliński
Architektura kodu aplikacji jako pierwszy etap tworzenia oprogramowania 2017
Jarosław Żeliński
Architektura kodu aplikacji jako pierwszy etap tworzenia
oprogramowania
Streszczenie: Kod programu, jako seria procedur, zawsze będzie strukturalny, jednak całość jako
kod aplikacji to już architektura. Tworzenie złożonych aplikacji to tworzenie tysięcy linii kodu. Jeżeli
nie będziemy mieli abstrakcji tego kodu w postaci jego architektury, projekt będzie zbyt złożony by
nim zarządzać. Referat traktuje o poprzedzaniu pisania kodu projektowaniem architektury.
Słowa kluczowe: technologie informacyjne, teoria systemów, architektura systemów,
Wprowadzenie
Literatura przedmiotu zawiera wiele różnych sposobów grupowania metod
programowania w „paradygmaty” programowania. Autorzy z reguły skupiają się na tym
czym są programy rozumiane jako zorganizowana lista poleceń dla maszyny. Mogą to być
sekwencje prostych poleceń, mogą to być wykonywane wg. określonego scenariusza
funkcje. Typowym przykładem takiego grupowania jest np. wykład – jest spis treści -
dostępny w sieci Internet:
Wstęp
1.1 Przykład pierwszy: programowanie imperatywne
1.2 Przykład drugi: programowanie obiektowe
1.3 Przykład trzeci: programowanie funkcyjne
1.4 Przykład czwarty: programowanie w logice (programowanie logiczne) Źródło:
http://wazniak.mimuw.edu.pl/index.php?title=Paradygmaty_programowania/Wykład_1:_Co_to_je
st_paradygmat_programowania%3F
Wykład ten, z uwagi na to, że pochodzi ze stron mimów.edu .pl (Uniwersytet Warszawski)
w moich oczach, po lektury kilkunastu podobnych, jest reprezentatywnym akademickim
podejściem i posłuży mi jeszcze kilka razy.
Programowanie strukturalne
Jest to paradygmat programowania opierający się na podziale kodu źródłowego
programu na procedury i hierarchicznie ułożone bloki z wykorzystaniem struktur
kontrolnych w postaci instrukcji wyboru i pętli. Rozwijał się w opozycji do programowania
wykorzystującego proste instrukcje warunkowe i skoki. Programowanie strukturalne
zwiększa czytelność i ułatwia analizę programów, co stanowi znaczącą poprawę w
stosunku do trudnego w utrzymaniu „spaghetti code” często wynikającego z użycia
instrukcji goto. Nadal jest to jednak długa lista powiązanych procedur.
7
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
Metody strukturalne analizy i projektowania bazują na uznaniu, że oprogramowanie
to stos funkcji operujących na bazach danych. Innymi słowy podstawowe założenie to
istnienie odrębnych bytów jakimi są baza danych oraz funkcje, które na tych danych
wykonują operacje. W metodach strukturalnych tworzy dwa się rodzaje modeli: model
struktury oprogramowania i model struktury danych. Pierwszy wykorzystuje notację DFD
(Data Flow Diagram, np. notacja Gane’a- Sarsona) a drugi notacja ERD (Entity
Relationship Diagram, np. notacja Martina) do modelowania struktur relacyjnych baz
danych.
Rysunek 1 Diagram DFD w notacji Gene'a – Sarsona
Struktura aplikacji w postaci tak zwanej „czarnej skrzynki” została pokazana na
Rysunku 1. W metodach strukturalnych, na poziomie opisu architektury, aplikacja
„dzielona jest” na podfunkcje (patrz Rysunek 2.).
8
Jarosław Żeliński
Architektura kodu aplikacji jako pierwszy etap tworzenia oprogramowania 2017
Rysunek 2 Dekompozycja funkcji
Starsze podręczniki informatyki i programowania powołują się na „zasadę”:
algorytmy + struktury danych = oprogramowanie (aplikacje). Kod zawierający funkcje jest
z reguły dzielony na części zwane „podprogram” jednak niezależnie od tego jak jest
organizowany, jest to zwarty i niepodzielny system funkcji i algorytmów, który zapisuje i
odczytuje dane ze współdzielonego „magazynu danych”. Najczęściej tym magazynem jest
relacyjnie zorganizowana baza danych, czyli system powiązanych tablic, w którym usuwa
się redundancje i tworzy trwałe związki logiczne między tak zorganizowanymi danymi.
Architektura taka nie sprawia większych problemów do momentu gdy aplikacja nie
zaczyna się rozrastać i nie pojawia się potrzeba wprowadzania kolejnych nowych lub
zmienionych elementów mechanizmu jej działania. Wtedy każda ingerencja w aplikację
dotyczy całej aplikacji. Stabilne otoczenie (środowisko użytkowania tych aplikacji)
pozwalało na projektowanie oprogramowania, od którego nikt nie oczekiwał, że pozwoli
na łatwe i szybkie wprowadzanie zmian. Po drugie tworzeniem oprogramowania
zajmowały się małe zespoły programistów, zaś logika przetwarzania polegała raczej na
realizowaniu małej liczby typów operacji na wielkich ilościach danych. Zamawiający (tak
zwany dzisiaj „biznes”) musiał jedynie spisać dane jakimi operuje oraz wzory (formuły) z
jakich użyciem były one przeliczane.
Zmiana paradygmatu
Rosnąca złożoność oprogramowania wymusiła szukanie nowych rozwiązań.
Początkowo dzielono kod aplikacji na separowane części - moduły, jednak nadal stanowiły
one jedną całość z powodu pracy z danymi w postaci jednej zwartej struktury, jaką jest
relacyjna baza danych. Moduły te są ściśle zintegrowane współdzieloną bazą danych. Fakt
ten często jest postrzegany jako zaleta: wskazuje się, że brak redundancji, łatwy sposób
uzyskania spójności danych. Problem w tym, że duże aplikacje operują w wielu
kontekstach co powoduje, że współdzielona baza danych o ustalonej strukturze, musi
stanowić kompromis. Np. dane stanowiące zapis kolejnych zakupów amortyzowanych
środków trwałych mają inną strukturę i logikę wzajemnych powiązań, niż te same dane w
kontekście złożonych konstrukcji mechanicznych jakimi są te środki trwałe. Innym
przykładem obrazującym kwestie kontekstowości jest na blogu Martina Fowlera.
9
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
Rysunek 3 Granice kontekstu i zmiana perspektywy pojęć.
Żródło: https://martinfowler.com/bliki/BoundedContext.html
Jak widać na Rysunku 3. mamy tu dwa konteksty i redundancje (pojęcia Customer
i Produkt powielone po obu stronach). Powyższe powinno być podstawą do podziału
projektu na dwa odrębne komponenty z własnymi (nie współdzielonymi) danymi. Jak
widać każdy komponent operuje pojęciami Customer i Produkt, jednak inny jest ich
kontakt. Cechy tych pojęć nie są (nie powinny być) współdzieloną informacją w jednej
bazie danych, oba komponenty będą miały swoje odrębne modele danych. Powód pierwszy
to inne związki pojęciowe i być może nawet inne definicje pojęć. Produkt w kontekście
sprzedaży ma nazwę, cenę, dostępność itp. Produkt w kontekście uszkodzeń ma numer
seryjny, wersję, użytkownika itp. Inne będą reguły biznesowe w każdym komponencie.
Drugi powód to łatwa dostępność na rynku specjalizowanych produktów typu CRM i
TicketXXX, szukanie (tworzenie) jednego „pakietu zintegrowanego” będzie bardzo
trudne, bo kontekstów sprzedaży a potem obsługi uszkodzeń czy reklamacji, jako pary,
będą tysiące wariantów. Wytworzenie (zakup) osobno i integracja dwóch odpowiednio
dobranych komponentów (aplikacji) będą znacznie łatwiejsze.
Powoli zaczęły powstawać aplikacje dziedzinowe jednak nadal wewnętrznie miały
one opisane wyżej wady współdzielenia danych w jednej bazie. Do tego ich integracja
polegała na wzajemnym sięganiu do danych co stanowiło bardzo duży problem z powodu
różnych struktur tych danych, zaś wymiana jednej z nich na inną wymagała opracowania
od nowa całej koncepcji integracji współdzielonych danych co pokazano na Rysunku 4.
10
Jarosław Żeliński
Architektura kodu aplikacji jako pierwszy etap tworzenia oprogramowania 2017
Rysunek 4 Integracja aplikacji strukturalnych
Co ciekawe powstanie metod obiektowych nie było szukaniem sposobu usunięcia
wad systemów strukturalnych. Pierwsze obiektowe narzędzia powstały już w latach
sześćdziesiątych XX w. a narzędzia i programy strukturalne powstają do tej pory. Rzecz w
tym, że do obecnej popularności metod obiektowych doprowadziły dwie ścieżki: problem
rosnącej złożoności kodu aplikacji oraz potrzeba utrzymania zrozumieniu „tego czym jest
aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”,
staje coraz bardziej skomplikowany i ryzykowny w miarę jak rośnie złożoność tych
systemów. Wymagania na oprogramowanie naliczające wynagrodzenia tysiącom
pracowników to „jeden wzór” na naliczenie wynagrodzenia oraz pewna liczba cech
jakościowych. Jednak opisanie tą metodą aplikacji operującej dziesiątkami dokumentów o
różnych strukturach i ogromnej ilości zależności między nimi, z pomocą „listy cech”
zaczyna przybierać postać setek, a nie raz tysięcy linii w tabelach, a przy tej ilości
praktycznie żaden sposób ich organizacji nie wprowadza wartości dodanej zaś ich liczba
praktycznie nie pozwala na kontrole kompletności i niesprzeczności.
Istnienie wspomnianych dwóch ścieżek da się dostrzec w cytowanym na początku
wykładzie, który zawiera taki komentarz do obiektowego programowania:
W programowaniu obiektowym program to zbiór porozumiewających się ze sobą
obiektów, czyli jednostek zawierających pewne dane i umiejących wykonywać na nich
pewne operacje
- Ważną cechą jest tu powiązanie danych (czyli stanu) z operacjami na nich (czyli
poleceniami) w całość, stanowiącą odrębną jednostkę — obiekt.
- Cechą nie mniej ważną jest mechanizm dziedziczenia, czyli możliwość definiowania
nowych, bardziej złożonych obiektów, na bazie obiektów już istniejących.
Zwolennicy programowania obiektowego uważają, że ten paradygmat dobrze
odzwierciedla sposób, w jaki ludzie myślą o świecie
- Nawet jeśli pogląd ten uznamy za przejaw pewnej egzaltacji, to niewątpliwie
programowanie obiektowe zdobyło ogromną popularność i wypada je uznać za
paradygmat obecnie dominujący. (Zródło: Paradygmaty programowania/Wykład 1: Co
to jest paradygmat programowania? - Studia Informatyczne,
http://wazniak.mimuw.edu.pl/index.php?title=Paradygmaty%5Fprogramowania/Wyk%C
5%82ad%5F 1: %5F Co%5F to%5F jest%5F paradygmat%5F programowania%3F)
W cytowanym tekście widać stereotypowe podejście autora: „metody strukturalne
tworzenia oprogramowania, opierają się na wyróżnianiu w tworzonym oprogramowaniu
dwóch rodzajów składowych: pasywnych odzwierciedlających fakt przechowywania w
11
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
systemie pewnych danych oraz składowych aktywnych odzwierciedlających fakt
wykonywania w systemie pewnych operacji. Metody obiektowe wyróżniają w systemie
składowe, które łączą w sobie możliwość przechowywania danych oraz wykonywania
operacji” (Wikipedia, wolna encyklopedia).
Schematycznie można to przedstawić jak na Rysunku 5.:
Rysunek 5 Drogi dojścia do obiektowego paradygmatu programowania
Podejście, które nazwę programistycznym, tu uznanie, że trzeba podzielić dużą
aplikację na mniejsze odrębne komponenty, z których każdy ma „swoje funkcje i dane”.
Tu także podkreślana jest kwestia re-użycia kodu w postaci tak zwanego dziedziczenia jako
„mechanizmu definiowania nowych, bardziej złożonych obiektów, na bazie obiektów już
istniejących” .
Zupełnie inną droga jest podejście oparte na uznaniu, że świat rzeczywisty to
określony mechanizm, który da się odwzorować jako pewna abstrakcja za pomocą kodu
(jego struktury). Tu struktura kodu jest konsekwencją struktury tego obszaru :świata
rzeczywistego”, którego dotyczy tworzone oprogramowanie.
Skutek jest „taki sam”: program stworzony zgodnie z obiektowym paradygmatem
będzie się składał z klas obiektów, które komunikują się wzajemnie. Jednak podejście
zorientowane na dzielenie dużej aplikacji na podprogramy traktuje obiekty jako „jakieś”
komponenty zawierające w sobie kod funkcji i dane na jakich one operują. Podejście
zorientowane na modelowanie „świata rzeczywistego” zaowocuje obiektami stanowiącymi
abstrakcje (modele) elementów świata rzeczywistego. Struktura kodu będzie obiektowa ale
jej sens nie raz jest skrajnie inny np. obiekt faktura będzie zawierał dane o sprzedaży ale
nie będzie miał operacji „nowa faktura” bo faktury nie tworzą nowych faktur… Faktury
będą tworzone przez inny obiekt np. Twórca faktur (albo jak w niektórych wzorcach:
fabryka faktur).
12
Jarosław Żeliński
Architektura kodu aplikacji jako pierwszy etap tworzenia oprogramowania 2017
Od lat sześćdziesiątych prowadzone są prace nad metodami obiektowymi w
inżynierii oprogramowania, powstaje języka SIMULA w 1967 roku, w 1968 roku
opublikowano pierwsze wydanie oficjalne wydanie Ogólnej Teorii Systemów Ludwiga
von Bertalanffy'ego (publikacje na jej temat pojawiały się od już 1964 roku). Teoria
systemów mówi, że „system to współpracujące obiekty”, język SIMULA powstał do
tworzenia (programów) symulacji obiektów świata rzeczywistego. Oba wskazane
podejścia sa znane od lat, jednak podejście „inżynierskie” dominuje, nie tylko jak widać w
systemie kształcenia.
Ogólna teoria systemów traktuje wszystko jak „system” (współpracujące obiekty).
Z zewnątrz system to obiekt reagujący na bodźce. Reakcja ta może być opisana
mechanizmem jej powstawania, to wewnętrzna struktura systemu. Jeżeli uznać, że
oprogramowanie (i komputer) zastępuje określoną rzeczywistość (np. mechaniczny zegar
zastąpiony programem wykonywanym w komputerze) to można przyjąć, że komputer to
maszyna abstrakcyjna, jej implementacja realizuje konkretne systemy i (lub) ich
komponenty (tu polecam Filozofia matematyki i informatyki pod redakcją Romana
Murawskiego, Copernicus Center Press 2015).
Nie chodzi więc o to by podzielić oprogramowanie na „składowe, które łączą w
sobie możliwość przechowywania danych oraz wykonywania operacji”. Chodzi o to by
mechanizm, o dowiedzionej poprawności, zaimplementować w określonej wybranej
technologii. Chodzi też o to by nie udawać, że programowanie jako „podzielone na
obiekty” partie kodu, nadal korzystające z jednej wspólnej bazy danych, różni się
czymkolwiek od „strukturalnego kodu”. Chodzi o to by kod programu faktycznie
implementował określony 9zbadany i opisany) mechanizm. Tak więc tak zwany
„obiektowy paradygmat” to nie „nowe programowanie, to architektura kodu, „obiektowa”
architektura.
Bibliografia
1. Ian Graham, Metody obiektowe w teorii i praktyce, WTN, Warszawa 2004
2. Lechosław Berliński, Ilona Penc-Pietrzak, Inżynieria Projektowania Strategii
Przedsiębiorstwa, Difin, Warszawa 2004
3. Paul Beynon-Davis, Inżynieria systemów informacyjnych, Warszawa, WNT 2004
4. Perdita Stevens, UML. Inżynieria oprogramowania. Wydanie II, Helion, Gliwice 2007
5. David Faulkner, Cliff Bowman, Strategie Konkurencji, Gebethner i ska, Warszawa 1996
6. Zdzisław Gomółka, Cybernetyka w zarządzaniu. Modelowanie cybernetyczne. Sterowanie
systemami, Warszawa, Placet 2000
7. Tadeusz Kasprzak, Modele referencyjne w zarządzaniu procesami biznesu, Difin,
Warszawa 2005
8. Czesław Cempel, Teoria i Inżynieria Systemów, Czesław CEMPEL, Poznań 2008
9. Jerzy Surma, Business Inteligence, PWN, Warszawa 2009
10. Martin Fowler, Architektura systemów zarządzania przedsiębiorstwem. Wzorce
projektowe, Helion Gliwice
11. Brett D. McLaughlin, Gary Pollice, David West, Head First Object-Oriented Analysis and
Design, Helion, Gliwice 2008
12. Todman Chris, Projektowanie hurtowni danych. Zarządzanie kontaktami z klientami
(CRM), WNT, Warszawa 2003
13. John Cheesman, John Daniels, Komponenty w UML, WNT, Warszawa 2000
14. Grady Booch, James Rumbaugh, Ivar Jacobson, UML przewodnik użytkownika, WNT,
Warszawa 2002
15. Ian Sommerville, Inżynieria oprogramowania, WNT, Warszawa
16. Alan Shalloway, James R. Trott, Projektowanie zorientowane obiektowo. Wzorce
projektowe, Helion, Gliwice 2005
13
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
17. Robert S. Kaplan, David P. Norton, Wdrażanie strategii dla przewagi konkurencyjnej,
PWN, Warszawa 2010
18. E.Gamma, R.Helm, R.Jonson, J.Vlissides, Wzorce projektowe, Helion, Gliwice 2010
19. Fowler Martin, UML w kropelce wersja 2.0, LTP
20. Martin Fowler, Analysis Patterns. Reusable Object Models, Addison-Wesley, 1997
21. James Martin, James J.Odell, Podstawy metod obiektowych, WNT, Warszawa 1997
22. Christine Hofmeister, Robert Nord, Dilip Soni, Tworzenie architektury oprogramowania,
WNT, Warszawa 2006
23. John Jeston, Johan Nelis, Business Process Management, Butterworth-Heinemann, 2008
(Reprint 2009)
24. Leszek A. Maciaszek, Requirements Analysis and System Design, Addison Wesley 2001
25. Heinz Zullighoven, Object-Oriented Construction Handbook, Elsevier Inc. 2005
26. Geri Schneider, Jason P. Winters, Stosowanie przypadków użycia, WNT, Warszawa 2004
27. Michael E. Porter, Porter o konkurencji, PWE, Warszawa 2001
28. Michael E. Porter, Strategie Konkurencji, MT Biznes, Warszawa 2006
29. Michael E. Porter, Przewaga konkurencyjna, Helion, Gliwice 2006
30. Alan Dennis, Barbara Halley Wixom, David Tegarden, Systems Analysis and Design with
UML Version 2.0, Second edition, John Wiley and Sons, Inc. 2005, USA
31. Craig Larman, UML i wzorce projektowe. Analiza i projektowanie obiektowe oraz
iteracyjny model wytwarzania aplikacji, Helion, Gliwice 2011
32. Heinz Züllighoven, Object-Oriented Construction Handbook: Developing Application-
Oriented Software with the Tools & Materials Approach, Morgan Kaufmann; 1 edition,
October 13, 2004
33. Eric Evans, Domain-Driven Design: Tackling Complexity in the Heart of Software,
Addison-Wesley
14
Katarzyna Donaj
Sieci Petriego 2017
Katarzyna Donaj
Koło Naukowe Matematyki i Informatyki Stosowanej
Uniwersytet im. Adama Mickiewicza w Poznaniu
Sieci Petriego
Streszczenie: Sieci Petriego są modelem pozwalającym na opis systemów rozproszonych. Są one
używane do przedstawiania współbieżnych procesów czy asynchronicznego przetwarzania. To
narzędzie wykorzystywane jest w informatyce (do oceny wydajności systemów opisywanych Mapami
Stanów Harela, do opisu realizacji programu współbieżnego), ale też biologii (do stworzenia
modelu regulacji genów bakterii Escherichia coli) czy chemii (do przedstawienia reakcji
chemicznych jak analiza czy synteza związku).
Słowa kluczowe: współbieżność, łańcuchy Markowa
Wstęp
Sieci Petriego to narzędzie wprowadzone przez Carla A. Petriego w 1962 roku
pierwotnie w celu modelowania komunikacji z automatami. Dostarczają one graficzną
notację dla formalnego opisu dynamicznych zachowań systemów. Są szczególnie
odpowiednie do systemów wykazujących współbieżność, synchronizację, wzajemne
wykluczenie i konflikty.
Struktura
Na sieć Petriego możemy spojrzeć jak na graf dwudzielny, czyli składający się z
dwóch rodzajów węzłów – miejsc i przejść oraz łączących je zbiorów łuków (krawędzi).
Te elementy służą do modelowania statycznej struktury procesów. Miejsca, oznaczane
okręgami, używane do reprezentowania warunków lub lokalnych stanów systemu. Innymi
słowy opisują elementy pasywne procesów. Tranzycje (przejścia), oznaczane
prostokątami, używane są do opisu elementów aktywnych procesów, czyli wydarzeń, które
mają miejsce w systemie, oraz zwykle skutkują modyfikacją w stanie systemu. Łuki,
oznaczane strzałkami, określają zależności pomiędzy stanami lokalnymi lub warunkami
(miejscami) oraz zdarzeniami (przejściami). Obrazują związki przyczynowo‐skutkowe.
Łuk od miejsca do przejścia nazywa się łukiem wejściowym. Wskazuje on stan lokalny, w
którym zdarzenie może wystąpić. Natomiast łuk od przejścia do miejsca nazywa się łukiem
wyjściowym. Wskazuje on lokalne przekształcenia, które będą wywoływane przez dane
zdarzenie.
Znakowanie
Graf sieci Petriego pokazuje strukturę, ale nie pozwala na modelowanie dynamiki
systemu. W celu umożliwienia tego wprowadza się znakowanie sieci. Zmienia się ono w
czasie wykonywania przejść. Jego zobrazowaniu służą tokeny, czyli oznaczane kropkami
znaczniki, umieszczane w miejscach. Obecność znacznika w miejscu wskazuje na
odpowiedni warunek lub stan lokalny. Znakowanie jest funkcją, przyporządkowującą
każdemu miejscu całkowitą nieujemną liczbę znaczników umieszczonych w tym miejscu
w danym momencie. Zapisujemy je za pomocą krotki uporządkowanej, gdzie każda
15
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
pozycja w krotce odpowiada odpowiednemu miejscu. Znakowanie sieci ulega zmianie w
wyniku wykonywania (odpalania) przejść. Wykonanie przejścia polega na usunięciu
znacznika z każdego miejsca wejściowego przejścia i dodaniu znacznika do każdego
miejsca wyjściowego. Przeanalizujemy tylko sieci z miarą łukową równą jeden, tzn.
usuwające tylko po jednym miejscu z danego miejsca i analogicznie dodające tylko jeden
znacznik do danego miejsca. Wykonać się może tylko przejście aktywne. Przejście jest
aktywne, jeżeli każde z jego miejsc wejściowych zawiera wystarczającą (w naszym
przypadku równą jeden) liczbę żetonów.
Własności
System używa ograniczonego zestawu zasobów reprezentowanych w sieci Petriego
jako znaczniki. Nieograniczony wzrost ich liczy w pewnym miejscu odzwierciedla
przekroczenie limitu zasobów. Koncepcja ograniczoności sieci Petriego jest używana do
odwzorowania problemu zachowania limitu zasobów. Miejsce p nazywane jest k-
ograniczonym, gdy przy dowolnym znakowaniu osiągalnym ze znakowania początkowego
liczba znaczników w miejscu p jest nie większa niż k. Sieć nazywamy k-ograniczoną, jeżeli
wszystkie jej miejsca są k-ograniczone. Sieć jest nieograniczona, jesli choć w jednym
miejscu liczba żetownów jest nieograniczona.
Rysunek 6 Sieć nieograniczona
Źródło: Program PIPE2
Znakowanie zmienia się tutaj w taki sposób:
(0,0,1,0)→(0,1,0,1)→(1,0,0,1)→(0,0,1,1)→(0,1,0,2)→(1,0,0,2)→(0,0,1,2)→(0,1,0,3)…
itd.
Możemy zauważyć, że na ostatnim miejscu liczba żetonów będzie nieograniczenie
wzrastała, zatem jest to sieć nieograniczona.
Sieć 1-ograniczoną nazywamy bezpieczną. Poniżej mamy przykład takiej sieci.
Znakowanie zmienia się tam następująco:
(1,0,0,0) →(0,0,1,0)→(0,1,0,1)→(1,0,0,0)→(0,0,1,0)…
Zatem wciaż będzimemy mieli 0 lub 1 token w danym miejscu.
16
Katarzyna Donaj
Sieci Petriego 2017
Rysunek 2 Sieć bezpieczna
Źródło: Program PIPE2
W rzeczywistych systemach ważną sprawą jest możliwość wycofania się z
błędu – powrót do stanu początkowego. W sieciach Petriego własność tę odwzorowuje
odwracalność. Sieć nazywamy odwracalną, gdy z każdego osiągalnego znakowania
możemy przejść z powrotem do stanu początkowego.
Rysunek 3 Sieć odwracalna
Źródło: Program PIPE2
Jako przykład sieci nieodwracalnej możemy przytoczyć przedstawioną na Rysunku 1 sieć
nieograniczoną.
Charakterystyczne konstrukcje
Sieci Petriego są obecnie szeroko stosowane w informatyce, chemii czy biologii.
Przytoczę kilka konstrukcji mających proste zastosowanie.
Rysunek 4 Czynności sekwencyjne
Źródło: Program PIPE2
17
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
Rysunek 5 Czynności równoległe
Źródło: Program PIPE2
Rysunek 6 Wykluczające się procesy
Źródło: http://jedrzej.ulasiewicz.staff.iiar.pwr.wroc.pl/ProgramowanieWspolbiezne/wyklad/Sieci-
Petriego15.pdf
Na powyższym rysunku przejścia T0 oraz T3 są aktywne, jednak oba nie mogą się
wykonać, gdyż każde z nich musiałoby pobrać jeden token z miejsca P6.
Rysunek 7 Problem producenta i konsumenta (z nieograniczonym buforem)
Źródło: http://jedrzej.ulasiewicz.staff.iiar.pwr.wroc.pl/ProgramowanieWspolbiezne/wyklad/Sieci-
Petriego15.pdf
18
Katarzyna Donaj
Sieci Petriego 2017
Bibliografia
1. Sieci Petriego
http://jedrzej.ulasiewicz.staff.iiar.pwr.wroc.pl/ProgramowanieWspolbiezne/wykl
ad/Sieci-Petriego15.pdf
2. F. Bause, P. Kritzinger Stochastic Petri Nets – An Introduction to the Theory,
Vieweg Verlag, Niemcy 2002
Petri Nets
Summary: Petri networks are a model for describing distributed systems. They are used to
represent concurrent processes or asynchronous processing. This tool is used in computer science
(to evaluate the performance of systems described by the Harela State Maps, to describe the
implementation of a concurrent program), but also biology (to create a model for regulating the
genes of Escherichia coli bacteria) or chemistry (to present chemical reactions such as analysis or
synthesis of a compound).
Key words: concurrency, Markov chain
19
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
Kacper Kuta
Studenckie Koło Naukowe Exemplum
Politechnika Świętokrzyska w Kielcach
Analiza przepływów cieczy przez zawory płaskie typu przesłona
Streszczenie: w artykule omówione zostaną wady i zalety różnych konstrukcji autorskich zaworów
hydraulicznych zwracając uwagę na jakość kontrolowania przepływu cieczy. Prezentowany projekt
zaworu inspirowany jest mechanizmem przesłony migawkowej aparatu fotograficznego, który
według obliczeń zapewnia lepszą kontrolę przepływu strugi cieczy, mniejszą turbulentność, a także
dużo mniejsze rozmiary gabarytowe względem obecnie używanych rozwiązań. Projekt oraz
wszystkie obliczenia wykonane zostały w środowisku CAD SolidWorks..
Słowa kluczowe: CAD, flow simulation, mechanika płynów
Wstęp
Wśród współcześnie wykorzystywanych systemów kontroli przepływu prostym
i z reguły skutecznym rozwiązaniem są zawory regulacyjne. Zawory te działają poprzez
zmianę przekroju otworu przepływającego, co bezpośrednio wpływa na ilość
przepływającego czynnika. W zależności od rozwiązania konstrukcyjnego w odniesieniu
do rodzaju napędu spotykamy zawory grzybkowe, kulowe i zasuwowe. Zawory
o konstrukcji typu przesłona łączą pewne rozwiązania zaworów zasuwowych i kulowych.
Przepływ w obecnych konstrukcjach
W przypadku zaworów kulowych przepływ kontrolowany jest poprzez skręcanie
kuli z walcowatym otworem. W pozycji otwartej otwór ten jest współliniowy z przewodem
nie powodując zakłócenia przepływu. W pozycji zamkniętej otwór obrócony jest
prostopadle względem kierunku przepływu uniemożliwiając przepływ cieczy. Możliwe są
również wszystkie pozycje pośrednie, w których przepływ jest możliwy, ale częściowo
ograniczony bryłą kuli.
20
Kacper Kuta
Analiza przepływów cieczy przez zawory płaskie typu przesłona 2017
Rysunek 7 Widok i rzut zaworu kulowego 1) otwartego 2) półotwartego 3) zamkniętego
Źródło: Opracowanie własne
Ogólny rozmiar zaworu kulowego jest większy niż powyższa ilustracja o cały
system uszczelnienia i kontroli skrętu. Nawet jednak na pokazanym modelu średnica
korpusu jest o 88% większa od średnicy przewodu, a jego długość to 168% średnicy
przewodu. Nie to jednak, a jakość kontroli jest największym kłopotem związanym
z wykorzystaniem tego typu zaworów.
Rysunek 8 Widok przepływu1 czynnika na półotwartym zaworze kulowym
Źródło: Opracowanie własne
Jak widać na powyższej ilustracji przepływ w przypadku półotwartego zaworu
bardzo odbiega od laminarnego. Znaczna turbulencja pojawia się w korpusie,
a wypływająca z zaworu ścianka trafia w ścianę przewodu. Napór cieczy na pierścień
centrujący, ścianę zaworu i ścianę przewodu przyśpiesza zużycie i wymusza wykorzystanie
materiałów o lepszych własnościach (lub zastosowanie więcej materiałów gorszej klasy).
1 Wszystkie przepływy w artykule zadane są prędkością cieczy 1m/s, 2% intensywnością turbulencji, wylot
przewodu do ciśnienia atmosferycznego, pomijalne tarcie o ścianki przewodu.
21
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
Zawór bramowy w przeciwieństwie do kulowego nie pozwala na dowolne
zmniejszanie i zwiększanie przepływu a działa dwupołożeniowo. Dzięki temu
charakteryzuje się bardzo dobrymi parametrami wytrzymałościowymi oraz wysoką
szczelnością. Jego podstawową wadą, obok węższego zastosowania, jest znaczny rozmiar:
zawór wystaje w jednym kierunku na dwukrotność średnicy przewodu powiększoną o
zapas, w który “brama” wsuwa się będąc w pozycji zamkniętej, a i to nie licząc systemu
kontroli. W przypadku przeciętnego przewodu i ciśnienia w granicy do 5 atmosfer daje to
wysokość rzędu 220% średnicy przewodu oraz szerokość rzędu 110% średnicy. Długość
zaworu, uzależniona oczywiście od warunków wytrzymałościowych, to w tym wypadku
20% średnicy.
Rysunek 9 Widok rzut zaworu bramowego 1) otwartego 2) półotwartego 3) zamkniętego
Źródło: Opracowanie własne
Stany pośrednie pomiędzy zamknięciem i otwarciem zaworu (nie jest to położenie
robocze) powodują pewne zaburzenia, między innymi przepływ jest nieliniowy. Ponadto
za zaworem może dochodzić do częściowego cofnięcia przepływu, co z kolei przekłada się
na szansę zwiększenia drgań, a więc i zużycia, bramy zaworu.
Konstrukcja zaworu typu przesłona
Sposobem rozwiązania tego problemu mogłoby być utrzymanie przepływu pośrodku
przewodu w taki sposób, by nie wytwarzać zbędnej turbulencji, a także ograniczenie
kontaktu skupionej strugi ze ścianką. Mechanizmem, który został zaprojektowany w celu
utrzymania stałej geometrii zmieniającego średnicę otworu jest mechanizm migawki
aparatowej. Wykorzystanie go wprost jako rodzaju zaworu było jednak niemożliwe z
przyczyn konstrukcyjnych – zachodzących na siebie i nieuszczelnionych liści przesłony.
22
Kacper Kuta
Analiza przepływów cieczy przez zawory płaskie typu przesłona 2017
Rysunek 10 Przysłona w obiektywie Canon 50mm f/1.8 II Źródło: Wikimedia Commons, the free media repository
Jak widać na rysunku 4 listki przysłony zachodzą nieco na siebie utrzymując stały
kształt krawędzi. Niestety nie jest to rozwiązanie satysfakcjonujące, ponieważ szczelność
wykonania liści, w przypadku, gdy konstrukcja ta miałaby służyć jako zawór,
doprowadziłaby do znacznych kosztów produkcji oraz potencjalnie, szybkiego zużycia i
konieczności częstej konserwacji. Utrzymanie stałego przekroju da się jednak osiągnąć
również innymi metodami, w których liście poruszają się wzajem po swoich krawędziach,
a nie płaszczyznach.
Rysunek 11 Projekt zaworu sześcioliściastego
Źródło: Opracowanie własne
Konstrukcja taka pozwala utrzymać stały kształt przekroju oraz zapewnia prostą, liniową
funkcję sterowania polem prześwitu. Wysoka jakość wykonania powierzchni konieczna
jest tylko na krawędziach stykających się ze sobą co zmniejsza koszty obróbki. Zasadniczą
wadą jest utrudnione poruszanie się – optymalny ruch liści uzależniony jest od kąta pod
jakim spotykają się liście – oraz stosunkowo duża powierzchnia liści wystawiona na
działanie sił względem ich umocowania.
23
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
Rysunek 12 Ewolucja prowadząca do powstania zaworu ośmioliściastego
Źródło: Opracowanie własne
Rozwiązaniem problemu z poruszaniem się okazała się zmiana kąta spotkania, do czego
można było doprowadzić zmieniając ilość liści. Nieznacznie (rzędu 10% średnicy
przewodu, na którym montowany jest zawór) zwiększa to niestety wymiary na największej
średnicy. Wersja siedmioliściasta, jakkolwiek poruszająca się lepiej niż sześcioliściasta,
została pominięte w rozważaniach.
Ostateczny projekt liścia bierze pod uwagę nie tylko własności odnośnie kontroli
strugi, ale również (nieomówione) warunki wytrzymałościowe i szczelność w trakcie pracy
elementu.
Rysunek 13 Widok końcowej wersji liścia
Źródło: Opracowanie własne
Porównanie geometrii zaworów
Rozmiary wszystkich zaworów przedstawione w stosunku do promienia przewodu
przedstawiono w tabeli poniżej.
Tabela 1 Porównanie wymiarów zaworów do wymiaru przewodu na korespondującym
odcinku Parametr Zawór kulowy Zawór bramowy Zawór
sześcioliściasty
Zawór
ośmioliściasty
Pole przekroju 353% 284% 376% 384%
Długość
(równolegle do
osi) maksymalna
168% 30% 40% 40%
Największy
wymiar
188% 220% 194% 196%
24
Kacper Kuta
Analiza przepływów cieczy przez zawory płaskie typu przesłona 2017
Objętość 593% 85% 150% 153%
Źródło: opracowanie własne
Jak widać zdecydowanie największymi rozmiarami charakteryzuje się zawór kulowy,
a najmniejszymi zawór bramowy. Oczywiście wymiary te będą się różnić w zależności od
ciśnień i własności cieczy, gdzie najprostszym powodem zmian jest warunek
wytrzymałościowy na w pełni zamkniętym zaworze, szczelność i trudność w zmianie
położenia zaworów.
Porównanie przepływów na końcowym projekcie
Rysunek 14 Przepływ na końcowej wersji zaworu, 50% przelotu
Źródło: Opracowanie własne
Rysunek 15 Wizualizacja ciśnień przy przepływie turbulentnym na 33% przelotu
Źródło: Opracowanie własne
25
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
Rysunek 16 Wizualizacja prędkości przy przepływie turbulentnym na 33% przelotu
Źródło: Opracowanie własne
Rysunek 17 Wizualizacja wirowości przy przepływie turbulentnym na 33% przelotu
Źródło: Opracowanie własne
Koncentracja strugi po środku przepływu i profilowanie liści sprawia, że nieznaczna
występująca turbulencja zostaje stosunkowo szybko ustabilizowana. Ponadto przepływ za
zaworem charakteryzuje się nieznaczną wirowością. Nie występuje tutaj zjawisko
uderzania w ściankę, a struga nieznacznie tylko rozprasza się. Lekka turbulencja przepływu
jaką można zauważyć przed zaworem, jest zminimalizowana po przejściu przez niego.
Łatwo wprost wyprowadzić zależność między skrętem pierścienia kontrolującego, a polem
przekroju ograniczonego przepływu.
26
Kacper Kuta
Analiza przepływów cieczy przez zawory płaskie typu przesłona 2017
Rysunek 18 Przepływ na końcowej wersji zaworu, 100% przelotu
Źródło: Opracowanie własne
Symulacja pokazuje, na w pełni otwartym zaworze, występuje niewielka strata
ciśnienia. Wynika to z nieznacznego wysunięcia liści, które w realnym mechanizmie ma
możliwość całkowitego wsunięcia się w przekrój ścianki przewodu.
Wnioski
Jak widać zawór typu przesłonowego może stanowić alternatywę tam, gdzie zależy
nam na ograniczeniu wymiarów wzdłużnych. Ma też satysfakcjonująco dobre własności
odnośnie kontrolowania strugi czynnika przepływającego (wody). Liniowa zmiana pola
przekroju, który bezpośrednio wpływa na przepływ, ułatwia wprowadzenie prostych
systemów kontroli. Wciąż jednak zawór ten wymaga dalszych testów odnośnie zachowania
pod naciskiem ciśnienia cieczy (kwestia dopasowania właściwych luzów i rozmiarów
poprzecznych). Nie zostały też zbadane tendencje do drgań i potencjalnie możliwe
powstawanie (przez analogię do zaworu bramowego) turbulencji w trakcie zmieniania
średnicy rozwarcia. Obecny projekt stanowi jednak dobry przyczynek do fizycznych
prototypów, na których będą mogły być przeprowadzane dalsze testy.
Bibliografia
1. MMC Albert Beasley, Jr., Fluid Power, https://www.cnet.navy.mil/netpdtc
27
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
Analysis of liquid flows through veil-type flat valves
Summary: in the article, we speak about pros and cons of different kinds of original valve
constructions, regarding quality of liquid flow control. The project of this valve is inspired by an
aperture mechanism of camera, which according to calculations, grants better control over liquid
flow, less turbulent flow and less volume size than existing control valves. Project and all
calculations were performed in CAD SolidWorks environment.
Key words: CAD, flow simulation, fluid mechanics
28
Klaudia Krzeszewska
Technologie informacyjne w medycynie 2017
Klaudia Krzeszewska
Studenckie Koło Naukowe „Biokreatywni”
Wydział Inżynierii Biomedycznej Politechniki Śląskiej
Technologie informacyjne w medycynie
Streszczenie: Celem niniejszej pracy było przedstawienie wpływu rozwoju technologii
informacyjnych na medycynę. Jednym z efektów tego postępu było wprowadzenie tzw. kart
chipowych, umożliwiających placówkom ochrony zdrowia identyfikację pacjentów.
Najpowszechniej stosowanym elementem informatyki medycznej jest przetwarzanie i analiza
sygnałów oraz obrazów medycznych. Niniejszy referat w dużej mierze skupia się na telemedycynie,
porusza zagadnienia m.in., wspomagania leczenia chorób przewlekłych, wideokonsultacji,
telerehabilitacji, zdalnie sterowanych rozruszników czy pomp wspomagających pracę serca.
W referacie omówiono również teleinformatyczny system łączności w ratownictwie medycznym,
usprawniającym proces przyjęcia pacjenta do szpitala, minimalizując czas od odebrania go przez
karetkę pogotowia do przyjęcia na ostry dyżur i rozpoczęcia specjalistycznego leczenia. Niniejszy
artykuł przedstawia mnogość zastosowań technologii informacyjnych w różnych działach medycyny,
wskazuje ona zalety technologizacji tej dziedziny, ale i problemy, na które napotykają jej
użytkownicy – lekarze oraz pacjenci.
Słowa kluczowe: informatyka, telemedycyna, inżynieria biomedyczna, informatyka medyczna
Wstęp
Od kilkudziesięciu lat jesteśmy świadkami dynamicznego postępu
technologicznego we wszystkich dziedzinach życia, nauki oraz przemysłu. Wielki wpływ
miały na to szeroko rozumiane technologie informacyjne. Komputery, inteligentne
maszyny czy przepływ danych to tylko wąski obszar IT, z którym mamy do czynienia na
co dzień. Nie mówi się jednak tak powszechnie o tym, jak wiele z tego ogromnego rozwoju
zaczerpnęła medycyna.
Bazy danych
Bardzo niedocenianym elementem informatyki medycznej są bazy danych. Te
ogromne zbiory informacji setek tysięcy pacjentów oraz ich wyników umożliwiają
swobodny i szybki dostęp do informacji, gdy potrzebują tego lekarz/pielęgniarka, zarówno
w celu obejrzenia zamieszczonych tam wyników, jak i dopisania nowych. Z drugiej strony
ta sama baza powinna być całkowicie odporna na ingerencję z zewnątrz, np. na ataki
hakerów.
Należy zwrócić uwagę na multimedialny charakter medycznej bazy danych,
ponieważ oprócz danych tekstowych (opis przypadku, diagnoza), znajdują się w niej także
zdjęcia (rentgenowskie, wyniki CT, MRI) i filmy (np. z zabiegów laparoskopowych).
Baza musi być związana z archiwum, w którym przechowywane będą kopie
możliwe do odzyskania, w przypadku zniszczenia podstawowej jednostki jej wyposażenia
(np. w wyniku pożaru) [1].
Przetwarzanie sygnału
29
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
Wspomaganie procesów diagnostycznych jest odnoszącą największe sukcesy
dziedziną informatyki medycznej. Budowane obecnie urządzenia pozwalają odbierać
i interpretować sygnały pochodzące z ciała człowieka. Są to w większości sygnały
reprezentujące aktywność narządów, czy funkcjonowanie systemów składających się
na ciało człowieka.
Sygnały pobierane przez wszelkiego rodzaju czujniki, są następnie przetwarzane
przez jednostki, w ten sposób, by mogły zostać poddane analizie. Przykładami
rejestrowanych i analizowanych sygnałów są: USG, EEG, czy całe systemy monitorowania
pacjentów np. na OIOMach.
Niemal niemożliwym jest uzyskanie pojedynczego sygnału biomedycznego bez
żadnych zakłóceń w postaci innych sygnałów. Aparatury pomiarowe są skomplikowanymi
urządzeniami, które wyciągają z naręcza sygnałów ten jeden, który da najlepsze
diagnostycznie informacje.
Na przykładzie EKG – Przy badaniu sensory oprócz pracy serca mogą rejestrować
skurcze innych mięśni, czy inne potencjały elektryczne znajdujące się w ciele osoby
badanej. Zadaniem programisty jest zaprogramowanie aparatury w ten sposób, aby
postępowała wg poniższego algorytmu:
• wzmocnienie sygnału,
• przefiltrowanie,
• usunięcie szumu.
Najistotniejsze jednak jest by sygnał był bezstratny, a postać jego stanu wyjściowego
spełniała ogólnie przyjęte standardy, tak aby każdy kardiolog był w stanie rzetelnie ocenić
zdrowie pacjenta [2],[3].
Przetwarzanie obrazu
Zmysł wzroku jest jednym z najważniejszych narządów zmysłów, to za jego
pomocą uzyskujemy 80-90% informacji o otaczającym nas świecie. Nic więc dziwnego,
że lekarze chętnie korzystają z metod RTG, USG, MRI. Mimo ogromnego zaawansowania
technologicznego, komputer nie zawsze będzie w stanie zastąpić lekarza np. przy
interpretacji wyniku CT, ponieważ w odniesieniu do wyjątkowych pacjentów,
o nietypowych urazach, czy niestandardowej budowie anatomicznej, może to prowadzić
do błędnych diagnoz. W takich przypadkach niezbędne do jest „oko” doświadczonego
specjalisty. Obraz z tomografii komputerowej, aby mógł zostać poddany analizie przez
specjalistów, musi zostać przetworzony w taki sposób, aby był jak najbardziej czytelny.
Powinien więc on zostać poddany:
1. Obróbce wstępnej (preprocessing):
• eliminacja zakłóceń,
• wydobywanie obiektu z tła,
• detekcja krawędzi,
• ustalanie poziomów szarości na podstawie histogramu,
• równoważenie histogramu,
2. Obróbce dalszej (segmentation):
• segmentacja obrazu,
• lokalizacja obiektów,
• rozpoznanie kształtu obiektu i wyróżnienie cech charakterystycznych
kształtu [3].
30
Klaudia Krzeszewska
Technologie informacyjne w medycynie 2017
Zalety użycia komputera w tych procesach to niższa cena analizy obrazów (np. przy
automatycznej analizie i rozpoznawania obrazów preparatów tkankowych), możliwość
łatwego i taniego powielania sprawdzonych rozwiązań, czy możliwość automatycznego
rejestrowania wyników [3],[4].
Telemedycyna
W dużym uproszczeniu telemedycyna jest procesem badania oraz diagnozy pacjenta
na odległość z użyciem środków technicznych, aktualnie najczęściej za pomocą Internetu.
Zalążki tej dziedziny sięgają już lat 60, gdy amerykańskie bazy wojskowe stworzyły
satelitarną sieć telekomunikacyjną między sobą i specjalistycznymi ośrodkami
medycznymi w całym USA.
Duży wpływ na rozwój tej dziedziny miało także NASA, które musiało wymyślić
sposób na sprawne monitorowanie stanu zdrowia astronautów na odległość.
Obecnie oprócz osób skazanych na znaczną odległość placówek medycznych,
tj. żołnierzy, astronautów, uczestników egzotycznych wypraw, telemedycyna
wykorzystywana jest wobec osób, przy których niezbędne jest zachowanie dodatkowych
środków ostrożności takich jak więźniowie, czy w przypadku leczenia osób z chorób
zakaźnych.
Jest to także doskonały sposób na możliwość monitorowania pacjentów na
odległość, zmniejszając przy tym koszty personelu, czy kolejki do specjalistów, ponieważ
ciągłe monitorowanie stanu zdrowia, w przypadku zadowalających wyników, pozwala
na odsunięcie wizyty kontrolnej, a co za tym idzie, zmniejszenie kosztów personelu dla
szpitala [1],[5].
Inteligentne roboty medyczne
Roboty medyczne, inaczej telemanipulatory stanowią grupę robotów
wspomagających procedury medyczne. Ich rolą jest wykonywanie zadanych przez lekarza
ruchów oraz poleceń. Te urządzenia są często wykorzystywane w telerehabilitacji, gdzie
robot steruje np. ruchem kończyny. Zmniejsza to koszty zatrudnianego personelu,
zastępuje żmudną i monotonną pracę fizjoterapeuty np. przy wielokrotnym powtarzaniu
tych samych czynności, zmniejsza to także prawdopodobieństwo wystąpienia urazu.
Doskonałym przykładem robota medycznego jest Robin Heart, stworzony przez
zespół pracowników Fundacji Rozwoju Kardiochirurgii w Zabrzu. Jest to pierwszy
europejski robot i jednocześnie jeden z najnowocześniejszych wspomagających
bezinwazyjne operacje. Jego praca jest kontrolowana przez chirurga za pomocą konsoli i
joysticka. Dodatkowo dzięki kamerze i ultrasonografowowi operujący lekarz ma bardzo
dokładny widok pola operacyjnego. Robot Robin Heart jest zdolny zakładać by-passy,
operować zastawki i naczynia krwionośne. Konstruktorzy mają w planach wyposażyć
teleoperatory wprowadzone do ciała pacjenta w czujniki pozwalające na odczuwanie
dotyku [6],[7].
Zdalne konsultacje
Podstawowym wyposażeniem telekonsultacji jest kamera internetowa oraz łącze
głosowe, a za pomocą Internetu możliwe jest także wysyłanie obrazów, czy filmów
wysokiej rozdzielczości np. z zabiegu laparoskopowego. Obecnie, użytkownikami tych
31
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
metod są głównie lekarze, ustalający najlepszą drogę leczenia u pacjentów
z niejednoznacznymi, lub ciężkimi dolegliwościami. Konsultacje między mniej
wykwalifikowanym lekarzem, a ekspertem, czy grupą ekspertów pozwala na skuteczne
leczenie niskim kosztem [1],[5].
Telemedycyna w ratownictwie medycznym
Ratownictwo medyczne jest szczególnie związane z telekonsultacjami. Jest
to nieocenione wsparcie dla ratowników, którzy ze względu na charakter swojego zawodu
muszą być specjalistami w każdej lekarskiej dziedzinie. Odpowiednio szybka reakcja przy
podejmowaniu właściwych działań zwiększa prawdopodobieństwo uratowania/wyleczenia
pacjenta. Jeśli więc ratownik medyczny jeszcze w karetce ma możliwość konsultowania,
przyjęcia instruktażu co do dalszych kroków pierwszej pomocy od eksperta danej
dziedziny, zwiększa to szanse pacjenta na całkowity powrót do zdrowia [1].
Aplikacje mobilne dla medycyny
Mobilne aplikacje medyczne to oprogramowanie działające na urządzeniach
przenośnych, które są dedykowane zarówno pacjentom, jak i lekarzom. Na rynku dla
pacjentów dostępne są między innymi: wyszukiwarki wizyt – dzięki takiej aplikacji
można odnaleźć dostępną wizytę u lekarza dowolnej specjalizacji w wybranym mieście w
Polsce, wraz z opiniami pacjentów o danych lekarzach; kalendarze – osobiste terminarze
badań i wizyt, które wysyłają przypomnienia o zbliżających się terminach badań, w formie
sms lub mailowej; wirtualny lekarz – aplikacja pozwalająca na ocenę stanu zdrowia,
wskazująca potencjalne przyczyny dolegliwości, podpowie ona również do jakiego
specjalisty się zgłosić.
Jedną z ciekawszych osiągnięć w dziedzinie aplikacji medycznych jest Cardiio
- aplikacja do pomiaru częstości pracy serca na bazie fali tętna rejestrowanej
na podstawie subtelnej zmiany koloru twarzy, a cały pomiar łącznie z analizą zajmuje
kilkanaście sekund. Twórcy twierdzą, że aplikacja pomaga wykryć migotanie
przedsionków, najczęstszej przyczyny udarów [8].
Autorzy wszystkich aplikacji zgodnie zastrzegają, że wszelkie porady mają
charakter wyłącznie informacyjno-edukacyjny i nie mogą być traktowane jak konsultacja
lub diagnoza lekarza [8].
W 2015 roku firma Medtronic (producent implantów oraz sprzętu medycznego)
otrzymała zgodę FDA (Agencji Żywności i leków) na aplikację mobilną, która pozwala
pacjentom zdalnie przesyłać dane z rozruszników serca do swoich lekarzy. Aplikacja jest
połączona z urządzeniem, które odczytuje dane z rozrusznika serca i przesyła je przez
Bluetooth do osobistego smartfona lub tabletu pacjenta. [9],[10],[11]
Możliwość przesyłu danych między rozrusznikami, a urządzeniami mobilnymi daje
wiele możliwości. Oprócz zmniejszenia kosztów badań, ponieważ niektóre wyniki będzie
można odczytać z pracy pompy, w razie zadowalających parametrów, wizyta u kardiologa
może być odsunięta w czasie. Umożliwia to także stworzenie aplikacji łączącej działanie
rozrusznika, aplikacji GPS oraz systemu powiadamiania szpitali. Dzięki temu w przypadku
zatrzymania akcji serca, rozrusznik przesyła takie dane do aplikacji, a ta dzięki systemowi
GPS powiadamia najbliższy szpital o konieczności wysłania karetki.
Najpopularniejszą aplikacją dla lekarzy jest MedTube, największa na świecie baza
filmów medycznych skierowana do lekarzy, gdzie młodzi, niedoświadczeni studenci
32
Klaudia Krzeszewska
Technologie informacyjne w medycynie 2017
medycyny mają możliwość zobaczyć przebieg operacji przeprowadzonej przez
specjalistów z dowolnego miejsca na świecie [8].
Podsumowanie
Biorąc pod uwagę mnogość zastosowań technologii informacyjnych w medycynie,
oczywistym jest, iż niesie to za sobą wiele zalet, takich jak ułatwienie i przyspieszenie
procesów diagnostycznych, czy samego leczenia, a co za tym idzie, zmniejszenie kosztów
pracowników szpitali. Nowoczesne urządzenia zapewniają wysoką jakość diagnostyki,
oraz ułatwiają administrację placówek. Dużym plusem jest także możliwość
telekonsultacji, które zapewniają lepszą diagnostykę, dzięki komunikacji między
lekarzami, czy między lekarzami, a osobami starszymi, dla których możliwość
konsultowania się ze specjalistą z własnego domu jest dużym ułatwieniem. Nie da się
również ukryć, że postęp technologii informacyjnych w medycynie związany jest z dużymi
finansami. Polscy informatycy są wysoko cenieni w skali globalnej, przyciąga to kapitał
zagraniczny w postaci wielkich firm, których siedzib w Polsce jest coraz więcej.
Mimo wielu zalet, telemedycyna oraz informatyka medyczna stawiają także wiele
przeszkód lekarzom, czy pacjentom. Główną wadą jest niestabilnościć działania systemów
np. zawieszające się komputery. Niezbędna jest więc obecność wykwalifikowanych
techników, informatyków, czy okresowa konieczność konserwacji sprzętu. W zależności
od firmy produkującej takie urządzenia (np. tomografy), koszt serwisu jest bardzo
zróżnicowany. Samo wdrażanie nowoczesnych technologii jest bardzo kosztowne, a jeśli
już się to uda, należy pamiętać o konieczności edukacji pacjenta, by potrafił z nich
korzystać [1],[5].
Rozwój technologii informacyjnych, które na stałe wpisały się w codzienność
medycyny, mimo iż znacznie ułatwiły wiele procesów, postawiły również przed lekarzami
kolejne wyzwania. Każdego dnia na rynku pojawiają się co raz to nowsze rozwiązania
tworzone przez zespoły inżynierów, które mają uczynić świat prostszym
i bezpieczniejszym. Jedynie zastosowanie w praktyce tych technologii pozwoli na
weryfikacje ich użyteczności.
33
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
Bibliografia
1. Tadeusiewicz R., Informatyka medyczna, wyd. Uniwersytet Marii Curie-
Skłodowskiej w Lublinie Instytut Informatyki, Lublin 2011
2. Pieniężny A., Analiza czasowo-częstotliwościowa sygnału EKG, „Biuletyn WAT”,
2009, nr 1, s. 269-278
3. Analiza i przetwarzanie obrazów, http://robert.frk.pl
4. Tadeusiewicz R., Korohoda P., Komputerowa analiza i przetwarzanie obrazów,
wyd. Fundacji Postępu Telekomunikacji, Kraków 1997
5. „Telemedicine: opportunities and developments in Member States: report on the
second global survey on eHealth 2009.”, http://who.org, 2010
6. Nawrat Z., „Pierwszt eksperyment in vivo robota chirurgicznego Robin Heart mc2
- raport”, http.icm.edu.pl, 2011
7. Nawrat Z., Kostka P., „Robin Heart Surgery Robotic System. Challenges in
Mechanical Construction, Control System and Stuff Training Berore First Clinical
Application” http://degruyter.com, 2014
8. „Najlepsze 10 aplikacji na smartfon dla pacjenta i dla lekarza”,
https://koltowski.com, 2013
9. Healthcare IT News, http://healthcareitnews.com
10. iMedicalApps MedPage Today, https://imedicalapps.com
11. Medtronic, http://medtronic.com
IT in medicine
Summary: This paper aims to describe the impact of IT advancement on modern-day medicine.
One of the most significant changes was the introduction of chip cards which allow i.e. hospitals to
quickly identify individual patients. One of the most widely used elements of IT in medicine is the
analysis and processing of biomedical signals and images. This paper is greatly concerned with the
field of telemedicine and touches upon e.g. supporting the treatment of chronic diseases, video-
consulting, telerehabilitation, and remote-controlled pacemakers. This paper also touches upon the
use of teleinformatic connection systems used by paramedics to improve hospitalization by reducing
the time needed to transport patient into hospitals and begin proper, specialised treatment. The
purpose of this paper is to present the many implementations of IT in different branches of medicine
by showing the many advantages of modernisation, but also to describe certain problems which
doctors as well as patients might stumble upon.
Key words: informatics, telemedicine, biomedical engineering, medical informatics
34
Krzysztof Bałaban
Internet w pracy nauczyciela języków obcych 2017
Krzysztof Bałaban
Uniwersytet Wrocławski
Internet w pracy nauczyciela języków obcych
Streszczenie: W artykule omówiono znaczenie Internetu w pracy nauczyciela języków obcych.
Celem pracy było ukazanie w zarysie korzyści płynących z zastosowania Internetu w procesie
nauczania języków obcych wraz z przykładami dobrze obrazującymi możliwości wykorzystania
potencjału, jaki daje kontakt z tego rodzaju medium.
Słowa kluczowe: Internet, nauczyciel, nauczanie, języki obce
Wstęp
Głównym celem pracy jest przedstawienie w zarysie korzyści płynących z
zastosowania Internetu w procesie nauczania języków obcych. Należy zaznaczyć, że
zasoby Internetu pomocne w nauczaniu języków obcych są zbyt bogate, żeby w sposób
wyczerpujący opisać wszystko w niniejszej pracy. Jednak w celu lepszego zobrazowania
analizowanego zagadnienia zaprezentowano kilka wybranych przykładów dobrze
ukazujących możliwości wykorzystania potencjału, jaki daje kontakt z tym medium.
Niniejszy artykuł powinien umożliwić czytelnikowi wstępną orientację w badanym
zagadnieniu oraz ułatwić śledzenie kierunku zmian w metodyce nauczania języków
obcych, jaki aktualnie jest możliwy dzięki ewolucji treści dostępnych w Internecie. Nie bez
znaczenia jest też fakt, że obecnie Internet stał się medium bardzo powszechnym i ogólnie
dostępnym. Uczniowie mają do niego dostęp praktycznie nieograniczony dzięki
posiadanym urządzeniom mobilnym, takim jak smartfony i tablety. Uczeń korzystając z
materiałów dostępnych online sam zdobywa wiedzę, decydując kiedy i w jaki sposób
będzie się uczył. Ważny jest jednak wybór treści posiadających wysoką jakość tak aby
wspólnie z materiałem przerabianym w trakcie zajęć składał się na kurs skuteczny i
wartościowy.
Zawód nauczyciela języków obcych ze względu na dynamikę i zmienność
współczesnego świata wymaga ciągłego doskonalenia zawodowego wraz ze stałym
przystosowywaniem się do zmian. Nauczyciel zajmujący się nauczaniem języka obcego
powinien obecnie posiadać umiejętność wdrażania nowych technologii w proces
nauczania, opracowywania i realizowania nowatorskich praktycznych metod nauczania.
Internet jest mu w tym niezbędny, ponieważ sprzyja tworzeniu optymalnych warunków
ułatwiający realizację nauczania polisensorycznego1. Zasoby dostępne w Internecie
pomagają w realizacji programu dydaktycznego nauki języka obcego przez łączenie
zabawy z nauką i zastosowanie innej, atrakcyjnej formy sytuacji edukacyjnych,
przykładowo w zakresie nauki czytania. Autor pracy dotyczącej wybranych metod oceny
użyteczności stron i aplikacji internetowych Paweł Kopyść słusznie stwierdza, że Internet
1 „W procesie poznawczym dociera do człowieka wiele różnorodnych bodźców z zewnętrznego świata, które
odbierane są za pomocą zmysłów. Różne osoby odmiennie tworzą swoje wyobrażenia, które opierają na trzech
rodzajach doznań: wzrokowych, słuchowych i kinestetycznych. Uczenie się, postrzeganie świata odbywa się
pod wpływem informacji, poprzez system sensoryczny. Jest procesem wszechobecnym w ciągu całego życia
człowieka, opierającym się na odbieraniu bodźców zmysłowych docierających ze świata zewnętrznego”.
Źródło: http://www.szkolnictwo.pl/index.php?id=PV1070
35
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
„stał się platformą, charakteryzującą się znacznie większym potencjałem w porównaniu do
innych mediów. Pozwala na przekaz i odbiór tekstu, obrazu, audio czy wideo, ale przede
wszystkim umożliwia interakcję z odbiorcą” (Kopyść 2014). Dzięki możliwościom, jakie
daje Internet, liczba użytkowników wykorzystujących go w nauce języka obcego wzrasta
z roku na rok. Potwierdzają to różne badania jak np. „Korzystanie z internetu”2. Warto w
tym miejscu dodać jeszcze uwagę Doroty Siemienieckiej-Gogolin, dydaktyka zajmującego
się pedagogiką szkolną, która stwierdza, że rola nauczyciela we współczesnym
społeczeństwie obok umiejętności przekazywania wiedzy poszerza się o czynności
organizowania procesu uczenia się, przewodniczenia w poruszaniu się po świecie
informacji, rozwijania zainteresowań poznawczych oraz budzeniu motywacji,
samodzielności myślenia i twórczej postawy w zdobywaniu wiedzy (zob. Siemieniecka-
Gogolin 2006, s.267). Z tego względu bardzo ważna jest rola nauczyciela, który powinien
odpowiednio dobierać oraz polecać uczniom wartościowe treści dostępne w Internecie,
stanowiące nieocenioną pomoc w efektywnym nauczaniu języka obcego.
Ogromny postęp, jaki dokonał się w ostatnich latach w informatyce wydatnie
zwiększył wkład w dydaktykę języka obcego, szczególnie jeżeli chodzi o zasoby dostępne
online. Internet to medium ulegające ciągłym, dynamicznym zmianom. Dotyczy to również
stron i portali edukacyjnych, które stają się coraz bardziej interaktywne, funkcjonalne i
atrakcyjne wizualnie, dostosowując się do aktualnych trendów i odpowiadając na potrzeby
użytkowników. Jednakże bez ścisłej koordynacji osiągnięć językoznawstwa z informatyką
trudno mówić o koherentnej ogólnej teorii dydaktyki języka. Pomiędzy Internetem a
dydaktyką zachodzi sprzężenie zwrotne polegające na tym, że każda nowa możliwość
nauczania z wykorzystaniem Internetu z reguły wywiera wpływ na kierunek rozwoju
metod nauczania, a te z kolei weryfikują ją w praktyce, wystawiając ocenę jej wartości i
prawdziwości. Z tego też względu osoby zajmujące się nauczaniem języków obcych nie
powinny ignorować najnowszych osiągnięć informatyki.
Internet w pracy dydaktycznej nauczyciela języków obcych
W dobie stale rosnącej dostępności Internetu w różnych rejonach naszego kraju oraz
coraz lepszych jego parametrów3, jak również powszechności stosowania nowych narzędzi
dostępnych online, w tym platform e-learningowych4, w nauczaniu języków obcych
kluczowego znaczenia nabiera jakość wykorzystywanych materiałów multimedialnych.
Narzędzia dostępne online dają praktycznie nieograniczoną możliwość korzystania z
materiałów dydaktycznych w dowolnym miejscu i czasie. Poza tym pozwalają dostosować
je do każdej grupy zawodowej, z uwzględnieniem jej trybu pracy, potrzeb, możliwości
czasowych oraz wszelkich innych preferencji związanych z procesem edukacyjnym.
Należy mieć na uwadze, że przez sam fakt stosowania nowego, lepszego środowiska i
narzędzi o większych możliwościach technicznych nie podnosi się jakości kursu. Z tego
też względu ważnym celem w pracy z materiałami multimedialnymi jest rozwijanie
interaktywności u uczących się języka obcego. Wykorzystanie multimedialnych
materiałów dydaktycznych „uwzględnia interdyscyplinarność zadania oraz interaktywność
z perspektywy socjalno-psychologicznej” ( Mazepa 2016, s.51).
Pomimo większego i lepszego dostępu do zasobów Internetu, nauczyciel języków
obcych powinien wiedzieć jak efektywnie wykorzystać zasoby internetowe w trakcie
2 „Korzystanie z internetu” – badania CBOS NR 92/2016. Źródło:
http://www.cbos.pl/SPISKOM.POL/2016/K_092_16.PDF 3 Ibidem 4 Learning Management Systems (ang.)
36
Krzysztof Bałaban
Internet w pracy nauczyciela języków obcych 2017
prowadzonych przez siebie lekcji/kursów. Przygotowuje bowiem uczących się do
wykorzystywania języka w różnych sferach życia. Świadomość tego, w jaki sposób
uczniowie korzystają z zasobów stron internetowych pozwala odpowiednio zaplanować
zadania oraz pracę na lekcji, a także wskazać, jak zwiększyć efektywność korzystania z
Internetu w celu rozwijania umiejętności językowych.
Wykorzystanie Internetu w nauczaniu języka obcego pozwala wzbogacić i
urozmaicić treści kształcenia, formy i metody pracy nauczyciela. Prowadzący może
wykorzystywać zasoby Internetu w trakcie zajęć przykładowo przeprowadzając lekcję,
która polega na wyszukiwaniu wraz z uczniami różnych dokumentów, grafik dobrze
ilustrujących temat zajęć. Warto w tym miejscu zauważyć, że wyszukiwana tematyka
pozwala wzbogacić materiały dostępne w podręczniku, rozszerzając tym samym spektrum
wiedzy ucznia o zagadnienia realizowane w programie nauczania. Dodatkowym atutem
jest to, że w Internecie zawsze dostępne są aktualne treści dotyczące omawianego kraju,
np. jego kultury, historii, polityki, sytuacji ekonomiczno-gospodarczej, itd.
Zakładając utrzymujący się wzrost prędkości transmisji danych, który umożliwił
stworzenie i spopularyzowanie mediów strumieniowych można założyć, że wykorzystanie
na lekcjach interaktywnych i multimedialnych pomocy edukacyjnych dostępnych online
będzie coraz powszechniejsze. Wzrost prędkości sieci znacznie usprawnia pracę
nauczyciela, ponieważ nie ma już konieczności wcześniejszego pobierania i zapisywania
przerabianych materiałów na dysk komputera, a będąc online nie trzeba długo oczekiwać
na ich wczytanie. Uzupełniając listę przytoczonych korzyści należy dodać, że wszystkie
wyszukiwane informacje są dostępne w Internecie w nauczanym języku obcym.
Należy jeszcze odnotować fakt, że sięganie do zasobów internetowych nie musi być
ograniczone do zajęć lekcyjnych. Uczniowie w wolnym czasie w domu mogą korzystać z
Internetu przy wyszukiwaniu potrzebnych materiałów. Internet, w tym przypadku stanowi
niezastąpione i łatwo dostępne źródło informacji, tekstów, zdjęć, itp. Przeniesienie pracy z
wykorzystaniem zasobów internetowych nie musi być ograniczone do domu. Obecnie
możliwe jest całkowite zerwanie z ograniczeniem ze względu na miejsce i czas. Aktualnie
urządzenia mobilne z dostępem do Internetu, takie jak smartfony i tablety umożliwiają
korzystanie z zasobów sieciowych praktycznie w dowolnym miejscu, np. w tramwaju
podczas powrotu ucznia do domu5.
Poza tym dzięki Internetowi nauczyciel może:
• na bieżąco uaktualniać swoją wiedzę i umiejętności;
• uzyskać dostęp do aktualnych informacji o kursach i szkoleniach dla
nauczycieli;
• kontaktować się z innymi nauczycielami (grupy dyskusyjne, e-mail, czat);
• prowadzić w trakcie lekcji dyskusje między różnymi klasami z różnych szkół,
odmiennych środowisk, krajów, itp.;
• pobrać różne pomoce naukowe, w tym programy i narzędzia komputerowe;
• prowadzić elektroniczną wersję dziennika lekcyjnego, semestralne zestawienia
ocen, bazę danych dotyczącą uczniów w klasie;
• uzyskać pomoc w przygotowaniu interesującej lekcji (gotowe wzory
scenariuszy, konspektów, programy wychowawcze, ścieżki edukacyjne, testy,
zestawy pytań, itp.);
• tworzyć własne publikacje, m.in. w postaci stron WWW, blogów, vlogów, etc.
5 Przytoczony przykład wpisuje się w aktualny trend Learn anything, anytime, anywhere (ang.) – ucz się
czegokolwiek, kiedy tylko chcesz i gdzie tylko chcesz
37
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
Wszystkie wymienione możliwości, jakie daje wykorzystanie Internetu przez nauczyciela
języków obcych dobrze obrazują ogrom zalet i korzyści, jakie daje to medium.
Wykorzystanie w nauczaniu urządzeń mobilnych
Zdarza się, że nauczyciel rezygnuje z wzbogacenia treści nauczania o materiały
dostępne online, ponieważ nie może skorzystać z sali dydaktycznej wyposażonej w
komputery z dostępem do Internetu. W większości polskich szkół tylko pracownia
komputerowa wyposażona jest w odpowiednią liczbę zestawów komputerowych, w taki
sposób aby każdy uczeń miał do dyspozycji jedno stanowisko. Najczęściej nauczyciel ma
do dyspozycji na swoim biurku komputer podłączony do Internetu wraz z rzutnikiem,
tablicą interaktywną lub dużym telewizorem, na którym może wyświetlić wykorzystywane
. Brak takiego sprzętu w sali dydaktycznej najczęściej spowodowany jest kwestiami
finansowymi, ponieważ zakup i zamontowanie takiego zestawu wiąże się z poniesieniem
przez szkołę znacznych kosztów. Brak komputera na stanowisku nauczyciela nie zamyka
jednakże drogi do wykorzystania zasobów Internetu w trakcie zajęć. Z pomocą przychodzi
tutaj fakt, że uczniowie obecnie bardzo często posiadają własne urządzenia przenośnie z
dostępem do Internetu mobilnego.
Różne badania pokazują, że w ostatnich latach dynamicznie wzrasta popularność
Internetu mobilnego: z roku na rok coraz więcej osób korzysta z sieci bezprzewodowo,
używając do tego urządzeń mobilnych – smartfonów, tabletów i laptopów6. Dzieje się tak,
ponieważ koszty pakietów internetowych oferowanych przez polskich operatorów sieci
komórkowych systematycznie maleją a dodatkowo wzrasta prędkość transmisji danych.
Dzięki temu możliwe było stworzenie i spopularyzowanie mediów strumieniowych. Jest
to nowe, pozytywne zjawisko, którego dynamiczny rozwój obserwujemy w ostatnich
latach. Użytkownicy Internetu rzadziej niż wcześniej pobierają z sieci pliki oraz częściej
oglądają przez Internet telewizję, filmy i inne materiały wideo7. Jest to istotne z punktu
widzenia analizowanego zagadnienia, ponieważ uczeń może korzystać na lekcji języka
obcego z zasobów internetowych z własnego urządzenia mobilnego nie tracąc czasu na
jego pobranie.
Model korzystania przez uczniów z własnego sprzętu, zwany BYOD8, można z
powodzeniem zastosować w nauczaniu języków obcych. Wykorzystując taki model uczeń
przynosi swoje urządzenie mobilne. Większość takiego sprzętu posiada wbudowany moduł
WiFi, dlatego uczeń nie musi zużywać swojego pakietu internetowego. Warunkiem jest
jednak zapewnienie przez szkołę dostępu do sieci bezprzewodowej. Należy mieć jednak na
uwadze fakt, że założenie i utrzymanie sieci bezprzewodowej wymaga od szkoły
poniesienia dodatkowych kosztów. Warto też zwrócić uwagę na to, że model BYOD
wychodzi z założenia, że „uczniowie swój sprzęt (smartfony, tablety, laptopy) i tak mają
oraz chcą i potrafią z niego sprawnie korzystać”9. Jednakże nie każdy uczeń posiada takie
urządzenie mobilne. W takim wypadku ćwiczenia i testy kilku uczniów może wykonywać
na jednym urządzeniu. Zastosowanie takiego modelu pracy – zespołowego lub
dwuosobowego pozwala zapewnić wystarczającą liczbę urządzeń. Zaletą takiego
rozwiązania jest umożliwienie uczniom dyskutowanie różnych wariantów odpowiedzi
6 „Korzystanie z internetu” – badania CBOS NR 92/2016. Źródło:
http://www.cbos.pl/SPISKOM.POL/2016/K_092_16.PDF 7 Ibidem 8 Bring Your Own Device (ang.) – przynieś swój sprzęt 9 Zob.: BYOD - Jak wykorzystać własny sprzęt uczniów w szkole
http://www.ldc.edu.pl/phocadownload/Nowe_produkty/poradniki/poradnik_sprzet_do_szkoly.pdf
38
Krzysztof Bałaban
Internet w pracy nauczyciela języków obcych 2017
przed ich ostatecznym wyborem. Może to stanowić zaczątek do wzajemnego
przekonywania się uczniów do słuszności swoich racji.
Słowniki, translatory i korpusy językowe
W Internecie dostępne są obecnie liczne słowniki, translatory i korpusy językowe.
Wykorzystując darmowe słowniki online można poszukiwać odpowiedzi na nurtujące
nauczyciela czy uczniów pytania dotyczące znaczeń nowych słów. Słowniki online oferują
ogromną ilość haseł w wielu językach, np. Ling.pl zawiera aktualnie ponad 4,5 miliona
haseł oraz ponad 20 mln znaczeń w 7 językach10. Obecnie słowniki internetowe mogą
łączyć w sobie kilka opcji. Oferują bezpłatny dostęp nie tylko do olbrzymich baz danych
słownikowych, ale prezentują przy okazji wiele przykładów użycia wyszukiwanych słów,
jak również unikalne frazy i wyrażenia ułatwiające dobranie odpowiedniego słowa w
przypadku istnienia wielu jego znaczeń. Przykładem takiego darmowego wielojęzycznego
słownika jest Glosbe.com połączony z wyszukiwarką w korpusach równoległych.
Oprócz słowników i różnych translatorów11 dostępnych online uczeń i nauczyciel
mają do dyspozycji korpusy językowe, będące jedną z części językoznawstwa
komputerowego, zajmującego się analizą języka zgromadzonego w komputerowych
zbiorach autentycznych tekstów językowych, mówionych i pisanych, reprezentujących
różne odmiany, style i typy tekstu (czyli korpusach językowych). W przeszłości
wykorzystywane były do badań naukowych, ale obecnie są powszechnie dostępne w
Internecie i stały się nieocenioną pomocą dydaktyczną.
Zastosowanie w nauczaniu języków obcych korpusów językowych wspiera
podejście komunikacyjne, a w szczególności założenie o autentyczności przedstawianego
uczniom języka. Nacisk w tym podejściu położony jest głównie na naukę zwrotów i
wyrażeń używanych w codziennej komunikacji, a zwłaszcza w sytuacjach, w których
uczniowie sami mogą się znaleźć, takich jak pytanie o drogę. Ponadto, w miarę możliwości,
uczniowie powinni mieć kontakt z językiem w takiej formie, jaka jest używana w
rzeczywistości przez rodzimych użytkowników. Z tego względu nauczyciele powinni
posługiwać się materiałami autentycznymi, nawet w pracy z uczniami na niskich
poziomach zaawansowania, po to, by umożliwić im kontakt z takim językiem i
przygotować ich do radzenia sobie w rzeczywistych sytuacjach, także przy braku
wystarczających środków językowych (zob. Leńko-Szymańska 2005, s.222).
Dzięki darmowym programom do obsługi tekstów nauczyciele języków obcych
mogą konstruować własne minikorpusy i na ich podstawie wybierać częstsze lub rzadsze
słowa, najbardziej interesujące konteksty, a także konstruować materiały dydaktyczne w
oparciu o autentyczne dane językowe. Możliwość dostępu online do korpusów językowych
daje nauczycielom języków obcych dodatkowe narzędzie do celów dydaktycznych
pozwalające na uzupełnienie materiału z podręcznika czy samodzielne dobieranie tekstów.
Innym udogodnieniem dostępnym online, ułatwiającym naukę języka obcego są
materiały wideo.
10 Źródło: https://ling.pl/ 11 Przykładowo: https://translate.google.pl/,
https://www.bing.com/translator
39
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
Materiały wideo dostępne online
Nauka języków obcych z pomocą materiałów wideo dostępnych w Internecie została
spopularyzowana głównie przez serwisy typu YouTube.com. Umożliwiają one bezpłatne
umieszczanie i strumieniowe odtwarzanie filmów. Popularność tego typu serwisów wynika
nie tylko z możliwości darmowego oglądania różnych materiałów wideo, ale również
nieograniczonego dodawania swoich własnych produkcji. Twórca filmu nie ponosi
żadnych kosztów związanych z zamieszczaniem, przechowywaniem i udostępnianiem
swoich materiałów wideo, a dodatkowo nie musi posiadać specjalistycznej wiedzy
technicznej w tym zakresie. Dzięki temu na serwisach typu YouTube znajduje się mnóstwo
materiałów dla osób uczących się języków obcych, często tworzonych przez
profesjonalnych lektorów, czy też native speakerów.
Poza tym podczas oglądania filmów czy seriali w nauczanym języku istnieje
możliwość równoczesnego wyświetlania napisów. Jest to funkcja bardzo przydatna
podczas odtwarzania teledysków różnych piosenek, ponieważ wyświetlany jest ich tekst.
Stanowi to duże udogodnienie w nauce języka obcego, szczególnie dla osób, które są
wzrokowcami.
Materiały wideo dostępne w serwisach typu YouTube pozwalają wzbogacić i
urozmaicić treści dostępne w podręcznikach. Z doświadczenia dydaktyków wynika, że
krótki film może stać się inspiracją dla nauczyciela języka obcego i pomóc mu w
stworzeniu zróżnicowanych pod względem metodycznym zajęć (zob. Klimek 2010).
Wieloletni dydaktyk Dorota Klimek podkreśla, że wzbogacenie zajęć krótkim filmem
sprawia, że przestają być one monotonne. Ćwiczenia bazujące na materiałach wideo
wykorzystują większość komponentów nauczania, ze szczególnym uwzględnieniem
rozumienia ze słuchu, mówienia i nauki słownictwa. Dodatkowo ze swoich obserwacji
Klimek zauważa, że studenci „bardzo aktywnie uczestniczą w zajęciach, których punktem
wyjściowym jest krótki film; stanowi to dla nich pewną atrakcyjną odmianę wobec
typowych zajęć opartych na podręczniku do nauki języka obcego. Rozbudzając ich
zainteresowanie, zwiększamy też motywację, będącą nieodłącznym składnikiem sukcesu
w przyswajaniu nowego materiału” (zob. Klimek 2010, s.103).
Wirtualne spacery
Wirtualny spacer jest możliwy poprzez interaktywne mapy dostępne online.
Przykładowo wykorzystując Google Street View siedząc przed ekranem monitora można
odkrywać zabytki z całego świata, podziwiać cuda natury i zwiedzać wnętrza różnych
obiektów m.in. muzeów i stadionów. Taka forma zwiedzania stanowi aktualne i
kompleksowe źródło informacji. Powstaje też wiele portali, jak wirtualnykraj.pl, na
których można obejrzeć panoramy wyjątkowych miejsc bądź trójwymiarowe obiekty,
m.in. pomniki. Zastosowanie takich atrakcyjnych graficznie i łatwych do obsługi przez
użytkowników darmowych zasobów internetowych może być przydatne w nauczaniu
języków obcych przy rozwijaniu sprawności mówienia. Nauczyciel oprowadzając uczniów
ulicami miasta, które jest związane z nauczanym językiem, prosi ich o równoczesne
opowiadanie o miejscach, które widzą.
Darmowe konsultacje z native speakerem
40
Krzysztof Bałaban
Internet w pracy nauczyciela języków obcych 2017
Konsultacje z native speakerem, czyli osobą dla której nauczany język jest językiem
podstawowym, doskonale poprawiają wymowę i akcent. Niestety taka forma nauczania jest
zwykle bardzo droga. Wykorzystując nowe narzędzia internetowe możliwe stało się
uzyskanie darmowych konsultacji z native speakerem. Taką możliwość dają darmowe
komunikatory umożliwiające kontaktowanie się z ludźmi na całym świecie. Przykładowo
program Skype pozwala prowadzić za darmo rozmowy tekstowe, głosowe i wideo. Oprócz
komunikatorów powstają również bezpłatne aplikacje typu HiNative. Jest to platforma
Q&A dla osób uczących się języków. Aktualnie dostępna jest na smartfony z systemem
Android i iOS. Za jej pośrednictwem można zadawać native speakerom z całego świata
pytania dotyczące ich języka i kultury. W nauce języków obcych uzyskanie takiej formy
pomocy jest bardzo przydatne. Dużym plusem jest możliwość zadawania pytań i udzielania
odpowiedzi w formie audio. Jest to niezwykle istotne dla osób, które chciałyby, żeby ich
wypowiedzi pisemne i wymowa zostały sprawdzone przez native speakera. HiNative
można wykorzystać w celu otrzymania szybkiego tłumaczenia, pomocy w nauce podstaw
językowych lub indywidualnej opinii dotyczącej wypowiedzi pisemnej w obcym języku.
Testy językowe
Testy językowe stanowią atrakcyjną formę nauki języka obcego. Aktualnie
oferowane testy udostępnione online na portalach typu Duolingo.com starają się mieszać
różne techniki: słuchania, pisania, czytania i mówienia.
Duolingo oferuje naukę poprzez minilekcje. Plusem nauki z Duolingo jest inteligentny
algorytm który stara się zapamiętywać błędy użytkownika, by później do nich wracać. W
przypadku, jeżeli uczeń pomyli się kilka razy to program oprócz dodania nieprawidłowych
odpowiedzi do powtórki, nie zalicza danego działu i nie udostępnia przejścia do następnej
lekcji. Natomiast jeżeli uczeń pomyli się tylko raz lub dwa to dany dział zostaje mu
zaliczony a słowo, które wpisał błędnie zostanie umieszczone w następnej lekcji. Będzie
mógł wtedy poprawić swój błąd i udzielić prawidłowej odpowiedzi. Oprócz aktualnych
postępów w nauce uczeń otrzymuje dodatkowo gloryfikacje w postaci gwiazdek w różnych
kolorach i punktów, co ma stanowić dodatkową zachętę do nauki, ponieważ swoje wyniki
uczeń może porównywać z rezultatami innych użytkowników portalu.
Minusem Duolingo jest jednak to, że portal duży nacisk kładzie na uczenie się
pojedynczych słówek niż na rozwijanie umiejętności posługiwania się zwrotami.
Fiszki
Fiszka rozumiana jako niewielki kawałek papieru z hasłem lub słówkiem na awersie
oraz jego tłumaczeniem na rewersie jest bardzo pomocna w przypadku systematycznego
uczenia się języków obcych. Takie kartonikowe fiszki można kupić lub wykonać samemu.
Warto jednak skorzystać z bogatych zasobów platform typu Quizlet.com umożliwiających
pracę na wirtualnych fiszkach. Nauczyciel zyskuje dzięki niemu bezpłatne narzędzie do
nauki słownictwa.
Nauczyciel może z pomocą tego portalu urozmaicić lekcję wprowadzając zadanie z
wykorzystaniem fiszek. Fiszki interaktywne dostępne za pośrednictwem tego portalu
można wykorzystać na zajęciach z dowolnego przedmiotu, ale szczególnie nadaje się do
użycia na lekcjach języka obcego. Na portalu Quizlet nauczyciel może wybrać spośród
miliona gotowych zestawów fiszek lub stworzyć od podstaw swój własny albo
zmodyfikować istniejący i udostępnić go uczniom w trakcie zajęć. Użytkownik portalu ma
41
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
do dyspozycji sześć rodzajów ćwiczeń. Cztery przeznaczone do nauki, zatytułowane są
„Fiszki”, „Uczę się”, „Ćwiczenie pisowni” i „Test”. Dostępne są też dwa ćwiczenia w
postaci gry edukacyjnej, zatytułowane „Dopasowania” i „Grawitacja”.
Fiszki interaktywne od tradycyjnych wyróżnia możliwość odsłuchania wymowy
nauczanego słowa, śledzenia postępu nauki i liczby pozostałych w ramach ćwiczenia
wyrazów, a także atrakcyjna forma prezentacji. Urozmaicona jest ona kilkoma zadaniami
polegającymi na podaniu tłumaczenia wyświetlonego wyrazu, ćwiczeniu ze słuchu
wymagającym od ucznia napisania tego, co słyszy, a także rozwiązaniu testu wielokrotnego
wyboru.
Ciekawą formą ćwiczenia jest gra „Dopasowania” będąca interaktywną rozsypanką
słów. Rozrzucone po ekranie słowa należy dopasować do ich tłumaczeń. Poprawne
dopasowanie usuwa parę słów, a niepoprawne ponownie je rozrzuca. Trudniejszym
ćwiczeniem jest gra „Grawitacja”. Po rozpoczęciu gry, od góry ekranu spadają asteroidy z
wyrazami, przemieszczając się w kierunku planety. Zadanie ucznia polega na wpisaniu
tłumaczenia pojawiających się słówek zanim „dolecą” do planety, by zniszczyć ją i
zakończyć zabawę.
Postcasty
Postcasty stanowią formę internetowej publikacji dźwiękowej lub filmowej12,
najczęściej w postaci regularnych odcinków, z zastosowaniem technologii RSS13.
Korzystanie z nich w przypadku nauczania języków obcych zostało spopularyzowane od
momentu wprowadzenia do sprzedaży dedykowanych odtwarzaczy muzycznych14.
Jednakże do skorzystania z postcastu wystarczy komputer odtwarzający cyfrowe pliki
dźwiękowe (np. w formacie MP3) lub pliki wideo w przypadku postcastu wideo – tzw.
Videocastu, oraz oprogramowanie pobierające i katalogujące transmisje na podstawie
informacji zawartych w publikowanych razem z postcastami plikach RSS. Postcast może
mieć formę nieformalnego bloga, profesjonalnej audycji radiowej, kursu językowego lub
odcinków historii czytanej przez lektora.
W przypadku wykorzystania materiałów online w postaci podcastów, czy też
czytania różnych tekstów w nauczanym języku najważniejszy jest fakt, że uczeń robi coś,
co sprawia mu przyjemność a jednocześnie zdobywa nową wiedzę.
Podsumowanie
Reasumując, należy podkreślić, że wykorzystanie w procesie nauczania materiałów
dostępnych w Internecie jest ważnym elementem, pozytywnie oddziałującym na uczniów.
Internet przenikając do pracy nauczyciela języków obcych w decydującym stopniu zmienia
metodykę nauczania języków obcych. Na zakończenie warto podkreślić, że umiejętne
wykorzystanie zasobów dostępnych w Internecie znacznie poszerza wiedzę i zwiększa
spektrum doświadczeń ucznia. Efektywne ich wykorzystywanie podczas zajęć językowych
oraz skuteczne nauczanie z udziałem wirtualnej rzeczywistości powinno być jednym z
celów nauczania jakie stawiają sobie współcześnie nauczyciele języków obcych. Ważne
jest jednak umiejętne zachęcenie ucznia do przejęcia części odpowiedzialności za proces
12 https://pl.wikipedia.org/wiki/Podcasting#cite_note-1 13 RSS – umowna rodzina języków znacznikowych do przesyłania nagłówków wiadomości i nowości na
wybranych stronach. Źródło: https://pl.wikipedia.org/wiki/RSS 14 https://podcastsportowy.wordpress.com/podcast-a-co-to-jest/
42
Krzysztof Bałaban
Internet w pracy nauczyciela języków obcych 2017
przyswajania wiedzy a także wskazanie jak uczniowie sami mogą wybrać wartościowe
treści dostępne online, które będą im pomocne w nauce języka obcego.
Bibliografia
1. Klimek D., Film na lekcji języka angielskiego – propozycja zajęć [w:] Zeszyty
Glottodydaktyczne, Zeszyt 2, Kraków 2010, s. 99-107.
2. Kopyść P., Wybrane metody oceny użyteczności stron i aplikacji internetowych,
Kraków 2014.
http://krainabiznesu.pl/wp-content/uploads/sites/2/2014/04/White_Paper-
Wybrane_metody_oceny_uzytecznozci_stron_i_aplikacji_internetowych.pdf
3. Korzystanie z internetu – badania CBOS NR 92/2016.
http://www.cbos.pl/SPISKOM.POL/2016/K_092_16.PDF
4. Leńko-Szymańska A., Korpusy w nauczaniu języków obcych [w:]
B.Lewandowska-Tomaszczyk (red.), Podstawy językoznawstwa korpusowego,
Łódź 2005.
5. Mazepa H., Zastosowanie animacji komputerowej w dydaktyce języka obcego
zawodowego, „Języki Obce w Szkole” 2016, nr 3, s.47-51.
6. Nauczanie polisensoryczne [w:] szkolnictwo.pl,
http://www.szkolnictwo.pl/index.php?id=PV1070
7. Postcasty [w:] pl.wikipedia.org, podcastsportowy.wordpress.com
https://pl.wikipedia.org/wiki/Podcasting#cite_note-1;
https://pl.wikipedia.org/wiki/RSS;
https://podcastsportowy.wordpress.com/podcast-a-co-to-jest/
8. Siemieniecka-Gogolin D., Nauczyciel dorosłych dla społeczeństwa
informacyjnego, [w:] E.Perzycka (red.), Nauczyciel jutra, Toruń 2006.
Internet at the work of a foreign language teacher
Summary: The article discusses the importance of the Internet in the work of a foreign language
teacher. The aim of the study was to outline the benefits of using the Internet in the teaching of
foreign languages with examples illustrating the possibilities of exploiting the potential of contact
with such media.
Key words: Internet, teacher, teaching, foreign languages
43
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
Paulina Julita Laskowska
Szkoła Główna Gospodarstwa Wiejskiego w Warszawie
Informatyka w rolnictwie, czyli rolnictwo precyzyjne
Streszczenie: W związku z coraz szybszym rozwojem technologii wkracza ona w coraz to różniejsze
dziedziny życia. Ze względu na swoje wielorakie zastosowanie informatyka znajduje coraz szersze
zastosowanie w rolnictwie. Gospodarowanie wspomagane komputerowo zostało nazwane
rolnictwem precyzyjnym. Opiera się ono na gromadzeniu danych o przestrzennym zróżnicowaniu
plonów w obrębie pola. Na podstawie zgromadzonych danych w konkretnych miejscach stosowane
są agrochemikalia w odpowiednich dawkach. Zastosowanie technologii wiąże się z kosztami zakupu
nowoczesnych maszyn, ale w przyszłości koszty produkcji rolnej będą znacznie niższe. Zastosowanie
w gospodarstwie zasad rolnictwa precyzyjnego pozytywnie wpływa na ograniczenie skażenia
środowiska.
Słowa kluczowe: rolnictwo, informatyka, rolnictwo precyzyjne
Wstęp
Rolnictwo, aby przynosiło satysfakcjonujące zyski, musi opierać się na
zastosowaniu odpowiedniej wiedzy oraz być gotowe na wdrażanie nowoczesnych
technologii, które usprawnią procesy zachodzące w gospodarstwie, odciążając właścicieli
od nadmiaru obowiązków, chroniąc środowisko i zachowują bezpieczeństwo
produkowanej żywności. Jest wiele definicji rolnictwa precyzyjnego, ale w każdej z nich
autorzy stwierdzają, że jest to zespół technologii tworzących kompleksowy system
rolniczy. Jego elementy są dostosowane do poszczególnych upraw. Wykorzystanie
rolnictwa precyzyjnego pozwala na ekonomiczne i racjonalnie zastosowanie środków
ochrony roślin. Zastosowanie rolnictwa precyzyjnego rozpoczyna się od pozyskania
informacji i zapisu na mapach przestrzennych. Informacje dotyczą przestrzennej i czasowej
zmienności cech roślin oraz środowiska i warunków zewnętrznych. Zgromadzone dane
informują o właściwości gleb, roślin, agrofagów rośli, szacowanych plonach i identyfikacji
miejscowej zmienności. Na podstawie zgromadzonych informacji tworzone są mapy z
danymi glebowymi i roślinnymi. Następnie tworzone są modele i mapy aplikacji. Na
podstawie map następuje siew, nawożenie i ochrona roślin. Dawki środków są
odpowiednio skonkretyzowane dla każdego miejsca na polu. W obecnym czasie kluczową
rolę w świadomości wszystkich mieszkańców Ziemi odgrywa ekologia. Dlatego rolnictwo
precyzyjne ma na celu oszczędność środków, ochronę środowiska, zdrowia i życia ludzi
oraz zwierząt.
Zasady rolnictwa precyzyjnego
Pierwszym kluczowym elementem rolnictwa precyzyjnego jest zbieranie
dokładnych i rzetelnych informacji dotyczących wartości mikro i makroskładników
znajdujących się w glebie na badanym obszarze (Faber, 1998, s. 4-15). Zbiórka,
przetwarzanie i analiza informacji odbywają się w ramach Systemu Informacji
Przestrzennej SIP. Obejmuje ona odpowiednie narzędzia, metody oraz oprogramowanie
44
Paulina Julita Laskowska
Informatyka w rolnictwie, czyli rolnictwo precyzyjne 2017
specjalnie przeznaczone do tego celu. Na podstawie sporządzonych map tworzy się bazy
danych i dokumentacji. Ma to późniejsze zastosowanie w zarządzaniu procesami produkcji
oraz pracy maszyn podczas zabiegów odbywających się na polu. Zgromadzone i
przeanalizowane informacje pozwalają podjąć trafne decyzje dotyczące właściwego
kierunku nawożenia, ustalania dawek nawozów, zabiegów ochrony roślin oraz ich
zmiennej aplikacji (Faber, 1998, s. 16-27). Ma to także zastosowanie podczas siewu roślin
lub zmiany parametrów roboczych maszyn rolniczych. Na rysunku 1 przedstawiono mapę
z naniesionymi informacjami dotyczącymi zasobności gleby w magnez.
Rysunek 1. Mapa zasobności w magnez
Źródło: http://rolnictwogps.pl (dostęp 31.05.2017).
Kolorem najciemniejszym są zaznaczone miejsca, w których zasobność w magnez
jest bardzo duża. Im kolor jest jaśniejszy (w pewnych miejscach dochodzi nawet do
białego), tym zasobność gleby w ten pierwiastek jest mniejsza. Wielkość plonu zebrana w
różnych częściach pola jest różna i zależna od produktywności. Większy plon w danym
miejscu oznacza, że rośliny tam pobrały większe ilości makro- i mikroorganizmów. Jest to
znak, że należy w tym miejscu zwiększyć nawożenie. Dane dotyczące wielkości plonu
pozyskiwane są dzięki urządzeniom, które zamontowane są w maszynach zbierające plony,
głównie są to kombajny zbożowe. Aby system działał prawidłowo konieczne jest jego
wyposażenie w dodatkowy komputer pokładowy i odbiornik GPS. Czujnik
odpowiedzialny za pomiar plonu w chwili zbioru działa na następujących zasadach:
45
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
• pomiar objętościowy zebranego ziarna,
• pomiar masy zebranego ziarna. Dodatkowo podczas zbioru może być określona wilgotność ziarna. Dzięki
zamontowanemu w maszynie odbiornikowi GPS znane jest dokładne położenie kombajnu.
Położenie może być określone z dokładnością do nawet kilku centymetrów. Oba
urządzenia połączone są przez komputer, który umożliwia późniejsze przeniesienie
uzyskanej mapy plonów z kart pamięci do komputera stacjonarnego. Na podstawie
stworzonej mapy sprawdzane są miejsca zróżnicowania wielkości plonów. Możliwe jest
uzyskanie w tym przypadków także informacjo o całkowitym zbiorze z danego pola.
Oprócz wyżej wymienionych informacji możliwe jest pozyskanie także danych o jakości
zbiorów, na podstawie których tworzone są mapy jakości zebranego ziarna.
Rolnictwo precyzyjne, obok informacji dotyczących jakości i wielkości plonów,
daje możliwość zaplanowania odpowiedniej ochrony przed chorobami, chwastami i
szkodnikami. Obecnie najbardziej powszechnym sposobem oceny porażenia roślin przez
choroby jest teledetekcja. Za pomocą odpowiednio przystosowanych do tego urządzeń
wykonuje się zdjęcia satelitarne, lotnicze i naziemne w podczerwieni. Rośliny porażone
czynnikiem chorobotwórczym wykazują mniejszą absorpcję fal czerwonych. Jednak z
doświadczenia wynika, że ten sposób oceny jest niejednoznaczny i należy zastosować
dodatkową metodę. Najczęściej w takich wypadkach stosuje się metodę tradycyjną
polegającą na ocenie plantacji w wielu punktach bezpośrednio. Na podstawie danych
zgromadzonych z oceny sporządzana jest mapa, na której naniesione są miejsca
występowania choroby. Dawka środka chemicznego zwalczająca chorobę jest określana na
podstawie danych z map oraz wielkości i zagęszczenia łanu (Jadczyszyn, 1998, s. 28-39).
Rolnictwo precyzyjne wymaga od właścicieli gospodarstw ciągłej i ścisłej oceny wielkości
nasilenia i rodzaju zachwaszczenia na obszarze danego pola. Przyjmuje się, że na polu
zachwaszczenie występuje w różnym nasileniu. Tak jak w poprzednim wypadku stopień i
rodzaj zachwaszczenia mogą zostać określone za pomocą teledetekcji wykorzystując do
tego urządzenia satelitarne, lotnicze i naziemne. Stosowane są również kamery montowane
z przodu ciągnika, które dokonują identyfikacji zachwaszczenia. Na podstawie danych
pozyskanych w taki sposób ustala się dawkę oprysku, a następnie ją aplikuje w miejscach
dotkniętych zachwaszczeniem (Walaszczyk, 2012, s. 878-879). W ramach rolnictwa
precyzyjnego stosowane jest również ochrona roślin za pomocą środków
agrochemicznych. Idealnym rozwiązaniem w tym wypadku jest stosowanie jak
najmniejszej ilości środka chemicznego, tylko wtedy i gdzie jest to konieczne i niezbędne.
Wprowadzenie w życie zasad rolnictwa precyzyjnego daje właścicielom takie możliwości
obniżając przy tym koszty użycia pestycydów i zwiększając jakość plonów. Do głównych
celów rolnictwa precyzyjnego zalicza się ograniczenie dawek stosowanych chemikaliów
oraz wielkości powierzchni, na których są używane. Należy podkreślić, iż ograniczenie
stosowania środków ochrony roślin nie powoduje obniżenia ochrony roślin, a co za tym
idzie zmniejszenia ilości i jakości plonów.
Prawidłowość całego systemu rolnictwa precyzyjnego jest nierozerwalnie związana
ze stosowanymi maszynami. Zmienny system dawkowania VRA, czyli Variable Rate
Aplication jest najczęściej wykorzystywane w rolnictwie precyzyjnym. Na podstawie
sporządzonych map na obszarze pola stosowane jest zróżnicowane dawkowanie środka
ochrony roślin lub zmienny wysiew nasion. W systemie VRA wykorzystywany jest
komputer polowy z GPS i właściwym oprogramowaniem, połączony z komputerem
znajdującym się na maszynie aplikującej nawóz lub środek ochrony roślin. Aby ten system
działał prawidłowo w pierwszej kolejności należy wprowadzić do niego wcześniej
przygotowaną w komputerze stacjonarnym mapkę aplikacyjną, na której są przydzielone
odpowiednie dawki. Podczas jazdy maszyny po obszarze pola GPS podaje dokładnie
46
Paulina Julita Laskowska
Informatyka w rolnictwie, czyli rolnictwo precyzyjne 2017
położenie, a następnie system VRA przekazuje informacje o potrzebnej dawce dla miejsca,
w którym się znajduje do komputera maszyny aplikującej. Nawóz lub środek jest
automatycznie dawkowany we wcześniej zaplanowanych ilościach na konkretnym miejscu
na polu. W sytuacji, gdy wymagany jest zróżnicowany poziom zasobności w składniki
odżywcze, możliwe jest zaprogramowanie zmiennego wysiewu kilku nawozów
jednocześnie, a nawet każdego nawozu ze zmiennym dawkowaniem. Stosowanie maszyn
wyposażonych w maszyny niesie za sobą wiele korzyści, m.in. szybką i prostą kalibrację,
co zwiększa efektywność systemu VRA. Istnieje możliwość zmiany dawki środka ochrony
roślin, nawozu lub nasion w trakcie trwania zabiegu. Większość aplikacji
wykorzystywanych w rolnictwie precyzyjnym wykonuje swoją prace w „czasie
rzeczywistym”, nie ma tu znaczenia prędkość poruszania się maszyny. Ogólnie rzecz
ujmując, najwięcej pracy i czasu pochłania stworzenie precyzyjnych map. Aby uzyskać
pożądane efekty istnieje konieczność określenia niedoboru składnika i wykonanie zabiegu
nawożenia w czasie rzeczywistym. Ułatwieniem w tym wypadku jest zastosowanie
sensorów lub urządzeń do pomiaru gęstości uprawy. Sensor skanuje podczas jazdy
otoczenie ciągnika i przeprowadza analizę promieniowania odbitego od roślin. Sensor
wykonuje identyfikację zmian odbicia i przelicza informację o stanie chlorofilu na
wymaganą dla danego miejsca dawkę nawozu. System VRA znajduje zastosowanie nie
tylko w rozsiewaczach nawozów, lecz również w siewnikach i opryskiwaczach. W tych
maszynach zmienne dawkowanie jest możliwe dzięki włączaniu i wyłączaniu
odpowiednich sekcji opryskiwacza. Dzięki zastosowaniu układów identyfikacji obecności
lub braku roślin w uprawach sadowniczych lub warzywniczych można zauważyć
oszczędności dużych ilości środków ochrony roślin. Zauważane oszczędności sięgają od
20% do 80%, zachowując taką samą, a w niektórych przypadkach nawet wyższą
skuteczność biologiczną. Wolne przestrzenie w rzędach drzew w sadach są identyfikowane
za pomocą czujników optycznych lub ultradźwiękowych. Gdy maszyna wykryje wolne
miejsca, w którym nie ma rośliny zamyka dysze opryskiwacza w takim miejscu. Takie
same czynności często mają miejsce podczas ochrony upraw warzywnych.
Rolnictwo precyzyjne podczas większości działań wykorzystuje pozycjonowanie.
Jest to najlepiej rozwinięty element rolnictwa precyzyjnego. System GPS charakteryzuje
się tym, że działa globalnie i kompleksowo. System GPS korygowany jest przez system
różnicowy DGPS i pozwala na dużą dokładność pozycjonowania. Jest to bardzo istotny
element w rolnictwie precyzyjnym, ponieważ wiarygodność mapowania plonów i
zmienności glebowej wymaga pozycjonowania poniżej 1 metra. W przypadkach
stosowania koncepcji indywidualnego podejścia do roślin lub pojedynczych roślin
pozycjonowanie musi być jeszcze większe. Podczas mikro opryskiwania nanosi się mikro
dawki cieczy użytkowej, kierowanej na pojedyncze liście chwastu, który został wcześniej
zidentyfikowany za pomocą cyfrowej kamery i komputerowej analizy obrazu. Podczas
nawożenia, oprysku i wysiewu nasion metodą tradycyjną istnieje możliwość
nierównomiernego wykonania tych zabiegów i ryzyko powstania omijek lub zakładek.
Zastosowanie nawigacji równoległej wykorzystując GPS pozwala bez względu na
panujące warunki i ukształtowanie pola prowadzić maszyny po pasach równoległych
niwelując te wady (Dominik, 2010, s. 15-17). Zestaw maszyn kierowany jest na podstawie
wskazań urządzeń lub stosowane jest prowadzenie automatyczne. Dzięki systemowi
istnieje możliwość wykonania zabiegów pełną szerokością maszyny. W czasie
wykonywania tych prac stosowane jest zmienne dawkowanie VRA na podstawie map
zaleceń dotyczących nawożenia, opryskiwania lub wysiewu nasion. Dzięki takiemu
rozwiązaniu właściciel uzyskuje oszczędność środków ochrony roślin i nawozów.
Zastosowanie systemu VRA daje również gwarancję, że dawkowanie dostosowane jest do
47
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
zasobności gleb w składniki mineralne i potrzeb roślin. Rysunek 2 przedstawia jak działa
w praktyce system automatycznego prowadzenia.
Rysunek 2. System automatycznego prowadzenia
Źródło: www.agrohandel.com.pl (dostęp: 01.06.2017)
Podsumowanie
Wdrażanie zasad rolnictwa precyzyjnego nie musi wiązać się z dużymi kosztami i
wprowadzenia działań rewolucyjnych w gospodarstwie. Nie wszystkie zasady muszą być
wdrażane jednocześnie. Na początek zaleca się wprowadzenie uproszczonych form
rolnictwa precyzyjnego wprowadzając tylko niektóre elementy. W Polsce większość pól
jakie mają rolnicy jest małej powierzchni i występują na nich małe zróżnicowanie glebowe.
Dlatego, aby obniżyć koszty, rolnik sam może pobrać próbki glebowe w kilku punktach na
polu, a plon określić ważąc go z poszczególnych pól. Takie czynności pozwolą na
zaplanowanie racjonalnego nawożenia i siania. Obecnie zasady rolnictwa precyzyjnego,
nawet te tradycyjne, są stosowane w niewielkiej liczbie gospodarstw, szczególnie tych
małych. Aby rolnictwo precyzyjne było odpowiednio wdrażane konieczna jest
specjalistyczna wiedza i świadomość potrzeby zmian. Obecnie ze względu na zmieniający
sie klimat coraz większy nacisk kładzie się na ochronę środowiska, więc zasady rolnictwa
precyzyjnego znajdują tutaj zastosowanie.
48
Paulina Julita Laskowska
Informatyka w rolnictwie, czyli rolnictwo precyzyjne 2017
Bibliografia
1. Dominik A., System rolnictwa precyzyjnego, wyd. Centrum Doradztwa
Rolniczego w Brwinowie Oddział w Radomiu, Radom 2010, s. 15-17.
2. Faber A. System rolnictwa precyzyjnego. I. Mapy plonów. Fragmenta
Agronomica 57, Radom 1998, s. 4-15. 3. Faber A. System rolnictwa precyzyjnego. II. Analiza i interpretacja map plonów.
Fragmenta Agronomica 57, Radom 1998, 16-27.
4. Jadczyszyn T., System rolnictwa precyzyjnego. Nawożenie w rolnictwie
precyzyjnym. Fragmenta Agronomica 57, Wrocław 1998, s. 28-39.
5. Walaszczyk A., Systemy informacyjne w rolnictwie precyzyjnym [w]:
Konferencja Innowacje w Zarządzaniu i Inżynierii Produkcji, wyd. Polskie
Towarzystwo Zarządzania produkcją, Zakopane 2012, s. 878-879
Information technology in agriculture or precision agriculture
Summary: Due to the accelerated development of technology, it embraces increasingly diverse
areas of life. Owing to its multiple uses, IT is increasingly used in agriculture. Computer-aided
management has been called precision farming. It is based on the accumulation of data on the
spatial variability of yield within the field. Based on the collected data at specific sites,
agrochemicals are used at appropriate doses. The use of technology involves the purchase of
modern machinery, but in the future the cost of agricultural production is much lower. The
application of the principles of precision farming on the farm positively affects the reduction of
environmental pollution.
Key words: Agriculture, computer science, precision agriculture
49
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
Marcin Miazio
Koło Naukowe Studentów Matematyki GRAF
Uniwersytet Przyrodniczo – Humanistyczny w Siedlcach
Maszyny różnicowa i analityczna jako prototypy współczesnych
komputerów
Streszczenie: W artykule przedstawiona zostanie historia powstania projektów i zasady działania
dwóch maszyn matematycznych: maszyny różnicowej i analitycznej, będącymi mechanicznymi
odpowiednikami współczesnych komputerów. Podany zostanie krótki rys biograficzny ich twórcy
Charles'a Babbage'a, który był pionierem zastosowań matematyki w informatyce. Omówione
zostaną także obszary działania obu maszyn i ich możliwości, oraz współczesne plany dotyczące
budowy maszyny analitycznej w oparciu o pozostawione przez Babbage'a wytyczne.
Słowa kluczowe: matematyka, informatyka, maszyna różnicowa, maszyna analityczna, Charles
Babbage
Wstęp
Wielomianem nazywamy każde wyrażenie postaci a0+ a1x+ ….+ anxn, gdzie a0,
a1,… , an są liczbami rzeczywistymi. Jest to klasa funkcji, dla której, za pomocą zwykłego
dodawania i mnożenia, potrafimy obliczać każdą wartość rzeczywistą. Funkcje
wielomianowe są to tzw. funkcje różniczkowalne, czyli funkcje, dla których możliwe jest
obliczenie pochodnej. Studenci pierwszego roku studiów matematycznych dowiadują się
o jednej z najważniejszych własności wielomianów. Okazuje się, że dzięki wielomianom
można dowolnie dokładnie przybliżać każdą funkcję, której wykres jest linią ciągłą, bez
żadnych ostrych załamań. O takich funkcjach mówimy, że są nieskończenie wiele razy
różniczkowalne lub, że są klasy C∞ . Takie funkcje to np. funkcje trygonometryczne,
wykładnicze, logarytmiczne. Dla obliczenia wartości takich funkcji zwykłe mnożenie i
dodawanie nie wystarczy.
Przybliżanie funkcji wielomianami
Znane jest twierdzenie matematyczne, które mówi, że każdą funkcję nieskończenie
wiele razy różniczkowalną można dowolnie dokładnie przybliżać wielomianem w każdym
skończonym przedziale. Jednak w przeszłości przybliżanie to i tak przysparzało nie lada
problemów.
Sposoby wyznaczania wartości wielomianu
Istnieje wiele sposobów na wyznaczanie wartości wielomianu. Najprostszym
sposobem jest podstawianie danej wartości x do wzoru ogólnego wielomianu a0+ a1x+ …+
anxn. Ile będziemy musieli wykonać wtedy obliczeń? Pierwsze co trzeba zrobić, to obliczyć
wszystkie potęgi x od 2 do n czyli wykonać n-1 mnożeń. Następnie należy przemnożyć
wszystkie współczynniki ai przez wartości xi, gdzie i= 1, 2, …, n, tzn. kolejne n mnożeń.
W sumie musimy wykonać 2n-1 mnożeń. Na końcu musimy jeszcze zsumować
50
Paulina Julita Laskowska
Informatyka w rolnictwie, czyli rolnictwo precyzyjne 2017
poszczególne składniki wykonując n dodawań. Reasumując, do wyznaczenia n-tej wartości
wielomianu a0+ a1x+ …+ anxn należy wykonać w sumie 2n-1 mnożeń i n dodawań.
Czy istnieje inny, łatwiejszy sposób? Jak wiemy, mnożenie liczb sprawia więcej
problemów niż ich dodawanie. Dlatego lepszym sposobem byłoby zniwelowanie jak
największej ilości mnożeń. Do wzoru ogólnego wielomianu zastosować można schemat
Hornera. Otrzymana w ten sposób postać wielomianu jest następująca: a0+ x(a1+x(a2+
x(…+x(an-1+xan)…)) . I co dalej? W tym przypadku należy wykonywać obliczenia
następująco: na początku trzeba obliczyć iloczyn wartości x i an, następnie dodać an-1 i
otrzymany wynik przemnożyć przez x itd. W rezultacie do obliczenia n-tej wartości
wielomianu należy wykonać n mnożeń i n dodawań, czyli o n-1 mnożeń mniej, niż w
sposobie pierwszym.
Znany jest jeszcze jeden sposób, pozwalający na dodatkową redukcję liczby
mnożeń. Dla danego wielomianu W(x)= a0+ a1x+ …+ anxn wyznaczmy wielomian
W(x+1). Łatwo zauważyć, że zarówno stopień wielomianu W(x) i wielomianu W(x+1)
wynosi n, dodatkowo współczynniki przy najwyższej potędze (przy xn) dla obu
wielomianów wynoszą an. Obliczmy teraz różnicę W(x+1)- W(x) i oznaczmy ją przez
Δ(W(x)). Po wykonaniu powyższego odejmowania okazuje się, że stopień wielomianu
Δ(W(x)) wynosi już nie n, a n-1 (nastąpiła redukcja wyrazu anxn). Przykładowo dla W(x)=
4x4 + x3 – 6x2 +9 wielomian W(x+1)= 4x4 +17x3 +21x2 + 7x +8. Wielomian Δ(W(x))
obliczony w powyżej podany sposób ma postać Δ(W(x))= 16x3 + 27x2 +7x -1. Stopień
wielomianu zmniejszył się do 3 (4-1). Z wielomianem tym możemy postąpić podobnie jak
z wielomianem W(x). W rezultacie otrzymamy Δ(Δ(W(x))) , oznaczmy go jako Δ2(W(x),
którego stopień będzie równy 2. Możemy wykonać jeszcze dwie powyższe iteracje
otrzymując:
Δ0(W(x))=W(x)= 4x^4 + x^3 –6x^2+9
Δ(W(x))= 16x3 + 27x2 + 7x –1
Δ2(W(x))= 48x2 + 102x + 50
Δ3(W(x))= 96x + 150
Δ4(W(x))= 96
Łatwo zauważyć, że Δk(W(x)), gdzie k= 5,6, … będą równe 0. Wiemy, że Δ(W(x))=
W(x+1)- W(x) więc W(x+1)= W(x)+ Δ(W(x)). Podstawiając t= x+1 mamy W(t)= W(t-1)+
Δ(W(t-1)). Podobnie Δ(W(t-1))= W(t-2)+Δ(W(t-2))). Wykonując dalej obliczenia w
rezultacie otrzymujemy, że wartość W(x) jest to suma W(x-1) i wszystkich k-tych potęg Δ
dla argumentów x-k, gdzie k należy do {1,2,…,k}.
Powstaje pytanie, czy algorytm działa tylko dla naturalnych argumentów x. Okazuje się,
że nie. Powyższy sposób możemy stosować dla dowolnego, wymiernego α>0. Własności
Δ zostaną zachowane.
Podany powyżej sposób pozwala nam, poza obliczeniem początkowych wartości
wielomianu używając mnożenia i dodawania, obliczać jego kolejne wartości tylko i
wyłącznie za pomocą kilku dodawań. Metoda ta została nazwana metodą różnicową.
Charles Babbage- sylwetka twórcy
Charles Babbage był angielskim matematykiem i astronomem żyjącym w XIXw.
(1791-1871). Zajmował się konstruowaniem maszyn liczących i tworzeniem tablic
matematycznych m.in.: logarytmicznych. W wieku 26lat ukończył kolegium Peterhouse na
Uniwersytecie w Cambridge, po czym zaczął wykładać tam nauki ścisłe. Był wielkim
fascynatem liczb i ich gromadzenia w różnych tablicach, przez co przeszło 35 lat swego
51
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
życia spędził na projektowaniu maszyn liczących. Jego największymi osiągnięciami były
konstrukcje (choć niedokończone) maszyn: różnicowej i analitycznej.
Maszyna różnicowa
W czasach życia Babbage'a jedne z największych problemów ówczesnego świata
stanowiły bardzo skomplikowane obliczenia matematyczne. Trzeba było wykonywać je
ręcznie, co wymagało dużych nakładów czasu i pracy. Dokładne wyliczenia niezbędne
były w wielu dziedzinach m.in.: w mechanice, budownictwie i innych gałęziach przemysłu.
Błędne obliczenia mogły spowodować duże komplikacje i straty. Tablice matematyczne
należało więc stale poprawiać. Charles Babbage zaczął więc prowadzić badania nad
skonstruowaniem maszyny na silnik parowy, która sama mogłaby wyliczać te tablice. W
1822 roku przedstawił gotowy projekt maszyny, która przy pomocy wyżej opisanej metody
różnicowej byłaby zdolna do samodzielnego obliczania tablic logarytmicznch. Maszynę tą
nazwał różnicową
Charles Babbage ciągle poprawiał swój projekt, przez co budowa maszyny stale
odwlekała się w czasie. Po upływie 35lat konstruktor zaprzestał rozbudowywania maszyny
różnicowej, prawdopodobnie przez brak środków finansowych.
Po koniec XXw. (1990r.) za sprawą Londyńskiego Centrum Nauki powstała
pierwsza, w pełni sprawna, maszyna różnicowa bazująca na oryginalnych planach z XIXw.
Okazało się że urządzenie potrafi wyliczać wartości rzędu 31 miejsc po przecinku. Jednak
jest ona dużych rozmiarów: 3x1.8m, waga powyżej 3t. Naukowcy skonstruowali maszynę,
która była napędzana jedynie na korbę, nie na silnik parowy.
Maszyna analityczna
Maszyna analityczna była ambitniejszym projektem niż maszyna róznicowa. O ile
w planach maszyny różnicowej też było napędzanie silnikiem parowym, o tyle teraz projekt
ten miał być zrealizowany. Wg współczesnych maszyna ta jest uznawana za jeden z
pierwszych komputerów na świecie. Inspiracją Josepha Jacquarda urządzenie miało
przekazywać wszystko za pomocą kart perforowanych. Wyniki obliczeń miały być
udostępniane, za pomocą drukarki, na papierze.
Maszyna analityczna nigdy nie została zrealizowana, choć była projektem życia
Charles’a Babbage’a. Dlaczego? Dlatego, że nie posiadał środków finansowych na
dokończenie projektu. Był to projekt, który dokończony, mógłby przyspieszyć rozwój
informatyki. Obecnie realizowane są plany do stworzenia kompletnej maszyny
analitycznej. Dotychczas nie znane są jej możliwości, wiemy jedynie, że być może
zmieniłaby ona historię informatyki.
Bibliografia
1. Charles Babbage On the Economy of Machinery and Manufactures (1832)
(rozdz.190, s.158);
2. Lance Day; Ian McNeil: Biographical Dictionary of the History of Technology.
Londyn: Routledge, 1998, s. 33;
52
Paulina Julita Laskowska
Informatyka w rolnictwie, czyli rolnictwo precyzyjne 2017
Differential and analytical machines as prototypes of modern computers.
Summary: In the article the history of the origins of the projects and the main rules of two
mathematical machines: the differential machine and the analytical one, which are the mechanical
counterparts of modern computers is presented.Tthe biographical feature of their creator Charles
Babbage is also disscused. He was the first person who used mathematical applications in computer
science. The operation areas of both mathematical machines and their capabilitie are described.
The contemporary plans for the construction of an analytical machine based on Babbage's
guidelines is a essential part of this article.
Key words: mathematics, informatics, difference engine, analytical engine, Charles Babbage
53
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
Jakub Malinowski
Koło Naukowe Programistów
Uniwersytet Przyrodniczo Humanistyczny w Siedlcach
Internet rzeczy – szanse i zagrożenia
Streszczenie: Treść publikacji dotyczy bardzo szerokiej dziedziny, jaką jest Internet Rzeczy (IOT).
Internet of Things pozwala na łączenie ze są wielu urządzeń w sieć, dzięki której urządzenia mogą
ze sobą współpracować. Tekst publikacji przedstawia szanse oraz zagrożenia wynikające z
wprowadzenia oraz rozwoju Internetu Rzeczy, wyszczególniono również sektory zastosowania oraz
przedstawiono szereg przykładowych urządzeń wraz z możliwością ich użycia.
Słowa kluczowe: Internet rzeczy, czujniki, inteligentne urządzenia, sieć urządzeń, inteligentny dom
Wstęp
Obecnie Internet opanował każdy zakątek cywilizowanego świata. Do pewnego
momentu Internet był znany jako sieć łącząca ze sobą komputery, jednak z biegiem czasu
do Internetu zaczęto podłączać inne urządzenia, które były zdolne korzystać z sieci. Termin
Internet rzeczy został pierwszy raz użyty przez Kevina Ashtona w 1999r. O Internecie
rzeczy możemy mówić jak o koncepcji, która spaja ze sobą przedmioty mogące gromadzić,
przetwarzać bądź przesyłać dane za pośrednictwem sieci. Internet rzeczy jest zagadnieniem
na skalę światową, z raportu firmy Ericsson wynika, że w 2021 roku do sieci będzie
podłączonych ponad 16 mld urządzeń (Kwiatkowska, 2014).
Urządzenia Internetu rzeczy
Do Internetu rzeczy może być podłączonych mnóstwo zróżnicowanych urządzeń.
Zaczynając od najprostszych czujników, których zadaniem jest zbieranie danych np. o
temperaturze, a kończąc na serwerach, które przechowują oraz przetwarzają ogromne ilości
danych zgromadzonych przez inne urządzenia Internetu rzeczy. Do przykładowych
urządzeń należą m.in:
• czujniki (temperatury, wilgotności, gazów łatwopalnych, dymu)
• urządzenia użytku domowego (żarówki, pralki, lodówki, zamki, ubrania, piece)
• urządzenia służby zdrowia
Powyższa lista przedstawia zaledwie kilka typów urządzeń, które mogą być stosowane w
Internecie rzeczy. Jedynym warunkiem urządzenia, które może być identyfikowane jako
urządzenie IoT jest możliwość podłączenia do sieci oraz dostarczanie bądź przetwarzanie
danych (Greengard, 2015).
Zastosowanie Internetu rzeczy
Zastosowanie Internetu rzeczy ogranicza wyobraźnia oraz dostęp do energii
elektrycznej, do której urządzenia mogłyby być podłączone. Najpopularniejszym
zastosowaniem Internetu rzeczy wydają się być inteligentne domy, które pozwalają
mieszkańcom na wygodniejsze życie oraz znaczną oszczędność czasu. Internet rzeczy w
54
Paulina Julita Laskowska
Informatyka w rolnictwie, czyli rolnictwo precyzyjne 2017
domach znalazł swoje zastosowanie w dziedzinach takich jak ogrzewanie, oświetlenie czy
podlewanie ogrodu. Wyżej wymienione sektory są zajęciami życia codziennego, którym
poświęca się najwięcej czasu. Internet rzeczy sprawia, że ludzie mogą oszczędzić ten czas,
dzięki sieci zamontowanych czujników oraz urządzeniom, które sterują ogrzewaniem w
ten sposób aby w domu cały czas utrzymywała się stała temperatura. Zastosowanie
Internetu rzeczy pozwala także m.in. na utrzymanie roślin w dobrej kondycji, oraz generuje
oszczędności w postaci mniejszego zużycia energii poprzez inteligentne zarządzanie
oświetleniem.
Kolejnym znacznie szerszym sektorem zastosowania Internetu rzeczy są inteligentne
miasta, które pozwalają na bezpieczniejsze życie mieszkańców, oraz potrafią generować
oszczędności. Jednym z wielu systemów inteligentnego miasta jest system wykrywania
wypadków drogowych, gdzie kamery po wykryciu wypadku wysyłają odpowiednią
informację do urządzeń zajmujących się tym sektorem. Następnie po przetworzeniu danych
otrzymanych z kamery urządzenie informuje o wypadku odpowiednie organy. Dzieje się
to w ciągu kilku sekund, co może uratować ludzkie życie (Kwiatkowska, 2014).
Internet rzeczy znalazł swoje zastosowanie w wielu innych sektorach, m.in.:
• inteligenta sieć zdrowia
• inteligentne przedsiębiorstwa
• inteligentne systemy energetyczne
• monitorowanie środowiska zagrożeń
• inteligentny transport
Jednak na powyższych zastosowaniach nie kończą się możliwości IoT, ponieważ
ograniczeniem zastosowania jest wyobraźnia oraz obecny rozwój technologiczny.
Szanse i zagrożenia
Internet rzeczy niesie za sobą wiele udogodnień, pozwala na oszczędność czasu oraz
na ogromną wygodę. IoT wyręcza ludzi w wielu dziedzinach życia oraz pozwala na
zautomatyzowanie niektórych stanowisk pracy, przez co przedsiębiorstwa mają bardzo
duże szanse rozwoju.
Dzięki zastosowaniu IoT w logistyce oraz produkcji bez wątpienia zwiększy się
wydajność pracowników, która jest jednym z głównych filarów rozwoju gospodarki na
skalę globalną.
Stały rozwój Internetu rzeczy kreuje nowy świat, otwiera drzwi coraz nowszym
technologiom, pozwala ludziom zapomnieć o wielu czynnościach, sprawia, że
przedsiębiorcy mają wydajniejszych pracowników, ale wszystko to wiąże się z ogromnym
ryzykiem społecznym oraz technicznym. Ryzyko techniczne wynika z ilości w jakiej dane
są przetwarzanie i przechowywane. Według IBM wszystkie urządzenia na świecie są
zdolne wyprodukować 2,5 tryliona bajtów dziennie, jest to tak ogromna liczba danych, że
nawet nie potrafimy sobie jej wyobrazić. Wraz z rozwojem Internetu rzeczy musi być
rozwijana dziedzina jaką jest Big Data, ponieważ z biegiem czasu danych będzie coraz
więcej. Potrzebne jest bardziej efektywne przetwarzanie, tak aby działo się to z jak
najmniejszym opóźnieniem (Kwiatkowska, 2014).
Ideą IoT jest zbieranie oraz analizowanie danych, co oznacza, że przechowywane
są nawet wrażliwe informacje. W przypadku naruszenia bezpieczeństwa danych krążących
w strukturze IoT można spotkać się z następującymi zagrożeniami:
• ujawnienie informacji o lokalizacji
• dostęp do urządzeń IoT, np. samochodu
• przejęcie kontroli nad urządzeniami, systemami
55
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
• kradzież osobistych danych, w tym danych identyfikacyjnych, co może
doprowadzić do utraty finansów
Nieprawidłowo zaprojektowany bądź zaimplementowany system może doprowadzić do
tego, że przez urządzenie analizujące dane zostanie podjęta błędna decyzja, która
spowoduje wystąpienie bezpośredniego zagrożenia zdrowia, a nawet życia (Greengard,
2015).
Internet rzeczy sam w sobie nie jest niebezpieczny. Niebezpieczeństwo wiąże się z
użytkownikami. IoT powstał w oparciu o istniejący do tej pory Internet oraz technologie,
dlatego wszystkie problemy niebezpieczeństwa oraz cyberprzestępczości dotyczą także
IoT. Użytkownicy decydują o tym w jakim stopniu chcą chronić swoją sieć, mogą
podejmować wiele działań powodujących zwiększenie bezpieczeństwa, m.in.:
• należy zabezpieczać dostęp do bezprzewodowych sieci, w których znajdują się
urządzenia
• w przypadku ważnych usług, należy blokować trudnymi do złamania hasłami
• we własnym zakresie decydować jakie dane będą zbierane, przetwarzane oraz
wysyłane
Podsumowanie
Po przedstawieniu definicji, zastosowań, szans oraz zagrożeń Internetu rzeczy
można mówić o jednym istotnym wniosku. Bez różnicy jakie niesie za sobą zagrożenia,
jest to rzecz dla inteligentnych ludzi. Dla osób zaznajomionych z technologią oraz
świadomych zagrożeń, Internet rzeczy może być skarbnicą korzyści. Jednak dla osób,
których nie interesuje technologia, a tylko efekt jej działania, IoT może przysporzyć więcej
szkód niż zalet.
Bibliografia
1. Greengard S., Internet of Things, MIT University Press Group Ltd, 2015
2. Kwiatkowska E. M., Rozwój Internetu rzeczy – szanse i zagrożenia, [w:]
„Internetowy Kwartalnik Antymonopolowy i Regulacyjny”, 2014, nr 8(3),
s. 60-70
Internet of things – chances and dangers
Summary: The content of the publication concerns a very broad subject which is the Internet of
Things (IoT). Internet of Things allows you to connect multiple devices tohether in a network, by
which they can work together. The text of the publication presents chances and threats of resulting
from introduction and development the internet of things, also listed fields of application and listed
sample devices and theirs capabilities.
Key words: Internet of things, sensors, smart devices, network devices, smart home
56
Martyna Sieczkiewicz
Magiczna torebka Hermiony, czyli algorytmy kompresji danych i złożoność
Kołmogorowa
2017
Martyna Sieczkiewicz
Koło Naukowe Studentów Matematyki GRAF
Uniwersytet Przyrodniczo - Humanistyczny w Siedlcach
Magiczna torebka Hermiony,
czyli algorytmy kompresji danych i złożoność Kołmogorowa
Streszczenie: Każdy, kto kiedykolwiek czytał bądź oglądał "Harry'ego Pottera i insygnia śmierci"
spotkał się ze sceną, gdzie Hermiona Granger, używając specjalnego zaklęcia zmniejszała
przedmioty tak, by zmieścić je do torebki i nie stracić ich wartości po ponownym ich zwiększeniu.
Podobnie jest w informatyce, gdzie spotykamy się z problemem kompresji danych (stratnej bądź
bezstratnej). Używając „zaklęcia”, czyli w tym przypadku algorytmów matematycznych, staramy się
możliwie jak najowocniej wykorzystać możliwości komputerów w przechowywaniu informacji.
Przedstawię zagadnienie kompresji danych w oparciu o takie właśnie matematyczne "zaklęcia".
Następnie omówię złożoność Kołmogorowa - długość najkrótszego programu, który generuje dany
łańcuch (string), który jest tekstowym typem danych służącym do przechowywania ciągu danych.
Słowa kluczowe: algorytmy, kompresja, matematyka, dane, dźwięk, obraz
Wstęp
Problem kompresji danych jest jednym z ważniejszych problemów przed jakimi stoi
dziś informatyka. Jednak dzięki algorytmom matematycznym, jest możliwie jak
najowocniejsze wykorzystanie możliwości komputerów w przechowywaniu informacji.
Kompresja danych
Kompresja danych (ang. data compression) polega na zmianie sposobu
zapisu informacji tak, aby zmniejszyć objętość zbioru całej informacji w stanie
pierwotnym. Chodzi o wyrażenie tego samego zestawu informacji za pomocą mniejszej
liczby bitów. Aby przywrócić dany skompresowany obiekt (odwrócić działanie kompresji)
należy go dekompresować.
Kompresja dzieli się na:
• bezstratną – w której z postaci skompresowanej można odzyskać identyczną postać
pierwotną
• oraz stratną – w której takie odzyskanie jest niemożliwe, jednak główne właściwości
zostają zachowane.
Schemat nr 1: Podział kompresji
Źródło: Opracowanie własne
STRATNA KOMPRESJA
BEZSTRATNA
57
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
Jeśli kompresowany jest obrazek, nie widać znaczących różnic w stosunku do
oryginału, ale może się już nie nadawać do dalszej przeróbki czy do wydruku, gdyż wtedy
wymaga się zachowania innych właściwości.
Kompresja bezstratna
Kompresja bezstratna (ang. lossless compression) – najogólniejszy termin dla
metod kompresji informacji do postaci zawierającej zmniejszoną liczbę bitów co do
przechowywania, ale tylko pod warunkiem, że dana metoda gwarantuje możliwość
przywrócenia informacji z postaci skompresowanej do identycznej postaci startowej.
Schemat nr 2:
Źródło: Opracowanie własne
Algorytmy kompresji bezstratnej dobrze kompresują dane "typowe" ze znacznym
nadmiarem informacji. Natomiast istnieją pewne rodzaje danych, które są bardzo trudne
lub niemożliwe do skompresowania, jak np:
• strumienie liczb losowych (niemożliwe do skompresowania),
• strumienie liczb pseudolosowych (trudne do skompresowania),
• dane skompresowane za pomocą tego samego lub innego algorytmu (trudne).
Kompresja stratna
Kompresja stratna – to metoda zmniejszania liczby potrzebnych bitów do wyrażenia
jakiejś informacji, która to, w odróżnieniu od kompresji bezstratnej, nie daje gwarancji, że
odtworzona informacja będzie identyczna z pierwowzorem.
Możliwa jest ze względu na sposób działania ludzkich zmysłów, które wskazują na
wyższą wartość pewnych danych nad innymi. Algorytmy kompresji stratnej zazwyczaj
posługują się modelami odrzucającymi mniej istotne dane np. o dźwięku, pozostawiając
dane o wyższej wartości dla rozpoznawania informacji, np. obraz.
Rozważmy to na przykładzie (autorskim): istnieje film, który zabiera bardzo dużo
miejsca na dysku, nie oglądamy go zbyt często, natomiast ma dialogi w języku, którego nie
znamy, podczas gdy napisy są po angielsku (czy polsku – w języku, który znamy). Aby nie
pobierał tak dużej ilości miejsca możemy kompresując go w sposób stratny usunąć z niego
ścieżkę dźwiękową. Wtedy będziemy oglądać film bez dialogów (których i tak nie
rozumiemy, gdy są wypowiadane) ale za to ilość pobieranego miejsca zmaleje.
UWAGA: Tracimy wtedy również soundtrack (ścieżkę dźwiękową), czyli m.in.
piosenki z filmu.
58
Martyna Sieczkiewicz
Magiczna torebka Hermiony, czyli algorytmy kompresji danych i złożoność
Kołmogorowa
2017
Prostym przykładem kompresji stratnej jest zachowanie tylko co drugiego piksela,
lub odrzucenie 2 najmniej istotnych bitów. Takie metody jednak nie dają zazwyczaj tak
zadowalających rezultatów, jak oparte na modelach psychozmysłowych.
Rysunki 1 i 2
Źródło: http://www.kursgrafiki.pl/wp-content/uploads/2011/03/kompresja.jpg
Tabela 1: Najpopularniejsze algorytmy kompresji stratnej: Obraz
JPEG - dający relatywnie słabe rezultaty.
JPEG2000 - dający znacznie lepsze wyniki
Wideo
DivX/XviD - może skompresować zawartość DVD na CD, bez różnic.
Real Video - wykorzystywany jest przy transmisjach na żywo.
Dźwięk
MP3 - model psychoakustyczny, oparty na MDCT (niżej)
Real Audio - jest stosowany głównie do transmisji na żywo.
Źródła: strony internetowe dot. grafiki (www.kursgrafiki.pl), porównanie autorskie
Źródło: Wikipedia, wolna encyklopedia
59
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
Falki (wavelet)
Falki - rodziny funkcji zbioru liczb rzeczywistych w zbiór liczb rzeczywistych, z
których każda jest wyprowadzona z funkcji-matki (funkcji macierzystej) za pomocą
przesunięcia i skalowania: . Funkcje te dążą do zera (lub
wynoszą zero poza pewnym przedziałem) dla argumentu dążącego do nieskończoności, ich
suma umożliwia pokazanie z dowolną dokładnością dowolnej funkcji ciągłej całkowalnej
z kwadratem.
Falki są używane w analizie i przetwarzaniu sygnałów cyfrowych, w kompresji
obrazu i dźwięku oraz w wielu innych dziedzinach.
Rysunek 3. Falki
Źródło: https://upload.wikimedia.org/wikipedia/commons/thumb/0/0b/Daubechies12-
functions.png/240px-Daubechies12-functions.png
Algorytm dyskretnej transformaty falkowej dla JPEG2000
Źródło: http://slideplayer.pl/slide/414788/
Złożoność Kołmogorowa
Złożoność Kołmogorowa to długość jak najkrótszego programu, który generuje
dany łańcuch (string - tekstowy typ danych służący do zachowania ciągu danych).
Złożoność Kołmogorowa jest różna dla różnych komputerów (maszyn
Turinga lub izomorficznych z nimi).
60
Martyna Sieczkiewicz
Magiczna torebka Hermiony, czyli algorytmy kompresji danych i złożoność
Kołmogorowa
2017
Rozwinięcie dziesiętne liczby π, choć nieskończone, ma niską złożoność
Kołmogorowa -istnieje prosty program, który generuje dowolną liczbę jej cyfr.
Bibliografia
1. Jacek Jarnicki, Kompresja obrazów statycznych - algorytm JPEG
– artykuł na stronie internetowej
(www.zsk.ict.pwr.wroc.pl/zsk/repository/dydaktyka/ioc/in_obr_wyk_2.pdf)
2. https://www.kul.pl/files/57/encyklopedia/szydlowski_tamor_zlozonosc.pdf
3. Przemysław Wojtaszczyk: Teoria falek, PWN, Warszawa 2000,
ISBN 83-01-13322-8
Hermione's magic handbag - compression algorithms and Kolmogorov's complexity
Summary: Anyone who has ever read or watched "Harry Potter and the Deathly Hallows" had
seen the scene where Hermione Granger, using a special spell, reduces items to fit them in her purse
and, however, she hadn’t lost their value when she re-increased them. Similarly in computer science,
where we encounter data compression problems (lossly or lossless). Using „spells”, in this case,
mathematical algorithms, we use as much as possible computer ability to store information. I will
present the problem of data compression based on such mathematical "spells". Then I will discuss
Kolmogorov's complexity - the length of the shortest program that generates a string, which is a
textual data type for storing data.
Key words: algorithms, compression, math, data, sound, image
61
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
Anna Zabłocka
Koło Naukowe Studentów Matematyki GRAF
Uniwersytet Przyrodniczo – Humanistyczny w Siedlcach
Matematyczna edukacja wczesnoszkolna i możliwości jej rozwoju
przy użyciu narzędzi informatycznych
Streszczenie: Nowe technologie pozwalają na innowacyjne nauczanie matematyki, rozwijają
wyobraźnię u dzieci oraz dają nowe możliwości uczniom, którzy mają problemy z wyobraźnią
przestrzenną. W pracy przedstawię wskazówki dla nauczyciela, którymi może się kierować, aby
dzieci jak najwięcej zapamiętały z lekcji. Ważną rolą w edukacji dzieci jest również uczulenie
dziecka na zagrożenia płynące z korzystania z nowych możliwości nauki, o czym też wspomnę w
swoim referacie.
Słowa kluczowe: informatyka, tablice interaktywne, matematyka, technologia informacyjna
Wstęp
W dzisiejszych czasach dzieci dużo częściej korzystają z udogodnień
informatycznych niż to było kilka lat temu. W pewnym stopniu wynika to z rozwoju
technologii, ale również podejścia rodziców do wychowania dziecka. W swojej pracy
przedstawię korzyści płynące z postępu technologicznego z punktu widzenia nauczania
matematyki na etapie wczesnoszkolnym.
Nauczanie wczesnoszkolne a technologia informacyjna
W polskim systemie edukacji poprzez etap wczesnoszkolny rozumiemy początek
okresu szkoły podstawowej, tj. klasy 1-3, czyli dzieci w wieku 6 lub 7 lat – w zależności
od decyzji rodzica, do odpowiednio 9 lub 10 lat. W tym okresie zajęcia prowadzi jeden
nauczyciel, który pełni role wychowawcy. Oceny wystawiane są opisowo, a nauka
nakierowana jest na maksymalne zrozumienie materiału. Tutaj z pomocą przychodzi
technologia.
Wiele dzieci nie lubi matematyki, bo jej po prostu nie rozumie, nie umie sobie
wyobrazić niektórych zagadnień, etc. Nauczyciel w takiej sytuacji ma kilka możliwości.
Może na przykład posłużyć się tablicą interaktywną, która niewątpliwie uatrakcyjni
lekcję w oczach uczniów, ale też skupi ich uwagę na rozwiązywanym zadaniu.
Rysunek 1. Tablica interaktywna.
Źródło: www.tanietablice.pl/730-1792-thickbox/tablica-interaktywna-interactive-eboard-87-ir.jpg
62
Anna Zabłocka
Matematyczna edukacja wczesnoszkolna i możliwości jej rozwoju przy użyciu narzędzi
informatycznych
2017
Zaletą korzystania z tablic interaktywnych jest zwiększenie tempa i skuteczności
uczenia się matematyki. Według brytyjskich badań uczniowie w wieku 5-7 lat przyswoili
materiał przeznaczony na dwa lata o 4,75 miesiąca szybciej, niż ich koledzy, którzy nie
korzystali z tablic. Natomiast uczniowie w wieku 7-11 lat, mający oceny średnie lub
wyższe, uczący się z wykorzystaniem nowoczesnych technologii skrócili przewidziany w
programie nauczania czas przyswojenia wiedzy o 3,5 miesiąca, a uczniowie z oceną
niższą niż średnia o 4,3 miesiąca. Po zakończeniu badań okazało się, że uczniowie lepiej
radzili sobie z rozwiązywaniem skomplikowanych i trudnych zadań. Otrzymane wyniki
badań świadczą o tym, że zainteresowanie tematem omawianym na lekcjach było
większe, niż podczas wykorzystywania tradycyjnych metod nauczania.
Inną metodą zachęcenia dzieci do nauki jest korzystanie z rzutnika oraz internetu
na lekcjach. Chodzi tutaj o pokazywanie uczniom, że internet może służyć celom
naukowym, a nie jedynie rozrywce. Nauczyciel może przy okazji zadań z zakresu
geometrii pokazywać uczniom animację różnych figur przestrzennych, gdyż wyobrażenie
sobie takie figury w przestrzeni może sprawiać problem kilkuletniemu uczniowi. W ten
sposób prowadzący lekcję nie tylko pobudza wyobraźnię uczniów, ale zachęca ich do
przejrzenia stron internetowych o tematyce matematycznej. Dzięki temu dziecko może
usystematyzować nabytą na lekcji wiedzę, a także ją poszerzyć.
Kolejną propozycją dla nauczyciela jest wykorzystanie programu graficznego.
Uczniowie dzięki temu mogą sami tworzyć różnorakie figury, na których na przykład
oparte jest zadanie matematyczne. Jednym z najbardziej znanych programów,
umożliwiających tworzenie własnych obiektów jest Paint. Dla kilkuletniego dziecka to
ogrom możliwości, biorąc pod uwagę również fakt, że jest to program zainstalowany na
każdym komputerze fabrycznie. Dzięki takiemu rozwiązaniu uczniowie jeszcze bardziej
angażują się w rozwiązanie zadania, jednocześnie rozwijając swoją wyobraźnię.
Mimo tak licznych metod uatrakcyjnienia zajęć trzeba zawsze pamiętać, że
program komputerowy nie może być zawieszony w próżni. Przed rozpoczęciem przygody
dziecka z technologią należy pamiętać, aby przekazać mu podstawową wiedzę na dany
temat. Należy mieć na uwagę konieczność łączenia wiadomości już znanych z nowymi.
Uczeń najpierw powinien przyswoić teorię tradycyjną metodą, dopiero później utrwalać
i poszerzać zdobytą wiedzę przy pomocy rozwijającej się technologii informacyjnej.
W przeciwnym wypadku skutek naszych działań może być przeciwny do zamierzonego.
Bezpieczeństwo a korzystanie z technologii informacyjnych
Wprowadzając dziecku nowe metody nauki trzeba mieć na uwadze, że nie każde
dziecko będzie wykorzystywało pomoce naukowe zgodnie z założeniami. Należy dzieci
uświadomić jakie zagrożenia płyną z niewłaściwego korzystania z na przykład internetu.
Dlatego każda ze stron, nauczyciel i uczeń, powinna mieć jasno kreślone cele i
szczere chęci ich realizacji.
Nauczyciel w zakresie własnego rozwoju powinien interesować się nowościami
technologicznymi i zapoznawać się z ich działaniem, aby na lekcjach nie tracić na to
czasu. Po przystąpieniu do pracy z programem powinien kłaść nacisk na kulturę pracy
z komputerem, co zaprocentuje u dziecka w przyszłości. Uczeń natomiast powinien
zapoznać się i zrozumieć podstawowe zasady bezpieczeństwa i higieny pracy oraz ich
przestrzegać.
63
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
Bibliografia
1. Czyżewska Lidia, Technologie informacyjne w nauczaniu zintegrowanym,
http://www.psp5.pionki.pl, 2004
2. Borowiecka Agnieszka, Wykorzystanie nowoczesnych technologii na etapie
wczesnoszkolnym, http://www.oeiizk.waw.pl, 2009
3. Colin Rose, Efekty korzystania z tablic interaktywnych w praktyce szkolnej,
http://www.eduscience.pl, 2014
Elementary education of mathematics and the possibility of its development with the use of
information technology.
Summary: New technologies enable to teach mathematics in an innovative way, develop children
imagination and provide new opportunities for students, who have problems with spatial
imagination. My article gives some tips that teachers, may follow to children’ interest for lesson
and help them remember as much as it is possible. Important thing in children education is also
teaching child for the threat, that result from the use new technologies of teaching.
Key words: informatics, interactive whiteboard, mathematics, information technology
64
Karolina Szostek
Tajemnica możliwości ludzkiego mózgu. Czego pragniesz dziś, o czym zapomnisz jutro? 2017
Karolina Szostek
Studenckie Koło Naukowe Logopedyczne
Uniwersytet Przyrodniczo-Humanistyczny w Siedlcach
Tajemnica możliwości ludzkiego mózgu.
Czego pragniesz dziś, o czym zapomnisz jutro?
Streszczenie: "W psychologii jest pewne prawo zakładające, że jeśli stworzysz w wyobraźni obraz
tego, kim chcesz się stać, i utrzymujesz go odpowiednio długo, wkrótce staniesz się taki, jak
pragniesz". Przedstawię krótką historię badań naukowych- w których istotną rolę odgrywa
stymulacja półkul mózgowych. Dowiemy się, jak poprzez dobranie odpowiedniej fali dźwiękowej,
jesteśmy w stanie wpłynąć na myślenie danej osoby. Eksperyment z "uszkodzonymi" słuchawkami
może uratować ludzkie życie. Dlaczego uratować? Dlatego, że wiele osób poddaje się na starcie,
często bardziej boimy się porażki niż sukcesu. Opowiem o tym jak zaprogramować się na sukces i
jak przetrwać porażkę, która na pierwszy rzut oka może być naszą klęska. Zamienimy tą porażkę w
szansę, która da nam tyle siły, że będziemy marzyć, by dostać więcej. Dowiemy się jak zwiększyć
wydajność naszego mózgu i jak naprawić jego braki. Jasne zdefiniowanie twoich ideałów we
wszystkich sferach życia jest bardzo ważne, ponieważ jest to pierwszy krok do podejmowania
lepszych decyzji w teraźniejszości, prowadzących do większych sukcesów i szczęścia w przyszłości.
Gdy poczujesz, że zmierzasz w stronę osiągnięcia cennego ideału, staniesz się szczęśliwszy i
pewniejszy siebie. Im większy zrobisz postęp, aby zrealizować swój jasno określony cel lub osiągnąć
idealne warunki, tym więcej będzie w tobie energii i entuzjazmu.
Kolejnym punktem będzie pokazanie, jak ważne jest łączenie różnych, czasem sprzecznych ze sobą
dziedzin nauki, aby stworzyć rzeczy nowe, jeszcze nie odkryte, które mogą zmienić ludzkość.
Zastanowimy się, po co neandertalczyk wyszedł z jaskini i dlaczego powiedział "idę", gdy inni
krzyczeli "zostań". Gdyby Ford przeprowadził badania rynku, to by ludzie chcieli szybsze konie-
czego można nauczyć się z tej historii? I czy warto się w ogóle uczyć? Dokąd zaprowadzi nas
dzisiejsza nauka? Czy powinniśmy bać się jutrzejszych zastosowań informatyki? Twój umysł jest
niezwykle potężnym narzędziem. Twój mózg kontroluje niemal wszystko co ci się przytrafia. Nie
istnieją żadne granice określające, kim możesz się stać, co robić i co mieć, z wyjątkiem tych, które
sam sobie wyznaczysz. Najważniejsze to zacząć już dziś i nigdy się nie poddawać!
Słowa kluczowe: logopedia, neurologopedia, technologie informacyjne
Wstęp
Kluczem do sukcesu jest skoncentrowanie
swojego umysłu
na tym, czego pragniemy, nie na tym
czego się boimy.
Brian Tracy
Przedstawię sposoby stymulacji półkul mózgowych. Dowiemy się w jaki sposób
działa nasz umysł i dlaczego nasza pamięć nie jest absolutna. Sprawdzimy również czym
nasz mózg różni się od mózgu ssaków i jak zastosować jego możliwości z pomocą
najnowszych technologii informatycznych.
65
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
Możliwości ludzkiego mózgu
Mózg jest systemowy. Często wydaje nam się, że ta droga wiedzy do mózgu da
nam kiedyś taką możliwość, że będziemy w stanie podłączyć kogoś do skanera np. jakiegoś
nastolatka swojego domowego, z którym mamy kłopoty aby wiedzieć co on zrobi w
przyszłości, albo co myśli, co kombinuje
I nastolatków i całą resztę chcę uspokoić, do tego nigdy nie dojdzie. A tłumaczy nam to
podstawowe prawo cybernetyki
Mówi ono w ten sposób:
Jeżeli mamy jakiś system, który ma nam przetwarzać informacje o innym systemie, to musi
być od tego, który przetwarza informację trochę bardziej skomplikowany.
A ponieważ my mamy do dyspozycji tylko mózgi, no więc mózgu jako tako nie będziemy
w stanie nigdy w pełni poznać.
Gaarder w „Świecie Zofii” mówi o tym w nieco inny, bardziej prosty i przystępny sposób,
mianowicie:
„Gdybyśmy mieli mózgi na tyle proste, żebyśmy byli w stanie je poznać, to bylibyśmy na
tyle głupi, że nie dalibyśmy rady”
Daje nam to w efekcie spore poczucie bezpieczeństwa .
Ale jednak, MÓZG jest to fantastyczna struktura.
Struktura, która nie ma sobie równych na poziomie złożoności we wszechświecie (mimo,
iż struktura mózgu i wszechświata są do siebie uderzająco podobne).
Gdyby nam się udało policzyć wszystkie atomy, które budują wszystkie znane
człowiekowi ciała niebieskie, to byłaby to mniej więcej liczba określająca w przybliżeniu
ilość stanów, jakie może przyjmować mózg jednej dorosłej osoby. To jest pojemność
informacji, którą trudno sobie wyobrazić. Mało tego, pojemność, której nie jesteśmy w
stanie, w ciągu życia absolutnie wypełnić.
Można by tam ładować tysiące takich osiemdziesięcioro, czy dziewięćdziesięcioro letnich
odcinków czasu i ładować informację i ładować…
I tak nie bylibyśmy w stanie, go wypełnić.
Fantastyczne możliwości
Wielki mózg, który mamy daje nam przewagę nad innymi organizmami.
Ale ma jedną wadę- jest po prostu duży. Gdybyśmy znosili jaja, to nie byłoby problemu
Ale my się musimy urodzić
Problem polega na tym, że gdybyśmy chcieli się rodzić z mózgiem, w takim stopniu
dojrzałym, w jakim robią to inne ssaki- to każde urodzenie, kosztowałoby, życie naszej
mamy. Z czysto fizycznych powodów, nie bylibyśmy się w stanie urodzić. No i mamy
kłopot.
Ten kłopot rozwiązaliśmy- dowodem jest to, że tu siedzimy.
Co się stało?
Skoro, nie mogę się urodzić później, bo zabiję swoją mamę przy porodzie, to rodzę się
wcześniej Nawet sporo wcześniej, bo około 10-12 miesięcy. Tyle czasu
potrzebowalibyśmy, żeby nasze mózgi w łonach matek dojrzały do tego stanu, w których
rodzą się inne organizmy zwierzęce. Nasze mózgi dojrzewają na poziomie
neurobiologicznym do 20 roku życia.
66
Karolina Szostek
Tajemnica możliwości ludzkiego mózgu. Czego pragniesz dziś, o czym zapomnisz jutro? 2017
Wpływ środowiska, na poznanie naszego gatunku, jest bezpośrednio większy, niż
w przypadku innych organizmów. To daje efekt w postaci świata- bo to nasze mózgi tworzą
świat.
Dzięki odkryciom neurobiologów w ciągu ostatnich kilku lat wiemy, że:
Prawdopodobnie my sobie te światy od samego początku tworzymy, a percept jest tylko
tym, co je uzgadnia z całą resztą
Na jedno włókno nerwowe (percepcyjne), które doprowadza informację do wnętrza,
przypada aż 10 milionów, którymi mózg te informacje przesyła pomiędzy swoimi
częściami. A to oznacza, że mózg mówi: do siebie, o sobie i dla siebie.
Co decyduje o tym, która informacja jest dla nas najważniejsza?
Najważniejszą informacją dla mózgu- jest informacja o innym mózgu
Prościej…
Najważniejszą informacją dla człowieka- jest informacja o innym człowieku (czyli plotka).
Jeśli macie Państwo do dyspozycji jakąś inną informację, albo informację o innym
człowieku, to wybierzecie plotkę. Plotka jest dla nas najbardziej interesującą informacją
świata.
Stymulacja lewej półkuli mózgu
Mózg można stymulować, czyli zwiększać wydajność jego pracy, w określonych
obszarach. Aby stymulować prace lewej półkuli mózgu, odpowiedzialnej za logiczne
myślenie, należy ćwiczyć sekwencje. Sekwencja jest ciągiem znaków (ruchów, dźwięków,
obrazów, symboli) stanowiącym uporządkowaną strukturę według określonej zasady
(formuły). Miejsce kolejnego znaku w sekwencji wynika z przyjętej arbitralnie reguły.
Każda sekwencja odtwarza pewien porządek. Podczas ćwiczeń z dziećmi z zaburzeniami
komunikacji językowej ważne jest naśladowanie ruchów, dźwięków i obrazów. Poziom
pamięci sekwencyjnej warunkuje skuteczność uczenia się języka w formie mówionej i
pisanej. Konieczne są ćwiczenia uwzględniające linearny odbiór bodźców słuchowych
oraz proprioceptywnych (propriocepcja - czucie ułożenia części własnego ciała).
Powtarzanie sekwencji sylab (czyli wypowiadanie wyrazów), potem sekwencji wyrazów
(wypowiadanie zdań) jest możliwe dopiero wówczas gdy dziecko nauczy się powtarzać
(naśladować) ruchy. Najłatwiej jest naśladować ruchy rąk, a dopiero potem ruchy
narządów artykulacyjnych.
Naśladowanie sekwencji uderzeń młoteczkiem jest dla dziecka zabawą, ale pełni
także ważną funkcję ćwiczenia umiejętności powtarzania dostrzeżonego ruchu. Mowa
znika z pola słyszenia tak szybko, że dla wielu dzieci powtórzenie sekwencji dźwięków
mowy jest zadaniem zbyt trudnym. Należy więc ćwiczenia rozpocząć od prymarnej
stymulacji wzrokowo-ruchowej. Dziecko nie ma wówczas świadomości, że się uczy, co
zwiększa efektywność ćwiczeń.1
Aby stymulować lewą półkulę mózgu, należy również mówić do prawego ucha. I tu
kłania się nam zastosowanie nowoczesnych technologii informatycznych. Za pomocą
dobrania odpowiedniej fali dźwiękowej możemy zaprogramować nasz umysł. Możemy
wyciszyć emocje i dać większe pole do działania- półkuli odpowiedzialnej a logiczne
myślenie. Jest to niewątpliwy przełom w badaniach neurologicznych.
W skrócie binaural beats (dudnienia synchroniczne) to rodzaj muzyki o niskiej
częstotliwości, który wykorzystując sposób działania słuchu ma wprowadzać słuchacza w
różne stany świadomości. Jest to możliwe dzięki temu, że natura wyposażyła nas w
1 Cieszyńska J., Stymulacja lewej półkuli mózgu- zapamiętywanie sekwencji ruchów, Wydawnictwo Metody
Krakowskiej, 2016
67
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
mechanizm percepcji dźwięku, który jest oparty na uszach rozlokowanych po dwóch
stronach głowy. Każde ucho rejestruje tak naprawdę różne dźwięki, które za sprawą
narządów słuchu są przekształcane i łączone w jeden, przekazywany dalej do mózgu.
Gdy dodamy do tego fakt, że mózg w zależności od naszego stanu świadomości
wykazuje się aktywnością w różnym zakresie fal EEG (głęboki sen - 0,5 - 4 Hz (fale delta);
medytacja, hipnoza, sny 4 -8 Hz (fale theta); codzienna aktywność, praca umysłowa 13 -
30 Hz (fale beta) i tak dalej), rodzi się pytanie, czy gdy dostarczymy do każdego ucha
dźwięki o różnych częstotliwościach, na przykład 300 Hz i 307 Hz (różnica odpowiada
zakresowi fal theta), nie zmusimy naszego mózgu do działania w zakresie tych fal?
Zjawisko to opisał Heinrich Wilhelm Dove w XIX wieku, obecnie zaś neuropsycholodzy
wykazują, że możliwe jest to tylko u niektórych osób w określonych przypadkach,
natomiast u większości efekt taki nie występuje, a doznania opisywane przez
użytkowników mają podłoże czysto psychologiczne.2
Kiedy ciała drgają, powstaje fala dźwiękowa. W każdym źródle dźwięku coś drga,
wibruje, porusza się. Częstotliwość drgań określa wysokość wydawanego tonu, a zmiany
ciśnienia powietrza podczas przepływu fali dźwiękowej powodują drgania bębenków w
uszach, czego efektem jest to, że człowiek słyszy. Żyjemy w morzu wibracji: odbieramy i
wysyłamy dźwięki, a wszystkie części naszego ciała, każda nasza komórka, wydają
dźwięk.
Ponad 90% z otoczenia rejestrujemy podświadomie: słyszymy nie tylko uszami.
Bębenek ucha wzmacnia sygnał otoczenia 25 razy, ale - oprócz niego - mamy mózg:
wszelka ludzka percepcja jest multi-sensoryczna, tzn. przetwarzamy informacje
wielokanałowe. Słyszymy szkieletem, czaszką, całą powierzchnią ciała. Nawet w oczach
istnieją komórki rejestrujące zmiany ciśnienia powietrza. Nasz organ słuchu sam w sobie
też nie jest pasywny: człowiek może zlokalizować źródło dźwięku, zanim poruszy głową,
ucho bowiem nie tylko przyjmuje dźwięk, ale samo go wytwarza.
To, co słyszymy, to trójwymiarowa reprodukcja zewnętrznego dźwięku stworzona
przez mechanizm wewnętrzny naszego ucha.3
Neurony lustrzane
Wystarczy spojrzeć na zachowanie innych osób, aby w mózgu wywołać reakcję
lustrzaną.
Każdy rodzaj stanu człowieka, na którego patrzymy, wywoła w nas takie same stany.
Gdybyśmy teraz oglądali horror w kinie i ktoś by tam komuś obcinał palce- to co
byście Państwo robili? Łapalibyście się za palce. To dotyczy też innych spraw, np.
uśmiechu, ziewania, itp.
Zakończenie
Mózg jest niezwykle plastyczny, daje nam to olbrzymie możliwości w
podejmowaniu pracy na jego doskonaleniem. Pamiętajmy więc, że nie przekonamy innych
do niczego, do czego sami nie jesteśmy przekonani. Aby zapalać innych, samemu trzeba
płonąć.
2 www.komputer świat 3 www.cybertech.net.pl
68
Karolina Szostek
Tajemnica możliwości ludzkiego mózgu. Czego pragniesz dziś, o czym zapomnisz jutro? 2017
A to oznacza, że nasze światy są tworzone przez nasze mózgi, ale nie tylko nasze,
ale też tych, którzy są obok nas. Nasz świat składa się z 5 ludzi, z którymi spędzamy
największą ilość czasu. Ważne jest więc świadome wybranie środowiska, w którym
żyjemy.
Bibliografia
1. Cieszyńska J., Stymulacja lewej półkuli mózgu- zapamiętywanie sekwencji
ruchów, Wydawnictwo Metody Krakowskiej, 2016
2. KomputerŚwiat.pl - Komputery, Testy Sprzętu, Newsy,
http://www.komputerswiat.pl/
3. °C Pogoda Chełm , www.cybertech.net.pl
69
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
Patrycja Izdebska
Studenckie Koło Naukowe Bezpieczeństwa Narodowego
Uniwersytet Przyrodniczo-Humanistyczny w Siedlach
Zagrożenia bezpieczeństwa systemów informatycznych płynących
z nieznanych źródeł
Streszczenie: temat dotyczy rewolucji cyfrowej i zmian zachodzących w społeczeństwie, które
spowodowały, że usługi administracji elektronicznej zaczynają odgrywać coraz istotniejszą rolę,
zarówno dla państwa, jak i obywateli.Na cyberbezpieczeństwo składa się wiele pojęć, począwszy od
bezpieczeństwa informacji i bezpieczeństwa operacyjnego, po bezpieczeństwo systemów
komputerowych. Cyberataki pozwalają na przeprowadzenie zdalnych działań z wykorzystaniem
komputera podłączonego do sieci. Modułem operacyjnym cyberataków jest tworzenie wirusów
komputerowych oraz innego niebezpiecznego oprogramowania i przesyłanie ich docelowo w
miejsce ataku.
Słowa kluczowe: cyberbezpieczeństwo, kontrole, wirusy, ataki
Wstęp
Cyberataki są przeprowadzane przy wykorzystywaniu luk w zabezpieczeniach
oprogramowania. Istotną kwestią jest fakt, że prawdopodobieństwo wystąpienia tych luk
jest wysokie, podobnie jak wysoka jest ochrona cyberprzestępcy, posługującego się
anonimową infrastrukturą nieograniczoną barierami kontrolnymi cyberprzestrzeni.
Artykuł mówi o zagrożeniach cyberbezpieczeństwa. Celem jest analiza wyników
kontrolowanych jednostek przez Najwyższą Izbę Kontroli. Problem badawczy stanowi
oceną danych NIK-u. Obecnie internet stanowi jedno z głównych narzędzi pracy i dostępu
do informacji, zatem powinien w pełni służyć również załatwieniu spraw urzędowo-
administracyjnych.
Z drugiej strony wraz z upowszechnieniem edukacji społeczeństwo staje się coraz
bardziej wykształcone oraz domaga się poprawy jakości świadczonych usług publicznych
i zmiany tradycyjnych biurokratycznych struktur. Efektywne i sukcesywne wdrożenie
systemu obiegu informacji i dokumentów w jednostce, przeniesienie usług publicznych na
płaszczyznę elektroniczną powoduje więc zwiększenie zadowolenia obywateli z obsługi.
Zasadniczo korzystanie z wszelkiego rodzaju e-usług jest podyktowane kilkoma
uniwersalnymi motywami, takimi jak: oszczędność czasu, bogaty zakres możliwości i
różnorodna oferta usług, wygoda, przełamywanie barier geograficznych i czasowych,
oszczędności finansowe.W krajach Unii Europejskiej wprowadzenie serwisów obsługi
obywatela i podmiotów prawnych w sprawach administracji publicznej – np. opłat
podatkowych, celnych, niezbędnych informacji dla prowadzenia działalności gospodarczej
przyniosło oszczędności w administracji publicznej oraz wyraźną poprawę jakości obsługi
obywatela i podmiotów. Wybrane przykładowe e-usługi, które powinny być realizowane z
wykorzystaniem drogi elektronicznej skierowane do osób fizycznych (G2C) to np.: proces
zmiany zameldowania, obsługi paszportów i dowodów osobistych, dostępność informacji
z USC, składanie deklaracji PIT, obsługa systemu rejestracji działalności gospodarczej,
proces dostępu do danych przestrzennych, obsługa pośrednictwa pracy, rejestracji
bezrobotnych i poszukujących pracy,wgląd do ksiąg wieczystych, wydawanie pozwoleń
70
Patrycja Izdebska
Zagrożenia bezpieczeństwa systemów informatycznych płynących z nieznanych źródeł 2017
budowlanych, rejestracja i obsługa w ochronie zdrowia. W przypadku G2B są to usługi,
np. rozliczania podatku dochodowego od osób prawnych, podatku VAT, obsługi zamówień
publicznych czy przekazywania danych do GUS i inne. Dodatkowo systemy
informatyczne administracji publicznej powinna cechować spójność umożliwiająca
obsługę procedur związanych z udziałem różnych urzędów. Istotnym elementem
wpływającym na pozytywną ocenę ze strony użytkowników jest także ograniczenie liczby
przypadków wielokrotnego wprowadzania tych samych danych. W efekcie uzyskać można
między innymi skrócenie czasu załatwiania poszczególnych spraw oraz możliwość
wykorzystania informacji „importowanych” z dostarczanych dokumentów
elektronicznych.19 Oprócz korzyści z usług informatycznych e-administracji płynie
również wiele zagrożeń, co zobrazuję na przykładzie bankowości elektronicznej.
Charakterystyka zagrożeń internetowych i bezpieczeństwa (skala, stan,
potencjalne skutki)
Na cyberbezpieczeństwo składa się wiele pojęć, począwszy od bezpieczeństwa
informacji i bezpieczeństwa operacyjnego, po bezpieczeństwo systemów komputerowych.
Cyberataki pozwalają na przeprowadzenie zdalnych działań z wykorzystaniem komputera
podłączonego do sieci. Modułem operacyjnym cyberataków jest tworzenie wirusów
komputerowych oraz innego niebezpiecznego oprogramowania i przesyłanie ich docelowo
w miejsce ataku, w celu niszczenia serwerów, modyfikacji systemów IT oraz fałszowania
stron www. Cyberataki są przeprowadzane przy wykorzystywaniu luk w zabezpieczeniach
oprogramowania. Istotną kwestią jest fakt, że prawdopodobieństwo wystąpienia tych luk
jest wysokie, podobnie jak wysoka jest ochrona cyberprzestępcy, posługującego się
anonimową infrastrukturą nieograniczoną barierami kontrolnymi cyberprzestrzeni.
Rządowe Centrum Reagowania na Incydenty Komputerowe (CERT) opublikowało
na swojej stronie internetowej katalog cyberzagrożeń.20 Według tego katalogu zagrożenia
dzielimy na celowe i niecelowe. Wśród zagrożeń celowych wyróżniamy: złośliwe
oprogramowanie (wirusy, robaki, konie trojańskie, botnety), przełamanie zabezpieczeń
(nieuprawnione logowanie, włamanie na konto, włamania siłowe), publikacje w sieci
internet (zniesławienie, naruszenie praw autorskich, dezinformacja), gromadzenie
informacji (skanowanie, podsłuch, szpiegostwo, socjotechnika), sabotaż komputerowy (
atak DDoS, DoS), czynnik ludzki (naruszenie procedur bezpieczeństwa oraz przepisów
prawnych).21 Największą przyczyną występowania cyberzagrożeń jest właśnie czynnik
ludzki nieznajomość/lekceważenie, łapownictwo, frustracja, modyfikacja systemów i
danych, błąd organizacyjny, techniczny, sabotaż, uszkodzenie lub kradzież elementów
przesyłowych.
W 2015 roku Zespół CERT.GOV.PL opublikował Raport o stanie bezpieczeństwa
cyberprzestrzeni RP.22 Łącznie zarejestrowano 16 123 zgłoszeń, z których aż 8 914 zostało
zakwalifikowanych, jako faktyczne incydenty. Wzrost wyżej wymienionych statystyk jest
odnotowywany corocznie np. w poprzednim roku odnotowano 12 017 zarejestrowanych
19 A. Dąbrowska, M. Janoś-Kresło, A. Wódkowski, E-usługi a społeczeństwo informacyjne, Wyd. Difin,
Warszawa 2009, s. 138. 20Katalog zagrożeń CERT.GOV.PL, Warszawa 2013
dostęp: http://www.cert.gov.pl/download/ (12.01.2017 r.) 21 Rządowy zespół reagowania na incydenty komputerowe, CERT.GOV.PL, Raport o bezpieczeństwie
cyberprzestrzeni RP, Warszawa 2016, dostęp: http://www.cert.gov.pl/cer/publikacje/raporty-o-stanie-
bezpi/,(12.01.2017 r.) 22 CERT.GOV.PL, Raport o bezpieczeństwie cyberprzestrzeni RP, Warszawa 2016,
dostęp: http://www.cert.gov.pl/cer/publikacje/raporty-o-stanie-bezpi/, (12.01.2017 r.)
71
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
zgłoszeń, z czego 7 498 zostało zakwalifikowanych, jako faktyczne incydenty. W 2015
roku największą grupę stanowiły incydenty w kategorii klient botnet. Trend ten
obserwowany jest co roku.
Zespół CERT.GOV.PL zarejestrował: 4 284 incydentów dotyczących
oprogramowania złośliwego działającego na stacjach roboczych podłączonych do sieci
teleinformatycznych jednostek administracji publicznej. Najczęściej występującymi
typami klientów sieci botnet wykrytymi w infrastrukturze administracji państwowej w
2015 roku były botnety Conficker, Tinba oraz Downadup. Rok 2015 okazał się rekordowy
pod względem liczby odnotowanych incydentów komputerowych związanych z
wszelkiego rodzaju podatnościami (błędną konfiguracją) serwerów lub usług
funkcjonujących w instytucjach administracji państwowej i u operatorów infrastruktury
krytycznej. W ramach prowadzonych przez Zespół CERT.GOV.PL działań
zidentyfikowano łącznie 55 510 przepływów do zasobów teleinformatycznych instytucji
pozostających we właściwości Zespołu, co przełożyło się w sumie na 3 921 unikalnych
incydentów.23
Skutki cyberataków można podzielić na te, które dotyczą ludności oraz godzące
w gospodarkę i infrastrukturę. Do zagrożeń ludności należą: zagrożenie dla życia i zdrowia,
spowodowane zakłóceniami systemów energetycznych, utrata zaufania do instytucji
publicznych. Do skutków godzących w infrastrukturę należą: zakłócenia w pracy
infrastruktury przesyłowej oraz godzenie w telekomunikacje.
Ocena organów administracji -wskazanie zagrożeń internetowych
Najwyższa Izba Kontroli w roku 2014 przeprowadziła szczegółową kontrolę pt.
,,Realizacja przez podmioty państwowe zadań w zakresie ochrony cyberprzestrzeni
Rzeczypospolitej Polskiej”. Kontrola wykazała, że: administracja państwowa nie podjęła
dotychczas działań, mających na celu zapewnienie bezpieczeństwa teleinformatycznego
Polski. Stwierdzono, że działania podmiotów publicznych związanych z ochroną
cyberprzestrzeni były prowadzone w sposób rozproszony, chaotyczny i bez wizji
systemowej a także bez świadomości kierownictwa o niebezpieczeństwach związanych
z funkcjonowaniem cyberprzestrzeni. Kontrolą objęto 8 podmiotów państwowych:
Ministerstwo Administracji i Cyfryzacji, Agencję Bezpieczeństwa Wewnętrznego,
Ministerstwo Obrony Narodowej, Ministerstwo Spraw Wewnętrznych, Naukową
i Akademicką Sieć Komputerową, Urząd Komunikacji Elektronicznej, Rządowe Centrum
Bezpieczeństwa, Komendę Główną Policji.24
Kontrola ta wykazała nieprawidłowości, do, których należą: Systemy RCB nie były
spójne z działaniami w zakresie bezpieczeństwa teleinformatycznego oraz
w niewystarczającym stopniu uwzględniały nowe zagrożenia dla infrastruktury krytycznej
państwa. Komendant Główny Policji nie podjął rzetelnych działań
w celu wdrożenia nowego systemu reagowania na zagrożenia i incydenty w
cyberprzestrzeni, za to regularnie odbywały się szkolenia z zakresu cyberbezpieczeństwa
dla funkcjonariuszy policji. Kierownictwo NASK wprowadziło wiele dobrych praktyk
związanych
z zapobieganiem i reagowaniem na incydenty komputerowe jednak działania te były
ograniczone i miały charakter tymczasowy. W Ministerstwie Obrony Narodowej
23 Tamże, s. 8.( 12.01.2017) 24 Departament Porządku i Bezpieczeństwa Wewnętrznego, informacja o wynikach kontroli NIK pt.
Realizacja przez podmioty państwowe zadań w zakresie ochrony cyberprzestrzeni RP, Warszawa 2015, s.8.,
dostęp: https://www.nik.gov.pl/plik/id,8764,vp,10895.pdf,( 12.01.201 7r.)
72
Patrycja Izdebska
Zagrożenia bezpieczeństwa systemów informatycznych płynących z nieznanych źródeł 2017
zidentyfikowano liczne problemy systemowe. Minister spraw wewnętrznych nie
realizował żadnych zadań związanych z budową krajowego systemu cyberprzestrzeni25.
Ocena Najwyższej Izby Kontroli wykazała, że konieczne jest podjęcie
natychmiastowego działania w celu zabezpieczenia państwowych systemów przed
cyberatakami. Błędy, jakie były w systemach umożliwiały cyberprzestępcom uzyskanie
nieautoryzowanego dostępu do baz danych, co mogłoby negatywnie wpłynąć na
funkcjonowanie państwowych instytucji.
Kolejną kontrolą przeprowadzoną przez NIK była Kontrol o nr ewidencyjnym -
P/10/045 z 2011 roku - wyniki kontroli funkcjonowania wybranych systemów
informatycznych Ministerstwa Skarbu Państwa. Najwyższa Izba Kontroli pozytywnie
ocenia funkcjonowanie skontrolowanych systemów informatycznych Ministerstwa Skarbu
Państwa, pomimo stwierdzonych nieprawidłowości. Najpoważniejszą z nich było
niedostosowanie modułu ZSI „Zbiorcza ewidencja mienia Skarbu Państwa” do
obowiązujących w tym zakresie przepisów. Jednocześnie NIK negatywnie ocenia stopień
realizacji przez Ministerstwo Skarbu Państwa ustawowych zadań z zakresu informatyzacji.
Zintegrowany System Informatyczny (ZSI), był przydatnym, wykorzystywanym
przez wszystkie komórki organizacyjne ministerstwa narzędziem informatycznym.
Wspomagał zarówno realizację ustawowych zadań Ministra Skarbu Państwa
(komercjalizacja i prywatyzacja przedsiębiorstw państwowych czy zarządzanie majątkiem
Skarbu Państwa), jak i funkcjonowanie Ministerstwa Skarbu Państwa. NIK ocenia, że jego
utworzenie było celowe.26 W ministerstwie używano także innych systemów
wspomagających realizację zadań, m.in. System Informatycznych Rejestrów do obsługi
wypłat rekompensat za mienie pozostawione poza granicami Rzeczypospolitej Polskiej
oraz System Decyzyjny, zapewniający m.in. obsługę poczty elektronicznej, rejestrację
obiegu dokumentów, etc.
Po kontroli NIK w ZSI występowały błędy - utrudniające korzystanie ze
zgromadzonych zasobów. Występowanie różnorodnych błędów jest częstym
mankamentem systemów informatycznych. NIK pozytywnie, pod względem celowości,
ocenia utworzenie w MS systemu weryfikacji i zgłaszania dostrzeżonych usterek,
aczkolwiek służby informatyczne Ministerstwa nie były w pełni skuteczne w ich usuwaniu.
Kontrola NIK zidentyfikowała trzy istotne błędy, które do czasu zakończenia kontroli nie
zostały wyeliminowane. Jeden z tych błędów był szczególnie poważny, gdyż powodował
niezamierzone kasowanie danych w systemie.
Wskazanie obszarów i sposobów doskonalenia przygotowania organów administracji
publicznej do reagowania na określone zagrożenie internetowe
Wyniki kontroli NIK w roku 2011 i w roku 2014 ukazują konieczność modernizacji
tych systemów, gdyż ich obecny stan nie pozwala na normalne funkcjonowanie państwa w
środowisku nowych cyberzagrożeń. Kontrole przeprowadzone przez NIK wymusiły na
administracji publicznej stosowanie nowych praktyk co przyczyniło się do powstania wielu
inicjatyw dotyczących bezpieczeństwa w cyberprzestrzeni. W 2015 roku powstała
Doktryna Cyberbezpieczeństwa Rzeczypospolitej Polskiej, również w 2015 roku CERT
wydał Raport
o bezpieczeństwie cyberprzestrzeni RP.27 Kontrole NIK ukazały mnóstwo
25 Tamże, s. 10-11.( 12.01.2017 r.) 26 ZSI, https://www.nik.gov.pl/( 12.01.2017 r.)
27 Ocena ryzyka na potrzeby zarządzania kryzysowego, Raport o zagrożeniach bezpieczeństwa narodowego,
Warszawa, 2013, s.52, dostęp: http://rcb.gov.pl/wp-content/uploads/ocenaryzyka.pdf, (12.01.2017r. )
73
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
nieprawidłowości w funkcjonowaniu systemów różnych instytucji publicznych,
wynikających z nieprzestrzegania zaleceń zawartych w Krajowym Planie Zarządzania
Kryzysowego. Nowym dokumentem opracowanym przez NIK jest Strategia
Cyberbezpieczeństwa Rzeczypospolitej Polskiej na lata 2016-2020,28 która dotyczy
szkolenia pracowników administracji publicznej oraz organów ścigania. Kontrole
wykonywane przez Najwyższą Izbę Kontroli dały początek zmianom na lepsze m.in.
przyczyniły się do ulepszenia systemów informatycznych, w, których do tej pory
występowały błędy. Kontrole Najwyższej Izby Kontroli wykazały bardzo dużo
nieprawidłowości w systemie informatycznym Ministerstwa Skarbu Państwa, co
przyczyniło się do radykalnych zmian w systemach komputerowych instytucji
państwowych.
Podsumowanie
Obecny stan bezpieczeństwa informatycznego nie pozwala na bezpieczny stan
cyberprzestrzeni. W ocenie NIK, ustalenia podejmowanych kontroli wskazują na
konieczność bezzwłocznego podjęcia skoordynowanych, systemowych działań
prowadzących do wdrożenia realnych mechanizmów ochrony cyberprzestrzeni RP.
Kolejnymi warunkami efektywnej ochrony cyberprzestrzeni, jest wdrożenie mechanizmów
współpracy podmiotów prywatnych
i państwowych oraz zapewnienie odpowiedniego finansowania działań związanych
z bezpieczeństwem IT. Infekcja oprogramowaniem złośliwym następuje przede
wszystkim wskutek nieprzestrzegania podstawowych zasad bezpieczeństwa. Kluczowe
nadal są takie kwestie jak: prowadzenie przez instytucje szkoleń dla nowo przyjmowanych
pracowników oraz szkoleń prowadzonych cyklicznie dla całej kadry jak również
przeprowadzanie testów bezpieczeństwa nowych systemów. W ostatnim czasie
dużemu niebezpieczeństwu poddana jest bankowość elektroniczna. W prosty sposób
można założyć lokatę, a nawet nabyć jednostki uczestnictwa funduszy inwestycyjnych.
Obawy klientów korzystających z dobrodziejstw bankowości elektronicznej, trzeba jednak
pamiętać o podstwowych zasadach bezpieczeństwa. Wg. badań niemal 80% użytkowników
obawia się o ochronę swoich danych pieniędzy na kontach. Obawiają się przede wszystkim
włamań na konto, przejęcia loginu i hasła albo wirusów. Przed tymi zagrożeniami można
się jednak skutecznie chronić stosując się do podstawowych zasad bezpieczeństwa.
Należy korzystać z legalnego z legalnego oprogramowania i regularnie je
aktualizować, korzystając z takich usług najlepiej używać własnego komputera, w żadnym
przypadku nie wolno udostępniać osobom trzecim numeru klienta, haseł, karty kodów
jednorazowych. Nie wolno odpowiadać na maile, których autorzy proszą o ujawnienie czy
zweryfikowanie danych osobowych, informacji dotyczących numeru konta czy karty
kredytowej. Bank nigdy nie wysyła maili z prośbą o podanie takich danych o czym watro
pamiętać.
28 Ministerstwo Cyfryzacji, Strategia Cyberbezpieczeństwa Rzeczypospolitej Polskiej na lata 2016-2020,
Warszawa 2016, dostęp: https://mc.gov.pl/files/strategia_v_29_09_2016.pdf,( 15.01.2017 r. )
74
Patrycja Izdebska
Zagrożenia bezpieczeństwa systemów informatycznych płynących z nieznanych źródeł 2017
Bibliografia
1. Katalog zagrożeń CERT.GOV.PL, Warszawa 2013
dostęp: http://www.cert.gov.pl/download/,
2. CERT.GOV.PL, Raport o bezpieczeństwie cyberprzestrzeni RP, Warszawa 2016,
dostęp: http://www.cert.gov.pl/cer/publikacje/raporty-o-stanie-bezpi/,
3. Dąbrowska. A, Janoś-Kresło . M, Wódkowski A., E-usługi a społeczeństwo
informacyjne, Wyd. Difin, Warszawa 2009, s. 138
4. Departament Porządku i Bezpieczeństwa Wewnętrznego, Informacja o wynikach
kontroli NIK pt. Realizacja przez podmioty państwowe zadań w zakresie ochrony
cyberprzestrzeni RP, Warszawa 2015, s.8.,
dostęp: https://www.nik.gov.pl/plik/id,8764,vp,10895.pdf,
5. Ministerstwo Cyfryzacji, Strategia Cyberbezpieczeństwa Rzeczypospolitej
Polskiej na lata 2016-2020, Warszawa 2016,
dostęp: https://mc.gov.pl/files/strategia_v_29_09_2016.pdf,
6. Funkcjonowanie wybranych systemów informatycznych Ministerstwa Skarbu
Państwa - Najwyższa Izba Kontroli,
dostęp: https://www.nik.gov.pl/kontrole/P/10/045/KGP/
7. Ocena ryzyka na potrzeby zarządzania kryzysowego, Raport o zagrożeniach
bezpieczeństwa narodowego, Warszawa, 2013, s.52,
dostęp: http://rcb.gov.pl/wp-content/uploads/ocenaryzyka.pdf
8. Rządowy zespół reagowania na incydenty komputerowe, CERT.GOV.PL, Raport
bezpieczeństwie cyberprzestrzeni RP, Warszawa 2016,
dostęp: http://www.cert.gov.pl/cer/publikacje/raporty-o-stanie-bezpi/,
Threats to the security of information systems from unknown sources
Abstract:. Cyber security consists of a number of concepts, from information security and
operational security to the security of computer systems. Cyber attacks allows you to perform remote
actions using a computer connected to the network. The cyber attack operating module is creating
computer viruses and other dangerous software and sending them to the target, in place of attack
Key words: Cybersecurity, controls, viruses, attack
75
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
Piotr Graniszewski
Koło Naukowe Programistów
Uniwersytet Przyrodniczo-Humanistyczny w Siedlcach
The Cloud as Illustrated by Amazon Web Services
Chmura na przykładzie Amazon Web Services
Summary: Cloud-based services have taken the IT world by storm. Thanks to nearly unlimited
scalability, high flexibility and affordable prices, more and more companies are moving to cloud-
based services such as Amazon Web Services. This paper provides a brief analysis of traditional
hosting options predating the cloud, as well as of the current leader in cloud services, Amazon Web
Services – and in particular, options and services available within AWS, and inherent pitfalls one
might encounter.
Key words: public cloud services, cloud computing, information technology, AWS, hosting options,
overview of enterprise hosting solutions
Introduction
Cloud services have become a very popular solution to everyday hosting needs. In
2016, roughly 21% of EU enterprises used cloud computing and compared to 2014, the use
of cloud computing in large enterprises increased by 10 percentage points (Eurostat, 2016).
Its popularity can partially be owed to the plethora of available services and accessibility.
And with it, companies are also adopting the Software as a Service (SaaS) model, which is
prevalent in the cloud. Existing adopters are also considering moving more of their services
into the cloud. Well-known companies using cloud services include Netflix, Pinterest,
Instagram, and Apple. 29
Reasons cited for not joining the cloud revolution include steep learning curve,
security issues, and managing costs (RightScale, 2017). It is therefore important to know
both the strengths and weaknesses of this solution so that it can be utilized effectively and
wisely.
One of the leading providers is Amazon (see Fig. 2). Its cloud services platform,
Amazon Web Services, is a good example of a successful implementation of a cloud
platform.
29For more examples see: https://www.smartdatacollective.com/7-well-known-companies-have-moved-cloud/
76
Maciej Nazarczuk
SDL and SFML - Basics, Similarities and Differences 2017
Figure 1: Cloud adoption rates in 2017
Source: RightScale 2017 State of the Cloud Report
Figure 2: Public cloud adoption in 2017
Source: RightScale 2017 State of the Cloud Report
Traditional Internet Hosting Options
It is imperative to understand the context of the cloud – that is, what came before it
– to see where cloud services fit in currently. Cloud computing became freely available
in 2006 with Amazon’s Elastic Compute Cloud (EC2). Traditional internet hosting
options include:
1. Shared Web Hosting.
2. Virtual Private Server.
3. Dedicated Hosting Service.
4. Colocation.
5. Dedicated server rooms and data centers.
77
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
A quick breakdown of distinct features below:
Shared Web Hosting:
1. Multiple users sharing the same logical server/machine. Implementations can be:
a. IP-based: each virtual host has a different IP address thanks to the use of
multiple physical or virtual network interfaces on the same physical interface.
b. Name-based (shared IP hosting): the server uses requested hostname
information from HTTP requests to display the correct website.
2. System administration, which restricts customizability.
3. Frequent resource overselling, resulting in downtime.
4. Security risks (directory traversal attacks, command injection etc.).
5. Performance highly dependent on other users using the same machine.
6. Inexpensive – prices as low as $8 per month.
7. High ease-of-use.
8. No scalability.
Virtual Private Server:
1. Multiple users sharing the same physical server. Each user is given a virtual
machine – or in other words, a private logical server.
2. Highly customizable software-wise.
3. Affordable.
Dedicated Hosting Service:
1. One user on one physical server.
2. Unlimited software customization.
3. Very consistent performance.
4. Expensive.
Colocation:
1. One user on one physical server owned by the said user and located in rented
server space with provided server infrastructure.
2. High customizability down to the physical layer.
3. Responsibility for the collocated hardware and software.
4. Required additional maintenance; the server has to be visited personally.
5. Excellent security.
6. Very expensive.
Dedicated Server Rooms and Data Centers:
1. The user has to provide all the infrastructure.
78
Maciej Nazarczuk
SDL and SFML - Basics, Similarities and Differences 2017
2. Unlimited customization.
3. Full responsibility for everything.
4. Prohibitively expensive.
Those solutions are often used alongside cloud services. It is worth noting that each
option fills a certain role.
Revolutionary Nature of Cloud Services
As the internet grew, so did the needs of the enterprise world. With increasing and
constantly varying server loads came the necessity of scaling – something that none of the
previous options excel in. Companies also needed to move away from having to manage
hardware and software nuances to focus on core business instead.
Cloud computing involves thousands of physical servers running thousands of
virtual servers, each of which is able to provide shared computer processing resources to
computers and other devices on demand. It allows for automatic scaling according to
current server load, quick deployment of applications and reliable hosting of resources.
The result is a flexible and highly scalable platform that combines the ease-of-use of
managed services and performance of dedicated solutions. Cloud benefits from the effect
of scale – thanks to it, it’s offered with pay-as-you-go pricing.
Users do not concern themselves with underlying hardware. When a project grows,
it could become limited by available infrastructure. Adjusting to changes is much simpler
and much less painful with cloud services – ordering additional resources involves a couple
of clicks in the administration panel. What happens under the hood becomes irrelevant.
Users can adjust available resources at any time according to current needs and budgetary
constraints.
If a business wanted to introduce its IT services in other countries, it would
probably be necessary to open new servers in that area to provide high quality of service.
VPS and dedicated server providers are usually limited in that aspect – any given provider
is usually confined to certain areas or countries. Major cloud providers, however, have data
centers in every part of the world, meaning that it’s no longer necessary to seek a new
provider when expanding a business, resulting in easier and faster integration with existing
infrastructure. Since the whole service is resource-based, the user does not get charged with
costs usually associated with on-premise servers (such as in the case of colocation). Servers
in the cloud are dynamically allocated, so there’s nothing stopping the user from shutting
down a server instance when it’s not needed and saving money.
Amazon Web Services in Detail
Global Infrastructure
AWS infrastructure consists of regions composed of Availability Zones (AZ), and
Edge Locations (see Fig. 3). Each region is a completely independent geographical area,
and each region has multiple, isolated locations called Availability Zones that are connected
to each other through low-latency links. An Availability Zone is one logical data center.
This provides redundancy in that if one instance becomes damaged (or simply disappears)
79
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
because of a fault in a particular AZ, it is possible to configure another instance from a
different AZ within the region to take over (through address remapping, for example).
Figure 3: Map of AWS Regions
(numbers indicate quantity of Availability Zones; green circles indicate future locations)
Source: https://aws.amazon.com/about-aws/global-infrastructure/
Edge Locations serve requests for Amazon CloudFront and Route 53.30 ELs are
used to cache assets for faster delivery, which is particularly useful in remote locations.
Amazon’s infrastructure is being constantly expanded. One can only expect more regions
and edge locations in the future.
Available Services
AWS offers a range of services, ranging from typical cloud servers and content
delivery to IoT, archiving, serverless computing, and Big Data. Products listed on the
official website include but are not limited to:
1. Computing.
2. Storage.
3. Database.
4. Migration.
5. Networking & Content Delivery.
6. Artificial Intelligence.
7. Mobile Services.
8. Application Services.
9. Messaging.
10. Business Productivity.
11. Internet of Things.
30Amazon’s Content Delivery Network (CDN) and managed DNS, respectively
80
Maciej Nazarczuk
SDL and SFML - Basics, Similarities and Differences 2017
A big portion of services are managed. Some of them are specialized – for example,
there are dedicated services for creating and managing databases (see Table 1). Many of
those services are proprietary versions of free or otherwise open solutions that Amazon
adapted for the cloud. Considering that Amazon Web Services is pay-per-use, changes had
to be made in order to enable metering. As a result, each service has a unique API and
unique pricing (see Fig. 4). Not paying attention to pricing details may lead to costly
mistakes.
Figure 4: Example pricing: RDS data transfer costs
Source: https://aws.amazon.com/rds/aurora/pricing
Table 1: Popular AWS services
Service Name Short Description
Elastic Compute Cloud (EC2) Cloud-equivalent of VPS
Elastic Block Store (EBS) Persistent block storage for EC2 instances
Elastic File System (EFS) Shared file storage for EC2 instances
EC2 Container Service (ECS) Container management with Docker support
Simple Storage Service (S3) HTTPS-based object storage with a simple web interface
Elastic Beanstalk Quick and easy deployment of applications (Java,
PHP, .Net, etc.) – create ⇒ upload ⇒ launch environment
⇒ manage environment
Lambda Automatic execution of code in response to events
AWS Key Management Service
(KMS)
Creation and management of encryption keys
Glacier Long-term object storage for data archiving
Aurora MySQL-compatible relational database
81
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
Source: own work
Instances and Instance Types
Some services such as EC2 revolve around instance types. Instance types are suited
for specific use cases. For example, there are general purpose EC2 instances named T2,
M4, and M3 with balanced configurations of compute, memory, and network resources.
There are also compute optimized, memory optimized, and storage optimized instance
types, each with unique pricing and features. Basic differences between types include the
number of available virtual CPUs, amount of memory, and amount of networking
bandwidth. The cheapest T2 type involves CPU credits, which, if depleted, will reduce
the instance’s performance down to the baseline level. One CPU credit equals 1 minute of
100% virtual CPU utilization. The idea is simple: when the instance is not under stress,
its CPU credits pool will increase. Under load the pool will decrease. For this reason, T2
instances belong to the Burstable Performance Instances. It is therefore not recommended
to use this type of instances for heavy workloads.
Supplementary Services and Options
Services are meant to be used in conjunction. Specifically, EC2 instances are
practically always paired with EBS to provide server-side data persistence – even simply
stopping an EC2 instance causes it to permanently lose data, which is why EBS is crucial
in most setups. EBS volumes persist independently from the running life of an EC2
instance. When the attached EC2 instance is terminated, the EBS is detached automatically.
It can then be reattached to another instance.31
Due to the volatile nature of cloud resources, where it’s impossible to point out a
single server or a drive, and where servers appear and disappear every minute, DNS
services are necessary. Public IP addresses are no longer sufficient, because those IPs do
not stick to the AWS account; when an IP address is disassociated with an instance, it is
released back into the public IP address pool, and therefore cannot be reused by the instance
owner.32 Traffic has to be properly and reliably routed. A situation where it’s routed to a
terminated EC2 instance is unacceptable. For this reason, Elastic IP can be allocated to an
AWS account and freely attached to available instances, so that when an instance is
stopped, it will still be accessible under the same static public (Elastic) IP once it’s restarted.
It is possible to tweak the performance of selected services and instances by
purchasing additional options. For example, there’s a High Availability option (Multi-
31Further reading: http://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumes.html 32Details: http://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-instance-addressing.html
DynamoDB NoSQL database
CloudWatch Monitoring for AWS cloud resources: metrics, logs,
alarms, operational health, utilization statistics
CloudTrail Logging and monitoring of AWS account API calls
Device Farm Automated testing of iOS, Android, and web apps on real
mobile devices such as phones and tablets. Includes remote
access to tested devices
Direct Connect Dedicated network connection from premises to AWS
Snowball Petabyte-scale solution for transferring large amounts of
data to and from AWS cloud using specialized physical
devices that are shipped to the customer and then returned
82
Maciej Nazarczuk
SDL and SFML - Basics, Similarities and Differences 2017
AZ), which aims to provide failover support for AWS database instances by mirroring data
across multiple Availability Zones. As a result, a synchronous standby replica is always
available in case of failure. When the active instance fails, a backup one can be brought up
immediately, assuring high availability of hosted services.
A staple feature of AWS is Auto-Scaling. It allows for the automatic scaling of EC2
instances based on custom conditions. Example scenarios include reduction in EC2
instances when CPU utilization is low, or increase in instances during heavy workloads,
automatically adjusting for natural variability.33
And finally, in cases where a company still requires private assets such as server
rooms or data centers that also need to be integrated with Amazon’s cloud services, it is
possible to connect the company’s infrastructure with the AWS cloud using Direct
Connect – a dedicated connection to selected AWS regions. This feature can be used to
create hybrid clouds – a combination of private and public cloud technologies. The
resulting VLAN can then be used to freely interface with both public and private AWS
resources.
Ecosystem: AWS Marketplace
Owing to the huge popularity of AWS, there’s a thriving community of creators. It
is possible to find custom-made solutions on the AWS Marketplace (launched in 2012),
which is an online store for AWS software and technical services (see Fig. 5). Categories
include but are not limited to: databases, application servers, testing and monitoring tools,
content management, and even operating systems.
Figure 5: Example AWS Marketplace offers
Source: https://aws.amazon.com/marketplace
33This technique is employed by companies like Facebook to save power:
https://code.facebook.com/posts/816473015039157/making-facebook-s-software-infrastructure-more-energy-
efficient-with-autoscale/
83
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
Drawbacks, Common Pitfalls, and Mistakes
One of the greatest strengths of cloud-based services – worldwide availability – can
also be a weakness. By using so many integrated services of a single company, there’s a
risk of becoming so dependent on the provider that it’s no longer feasible to get out of the
ecosystem. Cloud providers often offer unique solutions with distinct APIs, making
migration hard and costly. And since costs are rarely calculated up-front, they may cause a
rapid growth of expenditure because of unoptimized strategies. A classic example involves
investing in more CPU credit-limited T2 instances in a situation where those instances are
put under constant stress, leading to credit starvation and reduced performance. It is worth
monitoring resource utilization to make informed decisions.
Knowledge is the main limiting factor in the usage of cloud-based solutions.
Improper use of available tools may even lead to irreversible data loss. And even with
Amazon’s redundancy systems in place, AWS is not immune to failure.34 There are often
no refunds of any kind in the event of a user-independent malfunction, and any refunds are
most likely going to be in the form of credits that only work within the AWS ecosystem.
Ultimately, how much trust can be put in big companies is a matter of personal
judgment. It is possible, after all, to use multiple cloud vendors at the same time, so as not
to “keep all your eggs in one basket”. 35
Conclusion
Cloud services have not completely replaced traditional internet hosting options.
Considering major weaknesses inherent in cloud technology, traditional ways of hosting
and computing are here to stay, at least in certain cases. Despite that, cloud-based solutions
are viable for rapidly growing businesses, development teams, and companies big and
small. Due to the high scalability, elasticity, and pay-per-use model, they can be employed
with success in a variety of fields, most notably in machine learning and Big Data. While
in theory, extensive knowledge of cloud’s innards is not required, it is very much advised
to have at least a working knowledge of the chosen cloud vendor’s platform.
Bibliography
1. Giannakouris, K., Smihily, M., Cloud computing - statistics on the use by
enterprises, Eurostat, 2016.
2. RightScale. RightScale 2017 State of the Cloud Report, RightScale 2017.
3. Hamdaqa, Mohammad, Cloud Computing Uncovered: A Research Landscape,
Elsevier Press, 2012.
4. Amazon Web Services Documentation, https://aws.amazon.com/documentation/
34See the example: http://www.cmips.net/2015/02/01/amazon-wiped-out-one-of-my-servers-they-completely-
lost-data 35Further reading: http://www.networkworld.com/article/3165326/cloud-computing/the-future-isnt-cloud-its-
multi-cloud.html
84
Maciej Nazarczuk
SDL and SFML - Basics, Similarities and Differences 2017
85
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
Chmura na przykładzie Amazon Web Services
Streszczenie: Usługi oparte na chmurze zawojowały świat IT. Dzięki niemalże nieograniczonej
skalowalności,, wysokiej elastyczności i przystępnych cenach, coraz więcej przedsiębiorstw korzysta
z rozwiązań chmurowych takich jak Amazon Web Services. Artykuł przedstawia krótką analizę
tradycyjnych opcji hostingowych poprzedzających chmurę, a także analizę Amazon Web Services –
w szczególności, opcji i usług dostępnych w ramach AWS, włączając w to potencjalne pułapki, w
które można wpaść.
Słowa kluczowe: publiczne usługi chmurowe, przetwarzanie w chmurze, informatyka, AWS, opcje
hostingowe, przegląd rozwiązań hostingowych dla przedsiębiorstw
86
Maciej Nazarczuk
SDL and SFML - Basics, Similarities and Differences 2017
Maciej Nazarczuk
Koło Naukowe Programistów
Uniwersytet Przyrodniczo-Humanistyczny w Siedlcach
SDL and SFML - Basics, Similarities and Differences
SDL i SFML - podstawy, podobieństwa i różnice
Summary: SDL and SFML are free, multiplatform libraries providing access to input and
output devices. They allow user to easily create both big and small video games and other
multimedia applications such as emulators. The article presents possibilities of both
libraries as well as similarities and differences between them.
Key words: programming library, multimedia, video games
Introduction
The goal of the article is to present two programming libraries SDL - Simple
DirectMedia Layer and SFML - Simple and Fast Multimedia Library, to show their basic
features, capabilities and an example program, which purpose is to display a simple shape
on the screen. Moreover, I will discuss similarities and differences between the two
libraries.
Simple DirectMedia Layer
Library is a wrapper around OS-specific functions that gives the programmer an easy
to use multi-platform API. It facilitates creation of windows and displaying both simple 2d
images and complex 3d models. In addition to graphics, SDL provides event handling
(events can be keyboard key presses, mouse clicks, window resizing etc.), multithreading
and playing audio.
SDL allows development of programs for multiple platforms like Windows, Linux,
Mac OS X, or even Android and iOS. Library was written in C but over the years there
were created many bindings to other languages like: Ada, C#, Go, Lua, OCaml, Pascal,
Python, Rust.
Simple and Fast Multimedia Library
The shortest and most helpful description can be found on the library’s official
website in the FAQ section. (https://www.sfml-dev.org/faq.php#grl-whatis) which states
that the SFML is just like SDL but object oriented. The library is divided into five modules:
Audio - responsible for what the application sounds like, Graphics - application’s visual
presentation, Network - client-server and client-client (Peer to peer) communication,
Window - window and event handling, System - base module of SFML, defining various
utilities.
As opposed to its older brother SFML was written in C++, however they are similar
in that it also benefits from many bindings to other languages like: C, C#, Crystal, D,
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
Euphoria, Go, Haskell, Java, Julia, Nim, OCaml, Pascal, Python, Ruby, Rust. Programs
developed with the aid of SFML can be launched on Windows, Linux, Mac OS X machines,
support for mobile devices with Android and iOS was implemented in version 2.2
(https://www.sfml-dev.org/faq.php#grl-platforms).
Similarities Between Libraries
Both libraries allow: effortless creation of windows, handling of events such as key
presses or mouse clicks, displaying of graphics, sound playback. Here is the simple
application, which creates new window titled “Moje okno” and displays a white rectangle
in the upper left corner using SFML.
Figure 1.
Source: own work
88
Maciej Nazarczuk
SDL and SFML - Basics, Similarities and Differences 2017
Figure 2.
Source: own work
Here is the same program written with the use of SDL.
Figure 3.
Source: own work
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
Figure 4.
Source: own work
As shown it is possible to achieve identical results using any of the two previously
discussed libraries. Additionally, both of them are available under Zlib license allowing
free and commercial and non-commercial use.
Differences
The main difference between libraries is the language used in their development and
emerging from it procedural, regarding SDL, and object-oriented approach for SFML.
Other than that, the differences are of rather cosmetic nature, for example audio access in
SDL is realised on lower level thus, giving the programmer more sophisticated tools, which
are useful only in development of complex audio editing applications. In SFML this process
is distinctly streamlined.
Besides the technical differences, it is worth noting that the SDL is almost twice the
age of its younger brother. (released in 1998 and 2007 accordingly). It translated into a
much bigger user base, more successful projects and mentions in literature, articles and
tutorials.
90
Maciej Nazarczuk
SDL and SFML - Basics, Similarities and Differences 2017
Bibliography
1. Haller, J., Hansson, H. V., Moreira, A., SFML Game Development, Packt
Publishing, Birmingham 2013
2. Lazy Foo’ Productions - Beginning Game Programming,
http://lazyfoo.net/tutorials/SDL/
3. Learn SFML, https://www.sfml-dev.org/learn.php
4. Introduction - SDL, https://wiki.libsdl.org/Introduction
SDL i SFML - podstawy, podobieństwa i różnice
Streszczenie: SDL i SFML są darmowymi, wieloplatforomowymi bibliotekami zapewniającymi
dostęp do strumeni wejścia i wyjścia. Umożliwiają użytkownikowi na łatwe tworzenie zarówno
dużych jak I małych gier komputerowych czy innych aplikacji multimedialnych takich jak emulatory.
Ten artykuł prezentuje możliwości obu bibliotek, a także różnice i podobieństwa między nimi.
Słowa kluczowe: biblioteka programistyczna, multimedia, gry komputerowe
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
Adam Miros
Koło Naukowe Programistów
Uniwersytet Przyrodniczo-Humanistyczny w Siedlcach
The Use of Information Technology in the Process of Making
Music
Zastosowanie technologii informacyjnych w procesie tworzenia
muzyki
Summary: Music is an integral part of many cultures, it accompanied people from the dawn of
time, and it has many different roles depending on environment and customs. Information
technologies has also found its applications. Their role continues to grow, starting with the first
invention of Elisha Gray in 1876, when he invented the first musical telegraph.
Key words: music, information technology, midi, asio, virtual instruments.
Introduction
Music is an integral part of many cultures, it accompanied people from the dawn of
time, and it has many different roles depending on environment and customs. It is present
during fun, work, rest, religious rituals, even for many subcultures it is a recognisable
element. Music is made up of sounds. Sounds are acoustic waves. These waves must be
matched to the whole frequency, amplitudes, respectively over time. Information
technologies have found an extremely wide application in the process of creating sound.
They expanded the possibilities of obtaining new sounds, due to the conversion of audio
tracks with real instruments, introducing a wide range of simulators and virtual
instruments, allowed to receive previously unknown sounds. A new genre of music
appeared. It is called "electronic music" which is a continuation of "mechanical music".
When the music was established, it was meant to convey the spirit of the heavy industry,
the mechanical railway, and the developing factories. Nowadays, it is one of the most
popular genres of music that enjoys great popularity all over the world.
Virtual Instruments
Virtual instruments are computer software that allows you to create sounds using
virtual modelling technology, to manipulate the sound through sets of attached filters, and
to imitate acoustic instruments or synthesizers. The virtual instruments also have a lot of
ready-made sounds prepared for the use i.e. samples. The characteristic of these programs
is the high quality of the received sounds. The quality of the sound does not diverge from
the recordings of top-ranked real instruments and does not require manual play because the
control is done with a mouse, keyboard or MIDI controller. The virtual instruments we
offer can be divided into three basic categories:
• virtual synthesizers
• virtual sets of acoustic instruments
• programs specialized in the sound of one or a group of instruments
92
Adam Miros
The Use of Information Technology in the Process of Making Music 2017
Another point that proves the popularity of virtual instruments is the multitasking.
With just one software, we can create a multi-purpose music studio at home.
MIDI standard
Musical Instrument Digital Interface is a digital communication language for
musical instruments and computers. Its first version was created in 1983. It was created
with the agreement of manufacturers to unify and extend the possibilities of cooperation
between the instruments and the computer as well as between the instruments itself. Due
to dedicated software, MIDI allows us to program individual voices or compositions, to
assign the voices to specific controllers, and to combine instruments with sequencers.
Currently, the main application of this standard in the music-making process is to control
the software parameters from the controller, e.g. keyboards with parameters such as:
• prepared sounds control
• running sequencers
• digital mixers control
• effects processor control
Data in this standard is transmitted in series, the bit rate is 31250 bits per second.
One byte of information consists of ten bits. The standard components of information are,
for instance, pitch, volume, modulation, etc., which are transmitted on 16 channels.
ASIO 4 ALL
ASIO 4 ALL, Audio Stream Input / Output is a widely used audio card driver. It is
produced by Steinberg Media Technologies. ASIO 4 ALL reduces the delay of the sound
card, i.e. latency, in most cases up to a few milliseconds, which for advanced sound
manufacturers is very important. This system has been adopted by many audio cards
producers, so it is almost universal for most systems available on the market
Summary
Information technologies have revolutionized the process of creating music both
from a technological and artistic point of view. Information technologies opened many new
opportunities for music creators. Thanks to the information technologies the limit in
creating the music can be only the imagination of the author. Information technology has
also popularized music production. It allows beginning producers to access the advanced
technology and devote themselves to their passion. It also opens unlimited development
opportunities for regular people.
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
Bibliography
1. Muzyka elektroniczna – Wikipedia, wolna encyklopedia,
https://pl.wikipedia.org/wiki/Muzyka_elektroniczna#Pocz.C4.85tki
2. Instrument wirtualny – Wikipedia, wolna encyklopedia,
https://pl.wikipedia.org/wiki/Instrument_wirtualny
3. MIDI – Wikipedia, wolna encyklopedia, https://pl.wikipedia.org/wiki/MIDI
4. ASIO4All – uniwersalny sterownik ASIO do kart dźwiękowych w Windows – MIDI
online, http://midi.deefacto.com/index.php/asio4all-uniwersalny-sterownik-asio-
do-kart-dzwiekowych-w-windows/
5. Estrada i Studio, http://www.eis.com.pl/pl/modules.php
Zastosowanie technologii informacyjnych w procesie tworzenia muzyki
Streszczenie: Muzyka jest integralną częścią wielu kultur, towarzyszy ludziom od zarania czasu i
ma wiele różnych ról w zależności od środowiska i zwyczajów. Technologie informacyjne znalazły
również swoje zastosowania. Ich rola wciąż rośnie, począwszy od 1876 roku, kiedy Elizeusza
Szarego wymyślił pierwszy telegraf muzyczny.
Słowa kluczowe: Muzyka, technologie informacyjne, midi, asio, wirtualne instrumenty.
94
Marcin Izdebski
Employment of Informatics in Motorization 2017
Jarosław Kamiński
Koło Naukowe Programistów
Uniwersytet Przyrodniczo-Humanistyczny w Siedlcach
Not Just Gadgets: How Much Computer Science Is in Cars
Nie tylko gadżety, czyli ile informatyki jest w samochodach
Summary: There are many computers in new cars. Navigators, television systems and parking
assistants are just examples. However, in older cars it is also applied computers, although the naked
eye cannot see. Presentations will show the types and activities of computers in cars and their
development.
Key words: cars, information technology, computers
Introduction
Car computers are different from those we have on desks in our homes. This is due
to the fact that they have different tasks and work in different conditions. It is also important
to set other requirements in terms of reliability and durability for car computers. Thanks to
computers significantly improved driving safety and was limited negative effect of exhaust
on the environment.
Since When Computers Are Installed in Cars
Many people think that computers are only used in new cars. The truth, however, is
different because at the end of the 1980s the first ECUs were assembled in cars, due to the
exacerbation of regulations governing exhaust emissions. Carburetor systems could not
meet these requirements, so computer controlled electronic injection with adjustable
catalyst was introduced. In 1978, the first ABS systems were introduced to prevent the car
from slipping into the car. Since 2004 ABS system is compulsory for all new cars in the
European Union.
ECU
The ECU Engine Control Unit works with other computers and sensors such as
lambda probes, temperature sensors, or crankshaft position sensors. It takes information
from them and, based on them, selects the appropriate proportion of the fuel mixture,
determines the fuel dose, and determines the injection timing of the fuel in the cylinders.
Cars with indirect electronic injection are characterized by a lower fuel consumption than
cars based on engines with carburetor.
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
Driving Safety and Computers
Computers control many systems that affect driving safety. Each system has its own
computer. The most popular driving safety systems include:
• Anti-Lock Braking System – ABS
• Traction control system - Acceleration slip regulation - ASR,
• Electronic Stability Program (ESP),
• Electronic Differential Lock - EDL (EDS (German) Elektronische
Differentialsperre)
• Electronic Brakeforce Distribution (EBD.
The car's ABS system was first mounted in 1978. Initially, in Mercedes-Benz S class. It
was manufactured by Bosch. Some computers use components from other computers,
e.g. EDS uses ABS sensors. Very important are systems that ensure safety in the event of
an accident, e.g. airbags and belt tensioners. Them also have their computers that need to
react very quickly.
Cruise Control System
Cruise control is a device that maintains a constant vehicle speed regardless of
whether the vehicle is traveling on a flat surface or sloped. The driver does not have to
press the acceleration pedal, as speed control is automatic (in the case of automatic
gearboxes, also the gears are changed automatically). It helps to keep the maximum speed
allowed in a given area and prevents it from being exceeded unintentionally. Maintaining
constant speed is also good for economic driving. The CCS (cruise control) system works
after exceeding the specified cruising speed (usually 40 km/ h). Programming of the right
speed is done by means of switches - the driver sets the speed of his choice using the buttons
on the steering wheel. The control unit continually compares the actual speed with the
entered speed (at any change adjusts the actual speed with the setting elements.
Buses
In the car there are many computers, sensors and drivers. However, all are connected
by a network (bus). In cars used are CAN, LIN and FlexRay. The CAN-Control Area
Network was created by BOSCH in the 1980s. It is very resistant to interference. LIN-
Local Interconnect Network was established in 1999, its use is much cheaper than CAN.
The last bus discussed is the FlexRay bus. This is the most modern (from 2005) of the
presented bus, now rarely seen in mass production cars. Its throughput is 10 Mbit / s and is
designed for use in automatic driving systems. The first car using FlexRay left the factory
in 2007, It's the BMW X5. FlexRay is a bus that uses system clock and microprocessors.
Buses also bring benefits for debugging: Special diagnostic connector allows you to read
all memory errors connected to the bus control devices.
96
Marcin Izdebski
Employment of Informatics in Motorization 2017
On-Board Computer
Currently, most cars have a board computer. It is responsible for displaying current
driving status information e.g.:
• average burning,
• momentary burning,
• driving time,
• speed,
• component temperatures,
• and also, the gear on which the vehicle is currently driving
• display the bug icon.
Summary
There are many electronics in the cars, which are designed to ensure safety of
driving, the safety of people in the car. Computers control the drive system, but also the
devices responsible for user comfort. Information technology is rapidly developing,
making car driving safer and less polluting. devices.
Bibliography
3. Komputer Świat, Jak działa komputer w samochodzie,
http://www.komputerswiat.pl/jak-to-dziala/2011/01/superpecet-pod-maska.aspx,
2011
4. Chilmon E., Nowoczesne technologie w motoryzacji,
http://www.motofakty.pl/artykul/nowoczesne-technologie-w-motoryzacji.html,
2016
5. Bieńkowski M, Komputery w samochodzie,
http://www.pcworld.pl/news/Komputery-w-samochodzie,325084.html, 2008
Nie tylko gadżety, czyli ile informatyki jest w samochodach
Streszczenie: W nowych autach jest wiele komputerów. Nawigacje, systemy telewizyjne i asystent
parkowania to tylko przykłady. Jednak w starszych autach też jest zastosowana informatyka, chociaż
gołym okiem tego nie widać. W prezentacji zostaną przedstawione rodzaje i działanie komputerów
w autach oraz ich rozwój.
Słowa kluczowe: samochody, informatyka, komputery
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
Marcin Izdebski
Koło Naukowe Programistów
Uniwersytet Przyrodniczo-Humanistyczny w Siedlcach
Employment of Informatics in Motorization
Zastosowanie informatyki w motoryzacji
Summary: The contemporary motorization cannot exist without the computerization. Customers
are putting great requirements before producers as for the safety and the convenience of driving a
car. Car producers must implement new technologies applied in modern vehicles and principles of
their actions. Here there will also be discussed the benefits of the development of computer science
in motorization.
Key words: car, phone, computer, communication, GPS
Introduction
The man from the very beginning aspired for improving the comfort of life, almost
all inventions in the history were aimed at changing surroundings to be more comfortable,
more practical and more economic. The real revolution took place in XX and the 21st
century along with the development of the technics, when having cars and computers
became more common. The combination of these two inventions has made it possible to
enjoy real fast, safe and comfortable travels.
The beginning of the 21st century was(is) the time of many gadgets that used (use)
computer technology in motorization. These gadgets include(d) the Chevrolet Corvette
system, which displays information on the windscreen of the car, in the driver's field of
vision. In 2005 The Bosh Company wanting to increase the safety produced Night Vision
which used the infrared light for cars to improve visibility without dazzling drivers from
the opposite direction.
Telephone applications
In 2008 the android system was used in cars for the first time what enabled the
communication between individual automobiles, thanks to the WLAN network. This was
to improve the safety and fluidity of traffic among others by informing drivers about
possible collisions and traffic jams. Currently the Internet is commonly being used in
automotive technology, such as R-Link technology. It uses a card built-in card inside the
car, so that vehicle owners with mentioned technology are exempt from any Internet
charges in the car. They have a constant access to maps being updated regularly. R-Link
also allows to watch movies and photos with your car's equipment, but for safety reasons
it is only possible when the car is off (source: www.renault.pl/finansowanie-i-
serwis/multimedia/r-link.html).
Among other things, thanks to the use of Android and IOS systems in cars, it
became possible to control the car with the phone. For security reasons at the moment, it
is not common to drive a car by phone, but opening, closing, starting, opening the trunk
already is. Viper SmartStart is an application that allows you to perform these actions, but
to get it working you need to buy a special module and install it in your car.
98
Marcin Izdebski
Employment of Informatics in Motorization 2017
The car-to-phone connection gave not only the possibility to control the car with the
phone, but also to control the phone with a car, so we could easily pick up phones, make
calls, check call history, or download and save phone books.
Car and Environment
Systems like DRIVING ECO2 control our ride, give us information whether we are
driving economically, when we can accelerate, and when we should slow down, they
evaluate our ride. We also get reports about possible air pollution in the place we are. This
system enables to switch the car to the environmental mode which means that we will use
less fuel, the gears will change very quickly, and by pressing the accelerator pedal we get
the impression that the car does not react at all thanks to a reduction in engine speed to a
minimum for a proper gear (source: www.motofakty.pl/artykul/nowoczesne-technologie-
w-motoryzacji.html).
Safety
From the very beginning of applying the computer technology in cars the aim
was to make this combination more secure for travelers, such tool is ABS system. Currently
Lane Assist systems and parking aid like rear assist or park assist are more common.
However the research on the implementation of new technologies isn't ending. Samsung
has produced a system to increase safety during overtaking, allowing cars to have more
visibility behind the trucks.
Ways of improving safety on roads and controlling the driver are constantly
increasing. For example, the Driver Alert Control (DAC) system, using sensors and
microcontrollers, controls the driver's alertness. Using digital camera and steering wheel
data, DAC compares non-standard behavior with the usual driving style. Apart from the
warning, there will appear a message on the dashboard that suggests a break.
GPS in tractors
For a certain time now we have witnessed the development of agriculture, and this
area of economy has not missed the technological advances that make it easier to work on
the field. Such is certainly the GPS installed in tractors. For newer models, this is already
a built-in system, but for older models there is a possibility of buying the appropriate
equipment. GPS in tractors has no less important role than in cars. Specialized devices such
as AgroPomiarGPS (running on handheld computers such as the Pocket PC) enable farmers
to measure land in order to claim subsidies. In addition, GPS devices can be used for
agrotechnical operations that require a monotonous field trip. These systems allow the
machines to run along parallel routes with up to 2 centimeters accuracy. They are also
assisting sprinklers to help with more precise agriculture which results in spray use.
Spherical tires
Widely used devices in daily lives of many people have been mentioned so far.
Although 20 years ago no one would have expected such conveniences. Works on few
another seemingly unrealistic projects are still ongoing, one of which is the spherical tires
being conducted by Goodyear company. Their shape, as the name suggests will not have
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
the form of a cylinder but rather a ball, maintained by the force of electromagnets. They
are also supposed to have special sensors which are informing the car of conditions on the
road and depending on them tires should adapt their tread
(www.motofakty.pl/artykul/nowoczesne-technologie-w-motoryzacji.html). The Eagle 360
project will certainly not come into force in near future, but that shows that the application
of modern technology in the automotive industry is constantly evolving.
Summary
The application of computer science in motorization is observed almost everywhere
nowadays. Today no one even thinks about buying a car without a basic computer system.
The revolution that IT has made in the automotive industry has led to increased safety,
improved driving comfort and a lot of savings. This is not the end, given the current
achievements we can be sure we will see further positive changes in days to come.
Bibliography
1. Chilmon, E., Nowoczesne technologie w motoryzacji, Motofakty.pl, Warszawa
2016
2. Nowicki, W., GPS do ciągników, poranny.pl, Białystok 2009
3. Okopień, P., Wszystko o systemie Renault R-Link2, komputerswiat.pl, Warszawa
2016
4. Bieńkowski, M. Komputery w samochodzie, PCWorld, Warszawa 2008
Zastosowanie informatyki w motoryzacji
Streszczenie: Współczesna motoryzacja nie może istnieć bez komputeryzacji. Konsumenci
stawiają duże wymagania przed producentami co do jakości i wygody prowadzenia auta.
Producenci samochodów muszą używać nowych technologii. W tej pracy przedstawione zostały
rozważania o zaletach rozwoju informatyki w motoryzacji..
Słowa kluczowe: samochód, telefon, komputer, komunikacja, GPS
100
Marta Kisielińska
Is Design Only the Appearance? – More About UX Design 2017
Marta Kisielińska
Koło Naukowe Programistów
Uniwersytet Przyrodniczo-Humanistyczny w Siedlcach
Is Design Only the Appearance? – More About UX Design
Czy design to tylko wygląd? – Szerzej o UX designee
Summary: Just a few years ago, Design in relation to websites meant only "these colors, these
pictures". Is today the same? Currently, the concept of user experience is often used interchangeably
with the term usability. According to Wikipedia, user experience is “a person's perceptions and
responses that result from the use or anticipated use of a product, system or service”. “User
Experience (UX) refers to a person's emotions and attitudes about using a particular product, system
or service. It includes the practical, experiential, affective, meaningful and valuable aspects of
human–computer interaction and product ownership.” (Wikipedia).
In this article, I am going to describe a fairly new approach to website design, A / B testing that
helps to find the golden means of communication with a product. I will also tell you how to start
analyzing the product in terms of usability, tools that are helpful in this, and bugs that are most often
committed by beginning UI and UX designers.
Key words: design, UX, user experience, usability.
Introduction
What exactly is design? It is worth to start with what we associate this word with.
One group finds that the design is something we see, how do we perceive the
outside of a product, an item, a website. Other people tell us that design is something special
related to the appearance of the product, something which distinguishes this product from
others and makes it unique. Just Design.
Both of these groups agree that this is the product layer we see, we can identify and
distinguish. Is it all about design? So, what is the difference between user experience (UX)
and user interface (UI)?
Explanation
In simple words, it is aesthetic layer, for example a website or more generally - a
product. It tells us how and where the site elements are located - headlines, buttons, tables,
descriptions. How the product looks - what is the shape, the color, where are the rounded
edges. Even simpler - design is what we see and if we find that is good - we like it, we feel
satisfaction seeing this thing and we enjoying. Is this the whole truth? Actually, not
exactly... design is not only the appearance. This is a very extensive layer of perception of
our product or a site that incorporates not only a description of the aesthetic layer, but also
information on how the product should work - its functionality - and what it can accomplish
the goals it was created for.
Steve Jobs often reminded that “Design is not just what it looks like and feels like. Design
is how it works”. It is true so we can say that an attractive performance is the icing on the
cake, but if we just camouflage lack of function we can not talk about the ideal.
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
UX: Your Feelings
I will start with the definition of a new concept, often confused with design or in
itself the usability of a given thing: user experience.
According to Wikipedia: "UX is a concept that describes the satisfaction a user
derives from using a product or service." User experience is the reactions and perceptions
of using the product.
The essence of UX design is discover users' habits and matching services and
products to a specific group of customers to create more and more positive experiences.
Comparing design to UX design, we must be aware that it is a comparison between
two different spheres. Design is mainly aesthetic layer - shape, color and functionality, it
is responsible for the product looks and fulfills its purpose to which it was created.
UX design intensifies this feature and makes the product look perfect and work as
accessible and intuitive as possible from the perspective of the recipient.
What is the advantage of this approach to design? This is primarily about taking care
of product quality, so that it can be more user-friendly but also minimizes the cost of
possible product improvements, does not generate as many customer-facing errors as the
user experiences, finally, the product brings satisfaction to the creators.
Analysis and Testing
How can we analyze a product or a website in terms of its usability and functionality?
First of all, we need to know what we want to check. If we want to analyze a product
created by someone else, we need to set these goals with the customer and find out what he
really needs, what he plans, find out where the problem is.
The next step is to determine the budget we have - we need to know how many tests
we can run, what are the tests and how many testers we will need.
After determining the costs, we will be collecting data that we will analyze in later
phases. We set up a test scenario - a list of steps and a list of questions for testers. If we
already know the client's problems, the project budget and we already have the data, we
need to know where to analyze them. If we know it, we choose the tools appropriate for
our tests.
For example, to check whether the menu button in the online store is more intuitive
- on the right or left, we have to check it with a test method called A / B testing. "It is based
on a comparison of two different versions of web pages aim to select the version that best
meets the tasks set by it" (Wikipedia). The test consists of displaying individual site
versions equal to the percentage of people in the same research period. This type of testing
is very popular, so there are many tools that allow this. The most popular testing tools are:
• Balsamiq
• Google Website Optimizer
• Hotjar
Hotjar is a support system for design and layout. The system is capable of receiving
heatmaps, recording user behavior, monitoring funnel sales and forms. Balsamiq is a tool
for creating web prototypes, it consists of a number of elements available on the web.
Google Website Optimizer Tool This tool allows you to perform A / B and multivariate
tests very easily.
102
Marta Kisielińska
Is Design Only the Appearance? – More About UX Design 2017
Mistakes and How to Avoid Them
To achieve perfection in web prototyping, this should be practiced - just like in any
field. But you also have to make mistakes, because the errors are drawn to the most learning
and benefits. However, there are some bugs that can be avoided at the beginning. The basic
thing we need to know when designing a website is to take care of its responsiveness.
Responsive Web Design is a way to design websites so that they automatically adjust to
the size of your device window. Such a website is universal and is displayed well on every
screen type. The statistics say that more than half of the purchases we make on the Internet
are made using mobile devices, so it is important to ensure the comfort of the user and
prospective customer viewing our site. Another mistake is the lack of data validation -
validation and compliance with predefined criteria. You may, knowingly or not, make a
mistake when entering data into forms, typing an e-mail address - validation partially
prevents such errors. For example, the validation mechanism will not accept e-mail address
without the "@". If UX design is from the client's habits it is worth adding that it should
not change the default behaviors of the site elements. This causes user confusion and
reduces its positive impression on the product or service. This is, for example, posting an
article without a highlighted header and introduction, or insert a button that its appearance
does not stand out from the text or on the contrary - focuses all the attention on himself by
what the content of the site is visually unimportant.
Conclusion
Design, UI design and UX design overlap each other, although they are often
confused because of their mutual relationship, one sphere does not exist without the other,
so we should recognize them. If you want to design responsive and useful products, you
should first familiarize yourself with the UX design principles and follow them, keeping in
mind that our customer group may differ from others, and that it requires other elements
and principles, so it is important to design and test in accordance with UX design principles.
Bibliography
1. Blog UX - user experience. Psychologia w IT, marketing, testy A/B,
http://ux.marszalkowski.org
2. 10 Common UI/UX Mistakes and How to Avoid them | Michael Soriano,
http://michaelsoriano.com/10-common-uiux-mistakes-and-how-to-avoid-them/
3. Balsamiq. Rapid, effective and fun wireframing software. | Balsamiq,
https://balsamiq.com/
4. Hotjar - Heatmaps, Visitor Recordings, Conversion Funnels, Form Analytics,
Feedback Polls and Surveys in One Platform, https://www.hotjar.com/
5. Prototypes, Specifications, and Diagrams in One Tool | Axure Software,
https://www.axure.com
6. Google Website Optimizer – Wikipedia,
https://en.wikipedia.org/wiki/Google_Website_Optimizer
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
Czy design to tylko wygląd? – Szerzej o UX designie
Streszczenie: Jeszcze kilka lat temu design w odniesieniu do witryn internetowych oznaczał tylko "te
kolory, te obrazki". Czy dziś jest tak samo? Obecnie pojęcie User Experience jest często używane
zamiennie z pojęciem użyteczności – usability. Według Wikipedii User Experience to „postrzeganie
i reakcje osoby, które wynikają z użycia lub przewidywanego używania produktu, systemu lub
usługi”. ”User Experience (UX) odnosi się do emocjonalnych emocji i postaw dotyczących
korzystania z określonego produktu, systemu lub usługi. Obejmuje praktyczne, empiryczne,
afektywne, znaczące i cenne aspekty interakcji człowiek-komputer i własność produktu "
(Wikipedia). W tym artykule opiszę stosunkowo nowe podejście do projektowania stron
internetowych, testy A/B, które pomagają znaleźć złoty środek w komunikacji z produktem. Opowiem
też jak rozpocząć analizę produktu pod kątem użyteczności, narzędziach, które w tym pomagają i
błędach, które są najczęściej popełniane przez początkujących UI i UX designerów.
Słowa kluczowe: design, UX, user experience, usability, użyteczność.
104
Przemysław Kubicki
Programming Interactive Graphics with the Help of Processing 3 2017
Przemysław Kubicki
Koło Naukowe Programistów
Uniwersytet Przyrodniczo-Humanistyczny w Siedlcach
Programming Interactive Graphics with the Help of Processing 3
Programowanie interaktywnej grafiki przy pomocy Processing 3.
Summary: Processing is a programming language and integrated development
environment created to make programming interactive graphics easier. In this article, I
want to show how to get started with Processing 3 and how to start your adventure in
making full-screen programs with 2D or 3D graphics included. The idea is to write a couple
lines of code and have immediate visual feedback on the screen. Write a single line of code
and have a new shape show up on the screen. Add couple more lines and your shape is
following the mouse. Add another line and your shape is changing colour while mouse is
pressed. Like drawing in sketchbook, you write code in Processing “sketchbook” brick by
brick, one piece at the time. Authors of the Processing call this “sketching” the code.
Key words: programming, computer graphics, programming languages, sztuka,
projektowanie
Introduction
Processing was developed in spring 2001 by Casey Reas and Benjamin Fry, both
formerly of the Aesthetics and Computation Group at the MIT Media Lab. They were most
influenced by Design By Numbers (DBN), a language created by their research advisor
John Maeda. Difficulty creating interactive graphics in languages like C++ or Java was so
frustrating for authors, who remember Logo or BASIC - the languages of their childhood,
which make possible to write interesting programs simple, was the inspiration for
developing Processing.
The main idea is to write a couple lines of code and have immediate visual feedback
on the screen. Write a single line of code and have a new shape show up on the screen. Add
couple more lines and your shape is following the mouse. Add another line and your shape
is changing colour while mouse is pressed. Like drawing in sketchbook you write code in
Processing “sketchbook” brick by brick, one piece at the time. Authors of the Processing
call this “sketching” the code.
Processing is also very attractive for people who want to learn programming.
Standard programming courses focus on structure and theory first. Anything with graphics,
animation or GUI is in the last chapter of the course, after studying algorithms and methods
for several weeks. Processing offers the opposite! You can learn coding through creating
interactive graphics.
Java was base language for Processing. The language syntax is almost identical as
Java, but Processing adds custom features related to graphics and interaction. There is more
than 100 libraries which extend Processing even further. Processing is open source project
with strong and live community. Everyone can participate by sharing projects, knowledge
or by developing new libraries.
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
Getting Started
First, you need to download Processing Development Environment (PDE) from
http://www.processing.org/download for your operating system (Windows, Linux, Mac OS
X). Second, you need to install and run it. PDE consist of text editor, a message area, a text
console, tabs for managing files, a toolbar with buttons for common actions, and series of
menus. Programs run in separate display window.
Figure 1: PDE screenshot with example code
Source: own work
In Processing “sketch” you can draw pictures just by typing proper lines of code
which will shape your drawing, for example:
106
Przemysław Kubicki
Programming Interactive Graphics with the Help of Processing 3 2017
Figure 2 Example code
Source: own work
Figure 3: Display window with the result from code in Figure 2
Source: own work
Programs that responds to input from mouse, keyboard, touch screen or other devices
have to run continuously. For this purpose you need to use draw() function, which is basic
Processing function along with setup(). First one is running in the loop and the code within
runs from top to bottom, until you quit the program. Draw() function is place where you
put code that need to be updated. Second function, setup(), is made to complement draw()
function. It runs just once when the program starts. It’s useful to define starting values like,
e.g. size of the display window. For example if you run code from Figure 1 and move
mouse in display window to change coordinates of a circle and click a few times to change
its colour, you will have effect like this:
Figure 4: Display window with result from code in Figure 1
Source: own work
Introduction Into 2D Graphics
Processing has many, simply constructed functions which are useful in drawing basic
or complex shapes. You can also work with pre-made images with image() function. Just
load it in setup() into variable by img = loadImage(“sample.jpg”); and work with it in
draw() by function image(img, x, y); where x, y are the coordinates. You can load and
display raster images like JPEG, PNG or GIF format. Vector shapes in the SVG format
Processing can display as PShape object. This is helpful if you want to draw something
with your mouse rather than create it by Processing drawing functions. There’s a trade-off
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
in this method. In Processing defined shapes there’s more flexibility in changing them
while program is running. With vector shapes you can only change position, angle and size.
Figure 5: Simple shapes and functions to create them
Source: Reas C., Fry B., Getting Started with Processing, O’Reilly, Sebastopol 2010, p.
17
Make Your Drawing Come Alive
Putting things in motion in Processing is very easy. There are two approaches to do
it. First method is to change coordinates of our object and redraw them in different position.
Second one is to change screen coordinates with translate(), rotate() or scale() functions.
Simple example for first approach can look like this:
108
Przemysław Kubicki
Programming Interactive Graphics with the Help of Processing 3 2017
Figure 5: Example code for moving shapes
Source: own work
Figure 6: Display window just after start on the left and moment later on the right
Source: own work
Changing the screen coordinates using the second method can look the same. For
instance, you can move something, e.g. 100 pixels to the right or you can move (0,0)
coordinate 100 pixels to the right. Effect will be the same, but with the ability to manipulate
screen coordinates system you can create different transformations including translation,
rotation and scaling.
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
Figure 7: Translating, rotating and scaling coordinates
Source: Reas C., Fry B., Getting Started with Processing, O’Reilly, Sebastopol 2010, p.
105
110
Przemysław Kubicki
Programming Interactive Graphics with the Help of Processing 3 2017
Figure 8: Simple code and display window which show moving rectangle
Source: own work
Code in Figure 8 shows that coordinates of rectangle aren’t variables, but it is moving
because of translate() function which is changing the location of coordinate (0,0) of the
screen. Second motion is rotation of rectangle caused by rotate() function.
A Little Taste of 3D Graphics
When I started my adventure with programming and computer graphics I’ve met
with opinions that 3D graphics is very hard to work with it and best option for me is to
focus on 2D graphics. Processing has changed everything in my previous imagination of
3D. Making it in Processing is intuitive, simple and fun!
First thing you need to do to start work with 3D graphics in Processing is adding the
third parameter (P3D or OPENGL) in size() function, e.g. size(800, 600, P3D); or
size(800,600, OPENGL);. Most functions, like line() or vertex() will work in 3D mode
simply by adding third z-parameter to previous x and y coordinate. Now, as I promised in
the title of this chapter, a little taste of P3D:
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
Figure 9: Example code for 3D graphics
Source: own work
Figure 10: Display window for code in Figure 9
Source: own work
Summary
Processing is powerful and easy to learn programming language with its own
development environment (PDE). Working with it is really fun, even if you’re just starting
your journey into programming. Like I have mentioned before, programming courses
usually start with a lot of theory and hard to obtain knowledge, but in Processing you can
jump into fun and creative graphics projects right at the beginning.
Processing is an open source project with big community, so you can use many
interesting libraries from repository in PDE. For example, you can use QueasyCam for your
3D fps game, which will deal with all the player movement with “w, s, a, d” keys and
mouse. You can add different camera named PeasyCam to the example from Figure 9 to
watch planets from different angles in space. Simple import from repository and one line
of code will do the trick.
Last thing I want to mention in this article is multi-platform export of applications
as standalone programs. You only need to go to [File -> Export Application…] menu,
choose your options and voila! Your program is now independent from PDE and you can
112
Przemysław Kubicki
Programming Interactive Graphics with the Help of Processing 3 2017
run it anywhere you want (Java Virtual Machine must be installed). You can also export
pictures from your program into PDF file.
I would like to encourage everyone, who is interested in programming or computer
graphics, to try their hand at Processing, you won’t regret it.
Bibliography
1. Reas C., Fry B., Processing: A Programming Handbook for Visual Designers
and Artist, Second Edition, The MIT Press, Massachusetts 2014
2. Reas C., Fry B., Getting Started with Processing, O’Reilly, Sebastopol 2010
3. Processing.org, http://www.processing.org
Programowanie interaktywnej grafiki przy pomocy Processing 3.
Streszczenie: Processing jest językiem programowania, który, razem ze zintegrowanym
środowiskiem programistycznym, ułatwia programowanie interaktywnej grafiki. W niniejszej
publikacji chcę pokazać, jak zacząć swoją przygodę z tworzeniem programów pełnoekranowych z
wykorzystaniem grafiki 2D lub 3D. Idea polega na tym, aby napisać kilka linii kodu i uzyskać, już
na tym etapie tworzenia, efekt wizualny na ekranie. Już za pomocą jednej linii kodu można
wygenerować na ekranie nowy kształt. Dodanie kolejnych linii spowoduje, że nasz kształt zacznie
podążać za myszą. Jeszcze kilka linijek, a stworzony wcześniej obiekt zacznie zmieniać kolor podczas
naciskania myszy. Tworzenie programów w Processing jest bardzo podobne do rysowania w
szkicowniku. Kod powstaje kawałek po kawałku, z możliwością natychmiastowej weryfikacji zmian
na ekranie. Autorzy Processing nazywają to "szkicowaniem" kodu.
Słowa kluczowe: programowanie, grafika komputerowa, języki programowania, sztuka,
projektowanie.
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
Kamil Chaciak
Koło Naukowe Programistów
Uniwersytet Przyrodniczo-Humanistyczny w Siedlcach
React.Js – Building Powerful Web Applications
React.Js – Budowanie potężnych aplikacji Webowych
Summary: React.Js is a framework for javascript and It was created by Jordan Walke. React is very
popular and It is used by many big companies such as Facebook. This framework creates virtual
DOM to improve speed of refreshing content on the websites. React support an XML-like syntax
called JSX. React is based on components which logic is written in JavaScript. Data in those
components is accessed via “this.props” which are read-only and “this.state” which can be
accessed only in the component you define it in. You can pass state from one component only to its
children via its props. Beyond the components constructor you can only set state by using
“setState()” method which re-invoke the “render()” method.
Key words: React.Js, Web applications
Introduction
React is a JavaScript framework that is used to create graphical web applications. It
was created by Jordan Walke, a Facebook programmer, and was inspired by PHP-XHP
extension. React is one of the most popular frameworks, it is used by many big companies
such as Facebook, Instagram, PayPal, Netflix, Gamepedia and Udemy. In 2015, React.js
and React Native were the two most popular open projects on GitHub.
Main Feature
First of the React’s main features is his virtual DOM. DOM stands for Document
Object Model and is an abstraction of a structured HTML code. Elements of HTML become
nodes in the DOM. So, whenever we want to dynamicly change the content of the web
page, we modify the DOM. React contains virtual DOM of the app in memory. The Virtual
DOM is an abstraction of the DOM. It is lightweight and detached from the browser-
specific implementation details. After It’s state changes it searches for differences between
virtual and original DOM and updates changes.
In the React docs we can read that a ReactElement is a light, stateless, immutable,
virtual representation of a DOM Element. Which means that every HTML tag can be that
element. ReactElements are the basic parts in React’s virtual DOM. But the lack of
variables and states, that is why we use ReactComponents. We usually use
React.createClass method to define one or if we use the JSX syntax which is optional and
React doesn’t demand from us to use it, we can simply write a standard class in our file
which name is equal to our component’s name.
114
Kamil Chaciak
React.Js – Building Powerful Web Applications 2017
Stateful Components
Since component logic is written in JavaScript instead of templates, you can easily
pass rich data through your app and keep state out of the DOM. React components
implement a “render()” method that takes input data and returns what to display. Input data
that is passed into the component can be reached by “render()” via attribute “this.props”.
Figure 19: Creating React’s element without JSX syntax
Source: https://facebook.github.io/react/
Figure 2: Creating React’s element with JSX syntax
Source: https://facebook.github.io/react/
Above we can see two examples of creating ReactComponents and ReactElements.
The “render” method in ReactComponent must return only object, which means that if we
want to return more than one object to the view, we need to pack them into some kind of
container like “div” or any other tag.
Besides “props”, components store their internal data in their “state” attribute that
can be accessed via “this.state”. When a component's “state” data changes, the “render()”
method will be re-invoked. Therefore DOM and view will update and change.
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
Using State Correctly
You should not modify state directly, there is a special method called “setState()”, if
you don’t use this method, “render()” method will not be re-invoked. The only place where
you can assign “this.state” is the constructor. When you call method “setState()”, React
merges the object you provide into the current state. So if state already contains some data
that data won’t be affected until you tell your component to change exactly this data.
Neither parent nor child components can know if a certain component is stateful or
stateless, and they shouldn't care whether it is defined as a function or a class. This is why
state is often called local or encapsulated. It is not accessible to any component other than
the one that owns and sets it. A component may choose to pass its state down as props to
its child components. This is commonly called a "top-down" or "unidirectional" data flow.
Any state is always owned by some specific component, and any data or UI derived from
that state can only affect components "below" them in the tree.
Bibliography
1. React - A JavaScript library for building user interfaces,
https://facebook.github.io/react/
2. React.js – Wikipedia, wolna encyklopedia, https://pl.wikipedia.org/wiki/React.js
3. Learn ReactJS: Part I | Codecademy, https://www.codecademy.com/learn/react-
101
4. The difference between Virtual DOM and DOM - React Kung Fu,
http://reactkungfu.com/2015/10/the-difference-between-virtual-dom-and-dom/
5. Ryan Vice, Adam Horton, Mastering React, Packt Publishing Ltd., Livery Place
2016
6. Johannes Stein, ReactJS Cookbook, Packt Publishing Ltd., Livery Place 2016
React.Js - Budowanie potężnych aplikacji Webowych
Streszczenie: React.Js to biblioteka dla języka JavaScript i została stworzona przez programistę
Jordana Walke. React jest bardzo popularny i jest używany przez wiele dużych firm, takich jak
Facebook. Ten framework wykorzystuje wirtualny DOM, aby poprawić szybkość odświeżania treści
na stronach internetowych. React wspiera składnię podobną do XML nazywaną JSX. React oparty
jest na komponentach, których logika napisana jest w języku JavaScript. Dane w tym komponentach
są dostępne za pośrednictwem "this.props", które są tylko do odczytu i "this.state", które można
uzyskać tylko w komponencie w którym je zdefiniujemy. Możesz przekazywać stan z jednego
komponentu tylko swoim dzieciom za pośrednictwem ich propsów. Poza konstruktorem komponentu
można ustawić state tylko przy użyciu metody "setState ()", która ponownie wywołuje metodę
"render ()".
Słowa kluczowe: React.Js, aplikacje Webowe
116
Kamil Chaciak
React.Js – Building Powerful Web Applications 2017
Marlena Derlicka
Studenckie Koło Naukowe Bezpieczeństwa Narodowego
Uniwersytet Przyrodniczo-Humanistyczny w Siedlcach
Cyber - Sicherheit und typosquatting in Polen
Cyberbezpieczeństwo a typosquatting w Polsce
Abstract: Der Artikel stellt einige der Begriffe , mit typosquattingiem verbunden sind und
die Hauptgründe für die mit Fehlern Internet - Domainnamen registrieren. Die Arbeit ist
auch beabsichtigt ,die Informationen über das Phänomen in Polen und der Präsentation
der bekanntesten Fälle von seiner Verwendung zusammenzufassen.
Stichwort: Sicherheit, Domain, Internet
Zulassung
Heute verwenden mehr und mehr Menschen verschiedene in-celach- des
Cyberspace. Jeder von uns kann die Frage beantworten , ob er in seinen bisherigen
Erfahrungen mit dem Internet nicht schon einmal in einer Situation war , in der Suche nach
etwas, z. B. unter Zeitdruck oder müde. In solchen Situationen ist es leicht Sachen zu
verwechseln. Sie können versehentlich in eine Suchmaschine etwas eingeben , dessen
Ergebnis uns zumindest überrascht.
Das Konzept und seine Ziele typosquatting
Um typosqautting Phänomene heran verdient einen Moment an der Etymologie des
Wortes zu stoppen. Dieses Phänomen ist anders genannt ,, Hijacking die URL (ang.
URL - Hijacking). " Squatter ist eine Person , die illegal eine Wohnung besetzt. Als „Haus”
im Rahmen des Cyberspace „können Sie beliebte Internet - Domäne angeben, und die
Domänen der sogenannten Entführer. ,,Hausbesetzer“. Typosquatting ist dahereine Form
von Cybersquatting, und es besteht Domain - Namen zu registrieren , die etwas von dem
Namen der beliebten Webseiten (https://securingtomorrow.mcafee.com/consumer/family-
safety/what-is-typosquatting/) unterscheiden.
Die Autoren Domänen mit Fehlern sind , dass Internet -Nutzer häufig durch Fehler
in der Schreibweise von Namen Verkehr erstellt , indem sie auf der Website direkt
begangen zuhoffen, und sein Besitzer wird diese Situationen (Biernacik B., Kalman L.
(red.nauk.), Warszawa 2016). Als Ziele von Typosquatting können folgende Punkte
genannt werden:
• alle Arten von Leistungen (in der Regel Eigentum) übernehmen
• Datenverkehr von Websites umleiten, die eigentlich besucht werden wollten,
diejenigen schaffen, nachdem er jede Möglichkeit einer Verwechslung mit den
Internet-Nutzer zu bemerken,
• verstanden weit Werbung auf neu erstellte Seiten
• Platzierung auf der Seite der Malware, die das Unbewusste nach etwas von der
117
III Ogólnopolska Konferencja Interdyscyplinarna
„Współczesne zastosowania informatyki” 2017
Person, der Download mit der Website führen werden Ihren Computer zu infizieren,
• Phishing oder Phishing (oft sehr empfindlich) Daten, die an der gewünschten Stelle
Seite entsprechen.
Es kommt auch vor, dass die Piraten solchen Situationen verwenden , wenn sie von
der Existenz im Ausland von agierenden Marken wissen, so vermutete , dass ein solches
Unternehmen ,ihre Aktivitäten in anderen Ländern erweitern wollen. Domain Entführer
übernehmen dann eine neue Seite, um sie zu Unternehmen mit einem großen Gewinn zu
verkaufen. Mit Blick auf dem polnischen Markt, hat es keine gute Initiative gewesen
(siehe: http://prawo.vagla.pl/node/7104).
Beispiele typosquatting in Polen
Beispiele für dieses Phänomen werden leider mehr und mehr. Wie bereits erwähnt,
typosquatting in Polen erlebt auch eine Reihe von Fällen , die erwähnt werden
sollten. Einer von ihnen ist eine Situation , in der ein Unternehmen aus Lodz die Hauptrolle
gespielt hat, welche Kräuter verkauft. Sie können erraten , dass sie die Vorteile der
Popularität von bekannten IT-Unternehmen nehmen wollte - Microsoft. Eine Person kam
mit der brillanten Idee, eine Website einzurichten, jedoch typisch für das Ende der
IP - Adresse, die ,, ist. En. "Natürlich hat sich die Situation nicht unbemerkt
bleiben.Ausländische Unternehmen vorgeschlagen , die das Unternehmen aus Lodz das
Problem gütlich zu lösen, ohne einen Fall vor Gericht zu bringen und gibt Microsoft eine
Domain kostenlos. Leider passiert , dass es nicht. Nicht nur , dass der Antrag präsentiert
polnische Unternehmen erfüllen musste, wurde auch bestraft
(https://niebezpiecznik.pl/post/typosquatting).
Abbildung 1.
Quelle: https://niebezpiecznik.pl/wp-content/uploads/2010/03/domena-microsoft.pl_.jpg
118
Kamil Chaciak
React.Js – Building Powerful Web Applications 2017
Dies ist nicht der einzige Fall. Vielleicht ist die Situation nicht so gut wie mit Microsoft
bekannt, aber sie haben einen Platz, und praktizierten in typosquatting Polen hat bereits
viele Menschen in Verwirrung eingeführt, und manchmal sogar unangenehm , wenn das
Internet mit anderen Personen über.
Kidnapping URL wächst, veröffentlichten Informationen ähnlich den erwarteten Seiten ,
die wir aus verschiedenen Kategorien, wie die Adressen belegt , wie:
● Joemosnter.org
● gopgle.pl
● wykpo.pl
● www.pl
● fillmweb.pl
● wwwfacebook.pl
● uph.pl
und viele andere, die Eingabe gibt ungewöhnliche Ergebnisse.
Aufsummierung
Sicherheitsbedrohungen aus dem Internet - Es gibt viele Nutzer, sie schaffen jeden
Tag neue. Man kann sagen, dass jeder von uns in diese Richtung beiträgt. Ohne Zweifel,
seien Sie vorsichtig, was und wie Ergebnisse für unsere vielfältige Inhalte
einzugeben.Mit der Nutzung des Cyberspace gesunder Menschenverstand sein sollte,
nicht sich selbst oder andere seine Nutzer zu schaden.Unsere - oft unbewussten -
Aktionen können Ereignisse auslösen , die in ein Sicherheitsrisiko auslösen können.
Bibliographie
1. Biernacik B., Kalman L, Systemy i sieci teleinformatyczne Sił Zbrojnych
Rzeczypospolitej Polskiej – wielorakie aspekty bezpieczeństwa cyberprzestrzeni,
Warszawa 2016.
2. McAfee, What is Typosquatting?, https://securingtomorrow.mcafee.com/
consumer/family-safety/what-is-typosquatting/, 2017
3. igH, Typosquatting = $500 milionów rocznie dla Google ,
https://niebezpiecznik.pl/post/typosquatting, 2017
4. Piotr VaGla Waglowski, Krótko o poetach i gmail.pl,
http://prawo.vagla.pl/node/7104, 23.05.2017
Cyberbezpieczeństwo a typosquatting w Polsce
Streszczenie: Artykuł przedstawia niektóre terminy związane z typosquattingiem oraz
główne przyczyny rejestracji domen internetowych z błędami. Praca ma na celu także
podsumowanie dotychczasowych informacji na temat omawianego zjawiska w Polsce i
przedstawienie najsławniejszych przypadków jego wykorzystania.
Słowa kluczowe: bezpieczeństwo, domeny, Internet