Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany...

120

Transcript of Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany...

Page 1: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę
Page 2: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

Materiały pokonferencyjne

III Ogólnopolskiej Konferencji

Interdyscyplinarnej

„Współczesne zastosowania informatyki”

Siedlce 2017

Page 3: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

Rada naukowa:

prof. dr hab. inż. Andrzej Barczak, prof. dr hab. inż. Wojciech Penczek,

dr hab. Stanisław Ambroszkiewicz, dr hab. inż. Jerzy Tchórzewski,

dr inż. Mirosław Barański, dr Renata Modzelewska-Łagodzin, dr Mirosław Szaban,

dr Anna Wawrzyńczak-Szaban

Redakcja, skład:

Koło Naukowe Programistów

e-mail: [email protected]

Witryna konferencji: www.wzi.uph.edu.pl

© Copyright by Instytut Informatyki

Uniwersytetu Przyrodniczo-Humanistycznego, Siedlce 2017

ISBN: 978-83-7051-849-3

Instytut Informatyki Uniwersytetu Przyrodniczo-Humanistycznego w Siedlcach

08-110 Siedlce, ul. 3 Maja 54, tel. (025) 643 11 27

e-mail: [email protected] www.ii.uph.edu.pl

Page 4: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

SPIS TREŚCI

Wstęp .................................................................................................................................. 5

Jarosław Żeliński

Architektura kodu aplikacji jako pierwszy etap tworzenia oprogramowania ..................... 6

Katarzyna Donaj

Sieci Petriego .................................................................................................................... 14

Kacper Kuta

Analiza przepływów cieczy przez zawory płaskie typu przesłona ................................... 19

Klaudia Krzeszewska

Technologie informacyjne w medycynie .......................................................................... 28

Krzysztof Bałaban

Internet w pracy nauczyciela języków obcych .................................................................. 34

Paulina Julita Laskowska

Informatyka w rolnictwie, czyli rolnictwo precyzyjne ..................................................... 43

Marcin Miazio

Maszyny różnicowa i analityczna jako prototypy współczesnych komputerów .............. 49

Jakub Malinowski

Internet rzeczy – szanse i zagrożenia ................................................................................ 53

Martyna Sieczkiewicz

Magiczna torebka Hermiony, czyli algorytmy kompresji danych i złożoność

Kołmogorowa.................................................................................................................... 56

Anna Zabłocka

Matematyczna edukacja wczesnoszkolna i możliwości jej rozwoju przy użyciu

narzędzi informatycznych ................................................................................................. 61

Karolina Szostek

Tajemnica możliwości ludzkiego mózgu. Czego pragniesz dziś, o czym zapomnisz

jutro? ................................................................................................................................. 64

Page 5: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

Patrycja Izdebska

Zagrożenia bezpieczeństwa systemów informatycznych płynących z nieznanych

źródeł ................................................................................................................................. 69

Piotr Graniszewski

The Cloud as Illustrated by Amazon Web Services Chmura na przykładzie

Amazon Web Services ...................................................................................................... 75

Maciej Nazarczuk

SDL and SFML - Basics, Similarities and Differences .................................................... 86

Adam Miros

The Use of Information Technology in the Process of Making Music ............................. 91

Jarosław Kamiński

Not Just Gadgets: How Much Computer Science Is in Cars ............................................. 94

Marcin Izdebski

Employment of Informatics in Motorization .................................................................... 97

Marta Kisielińska

Is Design Only the Appearance? – More About UX Design .......................................... 100

Kamil Chaciak

React.Js – Building Powerful Web Applications ............................................................ 113

Marlena Derlicka

Cyber - Sicherheit und typosquatting in Polen................................................................ 116

Page 6: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

5

Wstęp

19 maja 2017 na Wydziale Nauk Ścisłych Uniwersytetu Przyrodniczo-

Humanistycznego w Siedlcach odbyła się III Ogólnopolska Konferencja

Interdyscyplinarna pt. „Współczesne zastosowania informatyki” tym razem organizowana

przez nowo powstałe Koło Naukowe Programistów. Poprzednia edycja cieszyła się dużą

popularnością i ściągnęła tak wiele osób chcących podzielić się sposobami

wykorzystywania IT w współczesnym świecie. Dlatego postanowiliśmy kontynuować to

wydarzenie, kolejny raz dając możliwość prezentacji i wymiany informacji.

Gościliśmy entuzjastów zastosowań informatyki i technologii informacyjnych w

różnych dziedzinach życia człowieka. Spotkali się tu pasjonaci wielu nauk, zarówno

technicznych, jak i przyrodniczych, ekonomicznych oraz społecznych. Uczestnicy mieli

okazję zaprezentować swoją wiedzę, analizy i używane rozwiązania techniczne. Ich

wystąpienia umożliwiły spojrzenie na używane rozwiązania informatyczne z różnej

perspektywy, spełniając tym ideę interdyscyplinarności.

Konferencja poruszająca tematy technologii informatycznych uświadomiła osobom

mniej związanym z informatyką, jak ten obszar jest ważny i jak dostępne rozwiązania IT

mogą ułatwić życie ludziom na świecie. Zaś doświadczenia uczestników z innych branż,

uświadamiają informatykom, jak wykorzystywane są tworzone przez nich narzędzia i jakie

jest zapotrzebowanie na rynku. Ta interdyscyplinarna kooperacja daje wszystkim

uczestnikom lepsze rozumienie współczesnego, otaczającego nas świata.

Organizatorami wydarzenia byli studenci siedleckiej uczelni zrzeszający się w Kole

Naukowym Programistów wraz z opiekunem koła dr Waldemarem Bartyną. Cieszymy się

z udziału w konferencji sympatyków KNP oraz studentów innych kół naukowych z uczelni

w całej Polsce. Chcielibyśmy podziękować władzom Uczelni, dzięki którym możliwe było

zrealizowanie tego wydarzenia. Dziękujemy Pani Dziekan Wydziału Nauk Ścisłych prof.

dr hab. Wiesławie Barszczewskiej oraz Prodziekanowi Wydziału Nauk Ścisłych ds.

Promocji i Rozwoju dr Mirosławowi Szabanowi za wsparcie niniejszej konferencji.

Wyrażamy wdzięczność także władzom Instytutu Informatyki: Panu prof. dr hab. inż.

Andrzejowi Barczakowi, Dyrektorowi Instytutu Informatyki oraz dr Mirosławowi

Barańskiemu, Zastępcy Dyrektora Instytutu Informatyki. Podziękowania za pomoc w

organizacji należą się również pracownikom administracji Uniwersytetu Przyrodniczo-

Humanistycznego w Siedlcach.

Niniejsza publikacja stanowi zbiór artykułów, które w formie referatów zostały

wygłoszone podczas konferencji.

Mamy nadzieję, że kolejna edycja konferencji za rok będzie równie dobra, czego

życzymy sobie - organizatorom, jak również uczestnikom.

Koło Naukowe Programistów

Page 7: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

6

Jarosław Żeliński

Architektura kodu aplikacji jako pierwszy etap tworzenia oprogramowania 2017

Jarosław Żeliński

Architektura kodu aplikacji jako pierwszy etap tworzenia

oprogramowania

Streszczenie: Kod programu, jako seria procedur, zawsze będzie strukturalny, jednak całość jako

kod aplikacji to już architektura. Tworzenie złożonych aplikacji to tworzenie tysięcy linii kodu. Jeżeli

nie będziemy mieli abstrakcji tego kodu w postaci jego architektury, projekt będzie zbyt złożony by

nim zarządzać. Referat traktuje o poprzedzaniu pisania kodu projektowaniem architektury.

Słowa kluczowe: technologie informacyjne, teoria systemów, architektura systemów,

Wprowadzenie

Literatura przedmiotu zawiera wiele różnych sposobów grupowania metod

programowania w „paradygmaty” programowania. Autorzy z reguły skupiają się na tym

czym są programy rozumiane jako zorganizowana lista poleceń dla maszyny. Mogą to być

sekwencje prostych poleceń, mogą to być wykonywane wg. określonego scenariusza

funkcje. Typowym przykładem takiego grupowania jest np. wykład – jest spis treści -

dostępny w sieci Internet:

Wstęp

1.1 Przykład pierwszy: programowanie imperatywne

1.2 Przykład drugi: programowanie obiektowe

1.3 Przykład trzeci: programowanie funkcyjne

1.4 Przykład czwarty: programowanie w logice (programowanie logiczne) Źródło:

http://wazniak.mimuw.edu.pl/index.php?title=Paradygmaty_programowania/Wykład_1:_Co_to_je

st_paradygmat_programowania%3F

Wykład ten, z uwagi na to, że pochodzi ze stron mimów.edu .pl (Uniwersytet Warszawski)

w moich oczach, po lektury kilkunastu podobnych, jest reprezentatywnym akademickim

podejściem i posłuży mi jeszcze kilka razy.

Programowanie strukturalne

Jest to paradygmat programowania opierający się na podziale kodu źródłowego

programu na procedury i hierarchicznie ułożone bloki z wykorzystaniem struktur

kontrolnych w postaci instrukcji wyboru i pętli. Rozwijał się w opozycji do programowania

wykorzystującego proste instrukcje warunkowe i skoki. Programowanie strukturalne

zwiększa czytelność i ułatwia analizę programów, co stanowi znaczącą poprawę w

stosunku do trudnego w utrzymaniu „spaghetti code” często wynikającego z użycia

instrukcji goto. Nadal jest to jednak długa lista powiązanych procedur.

Page 8: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

7

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

Metody strukturalne analizy i projektowania bazują na uznaniu, że oprogramowanie

to stos funkcji operujących na bazach danych. Innymi słowy podstawowe założenie to

istnienie odrębnych bytów jakimi są baza danych oraz funkcje, które na tych danych

wykonują operacje. W metodach strukturalnych tworzy dwa się rodzaje modeli: model

struktury oprogramowania i model struktury danych. Pierwszy wykorzystuje notację DFD

(Data Flow Diagram, np. notacja Gane’a- Sarsona) a drugi notacja ERD (Entity

Relationship Diagram, np. notacja Martina) do modelowania struktur relacyjnych baz

danych.

Rysunek 1 Diagram DFD w notacji Gene'a – Sarsona

Struktura aplikacji w postaci tak zwanej „czarnej skrzynki” została pokazana na

Rysunku 1. W metodach strukturalnych, na poziomie opisu architektury, aplikacja

„dzielona jest” na podfunkcje (patrz Rysunek 2.).

Page 9: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

8

Jarosław Żeliński

Architektura kodu aplikacji jako pierwszy etap tworzenia oprogramowania 2017

Rysunek 2 Dekompozycja funkcji

Starsze podręczniki informatyki i programowania powołują się na „zasadę”:

algorytmy + struktury danych = oprogramowanie (aplikacje). Kod zawierający funkcje jest

z reguły dzielony na części zwane „podprogram” jednak niezależnie od tego jak jest

organizowany, jest to zwarty i niepodzielny system funkcji i algorytmów, który zapisuje i

odczytuje dane ze współdzielonego „magazynu danych”. Najczęściej tym magazynem jest

relacyjnie zorganizowana baza danych, czyli system powiązanych tablic, w którym usuwa

się redundancje i tworzy trwałe związki logiczne między tak zorganizowanymi danymi.

Architektura taka nie sprawia większych problemów do momentu gdy aplikacja nie

zaczyna się rozrastać i nie pojawia się potrzeba wprowadzania kolejnych nowych lub

zmienionych elementów mechanizmu jej działania. Wtedy każda ingerencja w aplikację

dotyczy całej aplikacji. Stabilne otoczenie (środowisko użytkowania tych aplikacji)

pozwalało na projektowanie oprogramowania, od którego nikt nie oczekiwał, że pozwoli

na łatwe i szybkie wprowadzanie zmian. Po drugie tworzeniem oprogramowania

zajmowały się małe zespoły programistów, zaś logika przetwarzania polegała raczej na

realizowaniu małej liczby typów operacji na wielkich ilościach danych. Zamawiający (tak

zwany dzisiaj „biznes”) musiał jedynie spisać dane jakimi operuje oraz wzory (formuły) z

jakich użyciem były one przeliczane.

Zmiana paradygmatu

Rosnąca złożoność oprogramowania wymusiła szukanie nowych rozwiązań.

Początkowo dzielono kod aplikacji na separowane części - moduły, jednak nadal stanowiły

one jedną całość z powodu pracy z danymi w postaci jednej zwartej struktury, jaką jest

relacyjna baza danych. Moduły te są ściśle zintegrowane współdzieloną bazą danych. Fakt

ten często jest postrzegany jako zaleta: wskazuje się, że brak redundancji, łatwy sposób

uzyskania spójności danych. Problem w tym, że duże aplikacje operują w wielu

kontekstach co powoduje, że współdzielona baza danych o ustalonej strukturze, musi

stanowić kompromis. Np. dane stanowiące zapis kolejnych zakupów amortyzowanych

środków trwałych mają inną strukturę i logikę wzajemnych powiązań, niż te same dane w

kontekście złożonych konstrukcji mechanicznych jakimi są te środki trwałe. Innym

przykładem obrazującym kwestie kontekstowości jest na blogu Martina Fowlera.

Page 10: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

9

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

Rysunek 3 Granice kontekstu i zmiana perspektywy pojęć.

Żródło: https://martinfowler.com/bliki/BoundedContext.html

Jak widać na Rysunku 3. mamy tu dwa konteksty i redundancje (pojęcia Customer

i Produkt powielone po obu stronach). Powyższe powinno być podstawą do podziału

projektu na dwa odrębne komponenty z własnymi (nie współdzielonymi) danymi. Jak

widać każdy komponent operuje pojęciami Customer i Produkt, jednak inny jest ich

kontakt. Cechy tych pojęć nie są (nie powinny być) współdzieloną informacją w jednej

bazie danych, oba komponenty będą miały swoje odrębne modele danych. Powód pierwszy

to inne związki pojęciowe i być może nawet inne definicje pojęć. Produkt w kontekście

sprzedaży ma nazwę, cenę, dostępność itp. Produkt w kontekście uszkodzeń ma numer

seryjny, wersję, użytkownika itp. Inne będą reguły biznesowe w każdym komponencie.

Drugi powód to łatwa dostępność na rynku specjalizowanych produktów typu CRM i

TicketXXX, szukanie (tworzenie) jednego „pakietu zintegrowanego” będzie bardzo

trudne, bo kontekstów sprzedaży a potem obsługi uszkodzeń czy reklamacji, jako pary,

będą tysiące wariantów. Wytworzenie (zakup) osobno i integracja dwóch odpowiednio

dobranych komponentów (aplikacji) będą znacznie łatwiejsze.

Powoli zaczęły powstawać aplikacje dziedzinowe jednak nadal wewnętrznie miały

one opisane wyżej wady współdzielenia danych w jednej bazie. Do tego ich integracja

polegała na wzajemnym sięganiu do danych co stanowiło bardzo duży problem z powodu

różnych struktur tych danych, zaś wymiana jednej z nich na inną wymagała opracowania

od nowa całej koncepcji integracji współdzielonych danych co pokazano na Rysunku 4.

Page 11: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

10

Jarosław Żeliński

Architektura kodu aplikacji jako pierwszy etap tworzenia oprogramowania 2017

Rysunek 4 Integracja aplikacji strukturalnych

Co ciekawe powstanie metod obiektowych nie było szukaniem sposobu usunięcia

wad systemów strukturalnych. Pierwsze obiektowe narzędzia powstały już w latach

sześćdziesiątych XX w. a narzędzia i programy strukturalne powstają do tej pory. Rzecz w

tym, że do obecnej popularności metod obiektowych doprowadziły dwie ścieżki: problem

rosnącej złożoności kodu aplikacji oraz potrzeba utrzymania zrozumieniu „tego czym jest

aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”,

staje coraz bardziej skomplikowany i ryzykowny w miarę jak rośnie złożoność tych

systemów. Wymagania na oprogramowanie naliczające wynagrodzenia tysiącom

pracowników to „jeden wzór” na naliczenie wynagrodzenia oraz pewna liczba cech

jakościowych. Jednak opisanie tą metodą aplikacji operującej dziesiątkami dokumentów o

różnych strukturach i ogromnej ilości zależności między nimi, z pomocą „listy cech”

zaczyna przybierać postać setek, a nie raz tysięcy linii w tabelach, a przy tej ilości

praktycznie żaden sposób ich organizacji nie wprowadza wartości dodanej zaś ich liczba

praktycznie nie pozwala na kontrole kompletności i niesprzeczności.

Istnienie wspomnianych dwóch ścieżek da się dostrzec w cytowanym na początku

wykładzie, który zawiera taki komentarz do obiektowego programowania:

W programowaniu obiektowym program to zbiór porozumiewających się ze sobą

obiektów, czyli jednostek zawierających pewne dane i umiejących wykonywać na nich

pewne operacje

- Ważną cechą jest tu powiązanie danych (czyli stanu) z operacjami na nich (czyli

poleceniami) w całość, stanowiącą odrębną jednostkę — obiekt.

- Cechą nie mniej ważną jest mechanizm dziedziczenia, czyli możliwość definiowania

nowych, bardziej złożonych obiektów, na bazie obiektów już istniejących.

Zwolennicy programowania obiektowego uważają, że ten paradygmat dobrze

odzwierciedla sposób, w jaki ludzie myślą o świecie

- Nawet jeśli pogląd ten uznamy za przejaw pewnej egzaltacji, to niewątpliwie

programowanie obiektowe zdobyło ogromną popularność i wypada je uznać za

paradygmat obecnie dominujący. (Zródło: Paradygmaty programowania/Wykład 1: Co

to jest paradygmat programowania? - Studia Informatyczne,

http://wazniak.mimuw.edu.pl/index.php?title=Paradygmaty%5Fprogramowania/Wyk%C

5%82ad%5F 1: %5F Co%5F to%5F jest%5F paradygmat%5F programowania%3F)

W cytowanym tekście widać stereotypowe podejście autora: „metody strukturalne

tworzenia oprogramowania, opierają się na wyróżnianiu w tworzonym oprogramowaniu

dwóch rodzajów składowych: pasywnych odzwierciedlających fakt przechowywania w

Page 12: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

11

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

systemie pewnych danych oraz składowych aktywnych odzwierciedlających fakt

wykonywania w systemie pewnych operacji. Metody obiektowe wyróżniają w systemie

składowe, które łączą w sobie możliwość przechowywania danych oraz wykonywania

operacji” (Wikipedia, wolna encyklopedia).

Schematycznie można to przedstawić jak na Rysunku 5.:

Rysunek 5 Drogi dojścia do obiektowego paradygmatu programowania

Podejście, które nazwę programistycznym, tu uznanie, że trzeba podzielić dużą

aplikację na mniejsze odrębne komponenty, z których każdy ma „swoje funkcje i dane”.

Tu także podkreślana jest kwestia re-użycia kodu w postaci tak zwanego dziedziczenia jako

„mechanizmu definiowania nowych, bardziej złożonych obiektów, na bazie obiektów już

istniejących” .

Zupełnie inną droga jest podejście oparte na uznaniu, że świat rzeczywisty to

określony mechanizm, który da się odwzorować jako pewna abstrakcja za pomocą kodu

(jego struktury). Tu struktura kodu jest konsekwencją struktury tego obszaru :świata

rzeczywistego”, którego dotyczy tworzone oprogramowanie.

Skutek jest „taki sam”: program stworzony zgodnie z obiektowym paradygmatem

będzie się składał z klas obiektów, które komunikują się wzajemnie. Jednak podejście

zorientowane na dzielenie dużej aplikacji na podprogramy traktuje obiekty jako „jakieś”

komponenty zawierające w sobie kod funkcji i dane na jakich one operują. Podejście

zorientowane na modelowanie „świata rzeczywistego” zaowocuje obiektami stanowiącymi

abstrakcje (modele) elementów świata rzeczywistego. Struktura kodu będzie obiektowa ale

jej sens nie raz jest skrajnie inny np. obiekt faktura będzie zawierał dane o sprzedaży ale

nie będzie miał operacji „nowa faktura” bo faktury nie tworzą nowych faktur… Faktury

będą tworzone przez inny obiekt np. Twórca faktur (albo jak w niektórych wzorcach:

fabryka faktur).

Page 13: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

12

Jarosław Żeliński

Architektura kodu aplikacji jako pierwszy etap tworzenia oprogramowania 2017

Od lat sześćdziesiątych prowadzone są prace nad metodami obiektowymi w

inżynierii oprogramowania, powstaje języka SIMULA w 1967 roku, w 1968 roku

opublikowano pierwsze wydanie oficjalne wydanie Ogólnej Teorii Systemów Ludwiga

von Bertalanffy'ego (publikacje na jej temat pojawiały się od już 1964 roku). Teoria

systemów mówi, że „system to współpracujące obiekty”, język SIMULA powstał do

tworzenia (programów) symulacji obiektów świata rzeczywistego. Oba wskazane

podejścia sa znane od lat, jednak podejście „inżynierskie” dominuje, nie tylko jak widać w

systemie kształcenia.

Ogólna teoria systemów traktuje wszystko jak „system” (współpracujące obiekty).

Z zewnątrz system to obiekt reagujący na bodźce. Reakcja ta może być opisana

mechanizmem jej powstawania, to wewnętrzna struktura systemu. Jeżeli uznać, że

oprogramowanie (i komputer) zastępuje określoną rzeczywistość (np. mechaniczny zegar

zastąpiony programem wykonywanym w komputerze) to można przyjąć, że komputer to

maszyna abstrakcyjna, jej implementacja realizuje konkretne systemy i (lub) ich

komponenty (tu polecam Filozofia matematyki i informatyki pod redakcją Romana

Murawskiego, Copernicus Center Press 2015).

Nie chodzi więc o to by podzielić oprogramowanie na „składowe, które łączą w

sobie możliwość przechowywania danych oraz wykonywania operacji”. Chodzi o to by

mechanizm, o dowiedzionej poprawności, zaimplementować w określonej wybranej

technologii. Chodzi też o to by nie udawać, że programowanie jako „podzielone na

obiekty” partie kodu, nadal korzystające z jednej wspólnej bazy danych, różni się

czymkolwiek od „strukturalnego kodu”. Chodzi o to by kod programu faktycznie

implementował określony 9zbadany i opisany) mechanizm. Tak więc tak zwany

„obiektowy paradygmat” to nie „nowe programowanie, to architektura kodu, „obiektowa”

architektura.

Bibliografia

1. Ian Graham, Metody obiektowe w teorii i praktyce, WTN, Warszawa 2004

2. Lechosław Berliński, Ilona Penc-Pietrzak, Inżynieria Projektowania Strategii

Przedsiębiorstwa, Difin, Warszawa 2004

3. Paul Beynon-Davis, Inżynieria systemów informacyjnych, Warszawa, WNT 2004

4. Perdita Stevens, UML. Inżynieria oprogramowania. Wydanie II, Helion, Gliwice 2007

5. David Faulkner, Cliff Bowman, Strategie Konkurencji, Gebethner i ska, Warszawa 1996

6. Zdzisław Gomółka, Cybernetyka w zarządzaniu. Modelowanie cybernetyczne. Sterowanie

systemami, Warszawa, Placet 2000

7. Tadeusz Kasprzak, Modele referencyjne w zarządzaniu procesami biznesu, Difin,

Warszawa 2005

8. Czesław Cempel, Teoria i Inżynieria Systemów, Czesław CEMPEL, Poznań 2008

9. Jerzy Surma, Business Inteligence, PWN, Warszawa 2009

10. Martin Fowler, Architektura systemów zarządzania przedsiębiorstwem. Wzorce

projektowe, Helion Gliwice

11. Brett D. McLaughlin, Gary Pollice, David West, Head First Object-Oriented Analysis and

Design, Helion, Gliwice 2008

12. Todman Chris, Projektowanie hurtowni danych. Zarządzanie kontaktami z klientami

(CRM), WNT, Warszawa 2003

13. John Cheesman, John Daniels, Komponenty w UML, WNT, Warszawa 2000

14. Grady Booch, James Rumbaugh, Ivar Jacobson, UML przewodnik użytkownika, WNT,

Warszawa 2002

15. Ian Sommerville, Inżynieria oprogramowania, WNT, Warszawa

16. Alan Shalloway, James R. Trott, Projektowanie zorientowane obiektowo. Wzorce

projektowe, Helion, Gliwice 2005

Page 14: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

13

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

17. Robert S. Kaplan, David P. Norton, Wdrażanie strategii dla przewagi konkurencyjnej,

PWN, Warszawa 2010

18. E.Gamma, R.Helm, R.Jonson, J.Vlissides, Wzorce projektowe, Helion, Gliwice 2010

19. Fowler Martin, UML w kropelce wersja 2.0, LTP

20. Martin Fowler, Analysis Patterns. Reusable Object Models, Addison-Wesley, 1997

21. James Martin, James J.Odell, Podstawy metod obiektowych, WNT, Warszawa 1997

22. Christine Hofmeister, Robert Nord, Dilip Soni, Tworzenie architektury oprogramowania,

WNT, Warszawa 2006

23. John Jeston, Johan Nelis, Business Process Management, Butterworth-Heinemann, 2008

(Reprint 2009)

24. Leszek A. Maciaszek, Requirements Analysis and System Design, Addison Wesley 2001

25. Heinz Zullighoven, Object-Oriented Construction Handbook, Elsevier Inc. 2005

26. Geri Schneider, Jason P. Winters, Stosowanie przypadków użycia, WNT, Warszawa 2004

27. Michael E. Porter, Porter o konkurencji, PWE, Warszawa 2001

28. Michael E. Porter, Strategie Konkurencji, MT Biznes, Warszawa 2006

29. Michael E. Porter, Przewaga konkurencyjna, Helion, Gliwice 2006

30. Alan Dennis, Barbara Halley Wixom, David Tegarden, Systems Analysis and Design with

UML Version 2.0, Second edition, John Wiley and Sons, Inc. 2005, USA

31. Craig Larman, UML i wzorce projektowe. Analiza i projektowanie obiektowe oraz

iteracyjny model wytwarzania aplikacji, Helion, Gliwice 2011

32. Heinz Züllighoven, Object-Oriented Construction Handbook: Developing Application-

Oriented Software with the Tools & Materials Approach, Morgan Kaufmann; 1 edition,

October 13, 2004

33. Eric Evans, Domain-Driven Design: Tackling Complexity in the Heart of Software,

Addison-Wesley

Page 15: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

14

Katarzyna Donaj

Sieci Petriego 2017

Katarzyna Donaj

Koło Naukowe Matematyki i Informatyki Stosowanej

Uniwersytet im. Adama Mickiewicza w Poznaniu

Sieci Petriego

Streszczenie: Sieci Petriego są modelem pozwalającym na opis systemów rozproszonych. Są one

używane do przedstawiania współbieżnych procesów czy asynchronicznego przetwarzania. To

narzędzie wykorzystywane jest w informatyce (do oceny wydajności systemów opisywanych Mapami

Stanów Harela, do opisu realizacji programu współbieżnego), ale też biologii (do stworzenia

modelu regulacji genów bakterii Escherichia coli) czy chemii (do przedstawienia reakcji

chemicznych jak analiza czy synteza związku).

Słowa kluczowe: współbieżność, łańcuchy Markowa

Wstęp

Sieci Petriego to narzędzie wprowadzone przez Carla A. Petriego w 1962 roku

pierwotnie w celu modelowania komunikacji z automatami. Dostarczają one graficzną

notację dla formalnego opisu dynamicznych zachowań systemów. Są szczególnie

odpowiednie do systemów wykazujących współbieżność, synchronizację, wzajemne

wykluczenie i konflikty.

Struktura

Na sieć Petriego możemy spojrzeć jak na graf dwudzielny, czyli składający się z

dwóch rodzajów węzłów – miejsc i przejść oraz łączących je zbiorów łuków (krawędzi).

Te elementy służą do modelowania statycznej struktury procesów. Miejsca, oznaczane

okręgami, używane do reprezentowania warunków lub lokalnych stanów systemu. Innymi

słowy opisują elementy pasywne procesów. Tranzycje (przejścia), oznaczane

prostokątami, używane są do opisu elementów aktywnych procesów, czyli wydarzeń, które

mają miejsce w systemie, oraz zwykle skutkują modyfikacją w stanie systemu. Łuki,

oznaczane strzałkami, określają zależności pomiędzy stanami lokalnymi lub warunkami

(miejscami) oraz zdarzeniami (przejściami). Obrazują związki przyczynowo‐skutkowe.

Łuk od miejsca do przejścia nazywa się łukiem wejściowym. Wskazuje on stan lokalny, w

którym zdarzenie może wystąpić. Natomiast łuk od przejścia do miejsca nazywa się łukiem

wyjściowym. Wskazuje on lokalne przekształcenia, które będą wywoływane przez dane

zdarzenie.

Znakowanie

Graf sieci Petriego pokazuje strukturę, ale nie pozwala na modelowanie dynamiki

systemu. W celu umożliwienia tego wprowadza się znakowanie sieci. Zmienia się ono w

czasie wykonywania przejść. Jego zobrazowaniu służą tokeny, czyli oznaczane kropkami

znaczniki, umieszczane w miejscach. Obecność znacznika w miejscu wskazuje na

odpowiedni warunek lub stan lokalny. Znakowanie jest funkcją, przyporządkowującą

każdemu miejscu całkowitą nieujemną liczbę znaczników umieszczonych w tym miejscu

w danym momencie. Zapisujemy je za pomocą krotki uporządkowanej, gdzie każda

Page 16: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

15

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

pozycja w krotce odpowiada odpowiednemu miejscu. Znakowanie sieci ulega zmianie w

wyniku wykonywania (odpalania) przejść. Wykonanie przejścia polega na usunięciu

znacznika z każdego miejsca wejściowego przejścia i dodaniu znacznika do każdego

miejsca wyjściowego. Przeanalizujemy tylko sieci z miarą łukową równą jeden, tzn.

usuwające tylko po jednym miejscu z danego miejsca i analogicznie dodające tylko jeden

znacznik do danego miejsca. Wykonać się może tylko przejście aktywne. Przejście jest

aktywne, jeżeli każde z jego miejsc wejściowych zawiera wystarczającą (w naszym

przypadku równą jeden) liczbę żetonów.

Własności

System używa ograniczonego zestawu zasobów reprezentowanych w sieci Petriego

jako znaczniki. Nieograniczony wzrost ich liczy w pewnym miejscu odzwierciedla

przekroczenie limitu zasobów. Koncepcja ograniczoności sieci Petriego jest używana do

odwzorowania problemu zachowania limitu zasobów. Miejsce p nazywane jest k-

ograniczonym, gdy przy dowolnym znakowaniu osiągalnym ze znakowania początkowego

liczba znaczników w miejscu p jest nie większa niż k. Sieć nazywamy k-ograniczoną, jeżeli

wszystkie jej miejsca są k-ograniczone. Sieć jest nieograniczona, jesli choć w jednym

miejscu liczba żetownów jest nieograniczona.

Rysunek 6 Sieć nieograniczona

Źródło: Program PIPE2

Znakowanie zmienia się tutaj w taki sposób:

(0,0,1,0)→(0,1,0,1)→(1,0,0,1)→(0,0,1,1)→(0,1,0,2)→(1,0,0,2)→(0,0,1,2)→(0,1,0,3)…

itd.

Możemy zauważyć, że na ostatnim miejscu liczba żetonów będzie nieograniczenie

wzrastała, zatem jest to sieć nieograniczona.

Sieć 1-ograniczoną nazywamy bezpieczną. Poniżej mamy przykład takiej sieci.

Znakowanie zmienia się tam następująco:

(1,0,0,0) →(0,0,1,0)→(0,1,0,1)→(1,0,0,0)→(0,0,1,0)…

Zatem wciaż będzimemy mieli 0 lub 1 token w danym miejscu.

Page 17: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

16

Katarzyna Donaj

Sieci Petriego 2017

Rysunek 2 Sieć bezpieczna

Źródło: Program PIPE2

W rzeczywistych systemach ważną sprawą jest możliwość wycofania się z

błędu – powrót do stanu początkowego. W sieciach Petriego własność tę odwzorowuje

odwracalność. Sieć nazywamy odwracalną, gdy z każdego osiągalnego znakowania

możemy przejść z powrotem do stanu początkowego.

Rysunek 3 Sieć odwracalna

Źródło: Program PIPE2

Jako przykład sieci nieodwracalnej możemy przytoczyć przedstawioną na Rysunku 1 sieć

nieograniczoną.

Charakterystyczne konstrukcje

Sieci Petriego są obecnie szeroko stosowane w informatyce, chemii czy biologii.

Przytoczę kilka konstrukcji mających proste zastosowanie.

Rysunek 4 Czynności sekwencyjne

Źródło: Program PIPE2

Page 18: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

17

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

Rysunek 5 Czynności równoległe

Źródło: Program PIPE2

Rysunek 6 Wykluczające się procesy

Źródło: http://jedrzej.ulasiewicz.staff.iiar.pwr.wroc.pl/ProgramowanieWspolbiezne/wyklad/Sieci-

Petriego15.pdf

Na powyższym rysunku przejścia T0 oraz T3 są aktywne, jednak oba nie mogą się

wykonać, gdyż każde z nich musiałoby pobrać jeden token z miejsca P6.

Rysunek 7 Problem producenta i konsumenta (z nieograniczonym buforem)

Źródło: http://jedrzej.ulasiewicz.staff.iiar.pwr.wroc.pl/ProgramowanieWspolbiezne/wyklad/Sieci-

Petriego15.pdf

Page 19: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

18

Katarzyna Donaj

Sieci Petriego 2017

Bibliografia

1. Sieci Petriego

http://jedrzej.ulasiewicz.staff.iiar.pwr.wroc.pl/ProgramowanieWspolbiezne/wykl

ad/Sieci-Petriego15.pdf

2. F. Bause, P. Kritzinger Stochastic Petri Nets – An Introduction to the Theory,

Vieweg Verlag, Niemcy 2002

Petri Nets

Summary: Petri networks are a model for describing distributed systems. They are used to

represent concurrent processes or asynchronous processing. This tool is used in computer science

(to evaluate the performance of systems described by the Harela State Maps, to describe the

implementation of a concurrent program), but also biology (to create a model for regulating the

genes of Escherichia coli bacteria) or chemistry (to present chemical reactions such as analysis or

synthesis of a compound).

Key words: concurrency, Markov chain

Page 20: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

19

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

Kacper Kuta

Studenckie Koło Naukowe Exemplum

Politechnika Świętokrzyska w Kielcach

Analiza przepływów cieczy przez zawory płaskie typu przesłona

Streszczenie: w artykule omówione zostaną wady i zalety różnych konstrukcji autorskich zaworów

hydraulicznych zwracając uwagę na jakość kontrolowania przepływu cieczy. Prezentowany projekt

zaworu inspirowany jest mechanizmem przesłony migawkowej aparatu fotograficznego, który

według obliczeń zapewnia lepszą kontrolę przepływu strugi cieczy, mniejszą turbulentność, a także

dużo mniejsze rozmiary gabarytowe względem obecnie używanych rozwiązań. Projekt oraz

wszystkie obliczenia wykonane zostały w środowisku CAD SolidWorks..

Słowa kluczowe: CAD, flow simulation, mechanika płynów

Wstęp

Wśród współcześnie wykorzystywanych systemów kontroli przepływu prostym

i z reguły skutecznym rozwiązaniem są zawory regulacyjne. Zawory te działają poprzez

zmianę przekroju otworu przepływającego, co bezpośrednio wpływa na ilość

przepływającego czynnika. W zależności od rozwiązania konstrukcyjnego w odniesieniu

do rodzaju napędu spotykamy zawory grzybkowe, kulowe i zasuwowe. Zawory

o konstrukcji typu przesłona łączą pewne rozwiązania zaworów zasuwowych i kulowych.

Przepływ w obecnych konstrukcjach

W przypadku zaworów kulowych przepływ kontrolowany jest poprzez skręcanie

kuli z walcowatym otworem. W pozycji otwartej otwór ten jest współliniowy z przewodem

nie powodując zakłócenia przepływu. W pozycji zamkniętej otwór obrócony jest

prostopadle względem kierunku przepływu uniemożliwiając przepływ cieczy. Możliwe są

również wszystkie pozycje pośrednie, w których przepływ jest możliwy, ale częściowo

ograniczony bryłą kuli.

Page 21: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

20

Kacper Kuta

Analiza przepływów cieczy przez zawory płaskie typu przesłona 2017

Rysunek 7 Widok i rzut zaworu kulowego 1) otwartego 2) półotwartego 3) zamkniętego

Źródło: Opracowanie własne

Ogólny rozmiar zaworu kulowego jest większy niż powyższa ilustracja o cały

system uszczelnienia i kontroli skrętu. Nawet jednak na pokazanym modelu średnica

korpusu jest o 88% większa od średnicy przewodu, a jego długość to 168% średnicy

przewodu. Nie to jednak, a jakość kontroli jest największym kłopotem związanym

z wykorzystaniem tego typu zaworów.

Rysunek 8 Widok przepływu1 czynnika na półotwartym zaworze kulowym

Źródło: Opracowanie własne

Jak widać na powyższej ilustracji przepływ w przypadku półotwartego zaworu

bardzo odbiega od laminarnego. Znaczna turbulencja pojawia się w korpusie,

a wypływająca z zaworu ścianka trafia w ścianę przewodu. Napór cieczy na pierścień

centrujący, ścianę zaworu i ścianę przewodu przyśpiesza zużycie i wymusza wykorzystanie

materiałów o lepszych własnościach (lub zastosowanie więcej materiałów gorszej klasy).

1 Wszystkie przepływy w artykule zadane są prędkością cieczy 1m/s, 2% intensywnością turbulencji, wylot

przewodu do ciśnienia atmosferycznego, pomijalne tarcie o ścianki przewodu.

Page 22: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

21

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

Zawór bramowy w przeciwieństwie do kulowego nie pozwala na dowolne

zmniejszanie i zwiększanie przepływu a działa dwupołożeniowo. Dzięki temu

charakteryzuje się bardzo dobrymi parametrami wytrzymałościowymi oraz wysoką

szczelnością. Jego podstawową wadą, obok węższego zastosowania, jest znaczny rozmiar:

zawór wystaje w jednym kierunku na dwukrotność średnicy przewodu powiększoną o

zapas, w który “brama” wsuwa się będąc w pozycji zamkniętej, a i to nie licząc systemu

kontroli. W przypadku przeciętnego przewodu i ciśnienia w granicy do 5 atmosfer daje to

wysokość rzędu 220% średnicy przewodu oraz szerokość rzędu 110% średnicy. Długość

zaworu, uzależniona oczywiście od warunków wytrzymałościowych, to w tym wypadku

20% średnicy.

Rysunek 9 Widok rzut zaworu bramowego 1) otwartego 2) półotwartego 3) zamkniętego

Źródło: Opracowanie własne

Stany pośrednie pomiędzy zamknięciem i otwarciem zaworu (nie jest to położenie

robocze) powodują pewne zaburzenia, między innymi przepływ jest nieliniowy. Ponadto

za zaworem może dochodzić do częściowego cofnięcia przepływu, co z kolei przekłada się

na szansę zwiększenia drgań, a więc i zużycia, bramy zaworu.

Konstrukcja zaworu typu przesłona

Sposobem rozwiązania tego problemu mogłoby być utrzymanie przepływu pośrodku

przewodu w taki sposób, by nie wytwarzać zbędnej turbulencji, a także ograniczenie

kontaktu skupionej strugi ze ścianką. Mechanizmem, który został zaprojektowany w celu

utrzymania stałej geometrii zmieniającego średnicę otworu jest mechanizm migawki

aparatowej. Wykorzystanie go wprost jako rodzaju zaworu było jednak niemożliwe z

przyczyn konstrukcyjnych – zachodzących na siebie i nieuszczelnionych liści przesłony.

Page 23: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

22

Kacper Kuta

Analiza przepływów cieczy przez zawory płaskie typu przesłona 2017

Rysunek 10 Przysłona w obiektywie Canon 50mm f/1.8 II Źródło: Wikimedia Commons, the free media repository

Jak widać na rysunku 4 listki przysłony zachodzą nieco na siebie utrzymując stały

kształt krawędzi. Niestety nie jest to rozwiązanie satysfakcjonujące, ponieważ szczelność

wykonania liści, w przypadku, gdy konstrukcja ta miałaby służyć jako zawór,

doprowadziłaby do znacznych kosztów produkcji oraz potencjalnie, szybkiego zużycia i

konieczności częstej konserwacji. Utrzymanie stałego przekroju da się jednak osiągnąć

również innymi metodami, w których liście poruszają się wzajem po swoich krawędziach,

a nie płaszczyznach.

Rysunek 11 Projekt zaworu sześcioliściastego

Źródło: Opracowanie własne

Konstrukcja taka pozwala utrzymać stały kształt przekroju oraz zapewnia prostą, liniową

funkcję sterowania polem prześwitu. Wysoka jakość wykonania powierzchni konieczna

jest tylko na krawędziach stykających się ze sobą co zmniejsza koszty obróbki. Zasadniczą

wadą jest utrudnione poruszanie się – optymalny ruch liści uzależniony jest od kąta pod

jakim spotykają się liście – oraz stosunkowo duża powierzchnia liści wystawiona na

działanie sił względem ich umocowania.

Page 24: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

23

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

Rysunek 12 Ewolucja prowadząca do powstania zaworu ośmioliściastego

Źródło: Opracowanie własne

Rozwiązaniem problemu z poruszaniem się okazała się zmiana kąta spotkania, do czego

można było doprowadzić zmieniając ilość liści. Nieznacznie (rzędu 10% średnicy

przewodu, na którym montowany jest zawór) zwiększa to niestety wymiary na największej

średnicy. Wersja siedmioliściasta, jakkolwiek poruszająca się lepiej niż sześcioliściasta,

została pominięte w rozważaniach.

Ostateczny projekt liścia bierze pod uwagę nie tylko własności odnośnie kontroli

strugi, ale również (nieomówione) warunki wytrzymałościowe i szczelność w trakcie pracy

elementu.

Rysunek 13 Widok końcowej wersji liścia

Źródło: Opracowanie własne

Porównanie geometrii zaworów

Rozmiary wszystkich zaworów przedstawione w stosunku do promienia przewodu

przedstawiono w tabeli poniżej.

Tabela 1 Porównanie wymiarów zaworów do wymiaru przewodu na korespondującym

odcinku Parametr Zawór kulowy Zawór bramowy Zawór

sześcioliściasty

Zawór

ośmioliściasty

Pole przekroju 353% 284% 376% 384%

Długość

(równolegle do

osi) maksymalna

168% 30% 40% 40%

Największy

wymiar

188% 220% 194% 196%

Page 25: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

24

Kacper Kuta

Analiza przepływów cieczy przez zawory płaskie typu przesłona 2017

Objętość 593% 85% 150% 153%

Źródło: opracowanie własne

Jak widać zdecydowanie największymi rozmiarami charakteryzuje się zawór kulowy,

a najmniejszymi zawór bramowy. Oczywiście wymiary te będą się różnić w zależności od

ciśnień i własności cieczy, gdzie najprostszym powodem zmian jest warunek

wytrzymałościowy na w pełni zamkniętym zaworze, szczelność i trudność w zmianie

położenia zaworów.

Porównanie przepływów na końcowym projekcie

Rysunek 14 Przepływ na końcowej wersji zaworu, 50% przelotu

Źródło: Opracowanie własne

Rysunek 15 Wizualizacja ciśnień przy przepływie turbulentnym na 33% przelotu

Źródło: Opracowanie własne

Page 26: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

25

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

Rysunek 16 Wizualizacja prędkości przy przepływie turbulentnym na 33% przelotu

Źródło: Opracowanie własne

Rysunek 17 Wizualizacja wirowości przy przepływie turbulentnym na 33% przelotu

Źródło: Opracowanie własne

Koncentracja strugi po środku przepływu i profilowanie liści sprawia, że nieznaczna

występująca turbulencja zostaje stosunkowo szybko ustabilizowana. Ponadto przepływ za

zaworem charakteryzuje się nieznaczną wirowością. Nie występuje tutaj zjawisko

uderzania w ściankę, a struga nieznacznie tylko rozprasza się. Lekka turbulencja przepływu

jaką można zauważyć przed zaworem, jest zminimalizowana po przejściu przez niego.

Łatwo wprost wyprowadzić zależność między skrętem pierścienia kontrolującego, a polem

przekroju ograniczonego przepływu.

Page 27: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

26

Kacper Kuta

Analiza przepływów cieczy przez zawory płaskie typu przesłona 2017

Rysunek 18 Przepływ na końcowej wersji zaworu, 100% przelotu

Źródło: Opracowanie własne

Symulacja pokazuje, na w pełni otwartym zaworze, występuje niewielka strata

ciśnienia. Wynika to z nieznacznego wysunięcia liści, które w realnym mechanizmie ma

możliwość całkowitego wsunięcia się w przekrój ścianki przewodu.

Wnioski

Jak widać zawór typu przesłonowego może stanowić alternatywę tam, gdzie zależy

nam na ograniczeniu wymiarów wzdłużnych. Ma też satysfakcjonująco dobre własności

odnośnie kontrolowania strugi czynnika przepływającego (wody). Liniowa zmiana pola

przekroju, który bezpośrednio wpływa na przepływ, ułatwia wprowadzenie prostych

systemów kontroli. Wciąż jednak zawór ten wymaga dalszych testów odnośnie zachowania

pod naciskiem ciśnienia cieczy (kwestia dopasowania właściwych luzów i rozmiarów

poprzecznych). Nie zostały też zbadane tendencje do drgań i potencjalnie możliwe

powstawanie (przez analogię do zaworu bramowego) turbulencji w trakcie zmieniania

średnicy rozwarcia. Obecny projekt stanowi jednak dobry przyczynek do fizycznych

prototypów, na których będą mogły być przeprowadzane dalsze testy.

Bibliografia

1. MMC Albert Beasley, Jr., Fluid Power, https://www.cnet.navy.mil/netpdtc

Page 28: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

27

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

Analysis of liquid flows through veil-type flat valves

Summary: in the article, we speak about pros and cons of different kinds of original valve

constructions, regarding quality of liquid flow control. The project of this valve is inspired by an

aperture mechanism of camera, which according to calculations, grants better control over liquid

flow, less turbulent flow and less volume size than existing control valves. Project and all

calculations were performed in CAD SolidWorks environment.

Key words: CAD, flow simulation, fluid mechanics

Page 29: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

28

Klaudia Krzeszewska

Technologie informacyjne w medycynie 2017

Klaudia Krzeszewska

Studenckie Koło Naukowe „Biokreatywni”

Wydział Inżynierii Biomedycznej Politechniki Śląskiej

Technologie informacyjne w medycynie

Streszczenie: Celem niniejszej pracy było przedstawienie wpływu rozwoju technologii

informacyjnych na medycynę. Jednym z efektów tego postępu było wprowadzenie tzw. kart

chipowych, umożliwiających placówkom ochrony zdrowia identyfikację pacjentów.

Najpowszechniej stosowanym elementem informatyki medycznej jest przetwarzanie i analiza

sygnałów oraz obrazów medycznych. Niniejszy referat w dużej mierze skupia się na telemedycynie,

porusza zagadnienia m.in., wspomagania leczenia chorób przewlekłych, wideokonsultacji,

telerehabilitacji, zdalnie sterowanych rozruszników czy pomp wspomagających pracę serca.

W referacie omówiono również teleinformatyczny system łączności w ratownictwie medycznym,

usprawniającym proces przyjęcia pacjenta do szpitala, minimalizując czas od odebrania go przez

karetkę pogotowia do przyjęcia na ostry dyżur i rozpoczęcia specjalistycznego leczenia. Niniejszy

artykuł przedstawia mnogość zastosowań technologii informacyjnych w różnych działach medycyny,

wskazuje ona zalety technologizacji tej dziedziny, ale i problemy, na które napotykają jej

użytkownicy – lekarze oraz pacjenci.

Słowa kluczowe: informatyka, telemedycyna, inżynieria biomedyczna, informatyka medyczna

Wstęp

Od kilkudziesięciu lat jesteśmy świadkami dynamicznego postępu

technologicznego we wszystkich dziedzinach życia, nauki oraz przemysłu. Wielki wpływ

miały na to szeroko rozumiane technologie informacyjne. Komputery, inteligentne

maszyny czy przepływ danych to tylko wąski obszar IT, z którym mamy do czynienia na

co dzień. Nie mówi się jednak tak powszechnie o tym, jak wiele z tego ogromnego rozwoju

zaczerpnęła medycyna.

Bazy danych

Bardzo niedocenianym elementem informatyki medycznej są bazy danych. Te

ogromne zbiory informacji setek tysięcy pacjentów oraz ich wyników umożliwiają

swobodny i szybki dostęp do informacji, gdy potrzebują tego lekarz/pielęgniarka, zarówno

w celu obejrzenia zamieszczonych tam wyników, jak i dopisania nowych. Z drugiej strony

ta sama baza powinna być całkowicie odporna na ingerencję z zewnątrz, np. na ataki

hakerów.

Należy zwrócić uwagę na multimedialny charakter medycznej bazy danych,

ponieważ oprócz danych tekstowych (opis przypadku, diagnoza), znajdują się w niej także

zdjęcia (rentgenowskie, wyniki CT, MRI) i filmy (np. z zabiegów laparoskopowych).

Baza musi być związana z archiwum, w którym przechowywane będą kopie

możliwe do odzyskania, w przypadku zniszczenia podstawowej jednostki jej wyposażenia

(np. w wyniku pożaru) [1].

Przetwarzanie sygnału

Page 30: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

29

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

Wspomaganie procesów diagnostycznych jest odnoszącą największe sukcesy

dziedziną informatyki medycznej. Budowane obecnie urządzenia pozwalają odbierać

i interpretować sygnały pochodzące z ciała człowieka. Są to w większości sygnały

reprezentujące aktywność narządów, czy funkcjonowanie systemów składających się

na ciało człowieka.

Sygnały pobierane przez wszelkiego rodzaju czujniki, są następnie przetwarzane

przez jednostki, w ten sposób, by mogły zostać poddane analizie. Przykładami

rejestrowanych i analizowanych sygnałów są: USG, EEG, czy całe systemy monitorowania

pacjentów np. na OIOMach.

Niemal niemożliwym jest uzyskanie pojedynczego sygnału biomedycznego bez

żadnych zakłóceń w postaci innych sygnałów. Aparatury pomiarowe są skomplikowanymi

urządzeniami, które wyciągają z naręcza sygnałów ten jeden, który da najlepsze

diagnostycznie informacje.

Na przykładzie EKG – Przy badaniu sensory oprócz pracy serca mogą rejestrować

skurcze innych mięśni, czy inne potencjały elektryczne znajdujące się w ciele osoby

badanej. Zadaniem programisty jest zaprogramowanie aparatury w ten sposób, aby

postępowała wg poniższego algorytmu:

• wzmocnienie sygnału,

• przefiltrowanie,

• usunięcie szumu.

Najistotniejsze jednak jest by sygnał był bezstratny, a postać jego stanu wyjściowego

spełniała ogólnie przyjęte standardy, tak aby każdy kardiolog był w stanie rzetelnie ocenić

zdrowie pacjenta [2],[3].

Przetwarzanie obrazu

Zmysł wzroku jest jednym z najważniejszych narządów zmysłów, to za jego

pomocą uzyskujemy 80-90% informacji o otaczającym nas świecie. Nic więc dziwnego,

że lekarze chętnie korzystają z metod RTG, USG, MRI. Mimo ogromnego zaawansowania

technologicznego, komputer nie zawsze będzie w stanie zastąpić lekarza np. przy

interpretacji wyniku CT, ponieważ w odniesieniu do wyjątkowych pacjentów,

o nietypowych urazach, czy niestandardowej budowie anatomicznej, może to prowadzić

do błędnych diagnoz. W takich przypadkach niezbędne do jest „oko” doświadczonego

specjalisty. Obraz z tomografii komputerowej, aby mógł zostać poddany analizie przez

specjalistów, musi zostać przetworzony w taki sposób, aby był jak najbardziej czytelny.

Powinien więc on zostać poddany:

1. Obróbce wstępnej (preprocessing):

• eliminacja zakłóceń,

• wydobywanie obiektu z tła,

• detekcja krawędzi,

• ustalanie poziomów szarości na podstawie histogramu,

• równoważenie histogramu,

2. Obróbce dalszej (segmentation):

• segmentacja obrazu,

• lokalizacja obiektów,

• rozpoznanie kształtu obiektu i wyróżnienie cech charakterystycznych

kształtu [3].

Page 31: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

30

Klaudia Krzeszewska

Technologie informacyjne w medycynie 2017

Zalety użycia komputera w tych procesach to niższa cena analizy obrazów (np. przy

automatycznej analizie i rozpoznawania obrazów preparatów tkankowych), możliwość

łatwego i taniego powielania sprawdzonych rozwiązań, czy możliwość automatycznego

rejestrowania wyników [3],[4].

Telemedycyna

W dużym uproszczeniu telemedycyna jest procesem badania oraz diagnozy pacjenta

na odległość z użyciem środków technicznych, aktualnie najczęściej za pomocą Internetu.

Zalążki tej dziedziny sięgają już lat 60, gdy amerykańskie bazy wojskowe stworzyły

satelitarną sieć telekomunikacyjną między sobą i specjalistycznymi ośrodkami

medycznymi w całym USA.

Duży wpływ na rozwój tej dziedziny miało także NASA, które musiało wymyślić

sposób na sprawne monitorowanie stanu zdrowia astronautów na odległość.

Obecnie oprócz osób skazanych na znaczną odległość placówek medycznych,

tj. żołnierzy, astronautów, uczestników egzotycznych wypraw, telemedycyna

wykorzystywana jest wobec osób, przy których niezbędne jest zachowanie dodatkowych

środków ostrożności takich jak więźniowie, czy w przypadku leczenia osób z chorób

zakaźnych.

Jest to także doskonały sposób na możliwość monitorowania pacjentów na

odległość, zmniejszając przy tym koszty personelu, czy kolejki do specjalistów, ponieważ

ciągłe monitorowanie stanu zdrowia, w przypadku zadowalających wyników, pozwala

na odsunięcie wizyty kontrolnej, a co za tym idzie, zmniejszenie kosztów personelu dla

szpitala [1],[5].

Inteligentne roboty medyczne

Roboty medyczne, inaczej telemanipulatory stanowią grupę robotów

wspomagających procedury medyczne. Ich rolą jest wykonywanie zadanych przez lekarza

ruchów oraz poleceń. Te urządzenia są często wykorzystywane w telerehabilitacji, gdzie

robot steruje np. ruchem kończyny. Zmniejsza to koszty zatrudnianego personelu,

zastępuje żmudną i monotonną pracę fizjoterapeuty np. przy wielokrotnym powtarzaniu

tych samych czynności, zmniejsza to także prawdopodobieństwo wystąpienia urazu.

Doskonałym przykładem robota medycznego jest Robin Heart, stworzony przez

zespół pracowników Fundacji Rozwoju Kardiochirurgii w Zabrzu. Jest to pierwszy

europejski robot i jednocześnie jeden z najnowocześniejszych wspomagających

bezinwazyjne operacje. Jego praca jest kontrolowana przez chirurga za pomocą konsoli i

joysticka. Dodatkowo dzięki kamerze i ultrasonografowowi operujący lekarz ma bardzo

dokładny widok pola operacyjnego. Robot Robin Heart jest zdolny zakładać by-passy,

operować zastawki i naczynia krwionośne. Konstruktorzy mają w planach wyposażyć

teleoperatory wprowadzone do ciała pacjenta w czujniki pozwalające na odczuwanie

dotyku [6],[7].

Zdalne konsultacje

Podstawowym wyposażeniem telekonsultacji jest kamera internetowa oraz łącze

głosowe, a za pomocą Internetu możliwe jest także wysyłanie obrazów, czy filmów

wysokiej rozdzielczości np. z zabiegu laparoskopowego. Obecnie, użytkownikami tych

Page 32: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

31

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

metod są głównie lekarze, ustalający najlepszą drogę leczenia u pacjentów

z niejednoznacznymi, lub ciężkimi dolegliwościami. Konsultacje między mniej

wykwalifikowanym lekarzem, a ekspertem, czy grupą ekspertów pozwala na skuteczne

leczenie niskim kosztem [1],[5].

Telemedycyna w ratownictwie medycznym

Ratownictwo medyczne jest szczególnie związane z telekonsultacjami. Jest

to nieocenione wsparcie dla ratowników, którzy ze względu na charakter swojego zawodu

muszą być specjalistami w każdej lekarskiej dziedzinie. Odpowiednio szybka reakcja przy

podejmowaniu właściwych działań zwiększa prawdopodobieństwo uratowania/wyleczenia

pacjenta. Jeśli więc ratownik medyczny jeszcze w karetce ma możliwość konsultowania,

przyjęcia instruktażu co do dalszych kroków pierwszej pomocy od eksperta danej

dziedziny, zwiększa to szanse pacjenta na całkowity powrót do zdrowia [1].

Aplikacje mobilne dla medycyny

Mobilne aplikacje medyczne to oprogramowanie działające na urządzeniach

przenośnych, które są dedykowane zarówno pacjentom, jak i lekarzom. Na rynku dla

pacjentów dostępne są między innymi: wyszukiwarki wizyt – dzięki takiej aplikacji

można odnaleźć dostępną wizytę u lekarza dowolnej specjalizacji w wybranym mieście w

Polsce, wraz z opiniami pacjentów o danych lekarzach; kalendarze – osobiste terminarze

badań i wizyt, które wysyłają przypomnienia o zbliżających się terminach badań, w formie

sms lub mailowej; wirtualny lekarz – aplikacja pozwalająca na ocenę stanu zdrowia,

wskazująca potencjalne przyczyny dolegliwości, podpowie ona również do jakiego

specjalisty się zgłosić.

Jedną z ciekawszych osiągnięć w dziedzinie aplikacji medycznych jest Cardiio

- aplikacja do pomiaru częstości pracy serca na bazie fali tętna rejestrowanej

na podstawie subtelnej zmiany koloru twarzy, a cały pomiar łącznie z analizą zajmuje

kilkanaście sekund. Twórcy twierdzą, że aplikacja pomaga wykryć migotanie

przedsionków, najczęstszej przyczyny udarów [8].

Autorzy wszystkich aplikacji zgodnie zastrzegają, że wszelkie porady mają

charakter wyłącznie informacyjno-edukacyjny i nie mogą być traktowane jak konsultacja

lub diagnoza lekarza [8].

W 2015 roku firma Medtronic (producent implantów oraz sprzętu medycznego)

otrzymała zgodę FDA (Agencji Żywności i leków) na aplikację mobilną, która pozwala

pacjentom zdalnie przesyłać dane z rozruszników serca do swoich lekarzy. Aplikacja jest

połączona z urządzeniem, które odczytuje dane z rozrusznika serca i przesyła je przez

Bluetooth do osobistego smartfona lub tabletu pacjenta. [9],[10],[11]

Możliwość przesyłu danych między rozrusznikami, a urządzeniami mobilnymi daje

wiele możliwości. Oprócz zmniejszenia kosztów badań, ponieważ niektóre wyniki będzie

można odczytać z pracy pompy, w razie zadowalających parametrów, wizyta u kardiologa

może być odsunięta w czasie. Umożliwia to także stworzenie aplikacji łączącej działanie

rozrusznika, aplikacji GPS oraz systemu powiadamiania szpitali. Dzięki temu w przypadku

zatrzymania akcji serca, rozrusznik przesyła takie dane do aplikacji, a ta dzięki systemowi

GPS powiadamia najbliższy szpital o konieczności wysłania karetki.

Najpopularniejszą aplikacją dla lekarzy jest MedTube, największa na świecie baza

filmów medycznych skierowana do lekarzy, gdzie młodzi, niedoświadczeni studenci

Page 33: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

32

Klaudia Krzeszewska

Technologie informacyjne w medycynie 2017

medycyny mają możliwość zobaczyć przebieg operacji przeprowadzonej przez

specjalistów z dowolnego miejsca na świecie [8].

Podsumowanie

Biorąc pod uwagę mnogość zastosowań technologii informacyjnych w medycynie,

oczywistym jest, iż niesie to za sobą wiele zalet, takich jak ułatwienie i przyspieszenie

procesów diagnostycznych, czy samego leczenia, a co za tym idzie, zmniejszenie kosztów

pracowników szpitali. Nowoczesne urządzenia zapewniają wysoką jakość diagnostyki,

oraz ułatwiają administrację placówek. Dużym plusem jest także możliwość

telekonsultacji, które zapewniają lepszą diagnostykę, dzięki komunikacji między

lekarzami, czy między lekarzami, a osobami starszymi, dla których możliwość

konsultowania się ze specjalistą z własnego domu jest dużym ułatwieniem. Nie da się

również ukryć, że postęp technologii informacyjnych w medycynie związany jest z dużymi

finansami. Polscy informatycy są wysoko cenieni w skali globalnej, przyciąga to kapitał

zagraniczny w postaci wielkich firm, których siedzib w Polsce jest coraz więcej.

Mimo wielu zalet, telemedycyna oraz informatyka medyczna stawiają także wiele

przeszkód lekarzom, czy pacjentom. Główną wadą jest niestabilnościć działania systemów

np. zawieszające się komputery. Niezbędna jest więc obecność wykwalifikowanych

techników, informatyków, czy okresowa konieczność konserwacji sprzętu. W zależności

od firmy produkującej takie urządzenia (np. tomografy), koszt serwisu jest bardzo

zróżnicowany. Samo wdrażanie nowoczesnych technologii jest bardzo kosztowne, a jeśli

już się to uda, należy pamiętać o konieczności edukacji pacjenta, by potrafił z nich

korzystać [1],[5].

Rozwój technologii informacyjnych, które na stałe wpisały się w codzienność

medycyny, mimo iż znacznie ułatwiły wiele procesów, postawiły również przed lekarzami

kolejne wyzwania. Każdego dnia na rynku pojawiają się co raz to nowsze rozwiązania

tworzone przez zespoły inżynierów, które mają uczynić świat prostszym

i bezpieczniejszym. Jedynie zastosowanie w praktyce tych technologii pozwoli na

weryfikacje ich użyteczności.

Page 34: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

33

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

Bibliografia

1. Tadeusiewicz R., Informatyka medyczna, wyd. Uniwersytet Marii Curie-

Skłodowskiej w Lublinie Instytut Informatyki, Lublin 2011

2. Pieniężny A., Analiza czasowo-częstotliwościowa sygnału EKG, „Biuletyn WAT”,

2009, nr 1, s. 269-278

3. Analiza i przetwarzanie obrazów, http://robert.frk.pl

4. Tadeusiewicz R., Korohoda P., Komputerowa analiza i przetwarzanie obrazów,

wyd. Fundacji Postępu Telekomunikacji, Kraków 1997

5. „Telemedicine: opportunities and developments in Member States: report on the

second global survey on eHealth 2009.”, http://who.org, 2010

6. Nawrat Z., „Pierwszt eksperyment in vivo robota chirurgicznego Robin Heart mc2

- raport”, http.icm.edu.pl, 2011

7. Nawrat Z., Kostka P., „Robin Heart Surgery Robotic System. Challenges in

Mechanical Construction, Control System and Stuff Training Berore First Clinical

Application” http://degruyter.com, 2014

8. „Najlepsze 10 aplikacji na smartfon dla pacjenta i dla lekarza”,

https://koltowski.com, 2013

9. Healthcare IT News, http://healthcareitnews.com

10. iMedicalApps MedPage Today, https://imedicalapps.com

11. Medtronic, http://medtronic.com

IT in medicine

Summary: This paper aims to describe the impact of IT advancement on modern-day medicine.

One of the most significant changes was the introduction of chip cards which allow i.e. hospitals to

quickly identify individual patients. One of the most widely used elements of IT in medicine is the

analysis and processing of biomedical signals and images. This paper is greatly concerned with the

field of telemedicine and touches upon e.g. supporting the treatment of chronic diseases, video-

consulting, telerehabilitation, and remote-controlled pacemakers. This paper also touches upon the

use of teleinformatic connection systems used by paramedics to improve hospitalization by reducing

the time needed to transport patient into hospitals and begin proper, specialised treatment. The

purpose of this paper is to present the many implementations of IT in different branches of medicine

by showing the many advantages of modernisation, but also to describe certain problems which

doctors as well as patients might stumble upon.

Key words: informatics, telemedicine, biomedical engineering, medical informatics

Page 35: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

34

Krzysztof Bałaban

Internet w pracy nauczyciela języków obcych 2017

Krzysztof Bałaban

Uniwersytet Wrocławski

Internet w pracy nauczyciela języków obcych

Streszczenie: W artykule omówiono znaczenie Internetu w pracy nauczyciela języków obcych.

Celem pracy było ukazanie w zarysie korzyści płynących z zastosowania Internetu w procesie

nauczania języków obcych wraz z przykładami dobrze obrazującymi możliwości wykorzystania

potencjału, jaki daje kontakt z tego rodzaju medium.

Słowa kluczowe: Internet, nauczyciel, nauczanie, języki obce

Wstęp

Głównym celem pracy jest przedstawienie w zarysie korzyści płynących z

zastosowania Internetu w procesie nauczania języków obcych. Należy zaznaczyć, że

zasoby Internetu pomocne w nauczaniu języków obcych są zbyt bogate, żeby w sposób

wyczerpujący opisać wszystko w niniejszej pracy. Jednak w celu lepszego zobrazowania

analizowanego zagadnienia zaprezentowano kilka wybranych przykładów dobrze

ukazujących możliwości wykorzystania potencjału, jaki daje kontakt z tym medium.

Niniejszy artykuł powinien umożliwić czytelnikowi wstępną orientację w badanym

zagadnieniu oraz ułatwić śledzenie kierunku zmian w metodyce nauczania języków

obcych, jaki aktualnie jest możliwy dzięki ewolucji treści dostępnych w Internecie. Nie bez

znaczenia jest też fakt, że obecnie Internet stał się medium bardzo powszechnym i ogólnie

dostępnym. Uczniowie mają do niego dostęp praktycznie nieograniczony dzięki

posiadanym urządzeniom mobilnym, takim jak smartfony i tablety. Uczeń korzystając z

materiałów dostępnych online sam zdobywa wiedzę, decydując kiedy i w jaki sposób

będzie się uczył. Ważny jest jednak wybór treści posiadających wysoką jakość tak aby

wspólnie z materiałem przerabianym w trakcie zajęć składał się na kurs skuteczny i

wartościowy.

Zawód nauczyciela języków obcych ze względu na dynamikę i zmienność

współczesnego świata wymaga ciągłego doskonalenia zawodowego wraz ze stałym

przystosowywaniem się do zmian. Nauczyciel zajmujący się nauczaniem języka obcego

powinien obecnie posiadać umiejętność wdrażania nowych technologii w proces

nauczania, opracowywania i realizowania nowatorskich praktycznych metod nauczania.

Internet jest mu w tym niezbędny, ponieważ sprzyja tworzeniu optymalnych warunków

ułatwiający realizację nauczania polisensorycznego1. Zasoby dostępne w Internecie

pomagają w realizacji programu dydaktycznego nauki języka obcego przez łączenie

zabawy z nauką i zastosowanie innej, atrakcyjnej formy sytuacji edukacyjnych,

przykładowo w zakresie nauki czytania. Autor pracy dotyczącej wybranych metod oceny

użyteczności stron i aplikacji internetowych Paweł Kopyść słusznie stwierdza, że Internet

1 „W procesie poznawczym dociera do człowieka wiele różnorodnych bodźców z zewnętrznego świata, które

odbierane są za pomocą zmysłów. Różne osoby odmiennie tworzą swoje wyobrażenia, które opierają na trzech

rodzajach doznań: wzrokowych, słuchowych i kinestetycznych. Uczenie się, postrzeganie świata odbywa się

pod wpływem informacji, poprzez system sensoryczny. Jest procesem wszechobecnym w ciągu całego życia

człowieka, opierającym się na odbieraniu bodźców zmysłowych docierających ze świata zewnętrznego”.

Źródło: http://www.szkolnictwo.pl/index.php?id=PV1070

Page 36: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

35

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

„stał się platformą, charakteryzującą się znacznie większym potencjałem w porównaniu do

innych mediów. Pozwala na przekaz i odbiór tekstu, obrazu, audio czy wideo, ale przede

wszystkim umożliwia interakcję z odbiorcą” (Kopyść 2014). Dzięki możliwościom, jakie

daje Internet, liczba użytkowników wykorzystujących go w nauce języka obcego wzrasta

z roku na rok. Potwierdzają to różne badania jak np. „Korzystanie z internetu”2. Warto w

tym miejscu dodać jeszcze uwagę Doroty Siemienieckiej-Gogolin, dydaktyka zajmującego

się pedagogiką szkolną, która stwierdza, że rola nauczyciela we współczesnym

społeczeństwie obok umiejętności przekazywania wiedzy poszerza się o czynności

organizowania procesu uczenia się, przewodniczenia w poruszaniu się po świecie

informacji, rozwijania zainteresowań poznawczych oraz budzeniu motywacji,

samodzielności myślenia i twórczej postawy w zdobywaniu wiedzy (zob. Siemieniecka-

Gogolin 2006, s.267). Z tego względu bardzo ważna jest rola nauczyciela, który powinien

odpowiednio dobierać oraz polecać uczniom wartościowe treści dostępne w Internecie,

stanowiące nieocenioną pomoc w efektywnym nauczaniu języka obcego.

Ogromny postęp, jaki dokonał się w ostatnich latach w informatyce wydatnie

zwiększył wkład w dydaktykę języka obcego, szczególnie jeżeli chodzi o zasoby dostępne

online. Internet to medium ulegające ciągłym, dynamicznym zmianom. Dotyczy to również

stron i portali edukacyjnych, które stają się coraz bardziej interaktywne, funkcjonalne i

atrakcyjne wizualnie, dostosowując się do aktualnych trendów i odpowiadając na potrzeby

użytkowników. Jednakże bez ścisłej koordynacji osiągnięć językoznawstwa z informatyką

trudno mówić o koherentnej ogólnej teorii dydaktyki języka. Pomiędzy Internetem a

dydaktyką zachodzi sprzężenie zwrotne polegające na tym, że każda nowa możliwość

nauczania z wykorzystaniem Internetu z reguły wywiera wpływ na kierunek rozwoju

metod nauczania, a te z kolei weryfikują ją w praktyce, wystawiając ocenę jej wartości i

prawdziwości. Z tego też względu osoby zajmujące się nauczaniem języków obcych nie

powinny ignorować najnowszych osiągnięć informatyki.

Internet w pracy dydaktycznej nauczyciela języków obcych

W dobie stale rosnącej dostępności Internetu w różnych rejonach naszego kraju oraz

coraz lepszych jego parametrów3, jak również powszechności stosowania nowych narzędzi

dostępnych online, w tym platform e-learningowych4, w nauczaniu języków obcych

kluczowego znaczenia nabiera jakość wykorzystywanych materiałów multimedialnych.

Narzędzia dostępne online dają praktycznie nieograniczoną możliwość korzystania z

materiałów dydaktycznych w dowolnym miejscu i czasie. Poza tym pozwalają dostosować

je do każdej grupy zawodowej, z uwzględnieniem jej trybu pracy, potrzeb, możliwości

czasowych oraz wszelkich innych preferencji związanych z procesem edukacyjnym.

Należy mieć na uwadze, że przez sam fakt stosowania nowego, lepszego środowiska i

narzędzi o większych możliwościach technicznych nie podnosi się jakości kursu. Z tego

też względu ważnym celem w pracy z materiałami multimedialnymi jest rozwijanie

interaktywności u uczących się języka obcego. Wykorzystanie multimedialnych

materiałów dydaktycznych „uwzględnia interdyscyplinarność zadania oraz interaktywność

z perspektywy socjalno-psychologicznej” ( Mazepa 2016, s.51).

Pomimo większego i lepszego dostępu do zasobów Internetu, nauczyciel języków

obcych powinien wiedzieć jak efektywnie wykorzystać zasoby internetowe w trakcie

2 „Korzystanie z internetu” – badania CBOS NR 92/2016. Źródło:

http://www.cbos.pl/SPISKOM.POL/2016/K_092_16.PDF 3 Ibidem 4 Learning Management Systems (ang.)

Page 37: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

36

Krzysztof Bałaban

Internet w pracy nauczyciela języków obcych 2017

prowadzonych przez siebie lekcji/kursów. Przygotowuje bowiem uczących się do

wykorzystywania języka w różnych sferach życia. Świadomość tego, w jaki sposób

uczniowie korzystają z zasobów stron internetowych pozwala odpowiednio zaplanować

zadania oraz pracę na lekcji, a także wskazać, jak zwiększyć efektywność korzystania z

Internetu w celu rozwijania umiejętności językowych.

Wykorzystanie Internetu w nauczaniu języka obcego pozwala wzbogacić i

urozmaicić treści kształcenia, formy i metody pracy nauczyciela. Prowadzący może

wykorzystywać zasoby Internetu w trakcie zajęć przykładowo przeprowadzając lekcję,

która polega na wyszukiwaniu wraz z uczniami różnych dokumentów, grafik dobrze

ilustrujących temat zajęć. Warto w tym miejscu zauważyć, że wyszukiwana tematyka

pozwala wzbogacić materiały dostępne w podręczniku, rozszerzając tym samym spektrum

wiedzy ucznia o zagadnienia realizowane w programie nauczania. Dodatkowym atutem

jest to, że w Internecie zawsze dostępne są aktualne treści dotyczące omawianego kraju,

np. jego kultury, historii, polityki, sytuacji ekonomiczno-gospodarczej, itd.

Zakładając utrzymujący się wzrost prędkości transmisji danych, który umożliwił

stworzenie i spopularyzowanie mediów strumieniowych można założyć, że wykorzystanie

na lekcjach interaktywnych i multimedialnych pomocy edukacyjnych dostępnych online

będzie coraz powszechniejsze. Wzrost prędkości sieci znacznie usprawnia pracę

nauczyciela, ponieważ nie ma już konieczności wcześniejszego pobierania i zapisywania

przerabianych materiałów na dysk komputera, a będąc online nie trzeba długo oczekiwać

na ich wczytanie. Uzupełniając listę przytoczonych korzyści należy dodać, że wszystkie

wyszukiwane informacje są dostępne w Internecie w nauczanym języku obcym.

Należy jeszcze odnotować fakt, że sięganie do zasobów internetowych nie musi być

ograniczone do zajęć lekcyjnych. Uczniowie w wolnym czasie w domu mogą korzystać z

Internetu przy wyszukiwaniu potrzebnych materiałów. Internet, w tym przypadku stanowi

niezastąpione i łatwo dostępne źródło informacji, tekstów, zdjęć, itp. Przeniesienie pracy z

wykorzystaniem zasobów internetowych nie musi być ograniczone do domu. Obecnie

możliwe jest całkowite zerwanie z ograniczeniem ze względu na miejsce i czas. Aktualnie

urządzenia mobilne z dostępem do Internetu, takie jak smartfony i tablety umożliwiają

korzystanie z zasobów sieciowych praktycznie w dowolnym miejscu, np. w tramwaju

podczas powrotu ucznia do domu5.

Poza tym dzięki Internetowi nauczyciel może:

• na bieżąco uaktualniać swoją wiedzę i umiejętności;

• uzyskać dostęp do aktualnych informacji o kursach i szkoleniach dla

nauczycieli;

• kontaktować się z innymi nauczycielami (grupy dyskusyjne, e-mail, czat);

• prowadzić w trakcie lekcji dyskusje między różnymi klasami z różnych szkół,

odmiennych środowisk, krajów, itp.;

• pobrać różne pomoce naukowe, w tym programy i narzędzia komputerowe;

• prowadzić elektroniczną wersję dziennika lekcyjnego, semestralne zestawienia

ocen, bazę danych dotyczącą uczniów w klasie;

• uzyskać pomoc w przygotowaniu interesującej lekcji (gotowe wzory

scenariuszy, konspektów, programy wychowawcze, ścieżki edukacyjne, testy,

zestawy pytań, itp.);

• tworzyć własne publikacje, m.in. w postaci stron WWW, blogów, vlogów, etc.

5 Przytoczony przykład wpisuje się w aktualny trend Learn anything, anytime, anywhere (ang.) – ucz się

czegokolwiek, kiedy tylko chcesz i gdzie tylko chcesz

Page 38: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

37

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

Wszystkie wymienione możliwości, jakie daje wykorzystanie Internetu przez nauczyciela

języków obcych dobrze obrazują ogrom zalet i korzyści, jakie daje to medium.

Wykorzystanie w nauczaniu urządzeń mobilnych

Zdarza się, że nauczyciel rezygnuje z wzbogacenia treści nauczania o materiały

dostępne online, ponieważ nie może skorzystać z sali dydaktycznej wyposażonej w

komputery z dostępem do Internetu. W większości polskich szkół tylko pracownia

komputerowa wyposażona jest w odpowiednią liczbę zestawów komputerowych, w taki

sposób aby każdy uczeń miał do dyspozycji jedno stanowisko. Najczęściej nauczyciel ma

do dyspozycji na swoim biurku komputer podłączony do Internetu wraz z rzutnikiem,

tablicą interaktywną lub dużym telewizorem, na którym może wyświetlić wykorzystywane

. Brak takiego sprzętu w sali dydaktycznej najczęściej spowodowany jest kwestiami

finansowymi, ponieważ zakup i zamontowanie takiego zestawu wiąże się z poniesieniem

przez szkołę znacznych kosztów. Brak komputera na stanowisku nauczyciela nie zamyka

jednakże drogi do wykorzystania zasobów Internetu w trakcie zajęć. Z pomocą przychodzi

tutaj fakt, że uczniowie obecnie bardzo często posiadają własne urządzenia przenośnie z

dostępem do Internetu mobilnego.

Różne badania pokazują, że w ostatnich latach dynamicznie wzrasta popularność

Internetu mobilnego: z roku na rok coraz więcej osób korzysta z sieci bezprzewodowo,

używając do tego urządzeń mobilnych – smartfonów, tabletów i laptopów6. Dzieje się tak,

ponieważ koszty pakietów internetowych oferowanych przez polskich operatorów sieci

komórkowych systematycznie maleją a dodatkowo wzrasta prędkość transmisji danych.

Dzięki temu możliwe było stworzenie i spopularyzowanie mediów strumieniowych. Jest

to nowe, pozytywne zjawisko, którego dynamiczny rozwój obserwujemy w ostatnich

latach. Użytkownicy Internetu rzadziej niż wcześniej pobierają z sieci pliki oraz częściej

oglądają przez Internet telewizję, filmy i inne materiały wideo7. Jest to istotne z punktu

widzenia analizowanego zagadnienia, ponieważ uczeń może korzystać na lekcji języka

obcego z zasobów internetowych z własnego urządzenia mobilnego nie tracąc czasu na

jego pobranie.

Model korzystania przez uczniów z własnego sprzętu, zwany BYOD8, można z

powodzeniem zastosować w nauczaniu języków obcych. Wykorzystując taki model uczeń

przynosi swoje urządzenie mobilne. Większość takiego sprzętu posiada wbudowany moduł

WiFi, dlatego uczeń nie musi zużywać swojego pakietu internetowego. Warunkiem jest

jednak zapewnienie przez szkołę dostępu do sieci bezprzewodowej. Należy mieć jednak na

uwadze fakt, że założenie i utrzymanie sieci bezprzewodowej wymaga od szkoły

poniesienia dodatkowych kosztów. Warto też zwrócić uwagę na to, że model BYOD

wychodzi z założenia, że „uczniowie swój sprzęt (smartfony, tablety, laptopy) i tak mają

oraz chcą i potrafią z niego sprawnie korzystać”9. Jednakże nie każdy uczeń posiada takie

urządzenie mobilne. W takim wypadku ćwiczenia i testy kilku uczniów może wykonywać

na jednym urządzeniu. Zastosowanie takiego modelu pracy – zespołowego lub

dwuosobowego pozwala zapewnić wystarczającą liczbę urządzeń. Zaletą takiego

rozwiązania jest umożliwienie uczniom dyskutowanie różnych wariantów odpowiedzi

6 „Korzystanie z internetu” – badania CBOS NR 92/2016. Źródło:

http://www.cbos.pl/SPISKOM.POL/2016/K_092_16.PDF 7 Ibidem 8 Bring Your Own Device (ang.) – przynieś swój sprzęt 9 Zob.: BYOD - Jak wykorzystać własny sprzęt uczniów w szkole

http://www.ldc.edu.pl/phocadownload/Nowe_produkty/poradniki/poradnik_sprzet_do_szkoly.pdf

Page 39: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

38

Krzysztof Bałaban

Internet w pracy nauczyciela języków obcych 2017

przed ich ostatecznym wyborem. Może to stanowić zaczątek do wzajemnego

przekonywania się uczniów do słuszności swoich racji.

Słowniki, translatory i korpusy językowe

W Internecie dostępne są obecnie liczne słowniki, translatory i korpusy językowe.

Wykorzystując darmowe słowniki online można poszukiwać odpowiedzi na nurtujące

nauczyciela czy uczniów pytania dotyczące znaczeń nowych słów. Słowniki online oferują

ogromną ilość haseł w wielu językach, np. Ling.pl zawiera aktualnie ponad 4,5 miliona

haseł oraz ponad 20 mln znaczeń w 7 językach10. Obecnie słowniki internetowe mogą

łączyć w sobie kilka opcji. Oferują bezpłatny dostęp nie tylko do olbrzymich baz danych

słownikowych, ale prezentują przy okazji wiele przykładów użycia wyszukiwanych słów,

jak również unikalne frazy i wyrażenia ułatwiające dobranie odpowiedniego słowa w

przypadku istnienia wielu jego znaczeń. Przykładem takiego darmowego wielojęzycznego

słownika jest Glosbe.com połączony z wyszukiwarką w korpusach równoległych.

Oprócz słowników i różnych translatorów11 dostępnych online uczeń i nauczyciel

mają do dyspozycji korpusy językowe, będące jedną z części językoznawstwa

komputerowego, zajmującego się analizą języka zgromadzonego w komputerowych

zbiorach autentycznych tekstów językowych, mówionych i pisanych, reprezentujących

różne odmiany, style i typy tekstu (czyli korpusach językowych). W przeszłości

wykorzystywane były do badań naukowych, ale obecnie są powszechnie dostępne w

Internecie i stały się nieocenioną pomocą dydaktyczną.

Zastosowanie w nauczaniu języków obcych korpusów językowych wspiera

podejście komunikacyjne, a w szczególności założenie o autentyczności przedstawianego

uczniom języka. Nacisk w tym podejściu położony jest głównie na naukę zwrotów i

wyrażeń używanych w codziennej komunikacji, a zwłaszcza w sytuacjach, w których

uczniowie sami mogą się znaleźć, takich jak pytanie o drogę. Ponadto, w miarę możliwości,

uczniowie powinni mieć kontakt z językiem w takiej formie, jaka jest używana w

rzeczywistości przez rodzimych użytkowników. Z tego względu nauczyciele powinni

posługiwać się materiałami autentycznymi, nawet w pracy z uczniami na niskich

poziomach zaawansowania, po to, by umożliwić im kontakt z takim językiem i

przygotować ich do radzenia sobie w rzeczywistych sytuacjach, także przy braku

wystarczających środków językowych (zob. Leńko-Szymańska 2005, s.222).

Dzięki darmowym programom do obsługi tekstów nauczyciele języków obcych

mogą konstruować własne minikorpusy i na ich podstawie wybierać częstsze lub rzadsze

słowa, najbardziej interesujące konteksty, a także konstruować materiały dydaktyczne w

oparciu o autentyczne dane językowe. Możliwość dostępu online do korpusów językowych

daje nauczycielom języków obcych dodatkowe narzędzie do celów dydaktycznych

pozwalające na uzupełnienie materiału z podręcznika czy samodzielne dobieranie tekstów.

Innym udogodnieniem dostępnym online, ułatwiającym naukę języka obcego są

materiały wideo.

10 Źródło: https://ling.pl/ 11 Przykładowo: https://translate.google.pl/,

https://www.bing.com/translator

Page 40: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

39

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

Materiały wideo dostępne online

Nauka języków obcych z pomocą materiałów wideo dostępnych w Internecie została

spopularyzowana głównie przez serwisy typu YouTube.com. Umożliwiają one bezpłatne

umieszczanie i strumieniowe odtwarzanie filmów. Popularność tego typu serwisów wynika

nie tylko z możliwości darmowego oglądania różnych materiałów wideo, ale również

nieograniczonego dodawania swoich własnych produkcji. Twórca filmu nie ponosi

żadnych kosztów związanych z zamieszczaniem, przechowywaniem i udostępnianiem

swoich materiałów wideo, a dodatkowo nie musi posiadać specjalistycznej wiedzy

technicznej w tym zakresie. Dzięki temu na serwisach typu YouTube znajduje się mnóstwo

materiałów dla osób uczących się języków obcych, często tworzonych przez

profesjonalnych lektorów, czy też native speakerów.

Poza tym podczas oglądania filmów czy seriali w nauczanym języku istnieje

możliwość równoczesnego wyświetlania napisów. Jest to funkcja bardzo przydatna

podczas odtwarzania teledysków różnych piosenek, ponieważ wyświetlany jest ich tekst.

Stanowi to duże udogodnienie w nauce języka obcego, szczególnie dla osób, które są

wzrokowcami.

Materiały wideo dostępne w serwisach typu YouTube pozwalają wzbogacić i

urozmaicić treści dostępne w podręcznikach. Z doświadczenia dydaktyków wynika, że

krótki film może stać się inspiracją dla nauczyciela języka obcego i pomóc mu w

stworzeniu zróżnicowanych pod względem metodycznym zajęć (zob. Klimek 2010).

Wieloletni dydaktyk Dorota Klimek podkreśla, że wzbogacenie zajęć krótkim filmem

sprawia, że przestają być one monotonne. Ćwiczenia bazujące na materiałach wideo

wykorzystują większość komponentów nauczania, ze szczególnym uwzględnieniem

rozumienia ze słuchu, mówienia i nauki słownictwa. Dodatkowo ze swoich obserwacji

Klimek zauważa, że studenci „bardzo aktywnie uczestniczą w zajęciach, których punktem

wyjściowym jest krótki film; stanowi to dla nich pewną atrakcyjną odmianę wobec

typowych zajęć opartych na podręczniku do nauki języka obcego. Rozbudzając ich

zainteresowanie, zwiększamy też motywację, będącą nieodłącznym składnikiem sukcesu

w przyswajaniu nowego materiału” (zob. Klimek 2010, s.103).

Wirtualne spacery

Wirtualny spacer jest możliwy poprzez interaktywne mapy dostępne online.

Przykładowo wykorzystując Google Street View siedząc przed ekranem monitora można

odkrywać zabytki z całego świata, podziwiać cuda natury i zwiedzać wnętrza różnych

obiektów m.in. muzeów i stadionów. Taka forma zwiedzania stanowi aktualne i

kompleksowe źródło informacji. Powstaje też wiele portali, jak wirtualnykraj.pl, na

których można obejrzeć panoramy wyjątkowych miejsc bądź trójwymiarowe obiekty,

m.in. pomniki. Zastosowanie takich atrakcyjnych graficznie i łatwych do obsługi przez

użytkowników darmowych zasobów internetowych może być przydatne w nauczaniu

języków obcych przy rozwijaniu sprawności mówienia. Nauczyciel oprowadzając uczniów

ulicami miasta, które jest związane z nauczanym językiem, prosi ich o równoczesne

opowiadanie o miejscach, które widzą.

Darmowe konsultacje z native speakerem

Page 41: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

40

Krzysztof Bałaban

Internet w pracy nauczyciela języków obcych 2017

Konsultacje z native speakerem, czyli osobą dla której nauczany język jest językiem

podstawowym, doskonale poprawiają wymowę i akcent. Niestety taka forma nauczania jest

zwykle bardzo droga. Wykorzystując nowe narzędzia internetowe możliwe stało się

uzyskanie darmowych konsultacji z native speakerem. Taką możliwość dają darmowe

komunikatory umożliwiające kontaktowanie się z ludźmi na całym świecie. Przykładowo

program Skype pozwala prowadzić za darmo rozmowy tekstowe, głosowe i wideo. Oprócz

komunikatorów powstają również bezpłatne aplikacje typu HiNative. Jest to platforma

Q&A dla osób uczących się języków. Aktualnie dostępna jest na smartfony z systemem

Android i iOS. Za jej pośrednictwem można zadawać native speakerom z całego świata

pytania dotyczące ich języka i kultury. W nauce języków obcych uzyskanie takiej formy

pomocy jest bardzo przydatne. Dużym plusem jest możliwość zadawania pytań i udzielania

odpowiedzi w formie audio. Jest to niezwykle istotne dla osób, które chciałyby, żeby ich

wypowiedzi pisemne i wymowa zostały sprawdzone przez native speakera. HiNative

można wykorzystać w celu otrzymania szybkiego tłumaczenia, pomocy w nauce podstaw

językowych lub indywidualnej opinii dotyczącej wypowiedzi pisemnej w obcym języku.

Testy językowe

Testy językowe stanowią atrakcyjną formę nauki języka obcego. Aktualnie

oferowane testy udostępnione online na portalach typu Duolingo.com starają się mieszać

różne techniki: słuchania, pisania, czytania i mówienia.

Duolingo oferuje naukę poprzez minilekcje. Plusem nauki z Duolingo jest inteligentny

algorytm który stara się zapamiętywać błędy użytkownika, by później do nich wracać. W

przypadku, jeżeli uczeń pomyli się kilka razy to program oprócz dodania nieprawidłowych

odpowiedzi do powtórki, nie zalicza danego działu i nie udostępnia przejścia do następnej

lekcji. Natomiast jeżeli uczeń pomyli się tylko raz lub dwa to dany dział zostaje mu

zaliczony a słowo, które wpisał błędnie zostanie umieszczone w następnej lekcji. Będzie

mógł wtedy poprawić swój błąd i udzielić prawidłowej odpowiedzi. Oprócz aktualnych

postępów w nauce uczeń otrzymuje dodatkowo gloryfikacje w postaci gwiazdek w różnych

kolorach i punktów, co ma stanowić dodatkową zachętę do nauki, ponieważ swoje wyniki

uczeń może porównywać z rezultatami innych użytkowników portalu.

Minusem Duolingo jest jednak to, że portal duży nacisk kładzie na uczenie się

pojedynczych słówek niż na rozwijanie umiejętności posługiwania się zwrotami.

Fiszki

Fiszka rozumiana jako niewielki kawałek papieru z hasłem lub słówkiem na awersie

oraz jego tłumaczeniem na rewersie jest bardzo pomocna w przypadku systematycznego

uczenia się języków obcych. Takie kartonikowe fiszki można kupić lub wykonać samemu.

Warto jednak skorzystać z bogatych zasobów platform typu Quizlet.com umożliwiających

pracę na wirtualnych fiszkach. Nauczyciel zyskuje dzięki niemu bezpłatne narzędzie do

nauki słownictwa.

Nauczyciel może z pomocą tego portalu urozmaicić lekcję wprowadzając zadanie z

wykorzystaniem fiszek. Fiszki interaktywne dostępne za pośrednictwem tego portalu

można wykorzystać na zajęciach z dowolnego przedmiotu, ale szczególnie nadaje się do

użycia na lekcjach języka obcego. Na portalu Quizlet nauczyciel może wybrać spośród

miliona gotowych zestawów fiszek lub stworzyć od podstaw swój własny albo

zmodyfikować istniejący i udostępnić go uczniom w trakcie zajęć. Użytkownik portalu ma

Page 42: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

41

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

do dyspozycji sześć rodzajów ćwiczeń. Cztery przeznaczone do nauki, zatytułowane są

„Fiszki”, „Uczę się”, „Ćwiczenie pisowni” i „Test”. Dostępne są też dwa ćwiczenia w

postaci gry edukacyjnej, zatytułowane „Dopasowania” i „Grawitacja”.

Fiszki interaktywne od tradycyjnych wyróżnia możliwość odsłuchania wymowy

nauczanego słowa, śledzenia postępu nauki i liczby pozostałych w ramach ćwiczenia

wyrazów, a także atrakcyjna forma prezentacji. Urozmaicona jest ona kilkoma zadaniami

polegającymi na podaniu tłumaczenia wyświetlonego wyrazu, ćwiczeniu ze słuchu

wymagającym od ucznia napisania tego, co słyszy, a także rozwiązaniu testu wielokrotnego

wyboru.

Ciekawą formą ćwiczenia jest gra „Dopasowania” będąca interaktywną rozsypanką

słów. Rozrzucone po ekranie słowa należy dopasować do ich tłumaczeń. Poprawne

dopasowanie usuwa parę słów, a niepoprawne ponownie je rozrzuca. Trudniejszym

ćwiczeniem jest gra „Grawitacja”. Po rozpoczęciu gry, od góry ekranu spadają asteroidy z

wyrazami, przemieszczając się w kierunku planety. Zadanie ucznia polega na wpisaniu

tłumaczenia pojawiających się słówek zanim „dolecą” do planety, by zniszczyć ją i

zakończyć zabawę.

Postcasty

Postcasty stanowią formę internetowej publikacji dźwiękowej lub filmowej12,

najczęściej w postaci regularnych odcinków, z zastosowaniem technologii RSS13.

Korzystanie z nich w przypadku nauczania języków obcych zostało spopularyzowane od

momentu wprowadzenia do sprzedaży dedykowanych odtwarzaczy muzycznych14.

Jednakże do skorzystania z postcastu wystarczy komputer odtwarzający cyfrowe pliki

dźwiękowe (np. w formacie MP3) lub pliki wideo w przypadku postcastu wideo – tzw.

Videocastu, oraz oprogramowanie pobierające i katalogujące transmisje na podstawie

informacji zawartych w publikowanych razem z postcastami plikach RSS. Postcast może

mieć formę nieformalnego bloga, profesjonalnej audycji radiowej, kursu językowego lub

odcinków historii czytanej przez lektora.

W przypadku wykorzystania materiałów online w postaci podcastów, czy też

czytania różnych tekstów w nauczanym języku najważniejszy jest fakt, że uczeń robi coś,

co sprawia mu przyjemność a jednocześnie zdobywa nową wiedzę.

Podsumowanie

Reasumując, należy podkreślić, że wykorzystanie w procesie nauczania materiałów

dostępnych w Internecie jest ważnym elementem, pozytywnie oddziałującym na uczniów.

Internet przenikając do pracy nauczyciela języków obcych w decydującym stopniu zmienia

metodykę nauczania języków obcych. Na zakończenie warto podkreślić, że umiejętne

wykorzystanie zasobów dostępnych w Internecie znacznie poszerza wiedzę i zwiększa

spektrum doświadczeń ucznia. Efektywne ich wykorzystywanie podczas zajęć językowych

oraz skuteczne nauczanie z udziałem wirtualnej rzeczywistości powinno być jednym z

celów nauczania jakie stawiają sobie współcześnie nauczyciele języków obcych. Ważne

jest jednak umiejętne zachęcenie ucznia do przejęcia części odpowiedzialności za proces

12 https://pl.wikipedia.org/wiki/Podcasting#cite_note-1 13 RSS – umowna rodzina języków znacznikowych do przesyłania nagłówków wiadomości i nowości na

wybranych stronach. Źródło: https://pl.wikipedia.org/wiki/RSS 14 https://podcastsportowy.wordpress.com/podcast-a-co-to-jest/

Page 43: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

42

Krzysztof Bałaban

Internet w pracy nauczyciela języków obcych 2017

przyswajania wiedzy a także wskazanie jak uczniowie sami mogą wybrać wartościowe

treści dostępne online, które będą im pomocne w nauce języka obcego.

Bibliografia

1. Klimek D., Film na lekcji języka angielskiego – propozycja zajęć [w:] Zeszyty

Glottodydaktyczne, Zeszyt 2, Kraków 2010, s. 99-107.

2. Kopyść P., Wybrane metody oceny użyteczności stron i aplikacji internetowych,

Kraków 2014.

http://krainabiznesu.pl/wp-content/uploads/sites/2/2014/04/White_Paper-

Wybrane_metody_oceny_uzytecznozci_stron_i_aplikacji_internetowych.pdf

3. Korzystanie z internetu – badania CBOS NR 92/2016.

http://www.cbos.pl/SPISKOM.POL/2016/K_092_16.PDF

4. Leńko-Szymańska A., Korpusy w nauczaniu języków obcych [w:]

B.Lewandowska-Tomaszczyk (red.), Podstawy językoznawstwa korpusowego,

Łódź 2005.

5. Mazepa H., Zastosowanie animacji komputerowej w dydaktyce języka obcego

zawodowego, „Języki Obce w Szkole” 2016, nr 3, s.47-51.

6. Nauczanie polisensoryczne [w:] szkolnictwo.pl,

http://www.szkolnictwo.pl/index.php?id=PV1070

7. Postcasty [w:] pl.wikipedia.org, podcastsportowy.wordpress.com

https://pl.wikipedia.org/wiki/Podcasting#cite_note-1;

https://pl.wikipedia.org/wiki/RSS;

https://podcastsportowy.wordpress.com/podcast-a-co-to-jest/

8. Siemieniecka-Gogolin D., Nauczyciel dorosłych dla społeczeństwa

informacyjnego, [w:] E.Perzycka (red.), Nauczyciel jutra, Toruń 2006.

Internet at the work of a foreign language teacher

Summary: The article discusses the importance of the Internet in the work of a foreign language

teacher. The aim of the study was to outline the benefits of using the Internet in the teaching of

foreign languages with examples illustrating the possibilities of exploiting the potential of contact

with such media.

Key words: Internet, teacher, teaching, foreign languages

Page 44: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

43

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

Paulina Julita Laskowska

Szkoła Główna Gospodarstwa Wiejskiego w Warszawie

Informatyka w rolnictwie, czyli rolnictwo precyzyjne

Streszczenie: W związku z coraz szybszym rozwojem technologii wkracza ona w coraz to różniejsze

dziedziny życia. Ze względu na swoje wielorakie zastosowanie informatyka znajduje coraz szersze

zastosowanie w rolnictwie. Gospodarowanie wspomagane komputerowo zostało nazwane

rolnictwem precyzyjnym. Opiera się ono na gromadzeniu danych o przestrzennym zróżnicowaniu

plonów w obrębie pola. Na podstawie zgromadzonych danych w konkretnych miejscach stosowane

są agrochemikalia w odpowiednich dawkach. Zastosowanie technologii wiąże się z kosztami zakupu

nowoczesnych maszyn, ale w przyszłości koszty produkcji rolnej będą znacznie niższe. Zastosowanie

w gospodarstwie zasad rolnictwa precyzyjnego pozytywnie wpływa na ograniczenie skażenia

środowiska.

Słowa kluczowe: rolnictwo, informatyka, rolnictwo precyzyjne

Wstęp

Rolnictwo, aby przynosiło satysfakcjonujące zyski, musi opierać się na

zastosowaniu odpowiedniej wiedzy oraz być gotowe na wdrażanie nowoczesnych

technologii, które usprawnią procesy zachodzące w gospodarstwie, odciążając właścicieli

od nadmiaru obowiązków, chroniąc środowisko i zachowują bezpieczeństwo

produkowanej żywności. Jest wiele definicji rolnictwa precyzyjnego, ale w każdej z nich

autorzy stwierdzają, że jest to zespół technologii tworzących kompleksowy system

rolniczy. Jego elementy są dostosowane do poszczególnych upraw. Wykorzystanie

rolnictwa precyzyjnego pozwala na ekonomiczne i racjonalnie zastosowanie środków

ochrony roślin. Zastosowanie rolnictwa precyzyjnego rozpoczyna się od pozyskania

informacji i zapisu na mapach przestrzennych. Informacje dotyczą przestrzennej i czasowej

zmienności cech roślin oraz środowiska i warunków zewnętrznych. Zgromadzone dane

informują o właściwości gleb, roślin, agrofagów rośli, szacowanych plonach i identyfikacji

miejscowej zmienności. Na podstawie zgromadzonych informacji tworzone są mapy z

danymi glebowymi i roślinnymi. Następnie tworzone są modele i mapy aplikacji. Na

podstawie map następuje siew, nawożenie i ochrona roślin. Dawki środków są

odpowiednio skonkretyzowane dla każdego miejsca na polu. W obecnym czasie kluczową

rolę w świadomości wszystkich mieszkańców Ziemi odgrywa ekologia. Dlatego rolnictwo

precyzyjne ma na celu oszczędność środków, ochronę środowiska, zdrowia i życia ludzi

oraz zwierząt.

Zasady rolnictwa precyzyjnego

Pierwszym kluczowym elementem rolnictwa precyzyjnego jest zbieranie

dokładnych i rzetelnych informacji dotyczących wartości mikro i makroskładników

znajdujących się w glebie na badanym obszarze (Faber, 1998, s. 4-15). Zbiórka,

przetwarzanie i analiza informacji odbywają się w ramach Systemu Informacji

Przestrzennej SIP. Obejmuje ona odpowiednie narzędzia, metody oraz oprogramowanie

Page 45: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

44

Paulina Julita Laskowska

Informatyka w rolnictwie, czyli rolnictwo precyzyjne 2017

specjalnie przeznaczone do tego celu. Na podstawie sporządzonych map tworzy się bazy

danych i dokumentacji. Ma to późniejsze zastosowanie w zarządzaniu procesami produkcji

oraz pracy maszyn podczas zabiegów odbywających się na polu. Zgromadzone i

przeanalizowane informacje pozwalają podjąć trafne decyzje dotyczące właściwego

kierunku nawożenia, ustalania dawek nawozów, zabiegów ochrony roślin oraz ich

zmiennej aplikacji (Faber, 1998, s. 16-27). Ma to także zastosowanie podczas siewu roślin

lub zmiany parametrów roboczych maszyn rolniczych. Na rysunku 1 przedstawiono mapę

z naniesionymi informacjami dotyczącymi zasobności gleby w magnez.

Rysunek 1. Mapa zasobności w magnez

Źródło: http://rolnictwogps.pl (dostęp 31.05.2017).

Kolorem najciemniejszym są zaznaczone miejsca, w których zasobność w magnez

jest bardzo duża. Im kolor jest jaśniejszy (w pewnych miejscach dochodzi nawet do

białego), tym zasobność gleby w ten pierwiastek jest mniejsza. Wielkość plonu zebrana w

różnych częściach pola jest różna i zależna od produktywności. Większy plon w danym

miejscu oznacza, że rośliny tam pobrały większe ilości makro- i mikroorganizmów. Jest to

znak, że należy w tym miejscu zwiększyć nawożenie. Dane dotyczące wielkości plonu

pozyskiwane są dzięki urządzeniom, które zamontowane są w maszynach zbierające plony,

głównie są to kombajny zbożowe. Aby system działał prawidłowo konieczne jest jego

wyposażenie w dodatkowy komputer pokładowy i odbiornik GPS. Czujnik

odpowiedzialny za pomiar plonu w chwili zbioru działa na następujących zasadach:

Page 46: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

45

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

• pomiar objętościowy zebranego ziarna,

• pomiar masy zebranego ziarna. Dodatkowo podczas zbioru może być określona wilgotność ziarna. Dzięki

zamontowanemu w maszynie odbiornikowi GPS znane jest dokładne położenie kombajnu.

Położenie może być określone z dokładnością do nawet kilku centymetrów. Oba

urządzenia połączone są przez komputer, który umożliwia późniejsze przeniesienie

uzyskanej mapy plonów z kart pamięci do komputera stacjonarnego. Na podstawie

stworzonej mapy sprawdzane są miejsca zróżnicowania wielkości plonów. Możliwe jest

uzyskanie w tym przypadków także informacjo o całkowitym zbiorze z danego pola.

Oprócz wyżej wymienionych informacji możliwe jest pozyskanie także danych o jakości

zbiorów, na podstawie których tworzone są mapy jakości zebranego ziarna.

Rolnictwo precyzyjne, obok informacji dotyczących jakości i wielkości plonów,

daje możliwość zaplanowania odpowiedniej ochrony przed chorobami, chwastami i

szkodnikami. Obecnie najbardziej powszechnym sposobem oceny porażenia roślin przez

choroby jest teledetekcja. Za pomocą odpowiednio przystosowanych do tego urządzeń

wykonuje się zdjęcia satelitarne, lotnicze i naziemne w podczerwieni. Rośliny porażone

czynnikiem chorobotwórczym wykazują mniejszą absorpcję fal czerwonych. Jednak z

doświadczenia wynika, że ten sposób oceny jest niejednoznaczny i należy zastosować

dodatkową metodę. Najczęściej w takich wypadkach stosuje się metodę tradycyjną

polegającą na ocenie plantacji w wielu punktach bezpośrednio. Na podstawie danych

zgromadzonych z oceny sporządzana jest mapa, na której naniesione są miejsca

występowania choroby. Dawka środka chemicznego zwalczająca chorobę jest określana na

podstawie danych z map oraz wielkości i zagęszczenia łanu (Jadczyszyn, 1998, s. 28-39).

Rolnictwo precyzyjne wymaga od właścicieli gospodarstw ciągłej i ścisłej oceny wielkości

nasilenia i rodzaju zachwaszczenia na obszarze danego pola. Przyjmuje się, że na polu

zachwaszczenie występuje w różnym nasileniu. Tak jak w poprzednim wypadku stopień i

rodzaj zachwaszczenia mogą zostać określone za pomocą teledetekcji wykorzystując do

tego urządzenia satelitarne, lotnicze i naziemne. Stosowane są również kamery montowane

z przodu ciągnika, które dokonują identyfikacji zachwaszczenia. Na podstawie danych

pozyskanych w taki sposób ustala się dawkę oprysku, a następnie ją aplikuje w miejscach

dotkniętych zachwaszczeniem (Walaszczyk, 2012, s. 878-879). W ramach rolnictwa

precyzyjnego stosowane jest również ochrona roślin za pomocą środków

agrochemicznych. Idealnym rozwiązaniem w tym wypadku jest stosowanie jak

najmniejszej ilości środka chemicznego, tylko wtedy i gdzie jest to konieczne i niezbędne.

Wprowadzenie w życie zasad rolnictwa precyzyjnego daje właścicielom takie możliwości

obniżając przy tym koszty użycia pestycydów i zwiększając jakość plonów. Do głównych

celów rolnictwa precyzyjnego zalicza się ograniczenie dawek stosowanych chemikaliów

oraz wielkości powierzchni, na których są używane. Należy podkreślić, iż ograniczenie

stosowania środków ochrony roślin nie powoduje obniżenia ochrony roślin, a co za tym

idzie zmniejszenia ilości i jakości plonów.

Prawidłowość całego systemu rolnictwa precyzyjnego jest nierozerwalnie związana

ze stosowanymi maszynami. Zmienny system dawkowania VRA, czyli Variable Rate

Aplication jest najczęściej wykorzystywane w rolnictwie precyzyjnym. Na podstawie

sporządzonych map na obszarze pola stosowane jest zróżnicowane dawkowanie środka

ochrony roślin lub zmienny wysiew nasion. W systemie VRA wykorzystywany jest

komputer polowy z GPS i właściwym oprogramowaniem, połączony z komputerem

znajdującym się na maszynie aplikującej nawóz lub środek ochrony roślin. Aby ten system

działał prawidłowo w pierwszej kolejności należy wprowadzić do niego wcześniej

przygotowaną w komputerze stacjonarnym mapkę aplikacyjną, na której są przydzielone

odpowiednie dawki. Podczas jazdy maszyny po obszarze pola GPS podaje dokładnie

Page 47: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

46

Paulina Julita Laskowska

Informatyka w rolnictwie, czyli rolnictwo precyzyjne 2017

położenie, a następnie system VRA przekazuje informacje o potrzebnej dawce dla miejsca,

w którym się znajduje do komputera maszyny aplikującej. Nawóz lub środek jest

automatycznie dawkowany we wcześniej zaplanowanych ilościach na konkretnym miejscu

na polu. W sytuacji, gdy wymagany jest zróżnicowany poziom zasobności w składniki

odżywcze, możliwe jest zaprogramowanie zmiennego wysiewu kilku nawozów

jednocześnie, a nawet każdego nawozu ze zmiennym dawkowaniem. Stosowanie maszyn

wyposażonych w maszyny niesie za sobą wiele korzyści, m.in. szybką i prostą kalibrację,

co zwiększa efektywność systemu VRA. Istnieje możliwość zmiany dawki środka ochrony

roślin, nawozu lub nasion w trakcie trwania zabiegu. Większość aplikacji

wykorzystywanych w rolnictwie precyzyjnym wykonuje swoją prace w „czasie

rzeczywistym”, nie ma tu znaczenia prędkość poruszania się maszyny. Ogólnie rzecz

ujmując, najwięcej pracy i czasu pochłania stworzenie precyzyjnych map. Aby uzyskać

pożądane efekty istnieje konieczność określenia niedoboru składnika i wykonanie zabiegu

nawożenia w czasie rzeczywistym. Ułatwieniem w tym wypadku jest zastosowanie

sensorów lub urządzeń do pomiaru gęstości uprawy. Sensor skanuje podczas jazdy

otoczenie ciągnika i przeprowadza analizę promieniowania odbitego od roślin. Sensor

wykonuje identyfikację zmian odbicia i przelicza informację o stanie chlorofilu na

wymaganą dla danego miejsca dawkę nawozu. System VRA znajduje zastosowanie nie

tylko w rozsiewaczach nawozów, lecz również w siewnikach i opryskiwaczach. W tych

maszynach zmienne dawkowanie jest możliwe dzięki włączaniu i wyłączaniu

odpowiednich sekcji opryskiwacza. Dzięki zastosowaniu układów identyfikacji obecności

lub braku roślin w uprawach sadowniczych lub warzywniczych można zauważyć

oszczędności dużych ilości środków ochrony roślin. Zauważane oszczędności sięgają od

20% do 80%, zachowując taką samą, a w niektórych przypadkach nawet wyższą

skuteczność biologiczną. Wolne przestrzenie w rzędach drzew w sadach są identyfikowane

za pomocą czujników optycznych lub ultradźwiękowych. Gdy maszyna wykryje wolne

miejsca, w którym nie ma rośliny zamyka dysze opryskiwacza w takim miejscu. Takie

same czynności często mają miejsce podczas ochrony upraw warzywnych.

Rolnictwo precyzyjne podczas większości działań wykorzystuje pozycjonowanie.

Jest to najlepiej rozwinięty element rolnictwa precyzyjnego. System GPS charakteryzuje

się tym, że działa globalnie i kompleksowo. System GPS korygowany jest przez system

różnicowy DGPS i pozwala na dużą dokładność pozycjonowania. Jest to bardzo istotny

element w rolnictwie precyzyjnym, ponieważ wiarygodność mapowania plonów i

zmienności glebowej wymaga pozycjonowania poniżej 1 metra. W przypadkach

stosowania koncepcji indywidualnego podejścia do roślin lub pojedynczych roślin

pozycjonowanie musi być jeszcze większe. Podczas mikro opryskiwania nanosi się mikro

dawki cieczy użytkowej, kierowanej na pojedyncze liście chwastu, który został wcześniej

zidentyfikowany za pomocą cyfrowej kamery i komputerowej analizy obrazu. Podczas

nawożenia, oprysku i wysiewu nasion metodą tradycyjną istnieje możliwość

nierównomiernego wykonania tych zabiegów i ryzyko powstania omijek lub zakładek.

Zastosowanie nawigacji równoległej wykorzystując GPS pozwala bez względu na

panujące warunki i ukształtowanie pola prowadzić maszyny po pasach równoległych

niwelując te wady (Dominik, 2010, s. 15-17). Zestaw maszyn kierowany jest na podstawie

wskazań urządzeń lub stosowane jest prowadzenie automatyczne. Dzięki systemowi

istnieje możliwość wykonania zabiegów pełną szerokością maszyny. W czasie

wykonywania tych prac stosowane jest zmienne dawkowanie VRA na podstawie map

zaleceń dotyczących nawożenia, opryskiwania lub wysiewu nasion. Dzięki takiemu

rozwiązaniu właściciel uzyskuje oszczędność środków ochrony roślin i nawozów.

Zastosowanie systemu VRA daje również gwarancję, że dawkowanie dostosowane jest do

Page 48: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

47

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

zasobności gleb w składniki mineralne i potrzeb roślin. Rysunek 2 przedstawia jak działa

w praktyce system automatycznego prowadzenia.

Rysunek 2. System automatycznego prowadzenia

Źródło: www.agrohandel.com.pl (dostęp: 01.06.2017)

Podsumowanie

Wdrażanie zasad rolnictwa precyzyjnego nie musi wiązać się z dużymi kosztami i

wprowadzenia działań rewolucyjnych w gospodarstwie. Nie wszystkie zasady muszą być

wdrażane jednocześnie. Na początek zaleca się wprowadzenie uproszczonych form

rolnictwa precyzyjnego wprowadzając tylko niektóre elementy. W Polsce większość pól

jakie mają rolnicy jest małej powierzchni i występują na nich małe zróżnicowanie glebowe.

Dlatego, aby obniżyć koszty, rolnik sam może pobrać próbki glebowe w kilku punktach na

polu, a plon określić ważąc go z poszczególnych pól. Takie czynności pozwolą na

zaplanowanie racjonalnego nawożenia i siania. Obecnie zasady rolnictwa precyzyjnego,

nawet te tradycyjne, są stosowane w niewielkiej liczbie gospodarstw, szczególnie tych

małych. Aby rolnictwo precyzyjne było odpowiednio wdrażane konieczna jest

specjalistyczna wiedza i świadomość potrzeby zmian. Obecnie ze względu na zmieniający

sie klimat coraz większy nacisk kładzie się na ochronę środowiska, więc zasady rolnictwa

precyzyjnego znajdują tutaj zastosowanie.

Page 49: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

48

Paulina Julita Laskowska

Informatyka w rolnictwie, czyli rolnictwo precyzyjne 2017

Bibliografia

1. Dominik A., System rolnictwa precyzyjnego, wyd. Centrum Doradztwa

Rolniczego w Brwinowie Oddział w Radomiu, Radom 2010, s. 15-17.

2. Faber A. System rolnictwa precyzyjnego. I. Mapy plonów. Fragmenta

Agronomica 57, Radom 1998, s. 4-15. 3. Faber A. System rolnictwa precyzyjnego. II. Analiza i interpretacja map plonów.

Fragmenta Agronomica 57, Radom 1998, 16-27.

4. Jadczyszyn T., System rolnictwa precyzyjnego. Nawożenie w rolnictwie

precyzyjnym. Fragmenta Agronomica 57, Wrocław 1998, s. 28-39.

5. Walaszczyk A., Systemy informacyjne w rolnictwie precyzyjnym [w]:

Konferencja Innowacje w Zarządzaniu i Inżynierii Produkcji, wyd. Polskie

Towarzystwo Zarządzania produkcją, Zakopane 2012, s. 878-879

Information technology in agriculture or precision agriculture

Summary: Due to the accelerated development of technology, it embraces increasingly diverse

areas of life. Owing to its multiple uses, IT is increasingly used in agriculture. Computer-aided

management has been called precision farming. It is based on the accumulation of data on the

spatial variability of yield within the field. Based on the collected data at specific sites,

agrochemicals are used at appropriate doses. The use of technology involves the purchase of

modern machinery, but in the future the cost of agricultural production is much lower. The

application of the principles of precision farming on the farm positively affects the reduction of

environmental pollution.

Key words: Agriculture, computer science, precision agriculture

Page 50: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

49

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

Marcin Miazio

Koło Naukowe Studentów Matematyki GRAF

Uniwersytet Przyrodniczo – Humanistyczny w Siedlcach

Maszyny różnicowa i analityczna jako prototypy współczesnych

komputerów

Streszczenie: W artykule przedstawiona zostanie historia powstania projektów i zasady działania

dwóch maszyn matematycznych: maszyny różnicowej i analitycznej, będącymi mechanicznymi

odpowiednikami współczesnych komputerów. Podany zostanie krótki rys biograficzny ich twórcy

Charles'a Babbage'a, który był pionierem zastosowań matematyki w informatyce. Omówione

zostaną także obszary działania obu maszyn i ich możliwości, oraz współczesne plany dotyczące

budowy maszyny analitycznej w oparciu o pozostawione przez Babbage'a wytyczne.

Słowa kluczowe: matematyka, informatyka, maszyna różnicowa, maszyna analityczna, Charles

Babbage

Wstęp

Wielomianem nazywamy każde wyrażenie postaci a0+ a1x+ ….+ anxn, gdzie a0,

a1,… , an są liczbami rzeczywistymi. Jest to klasa funkcji, dla której, za pomocą zwykłego

dodawania i mnożenia, potrafimy obliczać każdą wartość rzeczywistą. Funkcje

wielomianowe są to tzw. funkcje różniczkowalne, czyli funkcje, dla których możliwe jest

obliczenie pochodnej. Studenci pierwszego roku studiów matematycznych dowiadują się

o jednej z najważniejszych własności wielomianów. Okazuje się, że dzięki wielomianom

można dowolnie dokładnie przybliżać każdą funkcję, której wykres jest linią ciągłą, bez

żadnych ostrych załamań. O takich funkcjach mówimy, że są nieskończenie wiele razy

różniczkowalne lub, że są klasy C∞ . Takie funkcje to np. funkcje trygonometryczne,

wykładnicze, logarytmiczne. Dla obliczenia wartości takich funkcji zwykłe mnożenie i

dodawanie nie wystarczy.

Przybliżanie funkcji wielomianami

Znane jest twierdzenie matematyczne, które mówi, że każdą funkcję nieskończenie

wiele razy różniczkowalną można dowolnie dokładnie przybliżać wielomianem w każdym

skończonym przedziale. Jednak w przeszłości przybliżanie to i tak przysparzało nie lada

problemów.

Sposoby wyznaczania wartości wielomianu

Istnieje wiele sposobów na wyznaczanie wartości wielomianu. Najprostszym

sposobem jest podstawianie danej wartości x do wzoru ogólnego wielomianu a0+ a1x+ …+

anxn. Ile będziemy musieli wykonać wtedy obliczeń? Pierwsze co trzeba zrobić, to obliczyć

wszystkie potęgi x od 2 do n czyli wykonać n-1 mnożeń. Następnie należy przemnożyć

wszystkie współczynniki ai przez wartości xi, gdzie i= 1, 2, …, n, tzn. kolejne n mnożeń.

W sumie musimy wykonać 2n-1 mnożeń. Na końcu musimy jeszcze zsumować

Page 51: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

50

Paulina Julita Laskowska

Informatyka w rolnictwie, czyli rolnictwo precyzyjne 2017

poszczególne składniki wykonując n dodawań. Reasumując, do wyznaczenia n-tej wartości

wielomianu a0+ a1x+ …+ anxn należy wykonać w sumie 2n-1 mnożeń i n dodawań.

Czy istnieje inny, łatwiejszy sposób? Jak wiemy, mnożenie liczb sprawia więcej

problemów niż ich dodawanie. Dlatego lepszym sposobem byłoby zniwelowanie jak

największej ilości mnożeń. Do wzoru ogólnego wielomianu zastosować można schemat

Hornera. Otrzymana w ten sposób postać wielomianu jest następująca: a0+ x(a1+x(a2+

x(…+x(an-1+xan)…)) . I co dalej? W tym przypadku należy wykonywać obliczenia

następująco: na początku trzeba obliczyć iloczyn wartości x i an, następnie dodać an-1 i

otrzymany wynik przemnożyć przez x itd. W rezultacie do obliczenia n-tej wartości

wielomianu należy wykonać n mnożeń i n dodawań, czyli o n-1 mnożeń mniej, niż w

sposobie pierwszym.

Znany jest jeszcze jeden sposób, pozwalający na dodatkową redukcję liczby

mnożeń. Dla danego wielomianu W(x)= a0+ a1x+ …+ anxn wyznaczmy wielomian

W(x+1). Łatwo zauważyć, że zarówno stopień wielomianu W(x) i wielomianu W(x+1)

wynosi n, dodatkowo współczynniki przy najwyższej potędze (przy xn) dla obu

wielomianów wynoszą an. Obliczmy teraz różnicę W(x+1)- W(x) i oznaczmy ją przez

Δ(W(x)). Po wykonaniu powyższego odejmowania okazuje się, że stopień wielomianu

Δ(W(x)) wynosi już nie n, a n-1 (nastąpiła redukcja wyrazu anxn). Przykładowo dla W(x)=

4x4 + x3 – 6x2 +9 wielomian W(x+1)= 4x4 +17x3 +21x2 + 7x +8. Wielomian Δ(W(x))

obliczony w powyżej podany sposób ma postać Δ(W(x))= 16x3 + 27x2 +7x -1. Stopień

wielomianu zmniejszył się do 3 (4-1). Z wielomianem tym możemy postąpić podobnie jak

z wielomianem W(x). W rezultacie otrzymamy Δ(Δ(W(x))) , oznaczmy go jako Δ2(W(x),

którego stopień będzie równy 2. Możemy wykonać jeszcze dwie powyższe iteracje

otrzymując:

Δ0(W(x))=W(x)= 4x^4 + x^3 –6x^2+9

Δ(W(x))= 16x3 + 27x2 + 7x –1

Δ2(W(x))= 48x2 + 102x + 50

Δ3(W(x))= 96x + 150

Δ4(W(x))= 96

Łatwo zauważyć, że Δk(W(x)), gdzie k= 5,6, … będą równe 0. Wiemy, że Δ(W(x))=

W(x+1)- W(x) więc W(x+1)= W(x)+ Δ(W(x)). Podstawiając t= x+1 mamy W(t)= W(t-1)+

Δ(W(t-1)). Podobnie Δ(W(t-1))= W(t-2)+Δ(W(t-2))). Wykonując dalej obliczenia w

rezultacie otrzymujemy, że wartość W(x) jest to suma W(x-1) i wszystkich k-tych potęg Δ

dla argumentów x-k, gdzie k należy do {1,2,…,k}.

Powstaje pytanie, czy algorytm działa tylko dla naturalnych argumentów x. Okazuje się,

że nie. Powyższy sposób możemy stosować dla dowolnego, wymiernego α>0. Własności

Δ zostaną zachowane.

Podany powyżej sposób pozwala nam, poza obliczeniem początkowych wartości

wielomianu używając mnożenia i dodawania, obliczać jego kolejne wartości tylko i

wyłącznie za pomocą kilku dodawań. Metoda ta została nazwana metodą różnicową.

Charles Babbage- sylwetka twórcy

Charles Babbage był angielskim matematykiem i astronomem żyjącym w XIXw.

(1791-1871). Zajmował się konstruowaniem maszyn liczących i tworzeniem tablic

matematycznych m.in.: logarytmicznych. W wieku 26lat ukończył kolegium Peterhouse na

Uniwersytecie w Cambridge, po czym zaczął wykładać tam nauki ścisłe. Był wielkim

fascynatem liczb i ich gromadzenia w różnych tablicach, przez co przeszło 35 lat swego

Page 52: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

51

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

życia spędził na projektowaniu maszyn liczących. Jego największymi osiągnięciami były

konstrukcje (choć niedokończone) maszyn: różnicowej i analitycznej.

Maszyna różnicowa

W czasach życia Babbage'a jedne z największych problemów ówczesnego świata

stanowiły bardzo skomplikowane obliczenia matematyczne. Trzeba było wykonywać je

ręcznie, co wymagało dużych nakładów czasu i pracy. Dokładne wyliczenia niezbędne

były w wielu dziedzinach m.in.: w mechanice, budownictwie i innych gałęziach przemysłu.

Błędne obliczenia mogły spowodować duże komplikacje i straty. Tablice matematyczne

należało więc stale poprawiać. Charles Babbage zaczął więc prowadzić badania nad

skonstruowaniem maszyny na silnik parowy, która sama mogłaby wyliczać te tablice. W

1822 roku przedstawił gotowy projekt maszyny, która przy pomocy wyżej opisanej metody

różnicowej byłaby zdolna do samodzielnego obliczania tablic logarytmicznch. Maszynę tą

nazwał różnicową

Charles Babbage ciągle poprawiał swój projekt, przez co budowa maszyny stale

odwlekała się w czasie. Po upływie 35lat konstruktor zaprzestał rozbudowywania maszyny

różnicowej, prawdopodobnie przez brak środków finansowych.

Po koniec XXw. (1990r.) za sprawą Londyńskiego Centrum Nauki powstała

pierwsza, w pełni sprawna, maszyna różnicowa bazująca na oryginalnych planach z XIXw.

Okazało się że urządzenie potrafi wyliczać wartości rzędu 31 miejsc po przecinku. Jednak

jest ona dużych rozmiarów: 3x1.8m, waga powyżej 3t. Naukowcy skonstruowali maszynę,

która była napędzana jedynie na korbę, nie na silnik parowy.

Maszyna analityczna

Maszyna analityczna była ambitniejszym projektem niż maszyna róznicowa. O ile

w planach maszyny różnicowej też było napędzanie silnikiem parowym, o tyle teraz projekt

ten miał być zrealizowany. Wg współczesnych maszyna ta jest uznawana za jeden z

pierwszych komputerów na świecie. Inspiracją Josepha Jacquarda urządzenie miało

przekazywać wszystko za pomocą kart perforowanych. Wyniki obliczeń miały być

udostępniane, za pomocą drukarki, na papierze.

Maszyna analityczna nigdy nie została zrealizowana, choć była projektem życia

Charles’a Babbage’a. Dlaczego? Dlatego, że nie posiadał środków finansowych na

dokończenie projektu. Był to projekt, który dokończony, mógłby przyspieszyć rozwój

informatyki. Obecnie realizowane są plany do stworzenia kompletnej maszyny

analitycznej. Dotychczas nie znane są jej możliwości, wiemy jedynie, że być może

zmieniłaby ona historię informatyki.

Bibliografia

1. Charles Babbage On the Economy of Machinery and Manufactures (1832)

(rozdz.190, s.158);

2. Lance Day; Ian McNeil: Biographical Dictionary of the History of Technology.

Londyn: Routledge, 1998, s. 33;

Page 53: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

52

Paulina Julita Laskowska

Informatyka w rolnictwie, czyli rolnictwo precyzyjne 2017

Differential and analytical machines as prototypes of modern computers.

Summary: In the article the history of the origins of the projects and the main rules of two

mathematical machines: the differential machine and the analytical one, which are the mechanical

counterparts of modern computers is presented.Tthe biographical feature of their creator Charles

Babbage is also disscused. He was the first person who used mathematical applications in computer

science. The operation areas of both mathematical machines and their capabilitie are described.

The contemporary plans for the construction of an analytical machine based on Babbage's

guidelines is a essential part of this article.

Key words: mathematics, informatics, difference engine, analytical engine, Charles Babbage

Page 54: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

53

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

Jakub Malinowski

Koło Naukowe Programistów

Uniwersytet Przyrodniczo Humanistyczny w Siedlcach

Internet rzeczy – szanse i zagrożenia

Streszczenie: Treść publikacji dotyczy bardzo szerokiej dziedziny, jaką jest Internet Rzeczy (IOT).

Internet of Things pozwala na łączenie ze są wielu urządzeń w sieć, dzięki której urządzenia mogą

ze sobą współpracować. Tekst publikacji przedstawia szanse oraz zagrożenia wynikające z

wprowadzenia oraz rozwoju Internetu Rzeczy, wyszczególniono również sektory zastosowania oraz

przedstawiono szereg przykładowych urządzeń wraz z możliwością ich użycia.

Słowa kluczowe: Internet rzeczy, czujniki, inteligentne urządzenia, sieć urządzeń, inteligentny dom

Wstęp

Obecnie Internet opanował każdy zakątek cywilizowanego świata. Do pewnego

momentu Internet był znany jako sieć łącząca ze sobą komputery, jednak z biegiem czasu

do Internetu zaczęto podłączać inne urządzenia, które były zdolne korzystać z sieci. Termin

Internet rzeczy został pierwszy raz użyty przez Kevina Ashtona w 1999r. O Internecie

rzeczy możemy mówić jak o koncepcji, która spaja ze sobą przedmioty mogące gromadzić,

przetwarzać bądź przesyłać dane za pośrednictwem sieci. Internet rzeczy jest zagadnieniem

na skalę światową, z raportu firmy Ericsson wynika, że w 2021 roku do sieci będzie

podłączonych ponad 16 mld urządzeń (Kwiatkowska, 2014).

Urządzenia Internetu rzeczy

Do Internetu rzeczy może być podłączonych mnóstwo zróżnicowanych urządzeń.

Zaczynając od najprostszych czujników, których zadaniem jest zbieranie danych np. o

temperaturze, a kończąc na serwerach, które przechowują oraz przetwarzają ogromne ilości

danych zgromadzonych przez inne urządzenia Internetu rzeczy. Do przykładowych

urządzeń należą m.in:

• czujniki (temperatury, wilgotności, gazów łatwopalnych, dymu)

• urządzenia użytku domowego (żarówki, pralki, lodówki, zamki, ubrania, piece)

• urządzenia służby zdrowia

Powyższa lista przedstawia zaledwie kilka typów urządzeń, które mogą być stosowane w

Internecie rzeczy. Jedynym warunkiem urządzenia, które może być identyfikowane jako

urządzenie IoT jest możliwość podłączenia do sieci oraz dostarczanie bądź przetwarzanie

danych (Greengard, 2015).

Zastosowanie Internetu rzeczy

Zastosowanie Internetu rzeczy ogranicza wyobraźnia oraz dostęp do energii

elektrycznej, do której urządzenia mogłyby być podłączone. Najpopularniejszym

zastosowaniem Internetu rzeczy wydają się być inteligentne domy, które pozwalają

mieszkańcom na wygodniejsze życie oraz znaczną oszczędność czasu. Internet rzeczy w

Page 55: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

54

Paulina Julita Laskowska

Informatyka w rolnictwie, czyli rolnictwo precyzyjne 2017

domach znalazł swoje zastosowanie w dziedzinach takich jak ogrzewanie, oświetlenie czy

podlewanie ogrodu. Wyżej wymienione sektory są zajęciami życia codziennego, którym

poświęca się najwięcej czasu. Internet rzeczy sprawia, że ludzie mogą oszczędzić ten czas,

dzięki sieci zamontowanych czujników oraz urządzeniom, które sterują ogrzewaniem w

ten sposób aby w domu cały czas utrzymywała się stała temperatura. Zastosowanie

Internetu rzeczy pozwala także m.in. na utrzymanie roślin w dobrej kondycji, oraz generuje

oszczędności w postaci mniejszego zużycia energii poprzez inteligentne zarządzanie

oświetleniem.

Kolejnym znacznie szerszym sektorem zastosowania Internetu rzeczy są inteligentne

miasta, które pozwalają na bezpieczniejsze życie mieszkańców, oraz potrafią generować

oszczędności. Jednym z wielu systemów inteligentnego miasta jest system wykrywania

wypadków drogowych, gdzie kamery po wykryciu wypadku wysyłają odpowiednią

informację do urządzeń zajmujących się tym sektorem. Następnie po przetworzeniu danych

otrzymanych z kamery urządzenie informuje o wypadku odpowiednie organy. Dzieje się

to w ciągu kilku sekund, co może uratować ludzkie życie (Kwiatkowska, 2014).

Internet rzeczy znalazł swoje zastosowanie w wielu innych sektorach, m.in.:

• inteligenta sieć zdrowia

• inteligentne przedsiębiorstwa

• inteligentne systemy energetyczne

• monitorowanie środowiska zagrożeń

• inteligentny transport

Jednak na powyższych zastosowaniach nie kończą się możliwości IoT, ponieważ

ograniczeniem zastosowania jest wyobraźnia oraz obecny rozwój technologiczny.

Szanse i zagrożenia

Internet rzeczy niesie za sobą wiele udogodnień, pozwala na oszczędność czasu oraz

na ogromną wygodę. IoT wyręcza ludzi w wielu dziedzinach życia oraz pozwala na

zautomatyzowanie niektórych stanowisk pracy, przez co przedsiębiorstwa mają bardzo

duże szanse rozwoju.

Dzięki zastosowaniu IoT w logistyce oraz produkcji bez wątpienia zwiększy się

wydajność pracowników, która jest jednym z głównych filarów rozwoju gospodarki na

skalę globalną.

Stały rozwój Internetu rzeczy kreuje nowy świat, otwiera drzwi coraz nowszym

technologiom, pozwala ludziom zapomnieć o wielu czynnościach, sprawia, że

przedsiębiorcy mają wydajniejszych pracowników, ale wszystko to wiąże się z ogromnym

ryzykiem społecznym oraz technicznym. Ryzyko techniczne wynika z ilości w jakiej dane

są przetwarzanie i przechowywane. Według IBM wszystkie urządzenia na świecie są

zdolne wyprodukować 2,5 tryliona bajtów dziennie, jest to tak ogromna liczba danych, że

nawet nie potrafimy sobie jej wyobrazić. Wraz z rozwojem Internetu rzeczy musi być

rozwijana dziedzina jaką jest Big Data, ponieważ z biegiem czasu danych będzie coraz

więcej. Potrzebne jest bardziej efektywne przetwarzanie, tak aby działo się to z jak

najmniejszym opóźnieniem (Kwiatkowska, 2014).

Ideą IoT jest zbieranie oraz analizowanie danych, co oznacza, że przechowywane

są nawet wrażliwe informacje. W przypadku naruszenia bezpieczeństwa danych krążących

w strukturze IoT można spotkać się z następującymi zagrożeniami:

• ujawnienie informacji o lokalizacji

• dostęp do urządzeń IoT, np. samochodu

• przejęcie kontroli nad urządzeniami, systemami

Page 56: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

55

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

• kradzież osobistych danych, w tym danych identyfikacyjnych, co może

doprowadzić do utraty finansów

Nieprawidłowo zaprojektowany bądź zaimplementowany system może doprowadzić do

tego, że przez urządzenie analizujące dane zostanie podjęta błędna decyzja, która

spowoduje wystąpienie bezpośredniego zagrożenia zdrowia, a nawet życia (Greengard,

2015).

Internet rzeczy sam w sobie nie jest niebezpieczny. Niebezpieczeństwo wiąże się z

użytkownikami. IoT powstał w oparciu o istniejący do tej pory Internet oraz technologie,

dlatego wszystkie problemy niebezpieczeństwa oraz cyberprzestępczości dotyczą także

IoT. Użytkownicy decydują o tym w jakim stopniu chcą chronić swoją sieć, mogą

podejmować wiele działań powodujących zwiększenie bezpieczeństwa, m.in.:

• należy zabezpieczać dostęp do bezprzewodowych sieci, w których znajdują się

urządzenia

• w przypadku ważnych usług, należy blokować trudnymi do złamania hasłami

• we własnym zakresie decydować jakie dane będą zbierane, przetwarzane oraz

wysyłane

Podsumowanie

Po przedstawieniu definicji, zastosowań, szans oraz zagrożeń Internetu rzeczy

można mówić o jednym istotnym wniosku. Bez różnicy jakie niesie za sobą zagrożenia,

jest to rzecz dla inteligentnych ludzi. Dla osób zaznajomionych z technologią oraz

świadomych zagrożeń, Internet rzeczy może być skarbnicą korzyści. Jednak dla osób,

których nie interesuje technologia, a tylko efekt jej działania, IoT może przysporzyć więcej

szkód niż zalet.

Bibliografia

1. Greengard S., Internet of Things, MIT University Press Group Ltd, 2015

2. Kwiatkowska E. M., Rozwój Internetu rzeczy – szanse i zagrożenia, [w:]

„Internetowy Kwartalnik Antymonopolowy i Regulacyjny”, 2014, nr 8(3),

s. 60-70

Internet of things – chances and dangers

Summary: The content of the publication concerns a very broad subject which is the Internet of

Things (IoT). Internet of Things allows you to connect multiple devices tohether in a network, by

which they can work together. The text of the publication presents chances and threats of resulting

from introduction and development the internet of things, also listed fields of application and listed

sample devices and theirs capabilities.

Key words: Internet of things, sensors, smart devices, network devices, smart home

Page 57: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

56

Martyna Sieczkiewicz

Magiczna torebka Hermiony, czyli algorytmy kompresji danych i złożoność

Kołmogorowa

2017

Martyna Sieczkiewicz

Koło Naukowe Studentów Matematyki GRAF

Uniwersytet Przyrodniczo - Humanistyczny w Siedlcach

Magiczna torebka Hermiony,

czyli algorytmy kompresji danych i złożoność Kołmogorowa

Streszczenie: Każdy, kto kiedykolwiek czytał bądź oglądał "Harry'ego Pottera i insygnia śmierci"

spotkał się ze sceną, gdzie Hermiona Granger, używając specjalnego zaklęcia zmniejszała

przedmioty tak, by zmieścić je do torebki i nie stracić ich wartości po ponownym ich zwiększeniu.

Podobnie jest w informatyce, gdzie spotykamy się z problemem kompresji danych (stratnej bądź

bezstratnej). Używając „zaklęcia”, czyli w tym przypadku algorytmów matematycznych, staramy się

możliwie jak najowocniej wykorzystać możliwości komputerów w przechowywaniu informacji.

Przedstawię zagadnienie kompresji danych w oparciu o takie właśnie matematyczne "zaklęcia".

Następnie omówię złożoność Kołmogorowa - długość najkrótszego programu, który generuje dany

łańcuch (string), który jest tekstowym typem danych służącym do przechowywania ciągu danych.

Słowa kluczowe: algorytmy, kompresja, matematyka, dane, dźwięk, obraz

Wstęp

Problem kompresji danych jest jednym z ważniejszych problemów przed jakimi stoi

dziś informatyka. Jednak dzięki algorytmom matematycznym, jest możliwie jak

najowocniejsze wykorzystanie możliwości komputerów w przechowywaniu informacji.

Kompresja danych

Kompresja danych (ang. data compression) polega na zmianie sposobu

zapisu informacji tak, aby zmniejszyć objętość zbioru całej informacji w stanie

pierwotnym. Chodzi o wyrażenie tego samego zestawu informacji za pomocą mniejszej

liczby bitów. Aby przywrócić dany skompresowany obiekt (odwrócić działanie kompresji)

należy go dekompresować.

Kompresja dzieli się na:

• bezstratną – w której z postaci skompresowanej można odzyskać identyczną postać

pierwotną

• oraz stratną – w której takie odzyskanie jest niemożliwe, jednak główne właściwości

zostają zachowane.

Schemat nr 1: Podział kompresji

Źródło: Opracowanie własne

STRATNA KOMPRESJA

BEZSTRATNA

Page 58: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

57

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

Jeśli kompresowany jest obrazek, nie widać znaczących różnic w stosunku do

oryginału, ale może się już nie nadawać do dalszej przeróbki czy do wydruku, gdyż wtedy

wymaga się zachowania innych właściwości.

Kompresja bezstratna

Kompresja bezstratna (ang. lossless compression) – najogólniejszy termin dla

metod kompresji informacji do postaci zawierającej zmniejszoną liczbę bitów co do

przechowywania, ale tylko pod warunkiem, że dana metoda gwarantuje możliwość

przywrócenia informacji z postaci skompresowanej do identycznej postaci startowej.

Schemat nr 2:

Źródło: Opracowanie własne

Algorytmy kompresji bezstratnej dobrze kompresują dane "typowe" ze znacznym

nadmiarem informacji. Natomiast istnieją pewne rodzaje danych, które są bardzo trudne

lub niemożliwe do skompresowania, jak np:

• strumienie liczb losowych (niemożliwe do skompresowania),

• strumienie liczb pseudolosowych (trudne do skompresowania),

• dane skompresowane za pomocą tego samego lub innego algorytmu (trudne).

Kompresja stratna

Kompresja stratna – to metoda zmniejszania liczby potrzebnych bitów do wyrażenia

jakiejś informacji, która to, w odróżnieniu od kompresji bezstratnej, nie daje gwarancji, że

odtworzona informacja będzie identyczna z pierwowzorem.

Możliwa jest ze względu na sposób działania ludzkich zmysłów, które wskazują na

wyższą wartość pewnych danych nad innymi. Algorytmy kompresji stratnej zazwyczaj

posługują się modelami odrzucającymi mniej istotne dane np. o dźwięku, pozostawiając

dane o wyższej wartości dla rozpoznawania informacji, np. obraz.

Rozważmy to na przykładzie (autorskim): istnieje film, który zabiera bardzo dużo

miejsca na dysku, nie oglądamy go zbyt często, natomiast ma dialogi w języku, którego nie

znamy, podczas gdy napisy są po angielsku (czy polsku – w języku, który znamy). Aby nie

pobierał tak dużej ilości miejsca możemy kompresując go w sposób stratny usunąć z niego

ścieżkę dźwiękową. Wtedy będziemy oglądać film bez dialogów (których i tak nie

rozumiemy, gdy są wypowiadane) ale za to ilość pobieranego miejsca zmaleje.

UWAGA: Tracimy wtedy również soundtrack (ścieżkę dźwiękową), czyli m.in.

piosenki z filmu.

Page 59: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

58

Martyna Sieczkiewicz

Magiczna torebka Hermiony, czyli algorytmy kompresji danych i złożoność

Kołmogorowa

2017

Prostym przykładem kompresji stratnej jest zachowanie tylko co drugiego piksela,

lub odrzucenie 2 najmniej istotnych bitów. Takie metody jednak nie dają zazwyczaj tak

zadowalających rezultatów, jak oparte na modelach psychozmysłowych.

Rysunki 1 i 2

Źródło: http://www.kursgrafiki.pl/wp-content/uploads/2011/03/kompresja.jpg

Tabela 1: Najpopularniejsze algorytmy kompresji stratnej: Obraz

JPEG - dający relatywnie słabe rezultaty.

JPEG2000 - dający znacznie lepsze wyniki

Wideo

DivX/XviD - może skompresować zawartość DVD na CD, bez różnic.

Real Video - wykorzystywany jest przy transmisjach na żywo.

Dźwięk

MP3 - model psychoakustyczny, oparty na MDCT (niżej)

Real Audio - jest stosowany głównie do transmisji na żywo.

Źródła: strony internetowe dot. grafiki (www.kursgrafiki.pl), porównanie autorskie

Źródło: Wikipedia, wolna encyklopedia

Page 60: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

59

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

Falki (wavelet)

Falki - rodziny funkcji zbioru liczb rzeczywistych w zbiór liczb rzeczywistych, z

których każda jest wyprowadzona z funkcji-matki (funkcji macierzystej) za pomocą

przesunięcia i skalowania: . Funkcje te dążą do zera (lub

wynoszą zero poza pewnym przedziałem) dla argumentu dążącego do nieskończoności, ich

suma umożliwia pokazanie z dowolną dokładnością dowolnej funkcji ciągłej całkowalnej

z kwadratem.

Falki są używane w analizie i przetwarzaniu sygnałów cyfrowych, w kompresji

obrazu i dźwięku oraz w wielu innych dziedzinach.

Rysunek 3. Falki

Źródło: https://upload.wikimedia.org/wikipedia/commons/thumb/0/0b/Daubechies12-

functions.png/240px-Daubechies12-functions.png

Algorytm dyskretnej transformaty falkowej dla JPEG2000

Źródło: http://slideplayer.pl/slide/414788/

Złożoność Kołmogorowa

Złożoność Kołmogorowa to długość jak najkrótszego programu, który generuje

dany łańcuch (string - tekstowy typ danych służący do zachowania ciągu danych).

Złożoność Kołmogorowa jest różna dla różnych komputerów (maszyn

Turinga lub izomorficznych z nimi).

Page 61: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

60

Martyna Sieczkiewicz

Magiczna torebka Hermiony, czyli algorytmy kompresji danych i złożoność

Kołmogorowa

2017

Rozwinięcie dziesiętne liczby π, choć nieskończone, ma niską złożoność

Kołmogorowa -istnieje prosty program, który generuje dowolną liczbę jej cyfr.

Bibliografia

1. Jacek Jarnicki, Kompresja obrazów statycznych - algorytm JPEG

– artykuł na stronie internetowej

(www.zsk.ict.pwr.wroc.pl/zsk/repository/dydaktyka/ioc/in_obr_wyk_2.pdf)

2. https://www.kul.pl/files/57/encyklopedia/szydlowski_tamor_zlozonosc.pdf

3. Przemysław Wojtaszczyk: Teoria falek, PWN, Warszawa 2000,

ISBN 83-01-13322-8

Hermione's magic handbag - compression algorithms and Kolmogorov's complexity

Summary: Anyone who has ever read or watched "Harry Potter and the Deathly Hallows" had

seen the scene where Hermione Granger, using a special spell, reduces items to fit them in her purse

and, however, she hadn’t lost their value when she re-increased them. Similarly in computer science,

where we encounter data compression problems (lossly or lossless). Using „spells”, in this case,

mathematical algorithms, we use as much as possible computer ability to store information. I will

present the problem of data compression based on such mathematical "spells". Then I will discuss

Kolmogorov's complexity - the length of the shortest program that generates a string, which is a

textual data type for storing data.

Key words: algorithms, compression, math, data, sound, image

Page 62: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

61

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

Anna Zabłocka

Koło Naukowe Studentów Matematyki GRAF

Uniwersytet Przyrodniczo – Humanistyczny w Siedlcach

Matematyczna edukacja wczesnoszkolna i możliwości jej rozwoju

przy użyciu narzędzi informatycznych

Streszczenie: Nowe technologie pozwalają na innowacyjne nauczanie matematyki, rozwijają

wyobraźnię u dzieci oraz dają nowe możliwości uczniom, którzy mają problemy z wyobraźnią

przestrzenną. W pracy przedstawię wskazówki dla nauczyciela, którymi może się kierować, aby

dzieci jak najwięcej zapamiętały z lekcji. Ważną rolą w edukacji dzieci jest również uczulenie

dziecka na zagrożenia płynące z korzystania z nowych możliwości nauki, o czym też wspomnę w

swoim referacie.

Słowa kluczowe: informatyka, tablice interaktywne, matematyka, technologia informacyjna

Wstęp

W dzisiejszych czasach dzieci dużo częściej korzystają z udogodnień

informatycznych niż to było kilka lat temu. W pewnym stopniu wynika to z rozwoju

technologii, ale również podejścia rodziców do wychowania dziecka. W swojej pracy

przedstawię korzyści płynące z postępu technologicznego z punktu widzenia nauczania

matematyki na etapie wczesnoszkolnym.

Nauczanie wczesnoszkolne a technologia informacyjna

W polskim systemie edukacji poprzez etap wczesnoszkolny rozumiemy początek

okresu szkoły podstawowej, tj. klasy 1-3, czyli dzieci w wieku 6 lub 7 lat – w zależności

od decyzji rodzica, do odpowiednio 9 lub 10 lat. W tym okresie zajęcia prowadzi jeden

nauczyciel, który pełni role wychowawcy. Oceny wystawiane są opisowo, a nauka

nakierowana jest na maksymalne zrozumienie materiału. Tutaj z pomocą przychodzi

technologia.

Wiele dzieci nie lubi matematyki, bo jej po prostu nie rozumie, nie umie sobie

wyobrazić niektórych zagadnień, etc. Nauczyciel w takiej sytuacji ma kilka możliwości.

Może na przykład posłużyć się tablicą interaktywną, która niewątpliwie uatrakcyjni

lekcję w oczach uczniów, ale też skupi ich uwagę na rozwiązywanym zadaniu.

Rysunek 1. Tablica interaktywna.

Źródło: www.tanietablice.pl/730-1792-thickbox/tablica-interaktywna-interactive-eboard-87-ir.jpg

Page 63: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

62

Anna Zabłocka

Matematyczna edukacja wczesnoszkolna i możliwości jej rozwoju przy użyciu narzędzi

informatycznych

2017

Zaletą korzystania z tablic interaktywnych jest zwiększenie tempa i skuteczności

uczenia się matematyki. Według brytyjskich badań uczniowie w wieku 5-7 lat przyswoili

materiał przeznaczony na dwa lata o 4,75 miesiąca szybciej, niż ich koledzy, którzy nie

korzystali z tablic. Natomiast uczniowie w wieku 7-11 lat, mający oceny średnie lub

wyższe, uczący się z wykorzystaniem nowoczesnych technologii skrócili przewidziany w

programie nauczania czas przyswojenia wiedzy o 3,5 miesiąca, a uczniowie z oceną

niższą niż średnia o 4,3 miesiąca. Po zakończeniu badań okazało się, że uczniowie lepiej

radzili sobie z rozwiązywaniem skomplikowanych i trudnych zadań. Otrzymane wyniki

badań świadczą o tym, że zainteresowanie tematem omawianym na lekcjach było

większe, niż podczas wykorzystywania tradycyjnych metod nauczania.

Inną metodą zachęcenia dzieci do nauki jest korzystanie z rzutnika oraz internetu

na lekcjach. Chodzi tutaj o pokazywanie uczniom, że internet może służyć celom

naukowym, a nie jedynie rozrywce. Nauczyciel może przy okazji zadań z zakresu

geometrii pokazywać uczniom animację różnych figur przestrzennych, gdyż wyobrażenie

sobie takie figury w przestrzeni może sprawiać problem kilkuletniemu uczniowi. W ten

sposób prowadzący lekcję nie tylko pobudza wyobraźnię uczniów, ale zachęca ich do

przejrzenia stron internetowych o tematyce matematycznej. Dzięki temu dziecko może

usystematyzować nabytą na lekcji wiedzę, a także ją poszerzyć.

Kolejną propozycją dla nauczyciela jest wykorzystanie programu graficznego.

Uczniowie dzięki temu mogą sami tworzyć różnorakie figury, na których na przykład

oparte jest zadanie matematyczne. Jednym z najbardziej znanych programów,

umożliwiających tworzenie własnych obiektów jest Paint. Dla kilkuletniego dziecka to

ogrom możliwości, biorąc pod uwagę również fakt, że jest to program zainstalowany na

każdym komputerze fabrycznie. Dzięki takiemu rozwiązaniu uczniowie jeszcze bardziej

angażują się w rozwiązanie zadania, jednocześnie rozwijając swoją wyobraźnię.

Mimo tak licznych metod uatrakcyjnienia zajęć trzeba zawsze pamiętać, że

program komputerowy nie może być zawieszony w próżni. Przed rozpoczęciem przygody

dziecka z technologią należy pamiętać, aby przekazać mu podstawową wiedzę na dany

temat. Należy mieć na uwagę konieczność łączenia wiadomości już znanych z nowymi.

Uczeń najpierw powinien przyswoić teorię tradycyjną metodą, dopiero później utrwalać

i poszerzać zdobytą wiedzę przy pomocy rozwijającej się technologii informacyjnej.

W przeciwnym wypadku skutek naszych działań może być przeciwny do zamierzonego.

Bezpieczeństwo a korzystanie z technologii informacyjnych

Wprowadzając dziecku nowe metody nauki trzeba mieć na uwadze, że nie każde

dziecko będzie wykorzystywało pomoce naukowe zgodnie z założeniami. Należy dzieci

uświadomić jakie zagrożenia płyną z niewłaściwego korzystania z na przykład internetu.

Dlatego każda ze stron, nauczyciel i uczeń, powinna mieć jasno kreślone cele i

szczere chęci ich realizacji.

Nauczyciel w zakresie własnego rozwoju powinien interesować się nowościami

technologicznymi i zapoznawać się z ich działaniem, aby na lekcjach nie tracić na to

czasu. Po przystąpieniu do pracy z programem powinien kłaść nacisk na kulturę pracy

z komputerem, co zaprocentuje u dziecka w przyszłości. Uczeń natomiast powinien

zapoznać się i zrozumieć podstawowe zasady bezpieczeństwa i higieny pracy oraz ich

przestrzegać.

Page 64: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

63

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

Bibliografia

1. Czyżewska Lidia, Technologie informacyjne w nauczaniu zintegrowanym,

http://www.psp5.pionki.pl, 2004

2. Borowiecka Agnieszka, Wykorzystanie nowoczesnych technologii na etapie

wczesnoszkolnym, http://www.oeiizk.waw.pl, 2009

3. Colin Rose, Efekty korzystania z tablic interaktywnych w praktyce szkolnej,

http://www.eduscience.pl, 2014

Elementary education of mathematics and the possibility of its development with the use of

information technology.

Summary: New technologies enable to teach mathematics in an innovative way, develop children

imagination and provide new opportunities for students, who have problems with spatial

imagination. My article gives some tips that teachers, may follow to children’ interest for lesson

and help them remember as much as it is possible. Important thing in children education is also

teaching child for the threat, that result from the use new technologies of teaching.

Key words: informatics, interactive whiteboard, mathematics, information technology

Page 65: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

64

Karolina Szostek

Tajemnica możliwości ludzkiego mózgu. Czego pragniesz dziś, o czym zapomnisz jutro? 2017

Karolina Szostek

Studenckie Koło Naukowe Logopedyczne

Uniwersytet Przyrodniczo-Humanistyczny w Siedlcach

Tajemnica możliwości ludzkiego mózgu.

Czego pragniesz dziś, o czym zapomnisz jutro?

Streszczenie: "W psychologii jest pewne prawo zakładające, że jeśli stworzysz w wyobraźni obraz

tego, kim chcesz się stać, i utrzymujesz go odpowiednio długo, wkrótce staniesz się taki, jak

pragniesz". Przedstawię krótką historię badań naukowych- w których istotną rolę odgrywa

stymulacja półkul mózgowych. Dowiemy się, jak poprzez dobranie odpowiedniej fali dźwiękowej,

jesteśmy w stanie wpłynąć na myślenie danej osoby. Eksperyment z "uszkodzonymi" słuchawkami

może uratować ludzkie życie. Dlaczego uratować? Dlatego, że wiele osób poddaje się na starcie,

często bardziej boimy się porażki niż sukcesu. Opowiem o tym jak zaprogramować się na sukces i

jak przetrwać porażkę, która na pierwszy rzut oka może być naszą klęska. Zamienimy tą porażkę w

szansę, która da nam tyle siły, że będziemy marzyć, by dostać więcej. Dowiemy się jak zwiększyć

wydajność naszego mózgu i jak naprawić jego braki. Jasne zdefiniowanie twoich ideałów we

wszystkich sferach życia jest bardzo ważne, ponieważ jest to pierwszy krok do podejmowania

lepszych decyzji w teraźniejszości, prowadzących do większych sukcesów i szczęścia w przyszłości.

Gdy poczujesz, że zmierzasz w stronę osiągnięcia cennego ideału, staniesz się szczęśliwszy i

pewniejszy siebie. Im większy zrobisz postęp, aby zrealizować swój jasno określony cel lub osiągnąć

idealne warunki, tym więcej będzie w tobie energii i entuzjazmu.

Kolejnym punktem będzie pokazanie, jak ważne jest łączenie różnych, czasem sprzecznych ze sobą

dziedzin nauki, aby stworzyć rzeczy nowe, jeszcze nie odkryte, które mogą zmienić ludzkość.

Zastanowimy się, po co neandertalczyk wyszedł z jaskini i dlaczego powiedział "idę", gdy inni

krzyczeli "zostań". Gdyby Ford przeprowadził badania rynku, to by ludzie chcieli szybsze konie-

czego można nauczyć się z tej historii? I czy warto się w ogóle uczyć? Dokąd zaprowadzi nas

dzisiejsza nauka? Czy powinniśmy bać się jutrzejszych zastosowań informatyki? Twój umysł jest

niezwykle potężnym narzędziem. Twój mózg kontroluje niemal wszystko co ci się przytrafia. Nie

istnieją żadne granice określające, kim możesz się stać, co robić i co mieć, z wyjątkiem tych, które

sam sobie wyznaczysz. Najważniejsze to zacząć już dziś i nigdy się nie poddawać!

Słowa kluczowe: logopedia, neurologopedia, technologie informacyjne

Wstęp

Kluczem do sukcesu jest skoncentrowanie

swojego umysłu

na tym, czego pragniemy, nie na tym

czego się boimy.

Brian Tracy

Przedstawię sposoby stymulacji półkul mózgowych. Dowiemy się w jaki sposób

działa nasz umysł i dlaczego nasza pamięć nie jest absolutna. Sprawdzimy również czym

nasz mózg różni się od mózgu ssaków i jak zastosować jego możliwości z pomocą

najnowszych technologii informatycznych.

Page 66: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

65

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

Możliwości ludzkiego mózgu

Mózg jest systemowy. Często wydaje nam się, że ta droga wiedzy do mózgu da

nam kiedyś taką możliwość, że będziemy w stanie podłączyć kogoś do skanera np. jakiegoś

nastolatka swojego domowego, z którym mamy kłopoty aby wiedzieć co on zrobi w

przyszłości, albo co myśli, co kombinuje

I nastolatków i całą resztę chcę uspokoić, do tego nigdy nie dojdzie. A tłumaczy nam to

podstawowe prawo cybernetyki

Mówi ono w ten sposób:

Jeżeli mamy jakiś system, który ma nam przetwarzać informacje o innym systemie, to musi

być od tego, który przetwarza informację trochę bardziej skomplikowany.

A ponieważ my mamy do dyspozycji tylko mózgi, no więc mózgu jako tako nie będziemy

w stanie nigdy w pełni poznać.

Gaarder w „Świecie Zofii” mówi o tym w nieco inny, bardziej prosty i przystępny sposób,

mianowicie:

„Gdybyśmy mieli mózgi na tyle proste, żebyśmy byli w stanie je poznać, to bylibyśmy na

tyle głupi, że nie dalibyśmy rady”

Daje nam to w efekcie spore poczucie bezpieczeństwa .

Ale jednak, MÓZG jest to fantastyczna struktura.

Struktura, która nie ma sobie równych na poziomie złożoności we wszechświecie (mimo,

iż struktura mózgu i wszechświata są do siebie uderzająco podobne).

Gdyby nam się udało policzyć wszystkie atomy, które budują wszystkie znane

człowiekowi ciała niebieskie, to byłaby to mniej więcej liczba określająca w przybliżeniu

ilość stanów, jakie może przyjmować mózg jednej dorosłej osoby. To jest pojemność

informacji, którą trudno sobie wyobrazić. Mało tego, pojemność, której nie jesteśmy w

stanie, w ciągu życia absolutnie wypełnić.

Można by tam ładować tysiące takich osiemdziesięcioro, czy dziewięćdziesięcioro letnich

odcinków czasu i ładować informację i ładować…

I tak nie bylibyśmy w stanie, go wypełnić.

Fantastyczne możliwości

Wielki mózg, który mamy daje nam przewagę nad innymi organizmami.

Ale ma jedną wadę- jest po prostu duży. Gdybyśmy znosili jaja, to nie byłoby problemu

Ale my się musimy urodzić

Problem polega na tym, że gdybyśmy chcieli się rodzić z mózgiem, w takim stopniu

dojrzałym, w jakim robią to inne ssaki- to każde urodzenie, kosztowałoby, życie naszej

mamy. Z czysto fizycznych powodów, nie bylibyśmy się w stanie urodzić. No i mamy

kłopot.

Ten kłopot rozwiązaliśmy- dowodem jest to, że tu siedzimy.

Co się stało?

Skoro, nie mogę się urodzić później, bo zabiję swoją mamę przy porodzie, to rodzę się

wcześniej Nawet sporo wcześniej, bo około 10-12 miesięcy. Tyle czasu

potrzebowalibyśmy, żeby nasze mózgi w łonach matek dojrzały do tego stanu, w których

rodzą się inne organizmy zwierzęce. Nasze mózgi dojrzewają na poziomie

neurobiologicznym do 20 roku życia.

Page 67: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

66

Karolina Szostek

Tajemnica możliwości ludzkiego mózgu. Czego pragniesz dziś, o czym zapomnisz jutro? 2017

Wpływ środowiska, na poznanie naszego gatunku, jest bezpośrednio większy, niż

w przypadku innych organizmów. To daje efekt w postaci świata- bo to nasze mózgi tworzą

świat.

Dzięki odkryciom neurobiologów w ciągu ostatnich kilku lat wiemy, że:

Prawdopodobnie my sobie te światy od samego początku tworzymy, a percept jest tylko

tym, co je uzgadnia z całą resztą

Na jedno włókno nerwowe (percepcyjne), które doprowadza informację do wnętrza,

przypada aż 10 milionów, którymi mózg te informacje przesyła pomiędzy swoimi

częściami. A to oznacza, że mózg mówi: do siebie, o sobie i dla siebie.

Co decyduje o tym, która informacja jest dla nas najważniejsza?

Najważniejszą informacją dla mózgu- jest informacja o innym mózgu

Prościej…

Najważniejszą informacją dla człowieka- jest informacja o innym człowieku (czyli plotka).

Jeśli macie Państwo do dyspozycji jakąś inną informację, albo informację o innym

człowieku, to wybierzecie plotkę. Plotka jest dla nas najbardziej interesującą informacją

świata.

Stymulacja lewej półkuli mózgu

Mózg można stymulować, czyli zwiększać wydajność jego pracy, w określonych

obszarach. Aby stymulować prace lewej półkuli mózgu, odpowiedzialnej za logiczne

myślenie, należy ćwiczyć sekwencje. Sekwencja jest ciągiem znaków (ruchów, dźwięków,

obrazów, symboli) stanowiącym uporządkowaną strukturę według określonej zasady

(formuły). Miejsce kolejnego znaku w sekwencji wynika z przyjętej arbitralnie reguły.

Każda sekwencja odtwarza pewien porządek. Podczas ćwiczeń z dziećmi z zaburzeniami

komunikacji językowej ważne jest naśladowanie ruchów, dźwięków i obrazów. Poziom

pamięci sekwencyjnej warunkuje skuteczność uczenia się języka w formie mówionej i

pisanej. Konieczne są ćwiczenia uwzględniające linearny odbiór bodźców słuchowych

oraz proprioceptywnych (propriocepcja - czucie ułożenia części własnego ciała).

Powtarzanie sekwencji sylab (czyli wypowiadanie wyrazów), potem sekwencji wyrazów

(wypowiadanie zdań) jest możliwe dopiero wówczas gdy dziecko nauczy się powtarzać

(naśladować) ruchy. Najłatwiej jest naśladować ruchy rąk, a dopiero potem ruchy

narządów artykulacyjnych.

Naśladowanie sekwencji uderzeń młoteczkiem jest dla dziecka zabawą, ale pełni

także ważną funkcję ćwiczenia umiejętności powtarzania dostrzeżonego ruchu. Mowa

znika z pola słyszenia tak szybko, że dla wielu dzieci powtórzenie sekwencji dźwięków

mowy jest zadaniem zbyt trudnym. Należy więc ćwiczenia rozpocząć od prymarnej

stymulacji wzrokowo-ruchowej. Dziecko nie ma wówczas świadomości, że się uczy, co

zwiększa efektywność ćwiczeń.1

Aby stymulować lewą półkulę mózgu, należy również mówić do prawego ucha. I tu

kłania się nam zastosowanie nowoczesnych technologii informatycznych. Za pomocą

dobrania odpowiedniej fali dźwiękowej możemy zaprogramować nasz umysł. Możemy

wyciszyć emocje i dać większe pole do działania- półkuli odpowiedzialnej a logiczne

myślenie. Jest to niewątpliwy przełom w badaniach neurologicznych.

W skrócie binaural beats (dudnienia synchroniczne) to rodzaj muzyki o niskiej

częstotliwości, który wykorzystując sposób działania słuchu ma wprowadzać słuchacza w

różne stany świadomości. Jest to możliwe dzięki temu, że natura wyposażyła nas w

1 Cieszyńska J., Stymulacja lewej półkuli mózgu- zapamiętywanie sekwencji ruchów, Wydawnictwo Metody

Krakowskiej, 2016

Page 68: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

67

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

mechanizm percepcji dźwięku, który jest oparty na uszach rozlokowanych po dwóch

stronach głowy. Każde ucho rejestruje tak naprawdę różne dźwięki, które za sprawą

narządów słuchu są przekształcane i łączone w jeden, przekazywany dalej do mózgu.

Gdy dodamy do tego fakt, że mózg w zależności od naszego stanu świadomości

wykazuje się aktywnością w różnym zakresie fal EEG (głęboki sen - 0,5 - 4 Hz (fale delta);

medytacja, hipnoza, sny 4 -8 Hz (fale theta); codzienna aktywność, praca umysłowa 13 -

30 Hz (fale beta) i tak dalej), rodzi się pytanie, czy gdy dostarczymy do każdego ucha

dźwięki o różnych częstotliwościach, na przykład 300 Hz i 307 Hz (różnica odpowiada

zakresowi fal theta), nie zmusimy naszego mózgu do działania w zakresie tych fal?

Zjawisko to opisał Heinrich Wilhelm Dove w XIX wieku, obecnie zaś neuropsycholodzy

wykazują, że możliwe jest to tylko u niektórych osób w określonych przypadkach,

natomiast u większości efekt taki nie występuje, a doznania opisywane przez

użytkowników mają podłoże czysto psychologiczne.2

Kiedy ciała drgają, powstaje fala dźwiękowa. W każdym źródle dźwięku coś drga,

wibruje, porusza się. Częstotliwość drgań określa wysokość wydawanego tonu, a zmiany

ciśnienia powietrza podczas przepływu fali dźwiękowej powodują drgania bębenków w

uszach, czego efektem jest to, że człowiek słyszy. Żyjemy w morzu wibracji: odbieramy i

wysyłamy dźwięki, a wszystkie części naszego ciała, każda nasza komórka, wydają

dźwięk.

Ponad 90% z otoczenia rejestrujemy podświadomie: słyszymy nie tylko uszami.

Bębenek ucha wzmacnia sygnał otoczenia 25 razy, ale - oprócz niego - mamy mózg:

wszelka ludzka percepcja jest multi-sensoryczna, tzn. przetwarzamy informacje

wielokanałowe. Słyszymy szkieletem, czaszką, całą powierzchnią ciała. Nawet w oczach

istnieją komórki rejestrujące zmiany ciśnienia powietrza. Nasz organ słuchu sam w sobie

też nie jest pasywny: człowiek może zlokalizować źródło dźwięku, zanim poruszy głową,

ucho bowiem nie tylko przyjmuje dźwięk, ale samo go wytwarza.

To, co słyszymy, to trójwymiarowa reprodukcja zewnętrznego dźwięku stworzona

przez mechanizm wewnętrzny naszego ucha.3

Neurony lustrzane

Wystarczy spojrzeć na zachowanie innych osób, aby w mózgu wywołać reakcję

lustrzaną.

Każdy rodzaj stanu człowieka, na którego patrzymy, wywoła w nas takie same stany.

Gdybyśmy teraz oglądali horror w kinie i ktoś by tam komuś obcinał palce- to co

byście Państwo robili? Łapalibyście się za palce. To dotyczy też innych spraw, np.

uśmiechu, ziewania, itp.

Zakończenie

Mózg jest niezwykle plastyczny, daje nam to olbrzymie możliwości w

podejmowaniu pracy na jego doskonaleniem. Pamiętajmy więc, że nie przekonamy innych

do niczego, do czego sami nie jesteśmy przekonani. Aby zapalać innych, samemu trzeba

płonąć.

2 www.komputer świat 3 www.cybertech.net.pl

Page 69: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

68

Karolina Szostek

Tajemnica możliwości ludzkiego mózgu. Czego pragniesz dziś, o czym zapomnisz jutro? 2017

A to oznacza, że nasze światy są tworzone przez nasze mózgi, ale nie tylko nasze,

ale też tych, którzy są obok nas. Nasz świat składa się z 5 ludzi, z którymi spędzamy

największą ilość czasu. Ważne jest więc świadome wybranie środowiska, w którym

żyjemy.

Bibliografia

1. Cieszyńska J., Stymulacja lewej półkuli mózgu- zapamiętywanie sekwencji

ruchów, Wydawnictwo Metody Krakowskiej, 2016

2. KomputerŚwiat.pl - Komputery, Testy Sprzętu, Newsy,

http://www.komputerswiat.pl/

3. °C Pogoda Chełm , www.cybertech.net.pl

Page 70: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

69

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

Patrycja Izdebska

Studenckie Koło Naukowe Bezpieczeństwa Narodowego

Uniwersytet Przyrodniczo-Humanistyczny w Siedlach

Zagrożenia bezpieczeństwa systemów informatycznych płynących

z nieznanych źródeł

Streszczenie: temat dotyczy rewolucji cyfrowej i zmian zachodzących w społeczeństwie, które

spowodowały, że usługi administracji elektronicznej zaczynają odgrywać coraz istotniejszą rolę,

zarówno dla państwa, jak i obywateli.Na cyberbezpieczeństwo składa się wiele pojęć, począwszy od

bezpieczeństwa informacji i bezpieczeństwa operacyjnego, po bezpieczeństwo systemów

komputerowych. Cyberataki pozwalają na przeprowadzenie zdalnych działań z wykorzystaniem

komputera podłączonego do sieci. Modułem operacyjnym cyberataków jest tworzenie wirusów

komputerowych oraz innego niebezpiecznego oprogramowania i przesyłanie ich docelowo w

miejsce ataku.

Słowa kluczowe: cyberbezpieczeństwo, kontrole, wirusy, ataki

Wstęp

Cyberataki są przeprowadzane przy wykorzystywaniu luk w zabezpieczeniach

oprogramowania. Istotną kwestią jest fakt, że prawdopodobieństwo wystąpienia tych luk

jest wysokie, podobnie jak wysoka jest ochrona cyberprzestępcy, posługującego się

anonimową infrastrukturą nieograniczoną barierami kontrolnymi cyberprzestrzeni.

Artykuł mówi o zagrożeniach cyberbezpieczeństwa. Celem jest analiza wyników

kontrolowanych jednostek przez Najwyższą Izbę Kontroli. Problem badawczy stanowi

oceną danych NIK-u. Obecnie internet stanowi jedno z głównych narzędzi pracy i dostępu

do informacji, zatem powinien w pełni służyć również załatwieniu spraw urzędowo-

administracyjnych.

Z drugiej strony wraz z upowszechnieniem edukacji społeczeństwo staje się coraz

bardziej wykształcone oraz domaga się poprawy jakości świadczonych usług publicznych

i zmiany tradycyjnych biurokratycznych struktur. Efektywne i sukcesywne wdrożenie

systemu obiegu informacji i dokumentów w jednostce, przeniesienie usług publicznych na

płaszczyznę elektroniczną powoduje więc zwiększenie zadowolenia obywateli z obsługi.

Zasadniczo korzystanie z wszelkiego rodzaju e-usług jest podyktowane kilkoma

uniwersalnymi motywami, takimi jak: oszczędność czasu, bogaty zakres możliwości i

różnorodna oferta usług, wygoda, przełamywanie barier geograficznych i czasowych,

oszczędności finansowe.W krajach Unii Europejskiej wprowadzenie serwisów obsługi

obywatela i podmiotów prawnych w sprawach administracji publicznej – np. opłat

podatkowych, celnych, niezbędnych informacji dla prowadzenia działalności gospodarczej

przyniosło oszczędności w administracji publicznej oraz wyraźną poprawę jakości obsługi

obywatela i podmiotów. Wybrane przykładowe e-usługi, które powinny być realizowane z

wykorzystaniem drogi elektronicznej skierowane do osób fizycznych (G2C) to np.: proces

zmiany zameldowania, obsługi paszportów i dowodów osobistych, dostępność informacji

z USC, składanie deklaracji PIT, obsługa systemu rejestracji działalności gospodarczej,

proces dostępu do danych przestrzennych, obsługa pośrednictwa pracy, rejestracji

bezrobotnych i poszukujących pracy,wgląd do ksiąg wieczystych, wydawanie pozwoleń

Page 71: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

70

Patrycja Izdebska

Zagrożenia bezpieczeństwa systemów informatycznych płynących z nieznanych źródeł 2017

budowlanych, rejestracja i obsługa w ochronie zdrowia. W przypadku G2B są to usługi,

np. rozliczania podatku dochodowego od osób prawnych, podatku VAT, obsługi zamówień

publicznych czy przekazywania danych do GUS i inne. Dodatkowo systemy

informatyczne administracji publicznej powinna cechować spójność umożliwiająca

obsługę procedur związanych z udziałem różnych urzędów. Istotnym elementem

wpływającym na pozytywną ocenę ze strony użytkowników jest także ograniczenie liczby

przypadków wielokrotnego wprowadzania tych samych danych. W efekcie uzyskać można

między innymi skrócenie czasu załatwiania poszczególnych spraw oraz możliwość

wykorzystania informacji „importowanych” z dostarczanych dokumentów

elektronicznych.19 Oprócz korzyści z usług informatycznych e-administracji płynie

również wiele zagrożeń, co zobrazuję na przykładzie bankowości elektronicznej.

Charakterystyka zagrożeń internetowych i bezpieczeństwa (skala, stan,

potencjalne skutki)

Na cyberbezpieczeństwo składa się wiele pojęć, począwszy od bezpieczeństwa

informacji i bezpieczeństwa operacyjnego, po bezpieczeństwo systemów komputerowych.

Cyberataki pozwalają na przeprowadzenie zdalnych działań z wykorzystaniem komputera

podłączonego do sieci. Modułem operacyjnym cyberataków jest tworzenie wirusów

komputerowych oraz innego niebezpiecznego oprogramowania i przesyłanie ich docelowo

w miejsce ataku, w celu niszczenia serwerów, modyfikacji systemów IT oraz fałszowania

stron www. Cyberataki są przeprowadzane przy wykorzystywaniu luk w zabezpieczeniach

oprogramowania. Istotną kwestią jest fakt, że prawdopodobieństwo wystąpienia tych luk

jest wysokie, podobnie jak wysoka jest ochrona cyberprzestępcy, posługującego się

anonimową infrastrukturą nieograniczoną barierami kontrolnymi cyberprzestrzeni.

Rządowe Centrum Reagowania na Incydenty Komputerowe (CERT) opublikowało

na swojej stronie internetowej katalog cyberzagrożeń.20 Według tego katalogu zagrożenia

dzielimy na celowe i niecelowe. Wśród zagrożeń celowych wyróżniamy: złośliwe

oprogramowanie (wirusy, robaki, konie trojańskie, botnety), przełamanie zabezpieczeń

(nieuprawnione logowanie, włamanie na konto, włamania siłowe), publikacje w sieci

internet (zniesławienie, naruszenie praw autorskich, dezinformacja), gromadzenie

informacji (skanowanie, podsłuch, szpiegostwo, socjotechnika), sabotaż komputerowy (

atak DDoS, DoS), czynnik ludzki (naruszenie procedur bezpieczeństwa oraz przepisów

prawnych).21 Największą przyczyną występowania cyberzagrożeń jest właśnie czynnik

ludzki nieznajomość/lekceważenie, łapownictwo, frustracja, modyfikacja systemów i

danych, błąd organizacyjny, techniczny, sabotaż, uszkodzenie lub kradzież elementów

przesyłowych.

W 2015 roku Zespół CERT.GOV.PL opublikował Raport o stanie bezpieczeństwa

cyberprzestrzeni RP.22 Łącznie zarejestrowano 16 123 zgłoszeń, z których aż 8 914 zostało

zakwalifikowanych, jako faktyczne incydenty. Wzrost wyżej wymienionych statystyk jest

odnotowywany corocznie np. w poprzednim roku odnotowano 12 017 zarejestrowanych

19 A. Dąbrowska, M. Janoś-Kresło, A. Wódkowski, E-usługi a społeczeństwo informacyjne, Wyd. Difin,

Warszawa 2009, s. 138. 20Katalog zagrożeń CERT.GOV.PL, Warszawa 2013

dostęp: http://www.cert.gov.pl/download/ (12.01.2017 r.) 21 Rządowy zespół reagowania na incydenty komputerowe, CERT.GOV.PL, Raport o bezpieczeństwie

cyberprzestrzeni RP, Warszawa 2016, dostęp: http://www.cert.gov.pl/cer/publikacje/raporty-o-stanie-

bezpi/,(12.01.2017 r.) 22 CERT.GOV.PL, Raport o bezpieczeństwie cyberprzestrzeni RP, Warszawa 2016,

dostęp: http://www.cert.gov.pl/cer/publikacje/raporty-o-stanie-bezpi/, (12.01.2017 r.)

Page 72: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

71

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

zgłoszeń, z czego 7 498 zostało zakwalifikowanych, jako faktyczne incydenty. W 2015

roku największą grupę stanowiły incydenty w kategorii klient botnet. Trend ten

obserwowany jest co roku.

Zespół CERT.GOV.PL zarejestrował: 4 284 incydentów dotyczących

oprogramowania złośliwego działającego na stacjach roboczych podłączonych do sieci

teleinformatycznych jednostek administracji publicznej. Najczęściej występującymi

typami klientów sieci botnet wykrytymi w infrastrukturze administracji państwowej w

2015 roku były botnety Conficker, Tinba oraz Downadup. Rok 2015 okazał się rekordowy

pod względem liczby odnotowanych incydentów komputerowych związanych z

wszelkiego rodzaju podatnościami (błędną konfiguracją) serwerów lub usług

funkcjonujących w instytucjach administracji państwowej i u operatorów infrastruktury

krytycznej. W ramach prowadzonych przez Zespół CERT.GOV.PL działań

zidentyfikowano łącznie 55 510 przepływów do zasobów teleinformatycznych instytucji

pozostających we właściwości Zespołu, co przełożyło się w sumie na 3 921 unikalnych

incydentów.23

Skutki cyberataków można podzielić na te, które dotyczą ludności oraz godzące

w gospodarkę i infrastrukturę. Do zagrożeń ludności należą: zagrożenie dla życia i zdrowia,

spowodowane zakłóceniami systemów energetycznych, utrata zaufania do instytucji

publicznych. Do skutków godzących w infrastrukturę należą: zakłócenia w pracy

infrastruktury przesyłowej oraz godzenie w telekomunikacje.

Ocena organów administracji -wskazanie zagrożeń internetowych

Najwyższa Izba Kontroli w roku 2014 przeprowadziła szczegółową kontrolę pt.

,,Realizacja przez podmioty państwowe zadań w zakresie ochrony cyberprzestrzeni

Rzeczypospolitej Polskiej”. Kontrola wykazała, że: administracja państwowa nie podjęła

dotychczas działań, mających na celu zapewnienie bezpieczeństwa teleinformatycznego

Polski. Stwierdzono, że działania podmiotów publicznych związanych z ochroną

cyberprzestrzeni były prowadzone w sposób rozproszony, chaotyczny i bez wizji

systemowej a także bez świadomości kierownictwa o niebezpieczeństwach związanych

z funkcjonowaniem cyberprzestrzeni. Kontrolą objęto 8 podmiotów państwowych:

Ministerstwo Administracji i Cyfryzacji, Agencję Bezpieczeństwa Wewnętrznego,

Ministerstwo Obrony Narodowej, Ministerstwo Spraw Wewnętrznych, Naukową

i Akademicką Sieć Komputerową, Urząd Komunikacji Elektronicznej, Rządowe Centrum

Bezpieczeństwa, Komendę Główną Policji.24

Kontrola ta wykazała nieprawidłowości, do, których należą: Systemy RCB nie były

spójne z działaniami w zakresie bezpieczeństwa teleinformatycznego oraz

w niewystarczającym stopniu uwzględniały nowe zagrożenia dla infrastruktury krytycznej

państwa. Komendant Główny Policji nie podjął rzetelnych działań

w celu wdrożenia nowego systemu reagowania na zagrożenia i incydenty w

cyberprzestrzeni, za to regularnie odbywały się szkolenia z zakresu cyberbezpieczeństwa

dla funkcjonariuszy policji. Kierownictwo NASK wprowadziło wiele dobrych praktyk

związanych

z zapobieganiem i reagowaniem na incydenty komputerowe jednak działania te były

ograniczone i miały charakter tymczasowy. W Ministerstwie Obrony Narodowej

23 Tamże, s. 8.( 12.01.2017) 24 Departament Porządku i Bezpieczeństwa Wewnętrznego, informacja o wynikach kontroli NIK pt.

Realizacja przez podmioty państwowe zadań w zakresie ochrony cyberprzestrzeni RP, Warszawa 2015, s.8.,

dostęp: https://www.nik.gov.pl/plik/id,8764,vp,10895.pdf,( 12.01.201 7r.)

Page 73: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

72

Patrycja Izdebska

Zagrożenia bezpieczeństwa systemów informatycznych płynących z nieznanych źródeł 2017

zidentyfikowano liczne problemy systemowe. Minister spraw wewnętrznych nie

realizował żadnych zadań związanych z budową krajowego systemu cyberprzestrzeni25.

Ocena Najwyższej Izby Kontroli wykazała, że konieczne jest podjęcie

natychmiastowego działania w celu zabezpieczenia państwowych systemów przed

cyberatakami. Błędy, jakie były w systemach umożliwiały cyberprzestępcom uzyskanie

nieautoryzowanego dostępu do baz danych, co mogłoby negatywnie wpłynąć na

funkcjonowanie państwowych instytucji.

Kolejną kontrolą przeprowadzoną przez NIK była Kontrol o nr ewidencyjnym -

P/10/045 z 2011 roku - wyniki kontroli funkcjonowania wybranych systemów

informatycznych Ministerstwa Skarbu Państwa. Najwyższa Izba Kontroli pozytywnie

ocenia funkcjonowanie skontrolowanych systemów informatycznych Ministerstwa Skarbu

Państwa, pomimo stwierdzonych nieprawidłowości. Najpoważniejszą z nich było

niedostosowanie modułu ZSI „Zbiorcza ewidencja mienia Skarbu Państwa” do

obowiązujących w tym zakresie przepisów. Jednocześnie NIK negatywnie ocenia stopień

realizacji przez Ministerstwo Skarbu Państwa ustawowych zadań z zakresu informatyzacji.

Zintegrowany System Informatyczny (ZSI), był przydatnym, wykorzystywanym

przez wszystkie komórki organizacyjne ministerstwa narzędziem informatycznym.

Wspomagał zarówno realizację ustawowych zadań Ministra Skarbu Państwa

(komercjalizacja i prywatyzacja przedsiębiorstw państwowych czy zarządzanie majątkiem

Skarbu Państwa), jak i funkcjonowanie Ministerstwa Skarbu Państwa. NIK ocenia, że jego

utworzenie było celowe.26 W ministerstwie używano także innych systemów

wspomagających realizację zadań, m.in. System Informatycznych Rejestrów do obsługi

wypłat rekompensat za mienie pozostawione poza granicami Rzeczypospolitej Polskiej

oraz System Decyzyjny, zapewniający m.in. obsługę poczty elektronicznej, rejestrację

obiegu dokumentów, etc.

Po kontroli NIK w ZSI występowały błędy - utrudniające korzystanie ze

zgromadzonych zasobów. Występowanie różnorodnych błędów jest częstym

mankamentem systemów informatycznych. NIK pozytywnie, pod względem celowości,

ocenia utworzenie w MS systemu weryfikacji i zgłaszania dostrzeżonych usterek,

aczkolwiek służby informatyczne Ministerstwa nie były w pełni skuteczne w ich usuwaniu.

Kontrola NIK zidentyfikowała trzy istotne błędy, które do czasu zakończenia kontroli nie

zostały wyeliminowane. Jeden z tych błędów był szczególnie poważny, gdyż powodował

niezamierzone kasowanie danych w systemie.

Wskazanie obszarów i sposobów doskonalenia przygotowania organów administracji

publicznej do reagowania na określone zagrożenie internetowe

Wyniki kontroli NIK w roku 2011 i w roku 2014 ukazują konieczność modernizacji

tych systemów, gdyż ich obecny stan nie pozwala na normalne funkcjonowanie państwa w

środowisku nowych cyberzagrożeń. Kontrole przeprowadzone przez NIK wymusiły na

administracji publicznej stosowanie nowych praktyk co przyczyniło się do powstania wielu

inicjatyw dotyczących bezpieczeństwa w cyberprzestrzeni. W 2015 roku powstała

Doktryna Cyberbezpieczeństwa Rzeczypospolitej Polskiej, również w 2015 roku CERT

wydał Raport

o bezpieczeństwie cyberprzestrzeni RP.27 Kontrole NIK ukazały mnóstwo

25 Tamże, s. 10-11.( 12.01.2017 r.) 26 ZSI, https://www.nik.gov.pl/( 12.01.2017 r.)

27 Ocena ryzyka na potrzeby zarządzania kryzysowego, Raport o zagrożeniach bezpieczeństwa narodowego,

Warszawa, 2013, s.52, dostęp: http://rcb.gov.pl/wp-content/uploads/ocenaryzyka.pdf, (12.01.2017r. )

Page 74: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

73

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

nieprawidłowości w funkcjonowaniu systemów różnych instytucji publicznych,

wynikających z nieprzestrzegania zaleceń zawartych w Krajowym Planie Zarządzania

Kryzysowego. Nowym dokumentem opracowanym przez NIK jest Strategia

Cyberbezpieczeństwa Rzeczypospolitej Polskiej na lata 2016-2020,28 która dotyczy

szkolenia pracowników administracji publicznej oraz organów ścigania. Kontrole

wykonywane przez Najwyższą Izbę Kontroli dały początek zmianom na lepsze m.in.

przyczyniły się do ulepszenia systemów informatycznych, w, których do tej pory

występowały błędy. Kontrole Najwyższej Izby Kontroli wykazały bardzo dużo

nieprawidłowości w systemie informatycznym Ministerstwa Skarbu Państwa, co

przyczyniło się do radykalnych zmian w systemach komputerowych instytucji

państwowych.

Podsumowanie

Obecny stan bezpieczeństwa informatycznego nie pozwala na bezpieczny stan

cyberprzestrzeni. W ocenie NIK, ustalenia podejmowanych kontroli wskazują na

konieczność bezzwłocznego podjęcia skoordynowanych, systemowych działań

prowadzących do wdrożenia realnych mechanizmów ochrony cyberprzestrzeni RP.

Kolejnymi warunkami efektywnej ochrony cyberprzestrzeni, jest wdrożenie mechanizmów

współpracy podmiotów prywatnych

i państwowych oraz zapewnienie odpowiedniego finansowania działań związanych

z bezpieczeństwem IT. Infekcja oprogramowaniem złośliwym następuje przede

wszystkim wskutek nieprzestrzegania podstawowych zasad bezpieczeństwa. Kluczowe

nadal są takie kwestie jak: prowadzenie przez instytucje szkoleń dla nowo przyjmowanych

pracowników oraz szkoleń prowadzonych cyklicznie dla całej kadry jak również

przeprowadzanie testów bezpieczeństwa nowych systemów. W ostatnim czasie

dużemu niebezpieczeństwu poddana jest bankowość elektroniczna. W prosty sposób

można założyć lokatę, a nawet nabyć jednostki uczestnictwa funduszy inwestycyjnych.

Obawy klientów korzystających z dobrodziejstw bankowości elektronicznej, trzeba jednak

pamiętać o podstwowych zasadach bezpieczeństwa. Wg. badań niemal 80% użytkowników

obawia się o ochronę swoich danych pieniędzy na kontach. Obawiają się przede wszystkim

włamań na konto, przejęcia loginu i hasła albo wirusów. Przed tymi zagrożeniami można

się jednak skutecznie chronić stosując się do podstawowych zasad bezpieczeństwa.

Należy korzystać z legalnego z legalnego oprogramowania i regularnie je

aktualizować, korzystając z takich usług najlepiej używać własnego komputera, w żadnym

przypadku nie wolno udostępniać osobom trzecim numeru klienta, haseł, karty kodów

jednorazowych. Nie wolno odpowiadać na maile, których autorzy proszą o ujawnienie czy

zweryfikowanie danych osobowych, informacji dotyczących numeru konta czy karty

kredytowej. Bank nigdy nie wysyła maili z prośbą o podanie takich danych o czym watro

pamiętać.

28 Ministerstwo Cyfryzacji, Strategia Cyberbezpieczeństwa Rzeczypospolitej Polskiej na lata 2016-2020,

Warszawa 2016, dostęp: https://mc.gov.pl/files/strategia_v_29_09_2016.pdf,( 15.01.2017 r. )

Page 75: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

74

Patrycja Izdebska

Zagrożenia bezpieczeństwa systemów informatycznych płynących z nieznanych źródeł 2017

Bibliografia

1. Katalog zagrożeń CERT.GOV.PL, Warszawa 2013

dostęp: http://www.cert.gov.pl/download/,

2. CERT.GOV.PL, Raport o bezpieczeństwie cyberprzestrzeni RP, Warszawa 2016,

dostęp: http://www.cert.gov.pl/cer/publikacje/raporty-o-stanie-bezpi/,

3. Dąbrowska. A, Janoś-Kresło . M, Wódkowski A., E-usługi a społeczeństwo

informacyjne, Wyd. Difin, Warszawa 2009, s. 138

4. Departament Porządku i Bezpieczeństwa Wewnętrznego, Informacja o wynikach

kontroli NIK pt. Realizacja przez podmioty państwowe zadań w zakresie ochrony

cyberprzestrzeni RP, Warszawa 2015, s.8.,

dostęp: https://www.nik.gov.pl/plik/id,8764,vp,10895.pdf,

5. Ministerstwo Cyfryzacji, Strategia Cyberbezpieczeństwa Rzeczypospolitej

Polskiej na lata 2016-2020, Warszawa 2016,

dostęp: https://mc.gov.pl/files/strategia_v_29_09_2016.pdf,

6. Funkcjonowanie wybranych systemów informatycznych Ministerstwa Skarbu

Państwa - Najwyższa Izba Kontroli,

dostęp: https://www.nik.gov.pl/kontrole/P/10/045/KGP/

7. Ocena ryzyka na potrzeby zarządzania kryzysowego, Raport o zagrożeniach

bezpieczeństwa narodowego, Warszawa, 2013, s.52,

dostęp: http://rcb.gov.pl/wp-content/uploads/ocenaryzyka.pdf

8. Rządowy zespół reagowania na incydenty komputerowe, CERT.GOV.PL, Raport

bezpieczeństwie cyberprzestrzeni RP, Warszawa 2016,

dostęp: http://www.cert.gov.pl/cer/publikacje/raporty-o-stanie-bezpi/,

Threats to the security of information systems from unknown sources

Abstract:. Cyber security consists of a number of concepts, from information security and

operational security to the security of computer systems. Cyber attacks allows you to perform remote

actions using a computer connected to the network. The cyber attack operating module is creating

computer viruses and other dangerous software and sending them to the target, in place of attack

Key words: Cybersecurity, controls, viruses, attack

Page 76: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

75

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

Piotr Graniszewski

Koło Naukowe Programistów

Uniwersytet Przyrodniczo-Humanistyczny w Siedlcach

The Cloud as Illustrated by Amazon Web Services

Chmura na przykładzie Amazon Web Services

Summary: Cloud-based services have taken the IT world by storm. Thanks to nearly unlimited

scalability, high flexibility and affordable prices, more and more companies are moving to cloud-

based services such as Amazon Web Services. This paper provides a brief analysis of traditional

hosting options predating the cloud, as well as of the current leader in cloud services, Amazon Web

Services – and in particular, options and services available within AWS, and inherent pitfalls one

might encounter.

Key words: public cloud services, cloud computing, information technology, AWS, hosting options,

overview of enterprise hosting solutions

Introduction

Cloud services have become a very popular solution to everyday hosting needs. In

2016, roughly 21% of EU enterprises used cloud computing and compared to 2014, the use

of cloud computing in large enterprises increased by 10 percentage points (Eurostat, 2016).

Its popularity can partially be owed to the plethora of available services and accessibility.

And with it, companies are also adopting the Software as a Service (SaaS) model, which is

prevalent in the cloud. Existing adopters are also considering moving more of their services

into the cloud. Well-known companies using cloud services include Netflix, Pinterest,

Instagram, and Apple. 29

Reasons cited for not joining the cloud revolution include steep learning curve,

security issues, and managing costs (RightScale, 2017). It is therefore important to know

both the strengths and weaknesses of this solution so that it can be utilized effectively and

wisely.

One of the leading providers is Amazon (see Fig. 2). Its cloud services platform,

Amazon Web Services, is a good example of a successful implementation of a cloud

platform.

29For more examples see: https://www.smartdatacollective.com/7-well-known-companies-have-moved-cloud/

Page 77: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

76

Maciej Nazarczuk

SDL and SFML - Basics, Similarities and Differences 2017

Figure 1: Cloud adoption rates in 2017

Source: RightScale 2017 State of the Cloud Report

Figure 2: Public cloud adoption in 2017

Source: RightScale 2017 State of the Cloud Report

Traditional Internet Hosting Options

It is imperative to understand the context of the cloud – that is, what came before it

– to see where cloud services fit in currently. Cloud computing became freely available

in 2006 with Amazon’s Elastic Compute Cloud (EC2). Traditional internet hosting

options include:

1. Shared Web Hosting.

2. Virtual Private Server.

3. Dedicated Hosting Service.

4. Colocation.

5. Dedicated server rooms and data centers.

Page 78: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

77

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

A quick breakdown of distinct features below:

Shared Web Hosting:

1. Multiple users sharing the same logical server/machine. Implementations can be:

a. IP-based: each virtual host has a different IP address thanks to the use of

multiple physical or virtual network interfaces on the same physical interface.

b. Name-based (shared IP hosting): the server uses requested hostname

information from HTTP requests to display the correct website.

2. System administration, which restricts customizability.

3. Frequent resource overselling, resulting in downtime.

4. Security risks (directory traversal attacks, command injection etc.).

5. Performance highly dependent on other users using the same machine.

6. Inexpensive – prices as low as $8 per month.

7. High ease-of-use.

8. No scalability.

Virtual Private Server:

1. Multiple users sharing the same physical server. Each user is given a virtual

machine – or in other words, a private logical server.

2. Highly customizable software-wise.

3. Affordable.

Dedicated Hosting Service:

1. One user on one physical server.

2. Unlimited software customization.

3. Very consistent performance.

4. Expensive.

Colocation:

1. One user on one physical server owned by the said user and located in rented

server space with provided server infrastructure.

2. High customizability down to the physical layer.

3. Responsibility for the collocated hardware and software.

4. Required additional maintenance; the server has to be visited personally.

5. Excellent security.

6. Very expensive.

Dedicated Server Rooms and Data Centers:

1. The user has to provide all the infrastructure.

Page 79: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

78

Maciej Nazarczuk

SDL and SFML - Basics, Similarities and Differences 2017

2. Unlimited customization.

3. Full responsibility for everything.

4. Prohibitively expensive.

Those solutions are often used alongside cloud services. It is worth noting that each

option fills a certain role.

Revolutionary Nature of Cloud Services

As the internet grew, so did the needs of the enterprise world. With increasing and

constantly varying server loads came the necessity of scaling – something that none of the

previous options excel in. Companies also needed to move away from having to manage

hardware and software nuances to focus on core business instead.

Cloud computing involves thousands of physical servers running thousands of

virtual servers, each of which is able to provide shared computer processing resources to

computers and other devices on demand. It allows for automatic scaling according to

current server load, quick deployment of applications and reliable hosting of resources.

The result is a flexible and highly scalable platform that combines the ease-of-use of

managed services and performance of dedicated solutions. Cloud benefits from the effect

of scale – thanks to it, it’s offered with pay-as-you-go pricing.

Users do not concern themselves with underlying hardware. When a project grows,

it could become limited by available infrastructure. Adjusting to changes is much simpler

and much less painful with cloud services – ordering additional resources involves a couple

of clicks in the administration panel. What happens under the hood becomes irrelevant.

Users can adjust available resources at any time according to current needs and budgetary

constraints.

If a business wanted to introduce its IT services in other countries, it would

probably be necessary to open new servers in that area to provide high quality of service.

VPS and dedicated server providers are usually limited in that aspect – any given provider

is usually confined to certain areas or countries. Major cloud providers, however, have data

centers in every part of the world, meaning that it’s no longer necessary to seek a new

provider when expanding a business, resulting in easier and faster integration with existing

infrastructure. Since the whole service is resource-based, the user does not get charged with

costs usually associated with on-premise servers (such as in the case of colocation). Servers

in the cloud are dynamically allocated, so there’s nothing stopping the user from shutting

down a server instance when it’s not needed and saving money.

Amazon Web Services in Detail

Global Infrastructure

AWS infrastructure consists of regions composed of Availability Zones (AZ), and

Edge Locations (see Fig. 3). Each region is a completely independent geographical area,

and each region has multiple, isolated locations called Availability Zones that are connected

to each other through low-latency links. An Availability Zone is one logical data center.

This provides redundancy in that if one instance becomes damaged (or simply disappears)

Page 80: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

79

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

because of a fault in a particular AZ, it is possible to configure another instance from a

different AZ within the region to take over (through address remapping, for example).

Figure 3: Map of AWS Regions

(numbers indicate quantity of Availability Zones; green circles indicate future locations)

Source: https://aws.amazon.com/about-aws/global-infrastructure/

Edge Locations serve requests for Amazon CloudFront and Route 53.30 ELs are

used to cache assets for faster delivery, which is particularly useful in remote locations.

Amazon’s infrastructure is being constantly expanded. One can only expect more regions

and edge locations in the future.

Available Services

AWS offers a range of services, ranging from typical cloud servers and content

delivery to IoT, archiving, serverless computing, and Big Data. Products listed on the

official website include but are not limited to:

1. Computing.

2. Storage.

3. Database.

4. Migration.

5. Networking & Content Delivery.

6. Artificial Intelligence.

7. Mobile Services.

8. Application Services.

9. Messaging.

10. Business Productivity.

11. Internet of Things.

30Amazon’s Content Delivery Network (CDN) and managed DNS, respectively

Page 81: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

80

Maciej Nazarczuk

SDL and SFML - Basics, Similarities and Differences 2017

A big portion of services are managed. Some of them are specialized – for example,

there are dedicated services for creating and managing databases (see Table 1). Many of

those services are proprietary versions of free or otherwise open solutions that Amazon

adapted for the cloud. Considering that Amazon Web Services is pay-per-use, changes had

to be made in order to enable metering. As a result, each service has a unique API and

unique pricing (see Fig. 4). Not paying attention to pricing details may lead to costly

mistakes.

Figure 4: Example pricing: RDS data transfer costs

Source: https://aws.amazon.com/rds/aurora/pricing

Table 1: Popular AWS services

Service Name Short Description

Elastic Compute Cloud (EC2) Cloud-equivalent of VPS

Elastic Block Store (EBS) Persistent block storage for EC2 instances

Elastic File System (EFS) Shared file storage for EC2 instances

EC2 Container Service (ECS) Container management with Docker support

Simple Storage Service (S3) HTTPS-based object storage with a simple web interface

Elastic Beanstalk Quick and easy deployment of applications (Java,

PHP, .Net, etc.) – create ⇒ upload ⇒ launch environment

⇒ manage environment

Lambda Automatic execution of code in response to events

AWS Key Management Service

(KMS)

Creation and management of encryption keys

Glacier Long-term object storage for data archiving

Aurora MySQL-compatible relational database

Page 82: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

81

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

Source: own work

Instances and Instance Types

Some services such as EC2 revolve around instance types. Instance types are suited

for specific use cases. For example, there are general purpose EC2 instances named T2,

M4, and M3 with balanced configurations of compute, memory, and network resources.

There are also compute optimized, memory optimized, and storage optimized instance

types, each with unique pricing and features. Basic differences between types include the

number of available virtual CPUs, amount of memory, and amount of networking

bandwidth. The cheapest T2 type involves CPU credits, which, if depleted, will reduce

the instance’s performance down to the baseline level. One CPU credit equals 1 minute of

100% virtual CPU utilization. The idea is simple: when the instance is not under stress,

its CPU credits pool will increase. Under load the pool will decrease. For this reason, T2

instances belong to the Burstable Performance Instances. It is therefore not recommended

to use this type of instances for heavy workloads.

Supplementary Services and Options

Services are meant to be used in conjunction. Specifically, EC2 instances are

practically always paired with EBS to provide server-side data persistence – even simply

stopping an EC2 instance causes it to permanently lose data, which is why EBS is crucial

in most setups. EBS volumes persist independently from the running life of an EC2

instance. When the attached EC2 instance is terminated, the EBS is detached automatically.

It can then be reattached to another instance.31

Due to the volatile nature of cloud resources, where it’s impossible to point out a

single server or a drive, and where servers appear and disappear every minute, DNS

services are necessary. Public IP addresses are no longer sufficient, because those IPs do

not stick to the AWS account; when an IP address is disassociated with an instance, it is

released back into the public IP address pool, and therefore cannot be reused by the instance

owner.32 Traffic has to be properly and reliably routed. A situation where it’s routed to a

terminated EC2 instance is unacceptable. For this reason, Elastic IP can be allocated to an

AWS account and freely attached to available instances, so that when an instance is

stopped, it will still be accessible under the same static public (Elastic) IP once it’s restarted.

It is possible to tweak the performance of selected services and instances by

purchasing additional options. For example, there’s a High Availability option (Multi-

31Further reading: http://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumes.html 32Details: http://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-instance-addressing.html

DynamoDB NoSQL database

CloudWatch Monitoring for AWS cloud resources: metrics, logs,

alarms, operational health, utilization statistics

CloudTrail Logging and monitoring of AWS account API calls

Device Farm Automated testing of iOS, Android, and web apps on real

mobile devices such as phones and tablets. Includes remote

access to tested devices

Direct Connect Dedicated network connection from premises to AWS

Snowball Petabyte-scale solution for transferring large amounts of

data to and from AWS cloud using specialized physical

devices that are shipped to the customer and then returned

Page 83: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

82

Maciej Nazarczuk

SDL and SFML - Basics, Similarities and Differences 2017

AZ), which aims to provide failover support for AWS database instances by mirroring data

across multiple Availability Zones. As a result, a synchronous standby replica is always

available in case of failure. When the active instance fails, a backup one can be brought up

immediately, assuring high availability of hosted services.

A staple feature of AWS is Auto-Scaling. It allows for the automatic scaling of EC2

instances based on custom conditions. Example scenarios include reduction in EC2

instances when CPU utilization is low, or increase in instances during heavy workloads,

automatically adjusting for natural variability.33

And finally, in cases where a company still requires private assets such as server

rooms or data centers that also need to be integrated with Amazon’s cloud services, it is

possible to connect the company’s infrastructure with the AWS cloud using Direct

Connect – a dedicated connection to selected AWS regions. This feature can be used to

create hybrid clouds – a combination of private and public cloud technologies. The

resulting VLAN can then be used to freely interface with both public and private AWS

resources.

Ecosystem: AWS Marketplace

Owing to the huge popularity of AWS, there’s a thriving community of creators. It

is possible to find custom-made solutions on the AWS Marketplace (launched in 2012),

which is an online store for AWS software and technical services (see Fig. 5). Categories

include but are not limited to: databases, application servers, testing and monitoring tools,

content management, and even operating systems.

Figure 5: Example AWS Marketplace offers

Source: https://aws.amazon.com/marketplace

33This technique is employed by companies like Facebook to save power:

https://code.facebook.com/posts/816473015039157/making-facebook-s-software-infrastructure-more-energy-

efficient-with-autoscale/

Page 84: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

83

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

Drawbacks, Common Pitfalls, and Mistakes

One of the greatest strengths of cloud-based services – worldwide availability – can

also be a weakness. By using so many integrated services of a single company, there’s a

risk of becoming so dependent on the provider that it’s no longer feasible to get out of the

ecosystem. Cloud providers often offer unique solutions with distinct APIs, making

migration hard and costly. And since costs are rarely calculated up-front, they may cause a

rapid growth of expenditure because of unoptimized strategies. A classic example involves

investing in more CPU credit-limited T2 instances in a situation where those instances are

put under constant stress, leading to credit starvation and reduced performance. It is worth

monitoring resource utilization to make informed decisions.

Knowledge is the main limiting factor in the usage of cloud-based solutions.

Improper use of available tools may even lead to irreversible data loss. And even with

Amazon’s redundancy systems in place, AWS is not immune to failure.34 There are often

no refunds of any kind in the event of a user-independent malfunction, and any refunds are

most likely going to be in the form of credits that only work within the AWS ecosystem.

Ultimately, how much trust can be put in big companies is a matter of personal

judgment. It is possible, after all, to use multiple cloud vendors at the same time, so as not

to “keep all your eggs in one basket”. 35

Conclusion

Cloud services have not completely replaced traditional internet hosting options.

Considering major weaknesses inherent in cloud technology, traditional ways of hosting

and computing are here to stay, at least in certain cases. Despite that, cloud-based solutions

are viable for rapidly growing businesses, development teams, and companies big and

small. Due to the high scalability, elasticity, and pay-per-use model, they can be employed

with success in a variety of fields, most notably in machine learning and Big Data. While

in theory, extensive knowledge of cloud’s innards is not required, it is very much advised

to have at least a working knowledge of the chosen cloud vendor’s platform.

Bibliography

1. Giannakouris, K., Smihily, M., Cloud computing - statistics on the use by

enterprises, Eurostat, 2016.

2. RightScale. RightScale 2017 State of the Cloud Report, RightScale 2017.

3. Hamdaqa, Mohammad, Cloud Computing Uncovered: A Research Landscape,

Elsevier Press, 2012.

4. Amazon Web Services Documentation, https://aws.amazon.com/documentation/

34See the example: http://www.cmips.net/2015/02/01/amazon-wiped-out-one-of-my-servers-they-completely-

lost-data 35Further reading: http://www.networkworld.com/article/3165326/cloud-computing/the-future-isnt-cloud-its-

multi-cloud.html

Page 85: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

84

Maciej Nazarczuk

SDL and SFML - Basics, Similarities and Differences 2017

Page 86: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

85

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

Chmura na przykładzie Amazon Web Services

Streszczenie: Usługi oparte na chmurze zawojowały świat IT. Dzięki niemalże nieograniczonej

skalowalności,, wysokiej elastyczności i przystępnych cenach, coraz więcej przedsiębiorstw korzysta

z rozwiązań chmurowych takich jak Amazon Web Services. Artykuł przedstawia krótką analizę

tradycyjnych opcji hostingowych poprzedzających chmurę, a także analizę Amazon Web Services –

w szczególności, opcji i usług dostępnych w ramach AWS, włączając w to potencjalne pułapki, w

które można wpaść.

Słowa kluczowe: publiczne usługi chmurowe, przetwarzanie w chmurze, informatyka, AWS, opcje

hostingowe, przegląd rozwiązań hostingowych dla przedsiębiorstw

Page 87: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

86

Maciej Nazarczuk

SDL and SFML - Basics, Similarities and Differences 2017

Maciej Nazarczuk

Koło Naukowe Programistów

Uniwersytet Przyrodniczo-Humanistyczny w Siedlcach

SDL and SFML - Basics, Similarities and Differences

SDL i SFML - podstawy, podobieństwa i różnice

Summary: SDL and SFML are free, multiplatform libraries providing access to input and

output devices. They allow user to easily create both big and small video games and other

multimedia applications such as emulators. The article presents possibilities of both

libraries as well as similarities and differences between them.

Key words: programming library, multimedia, video games

Introduction

The goal of the article is to present two programming libraries SDL - Simple

DirectMedia Layer and SFML - Simple and Fast Multimedia Library, to show their basic

features, capabilities and an example program, which purpose is to display a simple shape

on the screen. Moreover, I will discuss similarities and differences between the two

libraries.

Simple DirectMedia Layer

Library is a wrapper around OS-specific functions that gives the programmer an easy

to use multi-platform API. It facilitates creation of windows and displaying both simple 2d

images and complex 3d models. In addition to graphics, SDL provides event handling

(events can be keyboard key presses, mouse clicks, window resizing etc.), multithreading

and playing audio.

SDL allows development of programs for multiple platforms like Windows, Linux,

Mac OS X, or even Android and iOS. Library was written in C but over the years there

were created many bindings to other languages like: Ada, C#, Go, Lua, OCaml, Pascal,

Python, Rust.

Simple and Fast Multimedia Library

The shortest and most helpful description can be found on the library’s official

website in the FAQ section. (https://www.sfml-dev.org/faq.php#grl-whatis) which states

that the SFML is just like SDL but object oriented. The library is divided into five modules:

Audio - responsible for what the application sounds like, Graphics - application’s visual

presentation, Network - client-server and client-client (Peer to peer) communication,

Window - window and event handling, System - base module of SFML, defining various

utilities.

As opposed to its older brother SFML was written in C++, however they are similar

in that it also benefits from many bindings to other languages like: C, C#, Crystal, D,

Page 88: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

Euphoria, Go, Haskell, Java, Julia, Nim, OCaml, Pascal, Python, Ruby, Rust. Programs

developed with the aid of SFML can be launched on Windows, Linux, Mac OS X machines,

support for mobile devices with Android and iOS was implemented in version 2.2

(https://www.sfml-dev.org/faq.php#grl-platforms).

Similarities Between Libraries

Both libraries allow: effortless creation of windows, handling of events such as key

presses or mouse clicks, displaying of graphics, sound playback. Here is the simple

application, which creates new window titled “Moje okno” and displays a white rectangle

in the upper left corner using SFML.

Figure 1.

Source: own work

Page 89: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

88

Maciej Nazarczuk

SDL and SFML - Basics, Similarities and Differences 2017

Figure 2.

Source: own work

Here is the same program written with the use of SDL.

Figure 3.

Source: own work

Page 90: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

Figure 4.

Source: own work

As shown it is possible to achieve identical results using any of the two previously

discussed libraries. Additionally, both of them are available under Zlib license allowing

free and commercial and non-commercial use.

Differences

The main difference between libraries is the language used in their development and

emerging from it procedural, regarding SDL, and object-oriented approach for SFML.

Other than that, the differences are of rather cosmetic nature, for example audio access in

SDL is realised on lower level thus, giving the programmer more sophisticated tools, which

are useful only in development of complex audio editing applications. In SFML this process

is distinctly streamlined.

Besides the technical differences, it is worth noting that the SDL is almost twice the

age of its younger brother. (released in 1998 and 2007 accordingly). It translated into a

much bigger user base, more successful projects and mentions in literature, articles and

tutorials.

Page 91: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

90

Maciej Nazarczuk

SDL and SFML - Basics, Similarities and Differences 2017

Bibliography

1. Haller, J., Hansson, H. V., Moreira, A., SFML Game Development, Packt

Publishing, Birmingham 2013

2. Lazy Foo’ Productions - Beginning Game Programming,

http://lazyfoo.net/tutorials/SDL/

3. Learn SFML, https://www.sfml-dev.org/learn.php

4. Introduction - SDL, https://wiki.libsdl.org/Introduction

SDL i SFML - podstawy, podobieństwa i różnice

Streszczenie: SDL i SFML są darmowymi, wieloplatforomowymi bibliotekami zapewniającymi

dostęp do strumeni wejścia i wyjścia. Umożliwiają użytkownikowi na łatwe tworzenie zarówno

dużych jak I małych gier komputerowych czy innych aplikacji multimedialnych takich jak emulatory.

Ten artykuł prezentuje możliwości obu bibliotek, a także różnice i podobieństwa między nimi.

Słowa kluczowe: biblioteka programistyczna, multimedia, gry komputerowe

Page 92: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

Adam Miros

Koło Naukowe Programistów

Uniwersytet Przyrodniczo-Humanistyczny w Siedlcach

The Use of Information Technology in the Process of Making

Music

Zastosowanie technologii informacyjnych w procesie tworzenia

muzyki

Summary: Music is an integral part of many cultures, it accompanied people from the dawn of

time, and it has many different roles depending on environment and customs. Information

technologies has also found its applications. Their role continues to grow, starting with the first

invention of Elisha Gray in 1876, when he invented the first musical telegraph.

Key words: music, information technology, midi, asio, virtual instruments.

Introduction

Music is an integral part of many cultures, it accompanied people from the dawn of

time, and it has many different roles depending on environment and customs. It is present

during fun, work, rest, religious rituals, even for many subcultures it is a recognisable

element. Music is made up of sounds. Sounds are acoustic waves. These waves must be

matched to the whole frequency, amplitudes, respectively over time. Information

technologies have found an extremely wide application in the process of creating sound.

They expanded the possibilities of obtaining new sounds, due to the conversion of audio

tracks with real instruments, introducing a wide range of simulators and virtual

instruments, allowed to receive previously unknown sounds. A new genre of music

appeared. It is called "electronic music" which is a continuation of "mechanical music".

When the music was established, it was meant to convey the spirit of the heavy industry,

the mechanical railway, and the developing factories. Nowadays, it is one of the most

popular genres of music that enjoys great popularity all over the world.

Virtual Instruments

Virtual instruments are computer software that allows you to create sounds using

virtual modelling technology, to manipulate the sound through sets of attached filters, and

to imitate acoustic instruments or synthesizers. The virtual instruments also have a lot of

ready-made sounds prepared for the use i.e. samples. The characteristic of these programs

is the high quality of the received sounds. The quality of the sound does not diverge from

the recordings of top-ranked real instruments and does not require manual play because the

control is done with a mouse, keyboard or MIDI controller. The virtual instruments we

offer can be divided into three basic categories:

• virtual synthesizers

• virtual sets of acoustic instruments

• programs specialized in the sound of one or a group of instruments

Page 93: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

92

Adam Miros

The Use of Information Technology in the Process of Making Music 2017

Another point that proves the popularity of virtual instruments is the multitasking.

With just one software, we can create a multi-purpose music studio at home.

MIDI standard

Musical Instrument Digital Interface is a digital communication language for

musical instruments and computers. Its first version was created in 1983. It was created

with the agreement of manufacturers to unify and extend the possibilities of cooperation

between the instruments and the computer as well as between the instruments itself. Due

to dedicated software, MIDI allows us to program individual voices or compositions, to

assign the voices to specific controllers, and to combine instruments with sequencers.

Currently, the main application of this standard in the music-making process is to control

the software parameters from the controller, e.g. keyboards with parameters such as:

• prepared sounds control

• running sequencers

• digital mixers control

• effects processor control

Data in this standard is transmitted in series, the bit rate is 31250 bits per second.

One byte of information consists of ten bits. The standard components of information are,

for instance, pitch, volume, modulation, etc., which are transmitted on 16 channels.

ASIO 4 ALL

ASIO 4 ALL, Audio Stream Input / Output is a widely used audio card driver. It is

produced by Steinberg Media Technologies. ASIO 4 ALL reduces the delay of the sound

card, i.e. latency, in most cases up to a few milliseconds, which for advanced sound

manufacturers is very important. This system has been adopted by many audio cards

producers, so it is almost universal for most systems available on the market

Summary

Information technologies have revolutionized the process of creating music both

from a technological and artistic point of view. Information technologies opened many new

opportunities for music creators. Thanks to the information technologies the limit in

creating the music can be only the imagination of the author. Information technology has

also popularized music production. It allows beginning producers to access the advanced

technology and devote themselves to their passion. It also opens unlimited development

opportunities for regular people.

Page 94: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

Bibliography

1. Muzyka elektroniczna – Wikipedia, wolna encyklopedia,

https://pl.wikipedia.org/wiki/Muzyka_elektroniczna#Pocz.C4.85tki

2. Instrument wirtualny – Wikipedia, wolna encyklopedia,

https://pl.wikipedia.org/wiki/Instrument_wirtualny

3. MIDI – Wikipedia, wolna encyklopedia, https://pl.wikipedia.org/wiki/MIDI

4. ASIO4All – uniwersalny sterownik ASIO do kart dźwiękowych w Windows – MIDI

online, http://midi.deefacto.com/index.php/asio4all-uniwersalny-sterownik-asio-

do-kart-dzwiekowych-w-windows/

5. Estrada i Studio, http://www.eis.com.pl/pl/modules.php

Zastosowanie technologii informacyjnych w procesie tworzenia muzyki

Streszczenie: Muzyka jest integralną częścią wielu kultur, towarzyszy ludziom od zarania czasu i

ma wiele różnych ról w zależności od środowiska i zwyczajów. Technologie informacyjne znalazły

również swoje zastosowania. Ich rola wciąż rośnie, począwszy od 1876 roku, kiedy Elizeusza

Szarego wymyślił pierwszy telegraf muzyczny.

Słowa kluczowe: Muzyka, technologie informacyjne, midi, asio, wirtualne instrumenty.

Page 95: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

94

Marcin Izdebski

Employment of Informatics in Motorization 2017

Jarosław Kamiński

Koło Naukowe Programistów

Uniwersytet Przyrodniczo-Humanistyczny w Siedlcach

Not Just Gadgets: How Much Computer Science Is in Cars

Nie tylko gadżety, czyli ile informatyki jest w samochodach

Summary: There are many computers in new cars. Navigators, television systems and parking

assistants are just examples. However, in older cars it is also applied computers, although the naked

eye cannot see. Presentations will show the types and activities of computers in cars and their

development.

Key words: cars, information technology, computers

Introduction

Car computers are different from those we have on desks in our homes. This is due

to the fact that they have different tasks and work in different conditions. It is also important

to set other requirements in terms of reliability and durability for car computers. Thanks to

computers significantly improved driving safety and was limited negative effect of exhaust

on the environment.

Since When Computers Are Installed in Cars

Many people think that computers are only used in new cars. The truth, however, is

different because at the end of the 1980s the first ECUs were assembled in cars, due to the

exacerbation of regulations governing exhaust emissions. Carburetor systems could not

meet these requirements, so computer controlled electronic injection with adjustable

catalyst was introduced. In 1978, the first ABS systems were introduced to prevent the car

from slipping into the car. Since 2004 ABS system is compulsory for all new cars in the

European Union.

ECU

The ECU Engine Control Unit works with other computers and sensors such as

lambda probes, temperature sensors, or crankshaft position sensors. It takes information

from them and, based on them, selects the appropriate proportion of the fuel mixture,

determines the fuel dose, and determines the injection timing of the fuel in the cylinders.

Cars with indirect electronic injection are characterized by a lower fuel consumption than

cars based on engines with carburetor.

Page 96: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

Driving Safety and Computers

Computers control many systems that affect driving safety. Each system has its own

computer. The most popular driving safety systems include:

• Anti-Lock Braking System – ABS

• Traction control system - Acceleration slip regulation - ASR,

• Electronic Stability Program (ESP),

• Electronic Differential Lock - EDL (EDS (German) Elektronische

Differentialsperre)

• Electronic Brakeforce Distribution (EBD.

The car's ABS system was first mounted in 1978. Initially, in Mercedes-Benz S class. It

was manufactured by Bosch. Some computers use components from other computers,

e.g. EDS uses ABS sensors. Very important are systems that ensure safety in the event of

an accident, e.g. airbags and belt tensioners. Them also have their computers that need to

react very quickly.

Cruise Control System

Cruise control is a device that maintains a constant vehicle speed regardless of

whether the vehicle is traveling on a flat surface or sloped. The driver does not have to

press the acceleration pedal, as speed control is automatic (in the case of automatic

gearboxes, also the gears are changed automatically). It helps to keep the maximum speed

allowed in a given area and prevents it from being exceeded unintentionally. Maintaining

constant speed is also good for economic driving. The CCS (cruise control) system works

after exceeding the specified cruising speed (usually 40 km/ h). Programming of the right

speed is done by means of switches - the driver sets the speed of his choice using the buttons

on the steering wheel. The control unit continually compares the actual speed with the

entered speed (at any change adjusts the actual speed with the setting elements.

Buses

In the car there are many computers, sensors and drivers. However, all are connected

by a network (bus). In cars used are CAN, LIN and FlexRay. The CAN-Control Area

Network was created by BOSCH in the 1980s. It is very resistant to interference. LIN-

Local Interconnect Network was established in 1999, its use is much cheaper than CAN.

The last bus discussed is the FlexRay bus. This is the most modern (from 2005) of the

presented bus, now rarely seen in mass production cars. Its throughput is 10 Mbit / s and is

designed for use in automatic driving systems. The first car using FlexRay left the factory

in 2007, It's the BMW X5. FlexRay is a bus that uses system clock and microprocessors.

Buses also bring benefits for debugging: Special diagnostic connector allows you to read

all memory errors connected to the bus control devices.

Page 97: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

96

Marcin Izdebski

Employment of Informatics in Motorization 2017

On-Board Computer

Currently, most cars have a board computer. It is responsible for displaying current

driving status information e.g.:

• average burning,

• momentary burning,

• driving time,

• speed,

• component temperatures,

• and also, the gear on which the vehicle is currently driving

• display the bug icon.

Summary

There are many electronics in the cars, which are designed to ensure safety of

driving, the safety of people in the car. Computers control the drive system, but also the

devices responsible for user comfort. Information technology is rapidly developing,

making car driving safer and less polluting. devices.

Bibliography

3. Komputer Świat, Jak działa komputer w samochodzie,

http://www.komputerswiat.pl/jak-to-dziala/2011/01/superpecet-pod-maska.aspx,

2011

4. Chilmon E., Nowoczesne technologie w motoryzacji,

http://www.motofakty.pl/artykul/nowoczesne-technologie-w-motoryzacji.html,

2016

5. Bieńkowski M, Komputery w samochodzie,

http://www.pcworld.pl/news/Komputery-w-samochodzie,325084.html, 2008

Nie tylko gadżety, czyli ile informatyki jest w samochodach

Streszczenie: W nowych autach jest wiele komputerów. Nawigacje, systemy telewizyjne i asystent

parkowania to tylko przykłady. Jednak w starszych autach też jest zastosowana informatyka, chociaż

gołym okiem tego nie widać. W prezentacji zostaną przedstawione rodzaje i działanie komputerów

w autach oraz ich rozwój.

Słowa kluczowe: samochody, informatyka, komputery

Page 98: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

Marcin Izdebski

Koło Naukowe Programistów

Uniwersytet Przyrodniczo-Humanistyczny w Siedlcach

Employment of Informatics in Motorization

Zastosowanie informatyki w motoryzacji

Summary: The contemporary motorization cannot exist without the computerization. Customers

are putting great requirements before producers as for the safety and the convenience of driving a

car. Car producers must implement new technologies applied in modern vehicles and principles of

their actions. Here there will also be discussed the benefits of the development of computer science

in motorization.

Key words: car, phone, computer, communication, GPS

Introduction

The man from the very beginning aspired for improving the comfort of life, almost

all inventions in the history were aimed at changing surroundings to be more comfortable,

more practical and more economic. The real revolution took place in XX and the 21st

century along with the development of the technics, when having cars and computers

became more common. The combination of these two inventions has made it possible to

enjoy real fast, safe and comfortable travels.

The beginning of the 21st century was(is) the time of many gadgets that used (use)

computer technology in motorization. These gadgets include(d) the Chevrolet Corvette

system, which displays information on the windscreen of the car, in the driver's field of

vision. In 2005 The Bosh Company wanting to increase the safety produced Night Vision

which used the infrared light for cars to improve visibility without dazzling drivers from

the opposite direction.

Telephone applications

In 2008 the android system was used in cars for the first time what enabled the

communication between individual automobiles, thanks to the WLAN network. This was

to improve the safety and fluidity of traffic among others by informing drivers about

possible collisions and traffic jams. Currently the Internet is commonly being used in

automotive technology, such as R-Link technology. It uses a card built-in card inside the

car, so that vehicle owners with mentioned technology are exempt from any Internet

charges in the car. They have a constant access to maps being updated regularly. R-Link

also allows to watch movies and photos with your car's equipment, but for safety reasons

it is only possible when the car is off (source: www.renault.pl/finansowanie-i-

serwis/multimedia/r-link.html).

Among other things, thanks to the use of Android and IOS systems in cars, it

became possible to control the car with the phone. For security reasons at the moment, it

is not common to drive a car by phone, but opening, closing, starting, opening the trunk

already is. Viper SmartStart is an application that allows you to perform these actions, but

to get it working you need to buy a special module and install it in your car.

Page 99: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

98

Marcin Izdebski

Employment of Informatics in Motorization 2017

The car-to-phone connection gave not only the possibility to control the car with the

phone, but also to control the phone with a car, so we could easily pick up phones, make

calls, check call history, or download and save phone books.

Car and Environment

Systems like DRIVING ECO2 control our ride, give us information whether we are

driving economically, when we can accelerate, and when we should slow down, they

evaluate our ride. We also get reports about possible air pollution in the place we are. This

system enables to switch the car to the environmental mode which means that we will use

less fuel, the gears will change very quickly, and by pressing the accelerator pedal we get

the impression that the car does not react at all thanks to a reduction in engine speed to a

minimum for a proper gear (source: www.motofakty.pl/artykul/nowoczesne-technologie-

w-motoryzacji.html).

Safety

From the very beginning of applying the computer technology in cars the aim

was to make this combination more secure for travelers, such tool is ABS system. Currently

Lane Assist systems and parking aid like rear assist or park assist are more common.

However the research on the implementation of new technologies isn't ending. Samsung

has produced a system to increase safety during overtaking, allowing cars to have more

visibility behind the trucks.

Ways of improving safety on roads and controlling the driver are constantly

increasing. For example, the Driver Alert Control (DAC) system, using sensors and

microcontrollers, controls the driver's alertness. Using digital camera and steering wheel

data, DAC compares non-standard behavior with the usual driving style. Apart from the

warning, there will appear a message on the dashboard that suggests a break.

GPS in tractors

For a certain time now we have witnessed the development of agriculture, and this

area of economy has not missed the technological advances that make it easier to work on

the field. Such is certainly the GPS installed in tractors. For newer models, this is already

a built-in system, but for older models there is a possibility of buying the appropriate

equipment. GPS in tractors has no less important role than in cars. Specialized devices such

as AgroPomiarGPS (running on handheld computers such as the Pocket PC) enable farmers

to measure land in order to claim subsidies. In addition, GPS devices can be used for

agrotechnical operations that require a monotonous field trip. These systems allow the

machines to run along parallel routes with up to 2 centimeters accuracy. They are also

assisting sprinklers to help with more precise agriculture which results in spray use.

Spherical tires

Widely used devices in daily lives of many people have been mentioned so far.

Although 20 years ago no one would have expected such conveniences. Works on few

another seemingly unrealistic projects are still ongoing, one of which is the spherical tires

being conducted by Goodyear company. Their shape, as the name suggests will not have

Page 100: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

the form of a cylinder but rather a ball, maintained by the force of electromagnets. They

are also supposed to have special sensors which are informing the car of conditions on the

road and depending on them tires should adapt their tread

(www.motofakty.pl/artykul/nowoczesne-technologie-w-motoryzacji.html). The Eagle 360

project will certainly not come into force in near future, but that shows that the application

of modern technology in the automotive industry is constantly evolving.

Summary

The application of computer science in motorization is observed almost everywhere

nowadays. Today no one even thinks about buying a car without a basic computer system.

The revolution that IT has made in the automotive industry has led to increased safety,

improved driving comfort and a lot of savings. This is not the end, given the current

achievements we can be sure we will see further positive changes in days to come.

Bibliography

1. Chilmon, E., Nowoczesne technologie w motoryzacji, Motofakty.pl, Warszawa

2016

2. Nowicki, W., GPS do ciągników, poranny.pl, Białystok 2009

3. Okopień, P., Wszystko o systemie Renault R-Link2, komputerswiat.pl, Warszawa

2016

4. Bieńkowski, M. Komputery w samochodzie, PCWorld, Warszawa 2008

Zastosowanie informatyki w motoryzacji

Streszczenie: Współczesna motoryzacja nie może istnieć bez komputeryzacji. Konsumenci

stawiają duże wymagania przed producentami co do jakości i wygody prowadzenia auta.

Producenci samochodów muszą używać nowych technologii. W tej pracy przedstawione zostały

rozważania o zaletach rozwoju informatyki w motoryzacji..

Słowa kluczowe: samochód, telefon, komputer, komunikacja, GPS

Page 101: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

100

Marta Kisielińska

Is Design Only the Appearance? – More About UX Design 2017

Marta Kisielińska

Koło Naukowe Programistów

Uniwersytet Przyrodniczo-Humanistyczny w Siedlcach

Is Design Only the Appearance? – More About UX Design

Czy design to tylko wygląd? – Szerzej o UX designee

Summary: Just a few years ago, Design in relation to websites meant only "these colors, these

pictures". Is today the same? Currently, the concept of user experience is often used interchangeably

with the term usability. According to Wikipedia, user experience is “a person's perceptions and

responses that result from the use or anticipated use of a product, system or service”. “User

Experience (UX) refers to a person's emotions and attitudes about using a particular product, system

or service. It includes the practical, experiential, affective, meaningful and valuable aspects of

human–computer interaction and product ownership.” (Wikipedia).

In this article, I am going to describe a fairly new approach to website design, A / B testing that

helps to find the golden means of communication with a product. I will also tell you how to start

analyzing the product in terms of usability, tools that are helpful in this, and bugs that are most often

committed by beginning UI and UX designers.

Key words: design, UX, user experience, usability.

Introduction

What exactly is design? It is worth to start with what we associate this word with.

One group finds that the design is something we see, how do we perceive the

outside of a product, an item, a website. Other people tell us that design is something special

related to the appearance of the product, something which distinguishes this product from

others and makes it unique. Just Design.

Both of these groups agree that this is the product layer we see, we can identify and

distinguish. Is it all about design? So, what is the difference between user experience (UX)

and user interface (UI)?

Explanation

In simple words, it is aesthetic layer, for example a website or more generally - a

product. It tells us how and where the site elements are located - headlines, buttons, tables,

descriptions. How the product looks - what is the shape, the color, where are the rounded

edges. Even simpler - design is what we see and if we find that is good - we like it, we feel

satisfaction seeing this thing and we enjoying. Is this the whole truth? Actually, not

exactly... design is not only the appearance. This is a very extensive layer of perception of

our product or a site that incorporates not only a description of the aesthetic layer, but also

information on how the product should work - its functionality - and what it can accomplish

the goals it was created for.

Steve Jobs often reminded that “Design is not just what it looks like and feels like. Design

is how it works”. It is true so we can say that an attractive performance is the icing on the

cake, but if we just camouflage lack of function we can not talk about the ideal.

Page 102: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

UX: Your Feelings

I will start with the definition of a new concept, often confused with design or in

itself the usability of a given thing: user experience.

According to Wikipedia: "UX is a concept that describes the satisfaction a user

derives from using a product or service." User experience is the reactions and perceptions

of using the product.

The essence of UX design is discover users' habits and matching services and

products to a specific group of customers to create more and more positive experiences.

Comparing design to UX design, we must be aware that it is a comparison between

two different spheres. Design is mainly aesthetic layer - shape, color and functionality, it

is responsible for the product looks and fulfills its purpose to which it was created.

UX design intensifies this feature and makes the product look perfect and work as

accessible and intuitive as possible from the perspective of the recipient.

What is the advantage of this approach to design? This is primarily about taking care

of product quality, so that it can be more user-friendly but also minimizes the cost of

possible product improvements, does not generate as many customer-facing errors as the

user experiences, finally, the product brings satisfaction to the creators.

Analysis and Testing

How can we analyze a product or a website in terms of its usability and functionality?

First of all, we need to know what we want to check. If we want to analyze a product

created by someone else, we need to set these goals with the customer and find out what he

really needs, what he plans, find out where the problem is.

The next step is to determine the budget we have - we need to know how many tests

we can run, what are the tests and how many testers we will need.

After determining the costs, we will be collecting data that we will analyze in later

phases. We set up a test scenario - a list of steps and a list of questions for testers. If we

already know the client's problems, the project budget and we already have the data, we

need to know where to analyze them. If we know it, we choose the tools appropriate for

our tests.

For example, to check whether the menu button in the online store is more intuitive

- on the right or left, we have to check it with a test method called A / B testing. "It is based

on a comparison of two different versions of web pages aim to select the version that best

meets the tasks set by it" (Wikipedia). The test consists of displaying individual site

versions equal to the percentage of people in the same research period. This type of testing

is very popular, so there are many tools that allow this. The most popular testing tools are:

• Balsamiq

• Google Website Optimizer

• Hotjar

Hotjar is a support system for design and layout. The system is capable of receiving

heatmaps, recording user behavior, monitoring funnel sales and forms. Balsamiq is a tool

for creating web prototypes, it consists of a number of elements available on the web.

Google Website Optimizer Tool This tool allows you to perform A / B and multivariate

tests very easily.

Page 103: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

102

Marta Kisielińska

Is Design Only the Appearance? – More About UX Design 2017

Mistakes and How to Avoid Them

To achieve perfection in web prototyping, this should be practiced - just like in any

field. But you also have to make mistakes, because the errors are drawn to the most learning

and benefits. However, there are some bugs that can be avoided at the beginning. The basic

thing we need to know when designing a website is to take care of its responsiveness.

Responsive Web Design is a way to design websites so that they automatically adjust to

the size of your device window. Such a website is universal and is displayed well on every

screen type. The statistics say that more than half of the purchases we make on the Internet

are made using mobile devices, so it is important to ensure the comfort of the user and

prospective customer viewing our site. Another mistake is the lack of data validation -

validation and compliance with predefined criteria. You may, knowingly or not, make a

mistake when entering data into forms, typing an e-mail address - validation partially

prevents such errors. For example, the validation mechanism will not accept e-mail address

without the "@". If UX design is from the client's habits it is worth adding that it should

not change the default behaviors of the site elements. This causes user confusion and

reduces its positive impression on the product or service. This is, for example, posting an

article without a highlighted header and introduction, or insert a button that its appearance

does not stand out from the text or on the contrary - focuses all the attention on himself by

what the content of the site is visually unimportant.

Conclusion

Design, UI design and UX design overlap each other, although they are often

confused because of their mutual relationship, one sphere does not exist without the other,

so we should recognize them. If you want to design responsive and useful products, you

should first familiarize yourself with the UX design principles and follow them, keeping in

mind that our customer group may differ from others, and that it requires other elements

and principles, so it is important to design and test in accordance with UX design principles.

Bibliography

1. Blog UX - user experience. Psychologia w IT, marketing, testy A/B,

http://ux.marszalkowski.org

2. 10 Common UI/UX Mistakes and How to Avoid them | Michael Soriano,

http://michaelsoriano.com/10-common-uiux-mistakes-and-how-to-avoid-them/

3. Balsamiq. Rapid, effective and fun wireframing software. | Balsamiq,

https://balsamiq.com/

4. Hotjar - Heatmaps, Visitor Recordings, Conversion Funnels, Form Analytics,

Feedback Polls and Surveys in One Platform, https://www.hotjar.com/

5. Prototypes, Specifications, and Diagrams in One Tool | Axure Software,

https://www.axure.com

6. Google Website Optimizer – Wikipedia,

https://en.wikipedia.org/wiki/Google_Website_Optimizer

Page 104: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

Czy design to tylko wygląd? – Szerzej o UX designie

Streszczenie: Jeszcze kilka lat temu design w odniesieniu do witryn internetowych oznaczał tylko "te

kolory, te obrazki". Czy dziś jest tak samo? Obecnie pojęcie User Experience jest często używane

zamiennie z pojęciem użyteczności – usability. Według Wikipedii User Experience to „postrzeganie

i reakcje osoby, które wynikają z użycia lub przewidywanego używania produktu, systemu lub

usługi”. ”User Experience (UX) odnosi się do emocjonalnych emocji i postaw dotyczących

korzystania z określonego produktu, systemu lub usługi. Obejmuje praktyczne, empiryczne,

afektywne, znaczące i cenne aspekty interakcji człowiek-komputer i własność produktu "

(Wikipedia). W tym artykule opiszę stosunkowo nowe podejście do projektowania stron

internetowych, testy A/B, które pomagają znaleźć złoty środek w komunikacji z produktem. Opowiem

też jak rozpocząć analizę produktu pod kątem użyteczności, narzędziach, które w tym pomagają i

błędach, które są najczęściej popełniane przez początkujących UI i UX designerów.

Słowa kluczowe: design, UX, user experience, usability, użyteczność.

Page 105: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

104

Przemysław Kubicki

Programming Interactive Graphics with the Help of Processing 3 2017

Przemysław Kubicki

Koło Naukowe Programistów

Uniwersytet Przyrodniczo-Humanistyczny w Siedlcach

Programming Interactive Graphics with the Help of Processing 3

Programowanie interaktywnej grafiki przy pomocy Processing 3.

Summary: Processing is a programming language and integrated development

environment created to make programming interactive graphics easier. In this article, I

want to show how to get started with Processing 3 and how to start your adventure in

making full-screen programs with 2D or 3D graphics included. The idea is to write a couple

lines of code and have immediate visual feedback on the screen. Write a single line of code

and have a new shape show up on the screen. Add couple more lines and your shape is

following the mouse. Add another line and your shape is changing colour while mouse is

pressed. Like drawing in sketchbook, you write code in Processing “sketchbook” brick by

brick, one piece at the time. Authors of the Processing call this “sketching” the code.

Key words: programming, computer graphics, programming languages, sztuka,

projektowanie

Introduction

Processing was developed in spring 2001 by Casey Reas and Benjamin Fry, both

formerly of the Aesthetics and Computation Group at the MIT Media Lab. They were most

influenced by Design By Numbers (DBN), a language created by their research advisor

John Maeda. Difficulty creating interactive graphics in languages like C++ or Java was so

frustrating for authors, who remember Logo or BASIC - the languages of their childhood,

which make possible to write interesting programs simple, was the inspiration for

developing Processing.

The main idea is to write a couple lines of code and have immediate visual feedback

on the screen. Write a single line of code and have a new shape show up on the screen. Add

couple more lines and your shape is following the mouse. Add another line and your shape

is changing colour while mouse is pressed. Like drawing in sketchbook you write code in

Processing “sketchbook” brick by brick, one piece at the time. Authors of the Processing

call this “sketching” the code.

Processing is also very attractive for people who want to learn programming.

Standard programming courses focus on structure and theory first. Anything with graphics,

animation or GUI is in the last chapter of the course, after studying algorithms and methods

for several weeks. Processing offers the opposite! You can learn coding through creating

interactive graphics.

Java was base language for Processing. The language syntax is almost identical as

Java, but Processing adds custom features related to graphics and interaction. There is more

than 100 libraries which extend Processing even further. Processing is open source project

with strong and live community. Everyone can participate by sharing projects, knowledge

or by developing new libraries.

Page 106: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

Getting Started

First, you need to download Processing Development Environment (PDE) from

http://www.processing.org/download for your operating system (Windows, Linux, Mac OS

X). Second, you need to install and run it. PDE consist of text editor, a message area, a text

console, tabs for managing files, a toolbar with buttons for common actions, and series of

menus. Programs run in separate display window.

Figure 1: PDE screenshot with example code

Source: own work

In Processing “sketch” you can draw pictures just by typing proper lines of code

which will shape your drawing, for example:

Page 107: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

106

Przemysław Kubicki

Programming Interactive Graphics with the Help of Processing 3 2017

Figure 2 Example code

Source: own work

Figure 3: Display window with the result from code in Figure 2

Source: own work

Programs that responds to input from mouse, keyboard, touch screen or other devices

have to run continuously. For this purpose you need to use draw() function, which is basic

Processing function along with setup(). First one is running in the loop and the code within

runs from top to bottom, until you quit the program. Draw() function is place where you

put code that need to be updated. Second function, setup(), is made to complement draw()

function. It runs just once when the program starts. It’s useful to define starting values like,

e.g. size of the display window. For example if you run code from Figure 1 and move

mouse in display window to change coordinates of a circle and click a few times to change

its colour, you will have effect like this:

Figure 4: Display window with result from code in Figure 1

Source: own work

Introduction Into 2D Graphics

Processing has many, simply constructed functions which are useful in drawing basic

or complex shapes. You can also work with pre-made images with image() function. Just

load it in setup() into variable by img = loadImage(“sample.jpg”); and work with it in

draw() by function image(img, x, y); where x, y are the coordinates. You can load and

display raster images like JPEG, PNG or GIF format. Vector shapes in the SVG format

Processing can display as PShape object. This is helpful if you want to draw something

with your mouse rather than create it by Processing drawing functions. There’s a trade-off

Page 108: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

in this method. In Processing defined shapes there’s more flexibility in changing them

while program is running. With vector shapes you can only change position, angle and size.

Figure 5: Simple shapes and functions to create them

Source: Reas C., Fry B., Getting Started with Processing, O’Reilly, Sebastopol 2010, p.

17

Make Your Drawing Come Alive

Putting things in motion in Processing is very easy. There are two approaches to do

it. First method is to change coordinates of our object and redraw them in different position.

Second one is to change screen coordinates with translate(), rotate() or scale() functions.

Simple example for first approach can look like this:

Page 109: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

108

Przemysław Kubicki

Programming Interactive Graphics with the Help of Processing 3 2017

Figure 5: Example code for moving shapes

Source: own work

Figure 6: Display window just after start on the left and moment later on the right

Source: own work

Changing the screen coordinates using the second method can look the same. For

instance, you can move something, e.g. 100 pixels to the right or you can move (0,0)

coordinate 100 pixels to the right. Effect will be the same, but with the ability to manipulate

screen coordinates system you can create different transformations including translation,

rotation and scaling.

Page 110: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

Figure 7: Translating, rotating and scaling coordinates

Source: Reas C., Fry B., Getting Started with Processing, O’Reilly, Sebastopol 2010, p.

105

Page 111: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

110

Przemysław Kubicki

Programming Interactive Graphics with the Help of Processing 3 2017

Figure 8: Simple code and display window which show moving rectangle

Source: own work

Code in Figure 8 shows that coordinates of rectangle aren’t variables, but it is moving

because of translate() function which is changing the location of coordinate (0,0) of the

screen. Second motion is rotation of rectangle caused by rotate() function.

A Little Taste of 3D Graphics

When I started my adventure with programming and computer graphics I’ve met

with opinions that 3D graphics is very hard to work with it and best option for me is to

focus on 2D graphics. Processing has changed everything in my previous imagination of

3D. Making it in Processing is intuitive, simple and fun!

First thing you need to do to start work with 3D graphics in Processing is adding the

third parameter (P3D or OPENGL) in size() function, e.g. size(800, 600, P3D); or

size(800,600, OPENGL);. Most functions, like line() or vertex() will work in 3D mode

simply by adding third z-parameter to previous x and y coordinate. Now, as I promised in

the title of this chapter, a little taste of P3D:

Page 112: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

Figure 9: Example code for 3D graphics

Source: own work

Figure 10: Display window for code in Figure 9

Source: own work

Summary

Processing is powerful and easy to learn programming language with its own

development environment (PDE). Working with it is really fun, even if you’re just starting

your journey into programming. Like I have mentioned before, programming courses

usually start with a lot of theory and hard to obtain knowledge, but in Processing you can

jump into fun and creative graphics projects right at the beginning.

Processing is an open source project with big community, so you can use many

interesting libraries from repository in PDE. For example, you can use QueasyCam for your

3D fps game, which will deal with all the player movement with “w, s, a, d” keys and

mouse. You can add different camera named PeasyCam to the example from Figure 9 to

watch planets from different angles in space. Simple import from repository and one line

of code will do the trick.

Last thing I want to mention in this article is multi-platform export of applications

as standalone programs. You only need to go to [File -> Export Application…] menu,

choose your options and voila! Your program is now independent from PDE and you can

Page 113: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

112

Przemysław Kubicki

Programming Interactive Graphics with the Help of Processing 3 2017

run it anywhere you want (Java Virtual Machine must be installed). You can also export

pictures from your program into PDF file.

I would like to encourage everyone, who is interested in programming or computer

graphics, to try their hand at Processing, you won’t regret it.

Bibliography

1. Reas C., Fry B., Processing: A Programming Handbook for Visual Designers

and Artist, Second Edition, The MIT Press, Massachusetts 2014

2. Reas C., Fry B., Getting Started with Processing, O’Reilly, Sebastopol 2010

3. Processing.org, http://www.processing.org

Programowanie interaktywnej grafiki przy pomocy Processing 3.

Streszczenie: Processing jest językiem programowania, który, razem ze zintegrowanym

środowiskiem programistycznym, ułatwia programowanie interaktywnej grafiki. W niniejszej

publikacji chcę pokazać, jak zacząć swoją przygodę z tworzeniem programów pełnoekranowych z

wykorzystaniem grafiki 2D lub 3D. Idea polega na tym, aby napisać kilka linii kodu i uzyskać, już

na tym etapie tworzenia, efekt wizualny na ekranie. Już za pomocą jednej linii kodu można

wygenerować na ekranie nowy kształt. Dodanie kolejnych linii spowoduje, że nasz kształt zacznie

podążać za myszą. Jeszcze kilka linijek, a stworzony wcześniej obiekt zacznie zmieniać kolor podczas

naciskania myszy. Tworzenie programów w Processing jest bardzo podobne do rysowania w

szkicowniku. Kod powstaje kawałek po kawałku, z możliwością natychmiastowej weryfikacji zmian

na ekranie. Autorzy Processing nazywają to "szkicowaniem" kodu.

Słowa kluczowe: programowanie, grafika komputerowa, języki programowania, sztuka,

projektowanie.

Page 114: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

Kamil Chaciak

Koło Naukowe Programistów

Uniwersytet Przyrodniczo-Humanistyczny w Siedlcach

React.Js – Building Powerful Web Applications

React.Js – Budowanie potężnych aplikacji Webowych

Summary: React.Js is a framework for javascript and It was created by Jordan Walke. React is very

popular and It is used by many big companies such as Facebook. This framework creates virtual

DOM to improve speed of refreshing content on the websites. React support an XML-like syntax

called JSX. React is based on components which logic is written in JavaScript. Data in those

components is accessed via “this.props” which are read-only and “this.state” which can be

accessed only in the component you define it in. You can pass state from one component only to its

children via its props. Beyond the components constructor you can only set state by using

“setState()” method which re-invoke the “render()” method.

Key words: React.Js, Web applications

Introduction

React is a JavaScript framework that is used to create graphical web applications. It

was created by Jordan Walke, a Facebook programmer, and was inspired by PHP-XHP

extension. React is one of the most popular frameworks, it is used by many big companies

such as Facebook, Instagram, PayPal, Netflix, Gamepedia and Udemy. In 2015, React.js

and React Native were the two most popular open projects on GitHub.

Main Feature

First of the React’s main features is his virtual DOM. DOM stands for Document

Object Model and is an abstraction of a structured HTML code. Elements of HTML become

nodes in the DOM. So, whenever we want to dynamicly change the content of the web

page, we modify the DOM. React contains virtual DOM of the app in memory. The Virtual

DOM is an abstraction of the DOM. It is lightweight and detached from the browser-

specific implementation details. After It’s state changes it searches for differences between

virtual and original DOM and updates changes.

In the React docs we can read that a ReactElement is a light, stateless, immutable,

virtual representation of a DOM Element. Which means that every HTML tag can be that

element. ReactElements are the basic parts in React’s virtual DOM. But the lack of

variables and states, that is why we use ReactComponents. We usually use

React.createClass method to define one or if we use the JSX syntax which is optional and

React doesn’t demand from us to use it, we can simply write a standard class in our file

which name is equal to our component’s name.

Page 115: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

114

Kamil Chaciak

React.Js – Building Powerful Web Applications 2017

Stateful Components

Since component logic is written in JavaScript instead of templates, you can easily

pass rich data through your app and keep state out of the DOM. React components

implement a “render()” method that takes input data and returns what to display. Input data

that is passed into the component can be reached by “render()” via attribute “this.props”.

Figure 19: Creating React’s element without JSX syntax

Source: https://facebook.github.io/react/

Figure 2: Creating React’s element with JSX syntax

Source: https://facebook.github.io/react/

Above we can see two examples of creating ReactComponents and ReactElements.

The “render” method in ReactComponent must return only object, which means that if we

want to return more than one object to the view, we need to pack them into some kind of

container like “div” or any other tag.

Besides “props”, components store their internal data in their “state” attribute that

can be accessed via “this.state”. When a component's “state” data changes, the “render()”

method will be re-invoked. Therefore DOM and view will update and change.

Page 116: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

Using State Correctly

You should not modify state directly, there is a special method called “setState()”, if

you don’t use this method, “render()” method will not be re-invoked. The only place where

you can assign “this.state” is the constructor. When you call method “setState()”, React

merges the object you provide into the current state. So if state already contains some data

that data won’t be affected until you tell your component to change exactly this data.

Neither parent nor child components can know if a certain component is stateful or

stateless, and they shouldn't care whether it is defined as a function or a class. This is why

state is often called local or encapsulated. It is not accessible to any component other than

the one that owns and sets it. A component may choose to pass its state down as props to

its child components. This is commonly called a "top-down" or "unidirectional" data flow.

Any state is always owned by some specific component, and any data or UI derived from

that state can only affect components "below" them in the tree.

Bibliography

1. React - A JavaScript library for building user interfaces,

https://facebook.github.io/react/

2. React.js – Wikipedia, wolna encyklopedia, https://pl.wikipedia.org/wiki/React.js

3. Learn ReactJS: Part I | Codecademy, https://www.codecademy.com/learn/react-

101

4. The difference between Virtual DOM and DOM - React Kung Fu,

http://reactkungfu.com/2015/10/the-difference-between-virtual-dom-and-dom/

5. Ryan Vice, Adam Horton, Mastering React, Packt Publishing Ltd., Livery Place

2016

6. Johannes Stein, ReactJS Cookbook, Packt Publishing Ltd., Livery Place 2016

React.Js - Budowanie potężnych aplikacji Webowych

Streszczenie: React.Js to biblioteka dla języka JavaScript i została stworzona przez programistę

Jordana Walke. React jest bardzo popularny i jest używany przez wiele dużych firm, takich jak

Facebook. Ten framework wykorzystuje wirtualny DOM, aby poprawić szybkość odświeżania treści

na stronach internetowych. React wspiera składnię podobną do XML nazywaną JSX. React oparty

jest na komponentach, których logika napisana jest w języku JavaScript. Dane w tym komponentach

są dostępne za pośrednictwem "this.props", które są tylko do odczytu i "this.state", które można

uzyskać tylko w komponencie w którym je zdefiniujemy. Możesz przekazywać stan z jednego

komponentu tylko swoim dzieciom za pośrednictwem ich propsów. Poza konstruktorem komponentu

można ustawić state tylko przy użyciu metody "setState ()", która ponownie wywołuje metodę

"render ()".

Słowa kluczowe: React.Js, aplikacje Webowe

Page 117: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

116

Kamil Chaciak

React.Js – Building Powerful Web Applications 2017

Marlena Derlicka

Studenckie Koło Naukowe Bezpieczeństwa Narodowego

Uniwersytet Przyrodniczo-Humanistyczny w Siedlcach

Cyber - Sicherheit und typosquatting in Polen

Cyberbezpieczeństwo a typosquatting w Polsce

Abstract: Der Artikel stellt einige der Begriffe , mit typosquattingiem verbunden sind und

die Hauptgründe für die mit Fehlern Internet - Domainnamen registrieren. Die Arbeit ist

auch beabsichtigt ,die Informationen über das Phänomen in Polen und der Präsentation

der bekanntesten Fälle von seiner Verwendung zusammenzufassen.

Stichwort: Sicherheit, Domain, Internet

Zulassung

Heute verwenden mehr und mehr Menschen verschiedene in-celach- des

Cyberspace. Jeder von uns kann die Frage beantworten , ob er in seinen bisherigen

Erfahrungen mit dem Internet nicht schon einmal in einer Situation war , in der Suche nach

etwas, z. B. unter Zeitdruck oder müde. In solchen Situationen ist es leicht Sachen zu

verwechseln. Sie können versehentlich in eine Suchmaschine etwas eingeben , dessen

Ergebnis uns zumindest überrascht.

Das Konzept und seine Ziele typosquatting

Um typosqautting Phänomene heran verdient einen Moment an der Etymologie des

Wortes zu stoppen. Dieses Phänomen ist anders genannt ,, Hijacking die URL (ang.

URL - Hijacking). " Squatter ist eine Person , die illegal eine Wohnung besetzt. Als „Haus”

im Rahmen des Cyberspace „können Sie beliebte Internet - Domäne angeben, und die

Domänen der sogenannten Entführer. ,,Hausbesetzer“. Typosquatting ist dahereine Form

von Cybersquatting, und es besteht Domain - Namen zu registrieren , die etwas von dem

Namen der beliebten Webseiten (https://securingtomorrow.mcafee.com/consumer/family-

safety/what-is-typosquatting/) unterscheiden.

Die Autoren Domänen mit Fehlern sind , dass Internet -Nutzer häufig durch Fehler

in der Schreibweise von Namen Verkehr erstellt , indem sie auf der Website direkt

begangen zuhoffen, und sein Besitzer wird diese Situationen (Biernacik B., Kalman L.

(red.nauk.), Warszawa 2016). Als Ziele von Typosquatting können folgende Punkte

genannt werden:

• alle Arten von Leistungen (in der Regel Eigentum) übernehmen

• Datenverkehr von Websites umleiten, die eigentlich besucht werden wollten,

diejenigen schaffen, nachdem er jede Möglichkeit einer Verwechslung mit den

Internet-Nutzer zu bemerken,

• verstanden weit Werbung auf neu erstellte Seiten

• Platzierung auf der Seite der Malware, die das Unbewusste nach etwas von der

Page 118: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

117

III Ogólnopolska Konferencja Interdyscyplinarna

„Współczesne zastosowania informatyki” 2017

Person, der Download mit der Website führen werden Ihren Computer zu infizieren,

• Phishing oder Phishing (oft sehr empfindlich) Daten, die an der gewünschten Stelle

Seite entsprechen.

Es kommt auch vor, dass die Piraten solchen Situationen verwenden , wenn sie von

der Existenz im Ausland von agierenden Marken wissen, so vermutete , dass ein solches

Unternehmen ,ihre Aktivitäten in anderen Ländern erweitern wollen. Domain Entführer

übernehmen dann eine neue Seite, um sie zu Unternehmen mit einem großen Gewinn zu

verkaufen. Mit Blick auf dem polnischen Markt, hat es keine gute Initiative gewesen

(siehe: http://prawo.vagla.pl/node/7104).

Beispiele typosquatting in Polen

Beispiele für dieses Phänomen werden leider mehr und mehr. Wie bereits erwähnt,

typosquatting in Polen erlebt auch eine Reihe von Fällen , die erwähnt werden

sollten. Einer von ihnen ist eine Situation , in der ein Unternehmen aus Lodz die Hauptrolle

gespielt hat, welche Kräuter verkauft. Sie können erraten , dass sie die Vorteile der

Popularität von bekannten IT-Unternehmen nehmen wollte - Microsoft. Eine Person kam

mit der brillanten Idee, eine Website einzurichten, jedoch typisch für das Ende der

IP - Adresse, die ,, ist. En. "Natürlich hat sich die Situation nicht unbemerkt

bleiben.Ausländische Unternehmen vorgeschlagen , die das Unternehmen aus Lodz das

Problem gütlich zu lösen, ohne einen Fall vor Gericht zu bringen und gibt Microsoft eine

Domain kostenlos. Leider passiert , dass es nicht. Nicht nur , dass der Antrag präsentiert

polnische Unternehmen erfüllen musste, wurde auch bestraft

(https://niebezpiecznik.pl/post/typosquatting).

Abbildung 1.

Quelle: https://niebezpiecznik.pl/wp-content/uploads/2010/03/domena-microsoft.pl_.jpg

Page 119: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę

118

Kamil Chaciak

React.Js – Building Powerful Web Applications 2017

Dies ist nicht der einzige Fall. Vielleicht ist die Situation nicht so gut wie mit Microsoft

bekannt, aber sie haben einen Platz, und praktizierten in typosquatting Polen hat bereits

viele Menschen in Verwirrung eingeführt, und manchmal sogar unangenehm , wenn das

Internet mit anderen Personen über.

Kidnapping URL wächst, veröffentlichten Informationen ähnlich den erwarteten Seiten ,

die wir aus verschiedenen Kategorien, wie die Adressen belegt , wie:

● Joemosnter.org

● gopgle.pl

● wykpo.pl

● www.pl

● fillmweb.pl

● wwwfacebook.pl

● uph.pl

und viele andere, die Eingabe gibt ungewöhnliche Ergebnisse.

Aufsummierung

Sicherheitsbedrohungen aus dem Internet - Es gibt viele Nutzer, sie schaffen jeden

Tag neue. Man kann sagen, dass jeder von uns in diese Richtung beiträgt. Ohne Zweifel,

seien Sie vorsichtig, was und wie Ergebnisse für unsere vielfältige Inhalte

einzugeben.Mit der Nutzung des Cyberspace gesunder Menschenverstand sein sollte,

nicht sich selbst oder andere seine Nutzer zu schaden.Unsere - oft unbewussten -

Aktionen können Ereignisse auslösen , die in ein Sicherheitsrisiko auslösen können.

Bibliographie

1. Biernacik B., Kalman L, Systemy i sieci teleinformatyczne Sił Zbrojnych

Rzeczypospolitej Polskiej – wielorakie aspekty bezpieczeństwa cyberprzestrzeni,

Warszawa 2016.

2. McAfee, What is Typosquatting?, https://securingtomorrow.mcafee.com/

consumer/family-safety/what-is-typosquatting/, 2017

3. igH, Typosquatting = $500 milionów rocznie dla Google ,

https://niebezpiecznik.pl/post/typosquatting, 2017

4. Piotr VaGla Waglowski, Krótko o poetach i gmail.pl,

http://prawo.vagla.pl/node/7104, 23.05.2017

Cyberbezpieczeństwo a typosquatting w Polsce

Streszczenie: Artykuł przedstawia niektóre terminy związane z typosquattingiem oraz

główne przyczyny rejestracji domen internetowych z błędami. Praca ma na celu także

podsumowanie dotychczasowych informacji na temat omawianego zjawiska w Polsce i

przedstawienie najsławniejszych przypadków jego wykorzystania.

Słowa kluczowe: bezpieczeństwo, domeny, Internet

Page 120: Materiały pokonferencyjne · aplikacja” po stronie zamawiającego. Proces, powszechnie zwany „zbieraniem wymagań”, staje coraz bardziej skomplikowany i ryzykowny w miarę