dr in ż. Paweł Pełczy ński ppelczynski@swspiz · Historia rozwoju komputerów Wraz z powstaniem...
Transcript of dr in ż. Paweł Pełczy ński ppelczynski@swspiz · Historia rozwoju komputerów Wraz z powstaniem...
2
Literatura
1. Brookshear, J. G. (2003). Informatyka w ogólnym zarysie. WNT, Warszawa.
� 3. Małecki, R. Arendt D. Bryszewski A. Krasiukianis R (1997). Wstęp do informatyki. Skrypt PŁ, Łódź.
� Prezentacje wykładowe dostępne na stronie:
http://ppelczynski.swspiz.pl/
3
Definicja pojęcia Informatyka
Wikipedia:
Informatyka (łac. informatio - "wyobrażenie", "wizerunek", "pomysł”) – dziedzina nauki i techniki zajmująca się przetwarzaniem informacji – w tym
technologiami przetwarzania informacji oraz technologiami wytwarzania systemów przetwarzających
informacje.
4
Informacja i dane
Informacja - właściwość pewnych obiektów, relacja między elementami zbiorów pewnych obiektów, której istotą jest
zmniejszanie niepewności (nieokreśloności).
W informatyce nośnikiem informacji są dane.
Przetwarzanie informacji sprowadza się do przetwarzania
danych.
6
Zasada działania komputera
� Każdy problem obliczeniowy można rozwiązać za pomocą sekwencji skończonego zbioru operacji
� Komputer wykonuje zadanie (rozwiązuje problem) poprzez wykonywanie ciągu prostych operacji
� Zbiór wszystkich operacji wykonywanych przez komputer jest nazywany listą instrukcji lub listą rozkazów
� Kolejność operacji jest zakodowana ciągiem instrukcji, nazywanymprogramem
Wikipedia: "Maszyna posiadająca zdolność wykonywania dowolnego
programu jest nazywana uniwersalną maszyna Turinga. Praktyczną
realizacją uniwersalnej Maszyny Turinga jest komputer"
7
Cechy komputera
� Zdolność przetwarzania danych (wykonywania obliczeń)
� Programowalność – rodzaj wykonywanego zadania wyznacza program, a nie budowa komputera
� Uniwersalność – przeznaczenie komputera nie musi być znane podczas projektowania jego architektury, a jest definiowane przez wykonywany program
� Sekwencyjny (szeregowy) sposób pracy – w danym momencie jest wykonywana tylko jedna instrukcja(Ta zasada jest prawdziwa jedynie dla prostych komputerów, zbudowanych zgodnie z tzw. architekturą Von Neumanna)
8
Struktura prostego systemu mikroprocesorowego
Mikroprocesor
Pamięć
Układy wejścia,
wyjścia (I/O)
Magistrala danych
Magistrala adresowa
Magistralasterująca
9
Przykładowe zastosowania komputera
� Obliczenia
� Wspomaganie projektowania (CAD)
� Sterowanie procesami i urządzeniami
� Wspomaganie zarządzania
� Banki (bazy) danych, wyszukiwanie informacji...
� Grafika
� Przetwarzanie sygnałów i obrazów
� Rozrywka: gry, muzyka, filmy itd...
10
Historia rozwoju komputerów
� Wraz z powstaniem pasterstwa i rozwojem form wymiany towarów pojawiła się potrzeba liczenia.
� Dla ułatwienia prowadzenia obliczeń i pamiętania ich wyniku zaczęto stosować różnorodne pomoce, np. kamyki, liczenie na palcach, symbole reprezentujące liczby.
Kości z Ishango,
ok. 25 000 lat p.n.e.
11
Historia rozwoju komputerów
� 300 p.n.e. – Liczydło (Abakus)
� ok. 1500 – Projekt kalkulatora Leonarda Da Vinci
� 1623 – Wilhelm Schickard buduje pierwszy mechaniczny kalkulator
12
Historia rozwoju komputerów
� 1804 – Programowalne krosno Jacquarda
� 1820-40 – Charles Babbagekonstruuje szereg programowalnych, mechanicznych maszyn liczących
13
Historia rozwoju komputerów
� 1854 – George Booleopracowuje algebręstanowiącą formalizacjępraw logiki
� 1936 – Alan Turing definiuje maszynę zdolnądo realizacji dowolnego algorytmu
� 1945 – John von Neumannopracowuje szeregowąarchitekturę komputera
Źródło fotografii:
http://pl.wikipedia.org
14
Historia rozwoju komputerów
� 1948 – ENIAC – pierwszy komputer elektroniczny (18tys. Lamp elektronowych, 30 ton)
� Lata 50-te XXw. –zastosowanie tranzystorów do budowy komputerów
� Lata 60-te XXw. –zastosowanie układów scalonych
15
Historia rozwoju komputerów
� 1971 – Pierwszy mikroprocesor: Intel4004(4-bitowy)
� 1978 – Pierwszy mikroprocesor 16-bitowy: Intel8086 (Zastosowany w pierwszych komputerach IMB PC XT)
� 1995 – ENIAC-on-a-chip, 7,4x5,3mm
� 2000 – PENTIUM IV
16
Prawo Moore’a
Prawo Moore'a -optymalna liczba tranzystoróww układzie scalonym w kolejnych latach posiada trend wykładniczy (podwaja się w niemal równych odcinkach czasu,co ok. 24miesiące).
Źródło: http://pl.wikipedia.org/
17
Typowe rodzaje danych
� Liczby (dane liczbowe)
� Teksty (dane tekstowe)
� Dane dźwiękowe
� Sygnały i dane pomiarowe
� Dane obrazowe
� Obrazy ruchome - filmy
� Wiele innych
Z punktu widzenia sposobu przechowywania w komputerze programy komputerowe są rodzajem danych.
18
Sposoby reprezentacji liczb
� Początkowo wystarczało liczenie na palcach, kamyczki, itd.
� W celu pamiętania dużych liczb zaczęto wymyślaćich symboliczną reprezentację.
� Wyróżnia się dwa główne systemy liczbowe:
- addytywne (np. rzymski)
- pozycyjne (np. dziesiętny)
19
Sposoby reprezentacji liczb
Przykłady systemów liczbowych:
Majowie
Skandynawia
(średniowiecze)
Źródło: http://pl.wikipedia.org/
20
Sposoby reprezentacji liczb
� Dziesiętny system liczbowy, zwany też systemem decymalnym lub arabskim, to system pozycyjny.
� Podstawą pozycji są kolejne potęgi liczby 10.
� Do zapisu liczb używa się 10 cyfr (symboli): 0, 1, 2, 3, 4, 5, 6, 7, 8, 9.
Przykład:
7625=7*103+6*102+2*101+5*100
21
Reprezentacja liczb w komputerze
� Liczby i inne dane w technice cyfrowej(w komputerach) najłatwiej jest reprezentować za pomocą ciągów symboli zero-jedynkowych.
� Ograniczenie zbioru symboli do dwóch wynika z łatwości realizacji dwóch wartości napięcia na wyjściu układów cyfrowych:
- „0” – napięcie bliskie potencjałowi masy
- „1” – napięcie bliskie napięciu zasilania
22
Reprezentacja liczb w komputerze
� Pozycyjny system dwójkowy (binarny) – dwie cyfry0 i 1, zasada zapisu jak dla systemu dziesiętnego:
1011=1*23+0*22+1*21+1*20
� Wadą tego podejścia jest konieczność konwersji liczb dziesiętnych na dwójkowe podczas wprowadzania danych i odwrotnie podczas ich prezentacji.
23
Reprezentacja liczb w komputerze
Zalety:
� Łatwość realizacji operacji arytmetycznych
� Łatwość pamiętania danych binarnych
Sumator jednopozycyjny
Pamięć jednej cyfry
- przerzutnik typu D
Źródło: http://pl.wikipedia.org/
24
Reprezentacja liczb w komputerze
Podstawowa objętość danych, pozwalająca na zapisanie jednej cyfry binarnej to jeden:
bit
Jednostki pochodne:
1 bajt = 8 bitów
1 kilobajt (1kB) = 210 bajtów
1 megabajt (1MB) = 210 kB
1 gigabajt (1GB) = 210 MB
…
25
Reprezentacja liczb w komputerze
� Dla ułatwienia czytania liczb binarnych stosuje się notację heksadecymalną (szesnastkową).
� Jedna cyfra szesnastkowa odpowiada czterem cyfrom binarnym (bitom)
C110012
D110113
E111014
F111115
………
401004
300113
A101010
B101111
200102
100011
000000
HexBin (NBC)Dec
26
Reprezentacja danych tekstowychw komputerze
� Tekst jest ciągiem znaków skończonego alfabetu,np. alfabetu łacińskiego.
� Każdemu znakowi można przypisać wartość liczbową
� Powstaje kod, pozwalający na pamiętanie tekstów w postaci ciągów liczb,np. kod ASCII Fragment kodu ASCII
Przykład: liczba = {108, 105, 99, 122, 98, 97}
27
Reprezentacja dźwięków i innych sygnałów w komputerze
Sygnał jest próbkowany i przetwarzanyna postać cyfrową (ciąg liczb)
t,n
x(t),y( n )
0
-1
-1 1
1
2
2
-2
28
Reprezentacja obrazóww komputerze
Obraz cyfrowy jest mozaiką pikseli o jasności reprezentowanej liczbami w tablicy dwuwymiarowej. Każdy piksel obrazu barwnego jest opisany trzema liczbami, określającymi intensywność poszczególnych składowych koloru.