Budowa i działanie komputera Dr inż. Dariusz Skibicki I
1. Co to jest komputer KOMPUTER -  elektroniczna maszyna licząca [z ang. compute – obliczać],  urządzenie elektroniczne sł...
2.1. Historia maszyn liczących - komputera Abacus (pol. liczydło) pierwsze znane mechaniczne urządzenie liczące, powstałe ...
2.2. Historia maszyn liczących - komputera W 1822 Charles Babbage'a zbudował maszynę różnicową (nazwaną tak, gdyż wykonywa...
2.2. Historia maszyn liczących - komputera W 1937  Turing Alan Mathison  stworzył tzw. Maszynę Turinga (angielskie  Turing...
2.3. Historia maszyn liczących - komputera 1943 do 1946 John William Mauchly i John Presper Eckert Junior zbudowali komput...
2.4. Historia maszyn liczących - komputera W 1958 Jack Kilby wytworzył kilka elementów elektronicznych na pojedynczym kawa...
2.5. Historia maszyn liczących - komputera Generacje komputerów: Pierwsza generacja – komputery lampowe Druga generacja – ...
3.1. Budowa komputera – schemat ogólny Wg uproszczonego schematu komputer dwa główne, współpracujące urządzenia:  procesor...
3.2. Budowa komputera – jednostka centralna Zabudowany w sankach napęd CD, podobnie montowane są napędy CD-RW, DVD, ZIP, F...
3.3.Architektura komputera z magistralą PCI i AGP Procesor Sterowniki układów  pamięci (chipset): interfejs  magistrali PC...
3.4. BIOS BIOS, Basic Input-Output System , program zapisany na stałe w pamięci ROM komputera. Jest on uruchamiany jako pi...
3.5. Budowa procesora PROCESOR  stanowi główny element komputera, jest odpowiedzialny za przetwarzanie informacji.  <ul><l...
3.6. Działanie procesora Schemat blokowy procesora Sygnały Kontrolne i sterujące BU  – blok komunikacyjny Prefetch  – sort...
3.7. Pamięć podręczna Cache  to  podręczna pamięć  procesora. Charakteryzuje się wyjątkowo krótkim czasem dostępu. Jest on...
3.8. Kanały DMA DMA (ang. Direct Memory Access)  oznacza bezpośredni dostęp do pamięci komputera dla urządzeń peryferyjnyc...
3.9. Kanały IRQ IRQ, Interrupt Request,  Żądanie przerwania, w informatyce jest to rozkaz zaprzestania wykonywania aktualn...
4.1. Elementy komputera – płyta główna Płyta główna  jest podstawowym komponentem komputera. Stanowi podstawę do której po...
4.2. Elementy komputera – procesor Prawo Moore'a  reguła wywiedziona z obserwacji rynku komputerowego przez Gordona Moore'...
4.3. Elementy komputera – pamięć <ul><li>Rodzaje pamięci  ze względu na budowę: </li></ul><ul><li>SIMM FPM  ( S ingle  I n...
4.4. Elementy komputera – karta graficzna Złącze umożliwiające osadzenie karty na płycie głównej Gniazdo podłączenia monit...
4.5. Elementy komputera – karta dźwiękowa Złącze umożliwiające osadzenie karty na płycie głównej Gniazda wejścia i wyjścia...
4.6. Elementy komputera – karta sieciowa Złącze umożliwiające osadzenie karty na płycie głównej Gniazdo kabla sieciowego K...
4.7. Elementy komputera – dysk „twardy” Dysk stały, dysk twardy  (angielskie hard disk), pamięć dyskowa, w której nośnik m...
4.8. Elementy komputera – napęd CD-ROM CD-RW, Compact Disk Read-Write , jest dyskiem CD umożliwiającym wielokrotny zapis (...
4.9. Elementy komputera – napęd DVD DVD-R –  najnowsze napędy obsługujące płyty DVD umożliwiają ich nagrywanie Napęd DVD p...
4.10. Elementy komputera – inne urządzenia <ul><li>We wnętrzu obudowy komputera można zamontować wiele innych urządzeń rea...
5.1. Urządzenia zewnętrzne Liczba urządzeń zewnętrznych które mogą współpracować z komputerem jest bardzo duża. Producenci...
5.2. Urządzenia zewnętrzne Drukarki komputerowe, ze względu na kolor druku: kolorowe oraz czarno-białe. Ze względu na tech...
5.3. Urządzenia zewnętrzne <ul><li>aparaty cyfrowe </li></ul><ul><li>Oraz wiele innych urządzeń takich jak: </li></ul><ul>...
6.1. Rodzaje komputerów <ul><li>Ogólny podział komputerów:  </li></ul><ul><li>superkomputery stosowane w nauce </li></ul><...
6.2. Rodzaje komputerów Mikrokomputery, komputery osobiste: Stacjonarne komputery osobiste: desktop oraz tower Laptop, Not...
7. Pytania <ul><li>Przykładowe pytania egzaminacyjne:  </li></ul><ul><li>Babbage'a Turing Neumann - wyjaśnij znaczenie tyc...
Upcoming SlideShare
Loading in …5
×

Wyklad 01 budowa_i_dzialanie_komputera

3,975 views
3,753 views

Published on

0 Comments
1 Like
Statistics
Notes
  • Be the first to comment

No Downloads
Views
Total views
3,975
On SlideShare
0
From Embeds
0
Number of Embeds
2
Actions
Shares
0
Downloads
10
Comments
0
Likes
1
Embeds 0
No embeds

No notes for slide
  • IV w.p.n.e. - Euklides opracowuje pierwszy algorytm stosowany do dzisiaj - wyznaczanie największego wspólnego dzielnika. 1652 - Filozof i matematyk francuski, Blaise Pascal konstruuje maszynę do dodawania i odejmowania - prototyp kalkulatora.
  • 1833 - Charles Babbage - twórca idei komputera, który uznał za możliwe skonstruowanie urządzenia mechanicznego zdolnego do przeprowadzania szeregu operacji matematycznych; uznał też, że informację można manipulować przy pomocy maszyny, jeżeli zdoła się jej nadać postać cyfr. 1889 - Amerykanin Hermann Hollerith buduje kalkulator oparty na perforowanych kartach, później powszechnie stosowanych przy wprowadzaniu danych do komputerów - karty te zastosowano do rejestracji obywateli.
  • Turing Alan Mathison (1912-1954), matematyk brytyjski. Członek Royal Society w Londynie (od 1951). Główne pola zainteresowań: logika matematyczna i matematyka obliczeniowa. W 1936 stworzył teoretyczny model tzw. maszyny Turinga - abstrakcyjnego automatu przekształcającego ciągi symboli, tj. słowa w alfabecie A danej maszyny Turinga. Różne maszyny Turinga mogą reprezentować funkcje o argumentach i wartościach rozmaitych typów, z wyjątkiem tzw. funkcji nieobliczalnych. Istnieje jednak tzw. hipoteza Turinga głosząca, że każda funkcja, dla której istnieje algorytm obliczania wartości, jest reprezentowalna przez jakąś maszynę Turinga. Maszyna Turinga stanowi obecnie ważne narzędzie formalne w zagadnieniach efektywnej rozstrzygalności oraz złożoności obliczeniwej. W czasie II wojny światowej Turing poświęcił się budowie urządzeń deszyfrujących. 1936 - Matematyk Alan Turing skonstruował teoretyczny model komputera (tzw. maszyna Turinga). 1943-1946 - W USA, na Uniwersytecie Pensylwanii, uruchomiono pierwszy prawdziwy komputer elektroniczny ENIAC. System wykorzystywał 17 tysięcy lamp elektronowych, ważył 30 ton i wykonywał 5 tys. operacji na sekundę - za cenę 600 tys. dolarów.
  • W czerwcu 1945 opublikował pracę pod tytułem &amp;quot; Pierwszy Szkic raportu na temat komputera EDVAC &amp;quot;, w której przedstawił wszystkie podstawowe składniki komputera posiadającego pamięć programu: - Pamięć zawierająca zarówno dane jak i instrukcje. Również możliwość odczytu i zapisu w dowolnej kolejności zarówno komórek pamięci zawierających dane jak i instrukcje. - Jednostka obliczeniowa z możliwością wykonywania zarówno operacji arytmetycznych jak i logicznych nad danymi. - Jednostka sterująca mogąca interpretować instrukcję odczytaną z pamięci i wybierać różne ścieżki działania w zależności od wyników poprzednich operacji. Puentą tej pracy było to, iż komputer mógłby sam zmieniać swoje programy w bardzo podobny sposób, jak zaproponował to już Charles Babbage dla swojej Maszyny Analitycznej . Konstrukcja komputera wynikająca z warunków przedstawionych w &amp;quot; Pierwszym Szkicu &amp;quot; jest powszechnie znana jako Maszyna von Neumanna i dosłownie wszystkie komputery cyfrowe od tamtej pory aż do dziś są oparte na tej architekturze.
  • Układy scalone w tym procesory oraz powiększająca się liczba tranzystorów na mm2 są wykładnikiem rozwoju technologii produkcji 1956 - Skonstruowanie tranzystora półprzewodnikowego (Nagroda Nobla w roku 1956 w dziedzinie fizyki dla Bardeena, Bradleya, i Shockleya). Zapoczątkowało drugą generację komputerów. 1957 - Powstaje język programowania wysokiego poziomu: FORTRAN. 1964 - Douglas Engelbart (USA) konstruuje &amp;quot;mysz&amp;quot; komputerową oraz tzw. okna ekranowe z systemem połączonych odnośnikami dokumentów 1965 - Powstaje trzecia generacja komputerów. Tranzystory zastąpione przez układy scalone. 1974 - Czwarta generacja komputerów wykorzystuje mikroprocesory Intela 4004, 8008 i przełomowy 8080.
  • Układy scalone w tym procesory oraz powiększająca się liczba tranzystorów na mm2 są wykładnikiem rozwoju technologii produkcji 1976 - Powstaje mikrokomputer Apple I - dzieło Stephena Wozniaka i Stephena Jobsa (USA). 1981, 12 sierpnia - Rynek mikrokomputerów stał się na tyle atrakcyjny, że zajęła się nim firma IBM. W nowojorskim hotelu Astoria odbyła się premiera komputera osobistego firmy IBM. W ciągu niespełna roku został wdrożony projekt opracowywania komputera osobistego i odniósł sukces. Komputer IBM PC, (Personal Computer) został zbudowany z ogólnie dostępnych części, użyto procesora Intela 8088 - co zapewniło, że on był dwa razy szybszy od rywali. Ponadto oferował złącze rozszerzające do podłączania innych urządzeń, takich jak twardy dysk. Nowy procesor nie pracował w starych standardach, dlatego powierzono firmie Microsoft stworzenie nowego systemu operacyjnego pod nazwą MS-DOS.
  • Omówić ogólnie, powiedzieć że komputer nie jest monitorze ani klawiaturze (choć niektórzy tak myślą)
  • Opis jest oczywisty
  • Magistrala PCI opracowana przez firmę Intel jest najnowszym rozwiązaniem 32-bitowej szyny lokalnej. Magistrala ta jest niezależna od typu procesora. Jedna magistrala może obsługiwać do 32 urządzeń, a każde urządzenie może pełnić do 8 funkcji (np. karta ISA Multi I/O zawiera cztery urządzenia: dwa porty szeregowe, port równoległy i game port). Zasada działania magistrali PCI jest bardzo prosta: do magistrali mogą być podłączone dwa rodzaje urządzeń: inicjatory - mogące przejmować kontrolę nad magistralą i slave - mogące transmitować dane. Transmisja danych może przebiegać między dwoma inicjatorami lub inicjatorem i slavem. Każda transmisja rozpoczynana jest przez inicjator wystawieniem na magistralę sygnału aby pozostałe urządzenia odczytały adres urządzenia docelowego. Gdy urządzenie slave rozpozna, że transmisja jest skierowana do niego wystawia na magistralę odpowiedni sygnał. To jest faza adresowa. Potem następuje faza przesyłu danych. Na koniec inicjator informuje, że magistrala jest wolna. Chipset to pojedynczy moduł lub zestaw specjalizowanych układów scalonych, odpowiadających za realizację określonych zadań w urządzeniach elektronicznych zainstalowanych na płycie głównej komputera. Jako medium komunikacyjne umożliwia wymianę danych pomiędzy procesorem i pamięcią operacyjną oraz buforową, kartą graficzną, portami wejścia/wyjścia i innymi elementami. Jego właściwości decydują o możliwościach i wyposażeniu płyty głównej utworzonej w większości na jego bazie. Od niego zależy odpowiednia współpraca z kartami AGP, obsługa trybów UltraDMA oraz zgodność z takimi, a nie innymi rodzajami procesorów. Chipset zwyczajowo, a często i fizycznie, podzielony jest na dwie części, zwane mostem północnym (north bridge) i południowym (south bridge). Część &amp;quot;północna&amp;quot; to kontroler systemowy łączący jednostkę centralną (CPU) z pamięcią operacyjną i buforową (cache), szyną AGP i PCI oraz częścią &amp;quot;południową&amp;quot;. North brigde zapewnia również bezproblemową współpracę szyn działających z różnymi częstotliwościami (procesora, pamięci - 66-100 MHz, AGP - 66 MHz, PCI - 33 MHz). Dzięki niemu możliwa jest zatem współbieżna, potokowa wymiana informacji pomiędzy wspomnianymi komponentami. Część &amp;quot;południowa&amp;quot; pozwala z kolei na dołączenie do procesora portów wejścia/wyjścia: równoległego, szeregowego RS232C, szeregowej magistrali USB itp. Umożliwia również dopięcie do komputera urządzeń wejścia (mysz, klawiatura) oraz komunikację z kartami korzystającymi z magistrali ISA. Pośród wielu ważnych funkcji mostka &amp;quot;południowego&amp;quot; należy wspomnieć także o możliwościach, jakie pojawiły się stosunkowo niedawno - pomiaru istotnych parametrów systemu (napięcia zasilania, temperatury procesora, obrotów wentylatorów) oraz zapewnieniu zgodności z nową specyfikacją zarządzania energią - ACPI . W skład chipsetu wchodzi najczęściej od jednego do czterech odrębnych układów (chipów) rozmieszczonych czasem w różnych częściach płyty. W zależności od rodzaju, chipsetu może on zawierać następujące elementy: - kontroler pamięci operacyjnej (RAM), korekcji błędów, szybkości taktowania magistrali pamięci oraz dopuszczalnej ilości pamięci RAM; - kontroler pamięci cache L2; - kontroler procesora, w tym także obsługa cache pierwszego poziomu L1 (Każdy chipset jest przystosowany do pracy tylko z określonym typem (typami) procesorów, z tąd w procesie wytwarzania najpierw opracowywany jest procesor, a następnie konstruuje się dla niego odpowiedni chipset wykorzystujący jego możliwości takie jak np. częstotliwość taktowania); - kontroler magistrali PCI, ISA - szerokość magistrali, częstotliwość taktowania; - kontroler IDE/EIDE; - kontroler przerwań IRQ; - kontroler kanałów DMA; - zegar czasu rzeczywistego RTC; - kontroler klawiatury; - kontroler myszy - port (PS/2); - kontroler napędu dysków elastycznych (FDD); - kontroler portu równoległego (złącze Centronics); - kontroler portów szeregowych (RS232, USB); - oszczędne zarządzanie energią (power management). Do właściwości chipsetu należy również możliwość obsługi systemów składających się z więcej niż jednego procesora (architektura SMP Symmetric Multi-Processing). Rola chipsetu polega wówczas na takim zarządzaniu procesorami, aby jednocześnie wykorzystywały różne zadania i nie &amp;quot;wchodziły sobie wzajemnie w drogę&amp;quot;. Rozwiązanie takie wykorzystywane jest głównie w serwerach sieciowych, od których wymagana jest wysoka efektywność i szybkość. Producenci dążą aby coraz więcej kontrolerów było wbudowanych bezpośrednio w układ(y) chipsetu, a także zmierzają do zmniejszenia liczby wchodzących w jego skład układów, zachowując jednocześnie jego techniczne możliwości. Chipset jako integralna część całej płyty jest z nią nierozerwalnie związana, związku z czym niemożliwa jest jego wymiana tak ja to ma miejsce z innymi elementami komputera. Wymiana chipsetu jest więc równoznaczna z wymianą całej płyty głównej Aby sprawdzić rodzaj zainstalowanego na naszej płycie chipsetu najlepiej zajrzeć do dokumentacji płyty głównej. W przypadku gdy jest to niemożliwe, możemy dokonać sprawdzenia chipset z poziomu systemu operacyjnego. Start / Ustawienia / Panel sterowania a następnie ikona System. W jej właściwościach odnajdujemy menadżera urządzeń a następnie opcje - Urządzenia systemowe. Tam na długiej liście urządzeń znajdują się pozycje nazwane: Mostek PCI do ISA, typu nazwa jednego z układów wchodzących w skład chipsetu (PCI - ISA bridge), oraz Mostek Procesor, typ procesora do PCI typu nazwa chipsetu.
  • Pod tym adresem znalazlem te informacje: http://www.bios.pnet.pl/ Definicja jest z encyklopedii informatycznej onetu BIOS ( ang. Basic Input/Output System - Podstawowy System Wejścia/Wyjścia). Koncepcja architektury komputerów PC opiera się na budowie modułowej. Podstawą jest tu płyta główna, która zawiera wszystkie układy,  urządzenia potrzebne do pracy systemu. Drugim ważnym elemetem jest pamięć główna ROM zawierająca system BIOS. Jest on integralną częścią każdej płyty i nie może być wymieniany pomiędzy innymi różnymi płytami. BIOS z punktu systemu operacyjnego likwiduje różnice pomiędzy układowymi rozwiązaniami płyty. Oferuje on również procedury obsługi standardowych układów i urządzeń wejścia/wyjścia, z których może korzystać zarówno system operacyjny, jak i programista.    Podstawowe zadania BIOS-u to: Ţ przeprowadzenie po restarcie testów podstawowych układów i urządzeń systemu, zwanych aututestem po włączeniu zasilania - POST ( P ost O n S elf T est), Ţ inicjalizacja pracy systemu (instrukcje pobierane podczas startu pracy procesora, programowanie układów programowalnych, takich jak sterowniki przerwań czy DMA, wpisanie wartości początkowych do struktur systemowych w pamięci, na przykład inicjacja tablicy wektorów przerwań), Ţ zapewnienie w postaci programów obsługi przerwań (programowych bądź sprzętowych), procedur obsługi (sterowników) podstawowych, standardowych urządzeń systemu. Ţ niwelacja z punktu widzenia systemu operacyjnego, różnic konstrukcyjnych płyt głównych pochodzących od różnych producentów.    BIOS jest podstawowym systemem obsługi i jest zestawem programów przechowywanych w pamięci nieulotnej ROM (w nowszych rozwiązaniach EEROM lub NOVRAM) w zakresie wysokich adresów, przy końcu pierwszego megabajtu pamięci, zajmując ostatnie 128kB tego obszaru.     Kwestia poprawności działania systemu zależy od poprawności skonfigurowania właście BIOS-u. Mniej popularne systemy operacyjne (OS/2, BeOS, Linux) nie potrafią poprawnie współpracować z każdą konfiguracją BIOS-u.  Z funkcji BIOS-u bardzo intensywnie korzysta DOS, natomiast większość rozbudowanych systemów operacyjnych wykorzystuje go tylko podczas startu komputera, używając następnie własnych sterowników, które bezpośrednio komunikują sie bezpośrednio z częściami składowymi komputera. W czasie startu systemu BIOS musi nie tylko rozpoznać i poprawnie zainstalować różne urządzenia, ale od czasu wprowadzenia magistrali PCI i technologii PnP spoczywa na nim dodatkowy obowiązek rozdziału zasobów systemowych. Wymagane do tego informacje o konfiguracji zapisywane są w obszarze ESCD ( E xtended S ystem C onfiguration D ata), który zajmuje obszar 4kB. Tłumaczy to jednocześnie, dlaczego obecnie stosowane są układy flash-ROM w miejsce popularnych dawniej pamięci EPROM (EPROM nie umożliwiały one zapisu danych). Rysunek przedstawia organizację pamięci BIOS-ROM zapisanej w module flash-ROM oraz jej podział. Najnowsze BIOS-y ze względu na brak miejsca w pamięci flash muszą być częściowo kompresowane. Konieczność dekompresji takiego oprogramowania wyjaśnia, dlaczego BIOS tego typu musi być odwzorowany w pamięci operacyjnej (shadowing).     Do części składowych BIOS-u należą: komórki pamięci i wraz z układami współpracującymi (zegar czasu rzeczywistego, rejestry sterujące, port adresowy i port danych). Układ taki zawiera w sobie dane o konfiguracji sprzętowej, kalendarz i zegar czasu rzeczywistego. W informacji sprzętowej jest określona: Ţ liczba i rodzaj zainstalowanych napędów, Ţ parametry dysków twardych, Ţ dane o zainstalowanej pamięci i jej szczegółowej konfiguracji, Ţ konfiguracja i przydział przerwań IRQ i DMA. Zapamiętane dane o konfiguracji przechowywane są w pamięci dostatecznie długo przy pomocy baterii lub małego akumulatorka, doładowywanego zwykle z zasilacza sieciowego komputera. Nowoczesne baterie litowe mają trwałość określaną przez producentów 10 lat. Często spotykanym rozwiązaniem jest zitegrowanie układu scalonego z zasilaczem. Często w instrukcjach b.starych komputerach było zalecenie uruchamiania komputera nie rzadziej niż co dwa tygodnie.     Informacje o zainstalowanym sprzęcie odczytywane są każdorazowo przy starcie komputera i zapisywane w pamięci ROM procedury testowej POST ( P ower O n S elf T est) i porównywane ze stanem faktycznym. Zostaje również zainicjalizowanie pracy zegara systemowego DOS-u. Całość funkcji BIOS-u jest realizowana przy pomocy układu MC146818 wraz 64 komórkowa pamięcią CMOS-RAM (niektóre komputery posiadają większą). Stwiedzenie błędu podczas któregokolwiek z testów jest sygnalizowane odpowiednim komunikatem oraz sygnałem dźwiękowym. Sposób zgłaszania błędów jest uzależniony od konkretnego BIOS-u. Ponadto po wykryciu błędów na poziomie podstawowych układów dalsze testy sa wstrzymywane. W systemie istnieje wiele układów wymagających zaprogramowanie sposobu pracy, a więc wpisania pewnych warunków początkowych, słów sterujących. Zaprogramowanie tych układów po restarcie jest zadaniem procedur zawartych w BIOS-ie. Oprócz tego, rozwiązania płyt głównych poszczególnych producentów umożliwiają wybór dodatkowych możliwości, decydujących o sposobie pracy systemu. Przykładem może być określenie ilości  stanów oczekiwania przy dostępie do pamięci czy włączenie lub wyłączenie opcji Shadow BIOS. Wyboru tych opcji dokonujemy przy pomocy programu zwanego SETUP-em, będącego również częścią składową BIOS-u, a uruchamianego na nasze życzenie w trakcie uruchamiania komputera, a więc i pracy układów płyty głównej. Ewolucja systemów operacyjnych PC spowodowała, że obecnie jedyną rolą BIOS-u jest załadowanie systemu operacyjnego (z różnych względów Windows oraz inne systemy operacyjne dla PC prawie nie wykorzystują podczas pracy funkcji BIOS-u). Tym niemniej, ze względu na przyjętą w Standardzie PC zasadę wstecznej zgodności, BIOS musi być wciąż obecny. Chociaż bardzo niewiele używany, jest niezbędny do działania komputera.      BIOS przechowywany jest we wbudowanej na płycie głównej pamięci. W dzisiejszych konstrukcjach jest to oczywiście pamięć typu Flash ROM, której zawartość może być dowolnie modyfikowana za pomocą odpowiedniego oprogramowania . Zapewnia to użytkownikowi możliwość załadowania nowej wersji BIOS-u, potrzebnej np. przy zmianie procesora na nowszy i szybszy, ale... stwarza szansę dla wirusów. Znane są już wirusy, które potrafią uszkodzić lub zmodyfikować BIOS. Nic zatem dziwnego, że konstruktorzy płyt głównych zaczęli stosować rozmaite rozwiązania, chroniące BIOS przed uszkodzeniami - np. blokadę możliwości zapisu do pamięci, zawierającej dwie kopie BIOS-u.      W tej samej pamięci, co BIOS, przechowywany jest również inny ważny program &amp;quot;wbudowany&amp;quot; w płytę główną. Jest to tzw. SETUP, czyli narzędzie programowe umożliwiające zapisanie charakterystyki konfiguracji komputera. Setup współczesnej płyty pozwala na wiele modyfikacji ustawień poszczególnych parametrów, a przy właściwym wykorzystaniu tych możliwości wydajność komputera może wyraźnie wzrosnąć w stosunku do ustawień fabrycznych (default).  
  • PROCESOR stanowi główny element komputera, ponieważ jest odpowiedzialny za przetwarzanie informacji. Składa się on z układów sterujących, arytmometru oraz rejestrów . Układy sterujące odpowiadają za: dostarczenie arytmometrowi danych do obliczeń z pamięci operacyjnej, przekazywanie wyników obliczeń z powrotem do pamięci oraz właściwą kolejność przetwarzania. W arytmometrze odbywają się wszystkie obliczenia realizowane przez komputer. W rejestrach procesora przechowuje się adresy wybranych miejsc pamięci operacyjnej oraz dane i wyniki obliczeń. W wyróżnionym rejestrze nazywanym licznikiem rozkazów jest umieszczany adres miejsca w pamięci wewnętrznej zawierającego bieżący rozkaz dla procesora. Praca procesora odbywa się w tzw. cyklach rozkazowych . Przebieg jednego cyklu rozkazowego można opisać za pomocą następującego algorytmu: - Zawartość miejsca pamięci wewnętrznej wskazywanego przez licznik rozkazów LR zostaje przesłana do układów sterujących procesora, - W układach sterujących następuje rozdzielenie otrzymanej informacji na dwa pola: pole operacji i pole argumentów. Pole operacji zawiera adres rozkazu, który należy wykonać. Pole argumentów zawiera adresy, pod którymi są przechowywane dane oraz adres przeznaczenia wyniku. - Na podstawie wyznaczonych adresów następuje przesłanie z pamięci wewnętrznej argumentów do odpowiednich rejestrów, a na podstawie adresu rozkazu arytmometr wykonuje odpowiednie działanie (operację arytmetyczną lub logiczną) na zawartościach rejestru. - Wynik przetwarzania (wynik wykonanej operacji) jest wysyłany do pamięci wewnętrznej pod adres przeznaczenia wyniku. - Następuje zmiana wartości licznika rozkazów LR tak, aby wskazywał on kolejny rozkaz dla procesora. Wykonywanie obliczeń może zostać przerwane. Jeżeli procesor otrzyma sygnał informujący go o żądaniu obsługi przerwania następuje przerwanie obliczeń, zapamiętanie stanu licznika rozkazów i wykonanie podprogramu (procedury) obsługi przerwania. Dalsze zachowanie się procesora jest uzależnione od podprogramu obsługującego przerwanie. Oprócz przerwań nadchodzących z zewnątrz procesora (np. odczyt znaku z klawiatury) są przerwania wewnętrzne procesora. Jednym z takich przerwań może być przerwanie jego pracy w przypadku, gdy procesor odczyta rozkaz dzielenia dowolnej liczby przez liczbę 0. Mikroprocesor jest skomplikowanym automatem, który może wykonywać kilkaset dosyć prostych czynności - tzn. rozkazów maszynowych. Każdy rozkaz ma własny kod, liczbę zapisaną w jednym lub kilku bajtach. Procesor pobiera z pamięci kolejne bajty traktując je jako rozkazy lub dane i wykonuje zaprogramowane operacje. Wszystkie mikroprocesory zawierają podobne elementy: układ sterowania i synchronizacji, który kontroluje pracę procesora i wytwarza sygnały potrzebne do sterowania niektórymi elementami komputera arytmometr, czyli układ, który wykonuje operacje arytmetyczne i logiczne (niektóre procesory mają kilka arytmometrów) rejestry, tj. układy pamięci wewnętrzne szyny łączące elementy procesora Podstawowymi rejestrami, które znajdują się w każdym mikroprocesorze, są: licznik rozkazów - zawiera on adres następnego rozkazu do wykonania rejestr rozkazów - zawiera kod aktualnie wykonywanego rozkazu akumulator, jest używany w czasie wykonywania rozkazów arytmetycznych, logicznych, I/O i in.; niektóre procesory mają kilka takich rejestrów rejestr znaczników - zawiera dodatkowe informacje o wyniku operacji arytmetyczno-logicznych, np. &amp;quot;wynik równy zeru&amp;quot; Oprócz tego procesor ma kilka (kilkanaście) rejestrów używanych w czasie wykonywania niektórych rozkazów, np. wskaźnik stosu służący do adresowania pamięci. Do budowy systemu komputerowego oprócz procesora, pamięci i układów I/O potrzeba kilkunastu innych układów scalonych pośredniczących między poszczególnymi elementami systemu, np. buforów i wzmacniaczy szyn, zegarów, układów zarządzania pamięcią itd. Niekiedy te dodatkowe układy umieszcza się razem z mikroprocesorem w jednym układzie scalonym. Procesor pobiera z pamięci kod rozkazu wskazywanego przez licznik rozkazów i umieszcza go w rejestrze rozkazów. Układ sterowania dekoduje go i na jego podstawie steruje pracą rejestrów, układu arytmetyczno-logicznego oraz wewnętrznych szyn. Wykonanie instrukcji jest podzielone na kilka faz. Pierwszą fazą jest pobranie z pamięci kodu. Następnie, jeśli dany rozkaz tego wymaga pobiera się z pamięci lub rejestrów dane, tzw. argumenty - sposób uzyskiwania argumentów nazywa się trybem adresowania. Jeśli argument można uzyskiwać na wiele sposobów, czyli procesor ma dużo trybów adresowania, to programowanie jest łatwiejsze i bardziej efektywne. Wreszcie wykonuje się operacje (np. dodawania) i wynik umieszcza w jednym z rejestrów procesora lub w pamięci. Zawartość licznika rozkazów jest zwiększona, mikroprocesor pobiera z pamięci następny rozkaz programu. Opisana procedura ulega zmianie, gdy nastąpi tzw. przerwanie (ang. interrupt). Powoduje je sygnał podany z urządzenia zewnętrznego do procesora. Przerywa on wtedy wykonywanie programu. zapamiętana zostaje zawartožć licznika rozkazów i rozpoczyna się wykonywanie programu obsługi przerwań. Adres tego programu jest niekiedy ustalony, w innych przypadkach jest przesyłany przez specjalny układ przerwań. Takie przerwania są wykożystywane do współpracy z urządzeniami I/O. Przerwanie możę być także spowodowane wykonaniem specjalnego rozkazu maszynowego (przerwanie programowe). Adres programu obsługi przerwania jest w takim przypadku ustalony. Przerwania programowe służą zwykle do wywoływania programów systemu operacyjnego. Po zakończeniu obsługi przerwania wznawiane jest wykonywanie przerwanego programu. Wszystkie operacje wykonywane przez procesor synchronizowane są impulsami przychodzącymi z zegara. Jedna instrukcja jest wykonywana w czasie kilku taktów zegara. Dlatego, gdy jego częstotliwość jest większa, procesor pracuje szybciej. Rozkazy wykonywane przez mikroprocesory można podzielić na następujące grupy: przesłania bajtu lub kilku bajtów z pamięci do rejestrów, z rejestrów do pamięci lub między rejestrami przesłania bajtu lub ciągu bajtów między rejestrami i układami I/O arytmetyczne (dodawanie, odejmowanie, niekiedy mnożenie i dzielenie - dotyczy tylko liczb całkowitych o ograniczonej długości, np. 16 bitów) logiczne (porównywanie, iloczyn logiczny itd.) przetwarzanie ciągu bajtów (tylko proste operacje, np. przepisywanie lub porównywanie) sterujące (tzn. zmieniające zawartość licznika rozkazów, np. skoki, wywołanie podprogramów, przerwania programowe) sterujące pracą systemu komputerowego, np. zatrzymanie procesora. Zakres działania niektórych rozkazów jest ograniczony. W szczególności argumentem rozkazów arytmetyczno-logicznych może być zawartość rejestrów procesora. Dotyczy to szczególnie starszych procesorów. Obecnie dąży się do tego, by procesor mógł wykonywać wsszystkie operacje na danych wszystkich typów (tzn. na adresach, bajtach, dwubajtowych słowach itd.), odczytywanych z pamięci lub rejestrów przy zastosowaniu dowolnego trybu adresowania. Mikroprocesory różnią się między sobą zbiorem (listą) rozkazów oraz organizacją rejestrów. Dlatego programy napisane w języku procesora jednego typu nie mogą być wykonywane przez inny mikroprocesor.
  • Procesor, CPU (Central Processing Unit) to najważniejsza jednostka każdego komputera, będąca najczęściej pojedynczym mikroprocesorem, połączonym z płytą główną za pomocą specjalnego gniazda typu ZIF lub Slot, i składający się z jednostki arytmetyczno logicznej (ALU), jednostki sterującej i koprocesora numerycznego (FPU). Procesor ma za zadanie przetwarzać i wykonywać typowe operacje arytmetyczno logiczne, jakie dochodzą do niego poprzez pamięć operacyjną, a ilość takich operacji waha się w granicach od kilkuset do milionów na sekundę. Powszechną miarą czasu działań, wykonywanych przez procesory są mikrosekundy (1 us = 0,000001 s) i nanosekundy (1 ns = 0,000000001 s), czyli milionowe i miliardowe części sekundy. Podstawowe bloki funkcjonalne tworzące procesor to: rejestry, jednostka arytmetyczno-logiczna, układ sterowania, dekoder rozkazów, jednostka zmiennoprzecinkowa oraz umieszczana w niektórych procesorach pamięć robocza L1. Natomiast podstawowymi parametrami technicznymi są: liczba bitów np. 8,16, 32, 64 bity, szerokość szyny adresowej, lista rozkazów i częstotliwość zegara taktującego mierzona w MHz. Ogół procesorów jest obecnie wytwarzany w postaci układów o niezwykle wysokim stopniu scalenia setek tysięcy a nawet milionów tranzystorów na jednej płytce krzemu. Kupując w sklepie procesor, zwraca się zwykle uwagę na jego częstotliwość pracy, gdyż wpływa ona bezpośrednio na moc obliczeniową systemu. Wartość ta, podawana w megahercach, w dużej mierze zależy od technologii wykonania samego układu scalonego, a więc od szerokości ścieżek. Obecnie mikroprocesory wytwarzane są najczęściej w technologii 0,25 lub 0,18 mikrometra. Wszystkie współczesne CPU mają podobną architekturę wewnętrzną, opartą na superskalarnym jądrze RISC. Zgodność z listą rozkazów x86 (lub inną CISC-ową) uzyskuje się, tłumacząc instrukcje na wewnętrzny język procesora.
  • Coraz szybciej taktowane procesory wymagają coraz szybszych układów pamięci. Czas przetwarzania jednego rozkazu nie jest zwykle dłuższy od pojedynczego cyklu zegarowego (5ns przy częstotliwości 200 MHz). Na cóż może jednak zdać się taki procesor jeśli czas oczekiwania na kolejna porcję danych z pamięci wynosi np. 50 ns. Dla zlikwidowania tego wąskiego gardła wprowadzona została pamięć podręczna stanowiąca bufor o krótkim czasie dostępu (poniżej 10 ns). Rozwiązanie to jest ekonomicznie uzasadnionym kompromisem pomiędzy dużą i tanią pamięcią główną i wspierającą ją, mała i szybką i nie aż tak drogą pamięć Cache. Rozwiązanie takie jest możliwe ze względu na jedna cenną właściwość przez komputery PC kodu: jest on stosunkowo spójny. Procesor porusza się przez dłuższy czas w tym samym rejonie pamięci a nie skacze chaotycznie po całym obszarze. Analizowane rozkazy są ułożone w pamięci sekwencyjnie, a bloki danych też nie są świadomie rozpraszane po całej przestrzeni adresowej.
  • DMA jest skrótem od angielskiego Direct Memory Access oznaczającego bezpośredni dostęp do pamięci. Mowa tu oczywiście o dostępie do pamięci urządzeń peryferyjnych gdyż kontaktu z nią procesora nie należy już w żaden sposób usprawniać. Każdemu urządzeniu wejścia-wyjścia jak kontroler dysków, kontroler pamięci taśmowej itd. przyporządkowany jest jeden z kanałów DMA, tj. logicznych strumieni danych, których przepływ inicjowany jest przez procesor. Żądające obsługi urządzenie wysyła odpowiedni sygnał a kontroler DMA reaguje na to przejęciem kontroli na magistralami systemu i przeprowadzeniem odpowiedniej transmisji np. jednego sektora odczytywanego z dyskietki do bufora pamięci operacyjnej RAM. W tym czasie procesor jest wolny i może do czasu wystąpienia przerwania od kontrolera napędu dysków zajmować się obróbką tekstu czy grafiki. Należy dodać, że nie zawsze ma to wpływ na działanie programów, gdyż szyny adresowa i danych są we władaniu kontrolera DMA, a więc chcąc się odwołać do pamięci musi czekać. Sytuację ratuje w tym przypadku pamięć podręczna procesora czyli „cache memory”.  
  • Najbardziej aktywnym elementem komputera jest procesor. Niektóre z urządzeń wykonują operacje rozciągające się na wiele cykli zegarowych. Urządzenia te nie wymagają udziału procesora do wykonania powierzonych im zadań. Są to na ogół mniej lub bardziej niezależne kontrolery, często wyposażone we własny procesor. Na ogół wystarczy żeby procesor wydał jedynie polecenie wykonania pewnej operacji np. odebranie znaku przez łącze szeregowe, zapisanie sektora na dysku. Urządzenie samo zgłosi wykonanie zadania. W najbliższym dogodnym dla siebie momencie procesor przerywa realizację aktualnie wykonanego programu by przejść do realizacji procedury reagującej na zgłoszenie urządzenia. Mówimy wówczas że nastąpiło przerwanie sprzętowe. Znajduje ono zastosowanie w obsłudze urządzeń intensywnie współpracujących z pamięcią operacyjną np. łączy szeregowych i równoległych, kontrolerów dysków czy kart sieciowych. Trudno wyobrazić sobie bardziej racjonalne wyście w przypadku obsługi klawiatury, niż reagowanie na przerwanie pochodzące od sterownika klawiatury. W przeciwnym wypadku procesor wiele czasu straciłby na cykliczne „odpytywanie” klawiatury. Przy użyciu myszy klawiatura może przez bardzo długi okres nie wysyłać żadnego znaku. W przypadku konieczności odczytania sektora z twardego dysku czas potrzebny na pozycjonowanie głowicy nad żądaną ścieżką i wyszukanie odpowiedniego sektora jest o dwa rzędy większy niż czas potrzebny na samo przesłanie zawartych w tym sektorze 512 bajtów. Procesor jest więc zaangażowany w tą operację tylko w jej małym ułamku czasowym.
  • PCI Standard PCI został zaprojektowany przez niezależne stowarzyszenie producentów sprzętu komputerowego znane pod nazwą Periphearl Component Interconnect Special Group (co można przetłumaczyć jako &amp;quot; grupa inicjatywna do zadań opracowania standardu połączeń urządzeń zewnętrznych &amp;quot; w skrócie PCI SIG 1). Magistrala PCI umożliwia zarówno 32-jak i 64-bitową transmisję danych . Akceptowane poziomy napięć wynoszą +5 lub +3.3 wolta , tak więc standard PCI może być stosowany zarówno w klasycznym sprzęcie posługującym się sygnałami o poziomie +5 V , jak i w nowoczesnych systemach pracujących z obniżonym napięciem zasilania . Standard PCI z założenia jest systemem elastycznym , zdolnym do ewoluowania w miarę rozwoju konstrukcji sprzętu komputerowego i przenośnym , czyli możliwym do implementacji w innych systemach komputerowych. Magistralę PCI można sobie wyobrazić jako ścieżkę przesyłu danych biegnącą równolegle do tradycyjnej magistrali ISA , EISA lub MCA . Zarówno procesor jak i pamięć RAM połączone są bezpośrednio z liniami magistrali PCI , do której z kolei poprzez specjalny układ pośredniczący (ang. PCI bridge ) dołączona jest klasyczna magistrala ISA , EISA lub MCA . Urządzenie zewnętrzne , jak karty sterowników graficznych , dyskowych , karty dźwiękowe i inne , mogą być dołączane bezpośrednio do magistrali PCI. Aktualna specyfikacja standardu PCI dopuszcza dołączenie do niej urządzeń przez co najwyżej trzy gniazda rozszerzające. Typowa płyta główna wykorzystująca magistralę PCI będzie więc dysponowała czterema lub sześcioma gniazdami tradycyjnej magistrali ISA , EISA lub MCA , oraz dodatkowo jednym lub trzema gniazdami PCI . Ponieważ magistrala PCI prowadzona jest niejako &amp;quot;równolegle&amp;quot; do tradycyjnej magistrali zewnętrznej , możliwe jest wbudowanie jej w płytę główną o praktycznie dowolnej architekturze . Same gniazd magistrali PCI są zbliżone do gniazd używanych w standardzie MCA , nie są jednak zgodne z tym standardem. Cenną zaletą standardu ,jest łatwość rozszerzenia magistrali z 32-bitowej do 64-bitowej. Wariant 32-bitowy dysponuje maksymalną przepustowością 132 MB na sekundę , podczas gdy w trybie 64-bitowym magistrala PCI jest w stanie transmitować do 264 megabajtów na sekundę. VLB (Vesa Local Bus) Standard magistrali lokalnej został opracowany przez stowarzyszenie o nazwie Video Electronics Standards Association i obecnie jest jeszcze jedną z najpopularniejszych magistral wśród użytkowników komputerów PC. Jednak magistrala PCI jest magistralą dominującą. W chwili obecnej trudno przewidzieć który standard ostatecznie zwycięży: być może żaden . Walka ta na pewno spowodowała wyparcie już takich standardów jak ISA, MCA , EISA i pojawienie się nowego rodzaju magistrali AGP. Dopuszczalna częstotliwość zegara taktującego magistralę VL wynosi od 16 do 66 MHz , co dla większości obecnie produkowanych modeli PC zapewnia zadowalającą przepustowość . Specyfikacja standardu VL 1.0 dopuszczała częstotliwość pracy do 40 MHz , zaś w wersji 2.0 wynosi ona maksymalnie 50 MHz . Liczba urządzeń jednocześnie dołączonych do magistrali wynosi 3 dla wersji 1.0 i 10 dla 2.0 i jest niezależna od miejsca ich dołączenia ( poprzez gniazda rozszerzenia lub bezpośrednio na płycie głównej ). Maksymalna prędkość ciągłej transmisji danych wynosi 106 MB/s , zaś dla wersji 64-bitowej przewiduje się prędkość rzędu 260 MB/s . Chociaż magistrala VL została zaprojektowana i zoptymalizowana pod kątem współpracy z procesorami rodziny Intel 86 , współpracuje ona również z innymi procesorami , co pozwala na implementowanie jej w innych systemach komputerowych . Ostatnią interesującą i użyteczną cechą magistrali VESA jest możliwość współpracy urządzeń 64-bitowych z gniazdami 32-bitowymi ( urządzenie takie transmituje wówczas dane w trybie 32-bitowym ) i odwrotnie urządzeń 32-bitowych z gniazdami 64-bitowymi ( transmisja jest oczywiście również 32-bitowa ) . Specyfikacja standardu magistrali VL dopuszcza również 16-bitowe urządzenia peryferyjne i procesory ( jak np.: procesor 386SX , dysponujący 16-bitową magistralą danych ). Standard VL definiuje dwa rodzaje urządzeń współpracujących z magistralą : urządzenia podporządkowane lub bierne -- target ang. local bus target , LBT ) i urządzenia nadrzędne ( czynne ) --master ( ang. local bus master, LBM ). Urządzenie typu master może dysponować własnym procesorem i jest w stanie samodzielnie realizować transfery danych z użyciem magistrali . Urządzenie bierne potrafi jedynie realizować żądania generowane przez pracujące w systemie urządzenia master . Wreszcie urządzenie master morze być podporządkowane innemu urządzeniu master. Istotną zaletą magistrali VL jest możliwość współpracy z szerokim wachlarzem oprogramowania systemowego i użytkowego.Współpraca urządzeń VL realizowana jest całkowicie na poziomie sprzętu , co zwalnia oprogramowanie systemowe i użytkowe od konieczności integracji w przesyłanie danych . Do zasilania urządzeń dołączonych do magistrali VL używane jest napięcie +5 woltów , a maksymalna obciążalność każdego gniazda rozszerzającego wynosi 2 ampery (pobór mocy do 10 watów). Specyfikacja standardu VL dopuszcza również stosowanie urządzeń o obniżonym napięciu zasilania równym 3,3 wolta , co pozwala na wykorzystanie w systemach VL najnowszej konstrukcji mikroprocesorów i innych układów scalonych . Dodatkowe złącza magistrali VL stanowią przedłużenie klasycznych gniazd ISA , EISA lub MCA znajdujących się na płycie głównej , przy czym geometria złącz w wersji 2.0 standardu pozostaje nie zmieniona . Aby umożliwić realizację transferów 64-bitowych przewiduje się multipleksowanie sygnałów przesyłanych złączami 32-bitowymi , co pozwoli na rozszerzenie funkcjonalności złącza przy zachowaniu dotychczasowej geometrii . Gniazdo procesora Socket 5 - w gnieździe tym możemy umieścić procesory Pentium P54C. Jeżeli mamy takie gniazdo na płycie głównej, to nie możemy zainstalować w nim procesora Pentium MMX, a jedynie Pentium MMX Overdrive. Socket 7 - gniazdo do którego możemy wstawić zarówno procesory Pentium P54C, jak i Pentium P55C (MMX), a także w większości przypadków, procesory AMD K5/K6 i Cyrix M1/M2, jednak istnienie takiej możliwości najlepiej sprawdzić w instrukcji płyty głównej. Socket 8 - gniazdo to przeznaczone jest wyłącznie dla procesorów Pentium Pro. Slot 1 - tak zwane złącze krawędziowe- nowy standard montażu procesorów na płycie głównej. Przeznaczony jest do procesora Pentium II. Po zastosowaniu odpowiedniego adaptera można również włożyć doń Pentium Pro, jednak tylko w przypadku chipsetu obsługującego ten procesor. BIOS BIOS jest to skrót od &amp;quot;Basic Input Output System&amp;quot; - podstawowy system Wejścia /Wyjścia. Najniższy poziom oprogramowania komputera umożliwiający działanie innych programów i operacji wykonywanych przez komputer . BIOS jest łącznikiem między sprzętem a uruchamianymi programami. Procedura BIOS-u została zapisana w pamięci stałej komputera , w odpowiednich układach scalonych , w postaci rozkazów języka maszynowego. Procedury te można odczytać ale nie można ich zmodyfikować. (Oprogramowanie przechowywane w układach scalonych nazywa się oprogramowaniem układowym, ang. firmware). Programy znajdujące się w BIOS-ie dzielą się na dwie grupy: -programy testująco-inicjujące pracę komputera, -programy zawierające procedury sterujące różnymi elementami komputera, jak np.: napędami dyskowymi , urządzeniami wejścia/ wyjścia. BIOS steruje współpracą wszystkich podstawowych funkcji komputera z systemem operacyjnym. Troszczy się między innymi o to, by sygnały wychodzące z klawiatury przetwarzane były do postaci zrozumiałej dla procesora. BIOS posiada własną, choć niewielką pamięć, w której są zapisane informacje na temat daty, czasu oraz dane na temat wszystkich urządzeń zainstalowanych w komputerze .Po uruchomieniu komputer wyświetla informacje na temat kombinacji klawiszy, za pomocą której możliwe jest wywołanie ustawień BIOS-u. Najczęściej jest to klawisz Delete lub kombinacja Ctrl + Alt + Esc. Po wejściu do BIOS-u możliwe jest dokonywanie różnych modyfikacji, na przykład takich jak skonfigurowanie nowo zainstalowanego dysku twardego. BIOS jest zasilany przez baterie. Jeżeli komputer nie jest używany przez dłuższy czas, należy włączyć go na kilka godzin, aby odpowiednio naładować baterię. Cache Pamięć buforowa drugiego poziomu jest instalowana na płycie głónej w sposób umożliwiający jej rozbudowę. Płyty główne wyposażane są standardowo w pewną określoną ilość pamięci cache L2. Najczęściej spotykane rozmiary to 256 KB, 512 KB, 1MB, 2MB. Najważniejsze jest aby pamięć była zainstalowana (chociaż 128 KB, a najlepiej 512 KB). W efekcie następuje ogromny wzrost wydajności komputera. Zainstalowanie kolejnych kilobajtów już nie powoduje tak radykalnych przyrostów wydajności systemu (np. rozbudowa z 256 KB do 512 KB daje wzrost wydajności rzędu 5%), także koszt rozbudowy tej pamięci może okazać się niewspółmierny do wyników jakie przez to osiągniemy. Powyższe rozważania odnoszą się do pracy pod kontrolą systemów jednowątkowych. W przypadku korzystania z Windows NT, OS/2 lub Unix&apos;a (systemów wielozadaniowych) każdemu wątkowi przydzielony jest odpowiedni rozmiar bufora, tak więc korzystne jest posiadanie przynajmniej 512 KB cache L2. Chipset Chipsety są układami scalonymi stanowiącymi integralną część płyty głównej. Ich liczba może być różna i w zależności od typu waha się od jednego do kilku sztuk ( np.; SIS 5571 - pojedynczy układ, Intel 430 FX Triton - cztery układy scalone). Od strony funkcjonalnej chipset składa się z wielu modułów, których zadaniem jest integracja oraz zapewnienie współpracy poszczególnych komponentów komputera (procesora, dysków twardych, monitora, klawiatury, magistrali ISA, PCI, pamięci DRAM, SRAM i innych). Trzon każdego chipsetu stanowi: -kontroler CPU , -kontroler pamięci operacyjnej RAM, -kontroler pamięci cache, -kontroler magistral ISA, PCI i innych. Dodatkowo chipset może integrować następujące elementy: -kontroler IDE, SCSI, FDD i innych, -kontroler klawiatury (KBC), przerwań IRQ, kanałów DMA, -układ zegara rzeczywistego (RTC), -układy zarządzania energią (power management) - pojęcie to ogólnie określa grupę funkcji umożliwiających zarządzanie, a przede wszystkim oszczędzanie energii podczas pracy komputera. Głównym założeniem systemu jest redukcja poboru prądu przez urządzenia, które w danej chwili są wykorzystywane. -kontroler układów wejścia / wyjścia: Centronix, RS232, USB i innych, -kontroler takich interfejsów jak: AGP, UMA, adapterów graficznych i muzycznych. Chipsetu nie da się wymienić na nowszy, tak jak ma to miejsce w przypadku np. procesora. Decydując się na dany model, jesteśmy całkowicie uzależnieni od jego parametrów, a jedynym sposobem wymiany jest zakup nowej płyty głównej. Konfiguracja parametrów pracy poszczególnych podzespołów wchodzących w skład chipsetu zmieniana jest poprzez BIOS i zapamiętywana w pamięci CMOS komputera. Ustawienia te możemy zweryfikować, korzystając z programu usługowego BIOS-u. Producenci chipsetów starają się, aby jak najwięcej modułów było zawartych w jednym fizycznym układzie (chipie). Jest to jeden ze sposobów obniżenia kosztów produkcji płyt głównych, co ma bezpośredni wpływ na cenę gotowego komputera. Liczba chipsetów wchodzących w skład pełnej jednostki obsługującej komputer waha się od jednego układu do około 5-6. Poziom integracji jest ważny jedynie dla producentów płyt głównych. Integracja podsystemów RTC (zegar) oraz KBC (kontroler klawiatury) jest zbiegiem czysto kosmetycznym i ma na celu tylko i wyłącznie zmniejszenia kosztów produkcji przy wytwarzaniu płyt głównych. Fakt, że chipset zawiera moduły RTC/KBC , może stanowić dla nas informację o tym, iż mamy do czynienia z relatywnie nowym produktem. Producenci chipsetów dążą do jak największej integracji swoich układów oraz zwiększenia przepustowości magistral systemowych i lokalnych. Już dziś płyty główne wyposażane są w porty AGP i USB oraz zintegrowane kontrolery SCSI, a nowy chipset Intela o pseudonimie BX pracuje z częstotliwością taktowania 100 MHz. Regulator napięcia Minimalne napięcie oferowane przez starsze zasilacze komputerów PC wynosi 5 V. Z kolei nowoczesne procesory żądają napięć leżących w granicach 2,5 i 3,5 V. Z tego względu płyty główne starszej generacji w momencie wymiany procesora na nowszy wymagają pośredniej podstawki pod procesor, która jest wyposażona w regulator napięcia Złącze EIDE EIDE (Enhaced Integrated Device Equipment) - rozszerzenie standardu IDE o szybsze protokoły transmisyjne i obsługę dużych dysków (powyżej 512 MB). Określenia związane z interfejsem EIDE, zintegrowanego z każdą nowoczesną płytą główną, są nieco pogmatwane. Znani producenci dysków twardych tacy jak Western Digital (EIDE) czy Seagate lub Quantum (ATA2, ATAPI, Fast ATA) używają różnych nazw dla tych samych protokołów i funkcji. Te odmienne określenia dla interfejsów różnią się tylko trybem transmisji danych, z których jeden wyznaczany jest przez PIO-Mode, a drugi przez DMA-Mode . ATA-3 zaś oznacza najszybszy wariant omawianego interfejsu, obejmujący również funkcję dla SMART służące do wykrywania błędów w pracy napędu. Zegar czasu rzeczywistego Jest to urządzenie mające na celu utrzymanie właściwej częstotliwości magistrali czyli częstotliwości, jaką procesor otrzymuje od płyty głównej. Z taką częstotliwością pracuje również pamięć robocza oraz pamięć podręczna drugiego poziomu. W przypadku komputerów z jednostką Pentium spotyka się zwykle 50 do 66, a komputery z procesorami klasy 486 pracują najczęściej przy 33MHz, rzadziej przy. Częstotliwość magistrali PCI jest w większości przypadków bezpośrednio zależna od tej częstotliwości, ponieważ często przyjmuje wartość połowy częstotliwości zewnętrznej. Gniazdo pamięci SIMM Jest to gniazdo w którym umieszcza się &amp;quot;kości&amp;quot; pamięci SIMM (Single-Inline Memory Module) - standard konstrukcyjny o 32 stykach; szyna danych ma szerokość zaledwie 8 bitów. Pojęcie to czasem używane jest również w odniesieniu do modułów PS/2. Gniazdo pamięci DIMM Jest to gniazdo w którym umieszcza się &amp;quot;kości&amp;quot; pamięci DIMM (Dual-Inline Memory Module) - moduły pamięci na karcie ze 168 stykami. Pracują z szyną adresową o szerokości 64 bitów. Złącze napędów dyskietek Jest to złącze mające na celu połączenie napędu dyskietek z płytą główną. W tym przypadku mogą być podłączone do jednego złącza dwa napędy stacji dysków elastycznych, co i tak w dzisiejszych czasach jest wystarczające. Gniazdo zasilania Jest to gniazdo poprzez które doprowadzone jest napięcie zasilające całą płytę główną i umieszczone na niej elementy. W przypadku płyt AT mamy do czynienia z gniazdem dwuwtykowym, co może doprowadzić przy błędnym ich zamocowaniu do uszkodzenia płyty. Płyty standardu ATX tej wady nie posiadają.
  • Procesor (CPU - centralna jednostka wykonawcza) to uklad scalony, którego dzialanie polega na wykonywaniu instrukcji programów. Nadzoruje on i synchronizuje prace wszystkich urzadzen w komputerze. Charakterystyczne cechy, które odrózniaja procesory od siebie to: architektura (CISC lub RISC) liczba bitów przetwarzana w jednym takcie czestotliwosc taktowania podawana w MHz Wszystkie wspólczesne procesory maja podobna architekture oparta na superskalarnym jadrze RISC (arcitektura procesora o uproszczonej liscie rozkazów). Jeszcze kilka lat temu procesory zaliczano do rodziny CISC (architektura procesora wykorzystujaca zlozona liste rozkazów). Dzisiaj, dzieki zastosowaniu w nich techniki przekodowywania rozkazów, uzyskano ogromne zwiekszenie wydajnosci procesora, a RISC-owa konstrukcja umozliwia stosowanie wysokich czestotliwosci zegara. Zasada dzialania Ze wzgledu na przeplyw danych i rozkazów w procesorze, mozna wyróznic w nim kilka zasadniczych modulów: 1.      Blok wstepnego pobierania i dekodowania instrukcji. Odpowiada on za dostarczenie kolejnych polecen z pamieci operacyjnej i przekazanie ich do odpowiedniej jednostki wykonawczej. 2.      Glówny blok wykonawczy to jednostka arytmetyczno-logiczna ALU. Zapewnia ona prawidlowe przetworzenie wszystkich danych staloprzecinkowych. ALU wyposazony jest w niewielka zintegrowana pamiec, nazywana zestawem rejestrów. Kazdy rejestr to pojedyncza komórka uzywana do chwilowego przechowywania danych i wyników. 3.      FPU, czyli koprocesor wykonujacy wszystkie obliczenia zmiennoprzecinkowe 4.      Po zakonczeniu &amp;quot;obliczen&amp;quot; dane bedace wynikiem przetwarzania trafiaja do modulu wyjsciowego procesora. Jego zadaniem jest przekierowanie nadchodzacych informacji np. do odpowiedniego adresu w pamieci operacyjnej lub urzadzenia wejscia/wyjscia. Dodatki multimedialne Producenci nowoczesnych procesorów za podstawowy kierunek rozwoju technologicznego obrali rozszerzenie multimedialnych mozliwosci ukladu. Poszerzone listy rozkazów operujace na stalo- i zmiennoprzecinkowych macierzach znaczaco przyspieszaja obróbke grafiki, dzwieku czy generowanie obrazów 3D. MMX Pierwszym wprowadzonym rozszerzeniem multimedialnym, wbudowanym we wszystkie obecnie produkowane modele procesorów, jest zestaw 57 instrukcji arytmetyki staloprzecinkowej typu SIMD, znany pod nazwa MMX.   3DNow! Firma AMD wprowadzila 21 nowych instrukcji zmiennoprzecinkowych typu SIMD-FP zorientowanych na wspomaganie grafiki trójwymiarowej. Byl to pierwszy przypadek wprowadzenia tak istotnych zmian do architektury procesora przez firme inna niz Intel. SIMD-FP procesorów AMD wykorzystuje do dzialania polaczone w pary 64-bitowe rejestry MMX - co niestety, utrudnia automatyczna optymalizacje kodu programu, gdyz wymagany jest podzial danych na dwa segmenty.   SSE Równiez Intel wprowadzil w swoich procesorach Pentium III, instrukcje zminnoprzecinkowe SIMD-FP. Instrukcje te sa wykonywane przez wyspecjalizowana jednostke operujaca na osmiu 128-bitowych dedykowanych rejestrach - co sprzyja optymalizacji kodu programu.
  • SIMM FPM FPM (Fast Page Mode) - pamięć w modułach jest dzielona na strony, wiersze, i kolumny. Procesor odwołując się do wybranej komórki musi przekazać jednostce zarządzania adres wiersza i kolumny. W modułach FPM przy odczycie bądź zapisie kolejnych komórek (w ramach jednego rzędu) każdorazowo podawany jest adres każdej z kolumn. EDO RAM (Extended Data Output Random Access Memory) - moduły te funkcjonują na podobnej zasadzie co FPM, jednak adresowanie następnej w kolejności komórki jest tu możliwe już w trakcie odczytywania danych z poprzedniej co w konsekwencji przyczynia się do zwiększenia szybkości odczytu danych o jakieś 10 do 15%. Pamięci tego typu stosowane są w komputerach zarówno jako pamięć operacyjna, jak i jako pamięć kart graficznych. SDRAM (Synchronous Dynamic Random Access Memory) - to zsynchronizowana z taktem zegara systemowego pamięć operacyjna typu DRAM, dzięki czemu radykalnie została zwiększona szybkość transmisji danych między pamięcią a procesorem, oraz skrócony został czas dostępu (odczytu) do około 10 ~ 12 nanosekund. Pamięci tego typu stosowane są w komputerach zarówno jako pamięć operacyjna, jak i jako pamięć kart graficznych. W nowoczesnych komputerach PC pamięć SDRAM montowana jest najczęściej w postaci 64-bitowych (bez parzystości czy korekcji błędów) lub 72-bitowych modułów (z parzystością i korekcją błędów) DIMM. Jej najszybsze odmiany działają z prędkością 100 lub 144 MHz, (tzw. moduły PC100). RDRAM ( Rambus DRAM) - oparty jest na technologii wąskiej i szybkiej 8-bitowej magistrali danych ASIC oraz na właściwym module RDRAM (Rambus Dynamic Random Access Memory). Moduł RDRAM obsługuje częstotliwość taktowania zewnętrznego do 250 MHz i pozwala na przesyłanie danych z prędkością zbliżoną do 400 MB/s. Tak duża szybkość możliwa jest do osiągnięcia w modułach Rambus DRAM dzięki krótkim ścieżkom sygnałów oraz bardzo niskiemu napięciu zasilania równemu 0,6 V. 30-pinowe SIMM typu FPM Używane były w komputerach z procesorem klasy 486. W układach tych poszczególne komórki tworzyły matryce pogrupowane na tzw. strony. W chwili gdy potrzebne systemowi dane znajdowały się na tej samej stronie, część adresu wskazującą na nią wystarczyło podać raz, a później przekazywać jedynie numery potrzebnych komórek. Niestety przy czasie dostępu rzędu 60–70 nanosekund układy te już dawno osiągnęły kres swoich możliwości.   SIMM PS/2 EDO 72-pinowe SIMM PS/2 typu EDO Rozwiązaniem, które na pewien czas zagościło w naszych komputerach, stały się kości EDO. Dzięki prostej sztuce, polegającej na zastosowaniu dodatkowego buforowania, uzyskano możliwość podtrzymywania informacji na wyjściu danych, gdy w tym czasie na wejściu adresowym mógł się już pojawić adres nowej komórki pamięci. W efekcie dostęp do następnej porcji informacji był realizowany w trakcie odczytu poprzedniej, czyli – szybciej. Uzyskany w ten sposób 10–20 procentowy wzrost wydajności wystarczył na jakiś czas, jednak nie na długo. Potrzebna była nowa jakość, nowa technologia, którą zapewniły dopiero pamięci SDRAM.   DIMM SDRAM 168-pinowy DIMM typu SDRAM Pamięci typu FPM oraz EDO pracowały asynchronicznie, co oznacza, że nie były taktowane zewnętrznym zegarem, a informacja ukazywała się &amp;quot;po jakimś czasie&amp;quot;. Natomiast pamięć SDRAM pracuje synchronicznie, czyli udostępnia informacje zgodnie z taktem zewnętrznego zegara. Dzięki tej metodzie oraz wewnętrznej dwubankowej konstrukcji kości uzyskały czas dostępu rzędu 15 nanosekund – wystarczający do pracy z częstotliwością 66MHz. Z czasem pojawiły się SDRAM-y 12 nanosekundowe, a później – w chwili wprowadzenia na rynek pierwszych procesorów współpracujących z szyną 100 MHz – 10 nanosekundowe, zgodnie ze specyfikacją PC–100.   DDR SDRAM 184-pinowy DDR typu SDRAM Rozwinięciem konstrukcji SDRAM-ów są pamięci DDR SDRAM, w których dane przesyłane są na obydwu zboczach sygnału zegarowego. Oznacza to,  że przy ustawionej częstotliwości pracy płyty głównej np. 133MHz pamięć ta pracuje efektywnie z podwojoną częstotliwością czyli 266MHz.   RIMM RDRAM   Opracowane przez kalifornijską firmę RAMBUS. Odczyt danych realizowany jest częściowo sekwencyjnie, co wynika z podzielenia matrycy DRAM na osiem jednakowych części. W jednym takcie zegarowym zostaje odczytana informacja tylko z pojedynczego bloku pamięci. Kolejne dane z następnego banku pobierane są przy późniejszych cyklach zegarowych. Po odczytaniu wszystkich ośmiu bitów dane są &amp;quot;wysyłane&amp;quot; na zewnątrz pamięci w postaci pojedynczego pakietu. Przy stosowanym obecnie 400MHZ zegarze płyty głównej (efektywne 800Mhz) i 16 bitowej szynie danych przepustowość Rambusów wynosi 1,6 GB/s (3,2GB/s.). Olbrzymia szybkość pamięci zostaje jednak okupiona przedłużonym czasem dostępu do danych.
  • Jej zadaniem jest przetwarzanie danych podawanych przez komputer do postaci zrozumiałej dla monitora .Liczba wyświetlanych jednocześnie kolorów zależy od możliwości zainstalowanej w komputerze karty graficznej. Naturalnie wraz ze wzrostem liczby kolorów maleje szybkość przetwarzania obrazu. Rozdzielczość obrazu mówi o tym, z ilu punktów (pikseli) się on składa. Jej wartością jest liczba punktów obrazu w linii pomnożona przez liczbę linii. Im wyższa jest ta wartość, tym ostrzejszy obraz możemy uzyskać. Za standard w Windows przyjmuje się rozdzielczość 800/600 punktów. Żaden komputer PC nie nadaje się do pracy bez karty graficznej. Jakość obrazu zależy przede wszystkim od jego częstotliwości odświeżania: im częściej odświeżany jest w czasie jednej sekundy obraz, tym spokojniej jest on postrzegany przez ludzkie oko(nie zauważalne jest migotanie obrazu). Częstotliwość odświeżania obrazu mierzona jest w hercach. Aby otrzymać w pełni stabilny obraz , konieczne jest co najmniej 72-krotne (72 Hz ) odświeżenie obrazu w ciągu każdej sekundy.   Karta rozszerzeń, umiejscawiana na płycie głównej poprzez gniazdo PCI lub AGP, która odpowiada w komputerze za obraz wyświetlany przez monitor.Karty graficzne różnią się między sobą szybkością pracy, wielkością pamięci RAM, wyświetlaną rozdzielczością obrazu, liczbą dostępnych kolorów oraz częstotliwością odświeżania obrazu.  Każda karta graficzna składa się z czterech podstawowych elementów: płytki drukowanej, głównego procesora, pamięci wideo i układu RAMDAC (który często jest zintegrowany z procesorem w jednej obudowie) Procesor        Procesor na karcie graficznej wspomaga setki różnych funkcji, z trójwymiarowymi włącznie. Układy takie pomagają procesorowi komputera rysować linie, trójkąty, prostokąty, potrafią wygenerować obraz trójwymiarowy, pokryć go odpowiednią tzw. teksturą (powierzchnią), stworzyć efekt mgły itd. Procesor karty graficznej komunikuje się z pamięcią wysyłając i pobierając z niej informacje o obrazie w tzw. paczkach, przy czym wielkość tych paczek zależy od procesora karty. Procesory 64-bitowe wysyłają paczki 64-bitowe (8-bajtowe), za  128-bitowe paczki 16 bajtowe.To czy procesor jest 64-bitowy czy 128-bitowy, praktycznie nie powoduje dwukrotnej różnicy prędkości na korzyść układów 128-bitowych. Przewaga zaczyna być widoczna przy pracy w wyższych rozdzielczościach. Pamięć wideo         Każda karta graficzna ma własną pamięć RAM, w której przechowuje potrzebne informacje o obrazie. Obecnie wielkość tej pamięci to średnio 8 MB (jeszcze do niedawna przeciętna pamięć wynosiła 512 Kb), a coraz częściej 16 lub 32 Mb. W pamięci tej przechowywane są dane o każdym punkcie obrazu, a także tekstury (w postaci map bitowych) oraz dane o głębi (z pamięci jest w tym celu wydzielany tzw. bufor Z). Układ ramdac         Układ RAMDAC pobiera dane o obrazie wygenerowanym przez procesor karty graficznej. Dane te są w postaci zbioru różnokolorowych punktów. Następnie RAMDAC zamienia je na sygnały analogowe i wysyła do monitora. Im szybszy RAMDAC, tym więcej potrafi wysłać informacji w ciągu sekundy co ma bezpośredni wpływ na częstotliwość odświeżania (jest to liczba pojedynczych obrazów, jakie wyświetla monitor w ciągu sekundy. Częstotliwość 60Hz oznacza, że w ciągu sekundy na ekranie monitora rysowanych jest 60 pełnych obrazów. Oko ludzkie przestaje odróżniać &amp;quot;skoki&amp;quot; między obrazami już przy szybkości ok. 25 obrazów na sekundę, więc częstotliwość 60 Hz wydawałaby się aż za duża. Jak się okazuje w praktyce, przy 60Hz prawie nie widać migotania obrazu, ale nasze oczy się męczą. Dlatego do pracy przy komputerze powinnimy ustawiać częstotliwość co najmniej 75Hz, zaś im więcej tym lepiej. Warto przy tym wiedzieć, że ustawienie częstotliwości większej niż 85Hz nie ma już wpływu na nasz wzrok. 
  • Karta rozszerzeń pozwalająca na odgrywanie oraz nagrywanie na komputerze dźwięku w formie plików muzycznych. Karty muzyczne umożliwiają także podłączenie do nich głośników, wzmaczniacza, mikrofonu oraz urządzeń MIDI. Obecnie w prawie każdym pececie znajduje się jakaś karta dźwiękowa. Najważniejszą jej częścią składową, jest przetwornik A/D-D/A (analog/digital-digital/analog), zmieniający sygnał analogowy w cyfrowy i odwrotnie, odpowiedzialny za nagrywanie i odtwarzanie plików WAV. Proces nagrywania nazywany jest samplingiem. Poziom (głośność) sygnału wejściowego, pochodzącego np. z mikrofonu lub wejścia LINE IN jest mierzony w określonych odstępach czasu, zaś wynik pomiaru zapisywany w pliku WAV. Znajduje się w nim również informacje o parametrach nagrania, mających wpływ na jakość dźwięku i zapotrzebowanie na wolne miejsce na dysku. Są to: Rozdzielczość: określa, czy wartości pomiarowe zapisywane w pliku WAV mają zajmować 1 czy 2 bajty (8 czy 16 bitów). W jednym bajcie można zapisać wartości od 0 do 255, natomiast w dwóch bajtach wartości od 0 fo 65535. Obecnie nawet najtańsze na rynku karty są już 16 bitowe. Częstotliwość próbkowania : odstępy czasowe, w których dokonywany jest pomiar poziomu sygnału wejściowego. Częstotliwość próbkowania podawana jest w kilohercach(kHz), 1 kHz odpowiada 1000 pomiarów na sekundę. Najczęściej spotyka się karty próbkujące z częstotliwościami 8, 11, 22, 44,1, 48 kHz. Najwyższy ton, jaki można nagrać odpowiada połowie wartości częstotliwości próbkowania. W przypadku karty posiadającej częstotliwość 44,1 kHz będzie to ok. 22000Hz. Ucho ludzkie potrafi odbierać dźwięki o częstotliwości do ok. 17000 Hz. Syntezator MIDI W przeciwieństwie do przedstawionego powyżej układu analogowego syntezator nie reprodukuje dźwięków nagranych wcześniej, lecz sam je wytwarza, korzystając z parametrów i listy nagrań (plików MIDI). W zależności od kart można uzyskiwać dźwięki stosując jedną z dwóch technik: Synteza FM : przekształca polecenia programowe na dźwięki poprzez generowanie napięć elektrycznych (krzywe o przebiegach sinusoidalnych, piłokształtnych czy prostokątnych). Poprzez manipulację głośnością oraz nakładanie wielu krzywych próbuje się naśladować brzmienie prawdziwych instrumentów, co jednak niezbyt się udaje. Synteza WAVETABLE : jest nowocześniejszą i bardziej zbliżoną brzmieniowo do oryginalnych instrumentów. W procesie syntezy falowej procesor wykorzystuje cyfrową próbkę (sample) dźwięku danego instrumentu, przechowywaną najczęściej w postaci pliku WAV w specjalnym układzie pamięci ROM. W niektórych kartach zastosowano inne rozwiązanie: próbkę można wczytać z dysku do pamięci RAM. W zależności od &amp;quot;wytycznych&amp;quot; z pliku MIDI, plik WAV przeliczany jest na dźwięk o odpowiedniej wysokości i długości. Budowa karty dźwiękowej Do niedawna karty dźwiękowe współpracowały jedynie z magistralą ISA. W dzisiejszych komputerach podstawową szyną danych stała się szyna PCI. W konsekwencji większość modeli kart jest dostępna na rynku w wersji PCI. Do komunikacji z pecetem, każda karta dźwiękowa potrzebuje co najmniej trzech zasobów: adresu I/O, przerwania oraz kanału DMA. Za pomocą adresu I/O komputer kontaktuje się z kartą, gdy chce jej przekazać rozkazy. Z kolei karta zgłasza pecetowi potrzebę przesłania danych poprzez odpowiednie przerwanie.
  • Budowa Dysk twardy składa się z następujących części: -obudowy , której zadaniem jest ochrona znajdujących się w niej elementów przed uszkodzeniami mechanicznymi a także przed wszelkimi cząsteczkami zanieczyszczeń znajdujących się w powietrzu. Jest to konieczne, gdyż nawet najmniejsza cząstka &amp;quot;kurzu&amp;quot; ma wymiary większe niż odległość pomiędzy głowicą a powierzchnią nośnika, tak więc mogłaby ona zakłócić odczyt danych, a nawet uszkodzić powierzchnię dysku. -elementów elektronicznych , których celem jest kontrola ustalenia głowicy nad wybranym miejscem dysku, odczyt i zapis danych oraz ich ewentualna korekcja. Jest to w zasadzie osobny komputer, którego zadaniem jest &amp;quot;jedynie&amp;quot; obsługa dysku. -nośnika magnetycznego , umieszczonego na wielu wirujących &amp;quot;talerzach&amp;quot; wykonanych najczęściej ze stopów aluminium. Zapewnia to ich niewielką masę, a więc niewielką bezwładność co umożliwia zastosowanie silników napędowych mniejszej mocy, a także szybsze rozpędzanie się &amp;quot;talerzy&amp;quot; do prędkości roboczej. -elementów mechanicznych , których to zadaniem jest szybkie przesuwanie głowicy nad wybrane miejsce dysku realizowane za pomocą silnika krokowego. Wskazane jest stosowanie materiałów lekkich o dużej wytrzymałości co dzięki małej ich bezwładności zapewnia szybkie i sprawne wykonywanie postawionych zadań. Opisane elementy można zobaczyć na zdjęciu obok. Wydajność Na komfort pracy z systemem komputerowym duży wpływ ma wydajność dysku twardego. Efektywna prędkość z jaką dysk dostarcza dane do pamięci komputera, zależy od kilku podstawowych czynników. Największy wpływ na wydajność mają elementy mechaniczne, od których nawet najwolniejsza elektronika jest o dwa rzędy wielkości szybsza. Fundamentalne znaczenie ma prędkość ustawiania głowicy nad wybraną ścieżką, ściśle związana ze średnim czasem dostępu. Równie istotnym parametrem jest prędkość obrotowa dysku, rzutująca na opóźnienia w dostępie do wybranego sektora i prędkość przesyłania danych z nośnika do zintegrowanego z dyskiem kontrolera. Dopiero w następnej kolejności liczy się maksymalna prędkość transferu danych do kontrolera czy wielkość dyskowego cache&apos;u. Ogromne znaczenie ma prędkość obrotowa dysku. Zależność jest prosta: im szybciej obracają się magnetyczne talerze, tym krócej trwa wczytanie sektora przy takiej samej gęstości zapisu. Mniejsze jest także opóźnienie, czyli średni czas oczekiwania, aż pod ustawionym nad właściwym cylindrem głowicą &amp;quot;przejedzie&amp;quot; oczekiwany sektor. W przeciwieństwie do nowoczesnych CD-Rom&apos;ów dyski twarde obracają się ze stałą prędkością, osiągając od 3600 do 7200 rpm (revolutions per minute). Lepszym pod względem prędkości obrotowej okazał się model firmy Seagate, Cheetah ST34501- pierwszy dysk na świecie wirujący z prędkością 10000 obr/min. Pierwsze, zewnętrzne ścieżki są wyraźnie dłuższe od położonych w osi dysku. W nowoczesnych napędach są one pogrupowane w kilka do kilkunastu stref, przy czym ścieżki w strefach zewnętrznych zawierają więcej sektorów. Ponieważ dysk wczytuje całą ścieżkę podczas jednego obrotu, prędkość transferu danych na początkowych obszarach dysku jest największa. W związku z tym informacje podawane przez prostsze programy testujące transfer dysku są często zbyt optymistyczne w stosunku do rzeczywistej średniej wydajności napędu. Media transfer rate- prędkość przesyłania danych z nośnika do elektroniki dysku zależy od opóźnień mechanicznych oraz gęstości zapisu. Gęstość tę równolegle do promienia dysku mierzy się liczbą ścieżek na cal (TPI), zaś prostopadle (wzdłuż ścieżki) obrazuje ją liczba bitów na cal (BPI). Obie wartości można wydatnie zwiększyć stosując technologię PRML. Technologia PRML Większość napędów jeszcze do niedawna podczas odczytu danych używała techniki zwanej peak detection (wykrywanie wartości ekstremalnych). W miarę wzrostu gęstości zapisu rozróżnienie sąsiednich wartości szczytowych sygnału od siebie nawzajem i od tak zwanego tła stawało się coraz trudniejsze. Problem ten rozwiązywano wstawiając pomiędzy sąsiadujące szczyty (&amp;quot;jedynki&amp;quot;) rozdzielające chwile ciszy (&amp;quot;zera&amp;quot;). Takie postępowanie sprowadzało się do kodowania zerojedynkowych ciągów za pomocą ciągów bardziej przejrzystych, czyli łatwiej identyfikowalnych, lecz z konieczności dłuższych. To oczywiście obniżało efektywną gęstość zapisu, a w konsekwencji także wydajność napędu. Z pomocą przyszła opracowana na potrzeby długodystansowej komunikacji w przestrzeni kosmicznej technologia PRML (Partical Response Maximum Likelihood). Pochodzący z głowicy odczytującej analogowy sygnał jest próbkowany i zamieniany na postać cyfrową. Uzyskaną w ten sposób próbkę analizuje się algorytmem Viterbi. Sprawdza on wszystkie kombinacje danych, które mogły wygenerować zbliżony ciąg i wybiera tę najbardziej prawdopodobną. Najlepsze efekty daje połączenie technologii PRML z magnetorezystywną głowicą odczytującą ze względu na dobrą jakość generowanego przez nią sygnału analogowego. Głowica magnetorezystywna (MRH) wykorzystuje inne zjawisko fizyczne niż standardowe głowice, zbliżone konstrukcją do stosowanych w zwykłych magnetofonach. Element czytający MRH jest wykonany z substancji zmieniającej oporność w polu magnetycznym, więc namagnesowanie bezpośrednio rzutuje na natężenie płynącego przez głowicę MR prądu. Istotną zaletą technologii MR jest większa czułość, pozwalająca na radykalne zwiększenie gęstości zapisu, a co za tym idzie - wzrost pojemności napędu przy zachowaniu jego rozmiarów. Dyski twarde korzystające z kombinacji technologii PRML z głowicami MR charakteryzują się największą dziś gęstością zapisu. System Wydajność dysku w dużej mierze zależy także od rozwiązań zastosowanych w samym komputerze i kontrolującym go systemie operacyjnym. Znaczenie ma prędkość procesora, wielkość pamięci operacyjnej i cache&apos;u, prędkość transferu danych o pamięci czy narzut czasowy wprowadzany przez BIOS. Zastosowany system plików do &amp;quot;czystego&amp;quot; czasu transferu zbiorów dokłada swoje narzuty związane z administracją zajętym i wolnym miejscem na dysku. Źle dobrany, lub zbyt mały lub za duży rozmiar programowego bufora dyskowego również może wyraźnie wydłużyć czas reakcji dysku. Interfejs Od dawna trwają spory na temat &amp;quot;wyższości&amp;quot; jednego z dwóch najpopularniejszych interfejsów IDE (ATA) i SCSI. Nie ulegają jednak wątpliwości podstawowe wady i zalety każdego z nich. Interfejs IDE zdobył ogromną popularność ze względu na niską cenę zintegrowanego z napędem kontrolera, praktycznie dominujący rynek komputerów domowych. Jego pozycję umocniło się pojawienie się rozszerzonej wersji interfejsu - EIDE. Zwiększono w niej liczbę obsługiwanych urządzeń z 2 do 4, zniesiono barierę pojemności 540 MB, wprowadzono też protokół ATAPI umożliwiający obsługę innych napędów, np. CD-ROM. Maksymalna przepustowość złącza wzrosła z 3,33 MB/s do 16,6 MB/s, znacznie przekraczając możliwości dzisiejszych napędów. Limit ten uległ kolejnemu przesunięciu w momencie pojawienia się specyfikacji Ultra DMA/33, zwiększającej przepustowość do 33,3 MB/s. Interfejs SCSI pozwalający na obsługę początkowo 7, a później 15 urządzeń, znalazł zastosowanie głównie w serwerach i systemach high-end, wymagających dużych możliwości rozbudowy. Do jego zalet należy możliwość obsługi różnych urządzeń (nagrywarek, skanerów, napędów MOD, CD-ROM i innych). Urządzenia pracujące z różną prędkością nie przeszkadzają sobie tak bardzo, jak w przypadku złącza IDE. Wadą interfejsu SCSI jest natomiast jego wyraźnie większa komplikacja, a w konsekwencji cena samych napędów i kontrolerów. Pierwsza wersja SCSI pozwalała na maksymalny transfer 5 MB/s, wkrótce potem wersja FAST SCSI-2 zwiększyła tę wartość do 10 MB/s. Kolejny etap rozwoju standardu SCSI to rozwiązanie Ultra SCSI. Jego zastosowanie podnosi maksymalną prędkość transferu danych FAST SCSI-2 z 10 na 20 MB/s. Transfer w 16 bitowej technologii Wide wzrasta również dwukrotnie - z 20 MB/s dla Fast Wide SCSI-2 do 40 MB/s w przypadku Ultra Wide SCSI-2. Obecnie spotyka się trzy rodzaje złączy służących do podłączania dysków SCSI. Najlepiej znane jest gniazdo 50-pinowe, przypominające wyglądem złącze IDE, lecz nieco od niego dłuższe i szersze. Złączami tego typu dysponują dyski z najstarszymi, 8 bitiwymi interfejsami. Napędy wyposażone w 16 bitowe interfejsy Wide można rozpoznać po charakterystycznym gnieździe o trapezoidalnym kształcie, do którego dołącza się 68-pinową taśmę sygnałową. Wydajność dzisiejszych napędów nie przekracza możliwości żadnego z interfejsów. Prawdą jest jednak, że SCSI znacznie lepiej sprawdza się w środowiskach wielozadaniowych. Poza tym najszybsze dyski o prędkości obrotowej 7200, a ostatnio i 10000 rpm wykonywane są tylko w wersjach z najszybszymi mutacjami interfejsu SCSI - Ultra Wide. Najszybsze z dysków ATA osiągają &amp;quot;zaledwie&amp;quot; 5400 rpm, co nie daje im równych szans. Słowniczek do dysku twardego Pratycja (partition) obowiązkowy poziom organizacji przestrzeni dyskowej. Partycje dzielą dysk twardy na rozłączne obszary, którym system operacyjny przypisuje litery napędów. Rozróżniamy przy tym partycje pierwotne (primary) i rozszerzone (extended). Pliki systemowe, uruchamiające system operacyjny muszą znajdować się na jednej z partycji pierwotnych- tych ostatnich może być maksymalnie cztery. Natomiast liczba partycji rozszerzonych jest praktycznie nieograniczona. Aby z którejś z partycji pierwotnej można było załadować system operacyjny trzeba ją uaktywnić. Można do tego celu użyć albo DOS-owego programu FDISK albo programu zarządzającego inicjalizacją komputera (bootmanager). Informacje o wielkości i rodzaju partycji przechowuje tabela partycji w pierwszym sektorze dysku. Klaster (cluster) jednostka alokacji, najmniejsza logiczna jednostka zarządzana przez FAT i inne systemy plików. Fizycznie klaster składa się z jednego lub kilku sektorów. FAT (File Allocation Table) tabel alokacji plików, która powstaje przy formatowaniu partycji dosowym rozkazem &amp;quot;format&amp;quot;. FAT przechowuje informacje o odwzorowaniu plików na numery klastrów. Ścieżki (tracks) koncentrycznie położone okręgi na każdym talerzu twardego dysku, które podzielone są z kolei na sektory. Cylindry (cylindres) zbiór wszystkich sektorów dysku twardego, osiągalnych bez przemieszczenia głowicy. Termin często lecz błędnie, stosowany jako zamiennik ścieżki- także w setupie BIOS&apos;u. Sektory (sectors) najmniejsze adresowalne jednostki na twardym dysku. Całkowitą liczbę sektorów otrzymujemy, mnożąc liczbę głowic przez liczbę ścieżek razy liczbę sektorów na ścieżce. Geometria napędu sposób podziału dysku na cylindry, sektory, ścieżki i głowice. Zwykle rzeczywista (fizyczna) geometria napędu przeliczana jest przez elektronikę napędu w łatwiejszą do zarządzania geometrię logiczną. IDE (Integrated Device Equipment) przestarzały już dzisiaj standard interfejsu dla dysków twardych AT-Bus. EIDE (Enhaced Integrated Device Equipment) rozszerzenie standardu IDE o szybsze protokoły transmisyjne i obsługę dużych dysków (powyżej 512 MB). Określenia związane z interfejsem EIDE, zintegrowanego z każdą nowoczesną płytą główną, są nieco pogmatwane. Znani producenci dysków twardych tacy jak Western Digital (EIDE) czy Seagate lub Quantum (ATA2, ATAPI, Fast ATA) używają różnych nazw dla tych samych protokołów i funkcji. Te odmienne określenia dla interfejsów różnią się tylko trybem transmisji danych, z których jeden wyznaczany jest przez PIO-Mode, a drugi przez DMA-Mode. ATA-3 zaś oznacza najszybszy wariant omawianego interfejsu, obejmujący również funkcję dla SMART służące do wykrywania błędów w pracy napędu. PIO-Mode tryb programowo kontrolowanego wprowadzania i wyprowadzania danych (program I/O) w jakim napęd pracuje, decyduje o szybkości przesyłania danych między dyskiem a pamięcią. W standardzie ATA teoretyczna prędkość transmisji waha się pomiędzy 3,3 (Mode 0) a 8,3 (Mode 2) MB/s. ATA-2 osiąga w trybie Mode 3 11,1 MB/s, a w trybie Mode 4 nawet 16,6 MB/s. DMA-Mode (Direct Memory Access) bezpośredni dostęp do pamięci, oznacza, że dane między pamięcią operacyjną a dyskiem twardym są przesyłane bez udziału procesora. Elegancko i szybko działa to zresztą tylko z interfejsem PCI wbudowanym w nowoczesne płyty główne. Dotychczasowe chipsety osiągają przepustowość danych sięgającą 16,6 MB/s w przypadku ATA-2, zaś nowsze wspierają już Ultra DMA/33 i dochodzą do 33,3 MB/s. SMART (Self Monitoring Analysis And Reporting Technology) nowa technika diagnostyczna, pozwalająca na rozpoznanie błędów w napędach dyskowych powstających w trakcie ich pracy. Zadaniem jej i współpracujących z nią narzędzi jest ostrzeganie w porę o grożącej utracie danych. ATAPI (At Attachment Packet Interface) protokół pomiędzy interfejsem EIDE i podłączonymi do niego urządzeniami peryferyjnymi. ULTRA ATA najnowsza wersja specyfikacji ATA dopuszczająca transfer danych z prędkością 33,3 MB/s; wymaga by komputer był zgodny ze specyfikacją ULTRA DMA/33. SCSI (Small Computer System Interface) standard dla interfejsów urządzeń i magistral systemowych o dużej prędkości transmisji. Systemy magistrali SCSI mają różne szerokości szyny. SCSI 2 ostatni oficjalnie ogłoszony przez ANSI standard; opisuje złącza z 8 bitową szyną danych, prędkość transferu 20 MB/s, definiuje komunikaty SCSI i strukturę komend. Fast SCSI zgodny ze SCSI 2 tryb transmisji danych z prędkością 10Msłów/s. Oznacza to że informacje są wystawiane na szynę z częstotliwością 10 MHz. Jeśli szyna danych ma szerokość 8 bitów transfer wynosi 10 MB/s, dla szyny 16 bitowej jest to 20 MB/s. Wide SCSI implementacja SCSI z szyną danych o szerokości 16 bitów; zastosowanie dwukrotnie większej szerokość magistrali danych oznacza automatycznie wyższą prędkość przesyłania danych.
  • W 1994 r. po ukazaniu się pierwszych napędów CD-ROM, firmy zaczęły szukać nowej technologii pozwalającej na udoskonalenie płyty kompaktowej. W tym okresie powstały dwa odrębne projekty. Jednemu z nich przewodniczyła Toshiba, która zaproponowała zwiększenie gęstości zapisu i wykorzystanie obu stron istniejących krążków. W ten sposób powstały płyty SD (SuperDensity). Na czele drugiej grupy stanął Philips i Sony. Ich rozwiązanie nazwane MMCD (MultiMedia CD) zakładało stworzenie dwóch lub więcej warstw na jednej stronie płyty, zaś dane odczytywane miały być przez wiązkę laserową o zmiennej długości fali. Przedstawiony stan rzeczy nie trwał zbyt długo. Pod koniec 1994 roku, aby uniknąć kreowania odrębnych formatów firmy zgodziły się na połączenie swoich myśli technicznych. W ten sposób powstał projekt dysku DVD - dwustronnego, dwuwarstwowego zapisu o wysokiej gęstości. Napędy DVD-ROM odczytują kolejno z wewnętrznej i zewnętrznej warstwy płyty. Początkowo obszar zastosowań dla nowego nośnika widziano głównie w przemyśle filmowym, maksymalna pojemność 17 GB pozwalała bowiem na nagranie 481 minut w formacie MPEG-2 z trzema ścieżkami audio. Nowy standard kompresji wymaga dużych mocy obliczeniowych do odkodowania informacji, dlatego komputerowe napędy DVD-ROM sprzedawane są ze specjalnymi kartami. W standardowych odtwarzaczach wszystkie niezbędne komponenty montowane są w jednej obudowie. Szybko okazało się, że pojemności oferowane przez płyty DVD idealnie nadają się także do zastosowań rynku komputerowego. Dlatego też pierwotna nazwa Digital Video Disk kojarzona z dyskami zawierającymi jedynie filmy coraz częściej ze względu na uniwersalność nośnika zamieniana jest na Digital Versatile Disk. Niestety, na ustanowieniu jednego standardu problemy się nie zakończyły. Najwięcej zamieszania wprowadziły różne stosowane na świecie formaty zapisu obrazu (PAL, NTSC, SECAM) oraz dźwięku. Dlatego też mapa świata podzielona została na 6 regionów, dla których oba wspomniane parametry są jednakowe. Mapa regionów Taki podział pozwolił na ustanowienie lokalnych specyfikacji zapisu danych na dyski &amp;quot;filmowe&amp;quot;. Teoretycznie płyta oznaczona kodem jednego regionu będzie mogła być odtworzona tylko przez odpowiednie wersje odtwarzaczy. Kody są jednak opcjonalne, dlatego w praktyce istnieją dwa sposoby na uniwersalny zapis danych. Pierwszy wykorzystuje możliwość umieszczenia wszystkich kodów i nagrania na płytę sześciu różnych wersji tego samego filmu. Drugi, stosowany częściej dla płyt DVD-ROM, cechuje brak odpowiedniego wpisu, co umożliwia odtwarzanie w napędzie dowolnego pochodzenia. Z czasem pojawił się także kolejny problem. Po przegranej próbie skutecznego zabezpieczenia kaset do tradycyjnych magnetowidów, producenci filmowi zażądali skutecznej ochrony praw autorskich. Wprowadzono zatem odpowiedni system, który wprowadza do sygnału zakłócenia eliminowane później przez kartę dekodera. Podczas kopiowania płyty, użytkownik będzie mógł przenieść jedynie dane, zaś informacje o rodzaju zakłóceń, jako niedostępne nie zostaną skopiowane. Uniemożliwi to odtworzenie kopii w jakimkolwiek odtwarzaczu
  • W 1994 r. po ukazaniu się pierwszych napędów CD-ROM, firmy zaczęły szukać nowej technologii pozwalającej na udoskonalenie płyty kompaktowej. W tym okresie powstały dwa odrębne projekty. Jednemu z nich przewodniczyła Toshiba, która zaproponowała zwiększenie gęstości zapisu i wykorzystanie obu stron istniejących krążków. W ten sposób powstały płyty SD (SuperDensity). Na czele drugiej grupy stanął Philips i Sony. Ich rozwiązanie nazwane MMCD (MultiMedia CD) zakładało stworzenie dwóch lub więcej warstw na jednej stronie płyty, zaś dane odczytywane miały być przez wiązkę laserową o zmiennej długości fali. Przedstawiony stan rzeczy nie trwał zbyt długo. Pod koniec 1994 roku, aby uniknąć kreowania odrębnych formatów firmy zgodziły się na połączenie swoich myśli technicznych. W ten sposób powstał projekt dysku DVD - dwustronnego, dwuwarstwowego zapisu o wysokiej gęstości. Napędy DVD-ROM odczytują kolejno z wewnętrznej i zewnętrznej warstwy płyty. Początkowo obszar zastosowań dla nowego nośnika widziano głównie w przemyśle filmowym, maksymalna pojemność 17 GB pozwalała bowiem na nagranie 481 minut w formacie MPEG-2 z trzema ścieżkami audio. Nowy standard kompresji wymaga dużych mocy obliczeniowych do odkodowania informacji, dlatego komputerowe napędy DVD-ROM sprzedawane są ze specjalnymi kartami. W standardowych odtwarzaczach wszystkie niezbędne komponenty montowane są w jednej obudowie. Szybko okazało się, że pojemności oferowane przez płyty DVD idealnie nadają się także do zastosowań rynku komputerowego. Dlatego też pierwotna nazwa Digital Video Disk kojarzona z dyskami zawierającymi jedynie filmy coraz częściej ze względu na uniwersalność nośnika zamieniana jest na Digital Versatile Disk. Niestety, na ustanowieniu jednego standardu problemy się nie zakończyły. Najwięcej zamieszania wprowadziły różne stosowane na świecie formaty zapisu obrazu (PAL, NTSC, SECAM) oraz dźwięku. Dlatego też mapa świata podzielona została na 6 regionów, dla których oba wspomniane parametry są jednakowe. Mapa regionów Taki podział pozwolił na ustanowienie lokalnych specyfikacji zapisu danych na dyski &amp;quot;filmowe&amp;quot;. Teoretycznie płyta oznaczona kodem jednego regionu będzie mogła być odtworzona tylko przez odpowiednie wersje odtwarzaczy. Kody są jednak opcjonalne, dlatego w praktyce istnieją dwa sposoby na uniwersalny zapis danych. Pierwszy wykorzystuje możliwość umieszczenia wszystkich kodów i nagrania na płytę sześciu różnych wersji tego samego filmu. Drugi, stosowany częściej dla płyt DVD-ROM, cechuje brak odpowiedniego wpisu, co umożliwia odtwarzanie w napędzie dowolnego pochodzenia. Z czasem pojawił się także kolejny problem. Po przegranej próbie skutecznego zabezpieczenia kaset do tradycyjnych magnetowidów, producenci filmowi zażądali skutecznej ochrony praw autorskich. Wprowadzono zatem odpowiedni system, który wprowadza do sygnału zakłócenia eliminowane później przez kartę dekodera. Podczas kopiowania płyty, użytkownik będzie mógł przenieść jedynie dane, zaś informacje o rodzaju zakłóceń, jako niedostępne nie zostaną skopiowane. Uniemożliwi to odtworzenie kopii w jakimkolwiek odtwarzaczu
  • Wyklad 01 budowa_i_dzialanie_komputera

    1. 1. Budowa i działanie komputera Dr inż. Dariusz Skibicki I
    2. 2. 1. Co to jest komputer KOMPUTER - elektroniczna maszyna licząca [z ang. compute – obliczać], urządzenie elektroniczne służące do automatycznego przetwarzania informacji (danych), przedstawionych cyfrowo (tzn. za pomocą odpowiednio zakodowanych liczb). Zestaw komputerowy Jednostka centralna Klawiatura, myszka Monitor Współczesny komputer to zespół urządzeń wewnętrznych oraz zewnętrznych złożony w tzw. zestaw komputerowy, gdzie rodzaje zastosowanych urządzeń określają przeznaczenie oraz zdolności operacyjne komputera.
    3. 3. 2.1. Historia maszyn liczących - komputera Abacus (pol. liczydło) pierwsze znane mechaniczne urządzenie liczące, powstałe około 5000 lat temu gdzieś w środkowej Azji Około 1500 - Codex Madrid – maszyna licząca zaprojektowana przez Leonarda da Vinci Pascaline – 1642, maszyna licząca zbudowana na potrzeby sumowania podatków przez Blaise Pascala Gottfried Wilhem von Leibniz – 1671, zbudował maszynę liczącą która oprócz zliczania potrafiła również mnożyć
    4. 4. 2.2. Historia maszyn liczących - komputera W 1822 Charles Babbage'a zbudował maszynę różnicową (nazwaną tak, gdyż wykonywała obliczenia metodą różnicową). W 1834 Charles Babbage'a wymyślił maszynę analityczną, której budowa zapowiedziała architekturę przyszłych komputerów cyfrowych. Jej budowa to: jednostka zapamiętywania liczb, procesor (młyn) oraz jednostka sterująca. Do wczytywania wyników miały służyć taśmy perforowane. Charles Babbage'a (1791 – 1871) Ada Lovelace – współpracowniczka Charlesa Babbage'a – uznana za pierwszą programistkę, opracowała program na maszynę analityczną obliczający matematyczny ciąg liczb Koniec XIX wieku był początkiem rozwoju urządzeń mechanograficznych, których głównym przeznaczeniem było usprawnienie rachunków statystycznych, księgowych i biurowych
    5. 5. 2.2. Historia maszyn liczących - komputera W 1937 Turing Alan Mathison stworzył tzw. Maszynę Turinga (angielskie Turing machine ), abstrakcyjną maszynę obliczeniową do badania teoretycznych ograniczeń matematyki. Turing Alan Mathison (1912-1954) W 1943 Alan Turing wraz z zespołem buduje jednej z pierwszych programowanych komputerów lampowych (1800 lamp) - Collosus W 1938 Claude Shanon publikuje sposób wykorzystania prawdy i fałszu do przedstawiania funkcji przełączników w obwodach elektronicznych. Stworzył matematyczne narzędzie do tworzenia cyfrowych obwodów elektronicznych. W 1939 John Vincent Atanasoff zbudował prawdopodobnie pierwszy Cyfrowy Komputer Elektroniczny ABC (zdj. rekonstrukcja)
    6. 6. 2.3. Historia maszyn liczących - komputera 1943 do 1946 John William Mauchly i John Presper Eckert Junior zbudowali komputer elektroniczny ogólnego przeznaczenia – ENIAC – uznany (mimo istnienia maszyny Atanasoffa i komputera Collosus) jako pierwszy elektroniczny komputer. 1946 do 1952 John William Mauchly i John Presper Eckert Junior zbudowali Automatyczny komputer z dyskretnymi zmiennymi EDVAC – pierwszy komputer przechowujący program W 1945 John von Neumann udokumentował w pracy „Pierwszy szkic” koncepcję komputera przechowującego program. Dosłownie wszystkie komputery cyfrowe od tamtej pory są oparte na tej właśnie architekturze. Komputer = pamięć + jednostka obliczeniowa + jednostka sterująca
    7. 7. 2.4. Historia maszyn liczących - komputera W 1958 Jack Kilby wytworzył kilka elementów elektronicznych na pojedynczym kawału półprzewodnika. Był to pierwszy układ scalony. W 1950 Shockley wynalazł nowy element półprzewodnikowy, zwany tranzystorem o złączu bipolarnym. Tranzystory miały wyprzeć lampy które stosowano do budowy komputerów. Dalszy postęp produkcji tych układów pozwolił umieszczać w jednej &quot;kostce&quot; dziesiątki tysięcy tranzystorów a obecnie miliony. Obwody takie nazwano układami wielkiej skali integracji (VLSI z ang. - Very Large Scale of Integration). 1957 – Pierwszy komputer osobisty IBM 610 Do połowy lat 70-tych opracowywano podobne do IBM 610 opracowywano maszyny których podstawową wadą była bardzo wysoka cena. 1975 - Ed Roberst opracował mikrokomputer Altair 8800 – pierwszy tani mikrokomputer
    8. 8. 2.5. Historia maszyn liczących - komputera Generacje komputerów: Pierwsza generacja – komputery lampowe Druga generacja – komputery tranzystorowe Trzecia generacja – komputery zbudowane z ukł. scalonych Czwarta generacja – komputery w technologii VLSI W 1976 Steve Woźniak i Steve Jobs stworzyli komputer Apple 1 1981 – Pierwszy komputer IBM PC W 1977 powstał mikrokomputer Commodore PET Współczesna stacja robocza
    9. 9. 3.1. Budowa komputera – schemat ogólny Wg uproszczonego schematu komputer dwa główne, współpracujące urządzenia: procesor i pamięć . Oba urządzenia znajdują się w jednej obudowie nazywanej jednostką centralną . Pamięć operacyjna służy do chwilowego pamiętania danych wejściowych i wyjściowych oraz przechowuje uruchomione programy. Programy przekazują rozkazy do procesora. Procesor to układ elektroniczny potrafiący wykonywać rozkazy arytmetyczne i logiczne na liczbach binarnych. Pamięć operacyjna Procesor <ul><li>Klawiatura </li></ul><ul><li>Mysz </li></ul><ul><li>Skaner </li></ul><ul><li>- Aparat i kamera cyfrowa </li></ul><ul><li>Modem </li></ul><ul><li>Karta sieciowa </li></ul><ul><li>Monitor </li></ul><ul><li>Drukarka </li></ul><ul><li>Ploter </li></ul><ul><li>Głośnik </li></ul><ul><li>Modem </li></ul><ul><li>- Karta sieciowa </li></ul>Jednostka centralna Urządzenia wejściowe Urządzenia wyjściowe Ogólny schemat budowy komputera
    10. 10. 3.2. Budowa komputera – jednostka centralna Zabudowany w sankach napęd CD, podobnie montowane są napędy CD-RW, DVD, ZIP, FDD itp. Zasilacz Zabudowany w sankach Napęd HDD Obudowa komputera typu TOWER Proces wraz z chłodzeniem Pamięć RAM Karta grafiki Sloty umożliwiające podłączenie innych urządzeń wewnętrznych Płyta główna komputera Gniazda wtykowe do podłączenia urządzeń zewnętrznych
    11. 11. 3.3.Architektura komputera z magistralą PCI i AGP Procesor Sterowniki układów pamięci (chipset): interfejs magistrali PCI, Interfejs magistrali AGP (IRQ, DMA) Pamięć podręczna (CACHE) Pamięć RAM Magistrala lokalna PCI Karta dźwiękowa Karta telewizyjna Karta sieciowa Kontroler dysków Interfejs Magistrali zewnętrznej Magistrala ISA, EISA Lub MCA Standardowe Urządzenia wejścia i wyjścia Interfejs magistrali SCSI Magistrala SCSI Urządzenia SCSI Magistrala AGP Karta graficzna Monitor Pamięć lokalna Płyta główna
    12. 12. 3.4. BIOS BIOS, Basic Input-Output System , program zapisany na stałe w pamięci ROM komputera. Jest on uruchamiany jako pierwszy po włączeniu komputera. Jego zadaniem jest testowanie sprzętu, uruchomienie systemu operacyjnego. W BIOSie użytkownik może ustawić parametry systemu takie jak zainstalowany w systemie sprzęt (dyski, pamięć operacyjna itp.), na podstawie których kontrolowane jest przesyłanie danych między poszczególnymi składnikami systemu. Organizacja pamięci BIOS-ROM
    13. 13. 3.5. Budowa procesora PROCESOR stanowi główny element komputera, jest odpowiedzialny za przetwarzanie informacji. <ul><li>Układy sterujące odpowiadają za dostarczenie arytmometrowi danych do obliczeń z pamięci operacyjnej, oraz przekazywanie wyników obliczeń z powrotem do pamięci oraz właściwą kolejność przetwarzania </li></ul><ul><li>W arytmometrze odbywają się wszystkie obliczenia realizowane przez komputer. </li></ul><ul><li>W rejestrach procesora przechowuje się adresy wybranych miejsc pamięci operacyjnej oraz dane i wyniki obliczeń </li></ul>Budowa procesora Układy sterujące Arytmometr Rejestry
    14. 14. 3.6. Działanie procesora Schemat blokowy procesora Sygnały Kontrolne i sterujące BU – blok komunikacyjny Prefetch – sortowanie i kolejkowanie kodu IU – dekodowanie ciągu poleceń EU – układ wykonawczy ALU – moduł obróbki liczb stałoprzecinkowych CU – blok sterowania przetwarzania modułu ALU FPU – moduł obróbki liczb zmiennoprzecinkowych AU – jednostka adresowania MMU – jednostka zarządzania pamięcią BU Prefetch IU (Dekoder) ROM AU MMU CU ALU FPU EU Adres Dane Dane Kod programu
    15. 15. 3.7. Pamięć podręczna Cache to podręczna pamięć procesora. Charakteryzuje się wyjątkowo krótkim czasem dostępu. Jest ona używana do przechowywania danych, które będą w niedługim czasie przetwarzane. Rozróżniamy dwa rodzaje pamięci Cache: <ul><li>Pierwszego poziomu (Cache L1) zintegrowana z procesorem z którym porozumiewa się z częstotliwością równą częstotliwości wewnętrznej procesora, Tego typu pamięć ma zwykle pojemność od 16 do 64 KB. </li></ul><ul><li>Drugiego poziomu (Cache L2) znajdująca się zwykle na płycie głównej gdzie z procesorem porozumiewa się z częstotliwością taktowania zewnętrznego. W nowoczesnych komputerach jej pojemność wynosi zwykle 512, a czasem nawet 1024 KB. </li></ul>Kontroler Cache Pamięć Cache Pamięć CPU Pamięć podręczna wspomaga pamięć główną
    16. 16. 3.8. Kanały DMA DMA (ang. Direct Memory Access) oznacza bezpośredni dostęp do pamięci komputera dla urządzeń peryferyjnych (np. karta dźwiękowa, dysk itp.) Idea bezpośredniej komunikacji układów wejścia-wyjścia z pamięcią Kontroler DMA realizuję transmisję danych pomiędzy urządzeniami peryferyjnymi oraz pamięcią komputera poprzez kanały DMA. Kanały DMA są przypisywane poszczególnym urządzeniom a te komunikują się z kontrolerem za pomocą sygnałów DREQ. DMA 0 Przeznaczony do zastosowań wewnętrznych, wykorzystywany tylko w sytuacjach awaryjnych. DMA 1 Wolny, najczęściej rezerwowany przez karty dźwiękowe. DMA 2 Obsługuje napędy dyskietek, niedostępny dla użytkownika DMA 3 Wolny DMA 4 Przeznaczony do zastosowań wewnętrznych, niedostępny dla użytkownika DMA 5 Wolny, najczęściej rezerwowany przez karty dźwiękowe. DMA 6 Wolny DMA 7 Wolny Układy we-wy Procesor Pamięć Kontroler DMA
    17. 17. 3.9. Kanały IRQ IRQ, Interrupt Request, Żądanie przerwania, w informatyce jest to rozkaz zaprzestania wykonywania aktualnego zadania i rozpoczęcia wykonywania innego, wydany procesorowi przez jedno z urządzeń zewnętrznych bądź system operacyjny . W komputerach klasy PC jest 15 kanałów IRQ, przy czym większość z nich jest przydzielona do standardowych urządzeń, takich jak np. porty COM. Urządzenia instalowane przez użytkownika (jak np. karty graficzne bądź dźwiękowe) mają przydzielane pozostałe IRQ. W zależności od systemu operacyjnego oraz typu karty, IRQ jest przydzielane za pomocą odpowiedniego oprogramowania lub zostaje automatycznie przydzielone przez system. Zarządzaniem kanałami IRQ zajmuje się tzw. kontroler przerwań Urządzenie IRQ Kontroler napędu dysków elastycznych 6 LPT1 7 LPT2 5 COM1 4 COM2 3 Wyjście kaskadowe dla układu SLAVE 2 Klawiatura 1 Zegar systemowy 0 Urządzenie IRQ Kontroler dysku twardego 14 zarezerwowane 15 Koprocesor arytmetyczny 13 Zarezerwowane 12 Zarezerwowane 11 Zarezerwowane 10 Wywołanie przerwania IRQ2 9 Zegar czasu rzeczywistego 8
    18. 18. 4.1. Elementy komputera – płyta główna Płyta główna jest podstawowym komponentem komputera. Stanowi podstawę do której podłącza się wszystkie inne części jednostki centralnej (np. procesor, pamięć itp.). Zainstalowane nań urządzenia komunikują się między sobą poprzez tzw. „ścieżki”. <ul><li>Elementy płyty głównej: </li></ul><ul><li>BIOS </li></ul><ul><li>gniazdo procesora </li></ul><ul><li>gniazda magistrali PCI, ISA itp.. </li></ul><ul><li>CACHE </li></ul><ul><li>CHIPSET </li></ul><ul><li>Gniazda pamięci SIMM, DIMM </li></ul><ul><li>Złącze EIDE </li></ul><ul><li>Zegar czasu rzeczywistego </li></ul><ul><li>Złącze napędu FDD </li></ul><ul><li>Regulator napięcia </li></ul><ul><li>Chipset (układy scalone): </li></ul><ul><li>Kontroler CPU, pamięci i CACHE; </li></ul><ul><li>Kontrolery DMA i IRQ </li></ul><ul><li>Kontrolery magistrali ISA, PCI, AGP i innych; Kontrolery napędów FDD, HDD, SCSI itp </li></ul><ul><li>Kontrolery układów we/wy np. RS232, USB itp. Kontroler klawiatury KBC </li></ul>
    19. 19. 4.2. Elementy komputera – procesor Prawo Moore'a reguła wywiedziona z obserwacji rynku komputerowego przez Gordona Moore'a, współzałożyciela firmy INTEL głosząca, że moc obliczeniowa układów scalonych podwaja się co półtora roku wraz ze spadkiem ich cen. Ta reguła obowiązuje nie przerwanie do dziś. Procesor , układ scalony będący podstawową częścią komputera. Wykonuje on elementarne instrukcje programów takie jak np. podstawowe instrukcje matematyczne czy kopiowania danych. CPU – oznacza jednostkę centralną jednostkę wykonawczą, w komputerach osobistych jest procesor lecz w superkomputerach mogą to być układy wieloprocesorowe Najpopularniejsze procesory: Cyrix, AMD, INTEL <ul><li>Cechy charakterystyczne procesorów: </li></ul><ul><li>architektura (CISC lub RISC) </li></ul><ul><li>liczba bitów przetwarzana w jednym takcie np. 32 lub 64 </li></ul><ul><li>częstotliwość taktowania podawana w MHz lub GHz np. 700 MHz, 2.4 GHz </li></ul>
    20. 20. 4.3. Elementy komputera – pamięć <ul><li>Rodzaje pamięci ze względu na budowę: </li></ul><ul><li>SIMM FPM ( S ingle I nline M emory M odule) PM ( F ast P age M ode) – 30 pinowe </li></ul><ul><li>SIMM EDO ( E xtended D ata O utput R andom A ccess M emory) – 72 pinowe </li></ul><ul><li>DIMM SDRAM ( D ouble I nline M emory M odule), ( S ynchronous D ynamic R andom A ccess M emory) - 168 pinowe </li></ul><ul><li>DDR SDRAM ( D ouble D ata R ate) </li></ul><ul><li>- 184 pinowe </li></ul><ul><li>RIMM RDRAM ( R ambus D ynamic R andom A ccess M emory). </li></ul><ul><li>Pamięć operacyjna – urządzenie służące do przechowywania danych operacyjnych. Rodzaje pamięci: </li></ul><ul><li>ROM – (tylko do odczytu) służy do przechowywania stałych elementów oprogramowania </li></ul><ul><li>RAM – (do odczytu i zapisu) można w niej zapisywać i odczytywać informacje, wymaga stałego zasilania aby podtrzymywać przechowywane dane </li></ul>
    21. 21. 4.4. Elementy komputera – karta graficzna Złącze umożliwiające osadzenie karty na płycie głównej Gniazdo podłączenia monitora Karta graficzna , jeden z najważniejszych komponentów zestawu komputerowego. Karta graficzna może być zintegrowana z płytą główną komputera, częściej jest to osobna karta rozszerzeń (jak na rys.). Najważniejszymi parametrami karty graficznej są: szybkość pracy, ilość pamięci, rozdzielczość i ilość kolorów wyświetlanego obrazu i inne. <ul><li>Karta graficzna składa się z czterech podstawowych elementów: </li></ul><ul><li>płytki drukowanej, </li></ul><ul><li>głównego procesora, </li></ul><ul><li>pamięci wideo, </li></ul><ul><li>układu RAMDAC (który często jest zintegrowany z procesorem w jednej obudowie) </li></ul><ul><li>Karty graficzne budowane są na następujące magistrale: ISA, PCI, AGP </li></ul>Główne zadanie karty graficznej to przetwarzanie obrazu cyfrowego generowanego przez układy komputera na sygnał „zrozumiały” dla monitora (może to być sygnał: analogowy lub cyfrowy).
    22. 22. 4.5. Elementy komputera – karta dźwiękowa Złącze umożliwiające osadzenie karty na płycie głównej Gniazda wejścia i wyjścia sygnałów dźwiękowych Karta dźwiękowa , zwana też kartą muzyczną , jest to karta rozszerzeń umożliwiająca pracę z dźwiękiem na komputerze klasy PC. Dzięki nim można zarówno odtwarzać dźwięk, jak i tworzyć pliki dźwiękowe. Do karty dźwiękowej podłącza się takie urządzenia jak głośniki, wzmacniacz czy mikrofon bądź urządzenie MIDI (np. syntezator). Główne zadanie karty dźwiekowej to przetwarzanie sygnałów cyfrowych na analogowe (przy odtwarzaniu dźwięków) lub odwrotnie (przy nagrywaniu dźwięków) Karty dźwiękowe budowane są na następujące magistrale: ISA, PCI
    23. 23. 4.6. Elementy komputera – karta sieciowa Złącze umożliwiające osadzenie karty na płycie głównej Gniazdo kabla sieciowego Karta sieciowa , karta rozszerzeń niezbędna do podłączenia komputera do sieci LAN. Do karty sieciowej można podłączyć kabel koncentryczny lub kabel typu skrętka łączący komputer z siecią. Często karty mają możliwość podłączenia dwóch różnych typów kabla. Najważniejszym parametrem karty sieciowej jest jej prędkość transmisji, może ona wynosić 10 lub 100 Mbps. Diody sygnalizacyjne Karty sieciowe budowane są na następujące magistrale: ISA, PCI Najnowsze karty sieciowe obsługują już nie tylko sieci kablowe ale także sieci radiowe. Antena transmisyjna
    24. 24. 4.7. Elementy komputera – dysk „twardy” Dysk stały, dysk twardy (angielskie hard disk), pamięć dyskowa, w której nośnik magnetyczny jest nałożony na bardzo cienką warstwą (kilka µm) na niewymienną, sztywną płytę zwaną talerzem (lub zespół płyt na jednej osi), zamkniętą w hermetycznej obudowie. Pozwala na zapisywanie danych na stałe, bez ich utraty po odłączeniu zasilania. Wnętrze dysku twardego Płyty – nośnik danych Głowice magnetyczne Dysk twardy Głowice magnetyczne są umieszczone ruchomo nad warstwami nośnika, nie dotykając płyty. Konstrukcja mechaniczna dysku stałego wymaga dużej precyzji, ale zapewnia bardzo dużą pojemność pamięci oraz mały czas dostępu. Obecnie produkuje się dyski o pojemnościach Od kilkuset megabajtów do kilkuset gigabajtów
    25. 25. 4.8. Elementy komputera – napęd CD-ROM CD-RW, Compact Disk Read-Write , jest dyskiem CD umożliwiającym wielokrotny zapis (do 1000x). Do zapisu tego nosnika stosowane są specjalne napędy które obsługują także tradycyjne nosniki Napęd CD-ROM Nośnik CD-RW CD-ROM, dysk CD, Compact Disk Read-Only Memory , popularny dysk kompaktowy zastosowany w komputerze jako pamięć tylko odczytywalna. Dane na dysku CD-ROM zachowywane są w formacie binarnym jako mikroskopijne wgłębienia w powierzchni dysku, za pomocą bardzo cienkiej wiązki lasera emitowanej przez napęd CD-ROM dane mogą być odczytywane. Na płycie CD może zmieścić się do 700 MB danych.
    26. 26. 4.9. Elementy komputera – napęd DVD DVD-R – najnowsze napędy obsługujące płyty DVD umożliwiają ich nagrywanie Napęd DVD przypomina budową CD-ROM Nośnik DVD-R umożliwiający zapis DVD, Digital Versatile Disc , rodzaj nośnika danych, przypominający płytę CROM. Ilość danych zapisanych na płycie DVD jest jednak dużo większa. Istnieje kilka możliwych sposobów nagrywania płyty DVD różniących się pojemnością płyty. Można na niej nagrać aż do 17 GB danych. Podstawowa różnica pomiędzy CD a DVD polega na tym że DVD zapisane jest po obu stronach przy dodatkowo większej gęstości zapisu. Do odtwarzania DVD (w przeciwieństwie do CD) potrzeba sprzętowego urządzenia do dekodowania informacji zapisanych na nośniku. Sposób zapisu danych na płycie DVD
    27. 27. 4.10. Elementy komputera – inne urządzenia <ul><li>We wnętrzu obudowy komputera można zamontować wiele innych urządzeń realizujących różne zadania np.: </li></ul><ul><li>Modem telefoniczny (umożliwiający łączenie się z innymi komputerami poprzez łącza telefoniczne) </li></ul><ul><li>Karty sterujące i pomiarowe – mogą przeobrazić komputer w jednostkę zarządzającą np. procesem produkcyjnym. </li></ul><ul><li>tuner telewizyjny – uczyni z komputera PC telewizor </li></ul><ul><li>napędy innych nośników danych (np: stacja dyskietek, streamer, ZIP itp. ) </li></ul>
    28. 28. 5.1. Urządzenia zewnętrzne Liczba urządzeń zewnętrznych które mogą współpracować z komputerem jest bardzo duża. Producenci sprzętu peryferyjnego oferują coraz nowe rozwiązania w dużej liczbie typów sprawiając że współczesny użytkownik decydując się np. na zakup monitora komputerowego do wyboru ma dziesiątki marek i setki modeli. Wybrane urządzenia peryferyjne: <ul><li>monitory, CRT oraz LCD, różne przekątne obrazu </li></ul><ul><li>Klawiatury i myszy: tradycyjne i multimedialne, </li></ul><ul><li>przewodowe i bezprzewodowe </li></ul><ul><li>Skanery: ręczne i stacjonarne </li></ul><ul><li>Głośniki komputerowe </li></ul><ul><li>Projektory multimedialne </li></ul>
    29. 29. 5.2. Urządzenia zewnętrzne Drukarki komputerowe, ze względu na kolor druku: kolorowe oraz czarno-białe. Ze względu na technologię druku: <ul><li>igłowe (stosowane do druku wielokopiowego np. faktury) </li></ul><ul><li>drukarki termiczne, stosowane np. w kasach fiskalnych </li></ul><ul><li>drukarki mozaikowe stosowanych w elektronicznych maszynach do pisania. </li></ul><ul><li>Plotery, wielkoformatowe drukarki laserowe lub atramentowe, stosowane np. do druku dokumentacji CAD </li></ul><ul><li>atramentowe, powszechnie stosowane, tani druk w kolorze w porównaniu do drukarek laserowych. </li></ul><ul><li>Laserowe, zastosowanie biurowe. Niski koszt druku czarnych kopii lecz drogi druk w kolorze. Szybkie i ciche </li></ul>
    30. 30. 5.3. Urządzenia zewnętrzne <ul><li>aparaty cyfrowe </li></ul><ul><li>Oraz wiele innych urządzeń takich jak: </li></ul><ul><li>zewnętrzne napędy nośników danych </li></ul><ul><li>trackaball (odwrócona myszka) </li></ul><ul><li>czytniki kodów kreskowych </li></ul><ul><li>kasy fiskalne </li></ul><ul><li>urządzenia z dziedziny automatyki itp.. </li></ul><ul><li>UPS – awaryjny akumulator podtrzymujący napięcie </li></ul><ul><li>słuchawki i mikrofony </li></ul><ul><li>tablety graficzne – ułatwią posługiwanie się programami graficznymi także systemami CAD </li></ul><ul><li>Kamery CCD - internetowe </li></ul>
    31. 31. 6.1. Rodzaje komputerów <ul><li>Ogólny podział komputerów: </li></ul><ul><li>superkomputery stosowane w nauce </li></ul><ul><li>duże komputery (ang. mainframe) stosowane np. w bankowości </li></ul><ul><li>minikomputery (najczęściej jako serwery) stosowane do obsługi mniejszych przedsiębiorstw, grup użytkowników, sieci komputerowych. </li></ul><ul><li>mikrokomputery przeznaczone dla pojedynczego użytkownika (IBM, MacIntosh) </li></ul>Superkomputery zajmują ogromne pomieszczenia, posiadają dziesiątki a nawet setki procesorów. IBM ZSieries 990 – komputer klasy „Mainframe”. HP 9000 – server do zastosowań sieciowych
    32. 32. 6.2. Rodzaje komputerów Mikrokomputery, komputery osobiste: Stacjonarne komputery osobiste: desktop oraz tower Laptop, Notebook - przenośny komputer UltraPC – lekkie stacjonarno-przenośne komputery osobiste Palmtop – kompter mieszczący się w dłoni, pełni funkcję notesu elektrocznego Terminal roboczy – pełni funkcję komunikatora pomiędzy użytkownikiem a dużym komputerem (lub superkomputerem)
    33. 33. 7. Pytania <ul><li>Przykładowe pytania egzaminacyjne: </li></ul><ul><li>Babbage'a Turing Neumann - wyjaśnij znaczenie tych postaci w historii maszyn liczących. </li></ul><ul><li>Schemat płyty głównej. </li></ul><ul><li>Wyjaśnij termin - przerwania komputerowe. </li></ul><ul><li>Wyjaśnij skrót DMA. </li></ul><ul><li>Opisz zastosowanie, zalety i wady portów USB, szeregowych i równoległych. </li></ul>

    ×