Twoim problemem jest to, że powszechną NICOŚĆ mylisz z osobistą PUSTKĄ

xxx

xxx

xxx

 

xxx

 

 

 

 

 

SIECIOWE SYSTEMY OPERACYJNE SIECI LOKALNYCH I ROZLEGŁYCH

W STARŻY GRANICZNEJ

 

 

xxx

 

xxx

 

______________________________________________________________________xxx

5

 

Wstęp

 

Do początku lat osiemdziesiątych, środowisko przetwarzania danych było zdominowane przez duże systemy komputerowe oraz minikomputery otoczone armiami programistów, analityków i zarządców systemów informatycznych. Większość użytkowników miała niewielką wiedzę o komputerach i systemach przetwarzania danych. W większości organizacji personel zajmujący się przetwarzaniem danych rzadko się kontaktował z administracją na tematy dotyczące ich systemów i na odwrót. Ludzie projektujący systemy nie kontaktowali się z tymi, którzy mieli je stosować. Aby wpływać na zmiany systemów i aplikacji, kierownicy decydowali się na drogi i czasochłonny proces analizy potrzeb. Zanim takie zmiany mogły być zrealizowane, mijało nierzadko kilka lat, potrzeby w tym czasie zmieniały się i proces zaczynał się od nowa.

W chwili gdy zaczęły pojawiać się mikrokomputery, zauważono, że w wielu przypadkach można było zastosować niedrogie, gotowe programy do zaimplementowania w przeciągu tygodni lub miesięcy. Pomimo, że początkowo mikrokomputery dały wiele korzyści pojedynczym użytkownikom, miały niewielki wpływ na przetwarzanie danych. Pierwsze komputery osobiste posiadały mało pamięci i nie mogły konkurować z dużymi systemami.

W miarę jak coraz nowsze komputery osobiste zapewniały obsługę twardych dysków i udostępniały większą pamięć, sytuacja szybko się zmieniała. Wiedza użytkowników na temat komputerów rosła i skuteczne oprogramowanie użytkowe rozwijało się. Zwykli ludzie, a nie wyłącznie profesjonaliści mogli zacząć wykorzystywać efektywnie komputery.

Gdy komputery osobiste wkraczały coraz bardziej w świat gospodarki, pojawił się problem z efektywnym dzieleniem się informacją. Zastosowanie dyskietek do przenoszenia danych z jednej maszyny na inną było wystarczające w niektórych sytuacjach, ale nie mogło pomóc w przypadku dużych plików lub danych, które musiały być dostępne dla wielu osób jednocześnie.

Ponadto we wczesnych latach rozwoju mikrokomputerów, takie urządzenia jak twarde dyski czy drukarki były drogie. Aby rozwiązać tego typu problemy, kilka firm opracowało sprzęt i oprogramowanie     do     stworzenia     lokalnych     sieci mikrokomputerowych.

Technologia sieciowa nie była czymś nowym w momencie pojawienia się IBM PC. Firmy takie jak Xerox, DEC, Intel i Datapoint używały sieci do łączenia terminali z minikomputerami i większymi systemami. Nadal jednak we wczesnych latach 80-tych, idea zastąpienia sieci minikomputerowych przez sieci mikrokomputerowe była nie do zrealizowania. Sieci były prymitywne i w większości zawodne. Obecnie jednak wiele programów użytkowych jest przenoszonych do środowiska sieci mikrokomputerowych. Zmianie ulega także sama struktura środowiska przetwarzania danych. Dziś wiele zadań uprzednio zarezerwowanych wyłącznie dla dużych systemów jest efektywnie wykonywanych przez komputery osobiste połączone w sieć.

Wraz z małymi komputerami i lokalnymi sieciami rozwija się heterogeniczne środowisko komputerowe, w którym odmienne systemy mogą się komunikować i wspólnie korzystać z tych samych danych. Komputery PC, Apple Macintosh, stacje robocze Unix i inne mogą teraz efektywnie współpracować oraz mogą się łączyć z większymi systemami poprzez sieć i zastosowanie najnowszych systemów operacyjnych.

              W poszczególnych rozdziałach opisałem systemy operacyjne wykorzystywane w jednostkach organizacyjnych Straży Granicznej.

              W rozdziale pierwszym opisałem System Unix, który po dziś dzień jest nadal głównym systemem operacyjnym używanym w SG. Wykorzystywany jest jako motor do baz informixowych, oraz magic.

              Rozdział drugi opisuje system Linux, który też jest stosowany w SG głównie jako serwery internetowe oraz jako routery maskujące.

              Rozdział trzeci opisuje system Novell, który w znikomej ilości jest wykorzystywany w jednostkach SG i traktuję go jako bardziej zapoznawczy niż dogłębne studiowanie jego zabezpieczeń i właściwości.

              W ostatnim czwartym rozdziale opisuję produkty firmy Microsoft, które wraz z rozwojem informatyki w SG szeroko wchodzą do użytku.

Obecnie wszystkie te systemy tworzą wielką sieć heterogeniczną, która wpływa na efektywne przesyłanie informacji pomiędzy poszczególnymi jednostkami SG.

 

 

 

 

 

Rozdział I

1.      System operacyjny Unix

Dla większości ludzi komputer jest narzędziem służącym do rozwiązywania problemów. Jeśli działa w nim różnego typu oprogramowanie oferujące bardziej zaawansowane funkcje niż zwykły kalkulator. Podłączony do sieci komputerowej staje się elementem systemu telekomunikacyjnego.

W sercu każdego komputera znajduje się najważniejszy zestaw programów nazywany systemem operacyjnym. Oprogramowanie to steruje urządzeniami wejścia/wyjścia, takimi jak klawiatura i dyski czy ładowaniem i uruchamianiem programów użytkowych. System operacyjny jest również zestawem mechanizmów i strategii, które pomagają definiować i sterować wykorzystaniem wspólnych zasobów systemowych.

Z systemem operacyjnym współpracuje zawsze zestaw standardowych programów narzędziowych, które pomagają w wykonaniu typowych funkcji, takich jak kopiowanie plików i wyświetlanie zawartości katalogów. Mimo iż programy te nie stanowią technicznie części samego systemu, to mogą one mieć dramatyczny wpływ na jego bezpieczeństwo.

 

1.1. Wielozadaniowość i wieloużytkowość.

Najważniejszymi   cechami   Unixa  jest  Wielozadaniowość   i wieloużytkowość. Wielozadaniowość oznacza,  że użytkownik może wykonywać wiele zadań równocześnie, a co za tym idzie pracować bardziej efektywnie. Druga cecha: wieloużytkowość daje możliwość korzystania z zasobów komputera więcej niż jednej osobie, co wspomaga pracę grupową bez ponoszenia dużych kosztów zakupu pojedynczych komputerów.

Można go uruchomić na prawie każdym komputerze. Istnieje wiele wersji systemu Unix dla różnych typów komputerów: począwszy od komputerów osobistych (IBM PC i Macintosh) poprzez komputery średniej wielkości (VAX firmy DEC) aż do superkomputerów firmy Cray. W praktyce są tylko dwa komputery, na których niemożliwe jest uruchomienie tego systemu: starsze modele PC (np. PC XT) i systemy komputerowe do zadań specjalnych (np. AS/400).

Ponadto Unix jako pierwszy z systemów na komputery PC zapewniał pracę za pośrednictwem sieci jak i połączeń modemowych. W systemie zaszyta jest warstwa umożliwiająca komunikację z użytkownikami odległymi, którzy nawet nie zdają sobie z tego sprawy. Protokół komunikacyjny TCP/IP jest standardem, w wypadku sieci opartych o serwery Unixowe. Cała sieć Internet opiera się właśnie na tym protokole, a najczęściej spotykanymi węzłami tej sieci są serwery Unixowe.

 

1.2. Historia Unixa

Unix swoimi korzeniami sięga do połowy lat sześćdziesiątych, kiedy firmy American Telephone and Telegraph i General Electric oraz uniwersytet Massachusetts Institute of Technology rozpoczęły prace nad projektem pewnego narzędzia informacyjnego. Projekt, który nazwano MULTICS (co pochodzi od Multiplexed Information and Computing Service), był w dużym stopniu sponsorowany przez agencję ARPA (Departament of Defense Advanced Research Projects Agency), znaną również jako DARPA. Większość prac badawczych odbywało się w MIT, w Cambridge w stanie Massachusetts.

MULTICS był modułowym systemem budowanym z elementów, takich jak szybkie procesory, pamięć i urządzenia komunikacyjne. Konstrukcja miała umożliwiać wyłączanie niektórych modułów bez wpływu na inne części systemu i użytkowników. Celem było zbudowanie komputera działającego przez 24 godziny na dobę i 365 dni w roku, który można by powiększyć, dołączając dodatkowe moduły. Mimo, że takie funkcje są dziś czymś normalnym, kiedy powstawał MULTICS, możliwości takich nie było.

W budowaniu MULTICS-a brano również pod uwagę wojskowe wymagania bezpieczeństwa. System ten był projektowany jako odporny na ataki zewnętrzne oraz chroniący użytkowników przed sobą nawzajem. MULTICS    miał    implementować    koncepcję     bezpieczeństwa wielopoziomowego. Informacje typu Top Secret (ściśle tajne), Secret (tajne), Confidential (poufne) i Unclassified (dostępne) miały koegzystować w tym samym komputerze. Informacje zastrzeżone na jednym z tych poziomów miały być niedostępne dla wszystkich, którym ich nie udostępniono. MULTICS osiągną stopień bezpieczeństwa, o jaki dziś trudno w wielu funkcjonujących systemach operacyjnych - w tym i w Unixie.

W 1969 roku firma AT&T podejmuje decyzję o podzieleniu projektu ze względu na duże opóźnienia w stosunku do planów.

Pracownik AT&T Ken Thompson pracujący nad MULTICS-em przejmuje nie używany komputer PDP-7 i rozpoczyna samodzielną pracę nad tym systemem. Wkrótce dołączył do niego Denis Ritchie, który również pracował nad projektem. Nazwę Unix dla nowego systemu zaproponował Peter Neumann. Nazwa miała być humorystyczną analogią do nazwy MULTICS i policzkiem dla projektu trwającego w Cambridge (który rzeczywiście ciągną się jeszcze półtorej dekady).

MULTICS miał robić wszystkie rzeczy dobrze, Unix tylko jedną – uruchamiać programy. Koncepcja silnych systemów zabezpieczeń nie mieściła się w jego założeniach.

Zawężenie zakresu prac było wszystkim, czego naukowcom było trzeba. Wczesna wersja Unixa była gotowa kilka miesięcy wcześniej niż MULTICS.

W ciągu roku Tompson, Ritchie i inni napisali wersję Unixa dla PDP-11, nowego komputera firmy Digital.

W latach siedemdziesiątych naukowcy z AT&T dodawali do swojego systemu różne funkcje - Unix zmienił się w raj dla programistów. System bazował na małych, zwartych programach nazywanych narzędziami, z których każdy mógł wykonywać pojedynczą funkcję. Łącząc te narzędzia, programiści mogli wykonywać skomplikowane zadania.

Unix naśladował sposób myślenia programistów. Aby osiągnąć pełną funkcjonalność, użytkownik musiał uzyskać dostęp do wszystkich tych narzędzi - i w wielu przypadkach również ich kodu źródłowego. Dlatego też w trakcie ewolucji systemu każdy, kto miał dostęp do maszyn, przyczyniał się do powstawania nowych narzędzi i do testowania istniejących.

W 1973 roku Tompson przepisał większość Unixa na C - język programowania wynaleziony wtedy przez Ritchiego. Język C powstał jako prosty i umożliwiający łatwe przenoszenie programów. Programy napisane w C można było bez trudu przenosić z jednego typu komputera do innego - co było możliwe również w przypadku takich języków jak FORTRAN - tylko że działały tak szybko, jak programy kodowane bezpośrednio w języku maszynowym komputera.

Taka była teoria, natomiast w praktyce każdy komputer w Bell Labs miał swój własny system operacyjny. Programy w C napisane na PDP-11 mogły być rekompilowane na innych maszynach laboratorium, ale nie zawsze działały poprawnie, ponieważ każdy system operacyjny wykonywał operacje wejścia/wyjścia trochę inaczej. Mike Lesk napisał „przenośną bibliotekę wejścia/wyjścia", która rozwiązała te problemy, niestety nie wszystkie. Potem w 1977 roku członkowie grupy doszli do wniosku, że zamiast przenośnych bibliotek lepiej opracować przenośny system Unix. Najpierw przeniesiono go na Interdata 8/32, komputer laboratorium, który był podobny do PDP-11. W 1978 roku system został przeniesiony na minikomputer VAX firmy Digital. Unix pozostawał wciąż systemem eksperymentalnym, mimo to zyskał sporą popularność na wielu uniwersytetach i został zauważony przez kilka firm. Nagle Unix stał się czymś więcej niż tylko naukowym kuriozum.

Faktycznie, już w 1973 roku istniało ponad 16 różnych jednostek AT&T i Western Electric poza Bell Labs, w których działał Unix. System rozpowszechnił się nawet bardziej. Na sympozjum dotyczącym zasad działania systemów operacyjnych, ACM Symposium on Operating System Principles (SOSP), w październiku 1973 roku Tompson i Ritchie zaprezentowali swoje prace. W ciągu kilku miesięcy od tego wydarzenia różne organizacje z całego świata uzyskiwały i instalowały kopie systemu. Mimo iż firma AT&T miała - na mocy ugody rządowej zawartej z rządem federalnym USA z 1965 roku - zabronione   reklamowanie,   sprzedaż   i   obsługę   oprogramowania komputerowego, popyt na system stale rósł. W 1977 używało go już ponad 500 firm i organizacji; 125 z nich stanowiły uniwersytety z USA i ponad 10 innych krajów. W tym roku pojawiła się również pierwsza komercyjna wersja Unixa, wtedy była to wersja 6.

W większości miejsc, a zwłaszcza na uniwersytetach, typowe środowisko pracy Unixa wyglądało jak w Bell Labs: komputery znajdowały się w dobrze wyposażonych laboratoriach, do których dostęp fizyczny był mocno ograniczony. Użytkownicy, którzy intensywnie używali komputerów, byli ludźmi z wieloletnim doświadczeniem i to oni wprowadzili istotne zmiany i ulepszenia do systemu operacyjnego i jego narzędzi. Nie musieli się martwić o bezpieczeństwo, ponieważ tylko oni byli upoważnieni do korzystania z komputerów. Poza tym implementowanie funkcji bezpieczeństwa kolidowało z opracowaniem narzędzi i ulepszaniem oprogramowania. Jeden z autorów pracował w początku lat osiemdziesiątych w dwóch takich laboratoriach. W jednym z nich hasło do konta root uważane było za niepotrzebną niedogodność, gdyż i tak każdy, kto miał dostęp do maszyny, miał uprawnienia superużytkownika!

Środowisko można było najlepiej scharakteryzować na podstawie przykładu z uniwersytetu Berkeley w Kalifornii. Szkoła ta, tak jak inne szkoły, zapłaciła 400 dolarów za taśmę zawierającą komplet kodów źródłowych Unixa. Zamiast po prostu uruchomić system dwóch studentów. Bill Joy i Chuck Haley, rozpoczęli prace nad znacznymi poprawkami modyfikacjami. W 1978 roku Joy rozesłał 30 egzemplarzy produktu o nazwie „Berkeley Software Distribution (BSD)", który był zbiorem programów i modyfikacji Unixa. Opłata: 50 dolarów za nośnik i koszty wysyłki.

W ciągu następnych sześciu miesięcy w wyniku sponsorowania przez ARPA tak zwany BSD Unix urósł do rangi samodzielnego systemu operacyjnego, który istotnie przewyższał produkt AT&T. Na przykład programista BSD mógł przełączać się między wieloma działającymi jednocześnie programami. Unix z AT&T zezwalał na stosowanie nazw plików o długości do 14 znaków, a wersja z Berkeley do 255. Ale być może najważniejszym owocem działalności Berkeley była wersja sieciowa systemu, która nosiła nazwę BSD Unix 4.2. Umożliwiała ona łączenie Unixa z sieciami lokalnymi.

Z wszystkich tych powodów wersja z Berkeley stała się bardzo popularna

w środowiskach naukowych i akademickich.

Wraz ze wzrostem popularności Unixa z Berkeley przedstawiciele AT&T zawiązała firmę o nazwie Unix Support Group (USG), która miała kontynuować prace nad systemem i zająć się sprzedażą. Grupa USG swój nowy produkt Unixa ochrzciła jako „AT&T System V" i ogłosiła go nowym standardem.

Uniwersytet w Berkeley aby nie renegocjować swojej umowy z AT&T uaktualniony swój produkt nazwał BSD 4.2.

Największym nieuniwersyteckim zwolennikiem Unixa z Berkeley była firma Sun Microsystems. System SunOS, stworzony częściowo przez absolwentów informatyki w Berkeley, był pod każdym względem systemem operacyjnym z Berkeley (wzorowany był na wersji BSD 4. l c), Innym adaptatorem systemu była firma Digital Equipment, której system Ultrix był również podobny do wersji z Berkeley (oparty był na BSD 4.2).

Firmy wchodzące na rynek stawały przed dylematem, który z systemów wybrać BSD czy też Unix System V. Z uwagi na brak serwisu do BSD większość korporacji, które opracowały swoje Unixy w drugiej połowie lat osiemdziesiątych - w tym Data General, IBM, Hewlett Packard i Silocon Graphics - zaadaptowały System V. W początkach lat osiemdziesiątych powstała też trzecia wersja Unixa stworzona przez formę Microsoft, której nadano nazwę Xenix. Licencję na ten system sprzedano do Santa Cruz Operation (SCO). Xenix był wzorowany na starszej wersji Unixa firmy AT&T-System III.

W latach osiemdziesiątych Microsoft i SCO uaktualniały swoje systemy, dodając pewne nowe funkcje, ale nie wszystkie.

Pod koniec lat osiemdziesiątych (1988r.) nastąpiło połączenie dwóch wersji Unixa, którymi były Xenix i AT&T System V, w wyniku czego powstał Unix System V/386 relase 3.12.

W tym samym roku AT&T oraz Sun Mierosystem podpisały umowę o wspólnej pracy nad połączeniem dwóch kolejnych wersji systemu. W wyniku prac powstał Unix System V Relase 4 łączący w sobie najlepsze funkcje z Systemu V i Unixa z Berkeley i był kompatybilny z oprogramowaniem napisanym dla swoich przodków.

W maju 1988r. siedmiu wiodących producentów Unixa - Apollo Computer, Digital Equipment Corporation, Hewlett Packard, IBM i trzy mniejsze firmy z Europy - ogłosiły utworzenie Open Software Foundation (OSF).

Celem tej organizacji było przejęcie kontroli nad Unixem od AT&T i przekazanie jej do organizacji o charakterze niekomercyjnym, a produkt swój oparła na systemie AIX, następnie przeniosła się na jądro MACH z Carnegie Mellon University oraz zbiór bibliotek unixowych od HP, IBM-a i Digitala. Ze względu na opóźnienia z Systemem OSF/1 niektóre firmy budowały swoje systemy, a inne zaadoptowały SVR4.

W roku 1993 firma AT&T sprzedała Unix System Laboratories (USL) firmie Novell, która przeniosła znak handlowy Unixa do X/0pen Consortium dając prawo do używania go każdemu systemowi, który przejdzie serię 1170 testów. Następnie Novell sprzedał prawa do kodu źródłowego w 1995 roku grupie SCO.

Mimo braku unifikacji liczba systemów unixowych ciągle rośnie. W połowie lat dziewięćdziesiątych Unix działał na około pięciu milionach komputerów na całym świecie. Unix stał się systemem najczęściej wybieranym przez wiele uczelni. Jest też popularny w środowiskach badawczych i naukowych.

Pojawiło się wiele zestawów norm dotyczących unixowych systemów operacyjnych (dotyczących na przykład interfejsu, bibliotek i charakterystyk działania), ale mimo ich istnienia poszczególne implementacje nadal znacznie się od siebie różnią. Zestawem takim jest POSDC opracowany początkowo przez IEEE, a następnie zaadaptowany jako norma ISO/IEC 9945. Czynione są również starania o ujednolicenie interfejsów VMS, Windows NT i innych platform kryjących w sobie zupełnie różne od Unixa mechanizmy. Obecny Unix oparty jest na wielu standardach, co zwiększa jego atrakcyjność jako wspólnej platformy dla biznesu i środowisk akademickich.

Najważniejsze organizacje związane z tworzeniem systemu UNIX i jego odmianami.

Nazwa

Organizacja

AIX

IBM

A/UX

Apple

BSD

Uniwersytet Kalifornijski w Berkeley

GNU

Free Software Foundation

HP/UX

Hewlett-Packard

SunOS

Sun Microsystems

Ultrix

Digital Equipment Corporation (DEC)

Unicos

Cray Corporation

UNIX

AT&T, SCO, Sun Microsystems

Xenix

SCO

 

Warto również dodać, że system posiada wiele udziwnień, które mogą być niezrozumiale dla dzisiejszego użytkownika, ale trzeba pamiętać, że system był tworzony przez niczym nieskrępowanych ludzi. Byli oni pełni inwencji i wcielali w system pomysły, które wydają się anachroniczne. Również wiele nazw budzi zastrzeżenia, gdyż w systemie roi się od krwawych określeń typu „zabić", „demon" czy „zombie". Bierze się to stąd, że system miał zapewniać dużą tajność danych, czyli był przeznaczony dla instytucji milit...

  • zanotowane.pl
  • doc.pisz.pl
  • pdf.pisz.pl
  • jucek.xlx.pl






  • Formularz

    POst

    Post*

    **Add some explanations if needed