USŁUGI KATALOGOWE

Jeśli różne części przedsiębiorstwa chcą się ze sobą komunikować, muszą znać swoje adresy. W firmowej sieci telefonicznej odbywa się to poprzez utworzenie książki telefonicznej, która przypisuje nazwę do numeru wewnętrznego. W przybliżeniu ten sam proces jest wykorzystywany do routingu danych w intranecie lub ekstranecie. Jednak musi to również uwzględniać niepewny charakter publicznej trasy internetowej. Usługa katalogowa będzie zatem obejmować możliwość przechowywania i pobierania certyfikatów cyfrowych, które są potrzebne do zapewnienia integralności sieci VPN. Możliwe jest użycie relacyjnej bazy danych do przechowywania wszystkich tych informacji, ale może to stać się trudne i kosztowne w administrowaniu i mogą wystąpić pewne problemy z wydajnością. Powszechnie preferowana alternatywa opiera się na Lightweight Directory Access Protocol (LDAP) , wersji o zmniejszonej złożoności dobrze sprawdzonego standardu katalogów telekomunikacyjnych X500 . W szczególności zastępuje dość ciężki stos protokołów OSI jednym opartym na TCP/IP. Aby uzyskać więcej informacji. LDAP opiera się na hierarchicznej strukturze drzewa, która skutecznie odzwierciedla standardowe struktury organizacyjne i umożliwia powiązanie z dowolnym wpisem, zazwyczaj osobą lub funkcją, zestawem atrybutów, takich jak dane kontaktowe, certyfikaty cyfrowe itp.

Struktura drzewiasta oznacza również, że pozycja w hierarchii organizacyjnej jest jasno określona i na przykład jednostki nadrzędne i zależne można prześledzić w górę lub w dół. Jako funkcja administrowania systemami, LDAP posiada również właściwości operacji rozproszonych, które pozwalają na przechowywanie całego katalogu lub jego podzbiorów lokalnie, np. w celu poprawy wydajności dostępu, ale do automatycznej aktualizacji (synchronizacji) po każdej zmianie katalogu głównego. Główni dostawcy twierdzą również, że administratorom systemów dość łatwo jest dostroić buforowanie i indeksowanie oprogramowania LDAP w celu uzyskania bardzo wysokiej wydajności. Aby dać pewne pojęcie o skali, Netscape twierdzi, że ich serwer Directory Server może obsługiwać „ponad 5000 zapytań na sekundę i 50 milionów wpisów użytkowników na jednym serwerze.

TUNELE INTERNETOWE

W celu zintegrowania różnych rozproszonych części sieci korporacyjnej, najlepiej byłoby, gdyby można było zignorować publiczny Internet, który do nich dołącza. Koncepcyjnie stosujemy strategię. Na wejściu i wyjściu do witryn zapewniamy logiczną bramę, która hermetyzuje pakiety IP z jednej witryny do drugiej w tym sensie, że Internet nie może, być może nie może, odczytać ich ostatecznych adresów źródłowych i docelowych, a nawet ich zawartość. Wszystko, co robi Internet, to trasowanie pakietu z bramy źródłowej do bramy docelowej, ponieważ jest to jedyna część pakietu, którą może odczytać. W miejscu docelowym pakiet jest następnie hermetyzowany przez bramę i migrowany do sieci wewnętrznej, aby dotrzeć do zamierzonego hosta odbiorczego. Aby brama mogła to zrobić z pakietami chronionymi przez zabezpieczenia, musi wymienić klucze szyfrowania z drugą bramą. Można to zrobić za pomocą protokołów takich jak IPSec , PPTP lub L2TP. Na rysunku pokazano również dostęp przez publiczny Internet do urzędu certyfikacji, którego usługi są wymagane w celu weryfikacji kluczy szyfrowania bram.

Jedna część bramy może działać jako zapora. Może odfiltrowywać niebezpieczne lub podejrzane pakiety, a jeśli zawiera bramę aplikacji, kontrolować również żądania aplikacji z zewnątrz. Ta funkcja bramy bezpieczeństwa jest sterowana przez serwer polityki bezpieczeństwa, który przechowuje listę dozwolonych i zabronionych działań, dozwolonych lub zabronionych adresów, które mogą lub nie mogą komunikować się między siecią wewnętrzną i publiczną, i być może rejestruje wszelkie takie próby naruszeń lub alarmy, gdy się pojawią.

„ISP”

Firmy na ogół nie zarządzają sieciami internetowymi, które łączą ich firmy na dużym obszarze. Zamiast tego kupują te obiekty od jednej z dużej liczby firm specjalizujących się w ich dostarczaniu, dostawcy usług internetowych. Niektórzy dostawcy usług internetowych oferują jedynie punkt obecności (POP), połączenie o nieokreślonej wydajności z globalnymi możliwościami Internetu; inni, tak zwani dostawcy usług sieciowych (NSP), również zapewniają określone umowy o świadczenie usług przesyłania ruchu IP przez prywatne sieci dalekiego zasięgu, które zbudowali lub wydzierżawili. Wielu NSP to organizacje powiązane z tradycyjnymi dostawcami sieci telekomunikacyjnych. (np. AT&T Worldnet). Firma, która chce zmaksymalizować wydajność swojej sieci, może preferować, za pewną cenę, prowadzenie procesów wewnątrzfirmowych w wielu lokalizacjach w jednej takiej prywatnej sieci IP; mała firma lub taka, która ma ograniczone koszty, może preferować szczęście, korzystając z w pełni publicznego połączenia internetowego. W praktyce firmy prawdopodobnie będą wykorzystywać zarówno: prywatną trasę NSP do ruchu wewnętrznego, jak i do połączeń z uprzywilejowanymi partnerami, publiczne połączenie do innych transakcji. Rysunek ,

przedstawia typową instalację ISP. Poza punktem obecności dostawcy usług internetowych nawiązują połączenie z siecią szkieletową samego Internetu. Ta sieć szkieletowa obejmuje wiele bardzo dużych i szybkich sieci prywatnych dostarczanych przez główne firmy sieciowe, dostawców poziomu pierwszego, którzy uzgadniają i zarządzają połączeniami między sobą w punktach dostępu do sieci internetowej (NAP). Aby dać pewne pojęcie o skali: w Ameryce Północnej istnieje tylko sześć uznanych NAP. Zauważ, że NAP są administracyjnymi, a nie komercyjnymi punktami w Internecie; firmy nie mogą bezpośrednio od nich kupować dostępu. Punkt zakupu znajduje się w POP wybranego dostawcy usług internetowych; następnie dostawca usług internetowych zapewnia lub negocjuje połączenie z Internetem za pośrednictwem dostawcy poziomu pierwszego. Każda firma rozpoczynająca rozmowy handlowe z dostawcami usług internetowych powinna zatem zajmować się uzgadnianiem poziomów usług do i z POP dostawcy usług internetowych i, jeśli to możliwe, spróbować ocenić umowę dostawcy usług internetowych z firmą poziomu pierwszego, z którą jest połączona . Jak widać na Rysunku wydaje się, że niewiele jest konfiguracji wirtualnej lub prywatnej.

Aby uzasadnić warunki, należy dodać inne elementy: musimy zapewnić pewną ochronę danych przed przechwyceniem i korupcją; możemy chcieć ukryć szczegóły routingu w sieci publicznej z dwóch końców, aby można je było uzyskać za pośrednictwem dowolnego łącza bez konieczności ich rekonfiguracji; równie dobrze możemy chcieć ukryć wszelkie wewnętrzne szczegóły obu końców przed sobą i przed kimkolwiek w publicznym Internecie; wreszcie możemy chcieć wyznaczyć jakiś kompleksowy cel w zakresie jakości usług. Ten ostatni wymóg wymaga współpracy z ISP; pozostałe wymagania spełnia zapewnienie tuneli i wykorzystanie bezpiecznych bramek, takich jak zapory ogniowe, na styku sieci publicznej i prywatnej.

WIRTUALNE SIECI PRYWATNE: INTRANETY I EKSTRANETY

Na długo zanim koncepcja wirtualnych przedsiębiorstw stała się częścią codziennych rozmów ekspertów od zarządzania, firmy stały się wirtualne, ponieważ często znajdowały się w różnych lokalizacjach, ale starały się działać jako spójne przedsiębiorstwo. Sekretem była i jest efektywna komunikacja. Radykalne ulepszenia w tym zakresie nastąpiły wraz z rozwojem telefonii, faksu i obwodów danych typu punkt-punkt. Firmy od wielu lat wykorzystują wirtualne sieci prywatne (VPN) do przenoszenia ruchu głosowego. Są to usługi świadczone przez firmy telekomunikacyjne, w których ruch głosowy jest transportowany pomiędzy wybranymi lokalizacjami wewnątrz firmy za pośrednictwem krajowych i międzynarodowych publicznych sieci telefonicznych w taki sposób, aby firma wyglądała tak, jakby wszyscy jej pracownicy byli na jednej dużej centrali PABX z prostą numeracją i rozliczenia w zależności od wymaganej struktury organizacyjnej. Tradycyjnie, natomiast głos i faks odniósł ogromne korzyści dzięki ustandaryzowanej zasad transmisji   i urządzeń końcowych, wymiana danych ucierpiała z powodu zastrzeżonych, niekompatybilnych systemów. Ponadto tendencja wykazywana przez telekomunikacyjną sieć głosową w kierunku systemów pobierania opłat opartych na czasie trwania, do niedawna skutkowała bardzo wysokimi kosztami przesyłania danych o dużym natężeniu między lokalizacjami oddzielonymi geograficznie. Jak wskazaliśmy w poprzednim rozdziale, Internet radykalnie zmienił te pozycje, oferując standardowy protokół wymiany, który można umieścić na wielu własnych interfejsach i wykorzystując przepustowość transmisji tylko wtedy, gdy jest to wymagane, może znacznie obniżyć opłaty telekomunikacyjne. Wiele firm przechodzi obecnie na internetowe wirtualne sieci prywatne do transmisji danych, a w niektórych przypadkach również do ruchu głosowego. Sieci te, których głównym celem jest zapewnienie komunikacji wewnątrz korporacyjnej przy użyciu protokołów internetowych, nazywane są intranetami. Podstawowa charakterystyka jest pokazana na rysunku

Nie ma powodu, dla którego zasada ta nie może być rozszerzona na komunikację wewnątrzbranżową w postaci ekstranetu

Jak pokazuje rysunek, istnieje jednak szereg różnic między intranetem a ekstranetem. Na poziomie aplikacji jasne jest, że w prawie wszystkich przypadkach tylko niektóre dane lub procesy będą udostępniane zainteresowanym firmom. W końcu firmy mogą udostępniać inne dane swoim konkurentom. Należy wprowadzić szereg środków bezpieczeństwa, aby upewnić się, że udostępniane są tylko odpowiednie dane. W niższych warstwach przenoszenia danych między witrynami może również występować różnica polegająca na tym, że zaangażowane firmy mogą wykorzystywać publiczny Internet jako sposób handlu, zamiast budować prywatne połączenie sieciowe między własnymi intranetami. Powoduje to dodatkowe problemy związane z bezpieczeństwem i jakością usług, zwłaszcza tam, gdzie te dwie firmy nie mają wspólnego dostawcy usług internetowych, którego role musimy teraz zbadać.

INTERNET I JAKOŚĆ USŁUG

Zauważ, że protokół TCP/IP ma na celu zapewnienie niezawodnej transmisji danych od nadawcy do odbiorcy. W przypadku wykrycia błędów protokół będzie wymagał ponownej transmisji danych, dopóki nie zostaną poprawnie odebrane. Może to skutkować wieloma powtórzeniami, zasadniczo bez względu na czas potrzebny. W konsekwencji specyfikacja jakości usług dla TCP/IP dotyczy jakości danych, ale nie dotyczy czasu potrzebnego na ich otrzymanie. Różni się to bardzo od specyfikacji telefonii, która ma na celu zapewnienie minimalnego opóźnienia od końca do końca. Usługi głosowe i strumieniowe przesyłanie wideo wymagają tego warunku, w przeciwieństwie do transmisji danych do przetwarzania nie w czasie rzeczywistym. Obecnie ten brak wymogu czasu rzeczywistego jest akceptowaną częścią praktycznie całego ruchu w publicznym Internecie. Ponieważ nie ma centralnej kontroli nad wszystkimi zaangażowanymi trasami i routerami, czas tranzytu jest całkowicie nieokreślony i nie ma łatwego sposobu na obejście problemu, pomimo wielu pomysłowych podejść. Z pewnością prawdą jest, że obecną sytuację można w pewnym stopniu poprawić: na przykład można próbować nakłonić routery zaangażowane w sesję, aby zgodziły się na próbę utrzymania otwartej ścieżki od końca do końca. W trakcie opracowywania są również protokoły, które przypisują różne etykiety „jakości usługi” do różnych rodzajów ruchu (na przykład głos, ruchome wideo o wysokim priorytecie). Ale to nie samo IP jest problemem; prawdziwym problemem jest zapewnienie pełnej odpowiedzialności handlowej za usługę na pluralistycznym rynku. To, co dzieje się z prywatnymi Internetami (intranetami) jest dość znaczące: tradycyjni dostawcy usług sieciowych (w tym operatorzy telekomunikacyjni) sprzedają sieci oparte na IP, ale z ostrożnym zarządzaniem ruchem, aby zminimalizować wąskie gardła. Często nie używają protokołu TCP do kontrolowania połączenia. Zamiast tego używają bardziej tradycyjnych platform przełączanych niż routowanych, na przykład zbudowanych w technologii Asynchronous Transfer Mode (ATM). Wszystko to jest bardzo aktywnym obszarem badań i rozwoju

PROTOKÓŁ INTERNETOWY Warstwa 4 – TCP

Nad protokołem IP w warstwowym modelu architektonicznym znajduje się Internet Transmission Control Protocol (TCP), który jest przeznaczony do obsługi tego rodzaju problemów. Oczywiście komputery na obu końcach tej trasy nie chcą znać żadnych szczegółów dotyczących sposobu, w jaki pakiety przechodzą przez sieć. Jedyne, czego chcą, to zapewnienie między nimi niezawodnego transportu. W tym celu oba komputery nawiązują „połączenie”

Zakłada się, że komputer, który otrzyma dane, nasłuchuje w sieci żądań ustanowienia połączenia. Jeden jest wysyłany z drugiego komputera i potwierdza to. Oba komputery konfigurują teraz bufory transmisji i odbioru, liczniki/timery i sprawdzanie błędów. Następnie jeden komputer przesyła pewne dane, miejmy nadzieję, że odbiera je drugi host i ostatecznie przesyła „wiadomość z potwierdzeniem”. Pod warunkiem, że nastąpi to w określonym czasie, nadawca zakłada, że ​​wszystko jest w porządku i w ten sam sposób prześle dalsze dane. Mówi się, że cała ta aktywność ma miejsce podczas „połączenia”. Podczas gdy połączenie jest na miejscu, dwa hosty nieustannie sprawdzają poprawność danych i wysyłają potwierdzenia i retransmisje, jeśli wystąpią problemy. Ciekawe rzeczy mogą się nie udać. Na przykład pakiety danych, które zostały utracone w buforach pamięci używanych przez podsieć, mogą nagle wyskakiwać po tym, jak nadawca zrezygnował z nich i ponownie przesłał dane, ale wszystko to jest załatwiane przez uzgadnianie TCP osiągnięte poprzez potwierdzenie protokół. TCP również dynamicznie kontroluje szybkość, z jaką dane mogą być wypompowywane z bufora hosta wysyłającego. Może ocenić wydajność trasy, monitorując postęp uzgadniania, a następnie dostosować przepływ danych, aby przesunąć go z maksymalną możliwą prędkością bez przeciążenia.

.

INTERNET

W świadomości wielu eCommerce i Internet są nierozłączne. Chociaż jest to zbyt prosty pogląd, nie ma wątpliwości, że technologie, aplikacje i standardy związane z Internetem dominują we wdrażaniu aplikacji e-biznesowych i prawie we wszystkich przypadkach przynajmniej jedna część łańcucha procesów będzie prowadzona przez sieci działające na protokołach internetowych. Ale najpierw powinniśmy uznać, że nie ma czegoś takiego jak Internet. Prawdziwym terminem jest „internet”, działalność, a nie jednostka, aktywność łączenia ze sobą kilku sieci i części zestawu, w celu zapewnienia pewnych możliwości transmisji typu end-to-end. Pragnienie, aby to zrobić, pierwotnie pojawiło się w wyniku zbieżności dwóch wyraźnie różnych nurtów myśli dotyczących sieci komputerowych. Jedną z nich była inicjatywa Departamentu Obrony USA, której celem było opracowanie rozwiązań, które zapewniłyby przetrwanie łączności w czasie ataku nuklearnego. Drugim był rynek komercyjny, który szukał opłacalnych rozwiązań dla szerokopasmowego połączenia między sieciami lokalnymi o bardzo niejednorodnym charakterze. Internet zawdzięcza swoje pozytywne i negatywne cechy tym bliźniaczym pragnieniom. W odniesieniu do kwestii przeżywalności: wojsko USA obawiało się, że konwencjonalne sieci telefoniczne, które obejmowały połączenia hierarchiczne za pośrednictwem scentralizowanych central telefonicznych, są podatne na ataki. Zaproponowano zatem, aby przesyłane dane były dzielone na małe pakiety (lub datagramy), każdy pakiet był oznaczony swoim numerem seryjnym, źródłem i miejscem docelowym, a pakiety były niezależnie odpalane w sieci. Tak więc, gdyby jedna część sieci miała zostać zniszczona, można by określić, które pakiety zostały utracone i szybko znaleźć nową trasę, którą można by je ponownie wysłać. Protokół służący do osiągnięcia tego celu, protokół internetowy (IP), zajmuje się dostarczaniem pakietów „z najlepszymi staraniami”. W zależności od zaistniałych warunków może nie dostarczyć, może dostarczyć więcej niż jedną kopię pakietu, może dostarczać pakiety w dowolnej kolejności i mogą one zawierać błędy. Aby spełnić to wymaganie do przetrwania w przedstawionych powyżej realiach komercyjnych, IP dzieli dane na datagramy o zmiennej długości do 64 KB (chociaż w praktyce mają one zwykle około 1000-2000 bajtów). Te pakiety danych są często dalej dzielone przez interweniujące sieci na mniejsze „fragmenty”, aby dopasować je do lokalnych ograniczeń dotyczących maksymalnego rozmiaru. Te fragmenty nie są ponownie łączone, dopóki nie dotrą do miejsca przeznaczenia, a jednym ze złożonych zadań protokołów internetowych jest dodanie do tych fragmentów dodatkowych informacji o adresowaniu i porządkowaniu, aby można je było pomyślnie dostarczyć i ponownie uporządkować. Każdy host („komputer”) i każdy router w Internecie ma unikalny adres, zwany jego adresem IP. Jest to 32-bitowy adres, który jest dołączany do datagramów w celu wskazania źródła i miejsca docelowego pakietu

Adres składa się z dwóch części: jedna część identyfikuje sieć, do której należy host, a druga część to unikalny numer w tej sieci. Sieci różnią się wielkością i złożonością, niektóre są „prywatne”, np. sieć kampusów uniwersyteckich, inne są zapewniane przez władze regionalne lub krajowe. Wszystkie sieci uzyskują swój adres IP od scentralizowanego organu, Network Information Centre. Sieci i adresy sieciowe można również podzielić na „podsieci”, co pomaga w administrowaniu systemem i umożliwia rozszerzenie zakresu numerów, a nie w taki sposób, że numery telefonów zawierają kod lokalny, regionalny i krajowy. Kody są zwykle wyrażane w oktetach, aby były łatwiejsze do odczytania. Routery przechowują tablice zawierające informacje o niektórych (ale nie wszystkich) innych sieciach w Internecie, a także o niektórych adresach do podsieci i hostów we własnej sieci. Istnieje kilka sposobów tworzenia tych tabel. W przypadku małych sieci możliwe jest ręczne ustawienie tych informacji. W przypadku większych sieci istnieje wiele zautomatyzowanych metod, dzięki którym routery uzyskują te informacje stopniowo, obserwując przechodzące przez nie dane. Mogą również okresowo wysyłać prośby do swoich sąsiadów, prosząc ich o zwrócenie informacji, z kim są połączeni. Załóżmy teraz, że pakiet dociera do routera 

Router porównuje adres docelowy pakietu z tabelą i może być w stanie wysłać go bezpośrednio do lokalnej sieci LAN, w której znajduje się host docelowy. Jeśli pakiet jest przeznaczony dla sieci zdalnej, router wyśle ​​go do następnego routera zalecanego w tabeli. Zauważ, że router niekoniecznie wysyła pakiet najbardziej bezpośrednią trasą; może po prostu wysłać go do domyślnego routera, który ma większy zestaw tabel. W pokazanym przykładzie adres docelowy pakietu 7.7.7.1 nie będzie pasował do następnej ścieżki oznaczonej jako 7.7.7.99, ale pasuje do ścieżki oznaczonej jako 7.7.7.0, czyli ścieżki 2. Jeśli ścieżka 2 nie istnieje i nie ma kompletne dopasowanie, wtedy zostałaby wybrana domyślna ścieżka 0.0.0.0. Ze względu na wymóg odporności na atak zdecydowano, że w każdym węźle w sieci (np. gdy router łączy poszczególne podsieci różnych organizacji), trasowanie w celu przekazania każdego pakietu dalej do następnego węzła będzie obliczane lokalnie , na podstawie wiedzy o tym, co działo się w pobliżu węzła (na przykład, która trasa z niego była najmniej zajęta i nie została zniszczona). Pakiety w końcu dotarłyby do zamierzonego miejsca przeznaczenia, pod warunkiem, że w ogóle istniała trasa, chociaż mogły dotrzeć w dowolnej kolejności i doświadczyć znacznego opóźnienia. Ważne jest, aby zdać sobie sprawę, że nie było intencją utrzymywania rejestru „najlepszego sposobu” od końca do końca w całej sieci. Pomysł na jakikolwiek półtrwały najlepszy sposób był sprzeczny z tym, co się stanie, gdy bomby zaczną spadać. Żadna trasa nie byłaby gwarantowana, aby przetrwać, a pakiety musiałyby znaleźć drogę przez sieć, której węzły ciągle się zapadały i były odbudowywane. Oprócz wojskowego imperatywu stworzenia sieci zdolnych do przetrwania, istniało szereg realiów komercyjnych: sieci komputerowe rozwijały się w duchu lokalnego świadczenia usług i na szybko zmieniającym się, konkurencyjnym, niestandardowym rynku. W konsekwencji nieuniknione było występowanie różnych protokołów komunikacyjnych i mało prób zapewnienia gwarantowanej jakości usług poza domeną lokalną. Również struktura danych nie jest zgodna z identycznymi układami. Istnieje wiele sposobów, w jakie sieci mogą się różnić, w tym sposób ich adresowania, maksymalny rozmiar pakietu, sposób obsługi błędów, sposób radzenia sobie z przeciążeniem węzłów i tak dalej. To, że możliwe jest osiągnięcie transmisji typu end-to-end w tego rodzaju złożoności (i spadających bomb!), jest dużym osiągnięciem, ale Internet to robi, chociaż nie bez nabywania mniej pożądanych właściwości. Pakiety mogą na przykład zniknąć w ślepym zaułku routerów, na stałe lub z dużym opóźnieniem. Pakiety mogą być dzielone na fragmenty przez heterogeniczne systemy o różnych długościach buforów przetwarzania; W niektórych przypadkach mogą być nawet generowane zduplikowane pakiety. W przypadku wielu wymagań nie jest to zadowalające, wymagamy jedynie protokołu, aby poinformować nas, na czym stoimy i kiedy poprosić o powtórzenie informacji.

PRZEJŚCIE SIECIĄ DO WAN

Działa to dobrze na krótkich dystansach i sieciach, które nie są zbyt obciążone – zauważ, że nawet w obrębie jednej sieci LAN nadal istnieje możliwość przedłużonego opóźnienia z powodu konieczności powtarzania serii danych po wystąpieniu kolizji. Ale sytuacja znacznie się pogarsza, gdy sieci są ze sobą połączone. Maksymalna szybkość transmisji danych, jaką może obsłużyć kabel, jest funkcją jego długości. Im dłuższy kabel, tym niższa stawka. W związku z tym nie możemy łatwo przekazywać szybkich serii danych przez łącza na duże odległości. Warunek ten jest pogarszany przez dalszy warunek, o którym wspomnieliśmy wcześniej, w naszej dyskusji o sieciach telekomunikacyjnych: maksymalna szybkość transmisji danych dozwolona w kablach telekomunikacyjnych jest ściśle kontrolowana i wyceniana. Tak więc, jeśli chcesz wprowadzić do sieci telekomunikacyjnej nawet bardzo okazjonalną porcję szybkich danych, musisz zapłacić za szybki obwód, niezależnie od tego, czy używasz go cały czas, czy nie. To może być bardzo drogie. Alternatywą jest ścisła kontrola szybkości, z jaką dane są wstrzykiwane do szerokiego obszaru sieć z sieci LAN. Odbywa się to poprzez zapewnienie pewnego rodzaju bramy między obszarami lokalnymi i rozległymi. Sieci komputerowe muszą ograniczać się do rozległego obszaru

EWOLUCJA SIECI DANYCH

W przypadku łączy klient-serwer detaliczny widzieliśmy, że przynajmniej klienci krajowi zazwyczaj musieli nawiązywać połączenia za pośrednictwem modemów i sieci telefonicznej. Charakterystyki tej sieci przez wiele lat były optymalizowane pod kątem obsługi głosu i niekoniecznie są tak dobre dla danych. Nawiązywane jest „połączenie telefoniczne” od końca do końca przez wszystkie centrale pośrednie na czas trwania rozmowy, praktycznie bez opóźnień od końca do końca, a ścieżka jest gwarantowana, ponieważ zaangażowane firmy telekomunikacyjne centralnie zaplanowały swoje trasy i wcześniej wspólnie uzgodnili łączność. Jedną z konsekwencji takiego podejścia i bardzo mocną stroną telekomunikacyjnych usług głosowych jest jakość usług. Połączenia, które są podłączone są mniej więcej gwarantowane, że będą działać bez wad lub pogorszenia. Jeśli sieć jest przeciążona, nowe połączenia są blokowane przed wejściem do sieci, zamiast kradzieży zasobów z istniejących połączeń. Co więcej, w naturze połączeń wybieranych kryje się koncepcja sesji: zaczyna się ona, gdy osoba wywoływana podnosi słuchawkę i kończy się, gdy słuchawka jest odkładana. Jednak podstawowy kanał głosowy charakteryzuje się raczej niską szybkością transmisji danych, zazwyczaj rzędu 64 kbit/s, a za jeden z nich pobierana jest opłata czasowa, niezależnie od tego, czy jakiekolwiek informacje są przesyłane, czy nie. Obwody również miały tendencję do bycia jednym, a nie jeden-do-wielu lub wiele-do-wielu. Przez wiele lat połączenia komputer-komputer wykorzystywały zmodyfikowane kanały głosowe lub kupowano prywatne obwody, które były przewodowe w całym kraju, aby bezpośrednio łączyć ich witryny. Wszystkie decyzje dotyczące trasowania ruchu podejmowała firma telekomunikacyjna, a sprzęt klientów był pod tym względem postrzegany jako „głupi”. Pojawienie się sieci lokalnych (LAN) o wielkości kampusu w latach 70. dało początek pierwszej architekturze, którą można określić jako „komputerową” (w przeciwieństwie do „opartej na telefonii”). Tym, co bardzo różni architekturę LAN od telefonii, są stosunkowo krótkie odległości: kilometr długości kabla jest duży w kategoriach LAN. Teraz zdolność kabla do przenoszenia szybkich sygnałów danych jest funkcją jego podstawowej konstrukcji i długości. Ponieważ sieci LAN są krótkie, mogą obsługiwać dziesiątki megabitów danych na sekundę na stosunkowo prostym (a tym samym tanim) kablu miedzianym. Pozwala to na bardzo prostą i „głupią” sieć

Terminale A, B i C są podłączone do tego samego kabla. Kiedy tylko chcą się komunikować, po prostu wysyłają pakiety danych z nazwą terminala nadawczego, nazwą terminala odbiorczego, niektórymi danymi kontrolnymi i samymi danymi. Każdy terminal „słyszy” każdy pakiet, a sygnały są zaprojektowane tak, aby każde uszkodzenie danych spowodowane przez dwa terminale jednocześnie transmitujące mogło zostać rozpoznane, a transmisja powtórzona po krótkim, losowym opóźnieniu. Zauważ, że to terminal, a nie sieć, posiada inteligencję. Centralnej centrali telefonicznej nie ma nic, a także nie ma potrzeby ograniczania szybkości transmisji danych (w ramach podstawowej przepustowości kabla). (Powinniśmy wspomnieć, że istnieją inne, bardziej ustrukturyzowane i mniej „statystycznebiznesowe” protokoły LAN, które nie opierają się na rzadkich kolizjach losowych – Token ring IBM jest godnym uwagi przykładem – ale powyższa metoda współdzielenia kabla tak, jakby był to otwarty “eter” radiowy, jest dominująca, pod odpowiednią nazwą Ethernet.) Jedną z konsekwencji tego podejścia jest brak rozróżnienia między transmisją informacji sterujących (routingu, wykonanego połączenia itp.) a danymi wiadomości, w przeciwieństwie do przypadku telefonii, w którym informacje sterujące mogą nawet obrać inną ścieżkę w sieci niż „ładunek” danych. W przeciwieństwie do mowy telefonicznej i danych faksowych, które są generowane w dość stałym tempie, dane komputerowe są zazwyczaj bardzo „przerywane” .

To z powodu tej zmienności możemy umieścić kilka urządzeń w tej samej sieci LAN bez zbytniego kolidowania ich danych. Jak powiedzieliśmy, krótki zasięg oznacza, że ​​kabel może obsługiwać bardzo dużą szybkość transmisji danych, a im wyższa szybkość transmisji, tym mniejsze ryzyko kolizji.

WARSTWA SIECI

Rzadko zdarza się, nawet w jednym, zunifikowanym biznesie, aby wszystkie procesy przyjmowania zamówień, katalogowania, zarządzania łańcuchem dostaw itp. odbywały się na jednym sprzęcie, w jednym pomieszczeniu. W naszym modelu wielopoziomowym niemal niejawne jest założenie, że w grę wchodzi pewna liczba komputerów. Muszą one być połączone (w sieci) razem. Jeśli wszystkie znajdują się w tym samym pomieszczeniu, być może nie musimy zbytnio zastanawiać się nad optymalizacją szybkości i kosztów. Ale jeśli są rozdzieleni na terenie kampusu, kraju lub na całym świecie, staje się to poważnym problemem. Zwykle tak będzie. Wiele firm istnieje w wielu lokalizacjach, a zatem tworzenie prawdziwie zintegrowanych, rozbudowanych przedsiębiorstw oznacza, że ​​usługi transmisji danych i głosu muszą działać na duże odległości. Prawie każda firma korzystająca z usług ISP będzie musiała zainstalować połączenie między usługodawcą internetowym a własnymi komputerami. Sposób, w jaki te połączenia sieciowe można osiągnąć skutecznie i niskim kosztem, był i nadal jest obszarem szybkiego rozwoju. Najłatwiej to zrozumieć, śledząc rozwój historyczny.