ROLA SPRZĘTU NARZĘDZIOWEGO

W przypadku detalicznego eCommerce, przynajmniej w przypadku dostarczania klientom informacji oraz możliwości uruchamiania koszyków zakupowych i innych podstawowych zadań, relacja między terminalem klienta a serwerem eCommerce jest stosunkowo prosta. W większości przypadków jest to po prostu ściąganie stron WWW w trybie klient-serwer, być może także wywoływanie prostych skryptów CGI lub generowania stron aktywnego serwera na serwerze. Rzeczywiste dzielenie się procesami w sposób rozproszony, peer-to-peer jest niewielkie lub nie ma go wcale, co odzwierciedla asymetryczną relację między klientami i dostawcami. W przypadku międzyfirmowym sytuacja może wyglądać zupełnie inaczej: platformy biznesowe zmieniają się z serwerów na klientów i z powrotem, znacznie bardziej równomiernie podczas transakcji. Robią to między procesami biznesowymi w ramach każdej pojedynczej firmy, a także w procesie między firmami, a często firmy są w wielu relacjach handlowych, nawet jednocześnie. Wymagane jest wówczas rozwiązanie oprogramowania pośredniczącego, które umożliwia zdalne sterowanie procedurami (RPC) lub podobne podejście do współdziałania między tymi platformami, być może w sposób prawdziwy peer-to-peer, i takie, które może działać w rozproszonym i heterogenicznym środowisku , głównie w sieciach TCP/IP komputerów, bardzo często o różnym roczniku i produkcji. Takie rozwiązania middleware dzielimy na kilka klas:

* Oparte na języku SQL: to jedno z najwcześniejszych podejść, dotyczy głównie operacji typu pobieranie danych. Rozwój ODBC (strona 101) i innych ulepszeń nadał temu podejściu bardziej zorientowanemu na procedury niż oryginalny model bazy danych.

* Zdalne wywołanie procedury: w swojej „czystej” formie zwykle obejmuje neutralny język specyfikacji do definiowania interfejsów między fragmentami kodu pośredniego lub szkieletowego na serwerze i kliencie.

* Pośrednictwo obiektów: rozszerza to niezależne od języka podejście eBUSINESS przy użyciu silnie hermetyzowanych (tj. z ukrytymi wewnętrznymi funkcjami) obiektów.

* Zorientowane na komunikaty i rozproszone przetwarzanie transakcji: oba dotyczą gwarantowanej niezawodnej realizacji działań międzyprocesorowych.

WARSTWA OPROGRAMOWANIA SERWERA

Bezpośrednio nad warstwą sieciową w architekturze e-biznesu  znajduje się oprogramowanie serwera. Obejmuje to podstawowy system operacyjny serwera i powiązane systemy: zdecydowanie najpopularniejsze są UNIX/LINUX i Microsoft NT. Najniższa część systemu operacyjnego dotyczy interakcji z warstwą sieciową. Jak wspomniano wcześniej, ta ostatnia jest zwykle implementacją TCP/IP, ale możliwe są inne, z których dominują IPX Netware i NetBEUI Microsoftu. Większość systemów sprzedawanych do celów e-biznesu zawiera również narzędzia inne niż podstawowy system operacyjny. Zwykle sprzedawane pod nazwą serwery aplikacji, zawierają serwer WWW do obsługi żądania http , serwer poczty e-mail, usługi bezpieczeństwa zwykle oparte na warstwie bezpiecznych gniazd (SSL) (patrz strona 266), zwykle niektóre urządzenia konferencyjne on-line, katalogi i tak dalej. Dostarczane są również rozproszone usługi zarządzania, coraz częściej wykorzystujące formularze HTML jako interfejs. Nawiasem mówiąc, chociaż problem dotyczy raczej sprzętu niż oprogramowania, powinniśmy zauważyć, że serwery aplikacji nie muszą być dużymi komputerami: wystarczą solidnie zaprojektowane maszyny oparte na procesorach Intel 486 lub podstawowych układach SUN SPARC. Serwer aplikacji staje się nie tylko serwerem WWW plus nieco więcej, ale głównym centrum kontrolnym dla klientów zewnętrznych i innych serwerów , prowadzenie procesów wewnętrznych. Jego mechanizm łączenia z tymi innymi procesami odbywa się za pośrednictwem oprogramowania pośredniczącego.

UWIERZYTELNIANIE ZDALNEGO DOSTĘPU

LDAP to podejście zorientowane na organizację, umieszczające osoby i jednostki biznesowe w ramach przedsiębiorstwa. Nieco inne podejście jest konieczne, gdy osoby fizyczne znajdują się „poza” firmowym intranetem, na przykład klienci uzyskujący dostęp do usług z domu lub pracownicy firmy pracujący w domu lub w ruchu. Jednym z rozwiązań tego problemu zdalnego dostępu jest często usługa RADIUS (Remote Authentication Dial-In User Service). W intranecie znajduje się serwer RADIUS, który przechowuje dane o profilu każdego zarejestrowanego użytkownika: hasła, uprawnienia, statystyki użytkowania i tak dalej. Gdy użytkownicy próbują zalogować się do punktu dostępu do sieci, ten ostatni automatycznie wysyła zapytanie do serwera RADIUS, aby sprawdzić, czy można zezwolić na dostęp. Należy pamiętać, że zdolność RADIUS do przechowywania statystyk użytkowania oznacza, że ​​może on stanowić integralną część mechanizmu rozliczeniowego do pobierania opłat tam, gdzie dostęp nie jest bezpłatny. Powyższe sekcje tylko pokrótce dotyczą szeregu aspektów bezpieczeństwa.

USŁUGI KATALOGOWE

Jeśli różne części przedsiębiorstwa chcą się ze sobą komunikować, muszą znać swoje adresy. W firmowej sieci telefonicznej odbywa się to poprzez utworzenie książki telefonicznej, która przypisuje nazwę do numeru wewnętrznego. W przybliżeniu ten sam proces jest wykorzystywany do routingu danych w intranecie lub ekstranecie. Jednak musi to również uwzględniać niepewny charakter publicznej trasy internetowej. Usługa katalogowa będzie zatem obejmować możliwość przechowywania i pobierania certyfikatów cyfrowych, które są potrzebne do zapewnienia integralności sieci VPN. Możliwe jest użycie relacyjnej bazy danych do przechowywania wszystkich tych informacji, ale może to stać się trudne i kosztowne w administrowaniu i mogą wystąpić pewne problemy z wydajnością. Powszechnie preferowana alternatywa opiera się na Lightweight Directory Access Protocol (LDAP) , wersji o zmniejszonej złożoności dobrze sprawdzonego standardu katalogów telekomunikacyjnych X500 . W szczególności zastępuje dość ciężki stos protokołów OSI jednym opartym na TCP/IP. Aby uzyskać więcej informacji. LDAP opiera się na hierarchicznej strukturze drzewa, która skutecznie odzwierciedla standardowe struktury organizacyjne i umożliwia powiązanie z dowolnym wpisem, zazwyczaj osobą lub funkcją, zestawem atrybutów, takich jak dane kontaktowe, certyfikaty cyfrowe itp.

Struktura drzewiasta oznacza również, że pozycja w hierarchii organizacyjnej jest jasno określona i na przykład jednostki nadrzędne i zależne można prześledzić w górę lub w dół. Jako funkcja administrowania systemami, LDAP posiada również właściwości operacji rozproszonych, które pozwalają na przechowywanie całego katalogu lub jego podzbiorów lokalnie, np. w celu poprawy wydajności dostępu, ale do automatycznej aktualizacji (synchronizacji) po każdej zmianie katalogu głównego. Główni dostawcy twierdzą również, że administratorom systemów dość łatwo jest dostroić buforowanie i indeksowanie oprogramowania LDAP w celu uzyskania bardzo wysokiej wydajności. Aby dać pewne pojęcie o skali, Netscape twierdzi, że ich serwer Directory Server może obsługiwać „ponad 5000 zapytań na sekundę i 50 milionów wpisów użytkowników na jednym serwerze.

TUNELE INTERNETOWE

W celu zintegrowania różnych rozproszonych części sieci korporacyjnej, najlepiej byłoby, gdyby można było zignorować publiczny Internet, który do nich dołącza. Koncepcyjnie stosujemy strategię. Na wejściu i wyjściu do witryn zapewniamy logiczną bramę, która hermetyzuje pakiety IP z jednej witryny do drugiej w tym sensie, że Internet nie może, być może nie może, odczytać ich ostatecznych adresów źródłowych i docelowych, a nawet ich zawartość. Wszystko, co robi Internet, to trasowanie pakietu z bramy źródłowej do bramy docelowej, ponieważ jest to jedyna część pakietu, którą może odczytać. W miejscu docelowym pakiet jest następnie hermetyzowany przez bramę i migrowany do sieci wewnętrznej, aby dotrzeć do zamierzonego hosta odbiorczego. Aby brama mogła to zrobić z pakietami chronionymi przez zabezpieczenia, musi wymienić klucze szyfrowania z drugą bramą. Można to zrobić za pomocą protokołów takich jak IPSec , PPTP lub L2TP. Na rysunku pokazano również dostęp przez publiczny Internet do urzędu certyfikacji, którego usługi są wymagane w celu weryfikacji kluczy szyfrowania bram.

Jedna część bramy może działać jako zapora. Może odfiltrowywać niebezpieczne lub podejrzane pakiety, a jeśli zawiera bramę aplikacji, kontrolować również żądania aplikacji z zewnątrz. Ta funkcja bramy bezpieczeństwa jest sterowana przez serwer polityki bezpieczeństwa, który przechowuje listę dozwolonych i zabronionych działań, dozwolonych lub zabronionych adresów, które mogą lub nie mogą komunikować się między siecią wewnętrzną i publiczną, i być może rejestruje wszelkie takie próby naruszeń lub alarmy, gdy się pojawią.

„ISP”

Firmy na ogół nie zarządzają sieciami internetowymi, które łączą ich firmy na dużym obszarze. Zamiast tego kupują te obiekty od jednej z dużej liczby firm specjalizujących się w ich dostarczaniu, dostawcy usług internetowych. Niektórzy dostawcy usług internetowych oferują jedynie punkt obecności (POP), połączenie o nieokreślonej wydajności z globalnymi możliwościami Internetu; inni, tak zwani dostawcy usług sieciowych (NSP), również zapewniają określone umowy o świadczenie usług przesyłania ruchu IP przez prywatne sieci dalekiego zasięgu, które zbudowali lub wydzierżawili. Wielu NSP to organizacje powiązane z tradycyjnymi dostawcami sieci telekomunikacyjnych. (np. AT&T Worldnet). Firma, która chce zmaksymalizować wydajność swojej sieci, może preferować, za pewną cenę, prowadzenie procesów wewnątrzfirmowych w wielu lokalizacjach w jednej takiej prywatnej sieci IP; mała firma lub taka, która ma ograniczone koszty, może preferować szczęście, korzystając z w pełni publicznego połączenia internetowego. W praktyce firmy prawdopodobnie będą wykorzystywać zarówno: prywatną trasę NSP do ruchu wewnętrznego, jak i do połączeń z uprzywilejowanymi partnerami, publiczne połączenie do innych transakcji. Rysunek ,

przedstawia typową instalację ISP. Poza punktem obecności dostawcy usług internetowych nawiązują połączenie z siecią szkieletową samego Internetu. Ta sieć szkieletowa obejmuje wiele bardzo dużych i szybkich sieci prywatnych dostarczanych przez główne firmy sieciowe, dostawców poziomu pierwszego, którzy uzgadniają i zarządzają połączeniami między sobą w punktach dostępu do sieci internetowej (NAP). Aby dać pewne pojęcie o skali: w Ameryce Północnej istnieje tylko sześć uznanych NAP. Zauważ, że NAP są administracyjnymi, a nie komercyjnymi punktami w Internecie; firmy nie mogą bezpośrednio od nich kupować dostępu. Punkt zakupu znajduje się w POP wybranego dostawcy usług internetowych; następnie dostawca usług internetowych zapewnia lub negocjuje połączenie z Internetem za pośrednictwem dostawcy poziomu pierwszego. Każda firma rozpoczynająca rozmowy handlowe z dostawcami usług internetowych powinna zatem zajmować się uzgadnianiem poziomów usług do i z POP dostawcy usług internetowych i, jeśli to możliwe, spróbować ocenić umowę dostawcy usług internetowych z firmą poziomu pierwszego, z którą jest połączona . Jak widać na Rysunku wydaje się, że niewiele jest konfiguracji wirtualnej lub prywatnej.

Aby uzasadnić warunki, należy dodać inne elementy: musimy zapewnić pewną ochronę danych przed przechwyceniem i korupcją; możemy chcieć ukryć szczegóły routingu w sieci publicznej z dwóch końców, aby można je było uzyskać za pośrednictwem dowolnego łącza bez konieczności ich rekonfiguracji; równie dobrze możemy chcieć ukryć wszelkie wewnętrzne szczegóły obu końców przed sobą i przed kimkolwiek w publicznym Internecie; wreszcie możemy chcieć wyznaczyć jakiś kompleksowy cel w zakresie jakości usług. Ten ostatni wymóg wymaga współpracy z ISP; pozostałe wymagania spełnia zapewnienie tuneli i wykorzystanie bezpiecznych bramek, takich jak zapory ogniowe, na styku sieci publicznej i prywatnej.

WIRTUALNE SIECI PRYWATNE: INTRANETY I EKSTRANETY

Na długo zanim koncepcja wirtualnych przedsiębiorstw stała się częścią codziennych rozmów ekspertów od zarządzania, firmy stały się wirtualne, ponieważ często znajdowały się w różnych lokalizacjach, ale starały się działać jako spójne przedsiębiorstwo. Sekretem była i jest efektywna komunikacja. Radykalne ulepszenia w tym zakresie nastąpiły wraz z rozwojem telefonii, faksu i obwodów danych typu punkt-punkt. Firmy od wielu lat wykorzystują wirtualne sieci prywatne (VPN) do przenoszenia ruchu głosowego. Są to usługi świadczone przez firmy telekomunikacyjne, w których ruch głosowy jest transportowany pomiędzy wybranymi lokalizacjami wewnątrz firmy za pośrednictwem krajowych i międzynarodowych publicznych sieci telefonicznych w taki sposób, aby firma wyglądała tak, jakby wszyscy jej pracownicy byli na jednej dużej centrali PABX z prostą numeracją i rozliczenia w zależności od wymaganej struktury organizacyjnej. Tradycyjnie, natomiast głos i faks odniósł ogromne korzyści dzięki ustandaryzowanej zasad transmisji   i urządzeń końcowych, wymiana danych ucierpiała z powodu zastrzeżonych, niekompatybilnych systemów. Ponadto tendencja wykazywana przez telekomunikacyjną sieć głosową w kierunku systemów pobierania opłat opartych na czasie trwania, do niedawna skutkowała bardzo wysokimi kosztami przesyłania danych o dużym natężeniu między lokalizacjami oddzielonymi geograficznie. Jak wskazaliśmy w poprzednim rozdziale, Internet radykalnie zmienił te pozycje, oferując standardowy protokół wymiany, który można umieścić na wielu własnych interfejsach i wykorzystując przepustowość transmisji tylko wtedy, gdy jest to wymagane, może znacznie obniżyć opłaty telekomunikacyjne. Wiele firm przechodzi obecnie na internetowe wirtualne sieci prywatne do transmisji danych, a w niektórych przypadkach również do ruchu głosowego. Sieci te, których głównym celem jest zapewnienie komunikacji wewnątrz korporacyjnej przy użyciu protokołów internetowych, nazywane są intranetami. Podstawowa charakterystyka jest pokazana na rysunku

Nie ma powodu, dla którego zasada ta nie może być rozszerzona na komunikację wewnątrzbranżową w postaci ekstranetu

Jak pokazuje rysunek, istnieje jednak szereg różnic między intranetem a ekstranetem. Na poziomie aplikacji jasne jest, że w prawie wszystkich przypadkach tylko niektóre dane lub procesy będą udostępniane zainteresowanym firmom. W końcu firmy mogą udostępniać inne dane swoim konkurentom. Należy wprowadzić szereg środków bezpieczeństwa, aby upewnić się, że udostępniane są tylko odpowiednie dane. W niższych warstwach przenoszenia danych między witrynami może również występować różnica polegająca na tym, że zaangażowane firmy mogą wykorzystywać publiczny Internet jako sposób handlu, zamiast budować prywatne połączenie sieciowe między własnymi intranetami. Powoduje to dodatkowe problemy związane z bezpieczeństwem i jakością usług, zwłaszcza tam, gdzie te dwie firmy nie mają wspólnego dostawcy usług internetowych, którego role musimy teraz zbadać.

INTERNET I JAKOŚĆ USŁUG

Zauważ, że protokół TCP/IP ma na celu zapewnienie niezawodnej transmisji danych od nadawcy do odbiorcy. W przypadku wykrycia błędów protokół będzie wymagał ponownej transmisji danych, dopóki nie zostaną poprawnie odebrane. Może to skutkować wieloma powtórzeniami, zasadniczo bez względu na czas potrzebny. W konsekwencji specyfikacja jakości usług dla TCP/IP dotyczy jakości danych, ale nie dotyczy czasu potrzebnego na ich otrzymanie. Różni się to bardzo od specyfikacji telefonii, która ma na celu zapewnienie minimalnego opóźnienia od końca do końca. Usługi głosowe i strumieniowe przesyłanie wideo wymagają tego warunku, w przeciwieństwie do transmisji danych do przetwarzania nie w czasie rzeczywistym. Obecnie ten brak wymogu czasu rzeczywistego jest akceptowaną częścią praktycznie całego ruchu w publicznym Internecie. Ponieważ nie ma centralnej kontroli nad wszystkimi zaangażowanymi trasami i routerami, czas tranzytu jest całkowicie nieokreślony i nie ma łatwego sposobu na obejście problemu, pomimo wielu pomysłowych podejść. Z pewnością prawdą jest, że obecną sytuację można w pewnym stopniu poprawić: na przykład można próbować nakłonić routery zaangażowane w sesję, aby zgodziły się na próbę utrzymania otwartej ścieżki od końca do końca. W trakcie opracowywania są również protokoły, które przypisują różne etykiety „jakości usługi” do różnych rodzajów ruchu (na przykład głos, ruchome wideo o wysokim priorytecie). Ale to nie samo IP jest problemem; prawdziwym problemem jest zapewnienie pełnej odpowiedzialności handlowej za usługę na pluralistycznym rynku. To, co dzieje się z prywatnymi Internetami (intranetami) jest dość znaczące: tradycyjni dostawcy usług sieciowych (w tym operatorzy telekomunikacyjni) sprzedają sieci oparte na IP, ale z ostrożnym zarządzaniem ruchem, aby zminimalizować wąskie gardła. Często nie używają protokołu TCP do kontrolowania połączenia. Zamiast tego używają bardziej tradycyjnych platform przełączanych niż routowanych, na przykład zbudowanych w technologii Asynchronous Transfer Mode (ATM). Wszystko to jest bardzo aktywnym obszarem badań i rozwoju

PROTOKÓŁ INTERNETOWY Warstwa 4 – TCP

Nad protokołem IP w warstwowym modelu architektonicznym znajduje się Internet Transmission Control Protocol (TCP), który jest przeznaczony do obsługi tego rodzaju problemów. Oczywiście komputery na obu końcach tej trasy nie chcą znać żadnych szczegółów dotyczących sposobu, w jaki pakiety przechodzą przez sieć. Jedyne, czego chcą, to zapewnienie między nimi niezawodnego transportu. W tym celu oba komputery nawiązują „połączenie”

Zakłada się, że komputer, który otrzyma dane, nasłuchuje w sieci żądań ustanowienia połączenia. Jeden jest wysyłany z drugiego komputera i potwierdza to. Oba komputery konfigurują teraz bufory transmisji i odbioru, liczniki/timery i sprawdzanie błędów. Następnie jeden komputer przesyła pewne dane, miejmy nadzieję, że odbiera je drugi host i ostatecznie przesyła „wiadomość z potwierdzeniem”. Pod warunkiem, że nastąpi to w określonym czasie, nadawca zakłada, że ​​wszystko jest w porządku i w ten sam sposób prześle dalsze dane. Mówi się, że cała ta aktywność ma miejsce podczas „połączenia”. Podczas gdy połączenie jest na miejscu, dwa hosty nieustannie sprawdzają poprawność danych i wysyłają potwierdzenia i retransmisje, jeśli wystąpią problemy. Ciekawe rzeczy mogą się nie udać. Na przykład pakiety danych, które zostały utracone w buforach pamięci używanych przez podsieć, mogą nagle wyskakiwać po tym, jak nadawca zrezygnował z nich i ponownie przesłał dane, ale wszystko to jest załatwiane przez uzgadnianie TCP osiągnięte poprzez potwierdzenie protokół. TCP również dynamicznie kontroluje szybkość, z jaką dane mogą być wypompowywane z bufora hosta wysyłającego. Może ocenić wydajność trasy, monitorując postęp uzgadniania, a następnie dostosować przepływ danych, aby przesunąć go z maksymalną możliwą prędkością bez przeciążenia.

.

INTERNET

W świadomości wielu eCommerce i Internet są nierozłączne. Chociaż jest to zbyt prosty pogląd, nie ma wątpliwości, że technologie, aplikacje i standardy związane z Internetem dominują we wdrażaniu aplikacji e-biznesowych i prawie we wszystkich przypadkach przynajmniej jedna część łańcucha procesów będzie prowadzona przez sieci działające na protokołach internetowych. Ale najpierw powinniśmy uznać, że nie ma czegoś takiego jak Internet. Prawdziwym terminem jest „internet”, działalność, a nie jednostka, aktywność łączenia ze sobą kilku sieci i części zestawu, w celu zapewnienia pewnych możliwości transmisji typu end-to-end. Pragnienie, aby to zrobić, pierwotnie pojawiło się w wyniku zbieżności dwóch wyraźnie różnych nurtów myśli dotyczących sieci komputerowych. Jedną z nich była inicjatywa Departamentu Obrony USA, której celem było opracowanie rozwiązań, które zapewniłyby przetrwanie łączności w czasie ataku nuklearnego. Drugim był rynek komercyjny, który szukał opłacalnych rozwiązań dla szerokopasmowego połączenia między sieciami lokalnymi o bardzo niejednorodnym charakterze. Internet zawdzięcza swoje pozytywne i negatywne cechy tym bliźniaczym pragnieniom. W odniesieniu do kwestii przeżywalności: wojsko USA obawiało się, że konwencjonalne sieci telefoniczne, które obejmowały połączenia hierarchiczne za pośrednictwem scentralizowanych central telefonicznych, są podatne na ataki. Zaproponowano zatem, aby przesyłane dane były dzielone na małe pakiety (lub datagramy), każdy pakiet był oznaczony swoim numerem seryjnym, źródłem i miejscem docelowym, a pakiety były niezależnie odpalane w sieci. Tak więc, gdyby jedna część sieci miała zostać zniszczona, można by określić, które pakiety zostały utracone i szybko znaleźć nową trasę, którą można by je ponownie wysłać. Protokół służący do osiągnięcia tego celu, protokół internetowy (IP), zajmuje się dostarczaniem pakietów „z najlepszymi staraniami”. W zależności od zaistniałych warunków może nie dostarczyć, może dostarczyć więcej niż jedną kopię pakietu, może dostarczać pakiety w dowolnej kolejności i mogą one zawierać błędy. Aby spełnić to wymaganie do przetrwania w przedstawionych powyżej realiach komercyjnych, IP dzieli dane na datagramy o zmiennej długości do 64 KB (chociaż w praktyce mają one zwykle około 1000-2000 bajtów). Te pakiety danych są często dalej dzielone przez interweniujące sieci na mniejsze „fragmenty”, aby dopasować je do lokalnych ograniczeń dotyczących maksymalnego rozmiaru. Te fragmenty nie są ponownie łączone, dopóki nie dotrą do miejsca przeznaczenia, a jednym ze złożonych zadań protokołów internetowych jest dodanie do tych fragmentów dodatkowych informacji o adresowaniu i porządkowaniu, aby można je było pomyślnie dostarczyć i ponownie uporządkować. Każdy host („komputer”) i każdy router w Internecie ma unikalny adres, zwany jego adresem IP. Jest to 32-bitowy adres, który jest dołączany do datagramów w celu wskazania źródła i miejsca docelowego pakietu

Adres składa się z dwóch części: jedna część identyfikuje sieć, do której należy host, a druga część to unikalny numer w tej sieci. Sieci różnią się wielkością i złożonością, niektóre są „prywatne”, np. sieć kampusów uniwersyteckich, inne są zapewniane przez władze regionalne lub krajowe. Wszystkie sieci uzyskują swój adres IP od scentralizowanego organu, Network Information Centre. Sieci i adresy sieciowe można również podzielić na „podsieci”, co pomaga w administrowaniu systemem i umożliwia rozszerzenie zakresu numerów, a nie w taki sposób, że numery telefonów zawierają kod lokalny, regionalny i krajowy. Kody są zwykle wyrażane w oktetach, aby były łatwiejsze do odczytania. Routery przechowują tablice zawierające informacje o niektórych (ale nie wszystkich) innych sieciach w Internecie, a także o niektórych adresach do podsieci i hostów we własnej sieci. Istnieje kilka sposobów tworzenia tych tabel. W przypadku małych sieci możliwe jest ręczne ustawienie tych informacji. W przypadku większych sieci istnieje wiele zautomatyzowanych metod, dzięki którym routery uzyskują te informacje stopniowo, obserwując przechodzące przez nie dane. Mogą również okresowo wysyłać prośby do swoich sąsiadów, prosząc ich o zwrócenie informacji, z kim są połączeni. Załóżmy teraz, że pakiet dociera do routera 

Router porównuje adres docelowy pakietu z tabelą i może być w stanie wysłać go bezpośrednio do lokalnej sieci LAN, w której znajduje się host docelowy. Jeśli pakiet jest przeznaczony dla sieci zdalnej, router wyśle ​​go do następnego routera zalecanego w tabeli. Zauważ, że router niekoniecznie wysyła pakiet najbardziej bezpośrednią trasą; może po prostu wysłać go do domyślnego routera, który ma większy zestaw tabel. W pokazanym przykładzie adres docelowy pakietu 7.7.7.1 nie będzie pasował do następnej ścieżki oznaczonej jako 7.7.7.99, ale pasuje do ścieżki oznaczonej jako 7.7.7.0, czyli ścieżki 2. Jeśli ścieżka 2 nie istnieje i nie ma kompletne dopasowanie, wtedy zostałaby wybrana domyślna ścieżka 0.0.0.0. Ze względu na wymóg odporności na atak zdecydowano, że w każdym węźle w sieci (np. gdy router łączy poszczególne podsieci różnych organizacji), trasowanie w celu przekazania każdego pakietu dalej do następnego węzła będzie obliczane lokalnie , na podstawie wiedzy o tym, co działo się w pobliżu węzła (na przykład, która trasa z niego była najmniej zajęta i nie została zniszczona). Pakiety w końcu dotarłyby do zamierzonego miejsca przeznaczenia, pod warunkiem, że w ogóle istniała trasa, chociaż mogły dotrzeć w dowolnej kolejności i doświadczyć znacznego opóźnienia. Ważne jest, aby zdać sobie sprawę, że nie było intencją utrzymywania rejestru „najlepszego sposobu” od końca do końca w całej sieci. Pomysł na jakikolwiek półtrwały najlepszy sposób był sprzeczny z tym, co się stanie, gdy bomby zaczną spadać. Żadna trasa nie byłaby gwarantowana, aby przetrwać, a pakiety musiałyby znaleźć drogę przez sieć, której węzły ciągle się zapadały i były odbudowywane. Oprócz wojskowego imperatywu stworzenia sieci zdolnych do przetrwania, istniało szereg realiów komercyjnych: sieci komputerowe rozwijały się w duchu lokalnego świadczenia usług i na szybko zmieniającym się, konkurencyjnym, niestandardowym rynku. W konsekwencji nieuniknione było występowanie różnych protokołów komunikacyjnych i mało prób zapewnienia gwarantowanej jakości usług poza domeną lokalną. Również struktura danych nie jest zgodna z identycznymi układami. Istnieje wiele sposobów, w jakie sieci mogą się różnić, w tym sposób ich adresowania, maksymalny rozmiar pakietu, sposób obsługi błędów, sposób radzenia sobie z przeciążeniem węzłów i tak dalej. To, że możliwe jest osiągnięcie transmisji typu end-to-end w tego rodzaju złożoności (i spadających bomb!), jest dużym osiągnięciem, ale Internet to robi, chociaż nie bez nabywania mniej pożądanych właściwości. Pakiety mogą na przykład zniknąć w ślepym zaułku routerów, na stałe lub z dużym opóźnieniem. Pakiety mogą być dzielone na fragmenty przez heterogeniczne systemy o różnych długościach buforów przetwarzania; W niektórych przypadkach mogą być nawet generowane zduplikowane pakiety. W przypadku wielu wymagań nie jest to zadowalające, wymagamy jedynie protokołu, aby poinformować nas, na czym stoimy i kiedy poprosić o powtórzenie informacji.