ODRZUCENIE I AKCEPTACJA

Zawsze istnieje kompromis między wydajnością systemu w nieprawidłowym odrzucaniu kogoś, kto powinien mieć przywileje dostępu, a jego podatnością na oszustów. Każdy schemat ma krzywą wydajności. Większość schematów pozwala nam ustawić progi rozpoznawania, które określają, gdzie na wykresie fałszywego rozpoznania/fałszywego odrzucenia chcemy działać. Zwykle, jeśli dostęp do procedur krytycznych, zdecydujemy się działać z niskim wskaźnikiem fałszywego rozpoznania, a zatem czasami będziemy oczekiwać odrzucenia, niesłusznie, prób dostępu ze strony legalnych stron. Mogą zostać poproszeni o ponowną próbę. Jednak większość powszechnie stosowanych obecnie systemów biometrycznych nie radzi sobie dobrze z odrzucaniem oszustów i akceptacją legalnych użytkowników. W związku z tym mają tendencję do faworyzowania akceptacji, a nie odrzucania i są używane w połączeniu z hasłami i kodami PIN jako drugorzędnymi środkami bezpieczeństwa. Innym problemem związanym z wieloma schematami biometrycznymi jest dowodliwość. Pamiętaj, że powiedzieliśmy, że jednym z ważnych kryteriów akceptowalności schematu zabezpieczeń jest to, że jest on „demonstralnie bezpieczny”. Później przyjrzymy się jednemu miarowi, który można wykorzystać do wyboru schematów o wysokiej „dowodliwości”, ale najpierw rozważymy niektóre podstawowa teoria klasyfikacji.

DOWÓD TOŻSAMOŚCI – BIOMETRIA

W poprzedniej sekcji wspomnieliśmy o informacjach biometrycznych. Jednym z niezwykle ważnych aspektów bezpieczeństwa w środowisku sieciowym jest dowód tożsamości. Nie stanowiło to problemu, gdy ludzie rozmawiali twarzą w twarz, ale jak rozpoznać kogoś na odległość? W przypadku certyfikatów cyfrowych widzieliśmy, że klucze publiczne/prywatne mogą zostać zweryfikowane przez stronę trzecią, ale później mogą zostać skradzione. Wciąż nie ma możliwości, aby można je było jednoznacznie skojarzyć z osobą, bez czegoś dodatkowego, jakiejś niepodrabialnej cechy, mierzalnie unikalnej dla osoby ubiegającej się o dostęp w momencie, gdy jest on wymagany. Potrzebujemy czegoś, co identyfikuje osobę poprzez unikalną cechę biologiczną. Te „biometryczne” pomiary opierają się na identyfikacji pewnego wzorca nawykowych zachowań lub cech fizycznych, które są w pewien sposób bardziej specyficzne dla jednostki niż dla ogółu ludzi. Pomiar musi nie tylko umożliwiać identyfikację osób, ale także musi umożliwiać udowodnienie, że tak jest. Ma to tendencję do faworyzowania parametrów fizjologicznych, takich jak odciski palców lub obrazy tęczówki, które są precyzyjne i stosunkowo niezmienne w czasie lub sytuacji, a nie „zwykłym” miarom, takim jak głos lub pismo ręczne, które są wyuczonymi nawykami, które nie są genetycznie „wypalone”. Niemniej jednak w praktyce pomiar musi być opłacalny, a jego administracja akceptowalna dla użytkownika, co czasami oznacza, że ​​zwykłe cechy zajmują ważne miejsce. Identyfikacja za pomocą środków biometrycznych jest szczególnym przykładem ogólnej klasy problemów z dopasowywaniem wzorców. Biorąc pod uwagę przykład od nieznanego podmiotu, istnieje wiele technik, dzięki którym można go porównać z istniejącymi wzorcami od wielu podmiotów, aby dowiedzieć się, które wzorce podmiotów są najbardziej podobne, a tym samym zapewnić jak najlepsze odgadnięcie tożsamości indywidualnego. Do różnych typów biometrycznych zastosowano różne techniki, wykorzystując szereg technologii pomiarowych. Jednak we wszystkich stosowanych technikach i biometriach istnieje zestaw wspólnych cech, które muszą być spełnione, aby stworzyć system, który jest zadowalający w praktyce.

BEZPIECZEŃSTWO PRZENOŚNE – KARTA INTELIGENTNA

Widzieliśmy wcześniej, że zapewnienie bezpiecznej usługi komunikacyjnej polegało na utrzymywaniu w tajemnicy przynajmniej części informacji. Próba utrzymania w naszych głowach długiego, złożonego klucza prywatnego jest niewykonalna. Możliwe jest przechowywanie tych informacji na komputerze, ale zawsze istnieje ryzyko, że ktoś użyje urządzenia nielegalnie, gdy Cię tam nie będzie. Istnieje również niedogodność związana z brakiem możliwości pracy w innej lokalizacji. Najlepiej byłoby, gdybyśmy mogli nosić ze sobą tajne informacje w bezpiecznej i zwartej formie. Jednym ze sposobów na to jest użycie karty inteligentnej. Karty inteligentne to komputery zamknięte w plastikowych obudowach wielkości karty kredytowej. Procesory są zaprojektowane tak, aby działały dość wolno, ale przez to zużywają niewiele energii elektrycznej, nawet przy pełnej prędkości, a cała karta zużywa pikoampery (w celu zachowania pamięci), gdy nie jest używana. Karta posiada stałą pamięć tylko do odczytu, która zawiera instrukcje programowania. W przypadku zastosowań związanych z bezpieczeństwem mogą one obejmować obecnie preferowany algorytm lub algorytmy szyfrowania. Pamięć tylko do odczytu może również zawierać dane, w tym klucz prywatny użytkownika. Alternatywnym podejściem jest implementacja algorytmu na sprzęcie specjalnego przeznaczenia, takim jak chip szyfrujący. Możliwych jest wiele opcji wejścia/wyjścia: obecne karty zwykle łączą się z innymi urządzeniami za pomocą złączy elektrycznych na krawędzi lub powierzchni karty, ale można również użyć połączenia magnetycznego, pojemnościowego lub radiowego, podobnie jak metody optyczne. W badaniu przeprowadzonym w 1995 r. zidentyfikowano blisko 200 organizacji aktywnie zaangażowanych w rozwój sprzętu do kart inteligentnych lub ich integrację. Prowadzone są ożywione działania w obszarze międzynarodowych standardów dotyczących architektur kart i podstawowych parametrów, takich jak napięcie robocze i specyfikacja połączenia elektrycznego, ponieważ widać, że istnieje możliwość znacznej redukcji kosztów, jeśli można zmniejszyć liczbę wariantów. Karty inteligentne mogą przechowywać ogólnie przydatne informacje; na przykład mogą zawierać listę numerów telefonów, które możemy wywołać krótkim kodem wybierania. (1 = „mama”, 2 = „praca” itd.). Telefony komórkowe GSM zawierają inteligentny chip, moduł identyfikacji abonenta (SIM), który przechowuje własny kod identyfikacyjny użytkownika. Bez niego żaden telefon GSM nie będzie działał. Dzięki niemu telefon komórkowy może wysłać tożsamość użytkownika do sieci komórkowej, nadając prawa dostępu i pozwalając na przypisanie opłat do rachunku użytkownika. W części 3, Pieniądz elektroniczny, omawiamy, w jaki sposób może on stanowić podstawę źródła pieniądza elektronicznego. Karty można również zaprogramować do przechowywania danych biometrycznych w postaci zaszyfrowanej, aby można było bezpiecznie sprawdzić każdy przypadek użycia danych biometrycznych w celu uzyskania dostępu. Jedną z wad charakterystyk kart inteligentnych jest brak dobrej standaryzacji na poziomie fizycznym i aplikacyjnym. Postęp nastąpił w ostatnich latach [95], ale nadal nie jest kompletny. Jednym z głównych osiągnięć było pojawienie się standardu warstwowego z grupy komputerów osobistych/kart inteligentnych (PC/SC)

ZNAK WODNY

Jeśli nie możemy uniemożliwić ludziom kopiowania wartościowych treści, możemy przynajmniej znaleźć sposoby na ich zniechęcenie. Prawo jest w tej kwestii jasne – nielegalne jest wykonywanie nieautoryzowanych kopii materiałów chronionych prawem autorskim (i innych materiałów, np. dostarczonych pod warunkiem niekopiowania, tajemnic państwowych itp.). Jeśli potrafimy pokazać, kto wykonał kopiowanie (lub kto pożyczył im kopię), wtedy można podać przykłady, które mogą zniechęcić innych. Jednym ze skutecznych sposobów byłoby oznaczenie każdego egzemplarza nazwiskiem osoby, której został on wydany, z obowiązkiem dochowania staranności, aby nie został on skopiowany. Zakładając, że będziemy mogli zobaczyć te informacje przeniesione na nielegalną kopię, będziemy mogli wiedzieć, kogo winić. Ale, oczywiście, nie możemy oczekiwać, że jakikolwiek kopista o zdrowym rozsądku pozwoli, aby te szczegóły pozostały na kopii, jeśli wie, że tam są i wie, jak je usunąć. Jeśli mamy to uniemożliwić (lub przynajmniej bardzo utrudnić), musimy zrobić dwie rzeczy:

† Ukryj informacje w materiale.

† A przynajmniej zrób to w taki sposób, aby nie dało się go łatwo wyciąć sam materiał.

Taki schemat jest znany jako znak wodny w analogii do sposobu, w jaki banknoty i inne materiały fizyczne, głównie papierowe, są nadrukowywane na ich powierzchni niepozornym nadrukiem. Tam, gdzie odcisk jest niewidoczny i nie jest łatwy do znalezienia, technika ta jest znana jako steganografia. Kilka lat temu autor opracował bardzo prosty schemat postępowania z dokumentami tworzonymi w edytorze tekstu, aby zapewnić ścieżkę audytu w przypadku nieautoryzowanego „wycieku”: za każdym razem, gdy kopia dokumentu była drukowana, proporcjonalne odstępy między wyrazami zostały zmodyfikowane w taki sposób, że ukryty „unikalny numer egzemplarza” został skutecznie umieszczony w samym tekście. Oczywiście ten numer kopii nie jest tracony po kserowaniu, kopiowaniu fotograficznym itp. Ogólnie, chociaż istnieją pewne kontrprzykłady, w których kruchość znaku wodnego może być cenna, większość znaków wodnych ma mieć dokładnie odwrotne właściwości kryptograficznych funkcji skrótu. Oznacza to, że muszą być odporne na szereg przekształceń oryginalnego materiału, na przykład algorytmy kompresji używane do zmniejszania liczby bitów wymaganych do zakodowania obrazu, przycinania obrazu na mniejsze części i tak dalej. W rozróżnianiu znaków wodnych praw autorskich od innych znaków wodnych które zapewniają autentyczność poprzez złożenie podpisu, który nie możebyć sfałszowany, musimy zdecydować, co chcemy w nich zakodować. W przypadku znaków wodnych chronionych prawem autorskim prawdopodobnie będziemy chcieli mieć pewną liczbę wariantów, które można rozpoznać pomimo degradacji (jak w przypadku numeru kopii naszego dokumentu) i w konsekwencji będziemy musieli zdecydować, w jaki sposób rozpoznamy ten wariant. Jednym ze sposobów jest porównanie odzyskanego znaku wodnego z oryginałem; na przykład możemy „podnieść te dwie rzeczy pod światło” i zmierzyć różnice między nimi. Ta metoda zakłada posiadanie oryginału dla każdego zestawu wariantów i posiadanie procesu, który pozwala nam porównać oryginał z wariantem, pomimo późniejszych zniekształceń i degradacji. Co więcej, oryginał w ten sposób zasadniczo staje się kluczem w naszym znaczeniu kryptograficznym, jak użyto wcześniej, i mamy początki problemu z zarządzaniem kluczami. Preferowana jest metoda osadzania przynajmniej części procesu szyfrowania w samym znaku wodnym, tak aby autentyczność i inne parametry można było odzyskać z samej kopii, bez odniesienia do oryginału. Aby lepiej zrozumieć, o co chodzi, najpierw spójrzmy na bardzo prosty przykład tego, jak można to zrobić dla sygnału mowy lub muzyki. Koder ma możliwość dodania do siebie wersji sygnału audio z krótkim lub długim opóźnieniem („echo”) w zależności od tego, czy chce zakodować sygnał binarny, czy zerowy. Zakładając, że czasy opóźnień są starannie dobrane, zauważalna jest niewielka degradacja sygnału, a przełączając się między nimi, można osiągnąć szybkość kilku bitów na sekundę. Dekoder działa na zasadzie „korelacji”: sygnał jest dzielony na dwa kanały, z których każdy jest mnożony przez wersję samego siebie, opóźnioną o jedno z opóźnień. Większy sygnał jest uzyskiwany z prawidłowego mnożenia, dzięki czemu można odzyskać tajny strumień bitów zawierający znak wodny. Z różnych powodów nie jest to bardzo bezpieczny sposób kodowania (i wymaga skomplikowanego kodowania, aby ominąć niektóre szczególne właściwości mowy i muzyki), ale demonstruje szereg podstawowych zasad. Przede wszystkim nieuchronnie uszkadza oryginalny sygnał. Echo, które zostało wprowadzone, nie było tam w pierwszej kolejności. Każdy znak wodny, który rozprzestrzenia się przez sygnał, musi go do pewnego stopnia uszkodzić; umiejętność wyboru metody, która jest odporna, ale nie natrętna. Po drugie, znak wodny uzyskuje się poprzez dodanie do sygnału czegoś, co można z niego wydobyć, bez konieczności oddzielnego nagrywania oryginału. Następnie przyjrzymy się znacznie bardziej realistycznemu przykładowi ze znakami wodnymi obrazów wideo. Surowy sygnał z kamery telewizyjnej jest digitalizowany, a następnie kompresowany; kompresja ta jest wymagana w celu zmniejszenia szybkości transmisji danych do poziomu dostępnego dla transmisji. Większość powszechnie stosowanych technik kodowania/kompresji (JPEG, MPEG, H261 itd.) wykorzystuje kodowanie transformacji, które przedstawia obraz cyfrowy za pomocą zestawu liczb (współczynników transformacji). Mają one tę szczególną właściwość, że każda liczba opisuje (w ograniczony sposób) każdy punkt na obrazie, a nie tylko pojedynczy punkt na nim. Poszczególne punkty na odtworzonym obrazie są zatem tworzone przez połączone efekty wszystkich współczynników transformacji. Jeśli więc zorganizujemy modyfikację choćby jednego współczynnika, efekt rozłoży się na cały obraz i nie będzie od razu oczywisty. W praktyce kodery cyfrowe dzielą obraz na mniejsze bloki i obliczają zestawy współczynników transformacji dla każdego bloku. Pozwala to na dokonywanie dość dużych zmian w wybranym podzbiorze współczynników, co sprawia, że ​​znak wodny jest odporny na dalsze kodowania i zniekształcenia obrazu. Możliwe jest tworzenie schematów znaków wodnych, które nie wymagają użycia oryginalnego zestawu obrazów do odzyskania znaku wodnego. Oczywiście pojawiła się również aktywność w atakowaniu znaków wodnych. Niektóre z nich zostały uznane za bardzo udane. Na przykład można po prostu uśrednić dużą liczbę kopii, aby pomylić unikalny znak wodny na kopię. Wprowadzenie drobnych zniekształceń w pirackiej kopii obrazu może utrudnić właścicielowi odwrócenie znaku wodnego i dochodzenie swoich praw. Cyfrowe znaki wodne są, podobnie jak inne techniczne środki ochrony praw autorskich, tylko częściowo skuteczne. W tej dziedzinie istnieją poważne problemy, być może nierozwiązywalne.

ZASADY

Jedną z głównych różnic między mediami elektronicznymi a bardziej tradycyjnymi metodami, takimi jak papier i klisza fotograficzna, jest to, że te pierwsze są znacznie tańsze i łatwiejsze do kopiowania i rozpowszechniania. To jest źródło zarówno ich sukcesu, jak i słabości. Co więcej, cyfrowy charakter większości nośników elektronicznych oznacza, że ​​kopiowanie może być bezstratne – nie ma potrzeby doświadczania pogorszenia jakości ani w przypadku kopii pobranych z wersji wzorcowej, ani też nie ma potrzeby, aby sam wzorcowy pogorszył się w procesie kopiowania nieskończonej ilości czasy. Cyfryzacja zapewnia jeden poziom ochrony prawowitym właścicielom — umożliwia bardzo bezpieczne szyfrowanie przy użyciu technik, które omówiliśmy wcześniej. Dlatego często można go zabezpieczyć w transporcie, a jeśli trzeba go szybko obejrzeć (na przykład w przypadku imprezy sportowej), często można pobrać opłatę za terminową dostawę klucza deszyfrowania . Tak jest w przypadku programów telewizyjnych, w których kanały abonamentowe i payperview są regularnie szyfrowane, a klucze do dekodera dekodera są kupowane. Warto pamiętać o szczególnych aspektach zarządzania kluczami w przypadku dekoderów telewizyjnych. Każde pudełko, które posiada klient, musi być inne, jeśli chodzi o niektóre kluczowe ustawienia w środku. Musi również istnieć sposób rozdawania dodatkowych kluczy, które będą działały tylko z tą skrzynką i które można wyłączyć zdalnie lub po upływie terminu, w przypadku rozwiązania umowy do obejrzenia. Nie są to trywialne komplikacje procesu i należy je traktować jako potencjalną słabość w walce z atakiem. Nic nie jest w stanie zatrzymać nagrywania ostatecznie obejrzanego materiału. Ogromne sumy pieniędzy zostały zmarnowane na programy, które twierdzą, że „niemożliwe” jest skopiowanie nagranego utworu muzycznego lub filmu wideo. Ma się rozumieć, że jeśli możesz to wyświetlić, możesz to skopiować. Oczywiście to, co jest wyświetlane, może nie być tak dobre, jak to, co jest przechowywane w oryginale źródła i może również wystąpić pośredni proces stratny – kopie analogowych kopii taśmowych, nawet jeśli same w sobie są cyfrowe, nie są w stanie przywrócić jakości cyfrowego wzorca. Dostępne są również systemy spoilerów, które ingerują w informacje, które nie są subiektywnie obserwowalne, ale niezbędne dla sprzętu odtwarzającego. Na przykład sygnały wideo dla telewizorów i magnetowidów zawierają synchronizację, która jest wymagana do skanowania obrazu w telewizorze z odpowiednią szybkością. Jeśli, jak to ma miejsce w przypadku niektórych systemów szyfrujących, synchronizacja ta jest rozstrojona w czasie z dala od swojej normalnej pozycji, nie można jej wyświetlić na normalnym ekranie bez użycia deszyfratora, aby przywrócić synchronizację do prawidłowej wartości. Jest to skuteczne przeciwko przypadkowym próbom kopiowania i odtwarzania treści, ale stosunkowo proste i tanie jest zbudowanie „pirackich” deszyfratorów w celu pokonania efektu.

PONOWNE PUBLIKOWANIE MATERIAŁÓW PRAW AUTORSKICH

Cyfrowe elektroniczne kodowanie materiałów chronionych prawem autorskim jest nie tylko podatne na lokalne kopiowanie, ale także zapewnia bardzo łatwy sposób udostępniania ich na całym świecie. Obecnie toczą się procesy sądowe, które mają na celu zapobieżenie temu zjawisku – i może się to udać – ale technologia jest tak dostosowana do tego rodzaju rzeczy, że prawdopodobnie nie słyszeliśmy o tym ostatniego. Konkretny przykład obecnie prawny dotyczy świadczenia usług pozyskiwania muzyki chronionej prawem autorskim, która została zakodowana w formacie MP3 (część audio standardu multimedialnego MPEG3) i przechowywana na komputerach osobistych fanów muzyki. Przyjrzymy się dwóm tego przykładom, Napsterowi i gnutelli. Gnutella działa na zasadzie dostarczania oprogramowania aplikacyjnego, które pozwala maszynom tych ludzi zachowywać się jako klient lub serwer (lub oba). Maszyny hybrydowe nazywane są sługami. Aby korzystać z oprogramowania, wystarczy adres IP (i port, ale to jest szczegół) dowolnego innego serwera. Twój komputer ogłasza twoją obecność temu serwantowi, a on z kolei przekazuje tę informację wszystkim innym serwantom, z którymi jest połączony. Każdy z tych serwerów następnie odpowiada, podając informacje o dowolnej części struktury plików, którą chce upublicznić. Ogłaszając się, możesz wysłać żądanie wyszukiwania, na przykład „.mp3”, co oczywiście wymaga informacji o plikach MP3. Odpowiedź od dowolnego serwera jest raczej arbitralna, w zależności od tego, jak został zaprogramowany do interpretowania „.mp3” i jak został skonfigurowany do odpowiadania, ale w zasadzie można oczekiwać, że zostanie odesłany do Ciebie, pewna liczba nazwy plików pasujących do szukanego ciągu. Jeśli poprosisz swoją maszynę o pobranie jednego z tych plików, po prostu wyślesz standardowe żądanie HTTP, aby wywołać plik, ponieważ odległy serwer został skonfigurowany do odpowiedniej odpowiedzi [92]. Napster, który obecnie toczy i przegrywa bitwy (ale jeszcze nie do końca wojnę) z firmami muzycznymi, działa na podobnej zasadzie, ale wymaga scentralizowanego serwera. Dlatego prawnikom łatwiej jest narzekać, że jest współwinny kradzieży praw autorskich.

OCHRONA PRAW AUTORSKICH

Istnieje szereg kwestii związanych z bezpieczeństwem, których jeszcze nie omawialiśmy. Jednym z nich, który ma coraz większe znaczenie w handlu elektronicznym, są prawa autorskie. W szczególności, jak możemy zabezpieczyć się przed nieautoryzowanym wykorzystaniem wartościowych treści – muzyki, wideo, czegokolwiek, a szczególnie tego, co zostało załadowane przez sieć? Najpierw musimy przyznać, że jest mało prawdopodobne, aby udało się rozwiązać ten problem. Podobnie jak w przypadku ochrony tajemnic i uwierzytelnienia uczestników, na przeszkodzie stoją teoretyczne i, być może bardziej do rzeczy, praktyczne trudności. Jedyne, na co możemy mieć nadzieję, to sprawienie, że kradzież będzie zbyt kosztowna dla wszystkich, z wyjątkiem najbardziej zdeterminowanego i zaradnego napastnika.

BEZPIECZNA WARSTWA GNIAZD – ZAPEWNIAJĄCA UTRZYMANIE UTRZYMANIA KLIENTA SERWERA

IPSec i tym podobne chronią transmisję danych od końca do końca przez Internet. Oprócz tej ochrony wymagamy również metod zapewniających, że aplikacje mogą być prowadzone w podobnie bezpieczny i zweryfikowany sposób. Jedną z najprostszych, ale najczęściej wykorzystywanych aplikacji wymagających bezpieczeństwa, jest prosta transakcja między komputerem klienckim a usługą WWW, np. przy przekazywaniu szczegółów w celu autoryzacji płatności. Wymagany jest proces bezpieczeństwa, który znajduje się między warstwą aplikacji a ogólnym połączeniem TCP/IP, które przebiega pod nią. Jedną z bardzo popularnych metod jest protokół Secure Sockets Layer (SSL), pierwotnie opracowany przez firmę Netscape . Szczegóły transakcji są dość złożone, ale mechanizm jest stosunkowo prosty: dane między klientem a serwerem są szyfrowane w ramach warstwy rekordu SSL. Konieczne jest, aby klient ustalił zasady tego szyfrowania, a serwer zgodził się na to i działał zgodnie z nimi. Zrobione podczas uzgadniania SSL.

† Klient rozpoczyna transakcję wysyłając do serwera losową liczbę.

† Serwer odpowiada, wydając numer połączenia i swój klucz publiczny.

† Klient odpowiada komunikatem zaszyfrowanym przy użyciu klucza publicznego serwera, który zawiera informacje o kluczu (które będą używane do szyfrowania szczegółów transakcji, np. za pomocą DES) oraz kilka kluczy sk1 i sk2, które będą używane do walidacji wiadomości między klientem a serwerem.

† Używając swojego klucza prywatnego, serwer dekoduje te informacje i czeka.

† Klient używa sk1 do szyfrowania identyfikatora połączenia pierwotnie wydanego przez serwer i wysyła go do serwera.

† Serwer ma sk1, więc może zdekodować wiadomość, aby znaleźć identyfikator połączenia, który jest rzeczywiście ważny między serwerem a klientem.

† Serwer szyfruje teraz losowe „wyzwanie” wysyłane przez klienta na początku uzgadniania za pomocą sk2 i wysyła je do klienta.

† Klient może to odszyfrować i sprawdzić, czy rzeczywiście jest to właściwy serwer, z którym się komunikuje.

Obie strony udostępniają teraz bezpieczne klucze i mogą kontynuować transakcję. SSL jest w dużym stopniu zgodny z zasadą dobrego bezpieczeństwa, która wymaga niewiele od projektanta aplikacji: wszystko, co należy zrobić, to zamienić wywołanie narzędzia TCP na jedno na SSL. To był jeden z powodów, dla których SSL stał się najczęściej używanym protokołem bezpieczeństwa przeglądarki. Powinniśmy wspomnieć o jeszcze jednym udoskonaleniu, które zmienia technologię bezpieczeństwa SSL w bezpieczny proces: uwierzytelnianie klucza publicznego serwera. Tylko sprytni (lub nieco bystrzy?) spośród nas pomyśleliby o możliwości, że serwer WWW, z którym mamy do czynienia, nie jest tym, za kogo się podaje. Tak, deklaruje klucz publiczny, ale niekoniecznie taki, który należy do firmy, za którą się podaje. Ludzie, którzy zaprojektowali SSL, pomyśleli o tym: tak naprawdę nie jest to sam klucz publiczny, który może być oferowany przez serwer; może to być certyfikat cyfrowy, wystawiony przez urząd certyfikacji, potwierdzający tożsamość serwera.

BEZPIECZNE TUNELOWANIE

Omawiamy kluczową rolę ekstranetów i intranetów w budowie logistyki business-to-business i intrabusiness przedsiębiorstwa elektronicznego. Kluczowe znaczenie dla tych usług ma możliwość zapewnienia poufnej i gwarantowanej komunikacji między witrynami połączonymi za pośrednictwem publicznego Internetu. Jak dotąd nasza dyskusja na temat IPSec dotyczyła pierwszej części. Ale nie ma sensu budowanie sieci, która naszym zdaniem może zostać zaatakowana i która może przenosić tajemnice, jeśli te tajemnice nie zostaną dostarczone we właściwe miejsce, ponieważ ktoś przesłał je gdzie indziej. Sieć nie ma większego sensu, jeśli ktoś może zalać ją ruchem, który wydaje się pochodzić z legalnych punktów, ale w rzeczywistości jest wstrzykiwany przez stronę trzecią w celu zmylenia lub zakłócenia. Dlatego jednym z dodatkowych wymagań dla IPSec i innych protokołów bezpieczeństwa jest zagwarantowanie miejsca pochodzenia i miejsca dostarczenia pakietów IP. Protokół IPSec rozwiązuje ten problem na dwa sposoby, w zależności od tego, czy transport danych pochodzi z oryginalnego hosta (tryb transportu), czy też jednym z końców bezpiecznej ścieżki jest tylko brama (na przykład zapora, Rysunek 2.24). Ponownie, szczegóły są złożone, ale główna różnica polega po prostu na tym, jak widoczne jest trasowanie pakietu od końca do końca do strony trzeciej obserwującej łącze. Bezpieczeństwo łącza jest definiowane jednokierunkowo, co oznacza, że ​​istnieją oddzielne zabezpieczenia dla ruchu przechodzącego w przeciwnych kierunkach. Tunelowanie to podstawowa funkcja bezpieczeństwa technologii wirtualnej sieci prywatnej (VPN).

IPSEC

Widzieliśmy, że podstawowy protokół transmisji pakietów w Internecie, IP, jest zakładnikiem fortuny, jeśli chodzi o prawidłowe dostarczanie pakietów we właściwej kolejności i bez błędów, i dyskutowaliśmy, w jaki sposób może to być podatne na ataki. W przypadku aplikacji wymagających bezpieczeństwa istnieje protokół IPSec , który leży w warstwie IP i stara się zapewnić, że pakiety są autentyczne, nieuszkodzone i poufne. IPSec jest opisywany przez Internet Engineering Taskforce jako „struktura”, która może ewoluować z czasem w celu zapewnienia trwałej bezpieczeństwo sieci. Jedną z jego zalet jest to, że jest on udoskonalany zgodnie z rozwojem IETF dla późniejszych wersji standardu IP, zwłaszcza wersji IP 6. Szczegóły są złożone i nie będą tutaj omawiane, ale podstawowe zasady są proste: w ramach standardu Pakiet IP, IPSEC definiuje kilka nagłówków; jeden z nich określa szczegóły uwierzytelniania, a drugi określa stosowane szyfrowanie. Klucze publiczne z certyfikacją cyfrową (aby udowodnić, że rzeczywiście należą do komunikujących się stron) są najpierw używane do szyfrowania i przesyłania tajnych kluczy. Niektóre z tych kluczy są następnie wykorzystywane do szyfrowania ruchu pakietowego, aby uniemożliwić jego odczytanie bez uprawnień, np. za pomocą DES. Inne klucze są używane do algorytmów mieszających, które dołączają sygnatury mieszające do pakietów danych w celu uwierzytelnienia ich przed uszkodzeniem. Protokół IPSec został zaprojektowany, aby umożliwić włączanie nowych algorytmów szyfrowania, gdy zostaną one opracowane i sprawdzone. Oprócz zapewnienia ochrony przed podsłuchaniem i uszkodzeniem danych, protokół IPsec może również chronić przed atakiem typu man-in-the middle (przechwytywaniem legalnych pakietów i odtwarzaniem ich w późniejszym czasie). Robi to, dodając do pakietu zaszyfrowany numer sekwencji i zwiększa go za każdym razem, gdy ten sam pakiet jest retransmitowany. Może to również pokonać ataki, takie jak wspomniany wcześniej atak defragmentacyjny.