ODCISKI PALCÓW

Jest to pomiar biometryczny, który wyprzedza technologię elektroniczną. Nie ma wątpliwości, że odciski palców oferują niezwykle skuteczny sposób unikatowej identyfikacji osób, pod warunkiem, że odcisk można uchwycić w miarę całkowicie. Teoretyczny współczynnik F dla odcisków palców jest prawie nieskończony, ponieważ poszczególne zmiany wynoszą w przybliżeniu zero, chyba że palce są celowo lub przypadkowo głęboko uszkodzone. Nie jest konieczne posiadanie tej własności indywidualnej niezmienności, ale ułatwia to uzasadnienie bezpieczeństwa biometrii. W zasadzie obraz odcisku palca mógłby zostać przechwycony przez kamerę telewizyjną, przesłany przez łącze komunikacyjne i sprawdzony w bazie danych. W praktyce jednak pojawiło się wiele problemów ze zautomatyzowanymi systemami zdalnego dostępu. Ze względu na dużą gęstość linii na wydruku wymagana jest duża ilość danych, a do wyrównania danych wymagana jest nieistotna ilość mocy obliczeniowej, jeśli wykonany wydruk jest tylko częściowo uchwycony lub słabo zarysowany. Palce muszą być dociśnięte do szklanych ekranów w celu prawidłowego ustawienia ich podczas skanowania. Ekrany mogą się łatwo zabrudzić. Ostatnio produkty komercyjne zwierdząc, że udało się obejść, niektóre z tych problemów zaczęły pojawiać się na rynku.

ROZPOZNAWANIE PISMA ODRĘCZNEGO

Autoryzacja za pomocą podpisu jest prawie tak stara jak samo pisanie. Wspomnieliśmy już pokrótce o pomiarach kierunku i prędkości i istnieje wiele patentów, które wykorzystują ich odmiany. Niektóre operują tylko na sygnaturze statycznej (tj. kierunku), podczas gdy nowsze podejścia coraz bardziej kładą nacisk na podejście dynamiczne. Pismo ręczne wiąże się z niektórymi problemami związanymi z innymi „zwykłymi” środkami. Stosunek F dla każdego konkretnego wymiaru pomiaru zawsze okazuje się raczej niski, głównie dlatego, że istnieje duża zmienność w sposobie pisania każdej osoby. Jest też drobny problem technologiczny: do uchwycenia podpisu potrzebujemy albo stosunkowo drogiego tabletu do pisania, albo ogólnie tańszego, przewodowego pióra, które jednak jest bardziej podatne na złamanie (lub kradzież!). Jednym z powodów, dla których tablet jest drogi, jest to, że może być wrażliwy na „pociągnięcia powietrza”, ruch pióra, gdy nie ma z nim kontaktu, ponieważ okazało się, że jest to ważna cecha wyróżniająca podpisy.

PODSTAWOWE ZASADY – KLASYFIKACJA LINIOWA

Matematyczne metody dopasowywania wzorców mogą być bardzo złożone i trudne do zrozumienia. Być może najbardziej dostępną metodą jest „klasyfikacja liniowa”. Ponieważ większość jego zasad można zastosować do innych, bardziej złożonych technik, przyjrzymy się jej nieco szczegółowo. Załóżmy, że decydujemy się na prosty schemat rozpoznawania pisma ręcznego. Rozważ problem rozpoznania autorstwa odręcznej litery „W” na rysunku

Dla przykładu rozważmy, że zdecydowaliśmy się zmierzyć dwie cechy listu:

† Średnie nachylenie suwu w dół AB.

Szybkość płyty CD w górę.

Załóżmy, że mamy kilka przykładów W napisanych przez każdą z N osób. Nie wszystkie będą miały taką samą wartość, ani dla wszystkich pisarzy, ani nawet dla każdej osoby. Załóżmy, że wykreślamy wartości na wykresie, jak pokazano na rysunku.

Każda z pięciu elips reprezentuje pierścień wokół większości wartości dla każdego pisarza. Widzimy, że dla wszystkich pisarzy wartość nachylenia waha się od około 45-708, a prędkość od około 1 do 1,5 cm/s. Widzimy również, że istnieje pisarz tajemnicy „W”. Aby uczynić rysunek 2.32 bardziej czytelnym, celowo wybraliśmy pozycję dla W, która jest daleko od centrum wartości dla dowolnego autora, ale będziemy nalegać, aby W musi być jednym z nich. Ale który? Naszą pierwszą myślą jest po prostu zmierzenie długości linii między różdżką i środkami rozrzutu wartości każdego pisarza i wybranie znanego pisarza, który jest najbliżej. Na wykresie dwuwymiarowym

Odległość = pierwiastek kwadratowy z (x odległość do kwadratu + y odległość do kwadratu)

zgodnie z twierdzeniem Pitagorasa. Zauważ, że gdybyśmy mieli trzy różne zmierzone parametry, a nie dwa, wzór można łatwo rozszerzyć, dodając wyraz w z-kwadrat. W rzeczywistości można go rozszerzyć, aby obejmował tyle „wymiarów”, ile chcemy, dodając termin dla każdego. Ale to nie jest takie proste. Wracając do naszego dwuwymiarowego przykładu, załóżmy, że po prostu zmieniliśmy skalę poziomą z cm/s na m/s lub pionową ze stopni na radiany? Względne odległości ulegną zmianie i może się okazać, że teraz utożsamiamy W z kimś innym. Zamiast używać arbitralnych skal, musimy wybrać skalę, która uwzględnia zależność między rozrzutem wartości dla każdej cechy u wszystkich autorów, w porównaniu ze średnim rozrzutem dla każdej cechy u jednego autora. Definiujemy stosunek, umownie nazywany stosunkiem F:

F = zakres wartości mierzonej cechy; przez wszystkich pisarzy / średnie wariacje poszczególnych pisarzy

Krótka myśl wyjaśni, że to obliczenie, zastosowane do każdego wymiaru („cecha”), da oszacowanie dyskryminującego moc wymiaru, duży współczynnik F, co oznacza, że ​​dana funkcja jest wysoce skuteczna w rozróżnianiu pisarzy. W praktyce współczynnik F jest używany jako czynnik ważenia przy obliczaniu odległości między nieznanym przykładem a różnymi możliwymi pisarzami. Można wykazać, że usuwa to wszelki wpływ określonych jednostek (takie jak centymetry kontra metry). Jest jeszcze inny, bardzo ważny aspekt współczynnika F: zwykle łatwiej jest ustalić zaufanie do elementu systemu, jeśli jego współczynnik F jest wysoki, jak zobaczymy w poniższych przykładach.

ODRZUCENIE I AKCEPTACJA

Zawsze istnieje kompromis między wydajnością systemu w nieprawidłowym odrzucaniu kogoś, kto powinien mieć przywileje dostępu, a jego podatnością na oszustów. Każdy schemat ma krzywą wydajności. Większość schematów pozwala nam ustawić progi rozpoznawania, które określają, gdzie na wykresie fałszywego rozpoznania/fałszywego odrzucenia chcemy działać. Zwykle, jeśli dostęp do procedur krytycznych, zdecydujemy się działać z niskim wskaźnikiem fałszywego rozpoznania, a zatem czasami będziemy oczekiwać odrzucenia, niesłusznie, prób dostępu ze strony legalnych stron. Mogą zostać poproszeni o ponowną próbę. Jednak większość powszechnie stosowanych obecnie systemów biometrycznych nie radzi sobie dobrze z odrzucaniem oszustów i akceptacją legalnych użytkowników. W związku z tym mają tendencję do faworyzowania akceptacji, a nie odrzucania i są używane w połączeniu z hasłami i kodami PIN jako drugorzędnymi środkami bezpieczeństwa. Innym problemem związanym z wieloma schematami biometrycznymi jest dowodliwość. Pamiętaj, że powiedzieliśmy, że jednym z ważnych kryteriów akceptowalności schematu zabezpieczeń jest to, że jest on „demonstralnie bezpieczny”. Później przyjrzymy się jednemu miarowi, który można wykorzystać do wyboru schematów o wysokiej „dowodliwości”, ale najpierw rozważymy niektóre podstawowa teoria klasyfikacji.

DOWÓD TOŻSAMOŚCI – BIOMETRIA

W poprzedniej sekcji wspomnieliśmy o informacjach biometrycznych. Jednym z niezwykle ważnych aspektów bezpieczeństwa w środowisku sieciowym jest dowód tożsamości. Nie stanowiło to problemu, gdy ludzie rozmawiali twarzą w twarz, ale jak rozpoznać kogoś na odległość? W przypadku certyfikatów cyfrowych widzieliśmy, że klucze publiczne/prywatne mogą zostać zweryfikowane przez stronę trzecią, ale później mogą zostać skradzione. Wciąż nie ma możliwości, aby można je było jednoznacznie skojarzyć z osobą, bez czegoś dodatkowego, jakiejś niepodrabialnej cechy, mierzalnie unikalnej dla osoby ubiegającej się o dostęp w momencie, gdy jest on wymagany. Potrzebujemy czegoś, co identyfikuje osobę poprzez unikalną cechę biologiczną. Te „biometryczne” pomiary opierają się na identyfikacji pewnego wzorca nawykowych zachowań lub cech fizycznych, które są w pewien sposób bardziej specyficzne dla jednostki niż dla ogółu ludzi. Pomiar musi nie tylko umożliwiać identyfikację osób, ale także musi umożliwiać udowodnienie, że tak jest. Ma to tendencję do faworyzowania parametrów fizjologicznych, takich jak odciski palców lub obrazy tęczówki, które są precyzyjne i stosunkowo niezmienne w czasie lub sytuacji, a nie „zwykłym” miarom, takim jak głos lub pismo ręczne, które są wyuczonymi nawykami, które nie są genetycznie „wypalone”. Niemniej jednak w praktyce pomiar musi być opłacalny, a jego administracja akceptowalna dla użytkownika, co czasami oznacza, że ​​zwykłe cechy zajmują ważne miejsce. Identyfikacja za pomocą środków biometrycznych jest szczególnym przykładem ogólnej klasy problemów z dopasowywaniem wzorców. Biorąc pod uwagę przykład od nieznanego podmiotu, istnieje wiele technik, dzięki którym można go porównać z istniejącymi wzorcami od wielu podmiotów, aby dowiedzieć się, które wzorce podmiotów są najbardziej podobne, a tym samym zapewnić jak najlepsze odgadnięcie tożsamości indywidualnego. Do różnych typów biometrycznych zastosowano różne techniki, wykorzystując szereg technologii pomiarowych. Jednak we wszystkich stosowanych technikach i biometriach istnieje zestaw wspólnych cech, które muszą być spełnione, aby stworzyć system, który jest zadowalający w praktyce.

BEZPIECZEŃSTWO PRZENOŚNE – KARTA INTELIGENTNA

Widzieliśmy wcześniej, że zapewnienie bezpiecznej usługi komunikacyjnej polegało na utrzymywaniu w tajemnicy przynajmniej części informacji. Próba utrzymania w naszych głowach długiego, złożonego klucza prywatnego jest niewykonalna. Możliwe jest przechowywanie tych informacji na komputerze, ale zawsze istnieje ryzyko, że ktoś użyje urządzenia nielegalnie, gdy Cię tam nie będzie. Istnieje również niedogodność związana z brakiem możliwości pracy w innej lokalizacji. Najlepiej byłoby, gdybyśmy mogli nosić ze sobą tajne informacje w bezpiecznej i zwartej formie. Jednym ze sposobów na to jest użycie karty inteligentnej. Karty inteligentne to komputery zamknięte w plastikowych obudowach wielkości karty kredytowej. Procesory są zaprojektowane tak, aby działały dość wolno, ale przez to zużywają niewiele energii elektrycznej, nawet przy pełnej prędkości, a cała karta zużywa pikoampery (w celu zachowania pamięci), gdy nie jest używana. Karta posiada stałą pamięć tylko do odczytu, która zawiera instrukcje programowania. W przypadku zastosowań związanych z bezpieczeństwem mogą one obejmować obecnie preferowany algorytm lub algorytmy szyfrowania. Pamięć tylko do odczytu może również zawierać dane, w tym klucz prywatny użytkownika. Alternatywnym podejściem jest implementacja algorytmu na sprzęcie specjalnego przeznaczenia, takim jak chip szyfrujący. Możliwych jest wiele opcji wejścia/wyjścia: obecne karty zwykle łączą się z innymi urządzeniami za pomocą złączy elektrycznych na krawędzi lub powierzchni karty, ale można również użyć połączenia magnetycznego, pojemnościowego lub radiowego, podobnie jak metody optyczne. W badaniu przeprowadzonym w 1995 r. zidentyfikowano blisko 200 organizacji aktywnie zaangażowanych w rozwój sprzętu do kart inteligentnych lub ich integrację. Prowadzone są ożywione działania w obszarze międzynarodowych standardów dotyczących architektur kart i podstawowych parametrów, takich jak napięcie robocze i specyfikacja połączenia elektrycznego, ponieważ widać, że istnieje możliwość znacznej redukcji kosztów, jeśli można zmniejszyć liczbę wariantów. Karty inteligentne mogą przechowywać ogólnie przydatne informacje; na przykład mogą zawierać listę numerów telefonów, które możemy wywołać krótkim kodem wybierania. (1 = „mama”, 2 = „praca” itd.). Telefony komórkowe GSM zawierają inteligentny chip, moduł identyfikacji abonenta (SIM), który przechowuje własny kod identyfikacyjny użytkownika. Bez niego żaden telefon GSM nie będzie działał. Dzięki niemu telefon komórkowy może wysłać tożsamość użytkownika do sieci komórkowej, nadając prawa dostępu i pozwalając na przypisanie opłat do rachunku użytkownika. W części 3, Pieniądz elektroniczny, omawiamy, w jaki sposób może on stanowić podstawę źródła pieniądza elektronicznego. Karty można również zaprogramować do przechowywania danych biometrycznych w postaci zaszyfrowanej, aby można było bezpiecznie sprawdzić każdy przypadek użycia danych biometrycznych w celu uzyskania dostępu. Jedną z wad charakterystyk kart inteligentnych jest brak dobrej standaryzacji na poziomie fizycznym i aplikacyjnym. Postęp nastąpił w ostatnich latach [95], ale nadal nie jest kompletny. Jednym z głównych osiągnięć było pojawienie się standardu warstwowego z grupy komputerów osobistych/kart inteligentnych (PC/SC)

ZNAK WODNY

Jeśli nie możemy uniemożliwić ludziom kopiowania wartościowych treści, możemy przynajmniej znaleźć sposoby na ich zniechęcenie. Prawo jest w tej kwestii jasne – nielegalne jest wykonywanie nieautoryzowanych kopii materiałów chronionych prawem autorskim (i innych materiałów, np. dostarczonych pod warunkiem niekopiowania, tajemnic państwowych itp.). Jeśli potrafimy pokazać, kto wykonał kopiowanie (lub kto pożyczył im kopię), wtedy można podać przykłady, które mogą zniechęcić innych. Jednym ze skutecznych sposobów byłoby oznaczenie każdego egzemplarza nazwiskiem osoby, której został on wydany, z obowiązkiem dochowania staranności, aby nie został on skopiowany. Zakładając, że będziemy mogli zobaczyć te informacje przeniesione na nielegalną kopię, będziemy mogli wiedzieć, kogo winić. Ale, oczywiście, nie możemy oczekiwać, że jakikolwiek kopista o zdrowym rozsądku pozwoli, aby te szczegóły pozostały na kopii, jeśli wie, że tam są i wie, jak je usunąć. Jeśli mamy to uniemożliwić (lub przynajmniej bardzo utrudnić), musimy zrobić dwie rzeczy:

† Ukryj informacje w materiale.

† A przynajmniej zrób to w taki sposób, aby nie dało się go łatwo wyciąć sam materiał.

Taki schemat jest znany jako znak wodny w analogii do sposobu, w jaki banknoty i inne materiały fizyczne, głównie papierowe, są nadrukowywane na ich powierzchni niepozornym nadrukiem. Tam, gdzie odcisk jest niewidoczny i nie jest łatwy do znalezienia, technika ta jest znana jako steganografia. Kilka lat temu autor opracował bardzo prosty schemat postępowania z dokumentami tworzonymi w edytorze tekstu, aby zapewnić ścieżkę audytu w przypadku nieautoryzowanego „wycieku”: za każdym razem, gdy kopia dokumentu była drukowana, proporcjonalne odstępy między wyrazami zostały zmodyfikowane w taki sposób, że ukryty „unikalny numer egzemplarza” został skutecznie umieszczony w samym tekście. Oczywiście ten numer kopii nie jest tracony po kserowaniu, kopiowaniu fotograficznym itp. Ogólnie, chociaż istnieją pewne kontrprzykłady, w których kruchość znaku wodnego może być cenna, większość znaków wodnych ma mieć dokładnie odwrotne właściwości kryptograficznych funkcji skrótu. Oznacza to, że muszą być odporne na szereg przekształceń oryginalnego materiału, na przykład algorytmy kompresji używane do zmniejszania liczby bitów wymaganych do zakodowania obrazu, przycinania obrazu na mniejsze części i tak dalej. W rozróżnianiu znaków wodnych praw autorskich od innych znaków wodnych które zapewniają autentyczność poprzez złożenie podpisu, który nie możebyć sfałszowany, musimy zdecydować, co chcemy w nich zakodować. W przypadku znaków wodnych chronionych prawem autorskim prawdopodobnie będziemy chcieli mieć pewną liczbę wariantów, które można rozpoznać pomimo degradacji (jak w przypadku numeru kopii naszego dokumentu) i w konsekwencji będziemy musieli zdecydować, w jaki sposób rozpoznamy ten wariant. Jednym ze sposobów jest porównanie odzyskanego znaku wodnego z oryginałem; na przykład możemy „podnieść te dwie rzeczy pod światło” i zmierzyć różnice między nimi. Ta metoda zakłada posiadanie oryginału dla każdego zestawu wariantów i posiadanie procesu, który pozwala nam porównać oryginał z wariantem, pomimo późniejszych zniekształceń i degradacji. Co więcej, oryginał w ten sposób zasadniczo staje się kluczem w naszym znaczeniu kryptograficznym, jak użyto wcześniej, i mamy początki problemu z zarządzaniem kluczami. Preferowana jest metoda osadzania przynajmniej części procesu szyfrowania w samym znaku wodnym, tak aby autentyczność i inne parametry można było odzyskać z samej kopii, bez odniesienia do oryginału. Aby lepiej zrozumieć, o co chodzi, najpierw spójrzmy na bardzo prosty przykład tego, jak można to zrobić dla sygnału mowy lub muzyki. Koder ma możliwość dodania do siebie wersji sygnału audio z krótkim lub długim opóźnieniem („echo”) w zależności od tego, czy chce zakodować sygnał binarny, czy zerowy. Zakładając, że czasy opóźnień są starannie dobrane, zauważalna jest niewielka degradacja sygnału, a przełączając się między nimi, można osiągnąć szybkość kilku bitów na sekundę. Dekoder działa na zasadzie „korelacji”: sygnał jest dzielony na dwa kanały, z których każdy jest mnożony przez wersję samego siebie, opóźnioną o jedno z opóźnień. Większy sygnał jest uzyskiwany z prawidłowego mnożenia, dzięki czemu można odzyskać tajny strumień bitów zawierający znak wodny. Z różnych powodów nie jest to bardzo bezpieczny sposób kodowania (i wymaga skomplikowanego kodowania, aby ominąć niektóre szczególne właściwości mowy i muzyki), ale demonstruje szereg podstawowych zasad. Przede wszystkim nieuchronnie uszkadza oryginalny sygnał. Echo, które zostało wprowadzone, nie było tam w pierwszej kolejności. Każdy znak wodny, który rozprzestrzenia się przez sygnał, musi go do pewnego stopnia uszkodzić; umiejętność wyboru metody, która jest odporna, ale nie natrętna. Po drugie, znak wodny uzyskuje się poprzez dodanie do sygnału czegoś, co można z niego wydobyć, bez konieczności oddzielnego nagrywania oryginału. Następnie przyjrzymy się znacznie bardziej realistycznemu przykładowi ze znakami wodnymi obrazów wideo. Surowy sygnał z kamery telewizyjnej jest digitalizowany, a następnie kompresowany; kompresja ta jest wymagana w celu zmniejszenia szybkości transmisji danych do poziomu dostępnego dla transmisji. Większość powszechnie stosowanych technik kodowania/kompresji (JPEG, MPEG, H261 itd.) wykorzystuje kodowanie transformacji, które przedstawia obraz cyfrowy za pomocą zestawu liczb (współczynników transformacji). Mają one tę szczególną właściwość, że każda liczba opisuje (w ograniczony sposób) każdy punkt na obrazie, a nie tylko pojedynczy punkt na nim. Poszczególne punkty na odtworzonym obrazie są zatem tworzone przez połączone efekty wszystkich współczynników transformacji. Jeśli więc zorganizujemy modyfikację choćby jednego współczynnika, efekt rozłoży się na cały obraz i nie będzie od razu oczywisty. W praktyce kodery cyfrowe dzielą obraz na mniejsze bloki i obliczają zestawy współczynników transformacji dla każdego bloku. Pozwala to na dokonywanie dość dużych zmian w wybranym podzbiorze współczynników, co sprawia, że ​​znak wodny jest odporny na dalsze kodowania i zniekształcenia obrazu. Możliwe jest tworzenie schematów znaków wodnych, które nie wymagają użycia oryginalnego zestawu obrazów do odzyskania znaku wodnego. Oczywiście pojawiła się również aktywność w atakowaniu znaków wodnych. Niektóre z nich zostały uznane za bardzo udane. Na przykład można po prostu uśrednić dużą liczbę kopii, aby pomylić unikalny znak wodny na kopię. Wprowadzenie drobnych zniekształceń w pirackiej kopii obrazu może utrudnić właścicielowi odwrócenie znaku wodnego i dochodzenie swoich praw. Cyfrowe znaki wodne są, podobnie jak inne techniczne środki ochrony praw autorskich, tylko częściowo skuteczne. W tej dziedzinie istnieją poważne problemy, być może nierozwiązywalne.

ZASADY

Jedną z głównych różnic między mediami elektronicznymi a bardziej tradycyjnymi metodami, takimi jak papier i klisza fotograficzna, jest to, że te pierwsze są znacznie tańsze i łatwiejsze do kopiowania i rozpowszechniania. To jest źródło zarówno ich sukcesu, jak i słabości. Co więcej, cyfrowy charakter większości nośników elektronicznych oznacza, że ​​kopiowanie może być bezstratne – nie ma potrzeby doświadczania pogorszenia jakości ani w przypadku kopii pobranych z wersji wzorcowej, ani też nie ma potrzeby, aby sam wzorcowy pogorszył się w procesie kopiowania nieskończonej ilości czasy. Cyfryzacja zapewnia jeden poziom ochrony prawowitym właścicielom — umożliwia bardzo bezpieczne szyfrowanie przy użyciu technik, które omówiliśmy wcześniej. Dlatego często można go zabezpieczyć w transporcie, a jeśli trzeba go szybko obejrzeć (na przykład w przypadku imprezy sportowej), często można pobrać opłatę za terminową dostawę klucza deszyfrowania . Tak jest w przypadku programów telewizyjnych, w których kanały abonamentowe i payperview są regularnie szyfrowane, a klucze do dekodera dekodera są kupowane. Warto pamiętać o szczególnych aspektach zarządzania kluczami w przypadku dekoderów telewizyjnych. Każde pudełko, które posiada klient, musi być inne, jeśli chodzi o niektóre kluczowe ustawienia w środku. Musi również istnieć sposób rozdawania dodatkowych kluczy, które będą działały tylko z tą skrzynką i które można wyłączyć zdalnie lub po upływie terminu, w przypadku rozwiązania umowy do obejrzenia. Nie są to trywialne komplikacje procesu i należy je traktować jako potencjalną słabość w walce z atakiem. Nic nie jest w stanie zatrzymać nagrywania ostatecznie obejrzanego materiału. Ogromne sumy pieniędzy zostały zmarnowane na programy, które twierdzą, że „niemożliwe” jest skopiowanie nagranego utworu muzycznego lub filmu wideo. Ma się rozumieć, że jeśli możesz to wyświetlić, możesz to skopiować. Oczywiście to, co jest wyświetlane, może nie być tak dobre, jak to, co jest przechowywane w oryginale źródła i może również wystąpić pośredni proces stratny – kopie analogowych kopii taśmowych, nawet jeśli same w sobie są cyfrowe, nie są w stanie przywrócić jakości cyfrowego wzorca. Dostępne są również systemy spoilerów, które ingerują w informacje, które nie są subiektywnie obserwowalne, ale niezbędne dla sprzętu odtwarzającego. Na przykład sygnały wideo dla telewizorów i magnetowidów zawierają synchronizację, która jest wymagana do skanowania obrazu w telewizorze z odpowiednią szybkością. Jeśli, jak to ma miejsce w przypadku niektórych systemów szyfrujących, synchronizacja ta jest rozstrojona w czasie z dala od swojej normalnej pozycji, nie można jej wyświetlić na normalnym ekranie bez użycia deszyfratora, aby przywrócić synchronizację do prawidłowej wartości. Jest to skuteczne przeciwko przypadkowym próbom kopiowania i odtwarzania treści, ale stosunkowo proste i tanie jest zbudowanie „pirackich” deszyfratorów w celu pokonania efektu.

PONOWNE PUBLIKOWANIE MATERIAŁÓW PRAW AUTORSKICH

Cyfrowe elektroniczne kodowanie materiałów chronionych prawem autorskim jest nie tylko podatne na lokalne kopiowanie, ale także zapewnia bardzo łatwy sposób udostępniania ich na całym świecie. Obecnie toczą się procesy sądowe, które mają na celu zapobieżenie temu zjawisku – i może się to udać – ale technologia jest tak dostosowana do tego rodzaju rzeczy, że prawdopodobnie nie słyszeliśmy o tym ostatniego. Konkretny przykład obecnie prawny dotyczy świadczenia usług pozyskiwania muzyki chronionej prawem autorskim, która została zakodowana w formacie MP3 (część audio standardu multimedialnego MPEG3) i przechowywana na komputerach osobistych fanów muzyki. Przyjrzymy się dwóm tego przykładom, Napsterowi i gnutelli. Gnutella działa na zasadzie dostarczania oprogramowania aplikacyjnego, które pozwala maszynom tych ludzi zachowywać się jako klient lub serwer (lub oba). Maszyny hybrydowe nazywane są sługami. Aby korzystać z oprogramowania, wystarczy adres IP (i port, ale to jest szczegół) dowolnego innego serwera. Twój komputer ogłasza twoją obecność temu serwantowi, a on z kolei przekazuje tę informację wszystkim innym serwantom, z którymi jest połączony. Każdy z tych serwerów następnie odpowiada, podając informacje o dowolnej części struktury plików, którą chce upublicznić. Ogłaszając się, możesz wysłać żądanie wyszukiwania, na przykład „.mp3”, co oczywiście wymaga informacji o plikach MP3. Odpowiedź od dowolnego serwera jest raczej arbitralna, w zależności od tego, jak został zaprogramowany do interpretowania „.mp3” i jak został skonfigurowany do odpowiadania, ale w zasadzie można oczekiwać, że zostanie odesłany do Ciebie, pewna liczba nazwy plików pasujących do szukanego ciągu. Jeśli poprosisz swoją maszynę o pobranie jednego z tych plików, po prostu wyślesz standardowe żądanie HTTP, aby wywołać plik, ponieważ odległy serwer został skonfigurowany do odpowiedniej odpowiedzi [92]. Napster, który obecnie toczy i przegrywa bitwy (ale jeszcze nie do końca wojnę) z firmami muzycznymi, działa na podobnej zasadzie, ale wymaga scentralizowanego serwera. Dlatego prawnikom łatwiej jest narzekać, że jest współwinny kradzieży praw autorskich.

OCHRONA PRAW AUTORSKICH

Istnieje szereg kwestii związanych z bezpieczeństwem, których jeszcze nie omawialiśmy. Jednym z nich, który ma coraz większe znaczenie w handlu elektronicznym, są prawa autorskie. W szczególności, jak możemy zabezpieczyć się przed nieautoryzowanym wykorzystaniem wartościowych treści – muzyki, wideo, czegokolwiek, a szczególnie tego, co zostało załadowane przez sieć? Najpierw musimy przyznać, że jest mało prawdopodobne, aby udało się rozwiązać ten problem. Podobnie jak w przypadku ochrony tajemnic i uwierzytelnienia uczestników, na przeszkodzie stoją teoretyczne i, być może bardziej do rzeczy, praktyczne trudności. Jedyne, na co możemy mieć nadzieję, to sprawienie, że kradzież będzie zbyt kosztowna dla wszystkich, z wyjątkiem najbardziej zdeterminowanego i zaradnego napastnika.