UCZESTNICY, ZOBOWIĄZANIA I PROCESY

W transakcji kupna uczestniczy co najmniej trzech uczestników: kupujący, sprzedający oraz bank lub inny organ finansowy. Bardzo często są cztery: kupujący i sprzedający mogą korzystać z różnych instytucji finansowych. Bank, który wydaje kartę kredytową, nazywany jest bankiem wydającym, a bank, który otrzymuje płatność w imieniu sprzedawcy, jest bankiem przejmującym. W transakcję mogą być również zaangażowani różni pośrednicy. W przypadku transakcji online należy uwzględnić co najmniej dostawcę sieci i dostawcę usług, którzy mogą, ale nie muszą, być odpowiedni, jeśli transakcja się nie powiedzie. Jeśli coś pójdzie źle, uczestnicy (lub ich prawnicy) przypiszą winę zgodnie z ustalonymi zasadami, które zostały napisane przed rozpoczęciem handlu elektronicznego. Nowa sytuacja będzie odwzorowywana na starym porządku, dopóki on również nie uzyska zbioru ustawodawstwa i orzecznictwa. Jednym z takich przykładów jest „brak posiadacza karty”, który ma miejsce na przykład, gdy sprzedawca akceptuje płatność kartą kredytową przez telefon lub Internet. W tym przypadku ryzyko leży po stronie akceptanta, a nie banku, co z reguły byłoby inaczej, gdyby karta została podpisana w obecności akceptanta. Chociaż trzeba wziąć pod uwagę związane z tym ryzyko, istnieje wiele różnych sposobów na odejście klienta od jego pieniędzy, a ta różnorodność rozwinęła się, aby ułatwić to wszystko na wszystkich poziomach cen i lokalizacji. Gotówka i kredyt to różne sposoby płacenia, przy czym agencja kredytowa pobiera pewną opłatę jako nagrodę za zaakceptowanie ryzyka. Procesy uwierzytelniania, takie jak podpisy i inne metody, których złożoność różni się w zależności od kwoty pieniędzy, są zaangażowane, a wreszcie procesy międzybankowe muszą zostać przeprowadzone, aby zakończyć lub „oczyścić” transakcję. Mechanizmy mogą być dość złożone i różnić się w zależności od kraju i są często omawiane w tekstach dotyczących komercyjnych aspektów handlu elektronicznego.

Pieniądze elektroniczne

Omówiliśmy technologie przeprowadzania bezpiecznych transakcji na odległość. W obszarze handlu elektronicznego, niewątpliwie najbardziej znanym zastosowaniem jest transport kredytów i pieniędzy w formie elektronicznej. Rozsądne transakcje finansowe na całym świecie prowadzone są w oparciu o minimalizację ryzyka, w środowisku, w którym należy zrobić wszystko, aby uniknąć oszustw i chciwości. Co więcej, jest to działanie z udziałem wielu uczestników, w którym każdy gracz stara się zminimalizować własną stratę, nie narażając się zbytnio na sprzedaż. Większości technologów, którzy są oczywiście zainteresowani promowaniem swoich ulubionych rozwiązań, trudno o tym pamiętać. Prawo i praktyka bankowa jest jednak doskonale świadoma tych kwestii, a instytucje finansowe cieszą się uzasadnioną reputacją ostrożności, a ich zasady często ograniczają oportunistyczne przyjmowanie technologii. Tu przyjrzymy się niektórym procesom, które stosują bezpieczne techniki w celu zminimalizowania ryzyka w transakcjach finansowych on-line. Jest to niezwykle niestabilny obszar, a zamiarem będzie opisanie trwałych zasad, a nie wszystkich obecnych przykładów, z których niektóre mogą się okazać jedynie interesujące z historycznego punktu widzenia.

BEZPIECZEŃSTWO – KOŃCOWE SŁOWA

W naszej wycieczce po problemach i rozwiązaniach związanych z bezpieczeństwem omówiliśmy technologie i szczegóły operacyjne tylko niewielkiej części tego, co jest możliwe. Nikt, kto po raz pierwszy podchodzi do tematu, nie powinien uważać się za kompetentnego po przeczytaniu tego rozdziału. Pod wieloma względami bezpieczeństwo jest najtrudniejszą stroną projektowania e-biznesu, choć wciąż często jest zaniedbywane lub zapominane. Być może nie jest to coś, czego można po prostu nauczyć; trzeba się tego nauczyć, być może na własnej skórze i wiele organizacji zaczyna to robić. W rzeczywistości trwa wyścig między organizacjami, które przekształcają swoje krytyczne operacje w tryb e-biznesu, a przestępcami i innymi atakującymi je. Dzisiejsza sytuacja w zakresie bezpieczeństwa komputerów jest słaba z tego prostego powodu, że komputery w sieci są z natury złożone i niewiele wskazuje na to, że w przewidywalnej przyszłości ulegnie to znacznym zmianom. Dlatego kontrola procesu musi nieść ciężar dobrego bezpieczeństwa, a to wymaga przemyślanego i dojrzałego projektu. Dobrze się to opłaci, ponieważ koszty awarii będą wysokie. Jest to również wyzwanie intelektualne, zarówno dla dobrych, jak i złych. Miejmy nadzieję, że branża wkrótce zacznie to sobie uświadamiać.

Skanowanie tęczówki oka i siatkówki

Ostatnio odnotowano znaczący sukces w praktycznym pomiarze wzoru żył na powierzchni tęczówki lub siatkówki i wykorzystaniu ich jako unikalnego „odcisku oka” dla poszczególnych osób. Rzeczywiście, skanowanie oczu jest jednym z liderów w dążeniu do niezawodnej, nieinwazyjnej biometrii. Użytkownik po prostu patrzy na kamerę telewizyjną, a obraz jest uchwycony i przetwarzany na stacji roboczej o średnim zasięgu, kosztującej kilka tysięcy funtów. Technika ta ma oczywiste zalety odcisków palców – bardzo wysoki współczynnik F – a także jest bezkontaktowa i zapewnia lepszą jakość obrazu. Jeden system cytuje zapisany wzorzec 256 bajtów i „stopę błędów krzyżowych” (to znaczy, gdy fałszywe akceptacje są równe fałszywym odrzuceniom) lepszym niż 1 na 130 000

 

IDIOSYNKRACJE KLAWIATURY

Innym przykładem parametru statystycznego, który jest „naturalnym” kandydatem do użycia w środowisku związanym z IT, jest statystyka klawiatury. Coraz częściej, przynajmniej przez kilka następnych lat, klawiatury będą głównym sposobem osobistego przekazywania informacji w sieci. Logiczne wydaje się zbadanie, czy można odróżnić od siebie rytm, z jakim posługujemy się klawiaturą. Za tym kryje się godna szacunku historia: podczas II wojny światowej brytyjskie okręty wojenne wyruszyły z portu po wylądowaniu operatorów alfabetu Morse’a, z których korzystali, gdy byli w porcie. Operatorzy ci będą nadal przesyłać wiadomości z brzegu, wiedząc, że niemieckie jednostki przechwytujące rozpoznają ich „pięść” i dlatego sądzą, że statek nadal stoi na kotwicy. Zastosowanie tego do automatycznego rozpoznawania stylu klawiatury zostało osiągnięte na kilka sposobów: onemethod mierzy czas naciskania i zwalniania klawiszy, gdy użytkownicy wpisują nazwy. Z tego obliczono czas pomiędzy kolejnymi naciśnięciami, a także czas przytrzymania klawiszy i wykorzystano je jako parametry klasyfikacyjne. System został przeszkolony przy użyciu sieci neuronowej, chociaż w zasadzie można zastosować inne strategie klasyfikacji.

WERYFIKACJA GŁOSU – „DRUKI GŁOSOWE”

Nazwa odciski głosu jest czasami nadawana technice weryfikacji mówcy, ponieważ twierdzi się, że głos każdej osoby ma unikalne cechy, które są analogiczne do niepowtarzalności odcisków palców. To twierdzenie jest bardzo mylące i nigdy nie zostało przekonująco udowodnione. Prawdziwym problemem, z którym borykają się zwolennicy weryfikacji mówcy, jest fakt, że współczynnik F dla mowy nie wydaje się być tak wysoki, jak dla odcisków palców. Przynajmniej jest to niezwykle trudne do zmierzenia dla którejkolwiek z cech, które składają się na różne oferowane systemy. W związku z tym trudno będzie oszacować wiarygodność schematów weryfikacji głośników, a zatem jest mało prawdopodobne, aby były one godne zaufania w krytycznych zastosowaniach. Niemniej jednak w komunikacji mowa jest jednym z najłatwiejszych do zebrania zbiorów danych i istnieją przesłanki, że weryfikacja mówcy zapewnia skromny stopień ochrony. Moglibyśmy na przykład powiedzieć, że z populacji liczącej 1000 głosów moglibyśmy rozsądnie twierdzić, że moglibyśmy zawęzić możliwość do 50 lub nawet mniej, z „dużą szansą” na poprawność. Jeśli, na przykład, procedura uwierzytelniania polegała na poproszeniu kogoś o wypowiedzenie jego osobistego numeru identyfikacyjnego (PIN), rozpoznawanie głosu znacznie zwiększyłoby w ten sposób bezpieczeństwo procesu w porównaniu z prostym wprowadzeniem kodu PIN. Jeśli chodzi o szczegóły rozpoznawania głosu, wypróbowano wiele parametrów: wysokość głosu, widmo częstotliwości, rezonanse traktu głosowego (formanty) i ich pochodne. Niektóre są bardziej odporne niż inne na problemy z szumami i zniekształceniami sieci komunikacyjnych lub wymagają mniejszej aktywności obliczeniowej.

ROZPOZNAWANIE RĄK

Bardzo prostym, ale dość niezawodnym, biometrycznym jest trójwymiarowy kształt dłoni. Można to szybko i dokładnie zmierzyć przy użyciu podstawowej technologii. System taki jak ten już udowadnia swoją wartość w Departamencie Imigracji Stanów Zjednoczonych w zakresie kontroli imigracji do USA. Osoby posiadające już legalne prawa pobytu w USA mogą nabyć karty inteligentne, które zawierają zaszyfrowaną wersję ich pomiarów dłoni. Jeśli wyjadą z kraju, a następnie wrócą, mogą być automatycznie monitorowani za pomocą karty, aby sprawdzić, czy są tym, za kogo się podają. Jedną z głównych zalet tej techniki jest to, że do określenia danych biometrycznych wymagana jest tylko niewielka ilość danych – jeden system to 9 bajtów.

ODCISKI PALCÓW

Jest to pomiar biometryczny, który wyprzedza technologię elektroniczną. Nie ma wątpliwości, że odciski palców oferują niezwykle skuteczny sposób unikatowej identyfikacji osób, pod warunkiem, że odcisk można uchwycić w miarę całkowicie. Teoretyczny współczynnik F dla odcisków palców jest prawie nieskończony, ponieważ poszczególne zmiany wynoszą w przybliżeniu zero, chyba że palce są celowo lub przypadkowo głęboko uszkodzone. Nie jest konieczne posiadanie tej własności indywidualnej niezmienności, ale ułatwia to uzasadnienie bezpieczeństwa biometrii. W zasadzie obraz odcisku palca mógłby zostać przechwycony przez kamerę telewizyjną, przesłany przez łącze komunikacyjne i sprawdzony w bazie danych. W praktyce jednak pojawiło się wiele problemów ze zautomatyzowanymi systemami zdalnego dostępu. Ze względu na dużą gęstość linii na wydruku wymagana jest duża ilość danych, a do wyrównania danych wymagana jest nieistotna ilość mocy obliczeniowej, jeśli wykonany wydruk jest tylko częściowo uchwycony lub słabo zarysowany. Palce muszą być dociśnięte do szklanych ekranów w celu prawidłowego ustawienia ich podczas skanowania. Ekrany mogą się łatwo zabrudzić. Ostatnio produkty komercyjne zwierdząc, że udało się obejść, niektóre z tych problemów zaczęły pojawiać się na rynku.

ROZPOZNAWANIE PISMA ODRĘCZNEGO

Autoryzacja za pomocą podpisu jest prawie tak stara jak samo pisanie. Wspomnieliśmy już pokrótce o pomiarach kierunku i prędkości i istnieje wiele patentów, które wykorzystują ich odmiany. Niektóre operują tylko na sygnaturze statycznej (tj. kierunku), podczas gdy nowsze podejścia coraz bardziej kładą nacisk na podejście dynamiczne. Pismo ręczne wiąże się z niektórymi problemami związanymi z innymi „zwykłymi” środkami. Stosunek F dla każdego konkretnego wymiaru pomiaru zawsze okazuje się raczej niski, głównie dlatego, że istnieje duża zmienność w sposobie pisania każdej osoby. Jest też drobny problem technologiczny: do uchwycenia podpisu potrzebujemy albo stosunkowo drogiego tabletu do pisania, albo ogólnie tańszego, przewodowego pióra, które jednak jest bardziej podatne na złamanie (lub kradzież!). Jednym z powodów, dla których tablet jest drogi, jest to, że może być wrażliwy na „pociągnięcia powietrza”, ruch pióra, gdy nie ma z nim kontaktu, ponieważ okazało się, że jest to ważna cecha wyróżniająca podpisy.

PODSTAWOWE ZASADY – KLASYFIKACJA LINIOWA

Matematyczne metody dopasowywania wzorców mogą być bardzo złożone i trudne do zrozumienia. Być może najbardziej dostępną metodą jest „klasyfikacja liniowa”. Ponieważ większość jego zasad można zastosować do innych, bardziej złożonych technik, przyjrzymy się jej nieco szczegółowo. Załóżmy, że decydujemy się na prosty schemat rozpoznawania pisma ręcznego. Rozważ problem rozpoznania autorstwa odręcznej litery „W” na rysunku

Dla przykładu rozważmy, że zdecydowaliśmy się zmierzyć dwie cechy listu:

† Średnie nachylenie suwu w dół AB.

Szybkość płyty CD w górę.

Załóżmy, że mamy kilka przykładów W napisanych przez każdą z N osób. Nie wszystkie będą miały taką samą wartość, ani dla wszystkich pisarzy, ani nawet dla każdej osoby. Załóżmy, że wykreślamy wartości na wykresie, jak pokazano na rysunku.

Każda z pięciu elips reprezentuje pierścień wokół większości wartości dla każdego pisarza. Widzimy, że dla wszystkich pisarzy wartość nachylenia waha się od około 45-708, a prędkość od około 1 do 1,5 cm/s. Widzimy również, że istnieje pisarz tajemnicy „W”. Aby uczynić rysunek 2.32 bardziej czytelnym, celowo wybraliśmy pozycję dla W, która jest daleko od centrum wartości dla dowolnego autora, ale będziemy nalegać, aby W musi być jednym z nich. Ale który? Naszą pierwszą myślą jest po prostu zmierzenie długości linii między różdżką i środkami rozrzutu wartości każdego pisarza i wybranie znanego pisarza, który jest najbliżej. Na wykresie dwuwymiarowym

Odległość = pierwiastek kwadratowy z (x odległość do kwadratu + y odległość do kwadratu)

zgodnie z twierdzeniem Pitagorasa. Zauważ, że gdybyśmy mieli trzy różne zmierzone parametry, a nie dwa, wzór można łatwo rozszerzyć, dodając wyraz w z-kwadrat. W rzeczywistości można go rozszerzyć, aby obejmował tyle „wymiarów”, ile chcemy, dodając termin dla każdego. Ale to nie jest takie proste. Wracając do naszego dwuwymiarowego przykładu, załóżmy, że po prostu zmieniliśmy skalę poziomą z cm/s na m/s lub pionową ze stopni na radiany? Względne odległości ulegną zmianie i może się okazać, że teraz utożsamiamy W z kimś innym. Zamiast używać arbitralnych skal, musimy wybrać skalę, która uwzględnia zależność między rozrzutem wartości dla każdej cechy u wszystkich autorów, w porównaniu ze średnim rozrzutem dla każdej cechy u jednego autora. Definiujemy stosunek, umownie nazywany stosunkiem F:

F = zakres wartości mierzonej cechy; przez wszystkich pisarzy / średnie wariacje poszczególnych pisarzy

Krótka myśl wyjaśni, że to obliczenie, zastosowane do każdego wymiaru („cecha”), da oszacowanie dyskryminującego moc wymiaru, duży współczynnik F, co oznacza, że ​​dana funkcja jest wysoce skuteczna w rozróżnianiu pisarzy. W praktyce współczynnik F jest używany jako czynnik ważenia przy obliczaniu odległości między nieznanym przykładem a różnymi możliwymi pisarzami. Można wykazać, że usuwa to wszelki wpływ określonych jednostek (takie jak centymetry kontra metry). Jest jeszcze inny, bardzo ważny aspekt współczynnika F: zwykle łatwiej jest ustalić zaufanie do elementu systemu, jeśli jego współczynnik F jest wysoki, jak zobaczymy w poniższych przykładach.