GRY-MASZYNY, OSOBISTE SYSTEMY DŹWIĘKOWE I INNE PRODUKTY KONSUMENCKIE

Nigdzie pogoń za przystępną ceną funkcjonalności i odpowiednimi technikami projektowania nie jest prowadzona tak energicznie, jak na rynkach konsumenckich gier i osobistych systemów dźwiękowych. Jednak takie podejście mogło posunąć się za daleko, aby którekolwiek z nich stało się poważnymi rywalami dla komputerów PC jako platform eCommerce w najbliższej przyszłości, ale nie można ich całkowicie zdyskontować, ponieważ obaj mogą czerpać korzyści z połączeń sieciowych. Patrząc na gry, zauważamy rozwijający się rynek interaktywnych gier dla wielu użytkowników. Może to prowadzić do zaprojektowania bardzo tanich modemów o rozsądnej szybkości do przekazywania informacji między graczami oraz, jako bonus dla sprzedawcy, potencjalnego mechanizmu sprzedaży nowych gier, które można pobierać przez sieć. Od tego już tylko krok do otwarcia kanału sprzedaży na jakąkolwiek transakcję eShopping. Jednym z problemów, na który ponownie natkniemy się przy okazji omawiania platform mobilnych, jest niezgodność między wyświetlaczem a klawiszami sterującymi typowego automatu do gier oraz zakres funkcjonalności potrzebny do wyświetlania typowych stron WWW, z których obecnie korzystają sklepy internetowe, w oparciu o Wyświetlacz komputera i klawiatura. Pojawia się sytuacja typu kura i jajko: jeśli większość eSklepów wymaga komputerów do ich przeglądania, platformy gier mogą być nieodpowiednie, ale nikt nie opracuje alternatywnego, bardziej odpowiedniego repertuaru wyświetlania dla swoich stron internetowych, chyba że platformy gier są wyposażone w stronę internetową zdolność.

Istnieją co najmniej dwie możliwe ewolucje, które mogą obejść ten problem: po pierwsze, rynek gier dla wielu użytkowników odnosi tak duży sukces, że przeglądanie sieci Web odbywa się z tyłu, początkowo jako dodatkowa usługa po wtórnych kosztach i funkcjonalności; po drugie, automat do gier staje się tanią platformą e-mailową do użytku rekreacyjnego (jak ma to miejsce w przypadku korzystania z usługi krótkich wiadomości telefonii komórkowej GSM przez dzieci w wieku szkolnym), i ponownie możliwość przeglądania sieci WWW początkowo pojawia się jako drugorzędne zastosowanie. Mniej więcej w czasie pisania tego tekstu firma Sony ogłosiła, że ​​ich nowa konsola do gier Dreamcast będzie zawierać przeglądarkę internetową, usługę poczty e-mail i szybką, modem z możliwością aktualizacji, który dodaje tylko 20 funtów do podstawowej platformy 200 funtów. Osobiste systemy dźwiękowe, takie jak produkty Sony „Walkman”, mogą podchodzić do dostępu do Internetu z zupełnie innej perspektywy: dostępu do dźwięku do pobrania. Audio było oczywiście połączone w sieć od początków radia. Komputery PC są teraz rutynowo dostarczane z kartami dźwiękowymi i oprogramowaniem, które przekształca je w przewodowe zestawy radiowe. Z drugiej strony, do niedawna przemysł nagrań muzycznych miał tendencję do traktowania swoich jednostek odtwarzających jako urządzeń niepodłączonych do sieci. To, co spowodowało to, to rozwój algorytmów kodowania dźwięku, które umożliwiają pobieranie plików muzycznych o jakości zbliżonej do płyty CD przez podstawowe połączenia modemowe, w rozsądnych granicach czasowych. Rozwój technologii dysków wielokrotnego użytku oraz rozwój standardów kodowania dźwięku i kompresji, w szczególności standard MPEG3 , umożliwiają teraz pobieranie wysokiej jakości sygnałów muzycznych i mowy za pośrednictwem połączenia internetowego za pomocą tanich modemów i podstawowych analogowych linii telefonicznych , w przystępnej cenie i szybkości. Obszarem wartym uwagi w tym zakresie jest rozwój urządzeń pamięci masowych. Do tej pory głównymi mechanizmami taniego przechowywania danych w woluminach większych niż około Mbajt były taśmy magnetyczne lub optyczny CDROM. Problem z taśmą polega na tym, że jest to nośnik szeregowy i przed odczytaniem trzeba ją nawinąć w odpowiednie miejsce. CDROM był głównie nośnikiem przeznaczonym tylko do odtwarzania, chociaż dostępne są droższe wersje do odczytu/zapisu. Jest ograniczona prędkość (chociaż może zapewnić rozsądną jakość obrazu) i jest raczej nieporęczna dla małych urządzeń przenośnych, takich jak telefony komórkowe i PDA. Całkiem niedawno na rynku pojawiły się karty pamięci o dużej pojemności, które wykorzystują technologię pamięci półprzewodnikowej, która jest szybka, kompaktowa i oszczędna pod względem mocy. Pojemność pamięci w momencie pisania jest ograniczona do stosunkowo skromnych wartości 64 Mbyte, ale konsorcjum deweloperskie składające się z firm Panasonic, Toshiba i SanDisk twierdzi, że jest przekonane, że karta o pojemności 1 GB będzie dostępna w 2002 roku. Wpływ tej technologii na handel elektroniczny może być dość znaczący, oczywiście w konkretnym przypadku sprzedaży muzyki lub wideo , ale także na uwodzicielskim składniku handlu detalicznego, który umożliwia pobieranie i odtwarzanie wysokiej jakości informacji katalogowych w wolnym czasie. Bardziej konwencjonalnie, stałe magnetyczne dyski twarde oferują teraz pojemność przechowywania rzędu 40–60 gigabajtów danych. Mogą być używane jako cyfrowe szafy grające do pobierania dźwięku lub w pudełku i sprzedawane jako magnetowidy półprzewodnikowe. Na przykład TiVo, zbudowany przez Thomson, ma 40 GB pamięci i kosztuje około 400 funtów. Za dodatkową jednorazową opłatą 200 funtów inteligentny interfejs programowania, który można zaprogramować do nagrywania materiału programowego w różnych jakościach nagrywania, dając od 14 do 40 godzin treści. System posiada również kontrolę pauzy, która umożliwia odtwarzanie materiału na żywo. Może to być na przykład jeden ze sposobów włączenia informacji o zakupach do kanału stylu życia. Na koniec należy wspomnieć o nowych możliwościach generowania treści, jakie oferują tanie kamery telewizyjne i aparaty cyfrowe. Rozwój wideotelefonu był od dawna przewidywany, ale nigdy nie został zrealizowany jako propozycja rynkowa. Częściowo jest to niewątpliwie spowodowane brakiem przepustowości w pętli lokalnej, ale to ograniczenie może zostać usunięte w niedalekiej przyszłości przez zainstalowanie niektórych technologii, o których wspominamy w rozdziale dotyczącym technologii sieciowych sprzedaży detalicznej. Dokładne miejsce, w którym wideofon od strony klienta pasuje do modelu eCommerce, jest trudne do przewidzenia, chociaż istnieją możliwości zarówno sprzedaży (np. skanowanie obrazu w celu zakupu mody), jak i wsparcia posprzedażowego. („Teraz proszę pokaż mi błąd w działaniu”). Problemy z produkcją dobrej jakości wideo są jednak dobrze znane. Wśród problemów znajdują się umiejętności związane z oświetleniem i obsługą kamery. Być może jednak fotografia jest prostszym rozwiązaniem. Obecnie na rynku dostępnych jest wiele przystępnych cenowo aparatów cyfrowych, a ceny spadają wraz ze wzrostem jakości obrazu i pamięci masowej. Kamera cyfrowa w połączeniu z komputerem może służyć jako stosunkowo tani sposób przesyłania obrazów przez Internet, sprzedawania domów, wysyłania instrukcji montażu i tak dalej.

NISKI PROJEKT PLATFORMY eCOMMERCE HOME

W obecnym stanie rzeczy komputery osobiste nie są tak naprawdę produktami konsumenckimi, zwłaszcza jeśli chodzi o technologię budowlaną. Zostały zaprojektowane zgodnie z formułą marketingową, która kładzie zbyt duży nacisk na funkcjonalność, ewolucję i elastyczność, a za mało na cenę. Na rynku biznesowym, gdzie zaczynały się komputery, wybór opierał się na zróżnicowaniu produktu – porównywaniu jednego komputera z drugim, oczywiście pod względem ceny, ale także elastyczności, możliwości rozbudowy, ewolucji, a nawet kaprysu działu IT czy użytkownika (żadne z nich nie musiało za to płacić bezpośrednio z własnych pieniędzy). Na krajowym rynku dóbr konsumpcyjnych decyzje zakupowe są zdominowane przez kupowanie zastępcze – nie tylko wybieranie między jednym komputerem a drugim, ale przez mnóstwo szalenie różnych wyborów: czy chcę mieć komputer, kamerę, sprzęt hi-fi, a nawet weekendowe wakacje czy eleganckie ciuchy? W takich przypadkach cena staje się kwestią krytyczną: istnieje ostry punkt cenowy, powyżej którego towary stają się znacznie mniej atrakcyjne. Należy od razu wziąć pod uwagę jedno: niekoniecznie najbardziej egzotyczne i złożone komponenty, które kontrolują koszty. Z pewnością nie jest to na przykład oprogramowanie. Nie jest też teraz układem scalonym na bardzo dużą skalę. To z pewnością sprawiło, że komputery stały się produktami znacznie tańszymi niż kiedykolwiek; w rzeczywistości bez takiej integracji nie byłyby nawet możliwe. Ale kiedy już ta integracja zostanie przeprowadzona, możliwości redukcji kosztów pojawiają się w bardziej przyziemnych elementach, takich jak obudowy, złącza, płytki drukowane itp. Rzeczywiście, poza jednym lub dwoma elementami elektronicznymi, takimi jak procesor i inny specjalistyczny krzem, Komputery PC nie zostały tak naprawdę skonstruowane jako urządzenia przeznaczone na rynek masowy. Składają się z pojedynczych płytek drukowanych z przewodami, z których każda jest wyposażona w drogie złącza okablowania, czasami nawet w wytrzymałe złącza krawędziowe, zdolne do przenoszenia ciężaru i momentów zginających dużych płytek drukowanych, w obudowie, która jest złożona z poszczególnych elementów. Zazwyczaj są to „gniazda” rozszerzeń – gniazda i prowadnice kart, które pozwalają na włożenie dodatkowych płytek drukowanych (karty akceleratorów wideo, dodatkowe urządzenia pamięci itp.) – oraz gniazda do podłączenia urządzeń zewnętrznych. Wszystko to wskazuje na produkcję średnioseryjną, pozostawiającą otwarte opcje dodawania funkcjonalności poza oryginalnym projektem. Wszystko to kosztuje. Porównaj to z zasadami projektowania dotyczącymi produkcji dóbr konsumpcyjnych. Obudowy i konstrukcje podtrzymujące aktywne komponenty są często „formowane” (np. przez formowanie wtryskowe tworzyw sztucznych), a nie montowane, same płytki drukowane są często podpierane w wielu punktach w obudowie i trwale utrzymywane na miejscu za pomocą niedrogich mocowań. Rozmieszczenie aktywnych komponentów jest określane raczej przez koszt budowy niż przez partycjonowanie, które umożliwia ulepszenia funkcjonalne: liczba złączy między płytami jest zminimalizowana, stosowane są specjalne układy scalone o w dużej mierze stałej funkcjonalności i unika się gniazd rozszerzeń. Chociaż metody te służą zasadniczo obniżeniu kosztów, dają one również raczej bardziej niezawodny i sprężysty produkt, który można bez problemów stosować w nieco bardziej nieprzyjaznym środowisku konsumentów. Równolegle z preferencją redukcji kosztów nad elastycznością jest chęć uproszczenia interfejsu użytkownika i ograniczenia liczby opcji. (Czasami jest wątpliwe, czy rzeczywiście osiąga to swój cel, co może zaświadczyć większość użytkowników magnetowidów, ale niewielu ma elastyczność lub mylącą złożoność interfejsu PC.)

PC – DZIŚ I JUTRO

Jako maszyna, komputer nie jest szczególnie skomplikowany, w porównaniu na przykład z samochodem, a może nawet z telewizorem – nie jest to bynajmniej najmniejszy z powodów, dla których odniósł taki sukces. Aby to zrozumieć i spróbować przedstawić prawdopodobny postęp, ważne jest, aby przyjrzeć się temu szczegółowo. Na rysunku pokazujemy główne elementy komputera PC.

Trzy górne elementy na diagramie reprezentują typowe sposoby zapewniania interakcji między użytkownikiem a komputerem (i usługami za nim stojącymi). Ekrany mają zwykle przekątną około 15 cali, a najlepszą jakość obrazu nadal zapewnia czcigodny wyświetlacz z lampą katodową. Chociaż wyświetlacze ciekłokrystaliczne i inne wkraczają w tę dominację, jest mało prawdopodobne, aby utraciła swoją dominującą pozycję jeszcze przez kilka lat i możemy założyć, że jakość doświadczeń zakupowych będzie podobnie ograniczona w tym okresie. Klawiatura i mysz (lub kulka śledząca) są dominującymi mediami wejściowymi i prawdopodobnie nie jest zbyt ryzykowne stwierdzenie, że one również pozostaną takimi przez podobny okres. Istnieje pewne zainteresowanie wejściem-wyjściem głosowym w aplikacjach mobilnych, ale nadal nie jest to zbyt niezawodne, a w każdym razie może być denerwujące dla innych osób w pobliżu. W związku z tym jest mało prawdopodobne, aby nastąpiła jakakolwiek radykalna zmiana ich funkcji wejścia / wyjścia pokazane na następnym poziomie niżej. Jednak w przypadku możliwości przetwarzania programu przez komputer, jego „inteligencji” jest zupełnie odwrotnie. Sercem (a może i mózgiem) każdego komputera jest chip procesora, układ scalony składający się z około miliona aktywnych elementów elektronicznych. Moc obliczeniowa komputera jest w przybliżeniu związana z liczbą tych aktywnych obwodów pomnożoną przez ich szybkość działania. Zadziwiające jest to, że w ciągu ostatnich trzech dekad wzrosła liczba takich komponentów dostępnych w jednym układzie scalonym; to, co zapiera dech w piersiach, to dalszy potencjał. Wykres pokazany na rysunku 3.8 pokazuje niezwykłe zjawisko znane jako „prawo Moore’a” (od Geralda Moore’a, jednego z założycieli Intela), że liczba tranzystorów na chip (lub równoważnie koszt na jednostkę mocy obliczeniowej) jest większy. niż podwaja się co dwa lata.

Co więcej, wielu ekspertów uważa, że ​​trend ten utrzyma się jeszcze przez co najmniej jedną dekadę. Jeśli ta prognoza jest słuszna, komputery w roku 2010 będą około tysiąc razy wydajniejsze niż dzisiaj. Akceptując przepowiednię, możemy rozglądać się za czymś, do czego można wykorzystać tę ogromną moc. Od razu przychodzi na myśl jedna aplikacja – lepsza jakość grafiki. Chociaż nadal ograniczamy się do podstawowych wyświetlaczy wizualnych, możemy sobie wyobrazić, że są one napędzane przez bardziej wydajne oprogramowanie, które umożliwia tworzenie interfejsów rzeczywistości wirtualnej o niezwykle wysokiej jakości, a tym samym wysoce uwodzicielskich do gier komputerowych lub do tworzenia sklepów internetowych . Ten trend w mocy obliczeniowej, jak pokazano na rysunku  rozciąga się również na „pamięć rdzenia”. Termin pierwotnie odnosił się do mechanizmu konstrukcji tej pamięci (dosłownie, maleńkich toroidów z materiału magnetycznego). Obecnie częściej używanym terminem jest „pamięć o dostępie swobodnym” lub pamięć RAM, ale woleliśmy użyć wcześniejszego terminu: przypomina nam, że rdzeń  pamięci jest „rdzeniem” elementów przetwarzających komputera w porównaniu z dyskami twardymi i tym podobnymi, które są urządzeniami peryferyjnymi. Rdzeń jest wymagany, gdy oprogramowanie ma być uruchamiane szybko; wykonywany program musi znajdować się w rdzeniu, a nie na urządzeniu peryferyjnym, ponieważ dostęp do tego ostatniego jest znacznie wolniejszy. Na przykład w przypadku systemów operacyjnych niektóre czynności jądra, takie jak kontrola podstawowych danych wejściowych i wyjściowych, zawsze pozostają w rdzeniu, podczas gdy mniej krytyczne czasowo lub rzadziej używane narzędzia są przechowywane na dyskach i ładowane do rdzenia tylko wtedy, gdy jest to wymagane .

Core jest również używany, gdy chcemy przeprowadzić implementacje programowe kodowania i dekodowania wideo i audio. Schematy kodowania, takie jak standardy wideo MPEG, które muszą przechowywać kolejne klatki strumienia wideo, aby mogły przesyłać tylko zmiany, wymagają pamięci o szybkim dostępie. Często wygodnie jest odtworzyć układ ekranu za pomocą zestawu lokalizacji pamięci „planu wideo”, które mogą pomieścić wszystkie dane dla pojedynczej klatki wideo, a także inną płaszczyznę dla tekstu i grafiki, które zostaną nałożone na podstawowy obraz. Wszystkie te wymagania – zwiększona moc obliczeniowa, wyświetlanie wideo i kodowanie – stanowią powód do ostrożności w przypadku twierdzeń, że PClite/komputer sieciowy może być uproszczoną wersją dzisiejszego komputera. Jest całkiem prawdopodobne, że to, co obserwujemy, jest raczej spowolnieniem niż odwróceniem specyfikacji procesora i pamięci rdzeniowej. Projektanci prawdopodobnie nie powinni myśleć w kategoriach prób projektowania według bardzo ograniczonej specyfikacji sprzętowej. Na przykład rozwój prototypów dekoderów telewizyjnych (które są prawie we wszystkim, komputerami osobistymi) ujawnił, że ograniczenie się do małego rozmiaru jest złą rzeczą. Jeśli pamięć rdzeniowa i szybkość przetwarzania podlegają dramatycznej poprawie, niewiele można powiedzieć o pamięciach peryferyjnych i innych urządzeniach. Pojemność pamięci peryferyjnej i szybkości dostępu rosły w coraz bardziej stabilnym tempie, zasadniczo liniowym z upływem czasu. Idąc w czasie z nimi, wymagano pamięci masowej dla kompletnych systemów operacyjnych i narzędzi. Tutaj znowu mamy problem z komputerem sieciowym. Czy zamierzamy oszczędzić na kosztach sprzętu i problemach z konserwacją, usuwając dysk twardy i zamiast tego ładować części systemu operacyjnego, gdy jest to wymagane, z centralnego serwera? Jeśli tak, to albo zamierzamy mieć dość ograniczony system operacyjny, narzędzia i aplikacje lub bardzo szybki kanał, z którego można je załadować, jeśli mamy zapewnić odpowiednią usługę. Do niedawna ten wymóg sieciowy mógł być największą przeszkodą na ścieżce krajowego rynku komputerów sieciowych. Gdzie mieliśmy uzyskać wystarczająco szybkie możliwości pobierania? W środowiskach biznesowych i, być może, edukacyjnych, serwer zawierający fragmenty programu może współdzielić sieć lokalną z komputerem klienckim i mieć możliwość, za pośrednictwem tej sieci, dostarczania danych z szybkością znacznie przekraczającą 1 MB. Ale co z użytkownikiem domowym, który utknął na drugim końcu linii telefonicznej oferującej szybkość transmisji danych w analogowej sieci telefonicznej poniżej 8 kb/s lub w droższej cyfrowej sieci ISDN, która jest tylko cztery lub pięć razy większa? Jednak, jak wyjaśniono w tym rozdziale, ostatnie osiągnięcia w zakresie modemów kablowych i cyfrowej pętli abonenckiej mogły wzmocnić sytuację w sieciowym komputerze PC, obiecując przynajmniej szybkość przesyłania danych zbliżoną do 250 kb/s. Debata o sieciowym komputerze PC jest ponownie żywa i może znacząco wpłynąć na ewolucję platformy zakupów domowych.

PROBLEMY WŁASNOŚCI PC

Dla zwykłych użytkowników komputer PC nie jest łatwym produktem konsumenckim do posiadania, pożyczania, a nawet zakupu. Z dala od środowiska biurowego, w którym może znajdować się jednostka wsparcia komputerowego i prawdopodobnie są koledzy, którzy mogą pomóc w rozwiązaniu problemów, użytkownik domowy ma kilka trudności, co może oznaczać potrzebę zapewnienia alternatywnych rozwiązań. Zapewnienie, że maszyna jest wyposażona w najnowsze oprogramowanie, nawet jeśli jest bezpłatne i można je pobrać przez Internet, jest obowiązkiem, którego wiele osób unika. Chociaż regularnie wypuszczane są nowe wersje przeglądarek internetowych, każda usługa sieciowa będzie musiała być zaprojektowana tak, aby poradzić sobie z kilkoma wersjami, niektóre ze sporych rozmiarów, jeśli mają zapewnić szeroki dostęp. Innym problemem związanym ze sprzętem do użytku domowego jest jego podstawowa niezawodność: oprogramowanie i sprzęt komputerowy prawdopodobnie nie są wystarczająco dobre dla krytycznych procesów w domu, gdzie nie ma dostępu do specjalistycznego wsparcia lub możliwości wymiany maszyny w przypadku awaria. Awarie sprzętu PC nie są rzadkością; jedno źródło podaje, że typowa dostępność jest o dwa rzędy wielkości gorsza niż centrala telefoniczna, a z tego powodu standardowy komputer osobisty nie jest akceptowany przez władze telekomunikacyjne do użytku jako centrala telefoniczna w domu. Problemy z oprogramowaniem są jeszcze częstsze: Hatton twierdzi, że defekty pojawiały się co 42 minuty w systemach korzystających z Windows ’95 Professional Office, z których 28% wymagało ponownego uruchomienia. Komputery osobiste to stosunkowo drogie elementy wyposażenia konsumenckiego: gdybyśmy mieli zastosować powszechną praktykę rachunkowości biznesowej, polegającą na amortyzacji ich zakupu przez trzy lata i dokonać skromnego oszacowania na 1000 funtów na maszynę, okazałoby się, że koszt wyniósłby ponad 300 funtów rocznie. Porównaj to z telewizorem o typowej cenie 300 funtów i średniej żywotności 10 lat; czyli 30 funtów. Przy tych założeniach komputer PC kosztuje dziesięć razy więcej niż telewizor. Komputery osobiste są również dość nieporęczne, co nie zawsze doceniamy, gdy używamy ich w pracy lub w oddzielnym badaniu, ale było to problemem w próbach pracy w domu dla pracowników, którzy nie korzystali z zalet zarezerwowanego zakwaterowania. Jeśli komputery PC mają stać się terminalami masowymi, które są naprawdę popularne, mogą zmieścić się w salonie lub kuchni i być może będą musiały wytrzymać pewne fizyczne nadużycia. Może to oznaczać zmniejszenie rozmiaru, być może integrację procesora, monitora i klawiatury/trackera. Może to również oznaczać, że drukarki i tym podobne urządzenia pomocnicze są zakazane. Te kwestie konserwacji i kosztów skłoniły niektórych komentatorów do twierdzenia, że ​​kolejne trendy na rynku komputerów osobistych nie będą zmierzać w kierunku zwiększonej funkcjonalności, ale raczej będą zmierzać w kierunku uproszczonej maszyny, która opiera się na połączeniu sieciowym ze zdalnym serwerem . Jest to koncepcja komputera sieciowego (NC) lub PC-Lite, jak jest różnie nazywana. Pod względem modelu obliczeniowego klient-serwer komputery sieciowe reprezentują opcję „cienkiego klienta”, przy czym większość mocy znajduje się na serwerze. Część tej mocy tam pozostanie; niektóre z nich, oparte na aplikacji oprogramowania, na przykład, może być załadowane do NC, gdy jest to wymagane. Zmniejszy to zapotrzebowanie na duże ilości pamięci w NC, a także zapewni dostępność najnowszych wersji. Firma IDC Corp. przewidziała początkowo powolny wzrost popularności komputerów sieciowych – i będzie to głównie dla biznesu – ale prognozuje, że ich rodzimy rynek przewyższy rynek standardowych komputerów PC do 2005 roku. Czy jest to realistyczny scenariusz? Aby wygenerować świadomą opinię, należy najpierw przyjrzeć się budowie komputera i spróbować uzyskać wgląd w to, jak prawdopodobnie będzie ewoluował.

OPROGRAMOWANIE APLIKACJI PC e-COMMERCE

Do czego zatem służy to pobrane oprogramowanie klienckie? Najbardziej oczywista jest grafika dynamiczna. Możliwe jest użycie podstawowego kodu HTML do wyświetlenia jakiejś formy ruchu, na przykład poprzez pobranie kolejnych stron, ale jest to powolne i kłopotliwe. Wykorzystując zdolność Javy i ActiveX do uruchamiania programów na maszynie klienta, możliwe jest generowanie grafiki lokalnie, ograniczone jedynie mocą komputera, a nie siecią. W ten sposób można uzyskać uwodzicielską prezentację, nawet przez wolne łącza modemowe. Innym powszechnym zastosowaniem jest sprawdzanie formularzy: podstawowe przeglądarki pozwalają klientom ściągać formularze z serwera, uzupełniać je i odsyłać. Przeglądarka nie sprawdza jednak formularza, czy dane (na przykład pole daty) mieszczą się w dopuszczalnych granicach. Z drugiej strony aktywne przeglądarki mogą pobierać i uruchamiać formularze zawierające fragment kodu wykonywalnego, który może przeprowadzić to sprawdzenie na komputerze i zasygnalizować użytkownikowi błąd. W miarę jak strony internetowe przechodzą z HTML do XML , gdzie ostatni język generowania stron zawiera lepsze funkcje sprawdzania, stanie się to jeszcze potężniejsze. Komputery klienckie pobierają informacje z serwera. Około 2 lata temu analitycy rynku przewidywali ruch w kierunku technologii push, w której serwer aktywnie dostarczał informacje do klienta bez konieczności żądania tego przez użytkownika. Nazwa jest raczej myląca: klient faktycznie musiał okresowo prosić o aktualizację z serwera, używając wcześniej pobranego oprogramowania. Oprogramowanie po stronie serwera umożliwia dostawcy informacji skonfigurowanie serwera jako pewnej liczby kanałów, analogicznych do kanałów telewizyjnych, które zawierają usługi takie jak „sport”, „zakupy” itp., które klienci zostali skonfigurowani do odbioru. Użytkownicy wybierają również częstotliwość aktualizacji, instruując w ten sposób klienta, aby sprawdzał serwer w tym tempie i pobierał wszelkie zmiany. Oprogramowanie klienckie zapewnia również kontrolę „tunera”, która pozwala użytkownikowi wybrać odpowiedni kanał. Pomimo przewidywań rynkowych, pchnięcie nie zostało tak energicznie przyjęte, jak oczekiwano. Koncepcja kanału została jednak skromnie przyjęta przez niektórych dostawców informacji, zwłaszcza w sektorze mediów informacyjnych. Zostało to omówione dalej w części 4, Marketing. Nawiasem mówiąc, jedynym wyjątkiem od letniej recepcji push był e-mail. Nie tak bardzo na rynku detalicznym, ale z pewnością w środowisku wyszukiwania informacji, obserwuje się stały wzrost liczby wysyłanych pocztą elektroniczną raportów i aktualizacji wiadomości, które są automatycznie wysyłane na listę zapisaną przez użytkownika. Niektóre zastosowania takich grup użytkowników omawiamy w rozdziałach poświęconych marketingowi i zarządzaniu wiedzą.

OPROGRAMOWANIE NA KOMPUTER OSOBISTY

Uproszczony model zawartości oprogramowania komputera może wyglądać tak, jak pokazano na rysunku

Jednak rzeczywistość sytuacji widziana i kupowana przez użytkownika jest znacznie mniej „czysta” i bardziej złożona. Obecnie rynek komputerów PC jest w przeważającej mierze zdominowany przez środowisko Microsoft Windows, a większość z tego, co pozostało, stanowi obecność mniejszościowych produktów Apple. Żaden z nich nie jest tak naprawdę systemem operacyjnym w ścisłym tego słowa znaczeniu, a raczej luźno powiązanym zbiorem interfejsu użytkownika, narzędzi, aplikacji i komponentów systemu operacyjnego, działających na „prawdziwych” systemach operacyjnych ziarna jakiegoś rocznika. Z wyjątkiem bardzo najnowszych wersji oprogramowania na komputery PC, być może nawet ich nie, możliwości internetowe zostały raczej przykręcone, niż zaprojektowane. We wszystkich przypadkach dostęp do Internetu uzyskuje się za pomocą dodatkowego narzędzia, przeglądarki. Jest to bardzo zaniżona nazwa, sugerująca, ponieważ umożliwia jedynie swobodne poruszanie się (przeglądanie) po strukturze plików (w tym przypadku plików dostępnych na wszystkich komputerach podłączonych do Internetu). Przeglądarki faktycznie robią więcej niż tylko zapewniają pasywną usługę zarządzania plikami dla użytkownika; są prawie równoważne całemu środowisku Windows lub Apple, z wyjątkiem działającego jądra. Jak widzimy w rozdziale Serwer sprzedaży detalicznej, w którym omawiamy działanie klienta-serwera w sprzedaży detalicznej on-line, usługi sieciowe rzeczywiście początkowo były prostym sposobem prostego zdalnego dostępu do plików, ale ewoluowały w bardziej złożone procesy, w tym możliwość zdalnego uruchamiania programów. Obecnie komputery użytkowników często pobierają kod programu (wykonywalny) z serwera sprzedawcy i uruchamiają go lokalnie, w ramach działania przeglądarki. Pierwotnie (kiedy właściciele komputerów PC byli głównie biegli w obsłudze komputera) istniało przekonanie, że ładowanie tego lokalnie działającego kodu zostanie wykonane celowo i świadomie przez użytkowników, pod kontrolą przeglądarki. Takie podejście, z modułem kodu znanym jako wtyczka, jest rzeczywiście nadal stosowane w wielu aplikacjach, które są „zaawansowane” w dowolnym momencie. Obecnie przykładem są dekodery muzyczne. Jednak proces wtyczek wydaje się być zbyt skomplikowany lub przynajmniej denerwujący dla zwykłego użytkownika. Zamiast tego kod wykonywalny jest często importowany i uruchamiany bezpośrednio przez przeglądarkę, bez konieczności interwencji ręcznej, z wyjątkiem możliwego kliknięcia oznaczonych przycisków, które są wyświetlane na ekranie przeglądarki. Java, otwarty język programowania i Microsoft ActiveX są przykładami dwóch różnych typów programowania klienta. ActiveX to nie tyle język programowania, ile integracja wielu rozproszonych komponentów obliczeniowych wraz ze środowiskiem programistycznym. Najistotniejsze w naszej obecnej dyskusji są kontrolki ActiveX, zestaw komponentów typowo do projektowania kontrolek ekranowych, takich jak suwaki, przyciski, rozwijane menu itp., które można załadować do przeglądarek wraz z podstawowymi strony, aby poprawić interakcję z użytkownikiem. Standardowe biblioteki ActiveX są szeroko produkowane, ale tylko dla środowiska Windows. Z drugiej strony Java została specjalnie zaprojektowana jako język otwarty i taki, który teoretycznie może działać w większości systemów operacyjnych. (Chociaż wiąże się to z obniżeniem wydajności). Java działa również w dość nietradycyjny sposób, ponieważ jest zarówno kompilowana, jak i interpretowana. W przeciwieństwie do wielu języków, które mają tylko jeden lub inny wybór. W językach interpretowanych kod jest ograniczony do kilku podstawowych operacji, które mogą być tłumaczone mniej więcej wiersz po wierszu przez program Interpreter w czasie wykonywania. Interpreter ma kontrolę nad typowaniem danych i alokacją pamięci. Skompilowany kod jest ogólnie bardziej elastyczny i, przynajmniej potencjalnie, bardziej niebezpieczny, ponieważ jest tłumaczony masowo, jako operacja off-line na kod, który nie może być tak łatwo przetestowany pod kątem zgodności z konkretnym komputerem, na którym ma być uruchomić. Ogólnie kod interpretowany jest więc bezpieczniejszy. O wiele łatwiej jest zapewnić, że wszystkie operacje są ściśle ograniczone, tak aby ich konsekwencje, dla dowolnych wartości, którymi są zasilane w czasie wykonywania (np. dane wprowadzone przez użytkownika do formularza), były ściśle zawarte w „bezpiecznym” obszarze w pamięć. Nie mogą uzyskać dostępu do krytycznych funkcji operacyjnych przeglądarki lub systemu operacyjnego, ani uruchomić żadnego procesu, który mógłby zablokować system. W przypadku Javy oryginalny kod wytworzony przez programistę jest do pewnego stopnia kompilowany przed załadowaniem na serwer. Wynikiem kompilacji jest zestaw instrukcji w kodzie bajtowym. Jednakże, gdy ten kod, aplet Java, zostanie załadowany do komputera klienckiego wraz z podstawową stroną internetową, przed wykonaniem musi przejść dalszą translację, tym razem interpretację. Ta interpretacja, która wiąże wciąż zmienne elementy kodu w stałe wartości (na przykład przypisanie fizycznych miejsc w pamięci) ma miejsce w wirtualnej maszynie Javy

Ta maszyna wirtualna to tak naprawdę oprogramowanie znajdujące się w przeglądarce. Kod jest ograniczony do działania w bezpiecznej przestrzeni pamięci, a instrukcje wykonywalne do części operacyjnych komputera są sprawdzane i kontrolowane przez interfejs maszyny wirtualnej z resztą komputera. W ten sposób całe działanie apletu jest zawarte w kontrolowanym środowisku — piaskownicy. Koncepcja maszyny wirtualnej nie tylko zapewnia dobry (choć nie kompletny) poziom ochrony przed złośliwymi operacjami, ale także zapewnia standardowe środowisko projektowe dla apletów. Projektant aplikacji nie musi znać szczegółów przeglądarki czy systemu operacyjnego, a jedynie specyfikację maszyny wirtualnej, która jest częścią standardu Java. Raz zaprojektowane aplety mogą być dość pewne, że będą działać na nowych wersjach oprogramowania. ActiveX firmy Microsoft stosuje zupełnie inne podejście do prawidłowego działania. Nie podejmuje się żadnych prób ograniczania kodu ActiveX ani jego efektów do bezpiecznej domeny. Nie ma piaskownicy. Zamiast tego ActiveX opiera się na koncepcji zaufanego kodu: kod jest tworzony i cyfrowo podpisany przez organizacje, którym użytkownik powinien ufać. Korzystając z technik szyfrowania opisanych w Części 3 Bezpieczeństwo, można dostarczyć bardzo dobrych dowodów na to, że kod rzeczywiście został opracowany przez organizację, która go podpisała, i że kod nie został później przypadkowo lub celowo uszkodzony.

KOMPUTERY OSOBISTE

Nie jest to nienaturalne, że komputer PC stał się kojarzony w umysłach większości ludzi jako platforma dostępu do usług eCommerce: eCommerce zaczęło się jako usługa zorientowana na technologię, a pierwsi użytkownicy byli biegli w IT, a większość zakupów dotyczyła produktów komputerowych lub oprogramowania. (To nadal prawda.) Niezależnie od długoterminowego trendu (i, jak zobaczymy, istnieją alternatywy), komputer prawdopodobnie pozostanie główną platformą eCommerce przez kilka następnych lat, w oparciu o wykorzystanie jednej lub drugiej branży- standardowe oprogramowanie „przeglądarki internetowej”, które działa na „kliencie” komputera PC i komunikuje się z serwerem dostawcy przez Internet za pośrednictwem dostawcy usług internetowych. Chociaż mówimy o komputerach osobistych, nie możemy zakładać, że chodzi nam o pojedynczy model lub jednorodne dostarczanie funkcjonalności. Rynek biznesowy komputerów PC jest nastawiony na szybki wskaźnik rezygnacji ze sprzętu i oprogramowania, szybko doprowadzając każdego użytkownika do najnowszych standardów, ale może to nie mieć miejsca w przypadku użytkowników domowych, którzy sami muszą kupować sprzęt. Spośród ekskluzywnych maszyn zlokalizowanych w budynkach mieszkalnych wiele jest kupowanych przez firmy dla pracowników pracujących w domu lub przez osoby prowadzące działalność na własny rachunek korzystające z ulg podatkowych. Z drugiej strony „prawdziwi płatnicy”, poza fanami komputerów, rzadziej mają najnowsze, najnowocześniejsze maszyny. Rzeczywiście, wielu klientów końcowych nie będzie uzyskiwać dostępu do witryny handlu elektronicznego z domu: albo będą to robić w ramach swojej pracy, na przykład jako kupujący, albo po prostu będą korzystać z obiektów firmy do użytku prywatnego. Faktem jest, że w pracy jest znacznie wyższy odsetek osób z komputerami osobistymi niż w domu. Według Forrester Research, w 1998 roku tylko 6,8% europejskich domów posiadało łącze internetowe. Praktycznie każdy pracownik biurowy w USA ma dostęp do maszyny, a reszta „rozwiniętego” świata również ma wysoki poziom zaopatrzenia (rysunek 3.4). Ponadto, jak powiedzieliśmy, te maszyny będą prawdopodobnie miały wyższą specyfikację niż te domowe; prawie na pewno będą one w większości przypadków połączone z Internetem przez łącze o większej szybkości. Oczywiście istnieją kwestie etyczne związane z używaniem firmowych maszyn do użytku prywatnego. Mogą mieć nawet konsekwencje podatkowe. Ale sprzedawcy eCommerce mogą być w stanie współpracować z firmami, na przykład dlatego, że rodziny z obojgiem współpracujących partnerów mogą uznać za zachętę, aby móc zamówić zakupy w przerwie na lunch. W każdym razie internauci będą mieli wyższe dochody niż przeciętne i powinni czuć się w miarę swobodnie z IT. Stanowi to zatem potencjalnie cenny segment rynku dla zaawansowanych, wyrafinowanych usług

KIOSKI MULTIMEDIALNE

Niektóre z najwcześniejszych schematów zakupów „bez sklepu” zostały opracowane wokół koncepcji kiosków multimedialnych, które mogą znajdować się w dowolnym miejscu publicznym lub półpublicznym. Kioski są zwykle zbudowane z wielu standardowych komponentów komputerowych i są umieszczone w wytrzymałej obudowie. Często zamiast klawiatury stosuje się ekran dotykowy. Powszechną praktyką jest dostarczanie uwodzicielskich prezentacji przy użyciu wysokiej jakości obrazów wyświetlanych na standardowym ekranie VDU, a czasem dźwięków, przechowywanych lokalnie na dyskach kompaktowych lub dyskach twardych, zamiast udostępniania ich przez sieć. Ostatnie zmiany w transmisji: modemy kablowe, technologia cyfrowej pętli abonenckiej i radiowa pętla lokalna (wszystkie omówione w innym miejscu) podważyły ​​założenie, że lokalna pamięć masowa jest niezbędna. Jednak to wcześniejsze ograniczenie doprowadziło do użytecznego zrozumienia, że ​​rozsądną praktyką projektową jest oddzielenie elementów informacyjnych i uwodzenia. Te ostatnie są drogie w produkcji, jeśli wymagana jest wysoka jakość, ale w przeciwieństwie do składowych informacji dotyczących ceny, asortymentu, dostępności itp. nie wymagają regularnej aktualizacji. Byłoby bardzo złą praktyką, gdyby umieścić cenę odzieży na obrazie, który ją wyświetla. Istnieje możliwość zapewnienia narzędzia komunikacyjnego, które umożliwi użytkownikowi dokonywanie transakcji ze sprzedawcą detalicznym. (Chociaż wiele takich usług nie zostało jeszcze udostępnionych.) Do rozmowy z asystentem na żywo można wykorzystać telefonię analogową lub podstawową stawkę ISDN. Jeśli używany jest ISDN, można nawiązać połączenie wideo o niskiej rozdzielczości. Może to zapewnić „wyskakującego” asystenta, którego można wezwać na żądanie, aby poradzić sobie z trudnymi transakcjami. Odstępstwem od tego jest użycie kamery na końcu kiosku, aby zapewnić funkcję bezpieczeństwa, taką jak tożsamość klienta w aplikacjach bankowych. Kioski pojawiły się przed popularyzacją Internetu/sieci transmisji i prezentacji informacji, ale to się zmienia i obecnie testowane są instalacje kiosków/płatności, które opierają się na standardowym dostępie do sieci, z możliwością obsługi transakcji wykorzystujących formularze HTML. Kioski mogą nawet zapewnić pewien stopień bezpośredniej realizacji: mogą być wyposażone w drukarki, dzięki którym po wybraniu towaru na ekranie będą mogły wydawać bilety lub bony. W rzeczywistości drukarka jest często najbardziej kłopotliwym elementem, podatnym na zacięcie i wymagającym ponownego załadowania papieru. Zastosowanie kart inteligentnych w miejsce biletów papierowych umożliwiłoby zastosowanie znacznie bardziej niezawodnego interfejsu kart w kiosku. W niektórych krajach, zwłaszcza w Japonii, sprzedaż bezpośrednia towarów fizycznych z kiosku są bardzo powszechne. Kiosk można zintegrować ze standardowymi usługami i łańcuchem dostaw firmy, pod warunkiem że z kioskiem nawiązane jest połączenie sieciowe. Dzięki temu możliwe staje się zdalne monitorowanie stanów magazynowych w kiosku, stosowanie zdalnych alarmów do ochrony przed aktami wandalizmu i wykrywanie usterek systemu oraz dostosowywanie cen do sezonowego zapotrzebowania i ofert specjalnych. Kolejny rozwój dotyczy terminali, które przybierają formę urządzeń oparcia siedzeń w samolotach. Zwłaszcza pasażerowie klasy biznes stanowią populację o wysokich dochodach, znudzoną i uwięzioną w grach online, przesyłaniu wiadomości i robieniu zakupów. Wiele linii lotniczych wprowadziło takie udogodnienia, które na ogół wykorzystują mały ekran, powiedzmy o przekątnej 5 cali i prosty panel sterowania podobny do pilota do telewizora, który można odczepić od wspornika w podłokietniku fotela, do którego jest podłączony. okablowane na stałe za pomocą krótkiego kabla. Projektowanie dla tych systemów wymaga starannego rozważenia kilku aspektów. Komputery pokładowe i związany z nimi sprzęt to specjalistyczna dziedzina, działająca w oparciu o surowe przepisy w zakresie bezpieczeństwa, w szczególności w zakresie kompatybilności elektromagnetycznej z systemami sterowania statku powietrznego; w konsekwencji komputery wykorzystują własne projekty, które mogą być nieznane zespołowi projektowemu przyzwyczajonemu do środowiska Unix lub Microsoft/PC. Istnieje również ograniczenie projektowania w granicach małego pilota. Nie pasuje to łatwo do „tradycyjnego” środowiska Windows standardowych przeglądarek internetowych. Wreszcie, jeśli chodzi o komunikację z ziemią, czy to w celu przesyłania wiadomości, czy surfowania, musi to odbywać się w granicach usług łączności lotniczej. Nawet w przypadku lotów krótkodystansowych, gdzie ścieżka radiowa przebiega bezpośrednio między powietrzem a ziemią, prędkość może być raczej ograniczona; w przypadku połączeń długodystansowych komunikacja odbywa się często za pośrednictwem satelitów geostacjonarnych, które ze względu na swoją odległość od ziemi wprowadzają do sygnału znaczne opóźnienie między końcami. To, w połączeniu z możliwym zanikaniem i szumem, które wymagają powtarzania wiadomości, może poważnie zakłócić transmisje, zwłaszcza te oparte na standardowych protokołach, takich jak TCP/TP. Wszystkie te aspekty sprawiły, że systemy pokładowe przyjmują zastrzeżone architektury przeglądarki, transmisji i serwera.  Tak więc, chociaż są one ważnym źródłem przychodów dla eCommerce, projektowanie systemów sprzedaży lotniczej jest obszarem specjalistycznym

INNE URZĄDZENIA WIDEO

Szczególną cechą wyróżniającą instancje wideofonów jest to, że są one interaktywne w czasie rzeczywistym, to znaczy dwukierunkowe ruchome obrazy mniej więcej w momencie ich wystąpienia. Ta symetryczna praca o niskim opóźnieniu wymaga wiele od obecnych sieci. W przypadku wielu aplikacji nie jest to wymagane. Na przykład obrazy nie muszą się poruszać lub nie muszą być kodowane i dekodowane z minimalnym opóźnieniem. W takich przypadkach Internet już poradzi sobie z obrazami pobieranymi na komputery w postaci plików JPEG, gif itp., a także z ruchomymi obrazami RealVideo itp. Ostatnio na rynku pojawiły się urządzenia konsumenckie zaprojektowane specjalnie do obsługi obrazowania sieciowego. Aparaty cyfrowe są dostępne w różnych specyfikacjach wydajności i cenach. Aparaty z górnej części rynku są tylko o rząd wielkości mniej niż w przypadku obrazu fotograficznego, z rozdzielczością dziesiątek megapikseli („punktów obrazu”). Niektóre mają możliwość nagrywania kilkuminutowego ruchomego wideo. Mają oczywiste. Zagadnienia psychologiczne wideoterminali dla elektronicznego biznesu ułatwiające dostawcom przechwytywania i wyświetlania zdjęć produktów przeznaczonych do sprzedaży (agencje nieruchomości i sprzedaż samochodów używanych, w tym przypadku) oraz do zdalnej diagnozy szkód przez firmy naprawcze i rzeczoznawców ubezpieczeniowych. Ale otwierają również możliwości dla użytkowników krajowych, którzy mogą sprzedawać swoje towary na aukcjach internetowych lub dostarczać detalistom internetowym informacji, za które mogą oferować produkt. Na przykład własną sylwetkę i cechy można wysłać do sprzedawców mody, aby umożliwić im oferowanie ubrań, makijażu, fryzury itp.

TELEFONY WIDEO

Doświadczenia marketingowe z telefonami tekstowymi i klawiaturowymi są mniej lub bardziej podsumowane w przypadku wideofonów, przynajmniej w kontekście krajowym. AT&T przetestowało analogowe wideofony w latach 70.; nawet jeśli były one dostarczane bezpłatnie, odpowiedzi użytkowników były rozczarowujące, prawdopodobnie ze względu na jakość obrazu i być może dlatego, że było bardzo mało innych osób, do których można zadzwonić. Dziesięć lat później z laboratorium zaczęły wychodzić wideofony ISDN. Były one początkowo bardzo drogie i chociaż większość obwodów przetwarzania obrazu jest obecnie dostępna w układach scalonych na dużą skalę, ich integracja z samodzielnymi wideofonami nadal powoduje, że produkty kosztują kilkaset funtów. Zainstalowany rynek dla nich jest jak dotąd przeznaczony wyłącznie do użytku biznesowego (konferencje na komputerach stacjonarnych) i jest mało prawdopodobne, aby rynek krajowy był gotowy do startu. Nieco tańszą opcją jest karta graficzna do wbudowania w komputer osobisty, gdzie może wykorzystać powiązaną elektronikę, zasilacz i obudowę. Tania kamera jest zwykle montowana na górze komputera. Karty podobne do tych mogą być również instalowane w publicznych kioskach (patrz poniżej), gdzie mogą dostarczać interaktywne wideo między klientem a punktem sprzedaży lub punktem pomocy. Jak wspomnieliśmy, metodą transmisji, dla której zostały zaprojektowane, jest ISDN, wykorzystujący jeden kanał przy 64 kbit/s, dwa przy 128 kbit/s lub być może więcej kanałów do maksymalnie sześciu. Jakość obrazów przy 64/128 kbit/s jest raczej „odpowiednia” niż doskonała, znacznie gorsza niż biznesowe systemy konferencyjne, które zwykle działają z prędkością 2 Mbit/s. Wydajność jest nie tylko ograniczona, ponieważ brakuje jej rozdzielczości, ale także nie jest w stanie poradzić sobie ze znaczną ilością ruchu. Choć adekwatne do widoku głowy i ramion osoby, z którą odbywa się spotkanie biznesowe, ich specyfikacja może poważnie pogorszyć skuteczność sprzedaży multimediów. Rzeczywiście, nasza wiedza na temat psychologicznych skutków opóźnienia end-to-end i ustawienia kamery w przypadkach dotyczących transakcji emocjonalnych – na przykład sprzedaży online lub rozpatrywania reklamacji – jest poważnym brakiem. Kodeki stosowane w wideofonach wprowadzają zauważalne, ułamek sekundy, opóźnienie między końcami połączenia wideo. Połączenie tego efektu z kamerą umieszczoną w typowym miejscu nad monitorem powoduje, że wchodzisz w interakcję z osobą po drugiej stronie, która waha się przed odpowiedzią i nie patrzy Ci w oczy! Jednak obecnie wideotelefony ISDN oferują jedyny możliwy sposób na wprowadzenie interaktywnego wideo w czasie rzeczywistym do przeciętnego domu. Znacznie gorsza jest alternatywa korzystania z modemu komputerowego i protokołów internetowych. Indywidualna jakość obrazu jest słaba i nie jest możliwe dostarczenie strumienia obrazów z wystarczającą szybkością, aby sprawiać wrażenie ciągłego ruchu. Sytuacja ta może ulec zmianie wraz z wprowadzeniem usług wideo na żądanie, choć należy pamiętać, że priorytetem rynku jest dostarczanie szybkich usług tylko od serwera do klienta, a nie w drugą stronę. Jednak z punktu widzenia handlu elektronicznego może to nie być znacząca wada, ponieważ większość scenariuszy obejmuje wideo w tym kierunku, na przykład „szczery” agent pomocy technicznej lub podręcznik pomocy on-line z ruchomym wideo