prof. UW dr hab. inż. Włodzimierz Gogołek
Instytut Dziennikarstwa
Uniwersytetu Warszawskiego
Sieć niezmiennie postrzegana jest przede wszystkim jako narzędzie wspomagające komunikację. Jej udział widoczny jest na wszystkich poziomach wymiany informacji – od korespondencji elektronicznej między prywatnymi osobami do przekazywania strategicznych informacji decydujących o żywotnych funkcjach całego państwa. Doświadczyła tego boleśnie Estonia – kraj uznawany za pierwszy obiekt wojny prowadzonej w wirtualnym świecie. Atak dokonany w takim wymiarze spowodował paraliż krajowej cyfrowej infrastruktury Estonii, objął instytucje związane z kluczowymi funkcjami państwa: prezydentem, premierem, parlamentem, agencjami rządowymi, największymi bankami i mediami – głównie gazetami.
Na podobny atak była narażona Gruzja, w której usiłowano sparaliżować internetową infrastrukturę. Rangę tych zjawisk, poza widocznymi ograniczeniami funkcjonowania Sieci, potwierdza uruchamianie w niektórych państwach rządowych instytucji, które mają przeciwdziałać takim zagrożeniom. Ataki tego typu są także wykorzystywane do szantażu i w konfliktach politycznych, jak i innych destrukcyjnych sieciowych przedsięwzięciach.
Niebezpieczeństwa stwarzane przez Sieć w znacznej części określane są jako cybercrimes – zagrożenie bezpieczeństwa informacyjnego, które doświadczane jest jako problem ogólnospołeczny we wszystkich aspektach funkcjonowania Sieci. Niebezpieczeństwa, jakie stwarza wirtualny świat, to także pochodna szybkości wędrówki informacji w Sieci.
Dzięki Internetowi możliwy jest przepływ informacji (pozytywnych i złych) w czasie kilku sekund w skali całego globu. Rozpowszechnienie się wirusa na tysiącach komputerów od Ameryki – przez Europę – do Japonii trwa zaledwie minuty. Widoczne to już było kilka lat temu.
Podobnie jest z manipulowaną informacją – rozprzestrzenia się zbyt szybko, by móc na nią skutecznie zareagować. Idzie tu o dezinformację lub świadome wprowadzanie w błąd opinii publicznej – jako całości i w grupach szczególnych zainteresowań. Nie można założyć, iż z komunikacją sieciową wiążą się zawsze treści pozytywne lub neutralne. Przykładową reakcją na tę formę zagrożenia jest inicjatywa rządu Australii, który jako jeden z pierwszych proponuje wprowadzenie narodowego systemu cenzurowania Sieci. System ten ma wymuszać na dostarczycielach Internetu (ISP) blokowanie tysięcy stron zawierających kwestionowane lub nielegalne treści.
Niebezpieczeństwa wirtualnego świata w znacznej części wynikają z rosnącej autonomii maszyn. Ilustrują to m.in. systemy komputerowe, które powodują, iż tysiące komputerów domowych, również firmowych, stają się niewolnikami – zombie. Sieci zniewolonych komputerów, wraz z ich centrami zarządzania (także maszyny), tworzone są przez tzw. botnety, które rozsyłają i uaktywniają
na atakowanych komputerach cybernetyczne roboty.
Przenoszą one programy generujące spam, który na zaanektowanych komputerach nielegalnie wyszukuje informacje finansowe, dane osobowe, a także, poza dostarczaniem reklamy, instaluje kolejne, specjalistyczne programy szpiegujące.
Czas zainfekowania komputera wynosi średnio około pięciu minut. Rola ludzi w tym procederze jest znikoma, ogranicza się do inicjowania aktywności kilku botnetów, pozostałe funkcje wykonują samodzielnie maszyny. Szacuje się, iż 10% komputerów podłączonych do Internetu – czyli dziesiątki milionów maszyn – jest zainfekowanych przez botnety.
Na obszar bezpieczeństwa związanego z wymianą informacji składają się także zasoby informacyjne, których zawartość koliduje z lokalnymi politykami bezpieczeństwa. Są to m.in. pornografia, oszczerstwa/paszkwile (cyberbulling).
Dużym problemem jest też kradzież lub niszczenie sieciowych zasobów informacyjnych. Jaskrawym przykładem nadmiernego znaczenia, jakie jest przypisywane informacji przesyłanej przez Sieć, są reakcje młodych ludzi, także dzieci, prowadzące do samobójczych zachowań.
Nie mniejsze straty powodują, zbliżone do cyberbullingu, działania wykorzystujące masowość spamu i innych tego typu sposobów informowania do świadomego upowszechniania nieprawdziwych informacji. Wykorzystywane jest to w walce politycznej, także w komercji – np. w celu zmiany notowań giełdowych określonych firm. Efektem są milionowe nielegalne zyski korzystających z tego typu działań.
Web 2.0 i malware
Popularność Web 2.0, a w szczególności jej interaktywna natura – łatwość udostępniania różnych zasobów informacyjnych oraz rosnące kompetencje i doświadczenie użytkowników – stworzyły kolejne zagrożenie bezpieczeństwa Sieci. Ułatwiona komunikacja powoduje intensywniejszą wymianę programów o destrukcyjnej naturze. Przed etapem Web 2.0 praktycznie internauci wyłącznie oglądali zasoby sieciowe lub je ściągali na swoje komputery. Obecnie dzięki pełnej interaktywności mają znaczny wpływ na naturę i kształt zasobów Sieci.
Najpowszechniejszym zagrożeniem są destrukcyjne funkcje specyficznych programów komputerowych – tzw. malware, są to m.in. wirusy, robaki, konie trojańskie, spyware – wszelkie złośliwe programy mające na celu niszczenie, destabilizację lub inwigilację systemów komputerowych.
Wirusy są najczęściej spotykanym zagrożeniem bezpieczeństwa zasobów zgromadzonych w Sieci. Zazwyczaj przenoszone są przez Sieć (także przez bierne nośniki informacji cyfrowej, np. CD, DVD, flashe), a dynamika ich rozprzestrzeniania się w skali świata już w 2003 r. mierzona była w minutach. Dowodzi to ogromnej sprawności komunikacyjnej
Sieci oraz stwarza nadzwyczaj trudne wyzwania twórcom narzędzi służących do obrony przed tego typu tworami, które wędrują po łączach Internetu. Wirusy zazwyczaj rozpowszechniają się losowo. Bez względu na wartość, atrakcyjność zasobów informacyjnych komputera jest on narażony na ataki tych wirtualnych istot. Ich działanie jest przypadkowe – najczęściej niszczą dla samego niszczenia.
Robaki komputerowe są inną od wirusów formą malware, nie potrzebują interwencji człowieka, by się powielać – czynią to samoistnie. W zasadzie robaki nie niszczą danych w komputerze. Tworzone przez nie zagrożenie tkwi w szybkim rozmnażaniu się, w takim stopniu np., że blokują serwery internetowe, skutecznie zakłócając wymianę informacji w Sieci. Ze względu na tworzone przez wirusy i robaki zagrożenie, nie ma właściwie między nimi dużych różnic, także z tego powodu, że sporą część wirusów przenoszą robaki.
Kolejna powszechna forma malware – trojany (konie trojańskie), jak sama genealogia nazwy wskazuje, w sposób niezauważony dla użytkownika instalują się samodzielnie na dysku jego komputera i czekają. Często dostają się tam pod pozorem pełnienia pozytywnej/potrzebnej funkcji, np. kalendarza, wygaszacza ekranu, synchronizacji czasu, lub – jak wirusy – przez pocztę, inne nośniki cyfrowej informacji, głównie przez tzw. darmowe oprogramowanie (freeware) lub testowe wersje (shareware), które nieświadomi podstępu użytkownicy samodzielnie instalują na swoich komputerach. Niezauważalnie, po pewnym czasie od instalacji, trojany same się uruchamiają. Ich funkcje są praktycznie nieograniczone i zależą od pomysłowości ich autorów lub zleceniodawców. Są to na przykład: analizowanie informacji na inwigilowanym komputerze, ich gromadzenie i następnie przesyłanie (przez Internet) zleceniodawcy.
Spyware to forma trojana. Są to programy/wirusy, które w sposób ukryty gromadzą informacje o użytkowniku komputera i bez jego wiedzy komunikują się ze zleceniodawcą – zazwyczaj w celu wspomagania kampanii reklamowych online. Danymi tymi najczęściej bywają: informacje
o zasobach i treściach (poczta, dokumenty) zapisanych na dyskach, adresy mailowe zgromadzone w szpiegowanym komputerze, hasła i numery kart kredytowych. Spyware, podobnie jak trojany, zazwyczaj są instalowane w darmowych programach lub demonstracyjnych wersjach oprogramowania.
Odmianą spyware są adware – programy, których producenci informują zainteresowanych o przeznaczeniu tego narzędzia, udostępniają funkcję jego deinstalacji i zachęcają do instalacji, podając cele pozyskiwanych od użytkownika danych i zalety dołączonych funkcji tego typu programów. Polegają one głównie na zbieraniu informacji o internaucie i stosownym do ich interpretacji prezentowaniu reklam. Mimo jednoznacznego opisu tych funkcji użytkownicy najczęściej godzą się na nie, ignorując akceptowaną deklarację, którą wyświetla instalowany adware (lub nie czytając jej). Oszacowano, iż przeciętny komputer zawiera około trzydziestu monitorujących, nieznanych użytkownikowi, programów. Tworzenie i wykorzystywanie tego typu oprogramowania jest bardzo dochodowe.
Popularnym programowym narzędziem zaliczanym do kategorii niebezpiecznego oprogramowania są tak zwane cookies (ciasteczka). Podstawowym celem tego oprogramowania jest poprawienie procesu
komunikacji między internautą a stroną, z którą ów użytkownik współpracuje. Dzięki cookies następuje zwiększenie intuicyjności strony, która ma dostęp do informacji o internaucie, gromadzonych w „ciasteczkach”. Oprogramowanie obsługujące cookies tworzy specjalne komunikaty w postaci małych zbiorów opisujące konkretnego użytkownika Sieci. Następnie są one zapisywane w komputerze internauty. Operacja ta jest wykonywana autonomicznie przez maszynę, w czasie gdy użytkownik jest połączony z określoną stroną w Internecie. Serwer obsługujący ową stronę komunikuje się z komputerem internauty i umieszcza w nim zbiór – „ciasteczko”. Gdy po jakimś czasie użytkownik ponownie połączy się z tą samą stroną, „ciasteczko” powiadamia ten serwer, że internauta jest bywalcem strony, nadano mu określony numer-identyfikator i opisują go określone informacje.
Cookies praktycznie są niedostrzegalne dla internauty, są one zapisywane i pozostawiają ślady jego poczynań na określonej stronie, np. informacje dotyczące tego, co i ile razy oglądał w Sieci.
Intencją twórców cookies było i jest ułatwienie komunikacji internauty z Siecią, sprawienie, by strony były bardziej usłużne, komunikatywne. Wybór w kwestii akceptacji instalacji „ciasteczek” pozostawiono internautom. Warto jednak pamiętać, że duża część stron, zwłaszcza usługowych, np. banków internetowych, wymaga zgody na instalację cookies na komputerze klienta-internauty. Wydaje się, że stwarzanie atmosfery ekstremalnego zagrożenia ze strony cookies nie jest w pełni uzasadnione. Podobną, niezauważalną sytuację mają klienci sklepów płacący imiennymi kartami płatniczymi i korzystający z kart lojalnościowych. Cookies, poza negatywnymi elementami (gromadzenie informacji o klientach), mają też zalety – pozwalają na większą przyjazność Sieci, ułatwiając komunikację z zaufanymi stronami, a także np. eliminując powtarzające się reklamy i spolegliwie personalizując oglądane strony.
Kolejną formą zagrożeń, które stwarza Sieć, jest phishing. Stanowi on przykład dialogu pomiędzy użytkownikiem i Siecią. Celem owego dialogu jest wprowadzenie w błąd użytkownika. Sieć przyjmuje funkcję nieuczciwego rozmówcy. Phishing jest wykorzystywany do wyłudzania poufnych danych.
W pierwszym kroku medium komunikacyjnym tego wyłudzania jest najczęściej poczta elektroniczna. Zazwyczaj użytkownik otrzymuje alarmujący e-mail o konieczności potwierdzenia numeru konta,
haseł i identyfikatorów od korzystającego z tego narzędzia przestępcy. Wprowadzona w błąd ofiara, dzięki odpowiednim zabiegom socjotechnicznym, przekazuje przestępcy rzeczywiste, poufne informacje.
Najczęściej procedura ta polega na przestępczym, niezauważalnym dla użytkownika, wymuszeniu połączenia się internauty z fałszywą stroną np. banku i przekazywaniu jej wyłudzanych informacji. Podobną, groźną formą nieuczciwego pozyskiwania informacji o użytkowniku jest podsłuchiwanie informacji przekazywanych do komputera. Służą temu tak zwane keyloggery – programy zapamiętujące kolejno wszystkie klawisze, które są naciskane na klawiaturze komputera internauty. Zgromadzone w ten sposób informacje (wcześniej wpisywane przez użytkownika na klawiaturze) przesyłane są następnie do inicjatora tej formy podsłuchu. Poza zasygnalizowanymi już zagrożeniami ze strony malware, Internet dzięki potencjałowi interakcji, komunikowania się z użytkownikami, stwarza wiele innych rodzajów kłopotów w tym zakresie. Jednym z nich jest informowanie użytkownika (e-mailem) o fikcyjnym zagrożeniu. Są to tzw. hoaxy (dowcipy, kawały). Idea hoaxa polega na wprowadzeniu w błąd adresata odpowiednio spreparowanym mailem, w którym jest zamieszczona rada, aby niezwłocznie wykasować określony plik w systemie operacyjnym komputera. Jako argument podaje się, iż np. ów plik jest groźnym wirusem, który lada chwila się uruchomi. W rzeczywistości celem jest usunięcie pliku niezbędnego do prawidłowego funkcjonowania komputera. W efekcie prowadzi to do destabilizacji pracy systemu komputera internauty, który zaufał treści spreparowanego maila.
Zważywszy na trudną do przecenienia wartość informacji przechowywanej w Sieci i stanowiącej przedmiot komunikacji, należy stwierdzić, że świadomie stwarzane zagrożenia dla tych informacji będą istniały zawsze. Obserwuje się ich ewolucję i rosnący zakres aktywności. Ilustracją tego są niedawno rozpoznane (2008 r.) zagrożenia DNS-ów (specjalistycznych serwerów będących rodzajem automatycznej książki telefonicznej, która zmienia nazwę wybieranej przez internautę strony na jej numeryczny odpowiednik). Zagrożenie to, nazwane pharmingiem, polega na sekretnym przekierowywaniu przesyłanych w Sieci informacji. W wyniku tego przestępcy, symulując docelową stronę wybraną przez internautę – np. stronę banku internetowego, przechwytują informacje przesyłane do rzeczywistego banku i odczytują tajne hasła użytkowników lub modyfikują treść operacji finansowych wykonywanych przez nieświadomego tego klienta. Innymi słowy, polega to na tym, że użytkownik, łącząc się ze stroną określonego banku, może zostać przekierowany do kopii docelowej strony, którą dysponuje haker. W efekcie (oczekiwanym przez hakera) niczego nieświadomy użytkownik przekazuje hakerskiej kopii wszystkie informacje, tak jak gdyby był połączony z zaufaną, docelową stroną swojego banku internetowego.
Analizując problem bezpieczeństwa sieciowego, należy wyróżnić istotną dla tej dziedziny postać, jaką jest haker. Ataki dokonywane przez hakerów są oceniane jako jedne z najgroźniejszych nie tylko
z powodu widocznych szkód, jakich dokonują, lecz także z powodu trudnych do wykrycia zabiegów, które miały na celu nielegalne pozyskanie informacji z komputera podłączonego do Sieci. W tym procederze hakerzy, o różnych zasadach etyki, są uzbrojeni w specjalne, w znacznej części powszechnie dostępne narzędzia programowe. Z łatwością mogą destabilizować funkcjonowanie niemal każdego komputera i każdej sieci podłączonej do Internetu. Coraz częściej trudnienie się tym zajęciem jest szkołą i przepustką do otrzymania intratnej posady – w firmie, która chce sprawić kłopoty swoim konkurentom, lub w instytucji (często państwowej), gdzie hakerzy stają na straży bezpieczeństwa, występując przeciw swoim kolegom będącym po drugiej stronie barykady.
Obrona bezpieczeństwa Sieci
Konstruując strategię obrony przed zagrożeniami wynikającymi z przepływu informacji w Sieci, należy uzbroić się w niezbędny arsenał ochronny. Tworzą go programy: antywirusy, firewalle, antyspyware i antyspam. Te narzędzia programowe działają samodzielnie lub łącznie w tak zwanych pakietach bezpieczeństwa. Stanowią ilustrację komunikacji autonomicznej, gdzie nadawcą i odbiorcą zdecydowanej części ruchu informacyjnego są maszyny. W wymianie i kontroli informacji, w zdecydowanej części, nie biorą udziału ludzie.
Cała inicjatywa w tym zakresie została przekazana maszynom – łącznie z operacjami samodoskonalenia się (w pewnym zakresie) np. programów antywirusowych (metody heurystyczne) czy pobierania i instalowania nowych wersji programów i ich składowych (np. definicji/ sygnatur wirusów).
Programy antywirusowe są wyposażane w funkcje wykrywania nowych zdarzeń i związków pomiędzy nimi, by następnie samodzielnie dostosować procedurę reakcji na nową sytuację – np. walkę z nowym wirusem.
Firewalle i proxy – to najczęściej występujące, poza antywirusami, terminy w kontekście bezpieczeństwa wymiany informacji w Sieci. W uproszczeniu: firewall (ściana ogniowa, zapora ogniowa) jest zazwyczaj wydzielonym komputerem ze specjalistycznym oprogramowaniem (w zastosowaniach domowych jest to program), który nadzoruje ruch informacyjny ze świata zewnętrznego do lokalnej sieci (LAN-u) lub do pojedynczego komputera, a proxy to oprogramowanie m.in. kontrolujące ruch informacyjny z lokalnej sieci do świata zewnętrznego.
W rzeczywistości firewalle często pełnią także funkcje kontroli ruchu z sieci na zewnątrz. Narzędzia te są aktywnymi ogniwami łańcucha zabezpieczeń przed zagrożeniami sieciowymi i stanowią ważny fragment autonomii pozostawianej maszynom.
Bezpieczeństwo korespondencji
Mając na uwadze wcześniej zasygnalizowane zagrożenia, które mają bezpośredni związek z bezpieczeństwem komunikacji sieciowej, najczęściej wyróżnia się następujące wymagania mające na celu troskę o bezpieczeństwo operowania informacjami w Sieci:
–– integralność danych: gwarancja niezmienności informacji przesyłanej od nadawcy do adresata;
–– poufność danych: właściwość zapewniająca, że dane nie są czytelne dla nieupoważnionych użytkowników;
–– autentyczność: pewność, że informacje otrzymane z Sieci są od nadawcy, który się pod nimi podpisuje.
Szyfrowanie
W trosce o poufność informacji przesyłanej w Sieci, a także gromadzonej na nośnikach informacji, stosuje się szyfrowanie. Podstawowa zasada tej obszernej dziedziny wiedzy mówi o tym, iż wyróżniona grupa osób powinna móc zachować prywatność swojej korespondencji dzięki wykorzystaniu sekretnej metody. Oryginalna informacja za pomocą oprogramowania dedykowanego jest przekształcana w ten sposób, iż otrzymany szyfrogram nie jest możliwy do odczytania przez nikogo, kto nie zna sposobu odszyfrowania tak przekształconej informacji. Adresat, który zna ów sposób (unikalny klucz), bez trudu może wykonać operację odwrotną – odszyfrowanie otrzymanej informacji.
Zazwyczaj z szyfrowaniem treści korespondencji elektronicznej wiąże się podpis elektroniczny. W rzeczywistości podpis elektroniczny ma niewiele wspólnego z szyfrowaniem. Oba pojęcia: podpis i szyfrowanie oznaczają zupełnie inne operacje. Odnoszą się jednak do tego samego przedmiotu – do dokumentu elektronicznego, np. przesyłanego między komputerami. Istotą owych operacji jest takie zabezpieczenie korespondencji elektronicznej, by podczas transmisji nie uległa ona zamierzonej lub przypadkowej modyfikacji (integralność), by osoby trzecie nie mogły jej odczytać (poufność) i by adresat miał pewność, iż podpisany nadawca jest faktycznie autorem korespondencji (autentyczność). O integralności i autentyczności korespondencji świadczy podpis elektroniczny, poufność natomiast zapewnia szyfrowanie lub inaczej kryptografia. Zatem mimo odrębności obu pojęć – są one ściśle ze sobą związane.
Bywa, iż siła szyfrowania dokumentów jest zgubna dla użytkowników tej technologii zabezpieczania dokumentów. Najczęściej zagrożenie to tkwi w ryzyku zagubienia lub zniszczenia klucza. Jego brak praktycznie uniemożliwia odczytanie zaszyfrowanego dokumentu. Ostatnio nie mniej poważne jest niebezpieczeństwo stwarzane przez hakerów, którzy po włamaniu się do komputera ofiary nie niszczą, a szyfrują zapisane tam zbiory. Ich właściciel jest następnie szantażowany np. koniecznością wypłacenia określonej kwoty hakerowi dysponującemu kluczem do zaszyfrowanych zbiorów. Podobny charakter ma zjawisko złośliwego szyfrowania zasobów przez zwalnianych pracowników. Zawiłości procesu zapewnienia bezpiecznej transmisji informacji między dwoma komputerami za pośrednictwem Internetu rozwiązał w znacznej części tzw. protokół SSL – Secure Sockets Layer Protocol. Korzystanie z tego narzędzia praktycznie nie wymaga od użytkownika wykonywania żadnych manualnych czynności.
Analizując sposoby bezpiecznej wymiany informacji w Sieci, warto zwrócić uwagę na steganografię. Termin ten literalnie oznacza ukryte pismo i polega na specyficznej metodzie ukrywania treści w plikach multimedialnych. Ukrycie polega na wpisaniu treści dowolnej korespondencji w obrazy/fotografie lub pliki zawierające muzykę, tak aby ta treść była niedostrzegalna dla oka ludzkiego. Internet stanowi doskonałe medium do przesyłania informacji w tej właśnie formie, a dotychczas nie znaleziono skutecznego sposobu odczytania, bez odpowiednich uprawnień, tak ukrytej informacji.
Identyfikacja
Zważywszy na istotę zdalnej komunikacji sieciowej – brak bezpośredniego kontaktu podmiotów uczestniczących w procesie komunikacji – nadzwyczaj ważne jest wzajemne identyfikowanie owych podmiotów. Idzie tu o autentyczność: identyfikację osoby/maszyny korzystającej z Sieci lub potwierdzenie autentyczności osoby/maszyny, z którą jest nawiązywany kontakt sieciowy. W tym kontekście utarło się powiedzenie, że nikt nie może być pewny, iż po drugiej stronie Internetu nie siedzi pies. Próbą zmiany tego stanu rzeczy jest stosowanie różnych metod uwierzytelniania (działań, których celem jest weryfikacja deklarowanej tożsamości podmiotu).
Dzielone są one na trzy grupy:
– coś, co masz (klucz do drzwi, karta magnetyczna);
– coś, co wiesz (hasła);
– coś, czym się charakteryzujesz (odciski linii papilarnych).
Zazwyczaj potwierdzeniem tożsamości podczas odwiedzania wyróżnionych (zastrzeżonych hasłem) stron w Internecie jest podanie identyfikatora (ciągu znaków jednoznacznie identyfikujących osobę upoważnioną do korzystania z określonych usług w Sieci lub systemie informatycznym) i hasła. Jest ono ciągiem znaków literowych, cyfrowych lub innych, znanym tylko osobie korzystającej z Sieci lub pracującej w systemie informatycznym. Ta forma kontroli pamięta czasy starożytnego Rzymu i w zasadzie po setkach lat wcale się nie zmienia. Poza tym, że charakteryzuje się niewątpliwą prostotą, niesie ze sobą duże ryzyko niepewności co do wiarygodności identyfikacji przeprowadzonej tą metodą i zastępowana jest bezpieczniejszymi metodami identyfikacji w Sieci (np. biometryka).
Skuteczną próbą zwiększenia wiarygodności identyfikacji jest token – urządzenie podobne do małego kalkulatora. Generuje on, automatycznie co kilkadziesiąt sekund lub na żądanie, unikalne hasło (tzw. hasło jednorazowe – widoczne na niewielkim ekranie tokena). W efekcie nawet podsłuchanie hasła nie jest groźne – może ono być wykorzystane tylko jeden raz.
Inną, najbardziej sformalizowaną, formą potwierdzania autentyczności jest wykorzystywanie tak zwanych certyfikatów. Ich istota polega na wiarygodnym potwierdzaniu narzędzi, które są wykorzystywane w procesie wymiany informacji. Innymi słowy – certyfikat potwierdza ważność klucza lub programu.
Najbardziej zaawansowaną technologicznie formą identyfikacji jest biometryka. Idzie tu o narzędzia, które identyfikują użytkownika na podstawie opisu cech fizycznych, np. brzmienia głosu, kształtu twarzy, linii papilarnych, tęczówki oka. Istotną cechą tego sposobu identyfikacji jest nie tylko wysoka skuteczność, lecz także duże ułatwienie samego procesu. Osoba identyfikowana praktycznie nie musi pamiętać żadnych haseł ani nosić ze sobą identyfikatorów, by zostać jednoznacznie zidentyfikowaną. Ponadto tego typu identyfikacja wielokrotnie zmniejsza możliwości podszywania się pod osobę w ten właśnie sposób rozpoznawaną. Także i ten sposób identyfikacji ma negatywne funkcje. Podstawową jest utrata prywatności. Biometryka wyklucza anonimowość w każdej sytuacji.
W najbliższym czasie należy oczekiwać wzrostu ryzyka związanego z atakami na środowiska internetowe. Dotyczy to zwłaszcza użytkowników korzystających z technologii bezprzewodowych (komputerów przenośnych oraz innych mobilnych urządzeń) – poza siecią korporacyjną – i szerokopasmowego dostępu do Sieci.
Wnioski
Poszukując sposobów i narzędzi obrony przed zagrożeniami, jakie powoduje wymiana informacji za pośrednictwem Sieci, warto zauważyć, iż technologia rozwiąże 60% problemów, edukacja 20% – pozostałym może zaradzić tylko dobre prawo.
Mimo starań światowych legislatur brak jest jednoznacznych ram prawnych, którym zostałaby przyporządkowana Sieć. Jedną z pierwszych regulacji uwzględniających elektroniczną formę dystrybucji informacji jest Konwencja Berneńska z 1986 r., której artykuły dotyczące ochrony praw autorskich odnoszą się do utworów zapisanych w postaci cyfrowej. Problematyka ta wydaje się zasadniczą kwestią w zakresie prawnych uregulowań związanych z Internetem.
Współcześnie podstawowymi regulacjami dotyczącymi ochrony praw autorów w Sieci są wspomniana Konwencja oraz porozumienie TRIPS, WIPO Copyright Treaty oraz dyrektywy Unii Europejskiej. Ważnym aktem jest Konwencja Rady Europy (2001), która określa zasady współpracy międzynarodowej w dziedzinie ścigania przestępstw popełnianych z wykorzystaniem technologii przetwarzania informacji. Dokument ten uważany jest za jeden z ważniejszych instrumentówmiędzynarodowego prawa karnego ery społeczeństwa informacyjnego. Poza konsekwentnym rozwojem prawa, narzędzi zwiększających bezpieczeństwo teleinformatyczne, które nie gwarantują jednak pełnego bezpieczeństwa, dużą efektywnością charakteryzują się przedsięwzięcia natury organizacyjnej. Chodzi tu przede wszystkim o decydującą rolę edukacji w systemie bezpieczeństwa teleinformatycznego, a także o opracowywanie i wdrażanie w firmach stosownych regulacji (np. polityki bezpieczeństwa) oraz o ubezpieczenia od konsekwencji ataków na systemy teleinformatyczne.