Wczesne koncepcje Internetu i ich urzeczywistnienie w teraźniejszości

Internet to metamedium, które wciąż zmienia świat i daje możliwość poznania ludzkich granic twórczych i kognitywnych. Jego początki sięgają znacznie dalej niż rewolucyjne osiągnięcie ARPANet-u. Idea globalnej sieci wymiany informacji zrodziła się, w sposób niezamierzony, po zakończeniu II wojny światowej. Według Vannevara Busha działania wojenne przyspieszały powstawanie technologii, które niejako przedłużały działania ludzkich zmysłów. Wojna stała się zatem okresem odejścia od akademickich dysput i rozpoczęcia prac nad maszynami, mającymi zapewnić zwycięstwo[1].

W artykule zostaną poddane analizie dwie wczesne koncepcje, które utorowały drogę współczesnemu Internetowi – wspomnianego na wstępie Vannevara Busha oraz Josepha C. R. Licklidera. Zostały one opracowane w poł. XX w., zatem na długo przed pojawieniem się i upowszechnieniem sieci www. Praca ma charakter eseju naukowego, w którym poszukiwać będziemy odpowiedzi na pytanie, jaki wpływ te wczesne koncepcje wywarły na współczesny rozwój Internetu.

 1. Koncepcja Vannevara Busha

Już w 1945 roku powstawały refleksje naukowe dotyczące przyszłości nauki, która ma służyć człowiekowi, a nie go unicestwiać. Vannevar Bush ukazał w swojej pracy istotny problem ówczesnego świata: jak pokolenia mają przekazywać sobie wiedzę, skoro każdy musi poszukiwać jej i zaczynać jej gromadzenie od nowa? W jaki sposób znajdować dostęp do wiedzy, która istnieje na świecie, ale nie ma skutecznego środka komunikacyjnego? V. Bush zauważa powstały wtedy chaos naukowy, który uniemożliwia dostęp do cennych informacji. Wypracowanie odpowiedniego narzędzia, wprowadzającego ład, jest możliwe wyłącznie w przypadku sprzyjających okoliczności, między innymi dobrych warunków ekonomicznych[2]. Z podobnych względów odkrycia naukowe nie mogły poczynić takiego progresu w starożytności, gdzie dostęp do informacji zarezerwowany był wyłącznie dla elit arystokratycznych, które nie zawsze w pełni z niego korzystały. Wiele późniejszych odkryć natrafiało na przeszkody natury choćby światopoglądowej, jak wyniki obserwacji nieba poczynionej przez Mikołaja Kopernika.

V. Bush podkreślał, że pierwszym założeniem powinna być przydatność takiego systemu gromadzenia danych. Cecha przydatności okazuje się głównym motorem do wykorzystania tego medium w większym stopniu niż dla przykładu radio. Kolejnym założeniem Vannevara Busha był stały rozwój technologii. W tym zakresie Internet spełnia bardzo ważne zadanie. Poszerzanie granic sieci globalnej wynika z wciąż rozwijanych możliwości oraz zastosowań w codziennym życiu człowieka. Internet staje się dziś pośrednikiem dla czynności, które kiedyś wymagały wyłącznie interakcji personalnej, jak choćby zamówienie wizyty u dentysty. Jednak, aby Internet spełniał rolę przekaziciela wiedzy i informacji, to jego dane muszą być zapisywalne. Technologia zapisu danych cyfrowych stale się zmienia. Lata 80. i 90. XX w. były okresem, w którym królowały dyski magnetyczne. Przełom lat 90. i pierwszego dziesięciolecia XXI wieku to początek stabilnych rządów nośników optycznych (CD, DVD, Blu-Ray). Obok tych metod zapisu wciąż utrzymują się dyski HDD[3]. Dziś jednak, biorąc pod uwagę proces degradacyjny nośników optycznych, proponuje się przechowywanie danych na dyskach przenośnych z pamięcią typu Flash (potocznie: pendrive) oraz na nowej propozycji rynku technologicznego: dyskach SSD, które w języku polskim określane są mianem dysków/nośników półprzewodnikowych (SSD – Solid State Drive)[4]. Dzięki swoim zaletom, m.in. dużej odporność na uszkodzenia mechaniczne, małemu poborowi mocy, szybkości dostępu do danych i niewielkiej wadze, mogą one z łatwością zastąpić dyski oparte na technologii magnetycznej (np.: HDD). Wspomniane cechy w przyszłości radykalnie wpłyną na dalszy rozwój Internetu oraz proces dzielenia się informacjami.

Vannevar Bush podkreśla także znaczenie procesu miniaturyzacji jako czynnika usprawniania przepływu wiedzy. W swoim przykładzie[5] przywołuje pomysł utrwalania tego źródła wiedzy na mikrofilmach, jako trwałych i tanich w transporcie repozytoriach wiedzy. Występuje tutaj pewna analogia do współczesnego Internetu, który łączy ludzi między sobą. Im mniejsze jest urządzenie do łączenia się, tym sieć staje się bardziej mobilna, a co za tym idzie – bardziej powszechna. To z kolei budzi na rynku podaż usług internetowych, tworząc miejsce na kolejne odkrycia techniki, ułatwiające wymianę danych.

Wskazówką do pewnego rodzaju usprawnienia komunikacji w przestrzeni Internetu jest stworzenie uniwersalnego języka, który wyraziłby podstawowe zwroty. Przejawem takiego procesu unifikacji porozumiewania się jest zjawisko akronimów internetowych, np.: FAQ – frequently asked questions – często zadawane pytania; IC – i see – rozumiem, L8R – later – później[6].

Stosując model interpretacyjny świata V. Busha w stosunku do Internetu, można otrzymać specyficzną przyczynę, z powodu której idea takiej sieci jest potrzebna. Punktem wyjścia jest tutaj matematyka jako wiedza, która ma wpływ na wiele nauk ścisłych. Ona też pozwala, aby ludzie dążyli do maksymalnego skracania czasu potrzebnego na procesy obliczeniowe i w ten sposób kalkulatory przekształciły się w komputery osobiste o bardziej zaawansowanych podzespołach. Internet w tym kluczu wydaje się dalszym krokiem w korelacji nauk, gdyż jest niejako łącznikiem wielu dziedzin i ułatwia przedstawianie różnych tez, pomysłów i idei.

Analogią dla Internetu jako źródła wiedzy ze zgromadzonych materiałów jest urządzenie nazwane przez V. Busha Memex (Memory Extender). Autor zaproponował indeksowanie zgromadzonych w sprzęcie materiałów i ich analizę w kluczu wyszukiwania danych.

1. Schemat Memexa[7] wraz z panelami zarządzającymi wprowadzaniem i odczytem danych[8]

Jest to podstawowy schemat komputera analogowego, zaprojektowanego przez Vannevera Busha. Schemat ukazuje możliwości technologiczne urządzenia, którego celem byłoby: zbieranie, katalogowanie i edycja informacji. W artykule „As we may think” autor podaje konkretne zastosowania tej konstrukcji, którą możemy nazwać dziś bazą danych. Chociaż nigdy nie zrealizowano projektu V. Busha, to stał się on początkiem dyskusji nad gromadzeniem i udostępnianiem wiedzy i doświadczeń człowieka[9]. Zastosowanie tego pomysłu w obecnych czasach znalazło swój początek w Internecie. Taki mechanizm można zaobserwować we współczesnych asystentach głosowych urządzeń mobilnych, np.: Cortana (Microsoft), czy Siri (Apple). Dzięki sieci programy te, za pomocą komend głosowych użytkownika, wyszukują informacje, które w danej chwili są potrzebne. Firma Microsoft badała również możliwości zastosowania pomysłu tworzenia bardziej zaawansowanych baz danych, mogących zarządzać i udostępniać materiały multimedialne, przy zachowaniu trzech podstawowych założeń V. Busha: możliwości dodawania adnotacji do materiałów, dokonywania indeksowania danych i możliwości swobodnego wyszukiwania informacji[10]. Projekt został nazwany MyLifeBits[11]. W umysłach twórców MyLifeBits odrodziła się koncepcja znacznie starsza niż założenia Memexa. Rozpoczęto gromadzenie materiałów (np.: filmowych), w których można przedstawić nawet każdą chwilę życia człowieka[12]. Jeżeli doszłoby do przeniesienia tego typu danych do sieci globalnej, to można by mówić o nowej funkcji Internetu jako repozytorium ludzkiej pamięci i doświadczeń wynikających z trybu życia,  a więc zachowań, codziennych relacji, twórczości i działalności. W pewnym sensie taką funkcję pełnią już dzisiaj takie portale społecznościowe jak Facebook czy Nasza Klasa. Internet został zatem połączony ze starożytną tradycją, która mówiła, że człowiek żyje tak długo, jak długo się o nim pamięta, widzi jego dzieła.

Przedstawiona analiza ukazała to, od jak dawna idea Internetu – jako sieci gromadzenia danych – rozwijała się w świadomości ludzi. Rok 1945 był okresem stawiania pytań: co dalej z człowiekiem? Co z nauką, która zabijała w czasie wojny? Dlaczego nauka w ogóle miała wydźwięk antyludzki?[13] Na fundamencie tych pytań Vannevar Bush przedstawił projekt Memexa. Urządzenia, które przekazuje naukę wielu pokoleniom w sposób przystępny. Internet jest nosicielem informacji, ale u swoich początków uchodził za broń przeciwko ludziom. Tymczasem idea sieci to nie broń przeciwko człowiekowi, ale szansa na jego rozwój.

2. Koncepcja Josepha C. R. Licklidera

W kolejnych latach teoria V. Busha, o systemie magazynowania i zarządzania wiedzą była poddawana analizie. Przykładem takiego rozwinięcia założeń o dostępie do informacji są prace Josepha C. R. Licklidera. Licklider rozwijał koncepcję V. Busha, wzbogacając ją o teorię sieci, która łączyłaby wszystkie komputery ze sobą z maksymalnie uproszczonym interfejsem. Innym założeniem proponowanym przez Licklidera było rozwijanie technologii komputerowych. Sposobność do sprawdzenia tych teorii zyskał w roku 1950, kiedy został zatrudniony w MIT. Jego zadaniem była praca nad projektem SAGE, który dotyczył stworzenia komputerowego systemu obrony USA w okresie ziemnej wojny[14]. Założeniem podstawowym takiego komputera była praca w czasie rzeczywistym, bez przerw w dostępie do wiedzy, duża szybkość dokonywanych przez urządzenie kalkulacji, a także odejście od korzystania z kart dziurkowanych, które były powszechnie stosowane na początku historii komputerów aż do lat 80. XX wieku[15].

Realizacja idei V. Busha o stworzeniu wydajnych komputerów w codziennej pracy i gromadzeniu wiedzy, wymagała uporządkowania założeń, którego Licklider dokonał w 1960 roku. Wtedy też przedstawił swoje tezy w publikacji pt.: „Man – Computer Symbiosis”[16]. W tej pozycji autor ukazuje koncepcję koegzystencji maszyn i ludzi. Nakreśla założenie symbiozy w codziennym użytkowaniu komputerów. Stawia tezę, że w przyszłości korzystanie z komputerów będzie oparte na ścisłych relacjach ludzkiego mózgu i maszyn[17]. Należy jednak zauważyć, że w latach 60. XX wieku nikt oficjalnie nie dokonał sprzężenia ludzkiego mózgu z pamięcią komputera. Mimo to, w procesach zachodzących między maszynami a ludźmi, nastąpił szeroko pojęty rozwój. Komputery poszerzyły zdolności ludzkiego umysłu. Pozwoliły komunikować się na odległość, pomagają ludziom cierpiącym na różnego typu zaburzenia, np.: dyslektykom, dysgrafikom. Szeroki wachlarz oprogramowania służy zarówno w procesie zarządzania codziennym życiem, jak i wolnym czasem, rozrywką. W konsekwencji dochodzi do traktowania Internetu, jak i samego komputera, jako remedium na samotność i przygnębienie. Urządzenia z mikroprocesorami otrzymały od ludzi również nowe spojrzenie na świat, realizowane przez badania nad sztuczną inteligencją[18]. Licklider zdaje się wykluczać symbiozę opartą na poszerzaniu ludzkich zdolności przy pomocy maszyn[19]. Oznaczałoby to zmianę myślenia, odejście od traktowania maszyn i komputerów jako remedium na fizyczną słabość człowieka. Proponuje, aby komputery nie były tylko pomocą w codziennym życiu osoby. Dla autora symbiozą nie jest również podejście przeciwne, a więc upodobnienie maszyn do ludzi[20], bo przyjęcie go mogłoby stanowić poważne niebezpieczeństwo. Z tym podejściem spotykają się często współcześni użytkownicy komputerów. Jeżeli programista tworzy daną aplikację, to można spodziewać się, że popełni wiele pomyłek przy jej konstruowaniu. W efekcie program komputerowy, stworzony do konkretnych celów, będzie zawierał błędy jako element ludzki. Takie rozumienie nie prowadzi do stwierdzenia o symbiozie, ponieważ jeden z symbiontów przekazuje negatywną cechę. Przejawem obopólnej korzyści będzie zatem wspominana, sztuczna inteligencja. Taka aplikacja komputerowa, działająca również w środowisku internetowym, która wraz z procesem samoprogramowania (samorozwoju) będzie w stanie porzucić błędy programistyczne swoich twórców i skierować się ku nowym ścieżkom rozwoju własnego i ludzkiego. Przyjęcie takiego podejścia jest zgodne z myślą Licklidera, który założył w swojej pracy, że okres sztucznej inteligencji będzie najbardziej kreatywnym i obiecującym okresem w historii ludzkości[21].

Przedstawiona teoria Licklidera o AI jest głośno dyskutowana w dobie rozwoju technologicznego. Wielu filozofów, fizyków i specjalistów komputerowych proponuje pozostawienie człowieka, jako podmiotu decydującego w procesach życia osoby lub taka przemiana człowieka, która sprawi, że będzie on posiadał zdolności podobne do maszyn[22]. Istnieje powszechna obawa, że AI będzie posiadała i nasze zdolności, i nasze wady. Jeżeli pójdzie tylko drogą logiki, wtedy może poważnie zagrozić istnieniu rodzaju ludzkiego. Wystarczy założyć, że najlogiczniejszym stwierdzeniem wpisanym w zachowanie danego programu będzie teza podstawowa: „maszyna musi troszczyć się o człowieka”, a przecież ludziom zdarzają się nielogiczne zachowania i decyzje.

Należy również rozważyć to, skąd program, którego cechą główną jest AI, miałby otrzymywać informacje o ludziach i świecie. Odpowiedź jest oczywista – z Internetu, światowej sieci wymiany myśli, kultury i wiedzy. Jest to przecież obecnie powszechna forma wymiany danych. Ta globalna sieć zawiera nie tylko informacje o sztuce, nauce czy ludzkich obyczajach. Jest również źródłem destruktywnej wiedzy[23]. Znaleźć tam można również oprogramowanie do neutralizowania zabezpieczeń nowoczesnych samochodów[24], czy choćby instrukcje mówiące o tym, jak wytwarzać narkotyki.

Licklider starał się ukazać nowy świat, przestrzeń symbiozy maszyn i ludzi, w której komputer będzie uczestniczył nie tylko w procesie szukania odpowiedzi na zadane pytania. Chodziło również o aktywną kooperację w samym procesie stawiania tez badawczych. Innym celem było także stworzenie komputerów działających w czasie rzeczywistym, tzn. wytworzenie takiej jednostki centralnej, która potrafiłaby wchodzić w interakcje z człowiekiem, bez całego procesu tworzenia oprogramowania i kompilacji, w celu uzyskania konkretnych wyników[25]. Komputer sam musiałby tworzyć swoje oprogramowanie w czasie stawiania tez badawczych i kontaktu z człowiekiem. Jest to wyzwanie dla ludzkiej kreatywności, jak również etyki życia osoby.

W innej pracy, zrealizowanej w czasie badań z Robertem Taylorem, Licklider przedstawia koncepcje dotyczące komputerów jako urządzeń komunikacyjnych[26]. Analizy te wskazują na podstawowe założenia dotyczące porozumiewania się przez komputer, biorąc pod uwagę dokonania technologiczne z lat 60. ubiegłego wieku. Ukazuje koncepcję korzystania z komputera jako narzędzia do zdobywania informacji, jak również jednoczesnego przetwarzania tych danych w procesie komunikacji z innymi[27]. Za podstawę swoich badań autorzy przyjęli model dzielenia się  materiałami w procesie komunikowania w czasie rzeczywistym. Taki proces jest dziś odzwierciedlony poprzez Internet, który masowo pozwala użytkownikom na wymianę plików, komunikację indywidualną i grupową niemalże natychmiast[28]. Jak zostało to podkreślone, naczelnym atutem wymiany „myśli” poprzez komputery jest ich własne tempo przyswajania informacji w czasie pracy. Nowoczesne systemy komunikacyjne powstałe dzięki Internetowi, przyczyniły się do zmian w pojmowaniu interpersonalności kontaktów między osobami. W pewnym sensie pozwalają na indywidualność osoby w procesie tworzenia i pracy w grupie. Łatwiej jest zgromadzić ludzi włączonych w projekt badawczy poprzez Internet, niż organizować spotkania w świecie rzeczywistym. Dodatkowym atutem jest tu również fakt, że taka praca nie przynosi dodatkowych nieporozumień wynikających z osobowości uczestników[29].

 3. Aktualizacja koncepcji Busha i Licklidera w teraźniejszości

Analizując wczesne koncepcje Internetu Busha i Licklidera – ze zrozumiałych względów autorzy nie znali jeszcze tego pojęcia – możemy wskazać na kilka idei technologicznych, które obecnie przyjmujemy za powszechne. Są to m.in.: idea węzłowej struktury Internetu, Internetu jako wspólnoty społecznej oraz wskazywanie na edukację i naukę jako podstawowe obszary zastosowania Internetu.

3.1. Węzłowa struktura Internetu

Cyberprzestrzeń to remedium do dzielenia się plikami. Dała ona możliwość odejścia od nośników informacji i przesyłania danych na dowolną odległość. Obecnie, wraz ze wzrostem standardów przepustowości Internetu, można zaobserwować poszerzenie oferty wymiany plików i informacji połączonych z siecią, zwanych chmurami[30]. Zadaniem takiego rozwiązania jest przesyłanie na konkretnie przypisany serwer plików z komputera po to, aby były one dostępne poprzez Internet w dowolnym miejscu, gdzie tylko jest do niego dostęp.

Pogląd Licklidera i Taylora dotyczący sieci, jako przestrzeni wymiany informacji, przedstawiony został jako węzeł[31] (rys. 2).

Przedstawiony wyżej węzeł (rys. 2) jest w rzeczywistości schematem komputera z możliwością jednoczesnej dostępności dla wielu użytkowników. Wyposażony on jest w różne typy pamięci, procesor i konsole. Całością procesów zarządzają programy sterujące[32]. Oprócz tych elementów posiada także oprogramowanie, które odbiera polecenia od użytkownika, pomaga w tworzeniu danych, przetwarza i udostępnia pliki oraz interface graficzny dla ułatwienia obsługi. Port spełnia rolę kanału komunikacyjnego między poszczególnymi węzłami oraz pomaga w wymianie danych. Naczelną opcją takich urządzeń jest w tym przypadku program do zarządzania procesami komunikacji i wymiany wiadomości (message processor). Umożliwia on porozumiewanie się komputerów w przestrzeni węzłów (rys. 3). Podstawową jednostką przesyłania danych jest w tym przypadku bit.

Kolejne założenie to funkcja procesora komunikacyjnego, polegająca na przekazywaniu danych dalej. Węzeł może stawać się pośrednikiem przy wymianie informacji między innymi węzłami (rys. 4). Prowadzi to z kolei do naruszenia prywatności danych w konkretnych węzłach. Po umożliwieniu komunikacji między komputerami w sieci, pierwsze urządzenia tego typu mogły bez przeszkód wchodzić do systemów połączonych z nimi, a więc odczytywać dane tam zmagazynowane. Dlatego narodziła się potrzeba stworzenia programów (protokołów), które określałyby konkretne parametry dostępu do zasobów zgromadzonych na komputerze. Zorganizowano je w formie uprawnień, które określają do dziś to, kto w sieci może oglądać konkretne dane oraz to, kto może je zapisywać, a kto uruchamiać.

Wspomniane wyżej właściwości umożliwiają wymianę komunikatów między różnymi węzłami podłączonymi w konkretnej sieci komunikacyjnej. Aby jednak takie połączenia były wydajne, musi istnieć możliwość wymiany niezależnych danych w różnych formach jednocześnie (rys. 5)[33].

3.2. Internet jako wspólnota społeczna

Takie ukształtowanie wizji sieci z 1968 roku pozwoliło autorom na stworzenie refleksji dotyczącej społeczeństwa[34], które w przyszłości narodzi się z użytkowania różnych węzłów. Cechą główną dla społeczności internetowej będzie, według twórców, zbiór ludzi pochodzących z różnych części świata. Będą gromadzili się w małe grupy, bądź też dołączali do wspólnoty Internetu indywidualnie. Przekształceniu ulegnie czynnik gromadzący ludzi. Wspólnoty przestaną gromadzić się w konkretnych miejscach. Będą tworzyły grupy pod względem zainteresowań i potrzeb, a technologia rozwinie się do tego stopnia, że dzięki kablom telefonicznym będzie możliwe udostępnienie Internetu wszystkim zainteresowanym. Sieć będzie ułatwić codzienne zadania w pracy, np.: pisanie na maszynie. Dzięki temu medium nie będzie potrzebne przemieszczanie się na duże odległości. Wystarczy, że dwie osoby usiądą przy swoich konsolach, aby rozpocząć rozmowę. Możliwe będzie również stworzenie projektu OLIVER[35], którego celem będzie zaprogramowanie takiego zbioru poleceń, które ułatwią codzienne życie i wyręczą człowieka w wielu zadaniach. Założenia przedstawione przez naukowców zostały osiągnięte. Można zauważyć, że technologia rozwinęła się bardziej, niż zakładali to prekursorzy. Projekt OLIVER, mimo że sam nie zaistniał w rzeczywistości, to jego założenia spełniają inne elementy dzisiejszej technologii, np.: asystenci głosowi (Cortana, Siri). Samodzielność programową można odnaleźć również we współczesnych systemach portalowych. Po wcześniejszym określaniu parametrów oprogramowanie to instaluje aktualizacje do stron, publikuje i kasuje informacje. Przykładem takiego programu jest Cron w systemie blogowym WordPress.

Wizja autorów przedstawia teraźniejszość jako świat, w którym wszystko jest doskonałe dzięki Internetowi. Wiele z tych przewidywań spełniło się we współczesności. Ludzie posługują się siecią, aby się komunikować. Listy zostają powoli wyparte na rzecz e-maili. Znikają również podziały dotyczące przywileju dostępu do sieci, która staje się powszechna. Powstały również różnego typu narzędzia ułatwiające interakcje z wieloma instytucjami – jest możliwość rozliczania podatku, a nawet prowadzenia firmy. Autorzy założyli, że świat będzie szczęśliwszy z Internetem, którego dostępność zmieni postrzeganie rzeczywistości.

Należy wspomnieć, że w Polsce, w okresie rozwoju technologii komunikacyjnych (2011-2015), obserwuje się wyraźny wzrost dostępu do komputera i samego Internetu w gospodarstwie domowym, co przedstawiają wyniki badań statystycznych.

To zestawienie pokazuje utrwalony trend w regularności korzystania z komputera przez ludzi w przedziale wiekowym 16 – 44. Największy wzrost można natomiast zaobserwować w grupie osób w wieku 65 – 74 lata. W stosunku do 2011 roku różnica wynosi aż 9,3%. Oznacza to, że starsze pokolenia powoli poddają się procesowi przekształcania społeczności w społeczeństwo informacyjne, wykorzystujące nowoczesne technologie.

W tym zestawieniu widać stosunkowo stały trend wzrostowy rodzin zamieszkujących gospodarstwa domowe, które posiadają dostęp do Internetu. Warto zauważyć, że w stosunku do roku 2011 gospodarstwa bez dzieci były bardziej zmobilizowane do przyłączania się do węzła informacyjnego.

Ważnym elementem w dostępie do sieci jest również szybkość przepływu informacji. Mowa tu o dostępie do Internetu poprzez łącze szerokopasmowe. Można zaobserwować proces stagnacji w dostępie do tej usługi w latach 2013 – 2015. Przypuszczalnie dzieje się tak, ponieważ ponad 60% społeczeństwa przyłącza się na zasadzie szerokiego pasma w ramach telewizji kablowej. Dlatego nieopłacalne może być prowadzenie przedsiębiorstwa, które świadczyć będzie tylko usługi providerskie. Zastanawiające jest również to, że pomimo technologii mobilnego dostępu w wielu urządzeniach, aż 24,2% społeczeństwa nie posiada w ogóle dostępu do Internetu. Takie podejście może powodować problemy nawet w kwestii poszukiwania zatrudnienia, które dzisiaj odbywa się przede wszystkim za pośrednictwem sieci.

Przewidywano, że sieć uwolni ludzkość od bezrobocia, a dom stanie się miejscem pracy wykonywanej przy jej użyciu. Takie założenie się nie sprawdziło. Głównej przyczyny tego stanu należy szukać w mentalności człowieka. Osoba potrzebuje innych ludzi, aby egzystować w środowisku. Potrzebny jest kontakt rzeczywisty, którego nie zastąpi wideokonferencja. Aby Internet stał się remedium na bezrobocie, należałoby uświadomić wszystkim to, jakie sieć ma możliwości, jakie funkcje pełni – potrzebne jest kreatywne zrozumienie przestrzeni wirtualnej.

 3.3. Edukacyjna funkcja Internetu

Twórcy ukazali także koncepcję, która swoje zastosowanie odnalazła w procesie edukacyjnym, w którym sieć odgrywa kluczową rolę, czyli w e-learningu. Ta forma edukowania i poszukiwania informacji zmieniła powszechne podejście do nauki. Dzięki nauczaniu na odległość, przez Internet, ludzie mają szansę na kształcenie. Taka metoda zdobywania wiedzy usuwa w dużym stopniu zjawisko marginalizowania grup społecznych. Stan finansowy nie jest już w tym momencie czynnikiem wykluczającym, a liczne projekty europejskie, organizowane przez samorządy terytorialne, umożliwiają rozwój dzieciom z ubogich rodzin. E-learning, dzięki Internetowi, zmniejsza koszty związane z zakupem  podręczników i dodatkowych materiałów dydaktycznych. Sieć w tej kwestii przyczyniła się również do uelastycznienia czasu nauki. Współczesny użytkownik Internetu może sam dokonywać wyboru pory, kiedy chce uczestniczyć w zajęciach. Sam określa też tempo w jakim jest w stanie przyswoić przedstawiony materiał.

Powszechny staje się również m-learning (mobile e-learning), a więc edukacja oparta na technologiach mobilnych, np.: tabletach, smartphonach. Obecnie serwisy, takie jak YouTube, pozwalają na pełne korzystanie z umieszczanych tam filmów również na urządzeniach mobilnych.

Takie rozwiązanie jest szczególnie korzystne dla pracodawców podnoszących kwalifikacje swoich pracowników. Przedsiębiorstwa przeprowadzające kursy e-learningowe lub m-learningowe oszczędzają czas, fundusze na dodatkowe zajęcia i materiały. W przypadku firm korzystających z tradycyjnych dróg szkolenia, należy się liczyć z potrzebą choćby zwolnienia pracownika na czas uczestnictwa w kursie. Na tym polu często dochodzi do nadużyć. Nakazuje się wykonywanie obowiązków osobom zatrudnionym bezpośrednio po kursie. Takie postępowanie doprowadza do spadku efektywności ich pracy i oceny wystawianej pracodawcy przez pracowników, a w konsekwencji do obniżenia globalnej jakości ekonomicznej firmy.

Efektywność kursów przez Internet to również stała możliwość sprawdzania osiągnięć ucznia czy osób pracujących w danym przedsiębiorstwie. Rodzice mogą monitorować stopień przyswojenia wiedzy dziecka. W razie potrzeby są w stanie udzielić pomocy już w chwili powstawiania problemu. Zmniejsza to poziom frustracji u młodych ludzi, jaka pojawia się w przypadku konieczności zaliczenia całego materiału, którego nie przyswojono z powodu braków w edukacji. Uczeń może dostosować cały kurs do własnego tempa pracy i przyswajania wiedzy. E-learning to również gwarancja dla rodziców i nauczycieli, że dziecko uczestniczy w procesie edukacyjnym. Dużym udogodnieniem jest to, że szkoła, podobnie jak przedsiębiorstwo, nie korzysta w czasie kursu z dodatkowej przestrzeni. Platformy e-learningowe pozwalają na synchroniczny i asynchroniczny proces edukacji[36].

Zaletą płynącą z kształcenia przez Internet jest także łatwość w zmianach i aktualizacji wybranego kursu. E-learning ma wiele ułatwień dla przygotowującego taką formę edukacji. Twórca kursu może zachować własne tempo pracy przy tworzeniu programu i realizacji celów podstawowych, wynikających z założeń ogólnych nauczanej dziedziny. Wykłady przeprowadzane w toku asynchronicznym są w większym stopniu wolne od błędów, czy np.: zmęczenia prowadzącego.

W obszarze nauczania Internet nie jest jednak absolutnym remedium na problemy współczesnego szkolnictwa i chociaż aktywnie wpływa na postrzeganie edukacji, to niesie też pewne niedogodności. Pierwszym mankamentem jest nadal duży koszt przygotowania kursu[37]. Należy również wziąć pod uwagę czas, który poświęca się na dopracowanie materiałów, wymagających użycia środków multimedialnych. Obok płatnych metod przygotowania kursu, istnieją również programy zbudowane na licencji typu Open Source[38]. a więc takie, których kod jest powszechnie dostępny dla deweloperów, a autorzy takiego programu udzielają licencji na jego modyfikację. Często jednak minusem takiego oprogramowania jest wyższy poziom trudności w obsłudze, w stosunku do komercyjnych odpowiedników[39]. Trudnością w realizacji przedsięwzięcia edukacyjnego, opartego na darmowym oprogramowaniu, są również specyficzne wymogi minimalne dla środowiska takiej strony, aby działała bezbłędnie[40]. Owe potrzeby sprawiają, że w Internecie nie ma wielu dostawców systemów e-learningowych.

3.4. Internet jako platforma naukowa

Zanim jednak nastąpił czas komercjalizacji sieci, rozwoju narzędzi edukacyjnych i powszechnego dostępu do tego medium, to pierwsze projekty dotyczące społecznych aspektów można odnaleźć w 1962 roku. Wtedy Joseph C. R. Licklider przedstawił swoje przemyślenia dotyczące sieci o globalnym zasięgu[41], dającej możliwość porozumiewania się i wymiany informacji na nieograniczone odległości[42]. Pierwszą ideą tworzenia takiego połączenia było dzielenie się wiedzą i możliwościami obliczeniowymi między ośrodkami naukowymi[43]. Było to możliwe dzięki rozwijaniu nowej technologii wymiany danych, prowadzonej równocześnie w ośrodkach naukowych przez Leonarda Kleinrocka, Donald Davis oraz Paula Barana, zwanej transmisją pakietową[44]. Technologia ta polegała na kumulacji dowolnych danych i przesyłaniu ich w paczkach o określonej wielkości.

Proces ewolucji i kształtowania tej metody komunikacji był możliwy dzięki Advanced Research Project Agency – ARPA[45], powołanej do istnienia w 1958 roku przez Departament Obrony USA. Powstanie tej agencji było odpowiedzią na wyścig technologiczny, trwający między Stanami Zjednoczonymi a Związkiem Radzieckim. Data powstania ARPA zbiegała się z wystrzeleniem przez ZSRR w przestrzeń kosmiczną sztucznego satelity Sputnika[46]. Rozwój tego projektu przez jednostki obronne stał w sprzeczności z założeniem V. Busha, a potem Licklidera, Kleinrocka czy Taylora, aby była to przestrzeń, w której może istnieć swobodna wymiana informacji między jednostkami badawczymi na świecie oraz ułatwienie codziennego życia dla zwyczajnych użytkowników komputerów. Przyszły Internet miał zatem mieć u swych podstaw naukę i stały dostęp do informacji, a nie wspomaganie działań szpiegowskich w czasie zimnej wojny czy innych operacji o militarnym charakterze.

Badania prowadzone przez Licklidera i jego następców[47] w IPTO[48] zaowocowały stworzeniem ARPANet. Była to „sieć umożliwiająca zdalny dostęp do komputera i dzielenie się jego mocą obliczeniową przez różne centra komputerowe i grupy badawcze pracujące na potrzeby ARPA”[49].

Warto zauważyć, że prace nad różnymi aspektami wymiany informacji trwały w wielu jednostkach badawczych jednocześnie, np.: MIT (1961 – 1967), RAND (1962 – 1965) oraz NPL (1964 – 1967)[50]. Skutkowało to powstaniem wielu konkurencyjnych odmian sieci, opartych na różnych rozwiązaniach komunikacyjnych. Dzięki temu wyścigowi w rozwijaniu technologii sieciowej, powstała jedna zunifikowana sieć, która rozpowszechniała się w USA oraz Europie.

Pierwszy udokumentowany transfer wiadomości między komputerami zlokalizowanymi w dużej odległości (w ramach ARPANet) miał miejsce 29 października 1969 roku[51] pod kierownictwem Leonarda Kleinrocka. Biorąc pod uwagę, że Internet to sieć oparta na wymianie informacji między komputerami, to w tym właśnie wydarzeniu należy dopatrywać się pierwszego zaistnienia sieci, z której powstał dzisiejszy Internet. Jest to jednocześnie moment, w którym przesłano po raz pierwszy informację w takiej architekturze komunikacyjnej.

Powyżej przedstawiono zdjęcie rejestru informującego o zdarzeniu połączenia komputerów w sieci. Pierwsza transmisja nie powiodła się do końca, ponieważ udało się przesłać tylko dwie pierwsze litery ze słowa „login”, używanego do identyfikacji osoby po drugiej stronie. Kolejna próba przeprowadzona o 22:30 czasu lokalnego zakończyła się sukcesem[52]. Tak więc pierwszymi w pełni przesłanymi przez sieć znakami było „lo”. Wkrótce potem wysłano pierwsze słowo „login”.

Po udanym przesyle zaczęto wdrażać projekt ARPANet do innych placówek naukowych w USA. W roku 1968 został rozpisany konkurs na wykonanie urządzenia do uniwersalnej komunikacji między komputerami z różnymi systemami obsługi. Firmą, która wygrał przetarg był BBN[53]. To przedsiębiorstwo zrzeszało studentów MIT oraz Harvardu, którzy opracowywali nowe rozwiązania komunikacyjne dla sieci[54] (wcześniej pracował w niej również Licklider). Dzięki działalności naukowców zaangażowanych w pracę na rzecz tej firmy stworzono IMP wraz z oprogramowaniem.

ARPA nie zatrzymała swoich działań wyłącznie na ARPANecie. Na szkielecie tej sieci tworzono inne, takie jak PRNet czy Satnet. Istniały zatem różne protokoły wymiany informacji, co wywoływało zamieszanie w porozumiewaniu się między komputerami. Dlatego w 1973 roku próbowano opracować uniwersalny protokół komunikacyjny, który umożliwiałby połączenie. Wkład w prace nad nowym protokołem mieli Robert Khan (ARPA) i Vint Cerf (Stanford University). Przy współpracy Vinta Cerfa, Gerarda Lelanna (francuski instytut badawczy Cyklady) oraz Roberta Metcalfe’a (Xerox) powstał projekt TCP[55]. „W 1978 Cerf, Postel i Crocker wydzielili z TCP drugi człon – protokół wewnątrzsieciowy (IP), tworząc protokół TCP/IP, który do dziś jest standardem w Internecie”[56]. W 1985 Departament Obrony Stanów Zjednoczonych postanowił wydzielić militarną przestrzeń od ARPANetu. Dzięki temu powstał Milnet (sieć służąca do celów wojskowych), a sam ARPANet przeszedł w ręce nauki[57]. Już w 1984 roku za sieć, którą dzisiaj nazywamy Internetem odpowiadała National Science Foundation. Jej zadaniem było rozpropagowanie sieci. W 1990 roku ostatecznie wyłączono ARPANet jako sieć eksperymentalną i przekazano jej efekty do komercjalnego wykorzystania[58].

Współczesny Internet jest najczęściej rozpoznawany przez usługę sieciową WWW (World Wide Web), stworzoną w 1989 roku przez Tima Bernersa-Lee. Założeniem było udostępnienie łatwego sposobu dotarcia do informacji dla przeciętnego użytkownika sieci, osiągane przez dostęp do danych w trybie „tylko do odczytu” na stronie WWW. Berners-Lee stworzył program, zwany przeglądarką oraz podwaliny języka, który buduje strony – HTML[59]. To unowocześnienie pozwoliło na graficzne przedstawianie danych w Internecie oraz urzeczywistniło projekt V. Busha – dało początek erze hiperłączy. Możliwe stało się tworzenie leksykonów i encyklopedii, których wirtualna zawartość jest częścią innych haseł.

 4. Podsumowanie

Artykuł jest próbą konfrontacji wybranych koncepcji sieci wymiany informacji z dzisiejszą formą przekazu danych, jaką jest Internet. Koncepcja V. Busha, która zakładała, że należy dążyć do maksymalnego usprawnienia procesów poznawczych i przyspieszenia zdobywania wiedzy, znalazła swoje wypełnienie w globalnej przestrzeni informacji. Również projekt „elektronicznej encyklopedii” – Memex, znalazł swoje wypełnienie w sieci powiązanych ze sobą komputerów. Internet stał się niewątpliwie współczesnym Memexem. Nie bez znaczenia jest tu stały proces miniaturyzacji technologii. V. Bush wskazywał, że taki proces będzie dźwignią, która przyspieszy rozwój maszyn, ułatwiając ludziom dostęp do informacji.

W obecnych czasach człowiek ponownie potrzebuje poczucia bezpieczeństwa. Ciągłe procesy przemian społecznych i rozluźnienie spojrzenia na autorytety czynią świat rzeczywistością niepewną. W tym punkcie odnaleźć można analogię do społeczeństw powojennych, które również czuły niepokój o swoją przyszłość. Bush proponował odrzucenie w takim przypadku wszelkich form dominacji militarnej i rozwijania technologii pomagających zrozumieć prawa natury. To wiedza powinna być gwarantem bezpieczeństwa, a sieć ma być nośnikiem informacji, która będzie ochroną. Jest to niewątpliwie nadal wyzwaniem współczesności, która pozwala by wiedza, podobnie jak w przeszłości, była narzędziem machiny zniszczenia.

Na współczesny Internet należy również spojrzeć z perspektywy platformy edukacyjnej, która zgodnie z zamysłem Busha i Licklidera staje się niezwykłą przestrzenią współpracy dla dobra nauki. Założenia pionierów sieci opierały się na chęci do dzielenia się swoimi odkryciami. Współczesność dąży raczej do komercjalizacji wiedzy w Internecie. Wbrew oczekiwaniom sieć zamienia się w potężne konsorcjum, które uzależnia i oddziaływuje.

Omawiana wcześniej idea „globalnej encyklopedii” z wiedzą dostępną dla wszystkich została intensywnie rozwijana. W tej perspektywie również J. Licklider przyczynił się do progresu poprzez propozycję stworzenia węzłów komunikacyjnych między komputerami. Wizjoner proponował nawet stworzenie płaszczyzny porozumienia między maszynami i ludźmi. Ukazanie perspektywy symbiozy komputerów i ludzi również dzisiaj wywołuje niepokój. Mimo to człowiek decyduje się podążać w stronę rozwiązań opartych na sztucznej inteligencji. Szczególnym wyrazem akceptacji takiego stanu rzeczy jest opieranie swoich codziennych działań i planów na oprogramowaniu, które pilnuje punktualności, powiadamia o wydarzeniach, wyjaśnia pojęcia, pokaże prognozę pogody, a ostatnio zmierzy nawet parametry życiowe. W tym miejscu trzeba zauważyć, że taki rozwój nie byłby możliwy bez sieci zorganizowanej w węzły, ponieważ algorytmy wielu programów opartych na działaniach sztucznej inteligencji przechowuje część swojego kodu w Internecie. Ma to miejsce w przypadku asystentów głosowych. Programy te wiedzą o ludziach coraz więcej, wchodzą z nimi w nietypową relację.

Internet staje się autonomiczny. Jak zostało to przedstawione w pracy, ludzie stworzyli oprogramowanie, które ma maksymalnie ułatwić użytkownikom korzystanie z serwisów internetowych, czy dostosowywania choćby preferencji reklamowych na podstawie plików tworzonych na komputerach w czasie odwiedzin danej witryny internetowej.

Przeprowadzone analizy wykazały, że wizjonerzy opierali swoje analizy na urządzeniach elektronicznych. Początki XXI wieku ukazują inną perspektywę. Skupia się ona wokół wirtualizacji przestrzeni rzeczywistej. Ludzie niechętnie rozwijają technologie maszyn, które miałyby ułatwić egzystencję. Czas Internetu w teraźniejszości to okres software’u. Oprogramowaniu wydaje się stanowić nową jakość, a najbliższe dziesięciolecie pokaże jak wpłynie to na ludzi.

Przedstawienie wybranych koncepcji rozwoju sieci wraz z obecnym stanem, pozwoliło ukazać ewolucję nie tylko technologii, ale także sfery ekonomicznej i społecznej człowieka. Internet jest narzędziem i wyzwaniem – człowiek musi wziąć odpowiedzialność za to na ile ten wynalazek wejdzie w jego sferę życia.

[1] zob. Bush V., As we may think, The Atlantic, 01.07.1945, dostęp: http://www.theatlantic.com/magazine/archive/1945/07/as-we-may-think/303881/?single_page=true 20.02.2017 (tłumaczenie własne).

[2] por. Bush V., As we may think, The Atlantic, 01.07.1945, dostęp: http://www.theatlantic.com/magazine/archive/1945/07/as-we-may-think/303881/?single_page=true 20.02.2017 (tłumaczenie własne).

[3] HDD – Hard Drive Disk – dysk magnetyczny przeznaczony do przechowywania dużych ilości danych. Wolniejszy w odczycie i zapisie do dysków typu SSD.

[4] Stiller T., Pojedynek: dysk SSD vs dysk twardy, http://www.benchmark.pl/testy_i_recenzje/Pojedynek_dysk_SSD_vs_dysk_twardy-2695.html dostęp: 02.02.2017.

[5] por., Bush V., As we may think, The Atlantic, 01.07.1945, dostęp: http://www.theatlantic.com/magazine/archive/1945/07/as-we-may-think/303881/?single_page=true 20.02.2011, nr., 2.

[6] zob. Chmura R., Internetowe akronimy i emotikony, http://www.opoka.org.pl/varia/internet/emotikony.html dostęp: 10.01.2017.

[7] Źródło grafiki: http://s3.amazonaws.com/files.posterous.com/temp-2011-04-10/vHAHvvrvenhtwIzjJteqcsxzudyIDvhpqkseGGCiHlIdFHCguuHcbqymtuEA/desktop_-_1_-_memex_desktop.jpg.scaled1000.jpg?AWSAccessKeyId=AKIAJFZAE65UYRT34AOQ&Expires=1363666284&Signature=xXOqmivGojMpWBC8NGe192u%2BOM4%3D dostęp: 10.03.2017

[8] Źródło grafiki: http://s3.amazonaws.com/files.posterous.com/temp-2011-04-10/CdaFwpkbAziCiEpyEaAujwFqBuHuyiCmFlahsodGzhbjiehiDmpsrzjaqxGv/desktop_-_2_-_memex_screens.jpg.scaled1000.jpg?AWSAccessKeyId=AKIAJFZAE65UYRT34AOQ&Expires=1363667151&Signature=nCJIOmP%2Fy3jUyJeS7QOmx3Zq5r4%3D dostęp: 10.03.2017

[9] zob. Austin T., Doust R., Projektowanie dla nowych mediów, PWN, Warszawa 2008, s. 28 – 29.

[10] por. tamże, nr. 2 – 5.

[11] zob. http://research.microsoft.com/en-us/projects/mylifebits/ dostęp: 12.01.2017

[12] zob. Gaudin S., Total Recall: Storing every life memory in a surrogate brain, http://www.computerworld.com/s/article/9074439/Total_Recall_Storing_every_life_memory_in_a_surrogate_brain dostęp: 16.12.2016.

[13] zob. Bush V., As we may think, The Atlantic, 01.07.1945, dostęp: http://www.theatlantic.com/magazine/archive/1945/07/as-we-may-think/303881/?single_page=true 20.02.2017, nr., 1 (tłumaczenie własne).

[14] zob. Internet Pioneers. J. C. R. Licklider, http://www.ibiblio.org/pioneers/licklider.html 10.03.2017

[15] tamże.

[16] Licklider J. C. R., Man-Computer Symbiosis, http://memex.org/licklider.pdf 9.03.2017

[17] por. Licklider J. C. R., Man-Computer Symbiosis, w: „In Memoriam: J. C. R. Licklider”, http://sloan.stanford.edu/mousesite/Secondary/Licklider.pdf, s. 1 dostęp 10.03.2017.

[18] Obecnie na świecie istnieje kilka ośrodków badawczych zajmujących się zagadnieniami AI, np.: MIT Computer Science and Artificial Intelligence Laboratory, www. csail.mit.edu czy Association for the Advancement of Artificial Intelligence, www.aaai.org, w Polsce można przywołać np. projekt Denise MYTH, który powstał w ramach pracy magisterskiej na Politechnice Gdańskiej, wrzesień 2003; zob. http://denisemyth.com/download/Dedykowany-system-przetwarzania-j%C4%99zyka-naturalnego-i-rozwi%C4%85zywania-problem%C3%B3w-Denise-5.pdf dostęp: 02.06.2016.

[19] por. „Mechanically extended man”, Licklider J. C. R., Man-Computer Symbiosis, w: „In Memoriam: J. C. R. Licklider”, http://sloan.stanford.edu/mousesite/Secondary/Licklider.pdf, s. 2, dostęp 10.03.2017.

[20] por. „Humanly extended machines”, tamże.

[21] por. tamże.

[22] por. McAuliffe W., Stephen Hawking: Humans will fall behind AI, http://www.zdnet.com/news/stephen-hawking-humans-will-fall-behind-ai/116616 dostęp: 20.05.2016.

[23] Przykładem takiej wiedzy, zagrażającej ludziom w Internecie, jest szeroko omawiana sprawa zamachów w Bostonie 15 kwietnia 2013 roku. Kiedy to jeden z zamachowców przyznał, że podstawowe projekty bomb znalazł w wielu miejscach w sieci. Zob. Boston Suspect Month Before Attack: i Know How to Build a Bomb, http://abcnews.go.com/Blotter/happen-boston-bombing-suspects-body/story?id=19077198#.UYK2PMpFrhA dostęp 02.05.2016.

[24] Takie przypadki można spotkać na wielu forach specjalizujących się w mechanice samochodowej, jak również ogólnoelektronicznej, np.: www.elektroda.pl

[25] por. Licklider J. C. R., Man-Computer Symbiosis, w: „In Memoriam: J. C. R. Licklider”, http://sloan.stanford.edu/mousesite/Secondary/Licklider.pdf, s. 3 – 4, dostęp 10.03.2017 [tłumaczenie własne].

[26] zob. Licklider J. C. R., Taylor R. W., The Computer as a Communication Device, w: „In Memoriam: J. C. R. Licklider”, tamże, s. 21 – 46 dostęp 10.03.2017.

[27] por. tamże, s. 21 – 23.

[28] zob. tamże, s. 25 – 26.

[29] zob. tamże, s. 32 [tłumaczenie własne].

[30] Przykładem takich usług jest np.: SkyDrive, DropBox.

[31] W czasach współczesnych nadal spotyka się to określenie, jako oznaczenie jednostki odbierającej i wysyłającej dane w Internecie.

[32] Dziś nazywane „systemem operacyjnym”.

[33] por. Licklider J. C. R., Taylor R. W., The Computer as a Communication Device, w: „In Memoriam: J. C. R. Licklider”, http://sloan.stanford.edu/mousesite/Secondary/Licklider.pdf, s. 32 – 33 dostęp 10.03.2017 [tłumaczenie własne].

[34] por. tamże s. 37 – 40.

[35] OLIVER (on-line interactive vicarious expediter and responder) – zaproponowane przez Licklidera oraz Taylora urządzenie, oparte o AI, które miało wyręczyć człowieka w wielu zadaniach. Nazwa została stworzona przez autorów na cześć Olivera Selfridge’a, który w latach 50 aktywnie pracował nad zagadnieniem sieci neuronowych i wzorca rozpoznawania. Zob. tamże, s. 38 oraz Spark A., Oliver Selfridge. Computer scientist paving the way for artificial intelligence, w: The Guardian, 17 grudnia 2008, http://www.guardian.co.uk/technology/2008/dec/17/oliver-selfridge-obituary, dostęp: 27.10.2016.

[36] por. Zieliński Z., E-learning w edukacji, Gliwice 2012, s. 5 – 15.

[37] por. badania pokazują jaki jest przeciętny koszt i czas, potrzebne na stworzenie profesjonalnego kursu e-learningowego: http://www.chapmanalliance.com/howlong/ oraz http://www.chapmanalliance.com/blendedlearningstudy/ (dostęp: 20.04.2017).

[38] zob. ogólne zasady licencjonowania typu Open Source http://opensource.org/osd dostęp: 03.04.2017.

[39] Przykładem takiego zjawiska jest GIMP (www.gimp.org), program open source do obróbki grafiki rastrowej, jego komercyjnym odpowiednikiem jest Adobe Photoshop (www.adobe.com).

[40] Przykładem jest system open source Moodle – darmowy serwis e-learningowy (www.moodle.org), który wymagał specyficznych ustawień serwera.

[41] Licklider nazwał ten projekt „The Galactic Network”. Potocznie uważa się, że jest to pierwsza nazwa Internetu.

[42] zob. Leiner B. (red.), Brief history of the Internet, http://www.internetsociety.org/sites/default/files/Brief_History_of_the_Internet.pdf dostęp: 23.11.2015. por. Clark E. W., Licklider J., On-line man-computer communication, http://ebookbrowse.com/on-line-man-computer-communication-pdf-d404871134, dostęp: 23.11.2016

[43] por. Castells M., Galaktyka Internetu. Refleksje nad Internetem, biznesem i społeczeństwem, Poznań 2003, s. 20

[44] por. Spicer D. (red.), Internet History, http://www.computerhistory.org/internet_history/index.html (dostęp: 20.03.2017).

[45] tamże.

[46] 4 października 1958, źródło: http://www.nasa.gov/multimedia/imagegallery/image_feature_924.html (dostęp: 16.04.2017).

[47] W ARPA nad badaniem sieci wymiany komunikacji pracowali: Licklider, Sutherland, Taylor oraz Robert. Zob. Spicer D. (red.), Internet History, http://www.computerhistory.org/internet_history/
(dostęp: 24.07.2016)

[48] IPTO – Information Processing Techniques Office – jedna z jednostek badawczych ARPA, zob. Castells M., Galaktyka Internetu, Poznań 2003, s. 20.

[49] Castells M., dz. cyt., s. 20.

[50] Leiner B. (red.), Brief history of the Internet, http://www.internetsociety.org/sites/default/files/Brief_History_of_the_Internet.pdf dostęp: 23.11.2016.

MIT – Massachusetts Institute of Technology, RAND – Research and Development, zob. Campbell V., How RAND invented the postwar world, http://www.rand.org/content/dam/rand/www/external/about/history/Rand.IT.Summer04.pdf
[dostęp: 25.11.2016], NPL – National Physical Laboratory, zob. Kirstein P., Early experiences with the ArpaNET and Internet in the UK, http://nrg.cs.ucl.ac.uk/mjh/kirstein-arpanet.pdf [dostęp: 27.05.2016].

[51] Zob. The First Internet Message, http://elishapollock.blogspot.com/2010/01/first-internet-message.html Kleinrock L., The Day the Infant Internet Uttered its First Words, UCLA Engineering, http://www.cs.ucla.edu/about/history/the-day-the-infant-internet-uttered-its-first-words Than K., Internet Turns 40 Today: First Message Crashed System, National Geographic News, http://news.nationalgeographic.com/news/2009/10/091029-internet-40th-anniversary.html Kessler M., First Internet message sent 40 years ago today, USA Today, http://content.usatoday.com/communities/technologylive/post/2009/10/620000700/1#.UdE-9JxcuHh [dostęp: 01.07.2016].
Udane połączenie nastąpiło o 22:30 czasu miejscowego, z komputera na UCLA (2 września 1969 powstał tam pierwszy punkt transmisji) do komputera SRI (Stanford Research Institute, węzeł tej jednostki działał od 29 października 1969). Źródło: Sutton C., Internet began 35 years ago at UCLA with first message ever sent between two computers, zob. http://web.archive.org/web/20080308120314/http://www.engineer.ucla.edu/stories/2004/Internet35.htm [dostęp: 26.06.2016].

[52] Por. Raz G., ‚Lo’ And Behold: a Communication Revolution, http://www.npr.org/templates/story/story.php?storyId=114280698 [dostęp: 24.05.2016]

[53] BBN – Bolt Beranek and Newman – firma z Bostonu w pierwszych latach zajmująca się zagadnieniami z dziedziny akustyki, potem jednak zmieniła swoją specjalizację na badania i rozwój technologii komputerowych.

[54] zob. Castells M., Galaktyka Internetu. Refleksje nad Internetem, biznesem i społeczeństwem, Poznań 2003, s. 20 – 21. por. Clark W., IMP — Interface Message Processor, http://www.livinginternet.com/i/ii_imp.htm [dostęp: 15.11.2016].

[55] zob. tamże. TCP – Transmission Control Protocol – protokół kontroli transmisji.

[56] tamże.

[57] por. Leiner B. (red.), Brief history of the Internet, http://www.internetsociety.org/sites/default/files/Brief_History_of_the_Internet.pdf [dostęp: 23.11.2016]

[58] por. ARPANET 1969-1990 Computer Network, http://www.columbia.edu/~hauben/CS/arpanet-encyc.txt [dostęp: 26.05.2016].

[59] HTML – HyperText Markup Language, por., Facts about W3C, http://www.w3.org/Consortium/facts [dostęp: 12.09.2016].

Ilustracja: miniyo73, internet, Flickr CC BY-SA 2.0

Title: Early concepts of the Internet and their realization in the present

Summary: The article shows in a cross-sectional way a fascinating journey through the history of the realization and evolution of human thought, based on the desire to develop an intellectual face of humanity. The Internet has become a key tool for this purpose. From the first „lo” to today’s standalone network systems, human development is increasingly associated with the cybernetic world. Will this lead to a great unification of human life and the web?

Keywords: Internet, human, Bush, Licklider, ARPANet, MilNet

Bibliografia

  • Austin T., Doust R., Projektowanie dla nowych mediów, PWN, Warszawa 2008
  • Bańko M. (red.), Polszczyzna na co dzień, Warszawa 2006
  • Bush V., As we may think, The Atlantic, 01.07.1945, dostęp: http://www.theatlantic.com/magazine/archive/1945/07/as-we-may-think/303881/?single_page=true 20.02.2011 (tłumaczenie własne)
  • Castells M., Galaktyka Internetu. Refleksje nad Internetem, biznesem i społeczeństwem, Poznań 2003
  • Chmura R., Internetowe akronimy i emotikony, http://www.opoka.org.pl/varia/internet/emotikony.html
  • Clark E. W., Licklider J., On-line man-computer communication, http://ebookbrowse.com/on-line-man-computer-communication-pdf-d404871134
  • Clark W., IMP — Interface Message Processor, http://www.livinginternet.com/i/ii_imp.htm
  • Drzewiecki P., Renesans słowa. Wychowanie do logosfery w kulturze audiowizualnej, Toruń 2010
  • Gaudin S., Total Recall: Storing every life memory in a surrogate brain, http://www.computerworld.com/s/article/9074439/Total_Recall_Storing_every_life_memory_in_a_surrogate_brain
  • Główny Urząd Statystyczny, Społeczeństwo informacyjne w Polsce. Wyniki badań statystycznych z lat 2011 – 2015, http://stat.gov.pl
  • Grzania J., Zasady komunikacji internetowej, w: Bańko M. (red.), „Polszczyzna na co dzień”, Warszawa 2006
  • Grzenia J., Komunikacja językowa w Internecie, Warszawa 2006
  • Internet Pioneers, Licklider J. C. R., http://www.ibiblio.org/pioneers/licklider.html
  • Kessler M., First Internet message sent 40 years ago today, USA Today, http://content.usatoday.com/communities/technologylive/post/2009/10/620000700/1#.UdE-9JxcuHh
  • Kirstein P., Early experiences with the ArpaNET and Internet in the UK, http://nrg.cs.ucl.ac.uk/mjh/kirstein-arpanet.pdf
  • Kleinrock L., The Day the Infant Internet Uttered its First Words, UCLA Engineering, http://www.cs.ucla.edu/about/history/the-day-the-infant-internet-uttered-its-first-words
  • Leiner B. (red.), Brief history of the Internet, http://www.internetsociety.org/sites/default/files/Brief_History_of_the_Internet.pdf
  • Licklider J. C. R., Man-Computer Symbiosis, http://memex.org/licklider.pdf
  • Licklider J. C. R., Man-Computer Symbiosis, w: „In Memoriam: J. C. R. Licklider”, http://sloan.stanford.edu/mousesite/Secondary/Licklider.pdf
  • Licklider J. C. R., Taylor R. W., The Computer as a Communication Device, w: „In Memoriam: J. C. R. Licklider”, http://sloan.stanford.edu/mousesite/Secondary/Licklider.pdf
  • McAuliffe W., Stephen Hawking: Humans will fall behind AI, http://www.zdnet.com/news/stephen-hawking-humans-will-fall-behind-ai/116616
  • Raz G., ‚Lo’ And Behold: a Communication Revolution, http://www.npr.org/templates/story/story.php?storyId=114280698
  • Spark A., Oliver Selfridge, Computer scientist paving the way for artificial intelligence, w: The Guardian, 17 grudnia 2008, http://www.guardian.co.uk/technology/2008/dec/17/oliver-selfridge-obituary
  • Spicer D. (red.), Internet History, http://www.computerhistory.org/internet_history/index.html
  • Stiller T., Pojedynek: dysk SSD vs dysk twardy, http://www.benchmark.pl/testy_i_recenzje/Pojedynek_dysk_SSD_vs_dysk_twardy-2695.html
  • Sutton C., Internet began 35 years ago at UCLA with first message ever sent between two computers, http://web.archive.org/web/20080308120314/http://www.engineer.ucla.edu/stories/2004/Internet35.htm
  • Than K., Internet Turns 40 Today: First Message Crashed System, National Geographic News, http://news.nationalgeographic.com/news/2009/10/091029-internet-40th-anniversary.html
  • Zieliński Z., E-learning w edukacji, Gliwice 2012

About dr Paweł Piotr Płatek

Urodzony w Warszawie. W 2003 roku ukończył liceum ekonomiczne i otrzymał tytuł technika, specjalność: ekonomika i organizacja przedsiębiorstw. W 2007 roku uzyskał tytuł magistra teologii o specjalności: edukacja medialna i dziennikarstwo (tytuł pracy: „Etyczne aspekty komunikacji internetowej jako dialogu międzyludzkiego”) Specjalizacje na studiach: internetologia i edukacja medialna. Ukończył kurs pedagogizacji oraz katechetyczny. W 2015 roku obronił doktorat z zakresu teologii środków społecznego przekazu (tytuł: „Internet jako medium masowego kształtowania świadomości współczesnego człowieka”). Specjalizuje się w zagadnieniach etycznych Internetu, procesach komunikacyjnych w sieci oraz w rozwoju nowych technologii medialnych. Od 2010 roku zatrudniony na stanowisku instruktora w IEMiD, 2011 - 2017 pracował jako asystent. Od sierpnia 2017 adiunkt w Katedrze Internetu i Komunikacji Cyfrowej, IEMiD, UKSW. Prowadzone zajęcia: Edycja i obieg dokumentów elektronicznych, Grafika komputerowa i multimedialna, E-learning i multimedia w kształceniu, Oprogramowanie do zarządzania materiałami naukowymi, Rozwój współczesnych technologii w nowych mediach.

Post Navigation

Analytic Code