Trzy systemy, trzy strategie

W 1981 pojawia się na rynku – PC, skrót od ang. personal computer. Producentem i pomysłodawcą takiego osobistego komputera był IBM, który zakładał, że taka konstrukcja, przeznaczona dla indywidualnego nabywcy, nie wzbudzi większego zainteresowania wśród dotychczasowych użytkowników wielkich maszyn obliczeniowych. Z tego powodu kierownictwo IBM zezwala na klonowanie PC przez innych producentów, na bardzo korzystnych warunkach.

Jednocześnie IBM jako producent po raz pierwszy zlecił zewnętrznemu wykonawcy opracowanie systemu operacyjnego dla swojego PC.

Te dwa czynniki: zgoda na klonowanie PC przez potężny koncern IBM i jeden standardowy system operacyjny MS DOS, było wydarzeniem znaczącym dla lawinowego rozwoju rynku komputerów osobistych. Klony PC zaczęli produkować niezależni producenci, ostra walka konkurencyjna doprowadziła do znaczącego spadku ich cen.

Nie stało się tak w przypadku systemów operacyjnych. Firma Microsoft utrzymuje monopol na zamknięty system Windows. Inna firma Apple Computers jest jednocześnie producentem własnych komputerów i systemów operacyjnych niekompatybilnych z PC.

Do liczących się obecnie na rynku systemów operacyjnych włącza się Linux, tworzony w ramach społecznego projektu GNU.

Poniżej spróbuję omówić najważniejsze cechy tych systemów i przyjęte strategie ich rozwoju.

Microsoft: MS DOS – Windows

Firmę, z którą IBM podpisał umowę na opracowanie systemu operacyjnego dla nowo skonstruowanego PC założyli wcześniej Bill Gates i Paul Allen.

Przed ukończeniem systemu, właściciele firmy programistycznej uznali, że przed PC stoi wielka przyszłość i podpisana umowa ostatecznie została zerwana a Microsoft, jako już niezależna firma, zaoferował MS DOS jako swój autorski system z przeznaczeniem dla wszystkich komputerów typu PC.

Dominuje monopol jednej firmy i jeden system operacyjny. Niezależnie kto wyprodukował PC, instalowanym systemem operacyjnym był wyłącznie MS DOS sprzedawany po cenie uznaniowej.

Sukces rynkowy Microsoft wyzwala rynkową rywalizację. Tymczasem popularność zdobywa graficzny interfejs użytkownika oferowany przez Apple, spowodował on intensywne prace w Microsoft nad własnym, identycznym rozwiązaniem. Graficzny interfejs użytkownika pozwał bowiem zarządzać komputerem poprzez wybieranie ilustrowanych ikon w miejsce wpisywania odpowiednich poleceń z klawiatury. Windows 1.0 ujrzał publicznie światło rok później niż pierwowzór na Macintosha czyli w 1985 r, ale nie odniósł większego powodzenia. Windows 3.0 w roku 1990 nie wzbudza jeszcze wystarczająco dużego zainteresowania, dopiero wersja 3.1 zdobywa większą popularność. Przełom przynosi dopiero Windows 95. Premiera tego systemu operacyjnego na targach COMDEX w 1995 r. odbyła się jednak w cieniu sukcesu odniesionego przez firmę Netscape i jej graficznej przeglądarki internetowej o nazwie Navigator.

Cudzy sukces zawsze mobilizuje Microsoft co w konsekwencji konkurencję skazuje na niebyt. Po sukcesie Nawigatora, już bez ryzyka, Microsoft może zainwestować we własną przeglądarkę Internet Explorer i na dodatek z integrować ją z własnym systemem operacyjnym Windows, utwierdzając w ten sposób własny monopol.

Po ponownie nieudanej współpracy z IBM, tym razem nad wspólnym system OS/2, Microsoft samodzielnie angażuje się we własne oprogramowanie serwerów sieciowych, lansując nową linię systemów jednocześnie dla stacji roboczych i serwerów Winsows NT – new technology. Zdobywa kolejny segment rynku systemów operacyjnych.

Systemy operacyjne Windows oparte o DOS są wyłącznie dziełem firmy Microsoft, niekompatybilnymi z żadnymi innymi istniejącymi systemami operacyjnymi.

Strategia

Strategia Microsoftu sprowadzała się do niedopuszczenia do powstawania konkurencji, co zapewnia firmie wyłączność w obsłudze rynku systemów operacyjnych na komputery klasy PC, a potem na serwery.

Powielanie w milionach egzemplarzy kopii MS DOS a potem Windows, kosztuje bardzo niewiele w stosunku do kosztów produkcji PC. Ta procedura zapewnia ogromne zyski dla firmy Microsoft. Zaglądanie do cudzej kieszeni nie jest eleganckie, ale narzucony monopol do elegancji też nie należy. Jeżeli firma traktuje poważnie rynek to znaczące dochody przeznacza na badania i rozwój -BiR. Pytania o BiR odnośnie firmy Microsoft nie generuje łatwej odpowiedzi. Przeglądając dokonania Microsoftu trudno znaleźć, nawet najbardziej rozwodnioną, ale jednoznaczną opinię tego typu:
”Xerox zrobił ogromną karierę w branży kopiarek. Nadmiar pieniędzy szefowie firmy ulokowali w PARC – to właśnie w tych laboratoriach powstało wiele technologii komputerowych, które dziś są powszechnie używane (np. sieć Ethernet)” (1). To tutaj w tych laboratoriach działał też pierwszy na świecie komputer Alto z interfejsem graficznym obsługiwanym myszką, pierwowzór zarówno dla Maca jak i Windows.

Niestety w przypadku Microsoftu łatwiej wykazać coś wprost przeciwnego. Cytaty można mnożyć, a przytoczę taki oto: “- Strategia w odniesieniu do Internetu jest typowa dla Microsoftu – powiedział Steve Wood, który przepracował w firmie czternaście lat. – Zobaczyć, dokąd wszyscy zmierzają, a potem ich prześcignąć.”

Marketing jest silną stroną firmy Microsoft. Przygotowanie nowej premiery dla najnowszej wersji systemu, połączonego z wielkim show i zapowiadanej na kilka miesięcy wcześniej, wymusza zwiększone tempo prac nad nowymi rozwiązaniami, które zwykle nie jest jeszcze gotowe. Powoduje to pośpiech, przyjęcie nie najlepszego rozwiązania i brak wystarczająco czasu na testowanie. “Testowanie? We wczesnych latach osiemdziesiątych Mirosoft nie stosował formalnych procedur testowania. Gdy informatyk stworzył wersję programu, która dała się skompilować, wypuszczano ją na rynek.” (1). Dodajmy testowanie po sobie samym. Prowadzi to do patologii, oczywistych niedoróbek i błędów.. Co to znaczy przetestować nowy system? Wersję wstępną Windows 95 sprzedawano za 30$. Z oferty skorzystało 400 tys. użytkowników a Microsoft miał darmowe testowanie. Zgłoszono ponad 6 tys. poważnych usterek. Był to chyba najlepiej przetestowany system operacyjny. Niestety, chyba jedyny.

Najważniejsze jest dotrzymanie zapowiedzianego terminu premiery, a potem bez rozgłosu, dokonuje się niezbędnych uzupełnień i poprawek. Kolejne pakiety poprawek ukazujące się po opublikowaniu nowej wersji systemu to już norma.

Firma Microsoft pod kierunkiem Bila Gatesa zdominowała rynek komputerów osobistych i w znacznej mierze rynek serwerów. Microsoft ze swojej dominującej pozycji, może sobie pozwolić na narzucanie własnych standardów, nie licząc się praktycznie z nikim. Normalną praktyką jest porzucanie dotychczasowych rozwiązań na rzecz najnowszych technologii, często bez zachowania ciągłości w stosunku do zaproponowanych wcześniej rozwiązań. Nowe systemy wymuszają niejednokrotnie na użytkownikach zakup najnowszego sprzętu od firm mających atesty Microsoft, bez którego to sprzętu programy nie działają poprawnie. Wygląda to na zmowę producentów.

Nawet narzucając własne standardy, Microsoft nie zawsze nadąża z zaspokojeniem potrzeb całego rynku IT. Kiedy na rynku pojawia się procesor 64 bitowy z Intel Itanum i AMD Opteron, Mirosoft proponuje Windows XP 64-bit Edition na razie do rocznych testów, aby zyskać na czasie. Tym czasem konkurencja udostępnia już gotowe systemy pracujące na tych procesorach pod systemem Linux.

Proste i częste błędy w systemach, opracowanych przez Microsoft, sprzyja powstawaniu nowych, niekorzystnych zjawisk. Z dawnych hakerów, którzy mieli szlachetne cele, wyrodził się odłam elektronicznych korsarzy, którzy z całą bezwzględnością wykorzystają popełnione błędy w programach i stawiają sobie za cel niszczenie systemów operacyjnych poprzez tworzenia specjalnie spreparowanych wirusów komputerowych. Powstał rodzaj sportu: kto więcej i skuteczniej unieszkodliwi programów. Na początku ataki były skierowane na systemy tworzonych przez Microsoft. Teraz nie oszczędza się nikogo.

Skala tego zjawiska jest ogromna. W roku 2003, wg firmy Trend Micro, wirusy kosztowały światową gospodarkę 55 miliardów dolarów.

Musi dziwić opieszałość Microsoft w reagowaniu na to zjawisko.

Serwis internetowy hacking.pl z 2004-02-11 (4) donosi: Krytyczne aktualizacje dla Windows NT/XP/2000/2003 :

“{Wczorajszego dnia Microsoft wydał dwie aktualizacje bezpieczeństwa dla wszystkich systemów operacyjnych rodziny Microsoft Windows oraz dla platform serwerowych.

…. “Wszystkie obecne wersje systemu Windows są zagrożone” – mówi Stephen Toulouse z firmy Microsoft.

Marc Maiffert z eEye Digital Security, który poinformował Microsoft o błędzie już pół roku temu, skrytykował producenta systemu Windows za opieszałość w informowaniu o błędzie i możliwości jego wyeliminowania. “Jest to jeden z najpoważniejszych błędów w systemie Miscrosoftu, jakie kiedykolwiek stwierdzono” – mówi Maiffert. Jednak Sal Viveros, ekspert do spraw zabezpieczeń w McAfee Security powiedział, że tego typu “opóźnienie” to standardowa praktyka w przemyśle informatycznym. “Zazwyczaj jeżeli ktoś znajdzie błąd w oprogramowaniu, to daje producentowi jakiś czas na jego naprawienie. Jeżeli ludzie nie wiedzą o błędzie, to istnieje mniejsze ryzyko, że autorzy wirusów wymyślą coś, co pozwoli wykorzystać taki błąd” – mówi Viveros.

Microsoft mówi, że wszystko trwało kilka miesięcy, bo firma chciała się upewnić, że eliminując lukę zlikwiduje jednocześnie pokrewne problemy w systemie. }”

Inny pogląd na temat bezpieczeństwa systemów Windows ma Tom Brown (5).

“. Niektórzy twierdzą, że powodem dla którego Windows

jest atakowany, a Linux nie, jest to, że Windows ma o wiele więcej

użytkowników.

…. Windows, IMHO, jest w sposób wrodzony niebezpieczny, głównie z powodu decyzji projektowych, które sięgają do samego serca systemu operacyjnego. Nie da się tego poprawić bez fundamentalnych zmian w Windowsie, które bez wątpienia naruszyłyby działanie prawie wszystkich dostępnych aplikacji. Aplikacje i usługi systemowe są zintegrowane tak, by pracowały razem na bardzo niskim poziomie. W wielu przypadkach musi tak być, żeby mogły one pracować.”

Sprzedawane przez Microsoft produkty, chociaż są odpłatne, nie gwarantują zgodnie z treścią licencji poprawnego działania systemów i programów, więc za szkody wyrządzone przez e-korsarzy, płacą sami nabywcy i użytkownicy.

Perspektywy dwudziestoletnie

Jeżeli wierzyć specjalistom, aby zaistnieć na rynku z nowym produktem, potrzeba 70% całości kosztów przeznaczyć na marketing. Przy takim założeniu pozycja Microsoft jest niezagrożona.
Pojawiają się jednak zjawiska nie korzystne dla takiej prognozy. Najbogatsze gospodarki Europy a także i Azji nie chcą już dłużej ponosić rosnących w nieskończoność kosztów eksploatacji zamkniętych systemów opartych na Windows a co najważniejsze nie chcą też dalej narażać bezpieczeństwa swoich danych.

To, że takie deklaracje złożono niemal w tym samym czasie gdy nasilają się zjawiska międzynarodowego terroru, może dowodzić, że to nie tyle duże koszty co możliwość “zaszycia” w zamkniętym oprogramowaniu niepożądanego dodatkowego programu, spowodowało takie duże zainteresowanie otwartym oprogramowaniem z dostępnymi kodami źródłowymi.

Zainteresowanie wolnoźródłowym oprogramowaniem rodzi nadzieje, że w miejsce monopolu jednej firmy powstanie normalny rynek systemów operacyjnych na którym najlepsi konkurują o klienta.

Nowe trendy w systemach operacyjnych bazujące na doświadczeniach systemu UNIX rodzi też ważne pytanie. Czy aby na pewno system Windows oparty na DOS nie prowadzi już w ślepą uliczkę rozwoju systemów operacyjnych?

Apple Computers rodzina systemów operacyjnych z pod znaku jabłuszka

Firma Apple Computers założona została w 1976 przez Steve’a Jobsa i Steve’a Wozniaka.

Założyciele mieli ambicje opracowania własnego komputera osobistego dla firm, szkół i użytku domowego i co bardzo ważne, niekompatybilnego z PC IBM. Sukces rynkowy pierwszych własnych komputerów Lisa pozwolił myśleć o stworzeniu czegoś nowego. Pierwszy, liczący się na rynku, komputer z graficznym interfejsem użytkownika – Macintosh zaprezentowano w 1984 r. Sukces pierwszego “Maca”, był ogromy, ale stosunkowo wysoka cena w stosunku do jego technicznych możliwości nie przyniósł spodziewanego zysku finansowego. Sukcesem finansowym dla Apple okazał się program do elektronicznego składu do publikacji Aldus Page Maker a potem własnej konstrukcji drukarka laserowa Laser Writer ze sterowaniem w języku Postscript opracowanego przez firmę Adobe. Takie rozwiązanie pozwalało nie tylko drukować przy użyciu osobistego komputera – zalążek DTP, ale również dokonywać składu na profesjonalnych maszynach drukarskich. W profesjonalnym drukarstwie, szeroko rozumianym, obydwie wymienione firmy dominują po dziś dzień.

Strategia

Apple Computers rozwijał nie tyko swój sprzęt, alei równolegle i własne oprogramowanie. To daje ogromną przewagę jakościową, ale nie jest pozbawiony wad co ujawniło się później. Teraz wszystkie elementy i podzespoły ściśle ze sobą współpracują bez żadnych konfliktów sprzętowych. Bardzo dobry interfejs graficzny i współdziałanie wszystkich podzespołów, doprowadzone do perfekcji, musiało dawać rewelacyjne wyniki jakościowe. Zadowolony użytkownik pozostawał wierny firmie. Tyle tylko, że za ten komfort Apple kazało sobie słono płacić. Perfekcję i jakość podziwiali wszyscy, kupowali nieliczni. Paradoks polegał jednak na tym, że Apple nie nadążało z produkcją. Z małymi wyjątkami i tylko w określonym czasie, udzielono licencji na klonowanie sprzętu. W najlepszym okresie Apple opanowała ok. 10% rynku.

Niestety, mało efektywne poczynania menedżerskie i marketingowe nie przyniosły sukcesu rynkowego firmie Apple. Jobs odchodzi w 1985, Wozniak ulega wypadkowi. Powstają ciągle nowe, rewelacyjne produkty Power Book, PDA Newton, udoskonalany jest stale Mac.

Kiedy firmie jednak grozi bankructwo, na przełomie 1996/97 roku wraca Jobs. W dorobku wnosi swoją nową firmę NeXT wraz z systemem NeXTsteep opartym na systemie BSD Unix. Apple po raz pierwszy porzuca dotychczas rozwijany system operacyjny a kontynuuje dorobek NeXT. Premiera nowego systemu operacyjnego MAC OS X odbyła się w 2000 r. Niedawno odbyła się już kolejna, czwarta wersja tego rewelacyjnego systemu.

Pojawieniem się na rynku oprogramowania iMac, zgodnego ze standardem PC, jest zaskakujące. Nie bardzo na razie wiadomo jaka strategia kryje się za długofalowym kontraktem tworzenia pakietu Office for Mac przez firmę Microsoft. Na drogim sprzęcie Apple funkcjonuje pakiet Office z Microsoft z całym dobrodziejstwem wszystkich jego słabości. Czy ma to ułatwić migrację z PC Windows na iMac? Na razie, jak twierdzi firma Symantec, z tej migracji swobodnie korzystają wirusy dotychczas przeznaczone tylko dla Windows: “Opracowana w celu zlikwidowania problemów ze zgodnością i na potrzeby użytkowników gier PC na platformie Mac, technologia emulacji powoduje narażenie produktów firmy Apple na ataki wirusów przeznaczonych dla komputerów PC.”(11)

Perspektywy dwudziestoletnie

Firma Apple przeżywa drugą młodość. Wprowadzeniem na rynek superatrakcyjnych produktów, takich jak iBook, iMac czy iPod, powoduje, że Apple znów zaskakuje nowymi, wysokiej jakości produktami i zaczyna przyciągać nową klientelę. Znów jak kiedyś, Bill Gates zapowiada rewanż za MAC OS X, wszak pogoń to jego specjalność. To może być ciekawe. Historia się powtarza. Znów Apple współpracuje z Microsoftem. Znów koneserzy, którzy zapoznali się z możliwościami MAC OS X wpadają w zachwyt. Czy będą masowe zakupy? Rosną zyski. Apple Computers, ale nie wiadomo jaka będzie odpowiedź na razie zaskoczonej konkurencji.

Pytanie czy Apple Computers odzyska rynek komputerów osobistych? Nic na to nie wskazuje, aby Apple sprostało masowej produkcji. Trzeba jeszcze przekonać użytkowników, że niezawodny sprzęt wyłącznie własnej produkcji i profesjonalne systemy, za które niestety trzeba słono płacić, daje w dłuższej perspektywie czasowej niskie koszty eksploatacji, a staranny i szczelny monitoring zapewnia bezpieczeństwo. Na szczęście dla Apple’a rynek IT to nie tylko komputery osobiste. Innowacje techniczne wysokiej jakości, to może mieć znaczący atut rynkowy dla odradzającej się firmy Apple.

Rodzi nowe nadzieje na nowatorskie rozwiązania w dowód, że strategia jednoczesnego produkowania i sprzętu i oprogramowania ma swoje zalety.

GNU/Linux – bezkorporacyjna inicjatywa wolontariuszy

Ab ovo

Linus Torvalds rozstrzygnął, nierozstrzygnięty spór filozofów, co było pierwsze: kura czy jajo.

Więc jednak najpierw jest jajo a z jaja powstaje kura, nawet kiedy dokładnie rzecz biorąc był to “Pingwin”. O sukcesie decydowała zasada: jeżeli pingwin nie spełnia oczekiwań, należy dopracować jajo a nie przerabiać pingwina.

Na początku istniał system UNIX, tworzony w środowiskach uniwersyteckich na własne potrzeby, funkcjonował projekt GNU, ale były też pytania na które UNIX nie dawał odpowiedzi. Pytania typu, “co by było gdyby….”, stawia student Helsinskiego Uniwersytetu Linus Torvalds, publikując je w internecie (7). Pytania wzbudziły ciekawość i powstawały pierwsze próby odpowiedzi. Potoczyła się lawina dalszych pytań a odpowiedzi nabrzmiewały nowymi pomysłami. Stawiano pytania na coraz to wyższym poziomie i szukano zadawalających odpowiedzi. Systematycznie. Krok po kroku. Zaczął powstawać model i o dziwo zaczynał być posłuszny teorii. Tak powstawało jądro z ang. Kernel, ale bardziej swojsko nazywane po prostu jajem. Eksperymenty sterowania tym jądrem stawały się coraz bardziej skuteczne a osiągane efekty pasjonujące. Zaczęły się rozważania o praktycznym zastosowaniach. Zaczęły powstawać pierwsze aplikacje użytkowe. “Pingwin”, który w międzyczasie zaczął funkcjonować jako logo projektu, stawał się realny i całkowicie sterowalny.

Wszystkie te działania dokonywane przez ludzi, którzy współpracując ze sobą w sieci i często nigdy się osobiście nie poznali. Dokonane poczynania traktowane były, poza zainteresowanymi i entuzjastami, dość pobłażliwie przez innych: nie przynosiło to nikomu dochodów, więc można było w środowisku biznesu wzruszać ramionami. Kiedy wszyscy starali się zabezpieczać swoje prawa autorskie i patentowe, entuzjaści projektu GNU, zrzekali się ochrony swoich praw autorskich. Zamiast copyright zaproponowano copyleft. Wszyscy twórcy umówili się, że pozostają autorami oprogramowania, ale zgadzają się dobrowolnie przekazać wykonane oprogramowanie do użytkowania wspólnego pod jednym bezwzględnym warunkiem. Źródła tak zastrzeżonego programu będą zawsze udostępnione do swobodnego wykorzystania, ale jednocześnie nigdy przez nikogo, pod jakimkolwiek warunkiem, w jakiejkolwiek dowolnie małej części ani w całości nie mogą być przywłaszczone. Na straży tak określonych praw stoi odpowiednia licencja czyli Ogólna Publiczna Licencja – GNU GPL (10).

Strategia

Rozwój systemu GNU/Linux jak do tej pory, nie przybrał formy biznesowej. Nie był tworzony przez żadną firmę. Jest produktem współpracy entuzjastów, konsekwentnych w swoich dążeniach.
W system GNU/Linux, zaangażowanych jest bardzo dużo osób z wielu krajów świata. Pracują jako wolontariusze, bardzo zainteresowani rozwojem konkretnego projektu, potrafią, umieją i co ważne lubią pracować w tych obszarach problemów, którymi się interesują.

Strategia rozwoju systemu Linux jest klasycznie ewolucyjna. Zaczynano od najprostszych struktur. Kiedy prosta struktura już nie odpowiadała potrzebom a potrzeby rosną, szuka się odpowiedzi na coraz bardziej skomplikowane pytania. Wynikiem takich działań jest naturalna konieczność przechodzenia do wyższego etapu rozwoju i działań.

Wszyscy wobec problemu są równi. Każdy próbował rozwiązać problem najlepiej jak potrafił. Skoro można było zaproponować lepsze rozwiązanie – proponowano. Kiedy już wszyscy zainteresowani byli zgodni, że wspólnie dokonano wyboru rozwiązania najlepszego z możliwych, uznawano etap za zakończony. Linus Torvalds, pomysłodawca systemu nazwanego od jego imienia – Linux, wypowiada się na ten temat tak: “Uważam się za inżyniera i zajmuję się Open Source, ponieważ uważam, że jest to najprzyjemniejszy sposób na rozwijanie oprogramowania, a także wierzę, że jest to sposób najbardziej efektywny, aby wykonać postawione zadania, zarówno z punktu widzenia testera, jak i implementatora.” (8). Do niego, jak sam siebie nazywa, implementatora należą najważniejsze decyzje. Ogłasza je kiedy uzna, że dany etap prac nad nową wersją jądra zostaje ukończony.

O rzetelności działań, które są zawsze jawne i publiczne, świadczy również konsekwentne numerowanie każdego etapu w rozwoju nowej wersji jądra.

Numeracja składa się z 3 członów: n.x.y.

Pierwszy człon “n” oznacza nr kolejny.

Drugi człon “x”, zawsze po kropce dziesiętnej, jest jednoznakową cyfrą oznaczającą rodzaj wersji. Cyfry parzyste oznaczają wersje stabilne, przetestowane co zapewnia, że można bez obaw korzystać z tak oznakowanej wersji. Cyfry nieparzyste oznaczają wersję rozwojową, w trakcie budowania i doskonalenia, która nie gwarantuje jeszcze poprawnego działania. Można się z nią zapoznać i ewentualnie zgłaszać uwagi lub pomysły.

Trzeci człon “y”, też po kropce, oznacza kolejne numery uaktualnień i wniesionych poprawek, już po ogłoszeniu stabilnej wersji.

Pozwala to każdemu podjęć decyzję o czasie i potrzebie aktualizacji posiadanego we własnym systemie jądra w stosunku do najnowszej istniejącej wersji .

Jądro Linux

Nowa seria jądra, albo jak kto woli. kernela, oznacza zawsze nowe możliwości systemu Linux, bez porzucania dotychczasowych zasad działania. To tak jak wprowadzenie możliwości stosowania rachunku różniczkowego daje nowe możliwości obliczeniowe, ale nie eliminuje możliwości stosowania reguł samej tylko algebry. Jest to więc rozwój przez doskonalenie i poszerzanie funkcjonalności. “Linux jest systemem o architekturze z jądrem monolitycznym. Oznacza to, że kod jądra jest spójny i niepodzielny, a samo jądro implementuje całą funkcjonalność systemu operacyjnego, włącznie z systemami plików, obsługą sieci i urządzeń.”(6) W Linuksie obsługę interfejsu graficznego wykonuje system X Window. Jest to system sieciowy, który umożliwia wyświetlanie grafiki przez programy klienckie. X Window opracowany dla UNIX’a, nie mający nic wspólnego z Windows, ma ogromne funkcjonalne możliwości niedostępne dla innych systemów graficznych.(6)

Tak więc to jądro Linuksa decyduje o możliwościach systemu operacyjnego i sprawnie działających aplikacji. Jądro Linuksa nie posiada mutacji, ale mimo to jest przygotowane do pracy z różnymi platformami sprzętowymi i dzięki temu działa tam jednakowo stabilnie, niezależnie również od zainstalowanej dystrybucji oprogramowania użytkowego. Przy jakiejkolwiek niewydajności, jądro Linuksa można indywidualnie kompilować, co spowoduje, że będzie “skrojone” na miarę posiadanego sprzętu na którym jest zainstalowane.

Czym ostatecznie jest GNU/Linux? Jest systemem operacyjnym, składającym się z jądra Linuksa i aplikacji GNU (6).

Utrzymywanie wszystkich powyższych zasad, daje dużą przewagę systemowi Linux nad systemami konkurencji.

Aplikacje

Zarówno przy tworzeniu jądra jak i aplikacjach użytkowych GNU, wszelkie prace systemowe są prowadzone jawnie i publicznie. Każdy kto czuje się na siłach, może uczestniczyć w pracach konkretnego zespołu. Kiedy prace nad projektem są ukończone, przystępuje się do testowania. W tym etapie także uczestniczą ochotnicy. Wszystkie ujawnione błędy i usterki są starannie analizowane a następnie proponowane są ulepszenia. Ten etap nie ma wyznaczonego czasu trwania. Nie ogłasza się z góry czasu zakończenia testowania bo nie są przewidziane żadne uroczyste promocje w z góry określonym czasie. Kiedy wszyscy stwierdzą, że już nikt nie może znaleźć “dziury w całym”, uznaje się, że wersja nad którą pracowano, została pomyślnie zakończona.

Funkcjonalność, jakość i niezawodność aplikacji oraz duży wybór w zaspokajaniu potrzeb użytkowników, decyduje o funkcjonalności systemu. Zważywszy, że system GNU/Linux jest najmłodszym system i dopiero jest na początku popularności, już dysponuje kilkoma tysiącami różnorodnych aplikacji użytkowych. Aplikacje te są grupowane w tak zwane dystrybucje. Wszystkie dystrybucje do systemu Linux pracują w oparciu o jądro Linuksa, ale proponują swoje własne systemy instalacji systemu, własne ułatwienia przy aktualizacji i instalacji nowych programów oraz własny zestaw aplikacji użytkowych. Takie zestawy liczą od kilkuset do kilku tysięcy gotowych do użycia aplikacji. Ułatwia to podjecie decyzji o rodzaju dystrybucji i czy proponowany zestaw aplikacji odpowiada naszym potrzebom. Niezależnie od dystrybucji, każdą aplikację można zainstalować na swoim systemie pracującym pod Linuksem w postaci źródłowej, zamiast w pakiecie proponowanym dla konkretnej dystrybucji.

Twórcy i Autorzy zarówno jądra jak i aplikacji, nie poprzestają doskonalić swoje dzieła. Dziełem interesują się też i inni zainteresowani. Wersje stabilne nigdy nie są wystarczająco doskonałe ani przetestowane. Dalej trwają prace samo doskonalące. Każde usprawnienie lub poprawka otrzymuje, dla wersji której dotyczy, kolejny numer. Czasami jest tam wstawiana data ostatniej aktualizacji. To wszystko pozwala na śledzenie najnowszych wersji oprogramowania, jeżeli dotychczasowe nie jest zadawalające.

Testowanie i bezpieczeństwo

Wszystkie dokonane poprawki lub usprawnienia są natychmiast udostępniane w internecie, tak aby każdy zainteresowany mógł natychmiast, jeżeli ma taką potrzebę, uaktualnić swoją używaną wersję programu. Jest to szczególnie ważne w systemach bezpieczeństwa. Informacja o znalezieniu luki w zabezpieczeniach powoduje natychmiastowy alarm i wielu zainteresowanych intensywnie szuka rozwiązania, które zabezpieczy przed możliwym i spodziewanym włamaniem e-korsarzy. Najlepsze z możliwych zabezpieczeń jest natychmiast opublikowane w internecie w postaci “łatek” i udostępnione dla wszystkich zainteresowanych. Szybkie skonstruowanie “łatki” pozwala na ograniczenia liczby zaatakowanych komputerów. Czasami w kilka godzin po alarmie jest już dostępne stosowne zabezpieczenie.

Trzeba również stwierdzić, że niema doskonałego oprogramowania. Ewolucja w przyrodzie też popełnia błędy a epidemie chorób stale są obecne. Dlatego zarówno twórcy jak i “psuje” będą stale poddawali testom odpornościowym każdy program.

Czy mniejsza liczba wirusów na Linuksa jest proporcjonalna do mniejszej popularności tego systemu?

“- Raczej nie” – twierdzi Solar Desinger światowy mistrz w dziedzinie bezpieczeństwa systemów komputerowych. “Wykorzystując lukę bezpieczeństwa w konkretnym programie pocztowym uruchomionym z konkretną wersją biblioteki na konkretnej architekturze, nie można “trafić” tylu komputerów co w przypadku Windows i działającego w nim dominującego oprogramowania internetowego.”(2)

Ważne jest tutaj pojecie Twórcy wolnoźródłowego oprogramowania. To nie jest najemny pracownik, który po wypłacie honorarium przestaje się interesować swoim dziełem. Dlatego istotą takich programów jest to, że nie tylko twórcy, ale wielu zainteresowanych problemem bezpieczeństwa pozostaje stale w kontakcie z dokonanym dziełem i do końca się nim zainteresowani. Tym też należy tłumaczyć tak szybkie przeciwdziałania w razie stwierdzenia jakiegokolwiek błędu.

Ewolucyjny rozwój Linuksa powoduje, że jego rozwój jest systematyczny, etap po etapie. Każdy wyższy poziom jest pochodną i konsekwencją etapu niższego. Jedno wypływa z drugiego. Nie tworzą się luki i nie trzeba wracać się aby coś dokończyć lub uzupełnić. Innymi słowy postępujący, konsekwentny rozwój. Nie jest też możliwe porzucenie dotychczasowych rozwiązań, bo rozwój niespodziewanie zawędrował “w ślepą ulicę”. To jest tylko możliwe w przypadku pojawienia się całkowicie nowych technologii działań komputerów.

Współpraca z różnymi platformami sprzętowymi.

Rozwój systemu Linux jest ściśle powiązany z tym co aktualnie dzieje się na rynku sprzętowym. Pojawienie się nowych procesorów dla nowych platform sprzętowych, inicjuje odpowiednie modyfikacje jądra Linuksa. Innymi słowy jądro Linux ewoluuje jednocześnie z nowymi modelami procesorów. Kiedy na rynku pojawia się procesor 64 bitowy, Mandrake Linux prawie natychmiast może oferować gotową dystrybucję z procesorem Intel Itanum lub AMD Opteron bo jądro Linux jest już przygotowane do pracy z taką technologią.

Perspektywy dwudziestoletnie

Po co interesować się czymś co nie przynosi dochodu? Tak oto narodziło się nowe, w cieniu zainteresowani wielkiego biznesu. Dodajmy, narodziło się całkowicie bezinteresownie.

Kiedy okazało się, że Linux jest skutecznym i niezawodnym systemem operacyjnym o ogromnych możliwościach, próbuje się albo go sobie zawłaszczyć albo spuścić nań psy łańcuchowe bo jego wolnodostępne istnienie zaprzecza odwiecznym prawom biznesu.

Powoli. Ani jedno ani drugie. Może najpierw odrobina refleksji.

Słyszy się o najnowszych perspektywach rozwoju sieci światłowodowych, które powinny jak najszybciej opleść, gęstą siecią, kulę ziemską. Tylko aby to miało sens, potrzebne są tanie komputery i oprogramowanie. Z tych trzech elementów najłatwiejsze w dostępie może być oprogramowanie. Linux oparty na wolnym oprogramowaniu a więc GNU/Linux, jest szansą cywilizacyjną. Jak na razie jest to jedyna realna perspektywa wyrównania możliwości dostępu do IT pomiędzy biednymi a bogatymi. Proszę zauważyć, że jeżeli już kogoś stać na najprostszy model komputera klasy PC, to oprogramowanie do tego komputera może mieć za darmo lub za niewielką tylko opłatą. Pieniądze, które musiał by wydać na oprogramowanie komercyjne, może przeznaczyć na przeżycie. Jeżeli dodatkowo jest młody i zdolny, wystarczy, mając udostępnione źródła, znajomość zasad i klawiatura, aby zacząć pisać oprogramowanie do swojego komputera. Z korzyścią dla siebie, sąsiada, znajomych, wreszcie dla biznesu. Nie musi o nic prosić, kupować licencji ani wystawiać do tego fabryki i może zarabiać.

Dotychczasowa “pomoc” krajom biednym sprowadza się do przyznawania pożyczek, która następnie jest w jakiejś tam części są rozkradane, w związku z tym rzadko przynosi zaplanowany efekt a ostatecznie jej spłata kończy się umorzeniem, bo innej rady nie ma.

Część takich pomocowych pieniędzy można wykorzystać bardziej efektywnie.

Oferując wraz z Linuksem oprogramowanie z dostępnymi źródłami, dajemy każdemu wędkę a nie smażoną rybę. Nie ma przy tym żadnego przymusu. Szansę ma każdy kto z takiej oferty chce skorzystać.

Wszystko to jest proste. Pozostaje do rozwiązania tylko mały problem. Skąd brać wolne oprogramowanie? Chętnych do pracy za satysfakcję jest zawsze mniej niż tych co chcą to robić za gratyfikację. Ci pierwsi muszą z czegoś żyć. Skoro jednak, jak powiedziano wyżej, znajdują się pieniądze na anulowanie nietrafionych pożyczek, to znacznie efektywniejsze i moralnie uzasadnione było by alternatywnie wykupywać sukcesywnie prawa autorskie do programów informatycznych. Szczególnie istotne są tu standardy. Tak wykupione programy informatyczne można wtedy udostępniać wszystkim na przykład na licencji GNU GPL.

Gwarancją rzetelnego wykorzystania publicznych pieniędzy, przeznaczanych na oprogramowanie funkcjonującego na licencji GNU GPL, jest dotychczasowy, jawny charakter prac i działań nad kolejnymi etapami rozwoju systemu Linux.

Tylko kto przekona decydentów tego świata, w tym Bank Światowy, że to jest najbardziej sensowne wydatkowanie światowych pieniędzy na wyrównywanie szans cywilizacyjnych. Można do tego jeszcze dodać, że tworzenie oprogramowania jest działalnością stricte proekologiczną. Ekolodzy też mogą uczestniczyć w tak pomyślanym przedsięwzięciu.

Jedno jest pewne. Linux jest już spostrzegany przez światowy biznes jako alternatywa dla powszechnie użytkowanego systemu Windows, z wyżej przedstawionych powodów. Na dodatek Linux, tworzony spontanicznie na zasadach społecznych, nie tworząc firmy biznesowej nie podlega prawom rynku biznesowego i trudno go wyeliminować posyłając po prostu na cmentarzysko, czego doświadczyli dotychczasowi konkurenci.

Janusz Madejski

Literatura i źródła z których korzystałem:

  1. Jennifer Edstrom, Marlin Eller. Barbarzyńcy pod wodzą Billa. Pruszyński i S-ka . Warszawa 2000
  2. Rozmowy z Solar Designerem. Magazyn CHIP Specjal Linux (Zima 2002) Nr 10(68)/2002.
  3. Dariusz Ćwiklak. Piękny dwudziestoletni. Gazeta Wyborcza z 19 stycznia 2004r.
  4. http://hacking.pl/news.php?id=3363
  5. http://lg.linux.pl – Tom Brown “Oduczanie się Windowsa.” Tłumaczył: Łukasz Muzioł
  6. http://linux.gery.pl
  7. http://newbie.linux.pl/?id=article&kategoria;=1&show;=26 – O Linusie
  8. Magazyn Linux+ (2/04) Piotr Truszkowski. Wywiad z Linusem Torvaldsem, twórcą projektu Linux
  9. http://www.apple-history.jabluszko.com
  10. http://www.gnu.org
  11. http://www.symantec.com/region/pl
Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.

Poprzedni post
2

Jak zacząć programowanie w C/C++?

Następny post

Wieloznaczność terminu ,,wolne oprogramowanie” (cz. I)

Powiązane posty