Open Innovation - nowe podejście
w procesach innowacji
Beata Mierzejewska
Wprowadzenie
Stale rosnąca
złożoność otoczenia, w którym funkcjonują przedsiębiorstwa, nie
pozwala na odłożenie myślenia o innowacjach „na spokojniejszy”
moment. Nasilające się procesy hiperkonkurencji, postępująca konwergencja
branż, rozwój technologii Web 2.0 (a nawet już Web 3.0) oraz innych,
umożliwiających budowanie coraz bardziej interaktywnych relacji w
czasie rzeczywistym między uczestnikami rynku oraz globalizacja działań,
klientów czy produktów powodują, że firmy muszą już dziś zastanawiać
się, jak jutro osiągnąć przewagę konkurencyjną. Kluczowym warunkiem
powodzenia w budowaniu przyszłości firm staje się angażowanie jak
największej liczby interesariuszy do ciągłej innowacji - tworzenia
nowych produktów, usprawniania procesów, opracowywania nowych modeli
biznesu.
Niestety, tradycyjne
podejście do tworzenia innowacji coraz częściej przynosi rozczarowanie
- jego efekty nie odpowiadają potrzebom i oczekiwaniom odbiorców,
a zarazem angażują nieefektywnie coraz większe środki. Tradycyjne
podejście do innowacji, wymagające od firmy precyzyjnych, długotrwałych
badań, budowania zespołów, w których każdy członek ma ściśle
określony zakres zadań i odpowiedzialności, powoływania komitetów
sterujących, obradujących raz na kwartał, przestaje się sprawdzać.
Co więcej, jak pokazały badania prowadzone przez firmę doradczą
Booz Allen Hamilton, w przedsiębiorstwach z różnych branż nie ma
korelacji pomiędzy wydatkami na B+R a innowacjami zakończonymi
sukcesem1. Tradycyjne podejście konsumuje bowiem zbyt wiele
czasu i środków, dostarczając nazbyt opieszale wyników. Nie można
uznać za nowość produktu opartego na badaniach potrzeb zrobionych
przed trzema laty. Czy jego założenia nadal pozostają aktualne? Czy
wartości dla klienta, szczegółowo opisane w dokumentacji inicjującej
projekt przed dwoma laty, nadal pozostają w mocy i mogą stanowić
o przewadze rynkowej produktu? W odpowiedzi firmy coraz chętniej poszukują
i wykorzystują nowe modele tworzenia wartości dla odbiorców, angażując
ich coraz bardziej w wewnętrzne procesy. Najnowsze badania Booz Allen
Hamilton wskazują na konieczność „słuchania klienta na każdym
kroku”2 - jako jeden z dwóch najistotniejszych czynników
sukcesu innowacji.
Celem niniejszego
opracowania jest opisanie nowego modelu współpracy wykorzystywanego
w procesach innowacyjnych, określenie jego najważniejszych zmiennych
- nieuwzględnianych w tradycyjnym podejściu oraz przedstawienie
wybranych przykładów przedsięwzięć wykorzystujących „otwarte”
podejście w tworzeniu innowacji.
Zamknięte a otwarte innowacje - model tradycyjny i nowoczesne podejście
Liniowy
proces innowacji
Pierwsze modele
liniowego procesu innowacji powstałe w latach 50. (tzw. modele
podażowe), zakładały, że nowe produkty biorą swój początek od
nowych technologii i wynalazków. Z chwilą nasycenia rynku i zwiększenia
konkurencji powstały popytowe modele innowacji, w których siłę napędową
stanowiły zmieniające się preferencje i potrzeby klientów. We współczesnych
modelach impulsy rozpoczynające proces mogą mieć zarówno charakter
popytowy, jak i podażowy.
Do początku
lat 70. rynek producenta zdecydowanie dominował w gospodarce.
W większości przypadków przedsiębiorstwa nie miały większego problemu
ze sprzedażą nowych produktów i stosunkowo łatwo osiągały pozycję
wiodącą lub nawet lidera na rynkach (stosownie do swojej wielkości).
W połowie lat 70. sytuacja zaczęła się dość szybko
zmieniać. O sukcesie rynkowym zaczął decydować klient. Produkty
musiały w coraz większym stopniu odpowiadać potrzebom odbiorców.
Nie pozostało to bez wpływu na sposób wdrażania innowacji. W okresie
dominacji rynku producenta wiodącym sposobem (modelem) realizacji innowacji
były tzw. „innowacje pchane”. Oznaczało to, że źródłem innowacji
były prace badawczo-rozwojowe w instytutach naukowych i przemyśle.
Model „innowacji pchanej” musiał być jednak modyfikowany w momencie,
gdy potrzeby klientów zaczęły decydować o sukcesie rynkowym produktu
- coraz częściej innowacja pojawiała się pod wpływem zapotrzebowania
rynku.
Jednym ze znanych
liniowych modeli procesu innowacyjnego jest model Urbana Hausera.
Składa się on z pięciu etapów:
- identyfikacji możliwości i szans rynkowych,
- projektowania pomysłów,
- testowania produktów,
- wprowadzenia produktu na rynek,
- zarządzania produktem.
Źródło: na podstawie G.L. Urban, J.R. Hauser, „Design and Marketing of New Products”,
Prentice Hall, Englewood, 1993
Według Modelu Urbana-Hausera przejście do następnego etapu procesu jest uzależnione od sukcesu w realizacji poprzedniego. W przypadku niepowodzenia nie podchodzi się do kolejnej części. Proces kończy się rozpowszechnieniem produktu na rynku. Dopiero wtedy można ocenić ekonomiczną efektywność wprowadzenia innowacji.
Nieliniowy model innowacji
Począwszy od lat 80. modele liniowe zaczęły być wypierane przez modele nieliniowe. Ideą tworzenia modeli nieliniowych jest jednocześnie powiązanie czynników podażowych z popytowymi i uwikłanie tych czynników w taki sposób, że ostatecznie przynoszą one korzyść potencjalnemu odbiorcy innowacji. W praktyce idea ta sprowadza się do umiejętnego dostrzegania nowych potrzeb rynkowych i ich konfrontowania z nowymi możliwościami techniczno-produkcyjnymi przedsiębiorstwa.
Źródło: na podstawie R. Rothwell, W. Zegvelt, „Innovation and the small and medium sized firm”, Francis Pinter, Londyn, 1982
Nieliniowy model, zaprezentowany na rysunku 2., został zaproponowany przez R. Rothwella i W. Zegvelta. Zgodnie z nim, innowacja jest traktowana jako logicznie sekwencyjny, chociaż niekoniecznie ciągły proces, który można podzielić na łańcuch funkcjonalnie odrębnych, lecz sprzężonych i współzależnych faz. W modelu tym nie jest istotne, czy pomysł na innowację jest zdominowany czynnikami podażowymi czy popytowymi, lecz czy wzajemnie się one przenikają, tak by innowacja stawała się korzystna dla potencjalnego odbiorcy. Szerzej mówiąc, oznacza to poszukiwanie i wykorzystywanie wszelkich możliwości techniczno-technologicznych do zaspokajania ciągle nowych potrzeb rynku3.
Cechy tradycyjnego podejścia
Podsumowując, można wskazać na kilka najistotniejszych cech charakteryzujących tradycyjny model „zamkniętych” innowacji:
- oparty na wewnętrznych działach badawczo-rozwojowych,
- wymagający dużych nakładów na badania i rozwój, przez co dostępny i wdrażany jedynie przez duże, silne finansowo organizacje,
- silnie skoncentrowany na ochronie własności intelektualnej oraz tajemnicy handlowej przedsiębiorstw.
Henry W. Chesbrough4 opisuje tę zorientowaną wewnętrznie logikę „zamkniętych innowacji” za pomocą kilku specyficznych dla niej zasad:
- powinniśmy zatrudnić najlepszych, błyskotliwych pracowników, tak by najbardziej inteligentni ludzie w branży pracowali u nas;
- chcąc wprowadzić na rynek nowe produkty lub usługi, powinniśmy sami je wymyślać i rozwijać;
- jeśli sami je wymyślimy, osiągniemy efekt pierwszeństwa na rynku;
- firma, która pierwsza wprowadza na rynek produkt, zazwyczaj wygrywa;
- jeśli będziemy liderami w naszej branży pod względem nakładów inwestycyjnych na B+R, będziemy autorami największej liczby, najlepszych pomysłów, co w konsekwencji doprowadzi do osiągnięcia pozycji lidera rynkowego;
- powinniśmy mieć kontrolę nad naszą własnością intelektualną, tak by nasi konkurenci nie czerpali zysków z naszych pomysłów.
Co w takim razie sprawia, że model ten nie sprawdza się w organizacjach? W XXI wieku organizacje stawiające sobie za cel innowacyjność natrafiają na kilka paradoksalnych z pozoru kwestii, które każą im zmienić podejście do innowacji. Podczas gdy w otoczeniu pojawia się mnóstwo nowych pomysłów (a to za sprawą omawianych wcześniej zmian społeczno-gospodarczych, takich jak networking, powszechny dostęp do informacji itp.), wewnętrznie realizowane badania stają się coraz mniej efektywne w kontekście innowacji, zaś zwykłe, stosowane dotychczas procesy zarządzania innowacjami wydają się już nie działać tak sprawnie jak dotychczas. Kolejnym paradoksem jest finansowanie innowacji - podczas gdy z jednej strony na rynku jest mnóstwo wolnego kapitału, który może być przeznaczony na rozwój nowatorskich przedsięwzięć, firmy realizujące jedynie wewnętrznymi siłami procesy innowacyjne, cierpią na niedobór kapitału, aby rozijać nowe, pojawiające się możliwości.
Wymaga to zupełnej zmiany myślenia o innowacjach. Jedną z odpowiedzi jest otwarcie się przez organizacje na otoczenie i interesariuszy, poprzez jak najgłębsze zaangażowanie ich w procesy innowacji. Na rynku zaczynają pojawiać się nowe modele zbliżone do współprodukcji opartej o dostępne dobra.
Zastosowanie podejścia otwartego w procesach innowacyjnych
Open source
- charakterystyka podejścia i jego korzenie
Open source
oznacza w języku angielskim (w dokładnym tłumaczeniu) „otwarte
źródło”. W rzeczywistości termin ten stosowany jest najczęściej
do określenia oprogramowania komputerowego o powszechnie dostępnym
kodzie źródłowym.
Aby dobrze
zrozumieć istotę oprogramowania open source, warto najpierw przyjrzeć
się rozpowszechnionemu komercyjnemu modelowi oprogramowania, określanego
wspólnym terminem closed source. W przypadku oprogramowania
typu closed source, aby móc dokonywać jakichkolwiek
jego modyfikacji, niezbędna jest znajomość kodu źródłowego5
umożliwiającego transformację zapisu binarnego w sekwencję komend
zrozumiałych dla człowieka. W związku z tym programy typu closed
source chronione są przez licencje czy inne prawa własności
przed nieuprawnionym dostępem do ich kodu źródłowego, umożliwiając dokonywanie jakichkolwiek zmian w programie jedynie osobom znającym ten kod.
Oprogramowanie tworzone w takim standardzie traktowane jest zatem na
równi z innymi dobrami, a model biznesowy, w jakim jest ono tworzone
nie różni się od tradycyjnych przedsiębiorstw.
Oprogramowanie
open source charakteryzuje zaś:
- dostęp do kodu źródłowego,
- możliwość swobodnej redystrybucji,
- możliwość modyfikacji programu oraz jego rozpowszechniania na prawach oryginalnej licencji,
- możliwość wprowadzenia ograniczenia, na skutek którego należy zachować oryginalność kodu źródłowego, a własne modyfikacje zawrzeć w formie dodatkowych modułów dołączanych do programu bazowego,
- brak możliwości ograniczania praw do programu jakichkolwiek osób bądź instytucji,
- brak możliwości ograniczania praw do sposobu wykorzystania programu,
- licencją obowiązującą wszystkich użytkowników,
- licencją nieograniczającą się do jednego produktu,
- licencja niewprowadzająca restrykcji w stosowaniu innych programów,
- licencja, która jest technologicznie neutralna6.
Ważnym punktem - nie tyle dla samego rozwoju ruchu OS, co raczej dla jego popularyzacji - była publikacja E. Raymonda The cathedral and the bazar7 pokazująca różnice pomiędzy dwoma konkurencyjnymi modelami produkcji (w tym przypadku software'u): modelem closed source wykorzystywanym przez tradycyjne firmy (w tym także Microsoft) oraz nowym, rosnącym w popularność modelem open source i wskazująca na ewidentne przewagi tego nowego modelu produkcji.
Obecnie coraz szerzej możemy obserwować wykorzystanie pewnych rozwiązań z obszaru open source w procesach innowacyjnych. Coraz więcej firm pozwala bowiem na współtworzenie przez klientów nowych rozwiązań, wykorzystując główne narzędzie modelu open source - społeczności skupiające wokół - najczęściej jasno zdefiniowanego, konkretnego - problemu jednostki nim zainteresowane. Współpracują one z pracownikami firmy, kierując się jedynie wewnętrzną motywacją, chęcią współtworzenia nowych rozwiązań - wszystkie te cechy charakteryzują uczestników systemów open source. Autorzy z dziedziny zarządzania taki model współpracy w procesie innowacji określają często mianem user-driven innovation. Co najważniejsze w takim podejściu - użytkownicy stają się współtwórcami wartości dodanej.
Permanentna innowacja jako źródło przewagi konkurencyjnej
Do niedawna jeszcze wewnętrzne działy badawczo-rozwojowe postrzegane były jako strategiczny zasób organizacji decydujący o jej przewadze konkurencyjnej, stanowiący główne miejsce kreowania wartości, a często nawet jako istotna bariera wejścia do sektora dla innych graczy. Jedynie duże firmy dysponujące znacznymi zasobami pozwalającymi im na prowadzenie długotrwałych programów badawczych liczyły się w konkurencji o palmę pierwszeństwa w sektorze. Firmy takie, jak DuPont, Merck, IBM, GE, AT&T realizowały znaczną cześć badań w swoich sektorach8. Przynosiło im to zarazem największe zyski w branży. Rywale próbujący zająć ich miejsce na rynku, zmuszeni byli podnosić stawkę, tworząc własne laboratoria badawcze.
Obecnie przy niezmienionej istocie przewagi konkurencyjnej tkwiącej w innowacyjności organizacji, zmienia się podejście do ich generowania. Dzięki większej otwartości procesów innowacyjnych w organizacjach nowe firmy zaczynają zagrażać dotychczasowym potentatom innowacyjności. Wykorzystują one prace i projekty badawcze rozwijane wcześniej - i porzucone jako mało perspektywiczne - w innych firmach. Dzięki temu nie muszą inwestować w zbudowanie wielkich własnych laboratoriów badawczych czy prowadzenie prac nad wieloma, potencjalnie obiecującymi projektami, a raczej opierają się na tym, co odkrył już ktoś inny, aczkolwiek nie potrafił (lub nie miał odpowiednich zasobów) tego skomercjalizować. Na tym właśnie polega istota innowacji.
Poniżej przedstawione zostały różne kierunki rozwoju „otwartego modelu innowacji”, uwzględniające zarówno zakres tej otwartości, jak i wymiar modelu biznesowego, którego ona dotyczy.
Najdalej idącym jest oczywiście model pełnej otwartości, od początku procesu innowacyjnego (etapu badawczego), poprzez rozwój produktu, aż po jego komercjalizację (szerzej opisywany przez trzecią opcję przedstawioną poniżej). „Otwartość” ta może być jednak realizowana tylko na określonych etapach procesu, np. w wymiarze powstawania i dopracowywania idei. I o tym wymiarze traktują dwie pierwsze opcje - otwartość w projektowaniu produktów oraz otwartość strategii innowacji.
„Otwartość” w projektowaniu produktów lub usług
Najprostszym przykładem otwierania się firm na potrzeby odbiorców w procesie innowacji są, znane i praktykowane od wielu lat badania marketingowe, dzięki którym firmy uzyskują często wiedzę na temat potrzeb, preferencji, pomysłów swoich potencjalnych klientów. Jednakże, z pewnością, gdyby badania marketingowe przynosiły firmom w pełni satysfakcjonujące wyniki, żadna z nich nie poszukiwałaby innych i sposobów poznania klientów oraz projektowania value proposition.
W ostatnich latach coraz więcej firm, reprezentujących różne sektory gospodarki, włącza użytkowników końcowych swoich produktów we współtworzenie wartości dodanej. Spektrum branż wykorzystujących ten model współpracy sięga od producentów oprogramowania, poprzez przemysł fonograficzny, filmowy, medyczny, samochodowy aż po produkty FMCG9.
Podstawowym założeniem tego nowego modelu jest to, iż wartość dodana dla klienta jest współtworzona przez niego wraz z firmą. Klient staje się zarazem współproducentem końcowego produktu. Co ważne, współtworzenie wartości nie sprowadza się tylko do kastomizacji produktu na końcowym etapie procesu jego dostarczania klientowi (np. wybór koloru i dobór wyposażenia dodatkowego w samochodzie), ale rozpoczyna się już na etapie projektowania produktów. Cały zaś proces tworzenia wartości skoncentrowany jest wokół klientów i ich indywidualnych doświadczeń.
Dla efektywnego funkcjonowania tego podejścia - obok kulturowej gotowości organizacji na włączenie klientów w wewnętrzne procesy - niezbędna jest oczywiście odpowiednia infrastruktura przygotowana przez firmę, umożliwiająca użytkownikom interakcje zarówno z firmą, jak i między sobą.
Coimbatore K. Prahalad i Venkot Ramaswamy10 wyróżniają cztery najważniejsze elementy warunkujące współtworzenie przez klientów nowych produktów:
- dialog,
- dostęp,
- ocena ryzyka,
- transparentność.
Kolejnym wyzwaniem dla firm może być zaoferowanie klientowi dostępu do produktów, już nie tylko na ostatnim etapie procesu - poprzez sprzedaż i przeniesienie praw własności, ale na etapie projektowania i przygotowywania produktów - klienci powinni mieć możliwość „doświadczenia wartości”. O ile firma umożliwi klientowi interakcję na kolejnych etapach projektowania produktów, może wykorzystać jego doświadczenia do wykreowania sobie nowych możliwości rynkowych (np. kreując dodatkowy, nieplanowany wcześniej segment rynku).
Niewątpliwie z przedstawionymi korzyściami dla firmy (płynących z dialogu czy dodatkowych etapów oceny projektów) wiążą się także pewne zagrożenia, związane zwłaszcza z większą świadomością klientów. Kiedy klienci stają się współtwórcami produktów, ich potrzeby informacyjne wzrastają. Nie są oni już zatem nieświadomą ograniczeń funkcjonalnych (i innych) masą, którą bardzo łatwo manipulować, wykorzystując np. określone narzędzia marketingowe. A zatem transparentność informacji jest w takich przypadkach niezbędna dla zbudowania zaufania między klientami a firmami.
Przykład: film Snakes On a Plane
Na ekrany polskich kin w październiku 2006 roku wszedł film - Snakes on a plane, określany już wówczas przez wielu recenzentów, dziennikarzy czy zagranicznych fanów jako prawdopodobnie jeden z najbardziej internetowych filmów wszechczasów.
Zanim padł pierwszy klaps na planie, w prasie i na stronach internetowych pojawiło się wiele informacji o filmie. Ta wstępna popularność i rozgłos możliwe były głównie dzięki blogowi współscenarzysty, Josha Friedmana, któremu dano szansę pracować nad scenariuszem filmu. Sugestie fanów i liczne komentarze do kolejnych wątków sprawiły, że wytwórnia New Line Cinema (producent filmu) postanowiła nie tylko zmienić tytuł filmu (początkowo był to Pacific Air Flight 121), ale także zorganizowała dodatkowe dni zdjęciowe, by nakręcić nowe sceny w filmie, co w normalnych warunkach zdarza się rzadko, a na pewno - jeśli w ogóle ma to miejsce - stanowi ogromny problem. Producenci dodając nowe sceny i zmieniając nieco pierwotny kształt wątków, odpowiedzieli na oczekiwania fanów. Co więcej, już w trakcie pracy nad filmem zaproszono doń nowego aktora - Samuela L. Jacksona - który o filmie dowiedział się już wcześniej z mediów i bez przeglądania scenariusza podpisał z wytwórnią umowę. Nie bez znaczenia pozostał też wpływ kinomanów na obsadę scenarzystów - już po nakręceniu części scen New Line Cinema zatrudniła dwóch nowych scenarzystów, by dopisali dodatkowe sceny i nieco „wygładzili” scenariusz.
„Otwartość” strategii innowacji
„Otwarte innowacje” jako strategia to podejście szersze niż opisywane powyżej, podejście w którym najważniejsze jest przekonanie, że firmy mogą i powinny wykorzystywać zarówno zewnętrzne, jak i wewnętrzne pomysły w swych procesach innowacyjnych. O ile chcą rozwijać swój model biznesowy, powinny równie otwarcie podchodzić do wewnętrznie kierowanych, jak i zewnętrznych ścieżek wprowadzania innowacji na rynek.
Model biznesowy „otwartych innowacji' wykorzystuje zarówno zewnętrzne jak i wewnętrzne źródła pomysłów bez obawy, że wyprowadzenie poza mury firmy pomysłów powstałych wewnątrz pozbawi ją możliwości czerpania korzyści z tych idei. Przeciwnie, wobec braku możliwości rozwijania wszystkich nadarzających się idei wewnętrznymi siłami, firmy stosujące otwarte podejście w procesach innowacji chętnie dzielą się tą wiedzą z otoczeniem, co prowadzi do powstawania większej liczby innowacyjnych produktów niż byłoby to możliwe w warunkach „zamkniętych” procesów.
Co zatem odróżnia podejście „zamknięte” od „otwartego” w strategii innowacji? Przede wszystkim szczelność granic organizacji w przepływie wiedzy wydaje się tu krytycznym czynnikiem. W obliczu przekonania, że przewaga konkurencyjna organizacji może być kształtowana właśnie za murami działów badawczo-rozwojowych firmy, procesy innowacyjne realizowane są jedynie wewnątrz organizacji. Powszechnie znane, „lejkowe ” podejście w tym procesie uwzględnia:
- fazę kreowania pomysłów,
- fazę oceny pomysłów,
- fazę rozwoju pomysłów,
- fazę powtórnej oceny i wyboru pomysłów do wdrożenia,
- fazę wdrażania ich w postaci produktów na rynek.
W warunkach „otwartości” strategii innowacji naczelną zasadą, jaką kierują się decydenci jest maksymalizacja wartości płynącej z różnych pomysłów pojawiających się zarówno w firmie, jak i poza nią. Oznacza to, że formalne ramy organizacji są tylko umowną granicą w przepływie wiedzy między organizacją a jej otoczeniem. Firmy stosujące strategię „otwartych innowacji” równie chętnie rozwijają wewnętrzne pomysły, których nie są autorami, jak i udostępniają swoje pomysły innym organizacjom, jeśli same uznają, że nie będą się nimi zajmować. Często także celowo wyprowadzają pomysły poza ramy organizacji, by (na przykład w postaci start-upów) mogły one być rozwijane bez wpływu wewnętrznych sił politycznych w organizacji. Różnice między „modelem zamkniętym” a „otwartym" w innowacjach łatwo dostrzec, analizując rysunki 3. i 4.
Źródło: opracowanie własne na podstawie H. Chesbrough, „Open innovation. The New imperative for creating and profiting from technology”, Harvard Business School Press, Boston, 2003
Źródło: opracowanie własne na podstawie H. Chesbrough, „Open innovation. The New imperative for creating and profiting from technology”, Harvard Business School Press, Boston, 2003
- priorytetyzację wewnętrzną dla projektów, wynikającą z ograniczoności zasobów organizacji,
- dostępność kapitału służącego finansowaniu rozwoju nowych produktów.
Z drugiej strony tego typu podejście pozwala także organizacjom pozyskiwać nowe idee spoza firmy, bez konieczności angażowania zasobów i poświęcania czasu na rozwój ich od podstaw.
Bez wątpienia każdej ze stron takie podejście pozwala skrócić cykl time-to-market, co w obliczu rewolucji technologicznej, hiperkonkurencji i skracających się cykli życia produktów wydaje się być kluczowym wyzwaniem dla przedsiębiorstw.
Przykład: Procter&Gamble
W 1999 roku firma Procter&Gamble, jako jeden z pionierów otwartości w procesie innowacji, postanowiła zmienić swoją strategię w tym zakresie. Po wielu latach ścisłej ochrony i poufności poczynań swych działów badawczo-rozwojowych firma zdecydowała rozszerzyć zakres ich obowiązków także na świat zewnętrzny, znajdujący się poza jej murami, powołując do życia inicjatywę „Connect and Develop”12. Była ona wyrazem potrzeby wykorzystywania zewnętrznych źródeł pomysłów w P&G. Firma utworzyła w tym celu także stanowisko dyrektora ds. innowacji zewnętrznych, przed którym postawiła cel doprowadzenia w ciągu 5 lat do osiągnięcia 50 proc. udziału (z 10 proc. w 2000 roku) innowacji pochodzących spoza organizacji w ogólnym portfelu nowych produktów.
P&G wyszła z założenia, że skoro w firmie pracuje około 8600 naukowców posiadających najnowszą wiedzę specjalistyczną w swych dziedzinach i są oni w stanie stworzyć dziesiątki nowych produktów, to dlaczego firma nie miałaby wykorzystać potencjału ponad 1,5 mln innych naukowców pracujących poza nią? I dlaczego w takim razie firma miałaby wymyślać wszystko tylko wewnętrznymi siłami?
Obecnie pomysły generowane w laboratoriach P&G, a nie wdrożone przez firmę stają się jawne w ciągu trzech lat i dostępne dla wszystkich zainteresowanych przedsiębiorstw, a nawet bezpośrednich konkurentów.
Przykład: Xerox - Palo Alto Research Center (PARC)
Palo Alto Research Center (PARC)13 to centrum badawczo-rozwojowe firmy Xerox. Utworzono je w 1970 roku na fali sukcesów firmy na rynku kopiarek biurowych, by stworzyć dla niej podstawy do przetrwania i rozwoju w długim okresie - dostarczyć firmie technologie informatyczne, które zgodnie z wizją kierownictwa pozwoliłyby jej przekształcić się z wiodącego producenta kopiarek w wiodącego dostawcę biurowych produktów intensywnych informacyjnie.
Prace prowadzone w PARC poskutkowały wieloma przełomowymi odkryciami w obszarze teleinformatyki i pokrewnych dziedzinach, m.in. wynaleziono tam mysz komputerową i oparty na jej wykorzystaniu graficzny interfejs użytkownika oraz opracowano podstawowe technologie umożliwiające wymianę danych w sieciach komputerowych.
Pomimo tego, uzyskanie zwrotu z inwestycji w innowacje było dla firmy problematyczne. Xerox wprawdzie wykorzystał w swoich produktach np. rezultaty prac nad drukiem laserowym, lecz większość technologii opracowanych w PARC stała się zaczynem powodzenia innych firm, np. wspomniany wyżej graficzny interfejs użytkownika został skomercjalizowany przez firmę Apple, zaś stworzony w PARC edytor tekstów Bravo uległ przekształceniu w Microsoft Word.
Zdziwienie może budzić fakt, iż ów wyciek technologii był w większości przypadków świadomie sterowany przez osoby zarządzające portfelem projektów badawczych w PARC. Otóż gdy w ich ocenie kontynuowanie danego projektu w porównaniu z innymi projektami byłoby drogie i zarazem wniosłoby niewiele do zasobu wiedzy istotnej z perspektywy kluczowych kompetencji firmy, projekt tracił dostęp do finansowania, a prowadzący go badacze otrzymywali możliwość podjęcia decyzji o odejściu z firmy i kontynuowaniu projektu na własną rękę - za cenę stosownej licencji, w ramach już istniejącej organizacji lub nowo zakładanego spin-off. Stało się tak m.in. z Ethernet, tj. technologią sieci komputerowych - w celu jej komercjalizacji powstała firma 3Com.
Łączna wartość rynkowa firm (założonych w opisanych powyżej okolicznościach przez byłych badaczy z PARC) może być wyższa niż wartość firmy Xerox. Można jednak przypuszczać, że gdyby prace nad wyprowadzonymi na zewnątrz technologiami kontynuowano w PARC bez presji konkurencyjnej, nie uległyby one modyfikacjom, które w rzeczywistości zadecydowały o ich użyteczności i tym samym doprowadziły do ich sukcesów rynkowych. Za przykład mogą tu posłużyć protokoły szybkiej wymiany danych w sieciach komputerowych, rozwinięte przez spin-off - firmę SynOptics. W PARC pracowano nad nimi z myślą o obsłudze sieci światłowodowych, które miały upowszechnić się w relatywnie nieodległej perspektywie czasowej. Natomiast w SynOptics dostosowano je do obsługi istniejących sieci zbudowanych z kabli miedzianych.
„Otwarty” model biznesowy
W przywoływanym już artykule E. Raymonda odnajdujemy charakterystykę dwu różnych modeli tworzenia programów informatycznych. Autor przeciwstawia metaforę budowy katedry oraz funkcjonowania bazaru. Katedra - dokładnie zaprojektowana, budowana przez indywidualnych „czarodziejów”, czy hermetyczne, wąskie grupki „magów” - oddawana jest do użytku dopiero, gdy można ją uznać za w pełni gotową. Nie ma tu mowy o przebudowie czy rekonfiguracji. Co więcej, to rzeczony naczelny „mag”, nie użytkownicy, arbitralnie uznaje, kiedy ten moment następuje oraz jak ma wyglądać - w założeniu przeznaczona właśnie dla nich do użytku - budowla. Również on decyduje o wyglądzie, wystroju katedry.
Zupełnie inaczej funkcjonuje bazar - przypomina raczej otwarty system, trudno odnaleźć w nim odgórne mechanizmy arbitralnie zarządzające poszczególnymi elementami, jego wygląd, funkcjonalności, możliwości stale są udoskonalane, a zarazem nieustannie się zmieniają. Co istotne - w tym przypadku klienci bazaru wchodząc nań, sami zaczynają go tworzyć, zaś wybierając określone stoiska, wskazują na najlepsze elementy systemu.
Szczególnie istotnym w rozwoju jakiegokolwiek projektu open source jest dostarczenie wartości użytkownikom danego produktu. Tu produkt - jego ramy, value proposition, a przede wszystkim rozwój - kreowany jest niejako przez popyt. Nierzadko też zdarza się - podobnie jak w wyżej opisywanych podejściach - że twórcy produktu są jednocześnie jego odbiorcami. Rodzi to zatem naturalną, wewnętrzną potrzebę do kreowania takich rozwiązań, które będą w najwyższym stopniu realizowały ich potrzeby, dynamicznie się do nich dostosowując. Wynikiem tego jest stałe usprawnianie narzędzi, podnoszenie ich jakości, rozwijanie nowych funkcjonalności, stałe eliminowanie pojawiających się błędów, tak by, poprzez coraz większe i szersze wykorzystanie produktu, w jak najwyższym stopniu maksymalizować jego wartość dla użytkowników. Stanowi to bowiem jeden z głównych elementów motywujących twórców do dalszego rozwijania produktu. Musi zaistnieć pewna „masa krytyczna” potencjalnych użytkowników, aby był sens robienia czegoś w modelu open source - jeśli grupa potencjalnych użytkowników będzie nieliczna, wówczas trudno wyobrazić sobie, aby zebrało się wystarczająco dużo twórców, którzy byliby zainteresowani wspólnym stworzeniem systemu - nawet realizującego jedynie ich potrzeby. Maksymalizacja wartości oznacza tu pozyskanie jak największej liczby użytkowników mających swój wkład w rozwój produktu.
Zmiany w projekcie opartym na modelu open source zachodzą nieustannie wraz z pojawianiem się nowych potrzeb, nowych problemów czy identyfikowaniem nowych błędów w systemie. Jest on dużo bardziej dynamicznym i całościowym podejściem niż dwa opisywane powyżej. Stąd, ze względu na potrzeby skoordynowania działań, jak również wspomnianej wcześniej efektywnej alokacji i połączenia niezbędnych kompetencji i informacji, małe, dynamiczne, będące w stanie samodzielnie się zorganizować społeczności - skupione wokół konkretnego zagadnienia czy problemu - będą działały bardziej efektywnie. Skupiają one zatem użytkowników i właścicieli produktu14.
Przykład: Linux
Pod koniec 1991 roku rozpoczęła się swoista rewolucja w sektorze IT, kiedy to Linus Torvalds, student Uniwersytetu w Helsinkach, zaprezentował pierwszą oficjalną wersję Linuksa15. Wersja oznaczona była numerem 0.02 i posiadała już możliwość uruchomienia bash'a (Bourne Again Shell) oraz GCC (GNU Compiler Collection). Niestety, poza tym prawie nic nie działało.
Od samego początku głównym motywatorem działania L. Torvaldsa była ciekawość intelektualna, bardziej nawet niż praktyczna potrzeba. Ten 21-letni student starał się zbudować jądro - kluczowy element - prawdziwego, w pełni otwartego systemu operacyjnego16.
Linus Torvalds oparł swój system o Minix - dostępną publicznie wersję systemu Unix, przeznaczoną dla komputerów osobistych. Po około sześciu miesiącach prac deweloperskich przyjaciel L. Torvaldsa pozwolił mu umieścić informację o tym systemie operacyjnym na jednym z uniwersyteckich serwerów. Od tego czasu zaczął on zachęcać innych programistów do wspólnego rozwijania systemu, podkreślając, że oto pojawia się system operacyjny, który każdy z nich może dostosowywać do własnych potrzeb.
Początkowo L. Torvalds dystrybuował Linuksa na podstawie licencji zabraniającej pobierania jakichkolwiek opłat za ten system, wymagającej jednocześnie, by wszelkie inne programy wykorzystujące lub oparte o Linuksa również były powszechnie dostępne. Po około pół roku złagodził te restrykcje. Jednocześnie liczba użytkowników systemu drastycznie wzrosła - od około 100 osób w 1992 roku do około 500 tysięcy w 1994 roku17.
W pierwszych latach prace nad systemem prowadzone były w dosyć spontaniczny sposób, bez szczególnej organizacji i strukturyzacji pracy. Studenci oraz inni entuzjaści skupieni wokół wspólnej idei pisali program, poświęcając swój wolny czas, by w końcu L. Torvalds łączył niemal wszystkie poprawki i rozwinięcia bez niczyjej pomocy.
Od samego początku L. Torvalds był liderem tego projektu. Bardzo szybko jego rola zaczęła koncentrować się bardziej na koordynowaniu projektu, ocenianiu kolejnych elementów pracy czy rozsądzaniu spornych kwestii niż pisaniu kodu kolejnych nitek programu. Najistotniejsze jednak jest, iż jego pozycja w całej społeczności miała swe źródło w charyzmie oraz merytorycznych umiejętnościach L. Torvaldsa
Już od początku istnienia społeczności pracującej nad Linuksem można zauważyć, że najważniejszą jej cechą jest merytokracja. Obecnie, gdy projekt rozrósł się do takich rozmiarów, że L. Torvalds sam nie jest w stanie podejmować wszystkich decyzji, delegowane one zostały na osoby o największym wkładzie w rozwój systemu, cieszących się najwyższą reputację wśród innych członków społeczności. Niemniej, w trudnych sytuacjach, czy też w przypadku podejmowania decyzji o wypuszczeniu na rynek, L. Torvalds nadal pozostaje autorytetem.
W jaki sposób funkcjonuje obecnie ten fenomen? Ile pozostało z pierwotnych ideałów wolnego dostępu do kodu źródłowego, bezpłatnego oprogramowania, woluntarystycznego zaangażowania grona entuzjastów dążących do stałego ulepszania i rozwijania systemu? I w końcu najważniejsze pytanie: czy ten model biznesu może przynieść zyski?
Choć model grupy entuzjastów poświęcających swój wolny czas na tworzenie, udoskonalanie i rozwijanie nowego produktu nie odszedł zupełnie w przeszłość - nadal bowiem setki programistów na całym świecie pracują nad kolejnymi usprawnieniami systemu czy udoskonaleniem jądra do wersji 2.8 - to jednak do projektu już przed kilku laty włączyły się największe światowe firmy informatyczne. Obecnie główny trzon społeczności pracującej nad Linuksem stanowi zespół programistów-następców L. Torvaldsa (wraz z nim samym) w większości zatrudnionych przez firmy technologiczne, takie jak IBM, HP, Intel. Ich zadaniem jest nadzorowanie i koordynowanie rozwoju kilku priorytetowych projektów18. Firmy włączające się w rozwój Linuksa nie tylko zapewniają wynagrodzenie programistom pracującym nad tym projektem, ale również dostarczają niezbędne narzędzia technologiczne, wsparcie marketingowe, a często delegują do tych prac także swoich pracowników.
W celu zapewnienia odpowiedniej priorytetyzacji prac istnieje także swoisty zarząd pomagający podejmować decyzje o kierunkach dalszego rozwoju Linuksa.
Czy w świetle przedstawionych powyżej faktów Linux Inc. nie przypomina jednak tradycyjnej firmy? Zdecydowanie nie. Linux Inc. nie ma siedziby, nie ma CEO, nie publikuje raportów rocznych. Nie jest pojedynczą firmą. Przypomina bardziej wspólne, kooperatywne przedsięwzięcie, w ramach którego pracownicy kilkunastu firm wraz z tysiącami indywidualnych programistów wspólnie pracują nad usprawnieniem i rozwojem systemu19.
Ponadto społeczność ta - jak podkreślają jej członkowie - nie doświadczyła dotychczas znaczących konfliktów. Sporne kwestie dotyczą na przykład kolejnych rozwiązań zaistniałych problemów (w systemie rozwiązywane są w oparciu o argument jakości, efektywności i niezawodności danego rozwiązania). W sytuacjach zaś, gdy oba wypracowane rozwiązania są równie efektywne, ostateczna decyzja dotycząca implementacji podejmowane jest przez lidera.
W rezultacie mamy do czynienia z kształtowaniem się wyjątkowo kooperatywnej, merytokratycznej kultury otwartej społeczności, w której uczestniczyć mogą dowolne osoby oraz firmy, zaś ci, którzy mają w niej najwięcej (merytorycznie) do zaoferowania mogą liczyć na uznanie ze strony innych uczestników oraz znaczące role na forum społeczności.
Gdzie firmy angażujące się w projekt open source mogą dopatrywać się źródeł dochodów, skoro system z założenia może być wykorzystywany bezpłatnie, jak stanowi licencja GPL20, na podstawie której udostępniany jest Linux?
Firmy zaangażowane w Linux Inc. można podzielić na trzy grupy, z których każda w inny sposób komercjalizuje swój wkład w rozwój systemu:
- promotorzy kolejnych „dystrybucji”21 Linuksa - wprawdzie podstawowa wersja Linuksa jest powszechnie bezpłatna, to jednak ze względu na swój mało przyjazny dla użytkownika interfejs, wykorzystywana jest z reguły jedynie przez zaawansowanych informatyków. Pozostali użytkownicy potrzebują nie tylko instrukcji, ale także programów użytkowych, narzędzi do zarządzania systemami plików, narzędzi do instalacji, a przede wszystkim usług wspierających klienta. Te dodatkowe usługi stanowią główne źródło dochodów dystrybutorów, takich jak Red Hat czy Novell;
- producenci komputerów - przedsiębiorstwa, takie jak Dell, HP czy IBM sprzedają komputery osobiste oraz serwery, na których od razu instalują system operacyjny (właśnie Linux). Pozwala im to obniżyć koszt produktów dla użytkownika;
- producenci oprogramowania opierający swoje oprogramowanie o system operacyjny Linux.
OpenCola to pierwszy na świecie napój gazowany typu open source, o smaku przypominającym Coca-Colę lub Pepsi. Zgodnie z duchem open source producent zgodził się na udostępnienie każdemu zainteresowanemu receptury na ten napój. Każdy może go wyprodukować, dowolnie modyfikując recepturę, pod warunkiem, że sam przepis pozostanie jawny.
Napój miał w zamierzeniu stanowić część akcji promującej ideę oprogramowania open source, jednak od pewnego momentu zaczął żyć swoim własnym życiem, a firma stała się znana jako producent napoju, a nie oprogramowania.
Początkowo na puszkach pojawiał się napis Sprawdź źródło na opencola.com. Od czasu, gdy firma zmieniła strategię promocji swoich produktów, recepturę napoju można uzyskać jedynie za pośrednictwem poczty elektronicznej. Próżno też szukać jakiejś wzmianki o napoju na witrynie producenta.
Podobnie jak wolne oprogramowanie, pomysł na wszelkie produkty tego rodzaju, zyskał zwolenników wśród osób, które kładą nacisk na swobodę wymiany idei, a negatywnie oceniają ideę własności intelektualnej i prywatnego dostępu do wiedzy. Zyskał też uznanie wśród przeciwników polityki wielkich korporacji. Wywołał również dyskusję na temat tego, w jakich obszarach ludzkiej działalności da się z powodzeniem zastosować ideę open source. Jak dotąd OpenCola nie stała się zagrożeniem dla żadnego z gigantów, takich jak Coca-Cola czy Pepsi; sprzedano około 150 tys. puszek napoju22.
Przykład: OpenMoko
Jednym z ostatnich hitów i powodem do dumy społeczności popierającej otwarte modele biznesowe jest pierwsza w pełni otwarta platforma do komunikacji mobilnej - OpenMoko23.
OpenMoko to projekt informatyczny, którego celem jest stworzenie platformy, dla telefonów GSM typu smartphone, zgodnej z ideą FLOSS - Otwartego/Wolnego Oprogramowania. Dystrybucja powstaje w oparciu o platformę OpenEmbedded - systemu operacyjnego GNU/Linux.
Pierwszym urządzeniem z platformą OpenMoko będzie wyprodukowany przez firmę FIC telefon Neo1973. Pierwsza wersja urządzenia jest dostępna dla wybranych programistów już od lutego 2007 roku. Od lipca 2007 roku możliwe jest zakupienie deweloperskiej wersji telefonu w cenie 300 USD. Dostępność w ofercie publicznej przewiduje się już wkrótce.
Twórcy wierzą, że dzięki pierwszemu telefonowi, całkowicie opartemu na „otwartym oprogramowaniu”, zrewolucjonizują rynek urządzeń telekomunikacyjnych24. Dzięki niemu będziemy mogli instalować nowe, pojawiające się na rynku oprogramowanie do starego telefonu - stanie się on dostosowany do naszych nawet najbardziej wysublimowanych potrzeb, a tym samym nawet zaawansowane oprogramowanie stanie się o wiele bardziej dostępne.
Jaka przyszłość dla innowacji?
Jak pokazują
przedstawione powyżej (zarówno wyniki badań literaturowych, jak też
poszczególne opisy przypadków) podejście open source w procesie innowacji
moze przybrać różny kształt, a przede wszystkim mieć różny zakres
- od czerpania inspiracji od klientów i realizowania dalszych etapów
procesu wewnętrznymi siłami, aż po zorganizowanie całego biznesu
w formie otwartego przedsięwzięcia.
Jako że sam
nurt open source, a zwłaszcza jego inklinacje dla nauki o zarządzaniu
dopiero są kształtowane, trudno wobec tego wyróżnić jednoznacznie
poszczególne kierunki jego rozwoju. Wydaje się, iż najłatwiejsze
do wdrożenia dla organizacji jest jedynie włączenie klientów w procesy
projektowania czy dostarczania produktów. Niemniej, jak pokazują poszczególne
przykłady, niektóre z przedsięwzieć ewoluują coraz bardziej w kierunku
„otwartego” modelu biznesowego (od user-driven innovation do
open source business model). Przed nauką o zarządzaniu (a tym
bardziej ekonomią) stoi zatem wyzwanie opisania i zanalizowania tych
wyłaniających się zjawisk.
Bibliografia
- H.W. Chesbrough, Graceful exits and foregone opportunities: Xerox's management of its technology spin-off companies, „Business History Review” 2002, nr 4.
- H.W. Chesbrough, Open innovation. The New imperative for creating and profiting from technology, Harvard Business School Press, Boston 2003.
- M. Dąbrowski, Wybór rozwiązań technologicznych w e-edukacji, „e-mentor” 2004, nr 5 (7).
- S. Hamm, Linux Inc., „BusinessWeek” 2005, nr 31/01.
- B. Jaruzelski, K. Dehoff, The Customer Connection: The Global Innovation 1000, „strategy + business” 2007, nr 10/12.
- J. Lerner, J. Tirole, The Simple Economics of Open Source, grudzień 2000, [maszynopis].
- D. Peppers, M. Rogers, The Customer Is Always Right, „The Marketer” 2006, nr 28/10.
- C. K. Prahalad, V. Ramaswamy, The future of competition. Co-creating unique value with customers, Harvard Business School Press, Boston, 2004.
- E. Raymond, The cathedral and the bazar, „Knowledge, Technology and Policy” 1999, t.12, nr 3.
- I. Rutkowski, Rozwój nowego produktu. Metody i uwarunkowania, PWE, Warszawa 2007.
- N. Sakkab, Connect and Develop Complements Research and Develop at P&G, „Research-Technology Management” 2002, nr 3.
- R. Rothwell, W. Zegvelt, Innovation and the small and medium sized firm, Francis Pinter, Londyn 1982.
- G.L. Urban, J.R. Hauser, Design and Marketing of New Products, Prentice Hall, Englewood, 1993.
Netografia
Dodaj do: Facebook Wykop Twitter.com Digg.com
Komentarze
Nie ma jeszcze komentarzy do tego artykułu.
Podobne zagadnienia
Internet jako efektywna przestrzeń edukacyjna
Bariery komercjalizacji prac badawczych w Polsce
Człowiek w dobie konwergencji mediów – relacja z konferencji
Polska Akcja Humanitarna jako organizacja ucząca się w świetle badań własnych
Kierunki rozwoju uniwersytetów trzeciego wieku w Polsce
Portal e-Justice jako element budowy społeczeństwa informacyjnego Unii Europejskiej
Machinima – edukacyjny wymiar kina wirtualnej rzeczywistości
Media - Edukacja - Kultura. W stronę edukacji medialnej - relacja z konferencji
Przypisy
1 Za: D. Peppers, M. Rogers, The Customer Is Always Right, „The Marketer” 2006, nr 28/10.
2 Por. B. Jaruzelski, K. Dehoff, The Customer Connection: The Global Innovation 1000, „strategy + business” 2007, nr 10/12.
3 I. Rutkowski, Rozwój nowego produktu. Metody i uwarunkowania, PWE, Warszawa 2007.
4 Por. H.W. Chesbrough, Open innovation. The New imperative for creating and profiting from technology, Harvard Business School Press, Boston 2003, s. 20.
5 Program komputerowy to w pewnym uproszczeniu określona sekwencja instrukcji napisanych przez człowieka a wykonywanych przez komputer. Komputery jednak mogą realizować jedynie instrukcje zapisane w systemie binarnym. W związku z tym program komputerowy, napisany najpierw w formie zrozumiałej dla człowieka, stanowiącej kod źródłowy, musi następnie zostać przetłumaczony, inaczej zakodowany (przy użyciu innych programów) w formę binarną, odczytywaną przez komputer.
6 The Open Source Definition, Open Source Initiative (OSI), www.opensource.org/.... za: M. Dąbrowski, Wybór rozwiązań technologicznych w e-edukacji, „e-mentor” 2004, nr 5 (7), s. 44.
7 E. Raymond, The cathedral and the bazar, „Knowledge, Technology and Policy” 1999, t. 12, nr 3, s. 23-49.
8 H. Chesbrough, Open innovation. The New imperative for creating and profiting from technology, Harvard Business School Press, Boston 2003, s. 19.
9 Fast Moving Consumer Goods (produkty szybko rotujące, zbywalne)
10 C.K. Prahalad, V. Ramaswamy, The future of competition. Co-creating unique value with customers, Harvard Business School Press, Boston 2004.
11 Autorka jest świadoma, iż w normalnych warunkach finansowanie przedsięwzięć nowych, dopiero powstających obarczone jest większym ryzykiem, a co za tym idzie, tradycyjne finansowanie zewnętrzne (np. kredyty bankowe, pożyczki, giełda itp.) jest dla takich firm trudno dostępne, niemniej przedstawiana sytuacja dotyczy specyficznych organizacji firm podejmujących się rozwoju nowych, często przełomowych produktów lub technologii, obarczonych dużym ryzykiem, ale zarazem o obiecujących perspektywach.
12 Na podstawie N. Sakkab, Connect and Develop Complements Research and Develop at P&G, „Research-Technology Management” 2002, nr 2, s. 38-45.
13 Na podstawie H.W. Chesbrough, Graceful exits and foregone opportunities: Xerox's management of its technology spin-off companies, „Business History Review” 2002, nr 4. oraz H.W. Chesbrough, Open innovation. The New imperative for creating and profiting from technology, Harvard Business School Press, Boston 2003.
14 Jako właścicieli należy tu rozumieć twórców, jednostki kontrybujące lub aktywnie przyczyniające się do rozwoju produktu.
15
Rozwój systemu Linux datuje się od momentu wysłania przez Linusa Torvaldsa wiadomości następującej treści: Witam wszystkich, którzy używają Minix. Przygotowuję właśnie wolny (dostępny dla wszystkich) system operacyjny (traktuje to jako hobby, nie zaś profesjonalne zajęcie jak GNU) dla procesorów 386 AT. To „wisi w powietrzu” już od kwietnia i wydaje się być gotowym (nabierać konkretnych kształtów). Chciałbym otrzymać informację zwrotną dającą pogląd na to, co ludziom podoba się, a co nie w Minixie, gdyż mój system operacyjny w pewnym sensie go przypomina (np. pod względem układu systemu plików).
Obecnie umożliwia on uruchomienie bash'a (1.08) oraz GCC (1.40) i wydaje się to działać. Oznacza to, że w ciągu kilku miesięcy powinienem mieć już coś praktycznego, chciałbym więc wiedzieć, jakie cechy tego systemu byłyby Wam (jako użytkownikom tego systemu) najbardziej potrzebne. Wszelkie sugestie są mile widziane, aczkolwiek nie mogę obiecać, że wszystkie zrealizuję :).
Linus
PS. TAK, to oprogramowanie jest wolne i ma wiele nitek (wiele wątków). Nie daje się jednak i prawdopodobnie nigdy nie będzie się dało przenieść go na inne procesory niż 386 AT jest to bowiem cały sprzęt, jaki posiadam. Źródło: Linus Benedict Torvalds, What would you like to see most in Minix? [wypowiedź z dn. 25.05.1991 na forum dyskusyjnym comp.os.minix].
16 Czyli systemu z udostępnionym kodem źródłowym, co umożliwia pełną jego modyfikację, kopiowanie, nieograniczone rozpowszechnianie.
17 J. Lerner, J. Tirole, The Simple Economics of Open Source, grudzień 2000, [maszynopis].
18 Charakterystyczną cechą projektów open source jest bowiem dezagregacja ich na ściśle definiowane podprojekty.
19 S. Hamm, Linux Inc, „BusinessWeek” 2005, nr 31/01.
20 Licencja GPL (General Public Licence) oznacza możliwość bezpłatnego kopiowania, użytkowania i rozpowszechniania binariów, jednak pod warunkiem, iż rozprowadzane są wraz z kodem źródłowym (dotyczy to także wersji komercyjnych Linuksa).
21 Dystrybucje Linuksa są zbiorem gotowych do instalacji, prekompilowanych pakietów; zawierają one narzędzia do instalacji i deinstalacji pakietów, jądro, ale także wiele programów usługowych, narzędzia do zarządzania systemami plików, tworzenia i obsługi kont użytkowników, zarządzania siecią itp. Różnią się one sposobem przygotowania systemu, mechanizmami łączącymi pakiety w jedną całość, programem instalacyjnym, przeznaczeniem oraz rodzajem i liczbą dołączanych programów. Głównymi dystrybucjami Linuksa obecnie są: Slackware (dystrybucja niekomercyjna), Debian (dystrybucja niekomercyjna), Mandrake (dystrybucja niekomercyjna), Red Hat (dystrybucja komercyjna), Caldera (dystrybucja komercyjna), SuSe (dystrybucja komercyjna), PLD (dystrybucja niekomercyjna), Gentoo (dystrybucja niekomercyjna).
22 pl.wikipedia.org/wi.... [19.03.2008].
23 www.openmoko.org. [19.03.2008].
24 pl.wikipedia.org/wi.... [19.03.2008].