We the Media

Dla większości ludzi Internet nie jest niczym nowym. Nie oznacza to oczywiście, ze Internet jest taki sam. Zaczynamy żyć Internetem, a Internet nami. Weszliśmy w fazę asymilacji kultowej sieci. Pokolenie Z to pierwsze pokolenie, które nie zna świata bez internetu. Dla każdego nowego człowieka, Internet będzie czymś co zastał w rzeczywistości. Czymś danym.

Od jakiegoś czasu nie zajmowałem się aktualizacją modeli ani treści związanych z teorią mediów. Jednak Internet nie stoi w miejscu. Oczywiście na co dzień trudno dostrzec i uchwycić istotę zmian. Kiedy jednak sam zaczynam sobie rysować po własnych modelach w trakcie wykładu, zaczynam dostrzegać to, że wymagają przemyślenia. Z drugiej strony w styczniu 2015 roku wydarzyło się coś, co dało mi do myślenia w dwóch zakresach: data publikacji (2015) oraz kluczowych tez zawartych w New Clues, a przede wszystkim dualizmu WEB-APLIKACJE. Dlatego rozwijam swój MODEL ROZWOJU INTERNETU do obecnej wersji.

model rozwoju internetu

Kluczowe przemyślenia:

  • Przede wszystkim udało mi się pogodzić kwestie nazewnictwa poszczególnych faz rozwoju internetu. Stąd – zniknęły cudzysłowy przy terminach Web 1.0 i Web 2.0. Aczkolwiek na tym etapie kończę taką numerację. Nie da się wyróżnić „Web 3.0”, ze względu na to, że obecnie Internet przybiera inny charakter wynikający z dualizmu Web/Aplikacje.
  • Z tego względu wyróżniłem nowe okresy „WEB-ONLY INTERNET” oraz „WEB/APP INTERNET”. Można przyjąć, że do 2015 roku Internet opierał się na logice WWW. Jednak coraz większy udział aplikacji, w tym aplikacji mobilnych zmienia charakter korzystania z sieci. W efekcie zmieni się zatem sam charakter sieci (zgodnie z założeniami kolektywnej inteligencji).
  • Wprowadziłem nowy model korzystania z sieci – wirtualizację. Wraz z kulturową asymilacją sieci – jako elementu świata, który jest dany – zanika rozróżnienie na realny-wirtualny. Nasz kalendarz w chmurze, rozmowy ze znajomymi, aplikowanie o pracę w serwisie rekrutacyjnym są dla nas tak samo realnym działaniem jak jego fizyczny odpowiednik.
  • Charakterystyczne narzędzia sieciowe dla nowego etapu rozwoju internetu do sieci prywatne lub sieci ukryte (sieci niedostępne). Wraz z coraz większa otwartością, a co za tym idzie dostępnością kontekstów i treści coraz większą rolę odgrywać będzie to, co niedostępne. Ten etap wydaje się kończyć rolę internetu jako innowacji społecznej.
  • Podstawowa idea rozwiązań sieciowych to dzisiaj kooperacja. Już nie „współpraca”. Kooperacja rozszerza podmiot relacji (z negocjowania/transakcyjności na współakcyjność) – patrz: sharing economy.
  • Wprowadziłem także nowy model użytkownika sieci. Od dawna bowiem identyfikujemy się online za pomocą swojej realnej tożsamości i wizerunku (wspierają to dostawcy chmur, integrując konta coraz większej ilości usług sieciowych). W czasach gdy dla Big Data imię, nazwisko i e-mail traktowane są jako „dane śmieciowe” (każdy już praktycznie je ma) kluczowy dla naszej identyfikacji staje się element relacyjny. Określam to jako „Social ID”.
  • Charakterystyczne dla nowego etapu rozwoju internetu jest to, że dominującym sposobem dostępu do sieci stał się dostęp permanentny (zaczynaliśmy od intencjonalnego).
  • Dostęp permanentny wywołuje dwa kluczowe procesy – z jednej strony to, że nasz mobilny desktop staje się tym obszarem, którym starają się zawładnąć podmioty internetowe. Z drugiej za zmianą logiczną na poziomie połączenia (już nie „łączenia się”) – nie z urządzeniem czy punktem ale z naszą „kieszenią”.

 

MACIERZ ROZWOJU INTERNETU

Odnosząca się do podmiotów relacji. Ostatnia wersja jaką publikowałem pochodziła z 2008 roku. Poniżej zamieszczam w wersji zaktualizowanej. Można nawet powiedzieć, że poprzednia wersja była wersją niedokończoną. Dzięki ujednoliceniu i określeniu skali czasowej oddziaływania Web 2.0 można teraz dopełnić macierz. Przy czym termin „WEB 3.0” zachowałem, aby utrzymać ciągłość z poprzednim schematem.

macierz rozwoju internetu

Kluczowe przemyślenia:

  • Web 2.0 rozwidla się na dwa integralne strumienie: treści i relacji. To dwa podstawowe wymiary jakie stanowią podstawę adaptacji Social media.
  • Przedstawiona macierz dobrze oddaje także indywidualny model użytkowania sieci – ODBIÓR-RELACJE-TWORZENIE-ASYMILACJA, ze wskazaniem podmiotu na każdym etapie.
  • Uszczegółowiłem wymiary pionowe i poziome – stopień tworzenia wartości, stopień złożoności narzędzi.

 

ROZKŁAD SIŁ ZAANGAŻOWANIA

To nowy schemat jaki zamyka powyższe dwie aktualizacje. Nazwałem go roboczo „3 SIŁY SPOŁECZNE”, które integrują wiele obszarów którymi się zajmuję.

„Siła” pojawia się w opisie ze względu na wzajemne oddziaływania trzech przedstawianych elementów. Można zaryzykować tezę, że wymiar CZAS może sprawiać wrażenie „bezczasowego” w przypadku dużej intensywności relacji treść-bliskość (czas staje w miejscu). Szerzej, to Płynna nowoczesność.

Relacje bliskość-czas pochłaniają treści (chęć bycia zawsze razem).

Relacje treści-czas pochłaniają bliskość (niekończąca się opowieść).

3 siły społeczne

Kluczowe przemyślenia:

  • Doprecyzowuję znaczenia: Social graph (sieć relacji bliskości, sieć w której kluczową rolę odgrywa siła relacji) oraz Interest graph (sieć relacji treści).
  • Dodaję trzecią siłę – kontekst (sieć relacji złożonych)

Cyfrowy Rōnin

Prekariat to kolejne bezdennie puste słowo, którego kowadło stanowią najróżniejsze hipotezy ekonomiczne, które – podobnie jak cała ekonomia – nie są nauką, ale w najlepszym razie – zbiorem przekonań.

Czymże jest bowiem „prawo pracy” lub „gwarancja zatrudnienia”? Pojęcia te, wymyślone zresztą na gruncie ekonomii, zaprzeczają jej samej. Zaprzeczają paradygmatowi kapitalizmu. Kapitalizm jako taki, rozpatrując go „jakim jest” (jako zbiór luźno powiązany tez) nigdy nie może posługiwać się pojęciem gwarancji. Zresztą nawet samo to określenie (stosowane praktycznie na gruncie kapitalizmu), oznacza nigdy nie więcej niż – gwarancję ograniczoną (czasową, zakresu lub sposobu użytkowania, itp.). Nawet gwarancja wieczysta jest pewną ideą, ponieważ zakłada nie tylne nieoznaczoną żywotność, ale uśrednioną długoterminową użyteczność.

Dlatego, pojęcie prekariat, jest kolejnym sloganem – być może użytecznym i pożytecznym, z punktu wiedzenia zwrócenia uwagi na pewne aspekty współczesności, ale nie mówiącym za wiele o jej istocie. Jest za to niezwykle szkodliwe z punktu widzenia utrwalania przekonania o wiodącej roli ekonomii w rozstrzyganiu problemów świata.

Dlaczego?

Rozpatrywanie współczesnych struktur organizowania się społecznego, z punktu widzenia ekonomii – jest pospolitym błędem, który nie powinien przydarzać się naukowcom. Ekonomia sama z siebie nie jest w stanie wytłumaczyć niczego.

Jeśli przyjmiemy, że dwa konstytutywne elementy rzeczywistości to materia i relacje („zależności” – np. takie jak grawitacja), to okaże się, że ekonomia to jedynie piaskowy zamek, który raz uformowany przetrwa tyle, na ile pozwala mu otoczenie (relacje z „rzeczywistością”). A otoczenie jako takie („fizyczna obiektywność”) możemy tłumaczyć w najlepszym układzie w kategoriach złożoności.

To niezwykle ciekawe,  w jakim stopniu analogie pomiędzy ekonomią a fizyką są na miejscu. Podobnie jak teorie Newtona wydawały się atrakcyjne, ponieważ tłumaczyły, to co najbliższe, podobnie ekonomia sprawdza się w tłumaczeniu ceny mleka, miedzi, czy bitcoin’ów. Niestety w zakresie tłumaczenia relacji tych trzech ekonomia jest bezradna.

To samo zaczyna dotyczyć chyba Wikipedii, która podając niepełną definicję, w istocie uczestniczy w ekonomii rynków informacyjnych. Nie jest zatem obiektywna. Wikipedia kończy się moralnie. Przesadnie wysokie pozycje Wikipedii w wynikach wyszukiwania Google też nie są przypadkiem. W ewidentny sposób Google premiuje Wikipedię w swoich wynikach wyszukiwania (tak na marginesie – listek figowy „don’t be evil” został porwany przez tajfun uberonomii [margines nr 2 – tylko programiści chyba dalej wierzą w to, że misję firmy można definiować w oparciu o pojęcia „dobra” i „zła”, co tylko potwierdza tezę o jednokierunkowości takiego sposobu kształcenia]). Kto bowiem szuka dzisiaj informacji w Google?

Tylko nieświadomi.

Samoorganizacja i samokonstytucja, także w części dotyczącej usieciowienia.

Nie wiem jeszcze jak „to” nazwać.

Bezpaństwowość, bezpańskość  – człowiek fala, punkt falowy.

過年度生

[rōnin is a student who has failed and consequently is studying outside of the system for entrance in a future]

Digitalizm

To nie koniec historii. To reset historii.

Jak kończy się „koniec wielkich narracji”? Jak w ogóle możemy tłumaczyć wiek szybkości porzez muzealność „modernizmu”?

Jedyny „izm” o konstytutywnym znaczeniu dla współczesności to digitalizm.

Ponowoczesność czy Pornonowoczesność?

Brutal transparency.

real time data correlation.

PRISM.

 

Demokratyczne totalitaryzmy.

Tyrania kultury Zachodu.

 

context is the new content.

 

Współczesność to po prostu zbiór aktualnych idei.

Komunikacja to przepływ idei między ośrodkami.

 

 

Usieciowienie to nie przepływ, to inny stan struktutalny.

Złożoność jest zawiniona przez informacje.

 

 

We The Data.

http://networkeddigital.com/2014/05/17/definicja-cyfryzacji/

 

More is Different

Praca konsultanta ma to do siebie, że daje dostęp nie tylko do konkretnych projektów, ale przede wszystkim dostęp do konkretnych organizacji. Co więcej, sam wymiar ilościowy nie jest tak istotny, jak symultaniczny dostęp do tych podmiotów. W ciągu ostatnich kilku miesięcy miałem okazje obserwować od wewnątrz i od zewnątrz kilkanaście dużych korporacji i instytucji. Innymi słowy – miałem możliwość obserwowania pomiotów działający w tym samym otoczeniu rynkowym. W niektórych sytuacjach wręcz, moje spotkania w różnych organizacjach odbywały się dosłownie – jedno po drugim, nawet tego samego dnia.

W ciągu ostatnich 15 lat poznałem ponad 40 różnych organizacji. Takie „pole badawcze” pozwala postawić ciekawa tezę – bez względu na branżę, rodzaj działalności (biznes, instytucja) czy segment rynkowy głównym problemem z jakim tak naprawdę mierzą się organizacje nie jest wcale kwestia modeli biznesowych. Właściwie każda z nich posiada w mniejszym lub większym stopniu wszystkie składniki biznesowe (kapitał , marka, know-how, dane, ludzi) które posiadają również jej skuteczniejsi konkurenci lub benchmarki rynkowe, do których dana organizacja aspiruje.

Głównym problemem dużych organizacji są one same. Czy też może bardziej precyzyjniej – duże podmioty w obecnie obserwowanej formie organizacji pracy są coraz mniej skuteczne.

Oczywiście na drugim końcu tej swoistej „skali efektywności organizacyjnej” znajdują się firmy innowacyjne, zwykle z branży digital. Jednak tym, co w największym stopniu odróżnia pomioty nowej gospodarki od ich tradycyjnych poprzedników są nie modele biznesowe (np. subskrypcja) ale właśnie modele organizacyjne. Google, Amazon, Apple, a teraz coraz częściej Uber czy inne podmioty działające w modelu tzw. „sharing economy” stanowią wzór do naśladowania dla tradycyjnych firm i instytucji.

Chyba dlatego najczęściej powtarzanym słowem jakie słyszałem w 2014 roku na mojej ścieżce zawodowej było słowo „zmiana”. Przy czym, co także symptomatyczne – mało kto, bez względu na zajmowaną funkcję (CEO, managerowie, specjaliści, pracownicy produkcji) używał słowa „restrukturyzacja”. Zmiana stała się czymś, co można określić jako stan „new normal”.

Restrukturyzacja, rozumiana w taki sposób jak jeszcze kilka lat temu, była procesem prowadzącym od jednej formy zorganizowania do innej. W domyśle tej pożądanej, lepiej odpowiadającej nowej rzeczywistości biznesowej. Teraz już tak nie jest. Głównym powodem takiego stanu rzeczy jest to, że tak naprawdę nie za bardzo wiadomo w jaką stronę zmieniać organizację. Jaką przyjąć strukturę.

Dyskusja o strukturach jest niezwykle problematyczna, ponieważ współczesna rzeczywistość biznesowa to zderzenie konkurencji globalnej z lokalizmem, personalizacją i coraz większymi wysycaniem nisz rynkowych opartych na tym koncepcie. Efekt skali i optymalizacja jaką dają duże organizacje wiąże się z radykalnym obniżeniem się elastyczności, tym przede wszystkim szybkości reakcji na zmiany rynkowe.

Nowe modele organizacyjne odnoszą sukces nie ze względu na swój przełomowy charakter, ale ze względu na porażkę tradycyjnej gospodarki. Są zwyczajnie strukturami na miarę nowoczesności. Rosnące kompetencje i świadomość pracowników, nowy podział pracy w społeczeństwie sieciowym i coraz większa mobilność ludzi, kapitału i informacji sprawia, że zmienia się sam charakter zarządzania.

Mniejsze, elastyczne i niezwykle dynamiczne małe organizacje zaczynają niwelować dotychczasową przewagę efektu skali z jakiej korzystały np. korporacje właśnie poprzez nowy sposób patrzenia na to, w jaki sposób się organizują.

A mniejsze podmioty coraz częściej organizują się w przedsiębiorstwa sieciowe (Castells), które podnoszą pojęcie efektywności na nowy poziom. W praktyce, oznacza to, że w szczególnych przypadkach tworzą sieci relacji biznesowych uruchamianych tylko w razie konieczności. Sieci takie powstają wyłącznie w jakimś konkretnym celu, realizacji jakiegoś zadania i równie szybko wygaszają się po osiągnięciu celu. Przy czym trzeba zwrócić uwagę na istotną różnicę pomiędzy „elastycznym zarządzaniem zasobami” a przedsiębiorstwem sieciowym. Od dawna agencje reklamowe rekrutowały zespoły do obsługi wygranych kontraktów reklamowych. Po utracie klienta, cały zespół specjalistów był zwykle zwalniany. W dzisiejszych czasach nie jest to jednak już wystarczająco elastyczne podejście zarówno ze względu na natychmiastowość wszystkiego jak i ze względu na to, że „wczorajsi pracownicy” są już przedsiębiorcami sieciowymi (to m.in. jeden z powodów problemów rekrutacyjnych). W przypadku wysoko wykwalifikowanych, najbardziej pożądanych pracowników dla dużych organizacji coraz częściej jedyną opcja jest współpraca kontraktowa.

Dla przedsiębiorstw sieciowych, nastawionych na maksymalizację efektywności zasoby usieciowione dostępne są od ręki, ze względu na relacyjną zależność ich dostępności. Dostępność tych zasobów zależy od siły relacji. Dotyczy to zwłaszcza, najcenniejszych z nich. Te najbardziej wartościowe są dostępne tylko drogą relacyjną.

Konkurencja rynkowa polega dzisiaj na walce o dostęp do kluczowych zasobów, a te charakteryzują się niską dostępnością. Ostatecznie wygrywa ten podmiot, który dzięki własnej sile relacyjnej dysponuje sieciowym zasobem kluczowym – najczęściej wyłącznie czasowo. Przepływy kluczowych zasobów sprawiają też, że coraz trudniej jest utrzymać wysoką efektywność biznesową jednemu pomiotowi przez długi czas (skracanie się cyklów koniunkturalnych i wysoka rotacja na listach najcenniejszych marek).

Cechą kluczowych zasobów gospodarki sieciowej (specjaliści, eksperci, butiki, małe firmy) jest dążenie do tworzenia maksymalnie wielu wartościowych powiązań (inwestycja w relacje), minimalizowanie kosztów własnych oraz poszukiwanie komplementarnych z własną siecią nisz rynkowych.

Jeśli pogodzimy się takim a nie innym obrazem nowoczesnego rynku okaże się, że model strukturalny dużych organizacji kompletnie rozmija się z tą rzeczywistością. I to właśnie stanowi główne źródło ich problemów.

Przykładem nowego zorganizowania się jest „sharing economy” , np. Uber. W takim modelu organizacji zasoby wykorzystywane są w bardziej efektywny niż dotychczas sposób. Przy czym często, co wydaje się herezją z punktu widzenia tradycyjnego rozumienia „zasobów”, to często sam zasób decyduje o tym w jaki sposób, kiedy i w jakim zakresie przyłączy się do modelu biznesowego. Usieciowiony sposób myślenia tworzy raczej „wejścia” do własnego modelu biznesowego. Tworzy potencjalności relacji. Zamknięte, złożone i rozlegle organizacje mają duży problem z przyjęciem takiej logiki, takiej filozofii biznesowej

Dlatego kluczową zasadą organizującą myślenie biznesowe powinna być zasada „More is Different” (innowacja jako destrukturalizacja).

Odmienny sposób zorganizowania z założenia dostarcza innych wyników. Firmy i instytucje muszą się nauczyć tej nowej logiki, logiki integracji przeciwieństw. Łączyć skalę i efektywność, powoływać płaskie struktury nawet w bardzo licznych organizacjach i nauczyć się działać nie w oparciu o e-mail ale o relacje.

Duże organizacje charakteryzują się zbyt niską efektywnością pracy. Bardzo często zapominamy, o tym, że drastyczne odchudzanie organizacji – czyli zwolnienia pracowników, prowadzi nie tylko do krótkoterminowego obniżenia się kosztów, ale także do skokowego zwiększenia efektywności właśnie ze względu na jakościową zmianę liczebności organizacji. Inne efekty zwolnień wysoko wykwalifikowanych zasobów to średnioterminowy wzrost konkurencji i presji rynkowej ze strony przedsiębiorstw usieciowionych. To właśnie z tej grupy, bardzo często rozczarowanej dużymi organizacjami (emocje zwalnianych odgrywają duża rolę w kształtowaniu ich opinii), rekrutują się kolejne węzły sieciowych zasobów kluczowych.

Oczywiście duże organizacje nie znikną z dnia na dzień. Należy zatem poszukiwać nowych, bardziej optymalnych sposobów organizowania działalności biznesowej lub instytucjonalnej. Tutaj przykładów można szukać zarówno w logice przedsiębiorstwa usieciowionego jak i u samego źródła dużych organizacji w ogóle – czyli doktrynach wojskowych.

Armia to, taki rodzaj organizacji, która z jednej strony jest w stanie działać na dużą skalę, a z drugiej jest w stanie przewidywać (a zatem kontrolować) działania, nawet najmniejszych komórek organizacyjnych, nawet w sytuacji całkowitego braku komunikacji. Składa się na to określona, sieciowa logika decyzyjna (np. domyślne wykonywanie ostatniego rozkazu w sytuacji odcięcia, autonomia i zdolności improwizacji dowódcy na każdym szczeblu dowodzenia czy niezwykle jasna sukcesja w przypadku jego braku). Główną cechą idealnej armii jest zatem daleko zaawansowana zdolność do dekompozycji organizacyjnej i decyzyjnej oraz niezwykle szybkiego powrotu do zorganizowania i działania w dowolnej skali. Co ciekawe, od 15 lat główny największy obszar zmian jaki dotyka sfery militarnej ma właśnie charakter organizacyjny. Tradycyjna armia jest właściwie bezużyteczna do rozwiązywania obecnych konfliktów (czyli działania na swoim „rynku”). Dzieje się tak ze względu na nowe wyzwania pola walki militarnej (a nie ekonomicznej), takie jak choćby społeczna dostępność informacji o prowadzonych działaniach, pojawienie się nowych rodzajów konfliktów – wojen asymetrycznych, hybrydowych, ekonomicznych czy cybernetycznych.

Oczywiście doktryny militarne nie stoją w miejscu i współczesne, nowoczesne organizacje militarne zaadoptowały nowe formy prowadzenia swojego „biznesu”. Coraz częściej w literaturze pojawia się pojęcie „armii sieciowej” w tym odmiennej definicji jej kluczowych komponentów. Współczesna armia na skutek „informatyzacji wojny” także przechodzi przez proces zmian z dotychczasowej organizacji i podziału sił zbrojnych (wojska powietrzne, morskie i lądowe) na nowy, zastępowany przez siły: rozpoznania, broni precyzyjnych i komunikacji (B. Balcerowicz).

Organizacje, które dalej myślą w sposób silosowy a nie sieciowy są bardzo wrażliwe na zmiany rynkowe i są niezwykle podatne na wszelkie zaburzenia (których jest coraz więcej). Z drugiej strony organizacja funkcjonalna nie daje niezbędnej, prawidłowej wiedzy o rynku (rozpoznanie), szybkich, wysoko wyspecjalizowanych narzędzi (precyzja, której cechą jest nie tylko skuteczność koncentracji, ale także posiadanie znacznie bardziej profesjonalnych narzędzi przy niższym koszcie ogólnym) oraz odpowiedniej szybkości korelacji danych.

Dlatego ogólne wnioski jakie nasuwają się w kontekście czynników efektywności biznesowej organizacji to:

  1. To nie modele biznesowe ponoszą klęskę, ale organizacje. Chodzi mi tutaj o dwa wymiary – z jednej strony sam sposób zorganizowania przedsiębiorstwa (zamknięta, głęboka struktura organizacyjna) jak i specyficzna, indywidulana kultura, której jednolity charakter przegrywa z różnorodnością sieciową.
  2. Rzeczywistość biznesowa zmieniła się w ciągu ostatnich 10 lat tak szybko, że korporacje nie zdążyły się do niej zaadoptować pod względem innowacji organizacyjnej.
  3. Kluczowym czynnikiem, który decyduje dzisiaj o sukcesie rynkowym jest połączenie dwóch czynników – elastyczności i skali. Nie jest to możliwe bez włączenia w sieć relacji organizacji kluczowych zasobów sieciowych (otworzenia się relacyjnego organizacji).

Aby dokonać skutecznej transformacji duże podmioty (zamknięte sieci izolowane) muszą spojrzeć krytycznie nie tylko na ich „nieefektywne” elementy, ale na organizację jako całość. Warto zwrócić uwagę na to, że najczęściej ofiarą „optymalizacji kosztowych’” padają właśnie elementy relacyjne. Są one niezwykle czasochłonne w tworzeniu i ustanawianiu (zaufanie to proces). Składa się ta to m.in. cięcie kosztów związanych ze szkoleniami w czasach, gdy rzeczywistość wymaga czegoś wręcz odwrotnego.

To bardzo ciekawy aspekt zarówno w zakresie zmieniającej się roli HR w organizacjach (poszukiwania nowej roli), jak asymetrii w zakresie akumulacji wiedzy. Przedsiębiorstwa sieciowe są w stanie akumulować wiedzę i uczyć się na podstawę relacji sieciowych. Duże organizacje nie utrzymujące rozległych relacji oraz za sprawą outsourcingu, zmniejszają poziom akumulacji wiedzy w organizacji. Ponadto z racji na swoją izolację nie są w stanie „czytać z otoczenia” (nie widzą zza muru). Co ciekawe taka sytuacja ma miejsce również wewnątrz samych organizacji, ponieważ bardzo często moja praca polega właśnie na odkrywaniu wiedzy (o rynku, produktach, konkurencji, dostępnych innowacjach), która istnieje w różnych częściach organizacji, i tylko tam.

Dobrym przykładem innego myślenia jest uzasadnienie decyzji o szkoleniu polskich pilotów F16 wyłącznie w amerykańskich ośrodkach. Ta zdecydowanie droższa metoda został wybrana po to, aby uniknąć nawet nieświadomego przenoszenia nawyków starych doktryn do sił o zupełnie innym charakterze.

Tytuł tego wpisu inspirowany był krótkim artykułem Andersona „More is Different”. Myślę, że podobnie w stosunku do biznesu powinniśmy zacząć zastanawiać się nad tym, jakie formy organizacji są wymagane do wdrażania określonych modeli biznesowych. Rzeczywistość rynkowa jest coraz bardziej złożona. A to oznacza, że na kolejnych poziomach ma inne cechy. Jedną z cech złożoności jest zmniejszona użyteczność mechanizmów przyczynowo-skutkowych. Organizacja nie może dłużej działać w oparciu o reakcje na zmiany jej otoczenia – musi być zintegrowania z rzeczywistością rynkową w ramach sieci relacji.

Krawędzie chaosu

Mamy świat, w którym nic nie jest „proste”. Świadomość złożoności nie jest jednak czymś oczywistym, ani tym bardziej pożądanym. Właściwie wkraczamy dopiero w świadomość tego, czym złożoność jest. Złożoność, choć niezależna od człowieka, daje się coraz wyraźniej obserwować w najprostszych elementach świata – wzroście ilości impulsów (wcale nie „informacji”), jakie nas otaczają za sprawą internetu, czy nawet bardziej pierwotnego czynnika, coraz większej liczby nas samych – ludzi. Świadomość złożoności to świadomość ograniczeń i świadomość niedoskonałości. XXI wiek wyłania się powoli, jako wiek, w którym teorie Einsteina czy teorie kwantowe są traktowane, jako teorie klasyczne. W kontekście rozważań nad złożonością można je traktować wręcz, jako teorie antyczne (lub teatralne – z punktu wodzenia filozofii).

Antyk jest zresztą dobrą trampoliną do rozważań na dowolnym właściwie polu w zakresie complexity – od społecznych czy politycznych po stricte naukowe. Obciążenie Zachodu myśleniem i życiem na modłę antyczną jest wręcz wszechobecne. Asymilacyjna polityka imigracyjna UE nie jest niczym innym jak powieleniem polityki rzymskiej. Demokracja, podobnie jak w antycznych Atenach, jest demokracją bogatych. System prawny, w dalszym ciągu, jest systemem terytorialnym, itd. Zresztą powyższy akapit jest najlepszym dowodem na wyzwania, jakie przynosi złożoność – jest klęską uproszczeń. Dla każdego z powyższych przykładów sam mogę przytoczyć z łatwością argumenty przeciwne.

via http://27.media.tumblr.com/tumblr_lg2m7zfdYX1qcaa8wo1_500.jpg

Co zatem jest prawdą? Czy istnieje „prosta prawda”? Teoria złożoności to teoria, która mówi, że każdy działający system kieruje się swoimi własnymi, indywidualnymi zasadami, które w każdej chwili mogą okazać się inne, niż przed chwilą. W każdej chwili mogą się również „wyczerpać” i system ulegnie dezintegracji (rozpad, połączenie z innym systemem, przeobrażenie w system o innym charakterze). Dlatego np. czytając książki socjologów z lat ’60, ‘70, ’80 czy ’90 wiemy z góry, że opisują oni pewnego rodzaju systemy społeczne, które wtedy istniały. Dzisiaj już ich nie ma, podobnie jak kultury, wartości i wielu innych elementów, które pozbawiają relewantności tamte opisy. Oczywiście potencjalne analogie do dzisiejszej rzeczywistości są o tyle zasadne, o ile odnoszą się do podobieństw do wybranych zasad samoorganizacji, które w ten czy inny sposób emanują ze współczesnych systemów społecznych. Samoorganizacja, to ogólnie rozumiany stopień zorganizowania, zakres złożoności oraz stopnień „skomplikowania” (wewnętrzna dynamika systemu, bez znaczenia dla wyników).

Przy czym – znowu – samo słowo „system” przywołuje zbyt wiele kalek pojęciowych, aby mogło być dalej użyteczne. To zresztą symptomatyczne, jak wiele dziedzin nauki i filozofii akademickiej mierzy się z problemem aparatu pojęciowego. To kolejny zresztą wkład do samego pojęcia złożoności. Dlatego dla systemów rozpatrywanych z punktu widzenia złożoności będę używał pojęcia „systemy skorelowane”.

Systemy złożone są „dynamicznymi systemami otwartymi”, a zatem nie takimi systemami, jakie mamy na myśli używając potocznie słowa „system”. W istocie nawet „systemy informatyczne” coraz częściej przyjmują formę systemów skorelowanych. W czasach usieciowienia nie istnieją, bowiem „niezależnie”. Podobnie zresztą jak ciało ludzkie, które, traktowane jako „system biologiczny”, jest otwarte zarówno na korelację ze światem wirusów i bakterii, jak i na korelację z systemem zupełnie innego rodzaju, jakim jest „system mentalny” świata idei innych ludzi. Te dwa przykładowe korelaty systemu biologicznego nie są jedynymi. Na każdy organizm wpływ ma przecież „system fizyczny” (np. grawitacja, pogoda) czy „system edukacyjny”. Zapewne zdajemy sobie obecnie sprawę z istnienia jedynie z ułamka „systemów”, z którymi jesteśmy skorelowani. Autonomiczne lub nie, decyzje podejmowane w ramach człowieka, traktowanego jako system biologiczny, są jedynie wąskim aspektem tego, w jaki sposób funkcjonuje dany system (korelat).

Jednym z kluczowych problemów złożoności jest wrażliwość na warunki początkowe. To jednak zbyt mało. Moim zdaniem trzeba mówić o warunkach początkowych każdej „transakcji” w systemie skorelowanym (każdy może przecież okazać się kolejnym „początkiem”), w której każda inna minimalna zmiana konfiguracji warunków transakcji może prowadzić do całkiem innego, kolejnego (lub współistniejącego) stanu układu. Takie podejście jednak ma pewną istotną wadę z punktu widzenia „poznawalności praw” rządzących określonym systemem, np. „społeczeństwem”. Ilość danych, zależności, relacji, ich parametrów, zmienności w czasie czy w ogóle (primo) wymykanie się normatywności systemu matematycznego sprawia, że „zasady” (ramy) te posiadają cechę „nieweryfikowalności”. W tym sensie, aby w ogóle spróbować zrozumieć pojęcie złożoności, musimy nie tylko zmienić język, w jakim staramy się myśleć o complexity, ale w ogóle powołać nowe modele rozumienia.

W praktyce, największym ćwiczeniem rozumowym, jakie musimy wykonać w kontekście złożoności, jest pogodzenie się ze świadomością niemożności poznania „praw rządzących” złożonością (patrz wpis „Model jako błąd”). Innymi słowy – nasza wola, indywidualna czy kolektywna jest tylko jednym z wielu korelatów. A to oznacza, niezwykle ograniczoną lub wręcz losową zdolność do prawidłowego prognozowania, nawet na nasz własny temat.

To niezwykle ciekawy aspekt, ponieważ dotychczas za systemy inteligentne uważano systemy zdolne do antycypacji, czyli takie, które skutecznie wykorzystują „modele przyczynowo-skutkowe”. Jednak w myśl teorii złożoności, nigdy nie może być mowy o wzięciu pod uwagę wszystkich przyczyn (warunków wyjściowych transakcji), ani nawet tych „najważniejszych” (jak mam wskazać najważniejsze, skoro nie jesteśmy wskazać wszystkich?).

Wydaje się zatem, że w świetle teorii złożoności, nie da się utrzymać dłużej koncepcji Wszechświata jako superkomputera, a „reguł systemów” jako jego „wewnętrznych algorytmów”. Podejście to zakłada istnienie tzw. „general interaction” (patrz „teoria wszystkiego”), czyli – nawet nieskończenie odległej, ale współzależności wszystkich korelatów, w ramach kierunku upływu czasu (arrow of time). Przyjmując ten tok myślenia trzeba by raczej powiedzieć o „general collapse” – zapadaniu się systemów (jeśli czas upływa tylko w jednym kierunku, nigdy nie będziemy w stanie poznać wyjściowych warunków, jakie mogły mieć wpływ na obecnie obserwowane wyniki).

Systemy złożone nie poddają się bowiem rozkładowi na „czynniki pierwsze” (pierwsze przyczyny, elementarne składowe, podsystemy, itp.) które możemy przeanalizować pod kątem zrozumienia tego, co otrzymamy „na wyjściu” (kartezjanizm). Dzieje się tak, ponieważ tylko bardzo specyficzny i niezwykle wrażliwy na zaburzenia zestaw czynników, może prowadzić do określonych rezultatów. W tym sensie pewne wyniki są „nieodtwarzalne (niepowtarzalne), co sugeruje kluczowe znaczenie dwóch elementów: przypadkowości i nieodwracalności.

via http://whatspastisprologue.tumblr.com/page/28

Metateoria złożoności oznacza przejście od praw rządzących elementami, do poszukiwania zasad rządzących całością (emergencja). Przy czym nie istnieje możliwość wytłumaczenia ogólnych zasad kierujących systemem, na podstawie analizy jego składników, ich własności lub relacji pomiędzy nimi –

„Złożoność jest własnością modelu, która sprawia, że trudno określić zachowanie układu w danej reprezentacji matematycznej, nawet gdy dana jest niemal pełna informacja o składnikach układu i o ich wzajemnych relacjach” (Edmonds).

Dla Van Dijka

„proces oddalenia czasowo-przestrzennego charakteryzuje się nie tylko rozszerzaniem przestrzeni i czasu, ale również kurczeniem się przestrzeni i skracaniem czasu.”

Jeśli zatem czaso-przestrzeń jest w rzeczywistości „wirtualnym naczyniem” (czaso-przestrzeń jako framework), które nie posiada właściwości kwantowych (Hossenfelder), to nie mamy innego wyjścia, niż porzucić zrozumienie na rzecz tego, co dostępne. Rzeczywistość nie składa się z materii, ale ze struktury i relacji w obrębie cząstek elementarnych na dowolnym poziomie zorganizowania (złożoności). Przy czym przyczyną braku zdolności do prognozowania korelatów są ich wewnętrzne własności a nie stopień ich złożoności – co pośrednio możemy wnioskować z teorii strun (na obecnym poziomie jej dostępności).

To zresztą kolejna przesłanka, za twierdzeniem, że nie istnieje prawda, a tylko rzeczywistość – coś, co możemy określić jako stan prawdo-podobny. Uproszczone, modelowe myślenie w tym kierunku sugeruje Gershenson, wskazując na rozróżnianie istnienia absolutnego i istnienia relatywnego. Przy czym, z mojego punktu widzenia, jest to raczej rozróżnienie na absolutną rzeczywistość relacji i relatywną prawdę materii. W tym sensie ptolemeuszowy geocentryzm jest „prawdziwą” reprezentacją relacji i „fałszywym” obrazem materii.

To co sprawia, że pewne systemy zwracają określony wynik transakcji – reakcję – jest tak naprawdę jedynie wynikiem uproszczenia obserwacyjnego (mierzymy tylko te dane, które mogą prowadzić do skończonej ilości wniosków). Najlepszym przykładem tego typu ograniczenia, wynikającego z modelu myślowego, jest sama złożoność, której przeciwstawiana jest prostota – coś może być „proste”, a jeśli takie nie jest – uznajemy to za „złożone”. Przy czym, za „złożone” uznajemy takie systemy, co do których mamy przekonanie, że są „wytłumaczalne”, tzn. że istnieją w nich (co prawda trudno dostępne) zbiory reguł, które nimi „kierują”. W uproszczeniu – takie systemy, które są w stanie dostarczać antycypowalnych wyników.

Bez względu na stopnień zorganizowania („prosty-złożony”), za przeciwieństwo systemów w ogóle uznawany jest chaos. Bez względu jednak na stopień złożoności systemu jest on pewną formą organizacji, uporządkowania. Np. samochód jest znacznie bardziej „skomplikowanym” systemem niż rower, jednak dostarcza on podobnie przewidywalnych, uporządkowanych wyników (przy czym złożone układy dynamiczne nie muszą być skomplikowane, np. „wieloelementowe” co, na zupełnie innym poziomie wspiera tylko koncepcję istnienia „anty-materii” jako elementu konstytutywnego Wszechświata).

via: http://everythingyoulovetohate.tumblr.com/post/10393936058

Istotą rozumienia złożoności jest to, w jaki sposób uporządkowanie są systemy złożone (dynamiczne) – „prawa kierujące korelatami” lub inaczej – w jaki sposób złożone systemy dostarczają przewidywalnych wyników. W jaki sposób dynamiczne, nieliniowe, niekontrolowalne i pozostające w ciągłej reorganizacji systemy złożone, są w stanie zwracać przewidywalne wyniki? W tym kontekście warto sięgnąć do pojęcia tzw. „złożoności efektywnej”, która charakteryzuje się

„krytyczną równowagą pomiędzy porządkiem a chaosem, zachodzącą przy lub blisko tak zwanej krawędzi chaosu” (Wadhawan).

Zatem centralnym problemem staje się pojęcie tzw. spontanicznej samoorganizacji (Prigogine), co wydaje się znacznie bardziej wykraczać poza podejście ewolucyjne. Samoorganizacja (coś istotnie innego niż samosterowalność) to zdolność systemu do wzrostu własnej złożoności, uporządkowania, zmiany organizacji, funkcji w ramach transakcji z dostępnymi korelatami. Przypomina to bardzo definicję cybernetyki, z tą różnica, że mówimy tak naprawdę nie o wybranych systemach (organizacjach, uporządkowaniach), ale o całości systemów jako takich, które właśnie poprzez transakcje informacyjne (mechanisms of feedback), prowadzą do zmiany stopnia zorganizowania systemu. To o tyle ciekawe, że dotyka to teorii informacji, teorii mediów i w ogóle czegoś, co można określić jako „komunikację systemów” lub być może trafniej – translokacji systemów.

Na poziomie komunikacji i mediów społecznych (organizacji społecznej) połączeniem spontaniczności, chaosu i uporządkowania jest system anarchiczny. Cechy tego typu organizacji (systemów współzależności, sposobu „zorganizowania się” a nie „organizacji” w tradycyjnym rozumieniu) opisuje Ward. Są to:

(1) niewymuszona partycypacja (patrz: podstawowa cecha social media),

(2) nakierowanie na wykonanie określonej funkcji/zadań (social media: funkcja kontrolna – „4 władza”),

(3) istnienie tylko czasowe (temporalność) do chwili wykonania zadania/wypełnienia swojej roli (social media: spontaniczna, natychmiastowa mobilizacja i samoorganizacja społeczna oraz podobnie szybkie wygaszanie się protestów – „rozejście się do domów”) oraz

(4) propagują się poprzez relacje bezpośrednie (face-to-face, w dzisiejszych czasach poprzez usieciowienie).

Całość problemu złożoności jest dla mnie przede wszytkim ciekawa od strony złożoności efektywnej, która łączy się z innym, zasadniczym pojęciem jakie rozważałem do tej pory – pojęciem innowacji (destrukturalizacji, która także wiążę się z pewnym granicznym stanem – critical path /postęp/ progres podąża ścieżką krytyczną).

W powyższym kontekście z jednej strony uderza ciągła wiara w zależność przyczynowo-skutkową i bazującym na niej przekonaniu o skuteczności tego modelu dla celów prognostycznych, a z drugiej wyłaniającą się z powyższych rozważań bliska zależność potocznie rozumianego „chaosu” i efektywnej złożoności w kontekście społecznym. Jednym z takich korelatów wydają się być media społeczne – dynamiczne, nieliniowe, niekontrolowalne i pozostające w ciągłej reorganizacji systemy („losowa infosfera”), w których odtworzenie „pierwotnych przyczyn” pozostaje poza możliwościami nauki.

We Can Remember It for You Wholesale

Nie opieramy się już na pamięci, ale na kontekstach. Własna pamięć nie jest nam już potrzebna. Urządzenia „pamiętają” za nas. Nasza pamięć nie jest już w nas. Pamięć stała się „peryferium”. Stała się modułem, który możemy wykorzystywać. Pamięć została od nas oddzielona i wszczepiona w narzędzie. Została pozbawiona filtra umysłowego, który dokonywał subiektywnej kuracji tego, co zapamiętujemy. Tego, co pamiętane. W tym sensie pamięć peryferyjna stała się rodzajem „obiektywistycznej” struktury rzeczywistości. Obrazem rzeczywistości dostępnym do interpretacji jako prawda.

To, co zachowywane kształtuje naszą rzeczywistość. To, czego nie zachowamy przestaje być częścią rzeczywistości. Zachowujemy jednak tylko to, co może dokonać samoistnego performance’u. Buduje to rodzaj pamięci, która jest w stanie sama dokonywać transmisji znaczeń („pamięć która mówi/przemawia”). Zatem to, co tworzy naszą pamięć jest kontekstem dostępnym nie tylko dla nas. Nasza pamięć staje się pamięcią ogólną a nie unikalną – jest pamięcią kontekstową.

Dlatego temporalność stała się naczelnym stanem umysłu. Liczy się tylko kontekst. Dlatego historię-pamięć możemy tylko interpretować, a nie rozumieć. Rozumienie jest procesem indywidualnym, interpretowanie – procesem społecznym. Interpretowanie nie ma charakteru zamkniętego, a rozumienie – tak. Rozumienie jest w stanie dostarczać prawd, a interpretacja – nie.

Dlatego możemy mówić o tym, że rzeczywistość jest tym samym co płynność. Rzeczywistość możemy rozumieć tylko jako nieustanną rekonfigurację tego co dostępne. Rzeczywistość możemy „rozumować” na podstawie dostępnych kontekstów. To, co dostępne jest tym co pamiętane. Tym, co zostało (za)pamiętane. W zależności od kontekstu te same peryferia mogą dostarczać różnych interpretacji rzeczywistości. Nie dysponujemy już pamięcią mentalną aby móc falsyfikować konteksty.

Dlatego prawda nie istnieje. Istnieje tylko „rzeczywistość” w której wszyscy podrabiamy swoją społeczną tożsamość. Istnieje tylko temporalny stan tożsamości. Tożsamości, która jest odtwarzana.

Uber?

Co takiego fascynującego jest w Uberze, że ogniskuje tyle zainteresowania? Dla mnie Uber wydaje się reprezentować pierwsze przedsiębiorstwo oparte na kapitale społecznym. A właściwie słowo „przedsiębiorstwo” czy „firma” nie oddaje charakteru tego, czym Uber jest. Uber reprezentuje rodzaj zorganizowania opierającego się na masowym wykorzystaniu pracy ludzkiej oraz społecznej organizacji pracy. W tym sensie pozwala „sile roboczej” skuteczniej konkurować z kapitałem.

[idąc za retoryką Marksa ;]

Ponieważ po raz pierwszy „siła robocza” zjawia się na rynku, jako siła realna, zdolna przekształcać rynek na podobnych zasadach jak kapitał.

Zwykli ludzie, dzięki logice sieciowej są zdolni kreować nowe rynki, na których siła robocza jest w stanie skutecznie konkurować z kapitałem, automatyzacją czy korporacjami (w tym korporacjami zawodowymi rozumianymi jako rodzaj organizacji). Redukowanie zatrudnienia, zwłaszcza w przypadku wielokierunkowo wykształconej siły roboczej wiąże się nie tylko z krótkoterminowym obniżeniem kosztów dla firmy, ale ze średnioterminowym wzrostem konkurencji. Konkurencji ze strony tańszych, lepszych i sprawniej zorganizowanych sieci wykonawców i poddostawców – społecznego łańcucha tworzenia wartości. Na tym bazuje właśnie logika Ubera. To typowy przykład wykorzystania kolektywnej inteligencji, która opiera się w większym stopniu na kompetencjach społecznych niż merytorycznych.

To tutaj spoczywają największe pokłady kreatywności. Kreatywności, która nie jest w stanie przetrwać długo w jakiejkolwiek pojedynczej strukturze. Struktury są skończone. Kreatywność nie jest motywowana ideologicznie ale idealistycznie.

Uber zamiast wyciągać pieniądze od mikroprzedsiębiorców – daje im zarobić. W tym sensie uberonomia w bardziej sprawiedliwy sposób rozdziela korzyści pomiędzy uczestników sieci kooperacji niż np. Google. Ta „większa uczciwość” oznacza większą równość. W praktyce sprowadza się do otrzymywania ekwiwalentnej równości wkładu własnego.

Sharing economy to ekonomia oparta do dążenia do tego, co możliwe do osiągnięcia. Ekonomia Google to ekonomia pokonania konkurentów.

Wydaje się, że ekonomia „tego, co możliwe do osiągnięcia”, jest jedyną możliwą ekonomią zwykłych ludzi.